* ๋ฅ๋ฌ๋ session์ Sung Kim๋์ ๊ฐ์ (์ ํ๋ธ)๋ฅผ ์์ฝ/์ ๋ฆฌํ ๋ด์ฉ์ ๋๋ค.
** Sung Kim๋์ ๊ฐ์์ ์๋ฃ๋ ์๋์ ์๋ฃ๋ฅผ ์ฐธ๊ณ ํ๊ณ ์์ต๋๋ค.
- Andrew Ng's ML class
- Convolutional Neural Networks for Visual Recognition
- Tensorflow
๋ชฉํ
๊ธฐ์ด์ ์ธ ๋จธ์ ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ ์ดํด
- Linear regression, Logistic regression(classification)
- Neural networks, Convolutional Neural Network, Recurrent Neural Network
01. Machine Learning Basics
๋จธ์ ๋ฌ๋์ด๋?
๋จธ์ ๋ฌ๋์ ์ฌ๋์ด ๋ชจ๋ ๊ท์น์ ๋ง๋ค์ด๋ผ ์ ์๋ค๋ ํ๊ณ๋ฅผ ๊ทน๋ณตํ๊ธฐ ์ํด ๋์จ ๋ฐฉ๋ฒ์ด๋ค. ๋จธ์ ๋ฌ๋์ ๋ง ๊ทธ๋๋ก ๊ธฐ๊ณ๊ฐ ํ์ตํ๋ค๋ ๋ป์์ ์ปดํจํฐ๊ฐ ์ธ๊ฐ์ ๋์์ด ์์ด ์ค์ค๋ก ํ์ตํ ์ ์๋ ๊ฒ์ ๋ง๋ค์ด๋ด๋ ๋ถ์ผ์ด๋ค.
๋จธ์ ๋ฌ๋์ ๋ ๊ฐ์ง ๋ฐฉ์
Supervised learning(์ง๋ ํ์ต)
์ ๋ต์ด ์๋ ๋ฐ์ดํฐ ์ ์ผ๋ก ํ์ตํ๋ ๊ฒ
์์: ๊ณ ์์ด, ๊ฐ, ๋จธ๊ทธ์ปต, ๋ชจ์ ๋ฑ์ ์ฌ์ง์ ํตํด ํ์ต์ํจ ๋ค ์ฌ์ง์ ๋ณด์ฌ์ฃผ๊ณ ์ด๋ค ์ฌ์ง์ธ์ง ์์ธกํ๋ ๊ฒ
Unsupervised learning(๋น์ง๋ ํ์ต)
์ ๋ต์ด ์๋ ๋ฐ์ดํฐ์ ์ด ์๋ ๊ฒ
์์: ์๋ ํด๋ผ์ฐ๋, ๊ตฌ๊ธ ๋ด์ค ๊ทธ๋ฃนํ
Supervised learning(์ง๋ ํ์ต)์ ์ ํ
Regression
์๊ฐ์ ๋ฐ๋ผ ์ํ ์ ์๋ฅผ ์์ธกํ๋ ๊ฒ
Binary classification
์๊ฐ์ ๋ฐ๋ผ Pass/non-pass๋ฅผ ๋ถ๋ฅํ๋ ๊ฒ
Multi-label classification
์๊ฐ์ ๋ฐ๋ผ ์ํ ์ ์(A, B, C, D, F)๋ฅผ ๋ถ๋ฅํ๋ ๊ฒ
02. Linear Regression
Linear Regression ๋ฐฉ์
1. ๋ฐ์ดํฐ์ ๊ทธ๋ํ๋ฅผ ๋ณด๊ณ Linear regression ๋ชจ๋ธ์ ์ ํฉํ ์ง ๊ฐ์ค์ ์ธ์ด๋ค.
2. H(x) ๊ฐ์ค์ ๋ฐ์ดํฐ๋ฅผ ์ ๋ํ๋ผ ์ ์๋ W(weight), b(bias) ๊ฐ์ ์ฐพ๋๋ค.
3. ๋ฐ์ดํฐ๋ฅผ ์ ๋ํ๋ผ ์ ์๋ ๊ฐ ์ฐพ๋ ๊ณผ์ ์ธ Cost function์ ์ต์ํํ๋ ๊ณผ์ ์ ์งํํ๋ค.
Cost fuction(Loss function)์ด๋?
: ์์ธกํ ๊ฐ์ด ์ค์ ๊ฐ๊ณผ ์ผ๋งํผ ์ฐจ์ด๋ฅผ ๋ณด์ด๋์ง ํ์ธํ๋ ํจ์
03. How to minimize cost
Cost(=Loss) ํจ์์ ๊ทธ๋ํ
์ผ์ฐจ ํจ์์ธ H(xi)์ ์ ๊ณฑ์ ์ทจํ์ ๋ costํจ์๋ ์๋์ ๊ฐ์ ์ด์ฐจ ํจ์ ํํ์ ๋ชจํ์ด ๋๋ค.
๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ด๋?
ํจ์์ ๊ธฐ์ธ๊ธฐ๋ฅผ ๊ตฌํ๊ณ ๊ฒฝ์ฌ์ ์ ๋๊ฐ์ด ๋ฎ์ ์ชฝ์ผ๋ก ์ด๋์์ผ ๊ทน๊ฐ์ ์ด๋ฅผ ๋๊น์ง ๋ฐ๋ณต์ํค๋ ๊ฒ์ด๋ค. (์ถ์ฒ: ๊ฒฝ์ฌ ํ๊ฐ๋ฒ wikipedia)
ํ์ต์ ํ๋ ๊ฒ์ cost๋ฅผ ์ต์ํํ๋ ๊ฐ์ ์ฐพ์๊ฐ๋ ๊ณผ์ ์ด๋ค. cost function์ ์ต์ํํ๋๋ฐ ์ฌ์ฉํ๋ ์๊ณ ๋ฆฌ์ฆ์ Grdient descent algorithm(๊ฒฝ์ฌ ํ๊ฐ๋ฒ)์ด๋ค.
๊ฒฝ์ฌ ํ๊ฐ๋ฒ์ ๋ฐฉ๋ฒ
1. H(x)์ Weight๊ณผ b๋ฅผ ์ฐพ์์ ์ค์ ๊ฐ๊ณผ ์์ธก๊ฐ์ ์ฐจ์ด์ธ cost๋ฅผ ์ฐพ๋๋ค.
2. ํ๋ผ๋ฏธํฐ(W, b)๋ ๋ณ๊ฒฝํด๊ฐ๋ฉด์ cost๋ฅผ ์ต์ํํ๋ ๊ฐ์ผ๋ก ์ ์ ํ๋ค.
04. Multivariable Linear Regression
Linear regression์ ์ค๊ณํ๊ธฐ ์ํด ํ์ํ ๊ฒ
- Hypothesis ์
- Cost function
- Gradient descent algorithm
Multivariable linear regression(๋คํญ ์ ํ ํ๊ท)์ด๋?
ํ๋์ ๋ณ์๋ก ํ๋์ ๊ฐ์ ์์ธกํ๋ ๊ฒ์ด ์ ํ ํ๊ท๋ผ๋ฉด ์ฌ๋ฌ ๊ฐ์ ๋ณ์๋ก ํ๋์ ๊ฐ์ ์์ธกํ๋ ๊ฒ์ด๋ค. ๊ฐ๋จํ ์์๋ก ์ํ(X1), ์์ด(X2), ๊ตญ์ด(X3)์ ์ค๊ฐ๊ณ ์ฌ ์ ์๋ก ๊ธฐ๋ง๊ณ ์ฌ์ ์ ์(Y)๋ฅผ ์์ธกํ๋ ๊ฒ์ด๋ผ๊ณ ํ ์ ์๋ค.
๋งค๊ฐ๋ณ์(W, b)๊ฐ ๋ง์์ง๋ ๊ฒ์ ์ฒ๋ฆฌํ๋ ๋ฐฉ๋ฒ = Matrix ์ฌ์ฉ
๊ฐ๋ก๋ก๋ ํ ID๋ฅผ ๋ํ๋ด๋ ๊ฒ์ด๊ณ ์ธ๋ก๋ ํ๋์ ๋ณ์๋ฅผ ๋ํ๋ด๋ ๊ฒ์ด๋ค. ์๋ฅผ ๋ค์ด 5๋ช ์ ํ์์ 3๊ฐ์ง ์ค๊ฐ๊ณ ์ฌ ๊ณผ๋ชฉ ์ ์๋ฅผ ๋ํ๋ผ ๋ x11, x12, x13์ ์ํฌ์ ์ค๊ฐ๊ณ ์ฌ ๊ตญ์ด, ์ํ, ์์ด ์ ์๋ฅผ ๋ํ๋ด๋ ๊ฒ์ด๋ค.
H(๊ฐ์ค) = XW