* ๋ฅ๋ฌ๋ session์ Sung Kim๋์ ๊ฐ์ (์ ํ๋ธ)๋ฅผ ์์ฝ/์ ๋ฆฌํ ๋ด์ฉ์ ๋๋ค.
** Sung Kim๋์ ๊ฐ์์ ์๋ฃ๋ ์๋์ ์๋ฃ๋ฅผ ์ฐธ๊ณ ํ๊ณ ์์ต๋๋ค.
- Andrew Ng's ML class
- Convolutional Neural Networks for Visual Recognition
- Tensorflow
CONTENTS
- ๋ด๋ด๋คํธ์ํฌ,Neural Nets(NN) for XOR
- XOR๋ฌธ์ ํธ๋ ๋ฐฉ๋ฒ
- ์ญ์ ํ์ค๋ฅ, Backpropagation
09-1. Neural Nets(NN) for XOR
AND๋ฌธ์ ๋?
0, 1์ผ ์ค ๋ ๋ค 1์ผ ๋๋ง +์ด๊ณ ํ๋๋ผ๋ 0์ด๋ฉด -์ด๋ค.
(0 0) โ - (1, 0) โ -
(0 1) โ - (1, 1) โ +

OR๋ฌธ์ ๋?
0, 1์ผ ์ค ๋ ๋ค 0์ผ ๋๋ง -์ด๊ณ ํ๋๋ผ๋ 1์ด๋ฉด +์ด๋ค.
(0 0) โ - (1, 0) โ +
(0 1) โ + (1, 1) โ +

XOR๋ฌธ์ ๋?
0, 1์ผ ์ค X1๊ณผ X2๊ฐ ๊ฐ์ผ๋ฉด -์ด๊ณ ๋ค๋ฅด๋ฉด +์ด๋ค.
(0 0) โ - (1, 0) โ +
(0 1) โ + (1, 1) โ -

XOR๋ฌธ์ ๋ AND์ OR๋ฌธ์ ์ฒ๋ผ ํ๋์ ์ง์ ์ผ๋ก +์ -์ ๋๋ ์ ์๋ค. ์ฌ๋ฌ ๊ฐ์ Multiple logisitc regression์ด ํ์ํ๋ค.
XOR ํธ๋ ๋ฐฉ๋ฒ

(์์) X1๊ณผ X2๊ฐ 0์ผ ๋ Y๊ฐ์ ๋ฌด์์ผ๊น?
๊ฐ neural network์ weight๊ณผ bias(W,b)๊ฐ ๋ค์๊ณผ ๊ฐ์ด ์ ํด์ ธ์๋ค.
1. W1 = 5, W2 = 5, b = -8
2. W1 = -7, W2 = -7, b = 3
3. W1 = -11, W2 = -11, b = 6

09-2. Backpropagation
W,b(weight๊ณผ bias)๋ฅผ ๋ฐ์ดํฐ๋ก๋ถํฐ ์ด๋ป๊ฒ ํ์ตํ ์ ์์๊น?
: Gradient Descent(๊ฒฝ์ฌํ๊ฐ๋ฒ) ์๊ณ ๋ฆฌ์ฆ์ ํตํด์ ๊ธฐ์ธ๊ธฐ๊ฐ ์ต์๊ฐ ๋๋ ์ ์ ๊ตฌํ๋ค.
* ๋ด๋ด๋คํธ์ํฌ์์๋ W,b(weight๊ณผ bias)๋ฅผ ๋ฐ์ดํฐ๋ก๋ถํฐ ์ด๋ป๊ฒ ํ์ตํ ์ ์์๊น?
: ๊ฐ x1, x2 ... xN์ด Y์ ์ํฅ๋ ฅ์ ๊ตฌํ ์ ์์ด์ผ์ง W,b๋ฅผ ํ์ตํ ์ ์๋ค. ์ด๋ฅผ ์ํด backpropagation์ ์ฌ์ฉํ๋ค.
์ญ์ ํ์ค๋ฅ(backpropagation)์ด๋?
: ์์ธกํ ๊ฐ๊ณผ ์ค์ ๊ฐ์ ์ฐจ์ด์ธ cost๊ฐ์ ๋ค์์๋ถํฐ ๋ค์ ๋์๊ฐ๋ฉด์ ๊ณ์ฐํ๋ฉด์ w,b๋ฅผ ์กฐ์ ํ๋ ๋ฐฉ๋ฒ์ด๋ค.
์ฐ์๋ฒ์น(chain rule)์ด๋?
: ๋ฏธ์ ๋ถํ์์ ๋๊ฐ ์ด์์ ํจ์๋ฅผ ํ๋์ ํจ์๋ก ๋ง๋๋ ๊ณต์์ด๋ค.

backpropagation ๊ณ์ฐ ๋ฐฉ๋ฒ
f = wx + b, g = wx โ f = g+b์ผ ๋ ์ด๋ฅผ ๊ทธ๋ฆผ์ผ๋ก ๋ํ๋ด๋ฉด ์๋์ ๊ฐ๋ค.

โ 1. forward ๋ฐฉ์์ผ๋ก ์ฃผ์ด์ง ๊ณต์์ ๋ง๊ฒ g์ f๋ฅผ ์ฐพ์๊ฐ๋ค.
: g = w*x ์ด๋ฏ๋ก -10์ด๊ณ f = g + b์ด๋ฏ๋ก -7์ด๋ค.
โ 2. backward๋ก ๋ฏธ๋ถ๊ฐ์ ์ฐพ์๊ฐ๋ค.
: ์ฃผ์ด์ง ๊ณต์์์ ๋ฏธ๋ถ๊ฐ์ ๋ฏธ๋ฆฌ ๊ตฌํด๋๋ฉด ์๋์ ๊ฐ๋ค.

ํ๋์ ์ด๋ฏธ ์ฃผ์ด์ง ๋ฏธ๋ถ๊ฐ์ด๊ณ , ๋นจ๊ฐ ๋ถ๋ถ์ด chain rule์ ์ด์ฉํ ๊ณ์ฐ

โ 3. ๋ฏธ๋ถ๊ฐ์ ํตํด ์กฐ์ ํด๋๊ฐ๋ค.
af/aw์ ๊ฐ์ 5์ด๋ค. ์ฆ w๊ฐ 1์ด ๋ฐ๋๋ฉด f๊ฐ 5๋ฐฐ ๋ฐ๋๋ค๋ ์๋ฏธ๋ฅผ ๊ฐ์ง๋ค. ๊ทธ๋ฌ๋ฏ๋ก w๋ฅผ ํตํด f๋ฅผ ์กฐ์ ํด๋๊ฐ ์ ์๋ค.