2023. 9. 11. 22:23ใArtificialIntelligence/2023GoogleMLBootcamp
Deep L-layer Neural Network
input dim ๋งํผ input ๋ ธ๋์ ์
1๊ฐ์ input image์ ๋ํด, feature๋ค์ ์๋ก ํด์ํ ์ ์๋ค
Forward Propagation in a Deep Network
๋ชจ๋ training example m๊ฐ๋ฅผ ํ ๋ฒ์ horizontally ํํํ๋ ๊ฒ -> vector version
Getting your Matrix Dimensions Right
Why Deep Representations?
input layer์ ๊ฐ๊น์ด ๋ ธ๋๋ค์ ์ฃ์ง detect (๊ฐ๋ก, ์ธ๋ก ๋ฐฉํฅ์ low level features)
๊ฐ์ด๋ฐ - ๋, ์ฝ detect
๋ง์ง๋ง - ์ผ๊ตด ์ธ์ (high level features)
์ค๋์ค ์ธ์์ ๊ฒฝ์ฐ์๋, low to high level detection
์ฌ๋์ ๋๋ ์ ์ฌํ ๊ณผ์ ์ผ๋ก ์ธ์ํ๋ค๊ณ ํ๋ค.
๊ณ์ธต์ ์ธ ํ์ต์ด ์ด๋ฃจ์ด์ง ์ ์๋ค๋ ์ฅ์ !
gate ์๊ฐ ์ ๋ค (๊ณ์ฐ ๋ณต์ก๋๊ฐ log n)
shallower networks -> ๋งค์ฐ ๋ง์ ๋ ธ๋๋ค์ด ํ์ (์ง์์ ์ธ ๊ณ์ฐ ๋ณต์ก๋)
๋ฐ๋ผ์ ์ธต์ ์ฌ๋ฌ ๊ฐ ์๋ ๊ฒ์ด ๋ ํจ๊ณผ์ ์ด๋ค.
๋งค์ฐ deepํ๊ฒ Layer๋ฅผ ์๋ ๊ฒ์ด ์ต๊ทผ ๊ฒฝํฅ
Building Blocks of Deep Neural Networks
cache z[l]
backpropagation์ l๋ก๋ถํฐ l-1์ ์ป๋ ๊ฒ์ด ๋ชฉ์ ์ด๋ค. (derivative)
W์ (parameter)์ ๋ฏธ๋ถ๊ฐ์ ์๊ธฐ ์ํด์, backpropagation!
Forward and Backward Propagation
da[l]์ ๊ณ์ฐํ๋ ์์
code ์์ฑ๋ณด๋ค data์์ ์ด๋ ค์์ด ์ค๋ ๊ฒฝ์ฐ๊ฐ ๋ง๋ค
Parameters vs Hyperparameters
์ฐ๋ฆฌ๊ฐ controlํ๋ parameter -> hyperparameter
learning rate, iter, layer num, unit num, activation func
๊ฐ์ ์ ํ๊ณ (idea) -> programming (Code ๊ตฌํ) -> ์คํ ๊ฒฐ๊ณผ๋ฅผ ํตํด ๊ฐ์ค ์์ (๋ค์ ์์ด๋์ด๋ก)
implical ๊ณผ์ / ์ฒ์ params ์ฐพ์ ๋, ํน์ ๊ตฌ๊ฐ์ ๊ฐ๋ค์ ์๋ํด๋ณด๋ผ
What does this have to do with the brain?
'ArtificialIntelligence > 2023GoogleMLBootcamp' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[GoogleML] Setting up Machine Learning (0) | 2023.09.12 |
---|---|
[GoogleML] Neural Networks and Deep Learning ์๋ฃ (0) | 2023.09.12 |
[GoogleML] Activation Functions' Derivatives (0) | 2023.09.10 |
[GoogleML] Shallow Neural Network, Vectorizing (0) | 2023.09.09 |
[GoogleML] Chapter 1 Neural Networks and Deep Learning (0) | 2023.09.07 |