2023. 9. 13. 13:40ใArtificialIntelligence/2023GoogleMLBootcamp
Normalizing Inputs
Vanishing / Exploding Gradients
๊ฒน๊ฒน์ด ์์ธ W -> weights
1.5 -> ์ง์์ ์ผ๋ก ์ฆ๊ฐ (gradient ํญ๋ฐ)
0.5 -> ์ง์์ ์ผ๋ก ๊ฐ์ (gradient vanishing)
layer๊ฐ ๊น๊ฒ ์์ผ์๋ก, ํ์ต์ด ์ด๋ ค์์ง๋ ๋ฌธ์
์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํ ์จ์ดํธ ์ด๊ธฐํ
Weight Initialization for Deep Networks
weight init ์ค์ํ๋ค
gradient๊ฐ ํญ๋ฐํ๊ฑฐ๋ ์ฌ๋ผ์ง๊ฒ ํ์ง ์๊ธฐ ์ํด์
Numerical Approximation of Gradients
๋จ๋ฐฉํฅ / ์๋ฐฉํฅ grad ๊ณ์ฐ
Gradient Checking
์ด ์์์ ์ด๋ค ๊ฐ์ ํ์ธํ๋ผ๋๊ฑฐ์ง . . ? ์ ๋ชจ๋ฅด๊ฒ ๋ค.
cos ์ ์ฌ๋๋ ์๋ ๊ฒ ๊ฐ๊ณ ,
ํธ๋ฏธ๋ถ ๊ฐ์ด๋ ์๋ ํจ์ ๋ฏธ๋ถ ๊ฐ ์ฐจ์ด๋ฅผ ๋ norm์ ํฉ์ผ๋ก ๋๋๋ค. . ?
Gradient Checking Implementation Notes
1. ๋ฏธ๋ถ ๊ฐ์ ๊ณ์ฐํ๋ ์ฐ์ฐ์ computationalํ๊ฒ ๋น์ผ ์ฐ์ฐ, ํ์ต ๊ณผ์ ์์๋ ํ์ธํ์ง ๋ง์
2. ๋ฒ๊ทธ๊ฐ ์๋์ง, ์์ ์ ๋๋ก ์์ฑ๋๊ฑด์ง ํ์ธํ๊ธฐ
3. ๊ท์ ํญ์ด ์๋ ๊ฒ์ ์๋์ง
4. dropout ์ ์ฉํ๋ฉด cost func ์ ๋๋ก ๊ณ์ฐํ๊ธฐ ๋งค์ฐ ์ด๋ ต๋ค -> keepprob์ผ๋ก drop ๊บผ๋๊ณ ํ์ธ -> ์ดํ์ ์กฐ์
5. random initialization (0์ ๊ฐ๊น์ธ ๋๋ง backpropagation์ด ์ ๋๋ก ๋์ํ ์ ๋ ์๋ค.)
'ArtificialIntelligence > 2023GoogleMLBootcamp' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[GoogleML] Adam Optimizer (0) | 2023.09.20 |
---|---|
[GoogleML] Optimization Algorithms (0) | 2023.09.20 |
[GoogleML] Regularizing Neural Network (0) | 2023.09.12 |
[GoogleML] Setting up Machine Learning (0) | 2023.09.12 |
[GoogleML] Neural Networks and Deep Learning ์๋ฃ (0) | 2023.09.12 |