2023. 9. 13. 13:40ใArtificialIntelligence/2023GoogleMLBootcamp
Normalizing Inputs


Vanishing / Exploding Gradients

๊ฒน๊ฒน์ด ์์ธ W -> weights

1.5 -> ์ง์์ ์ผ๋ก ์ฆ๊ฐ (gradient ํญ๋ฐ)
0.5 -> ์ง์์ ์ผ๋ก ๊ฐ์ (gradient vanishing)
layer๊ฐ ๊น๊ฒ ์์ผ์๋ก, ํ์ต์ด ์ด๋ ค์์ง๋ ๋ฌธ์
์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํ ์จ์ดํธ ์ด๊ธฐํ
Weight Initialization for Deep Networks

weight init ์ค์ํ๋ค
gradient๊ฐ ํญ๋ฐํ๊ฑฐ๋ ์ฌ๋ผ์ง๊ฒ ํ์ง ์๊ธฐ ์ํด์
Numerical Approximation of Gradients


๋จ๋ฐฉํฅ / ์๋ฐฉํฅ grad ๊ณ์ฐ

Gradient Checking


์ด ์์์ ์ด๋ค ๊ฐ์ ํ์ธํ๋ผ๋๊ฑฐ์ง . . ? ์ ๋ชจ๋ฅด๊ฒ ๋ค.
cos ์ ์ฌ๋๋ ์๋ ๊ฒ ๊ฐ๊ณ ,
ํธ๋ฏธ๋ถ ๊ฐ์ด๋ ์๋ ํจ์ ๋ฏธ๋ถ ๊ฐ ์ฐจ์ด๋ฅผ ๋ norm์ ํฉ์ผ๋ก ๋๋๋ค. . ?
Gradient Checking Implementation Notes

1. ๋ฏธ๋ถ ๊ฐ์ ๊ณ์ฐํ๋ ์ฐ์ฐ์ computationalํ๊ฒ ๋น์ผ ์ฐ์ฐ, ํ์ต ๊ณผ์ ์์๋ ํ์ธํ์ง ๋ง์
2. ๋ฒ๊ทธ๊ฐ ์๋์ง, ์์ ์ ๋๋ก ์์ฑ๋๊ฑด์ง ํ์ธํ๊ธฐ
3. ๊ท์ ํญ์ด ์๋ ๊ฒ์ ์๋์ง
4. dropout ์ ์ฉํ๋ฉด cost func ์ ๋๋ก ๊ณ์ฐํ๊ธฐ ๋งค์ฐ ์ด๋ ต๋ค -> keepprob์ผ๋ก drop ๊บผ๋๊ณ ํ์ธ -> ์ดํ์ ์กฐ์
5. random initialization (0์ ๊ฐ๊น์ธ ๋๋ง backpropagation์ด ์ ๋๋ก ๋์ํ ์ ๋ ์๋ค.)
'ArtificialIntelligence > 2023GoogleMLBootcamp' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[GoogleML] Adam Optimizer (0) | 2023.09.20 |
---|---|
[GoogleML] Optimization Algorithms (0) | 2023.09.20 |
[GoogleML] Regularizing Neural Network (0) | 2023.09.12 |
[GoogleML] Setting up Machine Learning (0) | 2023.09.12 |
[GoogleML] Neural Networks and Deep Learning ์๋ฃ (0) | 2023.09.12 |