Normalization(2)
-
[GoogleML] Batch Normalization
Normalizing Activations in a Network normalize๋ฅผ ํตํด ์๋ ด ์๋๋ฅผ ํฅ์์ํฌ ์ ์๋ค. ์ด๋ normalize์ ๋์์ a๊ฐ ์๋, z์ธ ๊ฒฝ์ฐ๊ฐ ๋ ๋ง๋ค. (ํ์ฑํ ํจ์ ํต๊ณผํ ์ด์ ์ ๊ฐ์ normalize) ์ ํ ๋ณํ์ ์ํ ๊ฐ๋ง์ ๋ฒ ํ๋ Learnable params์ด๋ค! ๊ฐ๋ง์ ๋ฒ ํ Fitting Batch Norm into a Neural Network z์ a๋ฅผ ๊ณ์ฐํ๋ ์ฌ์ด์ ๋ค์ด๊ฐ๋ค tf.nn.batch_normalization ํ ์ค์ ์ฝ๋๋ก ๊ตฌํํ ์ ์๋ค Why does Batch Norm work? batch norm์ input์ distribution์ด ๋ณํ๋ ๊ฒ์ ๋ง์์ค๋ค speed up learning ์ด๊ธฐ ์ธต๋ค์ params update ์ ..
2023.09.21 -
[GoogleML] Optimization Problem
Normalizing Inputs Vanishing / Exploding Gradients ๊ฒน๊ฒน์ด ์์ธ W -> weights 1.5 -> ์ง์์ ์ผ๋ก ์ฆ๊ฐ (gradient ํญ๋ฐ) 0.5 -> ์ง์์ ์ผ๋ก ๊ฐ์ (gradient vanishing) layer๊ฐ ๊น๊ฒ ์์ผ์๋ก, ํ์ต์ด ์ด๋ ค์์ง๋ ๋ฌธ์ ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํ ์จ์ดํธ ์ด๊ธฐํ Weight Initialization for Deep Networks weight init ์ค์ํ๋ค gradient๊ฐ ํญ๋ฐํ๊ฑฐ๋ ์ฌ๋ผ์ง๊ฒ ํ์ง ์๊ธฐ ์ํด์ Numerical Approximation of Gradients ๋จ๋ฐฉํฅ / ์๋ฐฉํฅ grad ๊ณ์ฐ Gradient Checking ์ด ์์์ ์ด๋ค ๊ฐ์ ํ์ธํ๋ผ๋๊ฑฐ์ง . . ? ์ ๋ชจ๋ฅด๊ฒ ๋ค. cos ์ ์ฌ๋๋ ์๋ ๊ฒ ๊ฐ๊ณ ,..
2023.09.13