Batch(2)
-
[GoogleML] Batch Normalization
Normalizing Activations in a Network normalize๋ฅผ ํตํด ์๋ ด ์๋๋ฅผ ํฅ์์ํฌ ์ ์๋ค. ์ด๋ normalize์ ๋์์ a๊ฐ ์๋, z์ธ ๊ฒฝ์ฐ๊ฐ ๋ ๋ง๋ค. (ํ์ฑํ ํจ์ ํต๊ณผํ ์ด์ ์ ๊ฐ์ normalize) ์ ํ ๋ณํ์ ์ํ ๊ฐ๋ง์ ๋ฒ ํ๋ Learnable params์ด๋ค! ๊ฐ๋ง์ ๋ฒ ํ Fitting Batch Norm into a Neural Network z์ a๋ฅผ ๊ณ์ฐํ๋ ์ฌ์ด์ ๋ค์ด๊ฐ๋ค tf.nn.batch_normalization ํ ์ค์ ์ฝ๋๋ก ๊ตฌํํ ์ ์๋ค Why does Batch Norm work? batch norm์ input์ distribution์ด ๋ณํ๋ ๊ฒ์ ๋ง์์ค๋ค speed up learning ์ด๊ธฐ ์ธต๋ค์ params update ์ ..
2023.09.21 -
[GoogleML] Optimization Algorithms
Mini-batch Gradient Descent Understanding Mini-batch Gradient Descent batch๋ ์๊ฐ์ด ๋ง์ด ๊ฑธ๋ฆฐ๋ค. ์ด ๋์ ํ์ด๋ธ๋ฆฌ๋ ๋๋ฌด ํฌ๊ฑฐ๋ ์์ง ์์ ๋ฏธ๋ ๋ฐฐ์น ์ฌ์ด์ฆ 1. vectorization 2. ์ ์ฒด๋ฅผ full๋ก ๋ค ๊ธฐ๋ค๋ฆด ํ์ X 1. 2000๊ฐ ์ดํ์ ๋ฐ์ดํฐ -> full batch 2. ํฐ ๋ฐ์ดํฐ ์ -> 64 / 128 / 512 ์ค ํ๋๋ฅผ ํํด์ ์ฌ์ฉ 3. GPU / CPU ๋ฉ๋ชจ๋ฆฌ์ ๋ง๊ฒ ์ฌ์ฉ ์ฃผ์ Exponentially Weighted Averages Understanding Exponentially Weighted Averages Bias Correction in Exponentially Weighted Averages t ๊ฐ ์ปค..
2023.09.20