[GoogleML] Optimization Algorithms
2023. 9. 20. 21:49ใArtificialIntelligence/2023GoogleMLBootcamp
Mini-batch Gradient Descent
Understanding Mini-batch Gradient Descent
batch๋ ์๊ฐ์ด ๋ง์ด ๊ฑธ๋ฆฐ๋ค.
์ด ๋์ ํ์ด๋ธ๋ฆฌ๋
๋๋ฌด ํฌ๊ฑฐ๋ ์์ง ์์ ๋ฏธ๋ ๋ฐฐ์น ์ฌ์ด์ฆ
1. vectorization
2. ์ ์ฒด๋ฅผ full๋ก ๋ค ๊ธฐ๋ค๋ฆด ํ์ X
1. 2000๊ฐ ์ดํ์ ๋ฐ์ดํฐ -> full batch
2. ํฐ ๋ฐ์ดํฐ ์ -> 64 / 128 / 512 ์ค ํ๋๋ฅผ ํํด์ ์ฌ์ฉ
3. GPU / CPU ๋ฉ๋ชจ๋ฆฌ์ ๋ง๊ฒ ์ฌ์ฉ ์ฃผ์
Exponentially Weighted Averages
Understanding Exponentially Weighted Averages
Bias Correction in Exponentially Weighted Averages
t ๊ฐ ์ปค์ง์๋ก v๊ฐ 0์ ๊ฐ๊น์์ง
์ฆ, ์ด๋ก ์ ๊ณผ ๋ณด๋ผ์ ์ ์ด ๊ฒน์นจ
์ด๊ธฐ์๋ ๊ฐ์ ์ฐจ์ด๊ฐ ํฌ๋ค (์ ํจํ๋ค)
'ArtificialIntelligence > 2023GoogleMLBootcamp' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[GoogleML] Hyperparameter Tuning (1) | 2023.09.20 |
---|---|
[GoogleML] Adam Optimizer (0) | 2023.09.20 |
[GoogleML] Optimization Problem (0) | 2023.09.13 |
[GoogleML] Regularizing Neural Network (0) | 2023.09.12 |
[GoogleML] Setting up Machine Learning (0) | 2023.09.12 |