ArtificialIntelligence/2023GoogleMLBootcamp(33)
-
[GoogleML] Adam Optimizer
Gradient Descent with Momentum RMSprop ์ด๊ฒ์ด ์ด๋ป๊ฒ ๋์ํ ์ ์๋๊ฐ? ์ธ๋ก ๋ฐฉํฅ์ผ๋ก๋ ์ ๊ฒ, ๊ฐ๋ก ๋ฐฉํฅ์ผ๋ก๋ ๋ง์ด update ๋์ด์ผ ํ๋ค! (๋ง์ด ๊ฐ์ผ ํ๋ค) Adam Optimization Algorithm Learning Rate Decay ์ด๋ฐ์๋ ํฌ๊ฒ ํ ํ ๋์ค์๋ learning rate ํฌ๊ธฐ๋ฅผ ์ค์ธ๋ค The Problem of Local Optima ์ค๋ซ๋์ ๊ธฐ์ธ๊ธฐ๊ฐ 0์ ๊ฐ๊น์ด, plateau๋ ํ์ต์ ๋ฐฉํดํ๋ ์์ธ์ด ๋๋ค
2023.09.20 -
[GoogleML] Optimization Algorithms
Mini-batch Gradient Descent Understanding Mini-batch Gradient Descent batch๋ ์๊ฐ์ด ๋ง์ด ๊ฑธ๋ฆฐ๋ค. ์ด ๋์ ํ์ด๋ธ๋ฆฌ๋ ๋๋ฌด ํฌ๊ฑฐ๋ ์์ง ์์ ๋ฏธ๋ ๋ฐฐ์น ์ฌ์ด์ฆ 1. vectorization 2. ์ ์ฒด๋ฅผ full๋ก ๋ค ๊ธฐ๋ค๋ฆด ํ์ X 1. 2000๊ฐ ์ดํ์ ๋ฐ์ดํฐ -> full batch 2. ํฐ ๋ฐ์ดํฐ ์ -> 64 / 128 / 512 ์ค ํ๋๋ฅผ ํํด์ ์ฌ์ฉ 3. GPU / CPU ๋ฉ๋ชจ๋ฆฌ์ ๋ง๊ฒ ์ฌ์ฉ ์ฃผ์ Exponentially Weighted Averages Understanding Exponentially Weighted Averages Bias Correction in Exponentially Weighted Averages t ๊ฐ ์ปค..
2023.09.20 -
[GoogleML] Optimization Problem
Normalizing Inputs Vanishing / Exploding Gradients ๊ฒน๊ฒน์ด ์์ธ W -> weights 1.5 -> ์ง์์ ์ผ๋ก ์ฆ๊ฐ (gradient ํญ๋ฐ) 0.5 -> ์ง์์ ์ผ๋ก ๊ฐ์ (gradient vanishing) layer๊ฐ ๊น๊ฒ ์์ผ์๋ก, ํ์ต์ด ์ด๋ ค์์ง๋ ๋ฌธ์ ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํ ์จ์ดํธ ์ด๊ธฐํ Weight Initialization for Deep Networks weight init ์ค์ํ๋ค gradient๊ฐ ํญ๋ฐํ๊ฑฐ๋ ์ฌ๋ผ์ง๊ฒ ํ์ง ์๊ธฐ ์ํด์ Numerical Approximation of Gradients ๋จ๋ฐฉํฅ / ์๋ฐฉํฅ grad ๊ณ์ฐ Gradient Checking ์ด ์์์ ์ด๋ค ๊ฐ์ ํ์ธํ๋ผ๋๊ฑฐ์ง . . ? ์ ๋ชจ๋ฅด๊ฒ ๋ค. cos ์ ์ฌ๋๋ ์๋ ๊ฒ ๊ฐ๊ณ ,..
2023.09.13 -
[GoogleML] Regularizing Neural Network
Regularization ๋์ ์ฐจ์์ W์ ๋นํด, b๋ ๋งค์ฐ ๋ฎ์ ์ฐจ์(์ค์) bias๋ regularization ํ์ง ์๋๋ค. @Logistic regression @Neural Network Why Regularization Reduces Overfitting? ๋๋ค๋ฅผ ํค์ธ ๊ฒฝ์ฐ, W๊ฐ ์ฃฝ๊ฒ ๋๋ค ๋ ๊ฐ๋จํ ๋ชจ๋ธ ๊ตฌ์กฐ๊ฐ ๋๋ค W๋ฅผ 0์ผ๋ก ๋ง๋ค๊ธฐ ์ํด ๋ simpleํ network -> parmas size๋ฅผ ์ค์ฌ์ ์ค๋ฒํผํ ๋ฐฉ์ง ๊ฐ๋ฅ (๊ณผ์ ํฉ ํด๊ฒฐ) layer๋ฅผ linearํ๊ฒ ๋ง๋ ๋ค -> ์ค๋ฒํผํ ํด๊ฒฐ second term์ ์ถ๊ฐ๋ก, ๊ธฐ์กด cost func์์ ๋ณํ๊ฐ ๋ฐ์ํ๊ฒ ๋๋ค Dropout Regularization ๋ ์์ ๊ท๋ชจ์ network๋ก ๋ง๋๋ ์ญํ 1๋ณด๋ค ์์ ๊ฐ์ผ๋ก ๋๋๋ค ..
2023.09.12 -
[GoogleML] Setting up Machine Learning
Train / Dev / Test sets ๊ณผ๊ฑฐ - ๊ณ ์ ๋ ๋น์จ์ train / dev / test ํ์ฌ - ๋น ๋ฐ์ดํฐ ๋ํฅ์ ๋ง์ถฐ, ๋ฅ๋์ ์ผ๋ก ์กฐ์ (1%) train๊ณผ test set์ ๋ถํฌ๊ฐ ๋์ผํ๋๋ก ! test set? -> develop set์ด ๋ ์ ํฉํ ์ฉ์ด์ด๋ค. Bias / Variance bias - ์ค์ฐจ variance - ์ผ๋ฐํ high / low variance & bias train set error๊ฐ ํฌ๋ค -> ์์ง ํ์ต์ด ๋ ๋จ (bias ๋๋ค) more iteration train์ ๋ฎ์๋ฐ, test error๊ฐ ํฌ๋ค -> ์ผ๋ฐํ ๋ฅ๋ ฅ ๋จ์ด์ง, ์ค๋ฒํผํ ์ํ (variance๊ฐ ๋๋ค) ๋ ๋ค ๋ฎ์ ์ํ๊ฐ ์ ํฉ ๋ ๋ค ํฌ๋ค๋ฉด? ๋ชจ๋ธ ํฌ๊ธฐ๊ฐ ๋ถ์ ํฉ Basic Recipe for ..
2023.09.12 -
[GoogleML] Neural Networks and Deep Learning ์๋ฃ
2023. 09. 12 Tuesday ์ฒซ ๋ฒ์งธ ๊ฐ์ข ์๋ฃ๋ฅผ ๋ง์ณค๋ค :) ๐ ์๋ฒฝ 3์๊น์ง ์ค์์ด๋ ๋์๊ด์์ ๋ฐค์ ์ฝ๋ฉ . ๊ทธ๋๋ ๋ณด๋์ด ์๋ค์. ๋งค์ฐ ๋ฟ๋ฏํฉ๋๋ค. ๐ฅ ๐ ์๊ฐ๋ณด๋ค ๊ฐ์๋ . ํด์ฆ๋ . ์ค์ต ์ฝ๋๋ ๊ธฐํ ์์ ๋ค ํ๊ธฐ ๋นก์ธ๋ค . . ๋ค์๋ถํฐ๋ ๋ฏธ๋ฃจ์ง ์๊ณ , ์ฑ์คํ๊ฒ ํด์ผ๊ฒ ์ด์.
2023.09.12 -
[GoogleML] Deep Neural Network
Deep L-layer Neural Network input dim ๋งํผ input ๋ ธ๋์ ์ 1๊ฐ์ input image์ ๋ํด, feature๋ค์ ์๋ก ํด์ํ ์ ์๋ค Forward Propagation in a Deep Network ๋ชจ๋ training example m๊ฐ๋ฅผ ํ ๋ฒ์ horizontally ํํํ๋ ๊ฒ -> vector version Getting your Matrix Dimensions Right Why Deep Representations? input layer์ ๊ฐ๊น์ด ๋ ธ๋๋ค์ ์ฃ์ง detect (๊ฐ๋ก, ์ธ๋ก ๋ฐฉํฅ์ low level features) ๊ฐ์ด๋ฐ - ๋, ์ฝ detect ๋ง์ง๋ง - ์ผ๊ตด ์ธ์ (high level features) ์ค๋์ค ์ธ์์ ๊ฒฝ์ฐ์๋, low ..
2023.09.11 -
[GoogleML] Activation Functions' Derivatives
Explanation for Vectorized Implementation Activation Functions tanh๋ sigmoid๋ฅผ shiftํ func (๊ฑฐ์ ๋์ผ) but tanh๊ฐ sigmoid๋ณด๋ค๋ ์กฐ๊ธ ๋ ์ ๋ฆฌํ๋ค why? -> mean์ด zero์ ํ์ฑ -> ํต๊ณผํ ์ดํ ๊ฐ๋ค์ ํ๊ท ์ด ์ค์์ ๋ถํฌ, ๋ ์ ๋ฆฌ (sigmoid๋ 0.5) ๋ง์ง๋ง layer์์๋ sigmoid ์ฌ์ฉ why? y๋ 0 or 1 ๋ฐ๋ผ์ ์ถ๋ ฅ์ 0๊ณผ 1 ์ฌ์ด๋ก ๋ง์ถ๋ ค๊ณ tanh ๋ณด๋ค๋ sigmoid gradient ๊ธฐ์ธ๊ธฐ๊ฐ ์๋ฉธ๋๋ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ReLU๋ฅผ ์ฌ์ฉํ๋ค. 0์ด ๋๋ ๋ฏธ๋ถ ๋ถ๊ฐ๋ฅํ point์์๋ 0์ ๊ฐ๊น์ด ๊ฐ์ ๋์ ์ถ๋ ฅ ์ด๋ ํ ํ์ฑํ ํจ์๋ฅผ ์ธ ์ง ๋ชจ๋ฅด๊ฒ ๋ค๋ฉด, ReLU๋ฅผ ์จ๋ผ Leaky Re..
2023.09.10 -
[GoogleML] Shallow Neural Network, Vectorizing
Neural Networks Overview Neural Network Representation Computing a Neural Network's Output Vectorizing Across Multiple Examples
2023.09.09 -
[GoogleML] Chapter 1 Neural Networks and Deep Learning
์ง๋ ํ๊ธฐ(23-1)์ ๋ค์๋ ๊ธฐ๊ณํ์ต, ๋ฅ๋ฌ๋ ์์ ๋ด์ฉ ๋ณต์ตํ๋ ๊ธฐ๋ถ์ด๋ค. ์๊ฐ๋ณด๋ค ํด์ฆ๊ฐ ํ ๋ฒ์ ํต๊ณผํ๊ธฐ ์ด๋ ค์์, ์ง์คํด์ ๋ฃ๊ณ ์ ์คํ๊ฒ ๋ฌธ์ ๋ฅผ ํ์ด์ผํ๋ค. programming ๊ณผ์ ๋ ๋ช ๊ฐ ๋์๋๋ฐ, ์ฐ์ ๋์์ ๊ฐ์๋ถํฐ ๋ค ๋ชฐ์์ ๋ฃ๊ณ , ์ฃผํผํฐ ์ฝ๋ฉ ๋ฌธ์ ๋ค์ 12์ผ ์ ๊น์ง . . ๋ฐ๋ก ๋ชจ์์ ๊ฐ๋ฐํด์ผ ๋ ๊ฒ ๊ฐ๋ค. ์๋ฃ๊น์ง ํ์ดํ ํ (Chapter 5๊ฐ . . ๋จ์๋ฐ ๐)
2023.09.07