2023. 9. 12. 16:34ใArtificialIntelligence/2023GoogleMLBootcamp
Regularization
๋์ ์ฐจ์์ W์ ๋นํด, b๋ ๋งค์ฐ ๋ฎ์ ์ฐจ์(์ค์)
bias๋ regularization ํ์ง ์๋๋ค.
@Logistic regression
@Neural Network
Why Regularization Reduces Overfitting?
Dropout Regularization
๋ ์์ ๊ท๋ชจ์ network๋ก ๋ง๋๋ ์ญํ
1๋ณด๋ค ์์ ๊ฐ์ผ๋ก ๋๋๋ค -> ํค์ด๋ค
activation ๊ฐ์ ์ฐจ์์ ํค์ด๋ค (dropout์ผ๋ก ์ค์ด๋ค์๊ธฐ ๋๋ฌธ์)
keep prob - ๋ณด์กดํ๋ ค๋ ๋ ธ๋์ ๋น์จ
test time์์๋ training time๊ณผ ๋ฌ๋ฆฌ, ๋น์จ์ ์กฐ์ ํ ํ์ X
In general, the number of neurons in the previous layer gives us the number of columns of the weight matrix,
and the number of neurons in the current layer gives us the number of rows in the weight matrix.
Understanding Dropout
layer์ node ์, ํน์ฑ์ ๋ฐ๋ผ dropout์ ์ ์ฉํ๋ keep-prob์ ์กฐ์ ํ ์ ์๋ค
CV ๋ถ์ผ์์ ๋ง์ด ์ฌ์ฉ๋๋ overfitting ๋ฐฉ์ง regularization
Other Regularization Methods
- validation(develop) error๊ฐ ๋์์ง๊ธฐ ์ ์ ์กฐ๊ธฐ ๋ฉ์ถค ์๊ณ ๋ฆฌ์ฆ
cost๋ฅผ ๋ฎ์ถ๋ ๋ชฉ์ + ๊ท์ (์ค๋ฒํผํ ๋ฐฉ์ง)
'ArtificialIntelligence > 2023GoogleMLBootcamp' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[GoogleML] Optimization Algorithms (0) | 2023.09.20 |
---|---|
[GoogleML] Optimization Problem (0) | 2023.09.13 |
[GoogleML] Setting up Machine Learning (0) | 2023.09.12 |
[GoogleML] Neural Networks and Deep Learning ์๋ฃ (0) | 2023.09.12 |
[GoogleML] Deep Neural Network (0) | 2023.09.11 |