ArtificialIntelligence(72)
-
[GoogleML] Setting up Machine Learning
Train / Dev / Test sets ๊ณผ๊ฑฐ - ๊ณ ์ ๋ ๋น์จ์ train / dev / test ํ์ฌ - ๋น ๋ฐ์ดํฐ ๋ํฅ์ ๋ง์ถฐ, ๋ฅ๋์ ์ผ๋ก ์กฐ์ (1%) train๊ณผ test set์ ๋ถํฌ๊ฐ ๋์ผํ๋๋ก ! test set? -> develop set์ด ๋ ์ ํฉํ ์ฉ์ด์ด๋ค. Bias / Variance bias - ์ค์ฐจ variance - ์ผ๋ฐํ high / low variance & bias train set error๊ฐ ํฌ๋ค -> ์์ง ํ์ต์ด ๋ ๋จ (bias ๋๋ค) more iteration train์ ๋ฎ์๋ฐ, test error๊ฐ ํฌ๋ค -> ์ผ๋ฐํ ๋ฅ๋ ฅ ๋จ์ด์ง, ์ค๋ฒํผํ ์ํ (variance๊ฐ ๋๋ค) ๋ ๋ค ๋ฎ์ ์ํ๊ฐ ์ ํฉ ๋ ๋ค ํฌ๋ค๋ฉด? ๋ชจ๋ธ ํฌ๊ธฐ๊ฐ ๋ถ์ ํฉ Basic Recipe for ..
2023.09.12 -
[GoogleML] Neural Networks and Deep Learning ์๋ฃ
2023. 09. 12 Tuesday ์ฒซ ๋ฒ์งธ ๊ฐ์ข ์๋ฃ๋ฅผ ๋ง์ณค๋ค :) ๐ ์๋ฒฝ 3์๊น์ง ์ค์์ด๋ ๋์๊ด์์ ๋ฐค์ ์ฝ๋ฉ . ๊ทธ๋๋ ๋ณด๋์ด ์๋ค์. ๋งค์ฐ ๋ฟ๋ฏํฉ๋๋ค. ๐ฅ ๐ ์๊ฐ๋ณด๋ค ๊ฐ์๋ . ํด์ฆ๋ . ์ค์ต ์ฝ๋๋ ๊ธฐํ ์์ ๋ค ํ๊ธฐ ๋นก์ธ๋ค . . ๋ค์๋ถํฐ๋ ๋ฏธ๋ฃจ์ง ์๊ณ , ์ฑ์คํ๊ฒ ํด์ผ๊ฒ ์ด์.
2023.09.12 -
[GoogleML] Deep Neural Network
Deep L-layer Neural Network input dim ๋งํผ input ๋ ธ๋์ ์ 1๊ฐ์ input image์ ๋ํด, feature๋ค์ ์๋ก ํด์ํ ์ ์๋ค Forward Propagation in a Deep Network ๋ชจ๋ training example m๊ฐ๋ฅผ ํ ๋ฒ์ horizontally ํํํ๋ ๊ฒ -> vector version Getting your Matrix Dimensions Right Why Deep Representations? input layer์ ๊ฐ๊น์ด ๋ ธ๋๋ค์ ์ฃ์ง detect (๊ฐ๋ก, ์ธ๋ก ๋ฐฉํฅ์ low level features) ๊ฐ์ด๋ฐ - ๋, ์ฝ detect ๋ง์ง๋ง - ์ผ๊ตด ์ธ์ (high level features) ์ค๋์ค ์ธ์์ ๊ฒฝ์ฐ์๋, low ..
2023.09.11 -
[Paper reading] Dataset Condensation Keynote
Keynote ์ต์ข version
2023.09.11 -
[Paper reading] Dataset Condensation reading
Dataset Condensation with Gradient Matching (ICLR 2021) Abstract As the state-of-the-art machine learning methods in many fields rely on larger datasets, storing datasets and training models on them become significantly more expensive. This paper proposes a training set synthesis technique for data-efficient learning, called Dataset Condensation, that learns to condense large dataset into a smal..
2023.09.11 -
[Paper reading] Dataset Condensation Summary
Keynote ์ด์
2023.09.10 -
[GoogleML] Activation Functions' Derivatives
Explanation for Vectorized Implementation Activation Functions tanh๋ sigmoid๋ฅผ shiftํ func (๊ฑฐ์ ๋์ผ) but tanh๊ฐ sigmoid๋ณด๋ค๋ ์กฐ๊ธ ๋ ์ ๋ฆฌํ๋ค why? -> mean์ด zero์ ํ์ฑ -> ํต๊ณผํ ์ดํ ๊ฐ๋ค์ ํ๊ท ์ด ์ค์์ ๋ถํฌ, ๋ ์ ๋ฆฌ (sigmoid๋ 0.5) ๋ง์ง๋ง layer์์๋ sigmoid ์ฌ์ฉ why? y๋ 0 or 1 ๋ฐ๋ผ์ ์ถ๋ ฅ์ 0๊ณผ 1 ์ฌ์ด๋ก ๋ง์ถ๋ ค๊ณ tanh ๋ณด๋ค๋ sigmoid gradient ๊ธฐ์ธ๊ธฐ๊ฐ ์๋ฉธ๋๋ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ReLU๋ฅผ ์ฌ์ฉํ๋ค. 0์ด ๋๋ ๋ฏธ๋ถ ๋ถ๊ฐ๋ฅํ point์์๋ 0์ ๊ฐ๊น์ด ๊ฐ์ ๋์ ์ถ๋ ฅ ์ด๋ ํ ํ์ฑํ ํจ์๋ฅผ ์ธ ์ง ๋ชจ๋ฅด๊ฒ ๋ค๋ฉด, ReLU๋ฅผ ์จ๋ผ Leaky Re..
2023.09.10 -
[GoogleML] Shallow Neural Network, Vectorizing
Neural Networks Overview Neural Network Representation Computing a Neural Network's Output Vectorizing Across Multiple Examples
2023.09.09 -
[GoogleML] Chapter 1 Neural Networks and Deep Learning
์ง๋ ํ๊ธฐ(23-1)์ ๋ค์๋ ๊ธฐ๊ณํ์ต, ๋ฅ๋ฌ๋ ์์ ๋ด์ฉ ๋ณต์ตํ๋ ๊ธฐ๋ถ์ด๋ค. ์๊ฐ๋ณด๋ค ํด์ฆ๊ฐ ํ ๋ฒ์ ํต๊ณผํ๊ธฐ ์ด๋ ค์์, ์ง์คํด์ ๋ฃ๊ณ ์ ์คํ๊ฒ ๋ฌธ์ ๋ฅผ ํ์ด์ผํ๋ค. programming ๊ณผ์ ๋ ๋ช ๊ฐ ๋์๋๋ฐ, ์ฐ์ ๋์์ ๊ฐ์๋ถํฐ ๋ค ๋ชฐ์์ ๋ฃ๊ณ , ์ฃผํผํฐ ์ฝ๋ฉ ๋ฌธ์ ๋ค์ 12์ผ ์ ๊น์ง . . ๋ฐ๋ก ๋ชจ์์ ๊ฐ๋ฐํด์ผ ๋ ๊ฒ ๊ฐ๋ค. ์๋ฃ๊น์ง ํ์ดํ ํ (Chapter 5๊ฐ . . ๋จ์๋ฐ ๐)
2023.09.07 -
[GoogleML] Python and Vectorization
Python and Vectorization More Vectorization Examples Vectorizing Logistic Regression X์ ์ฐจ์์ (nx, m) nx dim vector๊ฐ m(sample)๊ฐ ์๋ค! :) ์๋ํ๋ฉด x ๋ฐ์ดํฐ 1๊ฐ๋ฅผ ์ด๋ฒกํฐ๋ก, ์ธ๋ก๋ก stacking ํ์ผ๋ฏ๋ก, ์ธ๋ก ๋ฐฉํฅ์ผ๋ก๋ ์ฑ๋ถ๋ค (dim), ๊ฐ๋ก ๋ฐฉํฅ์ผ๋ก๋ m๊ฐ์ ์ํ๋ค์ด ์งํ Vectorizing Logistic Regression's Gradient Output ๋ฒกํฐํ ํ๋๋ผ๋, iteration loop๋ ํญ์ ํ์ํ๋ค. Broadcasting in Python Can you do this without explicit for-loop? A Note on Python/Numpy Vectors Qu..
2023.09.07