SohyeonKim(347)
-
[GoogleML] Deep Neural Network
Deep L-layer Neural Network input dim ๋งํผ input ๋ ธ๋์ ์ 1๊ฐ์ input image์ ๋ํด, feature๋ค์ ์๋ก ํด์ํ ์ ์๋ค Forward Propagation in a Deep Network ๋ชจ๋ training example m๊ฐ๋ฅผ ํ ๋ฒ์ horizontally ํํํ๋ ๊ฒ -> vector version Getting your Matrix Dimensions Right Why Deep Representations? input layer์ ๊ฐ๊น์ด ๋ ธ๋๋ค์ ์ฃ์ง detect (๊ฐ๋ก, ์ธ๋ก ๋ฐฉํฅ์ low level features) ๊ฐ์ด๋ฐ - ๋, ์ฝ detect ๋ง์ง๋ง - ์ผ๊ตด ์ธ์ (high level features) ์ค๋์ค ์ธ์์ ๊ฒฝ์ฐ์๋, low ..
2023.09.11 -
[Paper reading] Dataset Condensation Keynote
Keynote ์ต์ข version
2023.09.11 -
[Paper reading] Dataset Condensation reading
Dataset Condensation with Gradient Matching (ICLR 2021) Abstract As the state-of-the-art machine learning methods in many fields rely on larger datasets, storing datasets and training models on them become significantly more expensive. This paper proposes a training set synthesis technique for data-efficient learning, called Dataset Condensation, that learns to condense large dataset into a smal..
2023.09.11 -
[Paper reading] Dataset Condensation Summary
Keynote ์ด์
2023.09.10 -
[GoogleML] Activation Functions' Derivatives
Explanation for Vectorized Implementation Activation Functions tanh๋ sigmoid๋ฅผ shiftํ func (๊ฑฐ์ ๋์ผ) but tanh๊ฐ sigmoid๋ณด๋ค๋ ์กฐ๊ธ ๋ ์ ๋ฆฌํ๋ค why? -> mean์ด zero์ ํ์ฑ -> ํต๊ณผํ ์ดํ ๊ฐ๋ค์ ํ๊ท ์ด ์ค์์ ๋ถํฌ, ๋ ์ ๋ฆฌ (sigmoid๋ 0.5) ๋ง์ง๋ง layer์์๋ sigmoid ์ฌ์ฉ why? y๋ 0 or 1 ๋ฐ๋ผ์ ์ถ๋ ฅ์ 0๊ณผ 1 ์ฌ์ด๋ก ๋ง์ถ๋ ค๊ณ tanh ๋ณด๋ค๋ sigmoid gradient ๊ธฐ์ธ๊ธฐ๊ฐ ์๋ฉธ๋๋ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ReLU๋ฅผ ์ฌ์ฉํ๋ค. 0์ด ๋๋ ๋ฏธ๋ถ ๋ถ๊ฐ๋ฅํ point์์๋ 0์ ๊ฐ๊น์ด ๊ฐ์ ๋์ ์ถ๋ ฅ ์ด๋ ํ ํ์ฑํ ํจ์๋ฅผ ์ธ ์ง ๋ชจ๋ฅด๊ฒ ๋ค๋ฉด, ReLU๋ฅผ ์จ๋ผ Leaky Re..
2023.09.10 -
[Neordinary] ๋๋๋๋ฆฌ Demoday
Neordinary Demoday 2023. 09. 09 ํ ์์ผ @๊ณต๋ ํ๋ก ํธ์ https://demoday.neordinary.co.kr ๐ฉ๐ป ์ฌ์ค UMC Demoday ์ธ ์ค ์๊ณ ๋จผ์ ์ ์ฒญํ ํ์ฌ์๋ค. ์๊ณ ๋ณด๋ ์ฌํด ์ฒ์์ผ๋ก ์์ํ๋ ๋ณ๋์ ๋ฐ๋ชจ๋ฐ์ด์๋ค. ๋๋๋๋ฆฌ ๊ณต์ ์น ๋์์ธ์ ํํ๋ ๋ค๊น์ง . . ๋์์ธ์ด ์งฑ๋ฉ์ก๋ค @Phd https://front1.kr ํ์ ์ฑ์ฅ 1๋ฒ์ง ํ๋ก ํธ์ ํ๋ก ํธ์์ ์ฐ๊ฒฐ๊ณผ ํ์ ์ ํตํด ์คํํธ์ ์ฑ์ฅ์ ์ด๋๊ณ , ํ์ ์ ์ถ๊ตฌํ๋ ์ฐฝ์ ์๋ฅผ ์์ํ๊ธฐ ์ํด ๋์บ ํ์ ๋ค์ํ ํํธ๋๋ค์ด ๋ง๋ ๊ณต๊ฐ์ ๋๋ค front1.kr ์ง๋ UMC / CMC ๋ฐ๋ชจ๋ฐ์ด๋ ์ฌ๊ธฐ์ ํ๋ต๋๋ค :) @๊ต๋ณด์ ๋ณดํต์ ํํ์ด๋ ๊ณต๋ชจ์ , ๋์ธํ๋ ๋ฑ๋ฑ ํ ํ๋ก์ ํธ ์งํํ ๋ ํ์ผ ๊ณต์ ๋ชฉ์ ์ผ๋ก ์ฌ์ฉํ๋ฉด ์ ์ฉํ ๊ฒ..
2023.09.10 -
[GoogleML] Shallow Neural Network, Vectorizing
Neural Networks Overview Neural Network Representation Computing a Neural Network's Output Vectorizing Across Multiple Examples
2023.09.09 -
1. Virtualization
์ต์ ๊ธฐ์ ์ฝ๋กํด์2 1. Virtualization 2023. 09. 08 ๊ธ์์ผ ์ค์ ๋ฌผ๋ฆฌ ๋ฉ๋ชจ๋ฆฌ๋ ์๋๋๊น, ๋ค์ ํ ๋ฒ hypervisor๊ฐ ๊ด๋ฆฌํด์ฃผ๊ฒ ๋๋ค. software๊ฐ ์๋, hardware ์ ์ผ๋ก ์ฒ๋ฆฌํ๋ค ๊ฐ์ ๋จธ์ ์ด ๊ฐ๊ณ ์๋ ๋ฉ๋ชจ๋ฆฌ๋ ์ค์ ๋ฌผ๋ฆฌ ๋ฉ๋ชจ๋ฆฌ๊ฐ ์๋๋ผ, ํ์ดํผ๋ฐ์ด์ ๊ฐ ๊ด๋ฆฌํ๋ ๋ฉ๋ชจ๋ฆฌ ๋ฌผ๋ฆฌ ๋ฉ๋ชจ๋ฆฌ 100G๊ฐ ์ค์ ๋ก ํ ๋น๋์ด ์๋์ง๋, OS๊ฐ ํ์ธํ ๋ฐฉ๋ฒ์ด ์๋ค. ํ์ดํผ๋ฐ์ด์ ๊ฐ ๊ฐ์ถ๊ฑฐ๋ ์์ด๋ ค๋ฉด ์ผ๋ง๋ ์ง ๊ฐ๋ฅํจ (๊ฐ์์ด๊ธฐ ๋๋ฌธ์) ์ค์ ๋ก ๋คํธ์ํฌ ์นด๋๊ฐ ์๋ ๊ฒ์ ์๋๋ฐ, ์๋ ๊ฒ์ฒ๋ผ ์ ๊ณตํ๋ ๊ฒ ๊ฐ์์ virtual ์ค์์น๋ฅผ ๋ง๋ค๊ณ , ์ด๋ฅผ ํตํด ํจํท์ ์ฃผ๊ณ ๋ฐ์ ์ ์์ ๊ฐ์ ๋จธ์ ์ ์ค์ ๋๋ฐ์ด์ค๋ผ๊ณ ์๊ฐํ๊ณ accessํ๋ฉด ๋ฐ๋จ์ hypervisor๊ฐ ๋์ ์ฒ๋ฆฌํด์ฃผ๋ ๊ณผ์ OS..
2023.09.08 -
[GoogleML] Chapter 1 Neural Networks and Deep Learning
์ง๋ ํ๊ธฐ(23-1)์ ๋ค์๋ ๊ธฐ๊ณํ์ต, ๋ฅ๋ฌ๋ ์์ ๋ด์ฉ ๋ณต์ตํ๋ ๊ธฐ๋ถ์ด๋ค. ์๊ฐ๋ณด๋ค ํด์ฆ๊ฐ ํ ๋ฒ์ ํต๊ณผํ๊ธฐ ์ด๋ ค์์, ์ง์คํด์ ๋ฃ๊ณ ์ ์คํ๊ฒ ๋ฌธ์ ๋ฅผ ํ์ด์ผํ๋ค. programming ๊ณผ์ ๋ ๋ช ๊ฐ ๋์๋๋ฐ, ์ฐ์ ๋์์ ๊ฐ์๋ถํฐ ๋ค ๋ชฐ์์ ๋ฃ๊ณ , ์ฃผํผํฐ ์ฝ๋ฉ ๋ฌธ์ ๋ค์ 12์ผ ์ ๊น์ง . . ๋ฐ๋ก ๋ชจ์์ ๊ฐ๋ฐํด์ผ ๋ ๊ฒ ๊ฐ๋ค. ์๋ฃ๊น์ง ํ์ดํ ํ (Chapter 5๊ฐ . . ๋จ์๋ฐ ๐)
2023.09.07 -
[GoogleML] Python and Vectorization
Python and Vectorization More Vectorization Examples Vectorizing Logistic Regression X์ ์ฐจ์์ (nx, m) nx dim vector๊ฐ m(sample)๊ฐ ์๋ค! :) ์๋ํ๋ฉด x ๋ฐ์ดํฐ 1๊ฐ๋ฅผ ์ด๋ฒกํฐ๋ก, ์ธ๋ก๋ก stacking ํ์ผ๋ฏ๋ก, ์ธ๋ก ๋ฐฉํฅ์ผ๋ก๋ ์ฑ๋ถ๋ค (dim), ๊ฐ๋ก ๋ฐฉํฅ์ผ๋ก๋ m๊ฐ์ ์ํ๋ค์ด ์งํ Vectorizing Logistic Regression's Gradient Output ๋ฒกํฐํ ํ๋๋ผ๋, iteration loop๋ ํญ์ ํ์ํ๋ค. Broadcasting in Python Can you do this without explicit for-loop? A Note on Python/Numpy Vectors Qu..
2023.09.07