SohyeonKim(347)
-
[Paper reading] Dataset Condensation with Distribution Matching
Dataset Condensation with Distribution Matching Abstraction Computational cost of training state-of-the-art deep models in many learning problems is rapidly increasing due to more sophisticated models and larger datasets. A recent promising direction for reducing training cost is dataset condensation that aims to replace the original large training set with a significantly smaller learned synthe..
2023.10.01 -
[GoogleML] Structuring Machine Learning Projects ์๋ฃ
๐ ๋ง์ง๋ง ์ ์ถํ ๋ ๊ฐ์ ํ ๊ธฐ๋ ๋ฉํ. ํ๊ฒ ๋ฉ๋๋ค. . . ' ์ ๋ฐ .. ๋์ด๋ผ ๋์ด๋ผ! ' ํ๋๋ฐ 77์ ๋จ๋ ์ง๋ฆฟํจ . ์์ ์ด์์ผ๋ก ํต๊ณผํ๊ธฐ ์ด๋ ค์ ์ . (์ฐจ๋ผ๋ฆฌ ์ฝ๋ฉ ๊ณผ์ + ์์ ์ํ์ด ๋์์ ๐) โ๏ธ ์คํ ๋ฆฌํ ๋ง ํ์์ผ๋ก ๋์ค๋ ๋ฌธ์ ๋ผ์ ์ฝ๊ณ ์ดํดํ๋ ๊ฒ๋ง์ผ๋ก๋ ์๊ฐ์ด ๋ง์ด ๊ฑธ๋ ธ๋ค. . ์ฌ์ํ๋ง ํ ์๊ฐ ์น ๋ฏ ? ๊ทธ๋๋ ๋ฌด์ฌํ ์๋ฃํด์ ๋คํ์ ๋๋ค ^^_ 4์ฃผ์ฐจ start :)
2023.10.01 -
[GoogleML] Transfer Learning & End-to-end Deep Learning
Transfer Learning (์ ์ดํ์ต) ์ ์ดํ์ต - ํน์ task์ ๋ง์ถฐ ํ์ต์ํจ ๋คํธ์ํฌ -> ๋ค๋ฅธ task์ ์ ์ฉ last layer๋ฅผ ๋ณ๊ฒฝ ๊ฒฝ์ฐ์ ๋ฐ๋ผ ์ฌ๋ฌ layer๋ฅผ ๋ง๋ถ์ผ ์๋ ์๋ค ์ด๋ ํ ๊ฒฝ์ฐ์ ์ฌ์ฉํ๋๊ฐ? ์๋์ ์ผ๋ก ์ ์ ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ง task์ ๋ํ์ฌ ํ๋ถํ ๋ฐ์ดํฐ๋ฅผ ๊ฐ์ง task๋ก ์ฐ์ ํ์ตํ ์ดํ -> knowledge๋ฅผ transfer (์ ์ดํ์ต) ์ด๋ ๊ธฐ์กด task๋ณด๋ค ์๋ก์ด task์ ์ค์๋๊ฐ ๋ ๋์ Multi-task Learning one image can have multiple label ์ด ๋ฐฉ๋ฒ๋ณด๋ค๋, ์ ์ดํ์ต์ด ๋ ๋ง์ด ์ฌ์ฉ๋๋ค. ํ๋์ ๋คํธ์ํฌ๋ก ์ฌ๋ฌ ํ์คํฌ๋ฅผ ์ ์ํ๋ ๊ฒ์ด ์ด๋ ต๊ธฐ ๋๋ฌธ์ What is End-to-end Deep Learning? enough..
2023.09.30 -
[GoogleML] Error Analysis & Mismatched Train and Test Set
Carrying Out Error Analysis error ์ค dog๊ฐ ์ฐจ์งํ๋ ๋น์จ์ด ํฌ์ง ์์ ๋ ๊ฐ์์ง๊ฐ ์ฐพ์ดํ๋ ๋น์จ์ด 50%์๋ค๋ฉด, dog์ focus๋ฅผ ๋ง์ถ์ด ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ ๊ฒ์ด ํจ๊ณผ์ ์ผ ์ ์๋ค ๋ค์ํ ์นดํ ๊ณ ๋ฆฌ์ ์๋ฌ ์์ธ์ด ์๋ค ๋์ ๋น์จ์ ์์ธ (great cats์ blurry์ focusํ์ฌ ํด๊ฒฐํ ์ ์๋ค.) -> error์ ์ฃผ ์์ธ์ ๋ถ์ํ ์ ์๋ค. Cleaning Up Incorrectly Labeled Data ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ์ 1) random error์๋ ๊ฐ์ธํ์ง๋ง 2) system error์๋ ์ทจ์ฝํ๋ค ๋ง์ฝ incorrectly labeled error๊ฐ ํฐ ์ํฅ๋ ฅ์ ์ค๋ค๋ฉด -> ๊ณ ์ณ๋ผ ์๋๋ผ๋ฉด? (์ ์ ๋น์จ์ด๋ผ๋ฉด) ์ถ์ฒํ์ง ์์ ์ด๋ฐ ์ํฉ์์๋? ์๋ชป ๋ ์ด๋ธ ..
2023.09.30 -
[GoogleML] ML workflow by implementing strategy, avoidable bias
Orthogonalization ์ด๊ฒ ์ด๋ป๊ฒ ML๊ณผ ์ฐ๊ด์ด ์๋๊ฐ? Single Number Evaluation Metric precision (์ ๋ฐ๋) : cat์ผ๋ก ํ๋ณ๋ ๊ฒ ์ค ์ค์ cat์ ๋น์จ recall (์ฌํ์จ) : ์ค์ cat ์ค ์ ๋๋ก ๋ถ๋ฅ๋ ๊ฒ์ ๋น์จ A์ B์ค ์ด๋ค ๋ถ๋ฅ๊ธฐ๊ฐ ๋ ์ข์๊ฐ? Satisficing and Optimizing Metric cost func์ ๋ค์ํ ์๋๋ฅผ ๋ด์ ์ ์๋ค accuracy - ๋์์๋ก ์ข์ (optimize) running time - 100ms ์ดํ์ด๊ธฐ๋ง ํ๋ฉด ๋จ (satisfied) + ์์ฑ ์ ํธ์ 100ms๋ฅผ ์๋ฏธ! Train/Dev/Test Distributions ๋ set์ด ๊ฐ์ ๋ถํฌ๋ฅผ ๊ฐ์ง ์ ์๋๋ก randomly sampling S..
2023.09.29 -
[Slurm] Dataset Condensation model ๋๋ฆฌ๊ธฐ (feat. ๊ณต์ฉGPU)
https://github.com/VICO-UoE/DatasetCondensation GitHub - VICO-UoE/DatasetCondensation: Dataset Condensation (ICLR21 and ICML21) Dataset Condensation (ICLR21 and ICML21). Contribute to VICO-UoE/DatasetCondensation development by creating an account on GitHub. github.com ๋๋ ค๋ณผ ๋ชจ๋ธ์ ์ด ์์ด์์ต๋๋ค. . . ๊น๋จน๊ธฐ ์ ์ ๋ช ๋ น์ด ์ ๋ฆฌ โ๏ธ conda init conda list conda env list conda activate pythorch1.12.1_p38 source ~/.bashrc v..
2023.09.28 -
[Paper reading] NeRF, Representing Scenes as Neural Radiance Fields for View Synthesis
Abstract Keywords: scene representation, view synthesis, image-based rendering, volume rendering, 3D deep learning We present a method that achieves state-of-the-art results for synthesizing novel views of complex scenes by optimizing an underlying continuous volumetric scene function using a sparse set of input views. Our algorithm represents a scene using a fully-connected (non- convolutional)..
2023.09.24 -
[GoogleML] Multi-class Classification
Softmax Regression softmax fuction exponential๋ค์ summation์ผ๋ก ๋๋์ด์ค๋ค ๋์ฑ ๊ทน๋ํํ๋ ํจ๊ณผ๊ฐ ์๋ค softmax activation func Training a Softmax Classifier
2023.09.23 -
[GoogleML] Hyperparameter Tuning, Regularization and Optimization ์๋ฃ 2023.09.22
-
[GoogleML] Batch Normalization
Normalizing Activations in a Network normalize๋ฅผ ํตํด ์๋ ด ์๋๋ฅผ ํฅ์์ํฌ ์ ์๋ค. ์ด๋ normalize์ ๋์์ a๊ฐ ์๋, z์ธ ๊ฒฝ์ฐ๊ฐ ๋ ๋ง๋ค. (ํ์ฑํ ํจ์ ํต๊ณผํ ์ด์ ์ ๊ฐ์ normalize) ์ ํ ๋ณํ์ ์ํ ๊ฐ๋ง์ ๋ฒ ํ๋ Learnable params์ด๋ค! ๊ฐ๋ง์ ๋ฒ ํ Fitting Batch Norm into a Neural Network z์ a๋ฅผ ๊ณ์ฐํ๋ ์ฌ์ด์ ๋ค์ด๊ฐ๋ค tf.nn.batch_normalization ํ ์ค์ ์ฝ๋๋ก ๊ตฌํํ ์ ์๋ค Why does Batch Norm work? batch norm์ input์ distribution์ด ๋ณํ๋ ๊ฒ์ ๋ง์์ค๋ค speed up learning ์ด๊ธฐ ์ธต๋ค์ params update ์ ..
2023.09.21