ArtificialIntelligence/2023GoogleMLBootcamp(33)
-
[GoogleML] Coursera ์๋ฃ ์๋ฃ! ๐ฅณ
๐ง ์ํ ๊ธฐ๊ฐ์ด ๊ฒน์น๋ ๋ฐ๋์ ์ต์ด๋ก . . ๋ง๊ฐ์ผ์ over ํ์ต๋๋ค. I am ๋ฐ๋ณด . ์์ ๐ ์บ๊ธ๊น์ง ์ ๋ง์ณ์ ๊ตฌ๊ธ ๋ถํธ์บ ํ ์๋ฃ๊น์ง , , (๋ฉฐ์น ์๋จ์๋ฐ ^^_ ; ; )
2023.10.31 -
[GoogleML] Transformer Network (Final)
Transformer Network Intuition // ๊ตฌ๊ธ ๋ง์ง๋ง ๊ฐ์! :) ๊ธฐ์กด์ sequence ๋ฐ์ดํฐ๋ฅผ ๋ค๋ฃจ๋ ๋ฐฉ์๊ณผ ๋ฌ๋ฆฌ, parallelํ๊ฒ ์ฒ๋ฆฌ + ๋ ๊ฐ๋ ์ด ์ค์ํ๋ค (self-attention, multi-head attention) Self-Attention Query, Key, Value ์ธ๊ฐ์ง ๊ฐ์ด ์ค์ + softmax ์์๊ณผ ์ ์ฌํ๋ค ์๋ฅผ ๋ค์ด, q3์ด what's happen in there(์ํ๋ฆฌ์นด) ๋ผ๋ฉด, q3๊ณผ k1 -> ํด๋น ์ง๋ฌธ์ ๋ํ ๋ต์ด jane์ธ ๊ฒ (person) q3๊ณผ k2 -> ํด๋น ์ง๋ฌธ์ ๋ํ ๋ต์ด visit์ธ ๊ฒ (action) ๋ฑ๋ฑ dot product attention์ด๋ผ๊ณ ๋ถ๋ฆฌ๊ธฐ๋ ํ๋ค. ์ ์ key, value, query + ์ดํ ์ Mult..
2023.10.30 -
[GoogleML] Sequence Models & Attention Mechanism
Basic Models input ํ๋์ค ๋จ์ด๋ค์ ๋ฐ๋ ๋ถ๋ถ -> ์ธ์ฝ๋ output ์์ด ๋จ์ด๋ค์ ์ถ๋ ฅ -> ๋์ฝ๋ + ์ถฉ๋ถํ ์์ input / output ๋จ์ด ์๋ค์ด ์๋ค๋ฉด, ํด๋น ๊ตฌ์กฐ๋ working ๋ง์ด ๊ธธ์ง ์์ ๋ฌธ์ฅ์ output์ผ๋ก ๋ธ๋ค๋ฉด image captioning๋ ๊ฐ๋ฅ sequence to seq image to seq Picking the Most Likely Sentence condition์ผ๋ก ํ๋์ค์ด ๋จ์ด๊ฐ ๋ค์ด์์ ๋, ์๋จ์ด์ ํ๋ฅ ์ ์์ธกํ๋ ๊ฒ -> conditional probablity ๋๋คํ๊ฒ ๋ฝ์๋ด๋ค๊ฐ๋ ์ด์ํ ๋ฌธ์ฅ์ ๋ง๋ค ์ ์๋ค. ๋ฐ๋ผ์ ํ๋ฅ ๊ฐ์ ์ต๋ํํ๋ ๋ฌธ์ฅ์ ์์ธกํ๋ ๊ฒ์ด ์ ํฉํจ ๋ฐ๋ผ์ most likely english sentence ์ ๋ฌธ์ฅ์ด ๋..
2023.10.30 -
[GoogleML] Word Embeddings _ Word2vec & GloVe
Learning Word Embeddings blank๋ฅผ ์ฑ์ฐ๋ ๋ฐฉ์ (์์ธกํ๋) ๋ง์ฝ, ๋น์นธ ์์ 4 ๋จ์ด๋ง ๋ณด๊ณ ์์ธกํ๋ค๋ฉด? (์์ i want๋ ์ญ์ , 1800 -> 1200) context์ ๋ง์ถ์ด (๊ธฐ์ค์ ๋ฐ๋ผ) ํ๊ฒ์ ์์ธกํ๋๋ฐ ํ์ฉํ ๋จ์ด๊ฐ ๋ฌ๋ผ์ง๋ค. Word2Vec ๋๋คํ๊ฒ target ๋ฒกํฐ๋ฅผ ๊ณ ๋ฅธ๋ค. (ํน์ ๋ฒ์์ ์๋์ฐ ์ฌ์ด์ฆ ๋ด๋ถ์์) ๊ณ์ฐ ๋น์ฉ -> slow ๋ฌธ์ ๊ฐ์ํ๋ฅผ ์ํด ํธ๋ฆฌ ๊ตฌ์กฐ๋ฅผ ํ์ฉ (์ ๋น๋ -> ๋ deep) Hierarchical softmax ํด๋ฆฌ์คํฑํ ๋ค์ํ ๋ฐฉ๋ฒ๋ค์ด ์ ์ฉ๋ ์ ์๋ค. Negative Sampling ์ธํ์ผ๋ก ๋ ๋จ์ด -> target์ ์์ธกํ๋ ๋ฌธ์ (0 or 1) ๋น๊ต์ ํฐ ๋ฐ์ดํฐ ์ -> K๋ฅผ ์๊ฒ ์ก๋๋ค. ์ฒซ๋ฒ์งธ ์ฃผ์ค๋ง 1 -> positi..
2023.10.29 -
[GoogleML] Natural Language Processing & Word Embeddings
Word Representation ๋ด์ ์ ํตํด ์ ์ฌ๋๋ฅผ ํ์ ํ ์ ์๋ค. ๋ชจ๋ธ์ ์ ์ฅ์์ ์ฌ๊ณผ์ ์ค๋ ์ง feature vector๋ ์ ์ฌํ๋ค ํน - ์ค๋ ์ง, ํธ - ์ค๋ ์ง ๋ณด๋ค ์ฌ๊ณผ - ์ค๋ ์ง๊ฐ ๋ ์ ์ฌํ ๊ด๊ณ ์๋ฒ ๋ฉ์ ๊ฐ๋ Using Word Embeddings ์ ์ด ํ์ต์ ํตํด ๋ ์์ ์์ training set์ ์ ์ฉ ๊ฐ๋ฅํ๋ค ์ด๋ฌํ ์ ์์ word embedding์ face encoding๊ณผ ์ ์ฌํ ์ ์ด ์๋ค! :) Properties of Word Embeddings man -> woman as king -> what? ์ด๋ป๊ฒ ์๊ณ ๋ฆฌ์ฆ์ ์ผ๋ก ์ถ๋ก ํ ์ ์์๊น? (๋๋ฒกํฐ์ ์ฐจ๊ฐ ๋์ผํด์ง๋ feature -> gender) 300 ์ฐจ์์ ํํ ๊ณต๊ฐ์์ ์ฑ๋ณ์ ์๋ฏธํ๋ ๋ ๋ฒกํฐ๊ฐ ์ ์ฌํ๊ฒ ๋ํ๋..
2023.10.29 -
[GoogleML] Recurrent Neural Networks
Why Sequence Models? Notation ๋จ์ด ๋จ์๋ก ๋์ ๋ค, ์ด๋ฆ์ ๊ด๋ จํ ๋ถ๋ถ์ ์๋ณํ๋ค๊ณ ํ์ (์ด๋ฆ y -> 1, ์๋๋ฉด 0) X -> ์ฒซ๋ฒ์งธ ๋จ์ด i ๋ฒ์งธ sample(๋ฌธ์ฅ)์ ๋ํด t๋ฒ์งธ ๋จ์ด, ์์ -> X(i) ๋ผ๊ณ ํ๊ธฐํ๋ค Tx(i) = 9 (๋จ์ด ๊ฐ์๊ฐ 9๊ฐ๋ผ๋ ์๋ฏธ) one-hot vector๋ก ํํ๋๋ ๊ฐ ๋จ์ด๋ค ex) X ์ฃผ์ด์ง ์ฌ์ , vocavulary์ ๋ํด, mapping ๋๋ ๊ฐ๋ง 1, ๋๋จธ์ง๋ 0 -> one-hot ๋ง์ฝ์ ์ฌ์ ์ ์๋ ๋จ์ด๊ฐ ์ฃผ์ด์ง๋ค -> unknown ์ด๋ฅผ ํตํด x -> y mapping Recurrent Neural Network Model ๊ธฐ์กด์ ๊ตฌ์กฐ๋ก๋ ํํํ๊ธฐ ์ด๋ น๋ sequential data ๊ฐ์ค์น๋ค์ ๊ณต์ ํ๋ค! y3์ ์์ธกํ๊ธฐ..
2023.10.17 -
[GoogleML] Convolutional Neural Networks ์๋ฃ
๐ฆง ์ฒซ์ฃผ์ฐจ ์ฝ๋ฉ ๊ณผ์ ๊ฐ ํน๋ ํ๊ฒ ์ด๋ ค์ ๋ ๊ธฐ์ต์ด ๋ฉ๋๋ค. . . ๊ทธ๋๋ 80% ์๋ค๋๊น, ๋ฟ๋ฏํ๋ค์ :) CNN๊ณผ ๊ด๋ จ๋ ๋ค์ํ ์ค์ต์ ํ ์ ์์๋ค. ๋ง์ง๋ง ์ฃผ์ฐจ๋ ํ์ดํ ํ ๐ ' ๋ฌด์ฌํ ์๋ฃํ ์ ์๊ธธ . . . ๐ '
2023.10.11 -
[GoogleML] Neural Style Transfer
What is Neural Style Transfer? C + S -> G What are deep ConvNets learning? input์ ๊ฐ๊น์ด ์์ layer๋ค์ ์ถ์์ ์ธ edge output์ ๊ฐ๊น์ด deeper layer -> ๋ ๋ํ ์ผํ ๋จ์๋ก detect layer 2 -> ์ , ๋ํ ๋จ์๋ฅผ ํ์ธํ ์ ์๋ค ๊ตฌ์ฒด์ ์ธ ๊ฐ์ฒด๊น์ง ์ก์๋ด๋ ๋ง์ง๋ง ๋จ๊ณ layer๋ค Cost Function ๋ cost func์ ํฉํ์ฌ total Content Cost Function Style Cost Function ์ฑ๋์ 5๊ฐ๋ก (์์ผ๋ก) ๊ตฌ๋ถ ์ค๋ ์ง์ ๋ ธ๋์์ ์คํ์ผ์ด ์ ์ฌํ๋ค - correlated ์ฆ, vertical๊ณผ ์ฃผํฉ๋น์ด ์๋ก correlated (์ฆ๊ฐํ๋ฉด ์ฆ๊ฐ) ๋ activation ๊ฐ์ด..
2023.10.11 -
[GoogleML] Face Recognition
What is Face Recognition? recognition -> ๋ ์ด๋ ค์ด ํ์คํฌ One Shot Learning DB์ ์ ์ฅ๋ ์ฌ๋ ์ค ์๋์ง or ์๋์ง ์์ธกํ๋ ๊ฒ only ํ ์ฅ์ ์ฌ์ง ๋ง์ผ๋ก ์ฌ๋์ ๊ตฌ๋ถํด์ผํจ ๊ฒ๋ค๊ฐ ์๋ก์ด ํ์์ด ์ถ๊ฐ๋ ๊ฒฝ์ฐ ๋งค๋ฒ ์ฌํ์ต? -> ๋นํจ์จ ๋ฐ๋ผ์ ์ ์ฌ๋ ํจ์๋ฅผ ํ์ตํ๋๋ก ํจ DB์ ์๋ ํน์ ์ฌ๋๊ณผ ์ ์ฌํ ๊ฒฝ์ฐ ๋งค์ฐ ์์ ๊ฐ ์๊ฑฐ๋ ๋ค๋ฅธ์ฌ๋ - ํฐ ๊ฐ Siamese Network ๋ ์ด๋ฏธ์ง๊ฐ ๊ฐ์ ์ฌ๋์ธ์ง ์๋์ง ์ธก์ ํ๋ ๋ฉํธ๋ฆญ์ผ๋ก d๋ฅผ ํ์ตํ๋ค (norm ๊ฐ๋ ) distance ํจ์์ concept Triplet Loss SVM์ ๋์ค๋ margin concept positive d ์ด 0.5๊ณ margin ์ด 0.2 ๋ผ๋ฉด negative d ์ ์ ์ด๋ ..
2023.10.09 -
[GoogleML] Object Detection
Object Localization ํ๋์ ๊ฐ์ฒด๋ง detect vs ์ฌ๋ฌ ๊ฐ์ฒด detect (multiple) bounding box์ ๋ํ ๊ฐ์ classifier์ ์ถ๊ฐ ์ค์ฌ point ์์น + ๋์ด + ๋๋น -> 4๊ฐ์ parameter Pc -> object๊ฐ ์กด์ฌํ๋๊ฐ? ์๋ค๋ฉด bounding box ์ ๋ณด + ๋ค๋ฅธ class๋ค์ด ์๋์ง์ ๋ํ C ๊ฐ๋ค ์๋ค๋ฉด (Pc๊ฐ 0์ด๋ผ๋ฉด) ๋ค๋ฅธ ๋ ์ด๋ธ๋ค์ ๋ค ์๊ด X (Don't cares) y1์ด 1์ด๋ผ๋ฉด MSE์ฒ๋ผ ์๋ฌ (loss) ๊ฐ ๊ณ์ฐ y1์ด 0์ด๋ผ๋ฉด (์๋ค๋ฉด) don't care + classification + localization๊น์ง ํ ์ ์๋๋ก -> by bounding box ์ ๋ณด๋ ์ถ๊ฐ Landmark Detection ๋์ ์์น๋ฅผ ..
2023.10.09