[GoogleML] Word Embeddings _ Word2vec & GloVe
Learning Word Embeddings blank๋ฅผ ์ฑ์ฐ๋ ๋ฐฉ์ (์์ธกํ๋) ๋ง์ฝ, ๋น์นธ ์์ 4 ๋จ์ด๋ง ๋ณด๊ณ ์์ธกํ๋ค๋ฉด? (์์ i want๋ ์ญ์ , 1800 -> 1200) context์ ๋ง์ถ์ด (๊ธฐ์ค์ ๋ฐ๋ผ) ํ๊ฒ์ ์์ธกํ๋๋ฐ ํ์ฉํ ๋จ์ด๊ฐ ๋ฌ๋ผ์ง๋ค. Word2Vec ๋๋คํ๊ฒ target ๋ฒกํฐ๋ฅผ ๊ณ ๋ฅธ๋ค. (ํน์ ๋ฒ์์ ์๋์ฐ ์ฌ์ด์ฆ ๋ด๋ถ์์) ๊ณ์ฐ ๋น์ฉ -> slow ๋ฌธ์ ๊ฐ์ํ๋ฅผ ์ํด ํธ๋ฆฌ ๊ตฌ์กฐ๋ฅผ ํ์ฉ (์ ๋น๋ -> ๋ deep) Hierarchical softmax ํด๋ฆฌ์คํฑํ ๋ค์ํ ๋ฐฉ๋ฒ๋ค์ด ์ ์ฉ๋ ์ ์๋ค. Negative Sampling ์ธํ์ผ๋ก ๋ ๋จ์ด -> target์ ์์ธกํ๋ ๋ฌธ์ (0 or 1) ๋น๊ต์ ํฐ ๋ฐ์ดํฐ ์
-> K๋ฅผ ์๊ฒ ์ก๋๋ค. ์ฒซ๋ฒ์งธ ์ฃผ์ค๋ง 1 -> positi..
2023.10.29