[GoogleML] Transformer Network (Final)
Transformer Network Intuition // 구글 마지막 강의! :) 기존의 sequence 데이터를 다루던 방식과 달리, parallel하게 처리 + 두 개념이 중요하다 (self-attention, multi-head attention) Self-Attention Query, Key, Value 세가지 값이 중요 + softmax 수식과 유사하다 예를 들어, q3이 what's happen in there(아프리카) 라면, q3과 k1 -> 해당 질문에 대한 답이 jane인 것 (person) q3과 k2 -> 해당 질문에 대한 답이 visit인 것 (action) 등등 dot product attention이라고 불리기도 한다. 전에 key, value, query + 어텐션 Mult..
2023.10.30