KimAnt 🥦

KimAnt 🥦

  • SohyeonKim (363)
    • ComputerScience (106)
      • ProcessingInMemory (6)
      • FaultTolerance (2)
      • OperatingSystem (21)
      • FreeBSD (23)
      • DesignPattern (1)
      • ComputerNetwork (12)
      • FullStackProgramming (17)
      • DockerKubernetes (16)
      • Database (5)
    • ArtificialIntelligence (72)
      • ECCV2024 (11)
      • WRTNCampusLeader (4)
      • PaperReading (14)
      • 2023GoogleMLBootcamp (33)
      • DeepLearning (10)
    • Programming (27)
      • Swift (17)
      • JAVA (3)
      • CodingTest (2)
      • Algorithms (5)
    • Experiences (37)
      • KIST Europe Internship (15)
      • Activities (8)
      • Competition (6)
      • International (7)
      • Startup (1)
    • iOS (41)
      • AppProject (10)
      • AppleDeveloperAcademy@POSTE.. (9)
      • CoreMLCreateML (8)
      • MC3Puhaha (4)
      • NC2Textinit (10)
      • MACSpaceOver (0)
    • GitHub (5)
    • UniversityMakeUsChallenge (23)
      • UMCActivities (3)
      • UMCiOS (12)
      • UMCServer (7)
      • BonheurAppProject (1)
    • Science (33)
      • 2022GWNRSummer (13)
      • 2023GWNRWinter (8)
      • 2024GWNRWinter (2)
      • Biology (6)
    • Etc (16)
      • StudyPlanner (13)
  • 홈
  • 태그
  • 방명록
RSS 피드
로그인
로그아웃 글쓰기 관리

KimAnt 🥦

컨텐츠 검색

태그

umc AI process Google OS 3D PRINTING kernel server 수치상대론 biohybrid app Container docker Programming 딥러닝 중력파 ios swift 머신러닝 Apple

최근글

댓글

공지사항

아카이브

word2vec(1)

  • [GoogleML] Word Embeddings _ Word2vec & GloVe

    Learning Word Embeddings blank를 채우는 방식 (예측하는) 만약, 빈칸 앞의 4 단어만 보고 예측한다면? (앞에 i want는 삭제, 1800 -> 1200) context에 맞추어 (기준에 따라) 타겟을 예측하는데 활용할 단어가 달라진다. Word2Vec 랜덤하게 target 벡터를 고른다. (특정 범위의 윈도우 사이즈 내부에서) 계산 비용 -> slow 문제 가속화를 위해 트리 구조를 활용 (저빈도 -> 더 deep) Hierarchical softmax 휴리스틱한 다양한 방법들이 적용될 수 있다. Negative Sampling 인풋으로 두 단어 -> target을 예측하는 문제 (0 or 1) 비교적 큰 데이터 셋 -> K를 작게 잡는다. 첫번째 주스만 1 -> positi..

    2023.10.29
이전
1
다음
Git-hub Linked-in
© 2018 TISTORY. All rights reserved.

티스토리툴바