ArtificialIntelligence/2023GoogleMLBootcamp(33)
-
[GoogleML] Python and Vectorization
Python and Vectorization More Vectorization Examples Vectorizing Logistic Regression X의 차원은 (nx, m) nx dim vector가 m(sample)개 있다! :) 왜냐하면 x 데이터 1개를 열벡터로, 세로로 stacking 했으므로, 세로 방향으로는 성분들 (dim), 가로 방향으로는 m개의 샘플들이 진행 Vectorizing Logistic Regression's Gradient Output 벡터화 하더라도, iteration loop는 항상 필요하다. Broadcasting in Python Can you do this without explicit for-loop? A Note on Python/Numpy Vectors Qu..
2023.09.07 -
[GoogleML] Logistic Regression as a Neural Network
W가 only parameter, nx dim vector. b는 real number loss func - single training example에 대한 error cost func - cost of your params (전체 데이터에 대해, Parameter W, b의 평균 에러를 의미) Gradient Descent slope of the function Derivatives 직선이라면 (1차 함수) a의 값에 무관하게, 함수의 증가량은 변수 증가량의 3배 즉 3으로 미분값이 일정하다 Computation Graph Derivatives with a Computation Graph Logistic Regression Gradient Descent Gradient Descent on m Exam..
2023.09.05 -
[GoogleML] Introduction to Deep Learning
Neural Networks and Deep Learning 1. Introduction to Deep Learning Supervised Learning with Neural Networks Why is Deep Learning taking off? + 생각보다 영어 퀴즈가 굉장히 까다롭다 . . .
2023.09.05