Softmax Regression1 [ML] - Linear Regression, Multi variable linear regression, Logistic (regression) classification, Softmax Regression 이번 포스팅은 김성훈 교수님의 '모두를 위한 딥러닝 강좌 시즌1'의 1~7강을 듣고 정리한 글입니다. [ML Lec 02] - Linear Regression - hypothesis (가설) $H(x) = wx + b$ - Cost function (loss) ($H(x) - y)^2$ 어떤 모형이 좋은지를 비교할 때, 실제값과 예측값의 거리(loss)가 작은 모형이 좋은 모형이다. 위의 Cost function은 다음과 같이 표현할 수도 있다. $Cost(w, b) \frac{1}{n} \sum_{i=1}^{n}(H(x)^(i) - y^(i))^2$ 모델의 학습 목표는 위의 $Cost(w, b)$를 최소화하는 $w, b$를 구하는 것이다. 머신러닝의 전체 프로세스는 다음과 같다. 1. 데이터 수집 2... 2021. 8. 16. 이전 1 다음