본문 바로가기

ML&DL4

[DL] - 딥러닝 강의 정리 이번 포스팅은 김성훈 교수님의 '모두를 위한 딥러닝 강좌 시즌1'의 8~12강을 듣고 정리한 글입니다. [DL Lec 08] - 딥러닝의 기본개념 : 시작과 XOR 문제 뇌의 뉴런이 동작하는 형태를 기계로 구현하는 것에서 시작되었다. 과거, AND GATE와 OR GATE를 선형으로 풀게 되면서, 가능성을 매우 긍정적으로 생각했다. 하지만, XOR GATE를 해결할 수 없게 되면서, 주춤하게 된다. x1 x2 OR 0 0 0 0 1 1 1 0 1 1 1 1 x1 x2 AND 0 0 0 0 1 0 1 0 0 1 1 1 x1 x2 XOR 0 0 0 0 1 1 1 0 1 1 1 0 Backpropagation : 최종적으로 예측한 error를 구해서 학습을 시키자는 생각에서 시작되었다. CNN의 기원 : 어떤.. 2021. 8. 20.
[ML] - Linear Regression, Multi variable linear regression, Logistic (regression) classification, Softmax Regression 이번 포스팅은 김성훈 교수님의 '모두를 위한 딥러닝 강좌 시즌1'의 1~7강을 듣고 정리한 글입니다. [ML Lec 02] - Linear Regression - hypothesis (가설) $H(x) = wx + b$ - Cost function (loss) ($H(x) - y)^2$ 어떤 모형이 좋은지를 비교할 때, 실제값과 예측값의 거리(loss)가 작은 모형이 좋은 모형이다. 위의 Cost function은 다음과 같이 표현할 수도 있다. $Cost(w, b) \frac{1}{n} \sum_{i=1}^{n}(H(x)^(i) - y^(i))^2$ 모델의 학습 목표는 위의 $Cost(w, b)$를 최소화하는 $w, b$를 구하는 것이다. 머신러닝의 전체 프로세스는 다음과 같다. 1. 데이터 수집 2... 2021. 8. 16.
[밑바닥부터 시작하는 딥러닝1] 퍼셉트론 퍼셉트론이란, 다수의 신호를 입력받아 하나의 신호를 출력하는 것을 의미한다. 이는 딥러닝의 기원이 되는 알고리즘이며, 입력층과 출력층만 존재하는 단층 퍼셉트론과 입력층과 출력층 외에 층을 추가한 다층 퍼셉트론으로 나뉘어진다. 각 원을 뉴런 또는 노드라고 부르는데, xi 값들을 입력신호라고 부르고 wi 값들을 가중치, output (y) 값을 출력신호라고 부른다. 이 때, 가중치가 클수록 해당 신호는 더 중요하다는 의미로도 해석할 수 있다. 퍼셉트론의 동작 원리를 수식으로 나타낸다면, 아래와 같다. y = 0 (w1*x1 + wx*x2 + ... + wi*xi 𝜽) 입력신호와 가중치의 곱들을 합한 값이 임의로 설정한 𝜽 (임계값) 보다 크다면, 다음 신호로 흘려보낸다는 의미이고 그렇지 않다면, 다음 신호로.. 2021. 6. 30.
[ML] - Tensorflow의 기본 Operations 취준하면서 머신러닝, 딥러닝을 많이 안하다(?) 보니 개념이 가물가물해서 유튜브에 있는 김성훈 교수님의 강의를 듣게 되었다. 😏 사실 전부터 Tensorflow에 대해서 좀 배워보고 싶기도 했고 머신러닝의 개념에 대해 다시 한번 알아가면서 공모전 등에 Tensorflow를 적용해보고 싶어서 공부를 시작했다. 취준하면서 서류, 인적성, 면접 등을 주로 하고 있고 데이터 분석에 대한 공부로 SQL, Kaggle 등 은혁이랑 함께 하고 있지만, 시간을 내서라도 하루에 2강 이상씩 보며 Tensorflow를 공부해보려 한다. Keep Going ! 🙋‍♂️ Tensorflow는 dataflow graph를 사용해서 numerical을 계산할 수 있는 라이브러리이다. graph는 node와 node를 연결하는 e.. 2021. 4. 26.