반응형

#모두를 위한 딥러닝 강좌 lec 5-1 : Logistic Classification의 가설 함수 정의

https://www.youtube.com/watch?v=PIjno6paszY&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=10



* 이전시간 복습 Linear Regression 

Hypothesis : H(X) = WX

Cost : cost(W)

Gradient decent : W 


* Binary classification 이란?

- 두 개중에 하나를 고르는 알고리즘!

- 사용 예시) Spam or Ham (스팸 메일 필터링), 페이스북 추천 타임라인, 주식시장의 이전 학습으로 인한 살지 팔지에 대한 판단 등에 사용할 수 있다.


* Linear Regression의 단점


문제1)

- 0과 1로만 구분할 경우 기울기가 달라질 경우 4시간 공부했을 때 성공이였던 데이타가 실패로 분류될 수도 있다.


문제2)

H(x) = Wx + b라는 Linear 공식으로 Classification의 값을 구할 때 0에서 1사이의 값이 아니라 1이 넘어버리는 값이 발생할 수 도 있다.


그래서 많은 사람들이 0에서 1사이의 값을 가지는 함수를 고민을 하게 되어 발견한 함수가 있다. 


* sigmoid Function (시그모이드 함수) or Logistic Function 


- 1을 넘어가게 된다면 1을 넘지않는 선을 가지게 되며, -100이 되어도 0과 가까운 수가 될 뿐 0밑으로 가지 않는다. 

- z = WX로 두고, H(x) = g(z)로 두게 된다.


* Logistic Hypothesis의 최종




반응형

+ Recent posts