#모두를 위한 딥러닝 강좌 lec 5-1 : Logistic Classification의 가설 함수 정의
https://www.youtube.com/watch?v=PIjno6paszY&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=10
* 이전시간 복습 Linear Regression
Hypothesis : H(X) = WX
Cost : cost(W)
Gradient decent : W
* Binary classification 이란?
- 두 개중에 하나를 고르는 알고리즘!
- 사용 예시) Spam or Ham (스팸 메일 필터링), 페이스북 추천 타임라인, 주식시장의 이전 학습으로 인한 살지 팔지에 대한 판단 등에 사용할 수 있다.
* Linear Regression의 단점
문제1)
- 0과 1로만 구분할 경우 기울기가 달라질 경우 4시간 공부했을 때 성공이였던 데이타가 실패로 분류될 수도 있다.
문제2)
H(x) = Wx + b라는 Linear 공식으로 Classification의 값을 구할 때 0에서 1사이의 값이 아니라 1이 넘어버리는 값이 발생할 수 도 있다.
그래서 많은 사람들이 0에서 1사이의 값을 가지는 함수를 고민을 하게 되어 발견한 함수가 있다.
* sigmoid Function (시그모이드 함수) or Logistic Function
- 1을 넘어가게 된다면 1을 넘지않는 선을 가지게 되며, -100이 되어도 0과 가까운 수가 될 뿐 0밑으로 가지 않는다.
- z = WX로 두고, H(x) = g(z)로 두게 된다.
* Logistic Hypothesis의 최종
'◼︎ 개발 > ML 알고리즘' 카테고리의 다른 글
[머신러닝] lec 6-2 : Softmax classifier 의 cost함수 (0) | 2017.03.10 |
---|---|
[머신러닝] lec 6-1 : Softmax Regression: 기본 개념 소개 (0) | 2017.03.10 |
[머신러닝] lec 5-2 : Logistic Regression의 cost 함수 설명 (0) | 2017.02.28 |
[머신러닝] 01~04강 복습 및 리뷰 (0) | 2017.02.22 |
[머신러닝] lec 04 - Multi-variable linear regression (0) | 2017.02.22 |
[머신러닝] lec 03 - Linear Regression의 cost Function 최소화 알고리즘 (0) | 2017.02.22 |
[머신러닝] lec 02 - Linear Regression의 Hypothesis 와 cost (0) | 2017.02.17 |