#모두를 위한 딥러닝 강좌 lec 5-2 : Logistic Regression의 cost 함수 설명
https://www.youtube.com/watch?v=6vzchGYEJBc&index=11&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm
* Logistic (regression) classification 알고리즘
지난 번에 hypothesis를 구했고 이번엔 minimizs cost function과 gradient decent 값을 구해보자.
* Linear Hypothesis 의 그래프
- 장점 : 어디서든지 답(최저값)을 구할 수 있다! → 왜냐는 사람은 이전 강의 참고
* Cost Function의 그래프
- 초록 : Linear regression의 Hypothesis
- 주황 : Classification의 sigmoid function(Hypothesis)을 통해서 값이 0~1사이로 들어오도록 만들었다.
- Linear regression H(x)를 그래프로 그린다면 매끈한 밥그릇 모양!
- sigmoid 함수의 H(X)를 통해서 그래프로 그린다면 울퉁불퉁한 밥그릇 모양!
→ 이전시간(05-01)의 그래프를 보면 선이 구불구불하기 때문에 울퉁불퉁할 수 밖에 없다.
→ 그래서 어디에서 시작하던지 최저값을 찾는 것이 아니라, Local 최소값과 Global 최소값이 생기면서 값이 복잡하니까!
불안정하여 값을 쓸 수가 없다.
* Cost function 이해하기
cost function의 의미 : 실제 값과 예측 값과 비슷한다면 cost 값은 작아지고, cost 값은 커져서 우리의 모델을 더 정확히 하는 것이다.
to-do)아래의 예제를 그려가면서 이해해보기..!
하지만, 텐서플로우에서 코딩하려고 보면 굉장히 복잡해진다.
저 2개의 식을 하나의 식으로 만들어보자.
y=1일 때, c = -log(H(x))
y=0일 때, c = -1 * log(1-H(x)) 가 되므로 위의 식과 동일하게 변하게 된다.
* Cost minimize 하기 (Gradient Decent)
gradientDescentOptimizer라는 함수 라이브러리를 이용하여서 미분하여 구하면 된다.
#Logistic Classification 구현하기
https://www.youtube.com/watch?v=t7Y9luCNzzE&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=12
'◼︎ 개발 > ML 알고리즘' 카테고리의 다른 글
[머신러닝] lec 7-1 : 학습 Learning rate, Overfitting, 그리고 일반화 (0) | 2017.03.20 |
---|---|
[머신러닝] lec 6-2 : Softmax classifier 의 cost함수 (0) | 2017.03.10 |
[머신러닝] lec 6-1 : Softmax Regression: 기본 개념 소개 (0) | 2017.03.10 |
[머신러닝] lec 5-1 : Logistic Classification의 가설 함수 정의 (0) | 2017.02.23 |
[머신러닝] 01~04강 복습 및 리뷰 (0) | 2017.02.22 |
[머신러닝] lec 04 - Multi-variable linear regression (0) | 2017.02.22 |
[머신러닝] lec 03 - Linear Regression의 cost Function 최소화 알고리즘 (0) | 2017.02.22 |