반응형

#모두를 위한 딥러닝 강좌 lec 5-2 : Logistic Regression의 cost 함수 설명

https://www.youtube.com/watch?v=6vzchGYEJBc&index=11&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm



* Logistic (regression) classification 알고리즘

지난 번에 hypothesis를 구했고 이번엔 minimizs cost function과 gradient decent 값을 구해보자.


* Linear Hypothesis 의 그래프

- 장점 : 어디서든지 답(최저값)을 구할 수 있다! → 왜냐는 사람은 이전 강의 참고


* Cost Function의 그래프

- 초록 : Linear regression의 Hypothesis

- 주황 : Classification의 sigmoid function(Hypothesis)을 통해서 값이 0~1사이로 들어오도록 만들었다.


- Linear regression H(x)를 그래프로 그린다면 매끈한 밥그릇 모양!

- sigmoid 함수의 H(X)를 통해서 그래프로 그린다면 울퉁불퉁한 밥그릇 모양! 

→ 이전시간(05-01)의 그래프를 보면 선이 구불구불하기 때문에 울퉁불퉁할 수 밖에 없다. 

→ 그래서 어디에서 시작하던지 최저값을 찾는 것이 아니라, Local 최소값과 Global 최소값이 생기면서 값이 복잡하니까!

불안정하여 값을 쓸 수가 없다. 



* Cost function 이해하기

cost function의 의미 : 실제 값과 예측 값과 비슷한다면 cost 값은 작아지고, cost 값은 커져서 우리의 모델을 더 정확히 하는 것이다.

to-do)아래의 예제를 그려가면서 이해해보기..!



하지만, 텐서플로우에서 코딩하려고 보면 굉장히 복잡해진다.

저 2개의 식을 하나의 식으로 만들어보자.




y=1일 때, c = -log(H(x))

y=0일 때, c = -1 * log(1-H(x)) 가 되므로 위의 식과 동일하게 변하게 된다.


* Cost minimize 하기 (Gradient Decent)

gradientDescentOptimizer라는 함수 라이브러리를 이용하여서 미분하여 구하면 된다.


 #Logistic Classification 구현하기 

https://www.youtube.com/watch?v=t7Y9luCNzzE&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=12

+ Recent posts