반응형
#모두를 위한 딥러닝 강좌 lec 6-1 : Softmax Regression: 기본 개념 소개
https://www.youtube.com/watch?v=MFAnsx1y9ZI&index=13&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm
* Multinomaial classification
왼쪽 표의 데이터를 그래프 위에 그려보면 오른쪽 그림과 같이 데이타가 나온다.
그리고 그 데이타들을 binary 라는 0과 1로 나누는 classification 알고리즘을 적용한다고 했을 때 각각은 빨간선으로 구분할 수 있다.
1. C와 C가 아닌 값
2. B과 B가 아닌 값
3. A와 A가 아닌 값
저 3개를 행렬의 곱으로 구하기엔 좀 복잡할 수 있으므로, 하나의 식으로 합치어서 계산해보자.
이전에는 시그모이드(sigmoid)를 처리해야 했지만,
각각의 시그모이드(sigmoid) 함수를 정의해야하지만, 3개를 한꺼번에 구하는 방법도 있다.
'◼︎ 개발 > ML 알고리즘' 카테고리의 다른 글
[머신러닝] lec 7-2 : Training/Testing 데이타 셋 (0) | 2017.03.22 |
---|---|
[머신러닝] lec 7-1 : 학습 Learning rate, Overfitting, 그리고 일반화 (0) | 2017.03.20 |
[머신러닝] lec 6-2 : Softmax classifier 의 cost함수 (0) | 2017.03.10 |
[머신러닝] lec 5-2 : Logistic Regression의 cost 함수 설명 (0) | 2017.02.28 |
[머신러닝] lec 5-1 : Logistic Classification의 가설 함수 정의 (0) | 2017.02.23 |
[머신러닝] 01~04강 복습 및 리뷰 (0) | 2017.02.22 |
[머신러닝] lec 04 - Multi-variable linear regression (0) | 2017.02.22 |