본문 바로가기

Logistic Regression

(2)
[코세라 강의 정리] 앤드류 응의 머신러닝 - Classification, Logistic Regression (2) 1. Cost Function 이제 우리는 Logistic regression에서 \(\theta\) 값을 어떻게 구할 것인가에 대해 의문이 생긴다. 우선, Linear Regression에서 사용했던 cost function인 $$J(\theta) = \frac{1}{m}\sum_{i=1}^{m}\underbrace{\frac{1}{2}(h_\theta(x^{(i)})-y^{(i)})^{2}}_{Cost(h_\theta(x), y)}$$ 을 다시 사용해보자. (편의상 sum 안의 부분을 Cost함수로 부르기로 하자.) 여기서 가설 함수 \(h_\theta(x)\)의 자리에는 기존의 선형 함수가 아니라, \(h_\theta(x) =\frac{1}{1+e^{-\theta^{T}x}}\) 꼴의 비선형 함수(..
[코세라 강의 정리] 앤드류 응의 머신러닝 - Classification, Logistic Regression 1. Classification 예측하고자 하는 값이 이산형 값(0 또는 1)인 경우 분류 문제로 보는데, 예를 들면 스팸 메일인지 아닌지, 악성 종양인지 아닌지 등을 파악하는 문제가 있다. 일반적으로 "Positive" : 1, "Negative" : 0으로 놓는다. 예를 들면, 다음과 같다. "메일이 스팸 메일이다." : 1, "일반적인 메일이다." : 0 "악성 종양이다." : 1, "악성 종양이 아니다." : 0. 분류 문제는 [0, 1]만 분류하는 게 아니라 [0, 1, 2, 3, ...n]처럼 다수의 class를 분류할 수도 있는데, 우선은 이진 분류에 대해 알아보자. 다음과 같은 악성종양을 분류를 위한 데이터가 있다고 하자. 분류를 위해서 지금까지 배운 Linear Regression을 적용..