본문 바로가기

Machine learning

(3)
[코세라 강의 정리] 앤드류 응의 머신러닝 - Classification, Logistic Regression 1. Classification 예측하고자 하는 값이 이산형 값(0 또는 1)인 경우 분류 문제로 보는데, 예를 들면 스팸 메일인지 아닌지, 악성 종양인지 아닌지 등을 파악하는 문제가 있다. 일반적으로 "Positive" : 1, "Negative" : 0으로 놓는다. 예를 들면, 다음과 같다. "메일이 스팸 메일이다." : 1, "일반적인 메일이다." : 0 "악성 종양이다." : 1, "악성 종양이 아니다." : 0. 분류 문제는 [0, 1]만 분류하는 게 아니라 [0, 1, 2, 3, ...n]처럼 다수의 class를 분류할 수도 있는데, 우선은 이진 분류에 대해 알아보자. 다음과 같은 악성종양을 분류를 위한 데이터가 있다고 하자. 분류를 위해서 지금까지 배운 Linear Regression을 적용..
[코세라 강의 정리] 앤드류 응의 머신러닝 - Normal Equation 1. Normal Equation 지금까지 배운 Gradient Descent은 최솟값을 찾기 위해서 많은 반복을 한다. 하지만 Normal Equation은 최적의 \(\theta\) 값을 한 번에 구한다. 다음과 같은 cost function이 있다고 생각해보자. (\(\theta\)는 벡터가 아닌 스칼라라고 가정) 여기서 최솟값을 가지는 곳은 미분해서 기울기가 0이 되는 지점으로 쉽게 찾을 수 있다. 그렇다면 \(\theta\)가 실수가 아니라 (n+1)차원의 파라미터 벡터일 경우는 어떻게 할까? 아래 예시를 통해 확인해보자. (m=4인 training data) 가장 먼저 할 일은 모든 값이 1인 새로운 Feature \(x_0\)를 추가해주는 것이다. 그리고 다음과 같이 \(x, y\)에 대한 ..
[코세라 강의 정리] 앤드류 응의 머신러닝 - Multivariate Linear Regression 1. Multiple Features 실생활에서 회귀 문제를 풀기 위해서는 다양한 변수들이 존재한다. 집값을 예측하는 문제에서도 단순히 집 크기만 있는 것이 아니라 침실의 개수, 층 등 많은 특성들이 가격에 연관돼있다. 이제 특성(x)이 여러 개이므로 표기법을 알아야 한다. n = 특성의 수 \(x^{(i)}\) = i번째 샘플의 입력값(특성) \(y^{(i)}\) = i번째 샘플의 출력 값 만약 두 번째 샘플의 특성을 나타내고 싶다면 다음과 같이 나타낸다. Hypothesis 또한 x가 늘어남에 따라 다음과 같이 쓸 수 있다. $$h _\theta(x) = \theta _{0} + \theta_{1}x_{1} + \theta_{2}x_{2} + ... + \theta_{n}x_{n}$$ 예를 들면, $..