본문 바로가기

인공지능/ML

인공지능 6. Logistic Regression

앞서 보았던 Regression은 전부 선형이었고, 많은 데이터들 중에서 가장 작은 loss를 만족시키는 함수의 W와 b를 찾는 것이 우리의 목적이었다. 

 

이번에는 Yes or No, 양쪽으로 데이터를 나누는 Logistic Regression이다.

 

Logistic Regression

분류를 Binary Classfication, 즉 양자택일의 형태로 한다.

  • 시험에 합격인가 불합격인가
  • 진짜인가 가짜인가
  • 비만인가 아닌가

등 여러 가지의 분류 형태가 있을 수 있다.

 

Logistic Regression의 data는 [0, 0, 0, 1] 과 같은 형태로 True / False 형태로 나타낼 수 있는데, 이를 one-hot Encoding이라 한다.

 

이는 데이터들이 연결된 선형 함수가 아닌 새로운 함수, Losgic Function이 필요함을 의미한다. 이를 g(z) function / sigmoid 함수라 한다.

sigmoid 함수의 z값의 변화에 따라 위와 같은 그래프를 만족함을 알 수 있다. (여기서 z는 y = Wx+b 형태의 가설함수이다).

 

Cost Function

 

양쪽의 log 함수가 합쳐셔 2차함수 형태와 같은 convex한 구조를 가지게 되고, learning rate에 따라 cost를 가장 적게 하는 방향으로 hypothesis 함수가 이동한다.