목표는 실제값(y)에 가까운 예측값(y hat) 구하는 것
@손실 함수(Loss Fuction)
-출력된 y의 예측값과 참값 y 사이에 오차가 얼마나 큰지 측정
-제곱 오차는 로지스틱 회귀에서는 경사 하강법을 적용하지 못하게 하기 때문에 제곱 오차와 비슷한 역할을 하지만 최적화 문제가 볼록해지는 다른 손실 함수 정의
-> 최적화 용이
-손실 함수는 훈련 샘플 하나에 관해 정의되기 때문에 그 하나가 얼마나 잘 예측되었는지 측정해줌
-같은 모델을 대상으로 하더라도 중요하게 생각하는 데이터의 특성에 따라 변형됨
->모델의 성능 올리기 위해 손실 함수 임의 변경 가능
@로지스틱 회귀에서 사용하는 손실 함수
@비용 함수(Cost Fuction)
-훈련 세트 전체에 대해 얼마나 잘 추측되었는지 측정해주는 함수
-모든 입력에 대한 오차 계산해줌
-비용 함수는 모든 입력에 대해 계산한 손실 함수의 평균 값으로 구할 수 있음
-손실 함수가 하나의 훈련 샘플에 적용됨
-비용 함수는 매개 변수의 비용처럼 작용함
-로지스틱 회귀를 학습하는 것은 비용 함수 J를 최소화해주는 매개 변수들 w와 b를 찾는 것
(실제값과 비슷한 예측값을 갖기 위함)
참고)
'CS > AI | CV' 카테고리의 다른 글
계산 그래프 | Computation Graph (0) | 2020.12.31 |
---|---|
경사하강법 | Gradient Descent (0) | 2020.12.31 |
로지스틱 회귀 | Logistic Regression (0) | 2020.12.31 |
이진 분류 | Binary Classification (0) | 2020.12.31 |
신경망(Neural Network), 지도학습(Supervised Learning) (0) | 2020.12.28 |