신경망(Neural Network)을 구성하기 전에 인풋값의 J(Cost Function)을 최소(최적) 비용으로 정리하기 위해 w, b 필요함
w, b의 값을 경사하강법으로 찾게됨
->이때 도함수 개념 필요
도함수를 알게 되면 신경망 구성시 경사하강법을 직관적으로 사용 가능하다는 이점 있음
@도함수(Derivative)
-=어떤 함수의 기울기(slope)
-변수 a를 조금만 변화시켰을 때, 함수 f(a)가 얼만큼 변하는지 측정하는 것
-Notation
f(a) = 3a는 직선
->미분계수는 모든 곳에서 3으로 같음
@곡선일 때의 미분계수
-곡선 위의 다른 위치마다 높이/밑변의 비율이 모두 다름
-선의 기울기가 다르기 때문에 위치가 달라지면 도함수 값이 달라짐
-함수의 기울기는 함수의 위치에 따라 다른 값을 가질 수 있음
참고)
'Math' 카테고리의 다른 글
선형결합과 생성 | Linear Combinations and span (0) | 2020.12.28 |
---|---|
벡터 | Vector (0) | 2020.12.28 |