@신경망 네트워크 구성
@입력층(Input layer)
-입력 특성들의 층
-a^[0]으로 표기
@은닉층(Hidden layer)
-입력층과 출력층 사이의 모든 층
-은닉층이라는 이름은 훈련 세트에서 볼 수 없다는 걸 의미
지도 학습으로 훈련시키는 신경망에선 훈련 세트가 입력값 X와 출력값 Y로 이루어져 있음
은닉층의 실제 값은 훈련 세트에 기록되어 있지 않음
->훈련 세트에서 무슨 값인지 모른다는 것
@출력층(Output layer)
-예측 값인 y hat의 계산을 책임짐
입력값과 출력값은 알 수 있지만 은닉층의 값들은 알 수 없음
@입력층 하는 일
a^[0] = X
a^[0]은 입력층의 활성값이라고 부름
a는 활성값을 의미하고 신경망의 충돌이 다음 층으로 전달해주는 값을 의미
입력층은 X를 은닉층으로 전달해줌
@은닉층 하는 일
은닉층은 활성값 a^[1]을 만듬
은닉층의 첫번째 노드는 a_1^[1]을 만들고
두번째 노드는 a_2^[1]를 만듬
위 a^[1]은 4차원 벡터가 됨
->해당 은닉층에 은닉 노드가 4개 있기 때문
파이썬에서는 위 그림처럼 생긴 (1,4) 행렬 혹은 열 벡터라고 할 수 있음
@출력층 하는 일
출력층은 실숫값(real number) a^[2]를 만듬
y hat은 a^[2]의 값을 가지게 됨
로지스틱 회귀에서 y hat이 a값을 가지는 것과 비슷
신경망의 층 셀 때 입력층은 세지 않기 때문에 위 신경망은 2층(2 layer NN)
(은닉층이 첫번째 층, 출력층이 두번째 층)
참고)
'CS > AI | CV' 카테고리의 다른 글
Machine Learning Overview & An understanding of data (0) | 2021.02.17 |
---|---|
신경망 네트워크 출력의 계산 | Computing Neural Network Output (0) | 2021.01.07 |
파이썬 넘파이 벡터 | A Note on Python/Numpy Vectors (0) | 2021.01.06 |
파이썬 브로드캐스팅 | Broadcasting in Python (0) | 2021.01.05 |
로지스틱 회귀의 경사 계산 벡터화 | Vectorizing Logistic Regression's Gradient Computation (0) | 2021.01.05 |