1. 신경망 개요

신경망을 어떻게 구현하는지 알아보자.

로지스틱 회귀에서 보았던 시그모이드 계산 유닛들을 세로로 쌓아서 신경망을 만들 수 있다.

로지스틱 회귀를 신경망으로 나타낸 것

로지스틱 회귀를 신경망으로 나타낸 것

첫 번째 층의 각 노드에서 계산하는 것

첫 번째 층의 각 노드에서 계산하는 것

여기서 첫 번째 층, 두 번째 층이라는 표현을 했는데, 이처럼 일련의 노드들을 하나의 **레이어(=층, layer)**이라고 한다.

l번째 층은 위첨자 [l]로 표시한다.

일반적인 신경망에서는 z→a 계산을 여러 번 수행하고, 마지막으로 손실 함수(비용 함수)를 계산한다.

정방향 전파와 역방향 전파는 앞서 배웠던 것과 비슷하게 이루어진다.

2. 신경망 표현 방법

앞서 본 신경망은 hidden layer가 1개인 2 layer NN이다.

$a$(활성값, activations): 신경망에서 하나의 층이 다음 층으로 전달하는 값

<aside> 💡

신경망의 층을 셀 때 input layer는 세지 않는다. 위에서 본 신경망은 hidden layer, output layer만 세어 2 layer NN이다.

</aside>

hidden layer와 output layer는 각각 연관된 파라미터를 가진다.

hidden layer의 파라미터: $w^{[1]},b^{[1]}$