입력층과 출력층 사이의 모든 layer를 은닉층이라 한다.
신경망의 은닉층은 사람의 눈에 보이지 않는다.
퍼셉트론에서 편향(b)도 실제로는 보이지 않는다.
[편향이 은닉되어 있는 퍼셉트론]
[편향을 명시한 퍼셉트론]
편향을 명시하면 우측과 같이 입력신호가 1인 뉴런이 추가되고 가중치가 b가 된다.
이를 함수로 표현하면,
$$ y = h(b+w_1x_1+w_2x_2) \\h(x)=\begin{cases} 0~~(x\le0) \\1~~(x>0) \end{cases} $$
활성화 함수 (activation function) : 입력 신호의 총합을 출력 신호로 변환하는 함수로, 입력 신호의 총합이 활성화를 일으키는지 정한다.
퍼셉트론 예시
$$ y = b+w_1x_1+w_2x_2 \\y=\begin{cases} 0~~(b+w_1x_1+w_2x_2\le0) \\1~~(b+w_1x_1+w_2x_2>0) \end{cases} $$
위 식을 다시 정리해보면 다음과 같다.
$$ a = b+w_1x_1+w_2x_2 \\h(a)=\begin{cases} 0~~(a\le0) \\1~~(a>0) \end{cases} \\y = h(a) $$
[활성화 과정을 명시한 뉴런]
1,x1,x2 입력 신호가 가중치에 의해 변형된 ‘가중치 신호’들의 결과가 a뉴런(노드)에 전달되고, 함수 h( )에 의해 a뉴런의 신호가 변형되어 y뉴런에 출력 신호가 반환된다.
이는 활성화 함수 h( )의 처리 과정을 명시적으로 표현한 것이다.