비숍 북의 패턴 인식 및 기계 학습을 읽었을 때, 나는 backpropagation에 대한 5.3 장을 읽었으며, 그의 책에서 일반적인 피드 포워드 네트워크에서는 각 유닛이 입력의 가중치 합을 $$\a_j=\sum\limits_{i}w_{ji}[email protected]
Bishop의 저서는 단위 뉴런이 역 전파로 스스로 먹이를 줍니까?
그럼이 책의 비선형 활성화 함수로 변환 된 위 식에서의 합이 $h(.)$
이고 단위는 이고 단위는 $j$
이고 형태는 $$z_j=h(a_j)$$
입니다.
$a_2$
자체에 연결되어 있음을 의미
$$a_2=w_{21}z_1+w_{2,2}h(a_2)+\dots$$
것을 의미 한 후, 나는
$a_2$
를 계산 할
$$a_2=w_{21}z_1+w_{2,2}z_2+\dots$$
를 생각?
내가 잘못하면 나를 바로 잡으십시오.