입력 및 출력만으로 구성된 인공 신경망은 (단일 계층) perceptron입니다. 이러한 네트워크를 실현하면 많은 문제점을 해결하지 못해 10 년 이상 인공 신경 네트워크를 사용할 수있게되었습니다!
단순화하기 위해 하나의 출력 뉴런 만 상상해보십시오 (많은 출력이 여러 유사한 문제로 평행하게 간주 될 수 있음). 또한 순간에 하나의 입력 만 고려해 봅시다. 뉴런은 activation function을 사용합니다.이 뉴런은 수신 한 입력에 따라이 뉴런의 활동 (출력)을 결정합니다. 실제로 사용되는 정품 인증 기능의 경우 더 많은 입력, 더 높은 출력 (또는 일부 범위에서는 동일하지만 그 점을 잊어 버립시 다.) 또한이 두 가지를 연결하는 것은 "더 많은 입력과 더 많은 최종 출력"을 가져옵니다.
하나의 출력 뉴런을 사용하면 결과가 "출력이 임계 값을 초과하면 A, 그렇지 않으면 B"로 해석됩니다. ("A"와 "B"는 다른 것을 의미 할 수 있음). 우리의 뉴런은 더 많은 신호를 생성하기 때문에 더 많은 입력을 받으면 우리 네트워크는 "입력 신호가 임계 값을 초과하면 A, 그렇지 않으면 B"라는 유형의 선형 문제 만 대답 할 수 있습니다. 두 개의 입력을 사용하여

은 매우 유사하다 : 우리는 두 개의 입력 뉴런의 출력을 결합한다. 이제 우리는 "입력 뉴런 1과 2에 대한 입력이 모두 합쳐져 최종 출력이 임계 값을 초과 할 정도로 높으면 A, 그렇지 않으면 B"라는 상황에 처해 있습니다.

을하지만이 방법으로 해결할 수없는 문제가있다 : 그래픽 이것은 우리가 입력 1 - 입력 2 평면 (곡률의 수) 라인을 그려서 또는 B를 결정할 수있는 수단! XOR problem을 고려하십시오. 우리의 목표는이를 생산하는 것입니다 : 당신이 볼 수 있듯이

, 다른 모든 A의 한쪽에 모든 B의의를 가져 선을 그리하는 것은 불가능합니다. 그리고이 라인들은 모든 가능한 한 레이어 퍼셉트론을 나타냅니다! 우리는 XOR 문제가 linearly separable이 아니라고 말합니다 (XOR이 신경망에 대한 전통적인 테스트 인 이유입니다).
하나 이상의 숨겨진 레이어를 도입하면이 문제를 해결할 수 있습니다. 실제로이 두 하나의 계층 퍼셉트론 즈 (Perceptrons)의 결과를 결합 같다 :

점점 더 복잡한 문제를 해결할 수있는 숨겨진 계층에 더 많은 신경을 의미 추가. 사실, 어떤 함수 f (A, B).
그러나 다른 네트워크가 더 많은 레이어를 사용한다는 것을 알고있을 수도 있지만 (이 경우 deep learning 참조),이 경우 동기는 이론적 인 제한이 아니라 더 나은 네트워크를 찾습니다.
* 이상한 수제 정품 인증 기능을 사용한다고해서 더 나은 결과를 내지는 못합니다. 특정 문제는 해결할 수 있지만 전부는 아니며이 활성화 기능을 설계하는 방법을 알아야합니다.
주세요 [여기] (http://stackoverflow.com/questions/6495603/how-to-solve-xor-problem-with-mlp-neural-network) –