2015-01-05 10 views
0

기계 학습 (중립 네트워크)에 익숙하지 않으며 질문이 있습니다. 설명해주세요. 역 전파에서 최소화하려는 목표 함수는 일반적으로 출력과 대상 간의 오차 제곱의 합입니다. 그러나 분류 문제에서 종종 잘못된 분류의 총 수를 최소화하는 것이 목표입니다. 왜이 총 잘못된 수는 역 전파에서 목적 함수로 직접 사용되지 않을 수 있습니까?역 전파를위한 객관적인 기능으로 잘못 분류 된 숫자를 사용하십시오.

답변

0

수학 때문에. 잘못 분류하는 횟수를 최소화하고 싶지만 이 아니며 continuous도 아닙니다. 따라서 최적화하기가 어렵습니다.

그래서 최적화하기 위해 우리는 부드러운 "프록시"를 사용합니다. 제곱의 합은 실수로 연속적인 방식으로 페널티를줍니다. 즉, 입력 매개 변수의 (아주) 작은 편차는 결과의 작은 변화를 초래합니다. 비 연속 목표 함수가 사용 된 경우에는 그렇지 않습니다.

또한 잘못된 분류를 찾으려면 출력을 실제 답변과 비교해야합니다. ==을 사용하여 부동 소수점을 평등하게 비교할 수 없으므로 일부 오류는 허용해야합니다. 그리고 대답이 훨씬 더 큰 경우 0.001으로 답을 놓치지 않는 것이 큰 문제는 아닙니다. 따라서 예측을 가능한 한 실제 답변에 가깝게 푸시하고 예측에서 답변까지의 총 거리를 최소화하여 예측을 수행하려고합니다.

+0

매우 이해할만한 답변, txs. 그리고 저는 물건을 추가하고 싶습니다 : 목적 함수 (gradient error)의 제곱 오차의 합에 그라디언트 디센트 (descent)를 사용하여, 우리는 가중치 벡터를 조정하고 최종적으로 수용 가능한 값을 찾을 수 있습니다. 잘못된 분류의 수에 대해서는 그렇게 할 수 있다고 생각하지 않습니다. – lenhhoxung