2017-04-30 5 views
0

대학 진학의 일환으로 주어진 레이어의 입력과 출력 사이의 심도의 척도를 기반으로 MLP를 기본적으로 레이어별로 교육하는 교육 절차를 구현해야합니다.입력과 출력 간 Correntropy

나는 콘트라트로피와 관련된 몇 가지 코드를 https://github.com/pdoren/DeepEnsemble/blob/master/deepensemble/utils/utils_functions.py#L238-L264https://github.com/pdoren/DeepEnsemble/blob/master/deepensemble/utils/cost_functions.py#L210-L237에 성공적으로 발견했습니다. 그러나 샘플 크기가 같은 경우에만이 코드를 사용할 수 있습니다.

제 질문은 : 어떻게 Theano에서 MLP 레이어의 입력과 출력 사이의 계산을 계산할 수 있습니까?

+0

난 당신이 교차 엔트로피를하고 싶지 않는 이유를 이해하지 않습니다 내가 keras에서 같은 목적 함수를 correntropy 사용하여 코드를 찾아 갔을 때 나는 아직이 구현하지만, 이러한 발견하지 않았습니다 입력과 출력 사이에 있으며 출력과 접지 사이가 아님 – Feras

답변

0

(1) 등 엔트로피는 크로스 엔트로피와 같지 않습니다. 그것은 MSE 또는 크로스 - 엔트의 바람직한 특성을 국부적으로 갖지만, 세계적으로 거리에 비례하여 아웃 라이어를 정규화하는데있어서 L1/0 특성을 갖는다. (2) 후속 질문자는 입력 - 출력에 대한 오류 측정 기준을 계산하지 않고 실제 결과 (실제 진상으로부터의 "멀리"예측)를 계산한다는 것이 정확합니다.

Keras는 자신 만의 목적 함수/거리 메트릭을 만들 수 있습니다.

https://github.com/EderSantana/seya/blob/master/seya/regularizers.py

https://github.com/EderSantana/seya/blob/master/seya/objectives.py

+1

FYI :이 사이트의 질의 응답에는 외부 링크를 참조 할 필요없이 실제로 이해할 수있는 코드 예제가 있어야합니다. – Bobby