2013-02-10 3 views
1

은 가능한이 기능 대략적인 NN을 양성하는 것입니다 : 내가 근사치를 TUN 경우 Function신경망 (FFW, BP) 함수의 근사

을위한 X^2의 죄 또는 간단한 뭔가, 그것은 잘 작동하지만에 대한 이런 종류의 함수는 상수 값의 라인을 가지고 있습니다. 내 NN는 1 은닉층 ((x)는 F (X)) 2 개 입력 (10 개 뉴런) 1 개 출력 (F (X)) 훈련 내가 BP 활성화 함수 S 자형을 사용하고 못한 -> TANH

내 목표는 위의 이미지에서 기능을 포착하는 노이즈없이 "부드러운"기능을 얻는 것입니다.

NN 또는 유전자 알고리즘을 사용하는 다른 방법이 있습니까?이를 근사값으로 계산하는 방법은 무엇입니까?

답변

1

입력 (x, f (x))이 불 연속적 (정확하게는 아니지만 일종의)이기 때문에 큰 문제가 발생하고 있습니다.

따라서 NN은 커다란 불연속 점을 감안할 때 문자 그대로 x-f (x) 매핑을 기억해야합니다.

하나의 접근법은 불연속성을 해결할 수있는 4 층 NN을 사용하는 것이다.

하지만 정말로, 문제를 해결하기 위해 NN 대신 다른 평탄화 방법을보고 싶을 수도 있습니다.

주기적으로 기능이 있으므로 처음에는 한 마침표 만 사용하거나 암기하고 일반화하지 않습니다.

+0

교육 기간은 1 회뿐입니다. 4 계층 NN은 1 입력, 3 숨김, 1 출력 또는 4 숨김 및 1 출력을 의미합니다. –

+0

많은 아키텍처를 테스트해야하며 하나의 숨겨진 계층과 낮은 수의 뉴런으로 시작해야합니다. 그런 다음 뉴런 수와 단계 수를 늘려야합니다. 어쩌면 사인 또는 코사인 활성화 함수를 사용하여 전체 함수를 학습 할 수도 있습니다. – alfa

+0

brute force testing 대신 잘 특성화 된 Cascade Correlation Algorithm을 사용하십시오. –