backpropagation

    4

    1답변

    나는 xor 함수를 사용하여 간단한 backpropagation 신경망을 학습하려고 시도했다. 활성화 함수로 tanh(x)을 사용하면 약 1000 회 반복 한 결과 올바른 결과를 얻을 수 있습니다. 그러나 g(x) = 1/(1+e^(-x))을 활성화 함수로 사용하면 g(x)*(1-g(x)) 파생어로 올바른 결과를 얻으려면 약 50000 반복이 필요합니다.

    3

    2답변

    나는 backpropagation으로 다중 퍼셉트론 구현을 시도하고있다.하지만 여전히 XOR을 가르치지 않는다. 나는 또한 종종 수학 범위 오류를 얻는다. 나는 책을 보면서 학습 규칙에 대한 구글 및 전파 방법을 다시 오류가 있지만, def logsig(net): return 1/(1+math.exp(-net)) def perceptron(co

    0

    1답변

    이것은 신경망에서 역 전파 알고리즘 코드의 일부입니다. 우리가 for (pt = 0; pt < N_PT_pair; pt ++) 루프를 병렬 처리하려면 for (epoch = 0; epoch < MaxEpoch, epoch ++)를 병렬 처리 할 수 ​​없습니다. initialize W1[ ] [ ] and W2[ ][ ] with random values

    10

    2답변

    저는 최근 Coursera의 Ng 교수의 기계 학습 과정을 완료했습니다. 전체 과정을 좋아하지만 신경 네트워크 교육을위한 역 전파 알고리즘을 이해하지 못했습니다. 내 이해 문제는 완전히 연결된 피드 포워드 네트워크를 위해 벡터화 된 구현 만 가르친다는 것입니다. 제 선형 대수학은 녹슬었고, 누군가 제게 범용 알고리즘을 가르쳐 줄 수 있다면 이해하기가 훨씬

    2

    1답변

    나는 파이썬에서 신경망을 수행하는 프로그램을 작성 중입니다. backpropagation 알고리즘을 설정하려고합니다. 기본 개념은 5 천 가지의 교육 예제를 살펴보고 오류를 수집하고 어느 방향에서 내가 theta를 이동시킨 다음 그 방향으로 이동해야 하는지를 알아내는 것입니다. 교육 예제가 있습니다. 그런 다음 하나의 숨겨진 레이어를 사용한 다음 출력 레이

    20

    1답변

    방금 ​​신경망 프로그래밍을 시작했습니다. 현재 Backpropogation (BP) 신경망이 어떻게 작동하는지 이해하고 있습니다. BP 네트워크에서의 훈련 알고리즘은 매우 간단하지만 알고리즘이 작동하는 이유에 대한 텍스트는 찾을 수 없습니다. 좀 더 구체적으로 말하자면, 신경망에서 시그 모이 드 함수를 사용하는 것을 정당화하기위한 수학적 추론을 찾고 있으

    0

    1답변

    입력 및 출력 또는 입력 세그먼트를 모두 설정 한 전체 학습 부분에 적용해야하는지 여부를 요구하는 데이터 정규화가 필요하다는 것을 알고 싶습니다.

    2

    1답변

    역 분화와 관련하여 몇 가지 질문이 있습니다. 나는 신경 네트워크 이론의 기본 원리를 배우려고 노력 중이며 간단한 XOR 분류기를 작성하여 작게 시작하고 싶었습니다. 나는 많은 기사를 읽고 여러 교과서를 다뤘다. 그러나 나는이 것을 XOR의 패턴으로 가르쳐 줄 수 없다. 첫째, 역전 류에 대한 학습 모델이 명확하지 않습니다. 다음은 네트워크 교육 방법을 나

    3

    5답변

    현재 Backpropagation 알고리즘에 문제가 있습니다. 나는 그것을 구현하고 그것을 얼굴 (왼쪽, 오른쪽, 아래, 똑바로)의 방향을 인식하는 데 사용하려고합니다. 기본적으로 N 개의 이미지가 있고 픽셀을 읽고 값 (0에서 255)을 0.0에서 1.0으로 변경합니다. 모든 이미지는 32 * 30입니다. 저는 960 뉴런의 입력 레이어, 3 뉴런의 숨겨

    1

    1답변

    현재 F #에서 다중 레이어 퍼셉트론을 구현하고 있으며 표준 역 전파 알고리즘을 구현할 예정이지만 바로 가기 연결을 처리하기 위해 알고리즘을 수정해야하는 지 궁금합니다. 바로 가기 연결이란 입력 레이어를 출력 레이어와 직접 연결하는 연결과 같이 레이어를 건너 뛰는 연결을 의미합니다. 감사합니다.