backpropagation

    2

    1답변

    순수 파이썬으로 코딩 된 강화 학습 스크립트를 tensorflow로 변경하려고합니다. 전 샘플링을 시작했을 때 첫 번째 샘플의 경우 전달 전파에서 정확히 동일한 값을 얻었지만 백 프로 그래 게이트와 그래디언트 값은 동일하지 않습니다 (가까이 있지도 않음). 나는 그것이 RELU 비선형 성을 통해 역진과 관련이 있다고 생각하지만 다시는 완전히 확신 할 수 없

    2

    1답변

    주제를 더 잘 이해하기 위해 MATLAB에서 신경망을 구현했습니다. 내 GPU에서 코드를 실행하려고 했으므로 모든 매트릭스를 gpuArray()으로 초기화했지만 성능이 향상되지 않았습니다. 또한 GPU가 CPU보다 느린 경우가 있습니다. 나는 이미 arrayfun, pagefun과 같은 기능을 사용하는 방법을 배웠다. 역순으로 모든 레이어에 대해 델타 오류

    0

    1답변

    나는 단순한 Feed Forward Artificial Neural Network for Symbol Recognition을 작성했습니다. 5x5 픽셀 격자에 6 세트의 심볼이 있습니다. 이들은 예 X 들어 {X, +, -, \, /, |} 가 될 것이다 : 내 ANN 25 개 입력 뉴런 이루어져 0과 1 회색 잡음 개 X = [1,0,0,0,1,

    0

    1답변

    저는 다중 계층 신경망을 구축하고 있습니다. 교육 과정과 관련하여 질문이 있습니다. 원하는 결과가있는 일련의 교육 자료가 있습니다. 연결 가중치를 업데이트하기 위해 Backpropagation 알고리즘을 사용하고 있습니다. 네트워크 훈련 데이터를 별도로 교육해야합니까? 예 : 네트워크는 원하는 출력에 실제 출력을 제공하는 적절한 연결 가중치를 찾을 때마다

    0

    1답변

    비숍 북의 패턴 인식 및 기계 학습을 읽었을 때, 나는 backpropagation에 대한 5.3 장을 읽었으며, 그의 책에서 일반적인 피드 포워드 네트워크에서는 각 유닛이 입력의 가중치 합을 $$\a_j=\sum\limits_{i}w_{ji}[email protected] 그럼이 책의 비선형 활성화 함수로 변환 된 위 식에서의 합이 $h(.)$이고 단위는

    1

    1답변

    긴 이야기가 짧습니다. 방법이 있나요 x = tf.Variable(5.0) x_ = x.assign(tf.constant(5.0)) opt = tf.train.MomentumOptimizer(learning_rate=0.0001, momentum=0.9) train_op = opt.minimize(x_) with tf

    6

    1답변

    두 개 이상의 입력이있는 TensorFlow 그래프를 정의 할 수 있습니까? 예를 들어, 그래프에 두 개의 이미지와 텍스트를 제공하고 싶습니다. 각 이미지는 끝에 fc 레이어가있는 레이어 묶음으로 처리됩니다. 그런 다음 세 가지 표현을 고려한 손실 함수를 계산하는 노드가 있습니다. 목표는 3 개의 그물을 공동 표현의 손실을 고려하여 역 전파하도록하는 것입니

    1

    1답변

    신경 네트워크를 작성하고 있지만 backpropagation을 사용하여 교육하는 데 어려움이 있으므로 어딘가에서 버그/수학적 실수가 의심됩니다. 내 코드에서. 우리는 역 전파의 방정식이 어떻게 보이는지에 대한 다른 문헌을 읽는 데 보냈지 만, 다른 책들이 다른 것을 말하거나 적어도 혼란스럽고 모순 된 표기법을 사용하기 때문에 다소 혼란 스럽습니다. 그래서,

    1

    1답변

    백 프로게션을 사용하는 인공 신경망을 조립할 때 알고리즘은 복잡하며 테스트를위한 안정된 참조 점이 없습니다. 구현 된 알고리즘의 정확성을 디버깅하는 가장 좋은 방법은 무엇입니까? 나는 train/validation/test 단계에 대해서 말하고있는 것이 아니라, 일종의 계기를 원하거나 단계별 교육 결과/무게 값을 네트워크의 내부 작동에 대해 확인하고 싶습니

    3

    3답변

    MNIST 인 간단한 3 계층 신경망에서 backpropagation을 이해하려고합니다. weights 및 bias 인 입력 레이어가 있습니다. 라벨은 MNIST이므로 10 클래스 벡터입니다. 두 번째 레이어는 linear tranform입니다. 세 번째 계층은 출력을 확률로 얻는 softmax activation입니다. Backpropagation은 각