네트워크에서 여러 개의 손실 레이어를 정의한 경우 해당 끝에서 네트워크 시작까지 여러 가지 역 전파가 발생합니까? 내 말은, 그들은 심지어 그런 식으로 일하는거야? 나는 이런 식으로 뭔가가 있다고 가정 : Layer1{
}
Layer2{
}
...
Layer_n{
}
Layer_cls1{
bottom:layer_n
top:cls1
}
L
저는 네트워크를 배우려고하지만 항상 0의 그라데이션을 얻습니다. 나는 그것에 관해 정말로 혼란 스럽다. 그리고 나는 그것이 일어나는 오순절의 어떤 생각도 가지지 않고있다. I 포맷 의 입력 데이터를 (BATCH_SIZE, 120, 10, 3) 및 여섯 층 후 (CONV1 - POOL1 - CONV2 - pool2 -fc1 - FC2) I 예상 크기는 1x1
저는 정책 그라디언트를하고 있으며 최선의 목적 함수가 작업에 무엇인지 알아 내려고하고 있습니다. 작업은 에이전트가 살아남은 타임 스텝마다 보상 1 점을 받고 종료시 보상 0 점을받는 열린 ai CartPole-v0 환경입니다. 목적 함수를 모델링하는 가장 좋은 방법은 무엇인지 알아 내려고합니다. 내가 개입 및 종료에 음의 값을 반환 보상 기능을 수정하지 않
나는 기계 학습을 파이썬으로 연구 중이다. 이 코드는 Standford Uiv 클래스에서 가져온 것입니다. 나는이 코드를 파악하려했지만 실패했습니다. 문제는 loss_W = lambda W: self.loss(x,t)입니다. 사실이 아닌가요? loss_W (1) 또는 loss_W (2) 또는 그 밖의 것이 변경되지 않을 수 있습니다. 나는이 두 코드의 결과
저는 Andrew Ng의 기계 학습 과정에서 숙제 1을하고 있습니다. 그러나 다 변수 형 그래디언트 디센트를 벡터화 할 때 그가 말한 것에 대해 이해하고 있습니다. 다음과 같이 자신의 방정식이 제시된다 쎄타 = 쎄타 - F는 1/m의 * 합 (H (XI) 라진 -1- 일) * 사이가 I 인에 의해 생성 될 것으로 예상되는 알파 *의 F를 색인 여기서 h (
단계. Andrew의 코스에서 그는 알파가 학습 속도라고 말했습니다. 파생 상품이 양수인 경우 alpha * k을 뺍니다. 음수 일 경우 추가합니다. 왜 alpha * just the sign of derivative 대신 alpha * partial_derivative (J (theta1)) w.r.t theta1을 뺄 필요가 있습니까? 거기에 곱셈의 필
말 II와 tensorflow 거래는 간단하고 신경 세포 사용하여 SGD 가지고 방법 : In [0]: error.get_shape()
Out[0]: TensorShape([Dimension(None), Dimension(1)])
내가 확인하는 경우 : I 2 차원 오류가있을 것이다 결과 data = np.array([
(0, 0),
파이썬 함수를 코딩했지만 예측이 사실과 일치하지 않습니다. 예측하는 가격은 음수입니다. 그러나, 나는 그것이 틀린 곳을 찾을 수 없습니다. 파생 상품 [i]과 가중치 [i]를 계산할 때 옳은가? 도와주세요. def feature_derivative_ridge(errors, feature, weight, l2_penalty, feature_is_constan
일부 반복적 인 신경망 구조를 사용하여 다중 레이블 분류를 수행하고 있습니다. 내 질문은 손실 함수에 대한 것입니다 : 내 출력은 각 레이블의 클래스를 나타내는 true/false (1/0) 값의 벡터가됩니다. 많은 자원은 해밍 손실이 적절한 목표라고 말했다. 그러나 해밍 손실은 그래디언트 계산에 문제가 있습니다. H = 평균 (y_true XOR y_pr