softmax

    3

    3답변

    MNIST 인 간단한 3 계층 신경망에서 backpropagation을 이해하려고합니다. weights 및 bias 인 입력 레이어가 있습니다. 라벨은 MNIST이므로 10 클래스 벡터입니다. 두 번째 레이어는 linear tranform입니다. 세 번째 계층은 출력을 확률로 얻는 softmax activation입니다. Backpropagation은 각

    0

    1답변

    다른 주류 심층 학습 프레임 워크와 함께 벤치 마크를 만들기 위해 tensorflow에서 softmax 회귀 모델을 구현하려고합니다. tensorflow가 feed_dict issue이므로 공식 문서 코드가 느립니다. 나는 tensorflow 상수로 데이터를 제공하려고 노력하고 있지만 그것을 수행하는 가장 효율적인 방법을 모른다. 지금은 단 하나의 배치를

    0

    2답변

    2 차원 배열이 있고 softmax 함수를 현명한 방식으로 적용하고 싶습니다. 그것은 다음을 시도하십시오 [[ 0.26894142 0.73105858] [ 0.00247262 0.99752738] [ 0.99752738 0.00247262]] 작업이 현명한 행을 적용되었음을 의미 : 나는 다음과 같은 출력을 얻을 결과 value = numpy.arr

    2

    1답변

    softmax 회귀를 사용하여 신경망을 만들려고합니다. 나는 다음과 같은 회귀 식을 사용하고 있습니다 : 내가 1000x100의 입력이 있다고 할 수 있습니다. 즉, 10x10 크기의 이미지가 각각 1,000 개 있다고 가정 해 보겠습니다. 이제 이미지가 A, B, C, D, E, F, G, H, I, J의 문자 이미지라고 가정하고 이것을 예측하려고합니다.

    0

    2답변

    나는 숫자를 분류하기 위해 caffe/example/mnist 네트워크를 사용하고 있습니다. 내가 네트워크에 숫자의 그림을 줄 때 잘 작동하는 것처럼 보입니다. 그러나 네트워크에 숫자가 아닌 그림을 주면 무언가 훈련 된 네트워크 softmax 계층이 항상 확률 1과 다른 값 0을 갖는 확률을 제공합니다. [0,0,0, ..., 1 , 0,0,0]. 나는 그

    4

    1답변

    CAFFE에 prototxt을 정의하는 동안, 나는 우리가 입력 데이터는 각 클래스에 속하는 확률을 반환합니다 때로는 우리가, 내가 Softmax 계층을 SoftmaxWithLoss 알고 사용 마지막 레이어 유형으로 Softmax를 사용 때때로 발견,하지만 SoftmaxwithLoss도 반환 것으로 보인다 계급 확률은 무엇입니까? 또는 두 레이어 유형의 사

    2

    1답변

    프리 트레이닝 모델 (VGG 19)을 DIGITS에 사용하려고하지만이 오류가 발생합니다. ERROR: Your deploy network is missing a Softmax layer! Read the documentation for custom networks and/or look at the standard networks for examples 저는

    0

    1답변

    저는 프로그래밍에 초보자입니다. 특히 tensorflow로 프로그래밍하는 것이 좋습니다. 나는 그것을 사용하는 것을 이해하기 위해 장난감 문제를 만들고있다. 그런 경우 나는 분모가 모든 클래스의 합이 아닌 샘플 된 클래스의 합계 인 softmax와 같은 함수를 만들고 싶습니다. def my_softmax(X,W, num_of_samples): K

    0

    1답변

    일반 TensorFlow 예제부터 시작하겠습니다. 내 데이터를 분류하려면 내 데이터가 여러 개의 독립적 인 레이블 (확률의 합이 1이 아님)을 전달하기 때문에 여러 개의 레이블 (이상적으로는 복수 softmax 분류 자)을 사용해야합니다. 구체적으로 retrain.py에 add_final_training_ops() 이러한 라인은 final_tensor =

    0

    1답변

    방금 ​​TensorFlow로 게임을 시작했습니다. tf.placeholder과 (과) tf.nn.softmax (으)로 작업 할 수 없습니다. 이 코드는 다음과 같습니다. import tensorflow as tf import numpy as np shape = [1, 3] value = 0. probs = tf.constant(value, sh