2017-10-09 16 views
1

두 개의 숨겨진 레이어가있는 신경망을 만듭니다. ReLu 활성화를 두 레이어에 사용하고 마지막 (out_layer)에 대해 선형 활성화 함수를 사용합니다. 입력 값 x는 125 개의 열 (피쳐)을가집니다. 이 모델은 다음과 같습니다다층 신경망 - 손실 함수가 음수이고 정확도 (낮음)가 변경되지 않았습니다.

def multilayer_perceptron(): 
    tf.reset_default_graph() 
    x = tf.placeholder(tf.float32, shape=[None,train_x.shape[1]]) 
    y = tf.placeholder(tf.float32, shape=[None, 1]) 
    weights = { 
    'h1': tf.Variable(tf.random_normal([train_x.shape[1], n_hidden_1])), 
    'h2': tf.Variable(tf.random_normal([n_hidden_1, n_hidden_2])), 
    'out': tf.Variable(tf.random_normal([n_hidden_2, 1])) 
    } 
    biases = { 
    'b1': tf.Variable(tf.random_normal([n_hidden_1])), 
    'b2': tf.Variable(tf.random_normal([n_hidden_2])), 
    'out': tf.Variable(tf.random_normal([1])) 
    } 
    # Hidden layer with ReLU 
    layer_1 = tf.add(tf.matmul(x, weights['h1']), biases['b1']) 
    layer_1 = tf.nn.relu(layer_1) 
    # Hidden layer with ReLU 
    layer_2 = tf.add(tf.matmul(layer_1, weights['h2']), biases['b2']) 
    layer_2 = tf.nn.relu(layer_2) 
    # Output layer with linear activation 
    out_layer = tf.matmul(layer_2, weights['out']) + biases['out'] 
    learning_rate = tf.placeholder(tf.float32) 
    is_training=tf.Variable(True,dtype=tf.bool) 
    cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(labels=out_layer,logits=y) 
    cost = tf.reduce_mean(cross_entropy) 
    with tf.control_dependencies(tf.get_collection(tf.GraphKeys.UPDATE_OPS)): 
     optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost) 
    predicted = tf.nn.sigmoid(out_layer) 
    correct_pred = tf.equal(tf.round(predicted), y) 
    accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32)) 
    # Export the nodes 
    export_nodes = ['x', 'y', 'learning_rate','is_training', 'out_layer', 
        'cost', 'optimizer', 'predicted', 'accuracy'] 
    Graph = namedtuple('Graph', export_nodes) 
    local_dict = locals() 
    graph = Graph(*[local_dict[each] for each in export_nodes]) 
    return graph 

pred1 = multilayer_perceptron() 

기차와 유효 세트에 대한 손실과 정확성을 정의하기위한 세션의 출력은 이것이다 :

Epoch: 1/25 Train Loss: -219676.2812 Train Acc: 0.1047 
.... 
.... 
Epoch: 7/25 Train Loss: -46358476.0000 Train Acc: 0.1047 
Epoch: 7/25 Validation Loss: -46845576.0000 Validation Acc: 0.1038 
Epoch: 7/25 Train Loss: -53906272.0000 Train Acc: 0.1047 
Epoch: 7/25 Validation Loss: -54461228.0000 Validation Acc: 0.1038 
Epoch: 7/25 Train Loss: -62156116.0000 Train Acc: 0.1047 
Epoch: 7/25 Validation Loss: -62784408.0000 Validation Acc: 0.1038 
... 
... 
Epoch: 13/25 Train Loss: -304887584.0000 Train Acc: 0.1047 
Epoch: 13/25 Validation Loss: -307502528.0000 Validation Acc: 0.1038 
Epoch: 13/25 Train Loss: -327771616.0000 Train Acc: 0.1047 
Epoch: 13/25 Validation Loss: -330566752.0000 Validation Acc: 0.1038 
Epoch: 13/25 Train Loss: -351641632.0000 Train Acc: 0.1047 
Epoch: 13/25 Validation Loss: -354622816.0000 Validation Acc: 0.1038 
... 
... 
Epoch: 25/25 Train Loss: -1748839296.0000 Train Acc: 0.1047 
Epoch: 25/25 Validation Loss: -1762260480.0000 Validation Acc: 0.1038 
Epoch: 25/25 Train Loss: -1811036800.0000 Train Acc: 0.1047 
Epoch: 25/25 Validation Loss: -1824913024.0000 Validation Acc: 0.1038 
Epoch: 25/25 Train Loss: -1874472576.0000 Train Acc: 0.1047 
Epoch: 25/25 Validation Loss: -1888812416.0000 Validation Acc: 0.1038 
'./insurance2.ckpt' 

나는이 모델이 배우지 않았다고 생각합니다.

답변

0

교차 엔트로피의 레이블과 로그 매개 변수를 뒤집어 놓았습니다.

cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(labels=out_layer,logits=y) 

나는 오류를 수정하지만 문제는 지속, 당신의 코드보다

cross_entropy = tf.nn.sigmoid_cross_entropy_with_logits(labels=y, logits= out_layer) 

+0

내가 아는 잘 작동해야해야한다. – jjgasse

+0

변수의 잘못된 인코딩으로 인해 이러한 상황이 발생 했습니까? 나는 많은 범주 적 데이터를 가지고있다. – jjgasse