tf.slim.conv2d 함수와 함께 2 개의 길쌈 레이어를 적용하려고 할 때 기본적으로 입력 이미지의 크기가 매번 절반 씩 줄어 듭니다. 그런 다음 convolution2d_transpose을 적용하여 원본 이미지 모양을 복원하고 싶습니다. 문제는 정확하게 조바꿈 함수를 사용하는 방법을 알지 못하기 때문에 문서가별로 도움이되지 않는다는 것입니다. 나는
때때로 conv 또는 풀 레이어의 필터 마스크가 입력 볼륨에 맞지 않을 수 있습니다. 스트라이드 2의 D 값을 갖고 예를 들어 I는 수식을 사용 .. 하는 5x5 입력과 2x2 필터 마스크를 가지고 패딩을 사용하지 않는 : W는 입력 음량이 H = 1 + (W - F + 2*P)/S
, F는 필터 크기, P는 패딩, S는 스트라이드 - 모두 1 차원입니
나는 케라를 사용하여 3D 콘볼 루션 레이어를 만들려고했습니다. 그것은 잘 작동하지만 하위 샘플 매개 변수를 추가하면 추락했습니다. 코드 : l_1 = Convolution3D(2, 10,10,10,
border_mode='same',
name = 'l_1',
activation='relu',
subsample = (5,
I이 용지 거치지 하였다 CNN for Sentence Modelling가 용지에 다음 선을 따라 컨벌루션 설명 같다 : 행렬 입력 와 를 I 크기 [D, m] 크기의 W 가중치 행렬 [D, S] 컨벌루션는 입력 행렬의 각 행은 가중치 행렬의 각 행 (기본적으로는 행 방향으로 1 차원 컨볼 루션)으로 선상처럼 수행된다. 출력은 적절한 패딩 또는 [d, m-
나는 CNN의 입력으로 tensors를 얻기 위해 concat를 사용합니다. 하지만 오류가 발생했습니다 : 텐서의 목록은 하나의 텐서가 image_raw = img.tobytes()
image = tf.decode_raw(image_raw, tf.uint8)
image = tf.reshape(image, [1, image_height, image_wid
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from scipy.misc import imread
img = imread('dog2.jpg')
#img is a shape of (360, 480, 3)
w = img.shape[0]
h = img.sha
이미지에 컨볼 루션 제품을 실행하고 싶습니다. 원본 이미지는 다음과 같습니다 그래서 나는 김프로 회선을 테스트합니다. 이 매트릭스 : 1 1 1 1 1 1 1 1 1 및 분배기 9 제가 수득 경우 I 얻을 내 알고리즘을 실행 : 내 알고리즘은 다음과 같습니다 func Convolution(img *image.Image, matrice [][]int) *im
컨벌루션 신경망의 크기가 어떻게 작동하는지 이해하려고합니다. 아래 그림에서 입력은 28 x 28 매트릭스이며 1 채널입니다. 그런 다음 32 개의 5 x 5 필터 (높이와 너비에 2 보폭)가 있습니다. 그래서 나는 결과가 14x14x32 인 것을 이해한다. 그러나 다음의 길쌈 레이어에서 우리는 64 개의 5 x 5 필터를가집니다 (다시 스트라이드 2). 그