길쌈 신경 네트워크와 관련하여 일반적으로 다양한 전략을 제안하는 많은 논문이 있습니다. 나는 사람들이 회선 (convolution) 전에 이미지에 패딩을 추가해야한다는 말을 들었다. 그렇지 않으면 많은 공간 정보가 손실된다. 다른 한편으로 그들은 이미지의 크기를 줄이기 위해 일반적으로 최대 풀링 (pooling)을 사용하는 것이 행복합니다. 나는 여기서 최대 풀링이 공간 정보를 줄이거 나 상대 위치에 대한 민감도를 줄임으로써 트레이드 오프라고 생각한다.최대 풀링 대 제로 패딩 : 공간 정보 손실
저는 제로 패딩이 더 많은 정보를 저장하지 않는다고 말하는 다른 사람들의 이야기를 들었습니다. 왜냐하면 정보의 일부가 누락 되어도 제로를 추가하면 커널에서 반응을 얻지 못할 것이기 때문입니다.
가장자리에 스크랩 값이있는 커다란 커널이 있고 커널의 더 작은 영역 중앙에 활성화 소스가있는 경우 제로 패딩이 작동한다고 생각할 수 있습니까?
패딩을 사용하지 않고 풀링 콘트라를 사용하는 다운 샘플링의 효과에 대한 일부 논문을 읽으면 기쁠 것입니다. 그러나 그것에 대해 많이 알지 못합니다. 좋은 추천이나 생각?
도 : 공간이 패딩을 추가하는 것은 「절대 필수 "NOT이다
이 질문은 기계 학습 이론 (프로그래밍이 아니기 때문에)이므로, 아마도 http://datascience.stackexchange.com 또는 http : //stats.stackexchange에 속해있을 수 있습니다. com. – mtrw