2017-12-04 13 views

답변

0

이 질문에 대한 대답은 하나도 없습니다. 이 Reddit과이 answer에는 좋은 토론이 있습니다. Reddit에서 두 번째 게시물을 인용하려면 "간단하게 시작하십시오."

Celeba와 유사하거나 정확히 동일한 이미지 크기가있을 수 있습니다. DCGAN 프로젝트에서 Celeba와 함께 작업 할 때 64 x 64 x 3 크기로 이미지를 부드럽게 자른 다음 모양을 바꿨습니다. 제 discroiminator는 길쌈 신경 네트워크였으며 4 개의 길쌈 레이어와 하나의 완전히 연결된 레이어를 사용했습니다. 모든 전환 레이어의 창 크기는 5 x 5이고 스트라이드 크기는 2 x 2입니다. SAME 패딩 및 풀링 없음. 레이어 당 출력 채널은 128 -> 256 -> 512 -> 1024입니다. 따라서 마지막 변환 레이어는 4 x 4 x 1024 텐서를 출력합니다. 내 고밀도 레이어는 클래스 x 1024의 가중치 크기를 가졌습니다. (그 목적이 입력 이미지가 데이터 세트에서 왔는지 아니면 생성기에서 생성되었는지를 결정하는 것이기 때문에 클래스가 1 개였습니다.)

비교적 단순한 아키텍처가 좋은 결과를 보여줬습니다. 그러나 발전기를 과부하시키지 않도록 의도적으로 제작되었습니다. 순수한 분류를 원한다면 더 깊은 아키텍처가 필요할 수 있습니다. 내가 한 것처럼 적극적으로 자르기를 원하지 않을 수도 있습니다. 그런 다음 완전히 연결된 레이어 앞에 여러 개의 전환 레이어를 포함 할 수 있습니다. 보폭 크기가 1 x 1 인 3 x 3 창 크기를 사용하고 풀링을 사용할 수 있습니다. 그러나 아키텍처가 더 큰 보폭을 선호하여 풀링을 포기하는 것을 볼 수 있습니다. 데이터 집합이 작 으면 오버 피팅되기 쉽습니다. 더 작은 무게를 갖는 것은 드롭 아웃이 충분하지 않을 때 이것을 퇴치하는 데 도움이됩니다. 즉, 레이어 당 출력 채널 수가 적습니다.

아키텍처를 선택할 때 많은 가능성이 있으며 최상의 아키텍처를위한 쉽고 빠른 규칙은 없습니다. 간단하게 시작하는 것을 잊지 마십시오.