3

필자는 시맨틱 세분화에 대한 논문을 구현하려고하는데 입력 된 이미지 크기에 맞게 세분화 네트워크에서 생성 된 예측지도를 업 샘플링하는 방법에 대해 혼란 스럽습니다.시맨틱 세분화의 업 샘플링

예를 들어, 세그먼트 네트워크로 변형 된 Resnet101을 사용하고 있습니다. 이 네트워크 구조에서 크기 321x321 (종이에서 다시 사용됨)의 입력은 크기 41x41xC (C는 클래스 수)의 최종 예측 맵을 생성합니다. 픽셀 수준의 예측을해야하기 때문에 321x321xC로 업 샘플링해야합니다. Pytorch는 예측 맵 크기의 배수 인 출력 크기로 업 샘플링하는 기능을 제공합니다. 그래서 저는 여기서 그 방법을 직접 사용할 수는 없습니다.

이 단계는 모든 의미 론적 세분화 네트워크에 관련되어 있으므로이를 구현하는 표준 방법이 있어야합니다.

나는 모든 조언을 고맙게 생각합니다. 미리 감사드립니다.

답변

3

아마 당신이 시도 할 수있는 simpliest 것입니다

  • 업 샘플 8 배. 그런 다음 41x41 입력하여 원하는 모양 321x321 얻을
  • 자르기 센터를 수행 328x328으로 변합니다 (예를 들어,이 입력 같은 [-, 4 : -, :, 3 세 4])
+1

이 수도 끝에서 한 번뿐 아니라 각 업 샘플링 후 작물에 더 안정적이어야합니다. – Shai

+0

의미 론적 세분화에서 업 샘플링을 처리 할 수있는 잘 알려진 방법이 있습니까? ICLR 재현성 과제에 대한 결과를 종이에 재현하려고 시도하고 있기 때문에 표준 사례를 채택하고자하며 업 샘플링 전략을 언급하지 않았습니다. 또한 내 네트워크를 임의의 입력 크기로 업 샘플링하여 추론 시간 (이미지의 크기가 다를 수 있음)에서 이미지와 레이블에 변형을 적용 할 필요가 없도록하고 싶습니다. 그렇게 할 수있는 방법이 있습니까? – ethelion

+1

deconvolution을 업 샘플링 방법으로 사용해 볼 수도 있습니다. 하지만 실제로는 Nearest2D 업 세밍은 매우 잘 작동합니다. –