AlexNet 아키텍처를 사용하여 초기에 분류 작업에 사용되는 회귀 문제를 해결하고 싶습니다. 또한 학습 단계에서는 배치 크기에 매개 변수를 포함하려고합니다. 컨볼 루션 신경망을 이용한 회귀 구조
그래서 나는 몇 가지 질문이 있습니다 :- 내가 회귀를 달성하기 위해 네트워크 아키텍처에서 변경해야합니까? 정확하게 마지막 층에서, 손실 기능 또는 다른 것들.
- 일괄 처리 크기 5를 사용하면 마지막 레이어의 출력 크기는 어떻게됩니까?
감사합니다.
AlexNet 아키텍처를 사용하여 초기에 분류 작업에 사용되는 회귀 문제를 해결하고 싶습니다. 또한 학습 단계에서는 배치 크기에 매개 변수를 포함하려고합니다. 컨볼 루션 신경망을 이용한 회귀 구조
그래서 나는 몇 가지 질문이 있습니다 :감사합니다.
공유하는 것이 도움이 될 것입니다 :
Q 프레임 워크 : 깊은 학습 프레임 워크 작업중인 및/또는
을 수정 도움이 필요 코드의 특정 부분을 공유 : 예. TensorFlow, PyTorch, Keras 등
Q 손실 유형, 출력 크기 : 회귀와 함께 달성하려는 작업은 무엇입니까? 이는 사용하고자하는 손실의 종류, 출력 크기, VGGnet 미세 조정 등에 영향을 미칩니다.
A : 예. 회색 음영 이미지의 자동 색상 화 (여기서는 example)는 흑백 이미지에서 RGB 채널 픽셀 값을 회귀시키려는 회귀 작업의 예입니다. L2 손실 (또는 성능 향상을 위해 기타 손실)이있을 수 있습니다. 출력 크기는 배치 크기와 무관해야하며 최종 레이어의 출력 크기 (즉, prediction op
)로 결정됩니다. 배치 크기는 모델 아키텍처 또는 출력 크기를 변경하지 않고도 변경할 수있는 교육 매개 변수입니다.
답장을 보내 주셔서 감사합니다. - TensorFlow 1.3을 작업 중입니다. - 회귀 분석을 사용하여 연령 추정을하고 싶습니다. 따라서 출력에서 나이 만 예상합니다. 작은 데이터 세트가 있으므로 네트워크를 미세 조정합니다. 내 작업 기준은 [https://github.com/kratzert/finetune_alexnet_with_tensorflow]입니다. – NTJoe
이 경우 마지막으로 완전히 연결된/밀집한 계층은 출력 차원이 1 인 계층으로 대체 될 수 있으며 손실은 예측 된 출력과 실제 수명 사이의 L2 손실 일 수 있습니다. 그러나 Imagenet에서 교육받은 사전 훈련 된 AlexNet은 미세 조정 또는 학습 학습을 통해 이익을 얻을 수있는 비전 작업에 유용합니다. 나는 연령대에 대한 회귀 작업을 위해 Imagenet 사전 학습 네트워크를 사용할 필요성을 재평가하는 것이 좋습니다. 참고 - 링크가 깨졌습니다. –
죄송합니다, 좋은 링크 https://github.com/kratzert/finetune_alexnet_with_tensorflow. Ok! 그래서 잘 이해한다면 fc8 레이어 ("alexnet.py"파일을 열 수 있음)는 "self.fc8 = fc (dropout7, 4096, num_out = 1, relu = True, name = 'fc8') "? VGG를 사용하는 것이 더 낫다고 생각합니까? – NTJoe