현재 객체 감지 및 종이에서 yolo 9000 모델을 테스트 중입니다. 이미지가 13X13 상자와 각 상자에 P (오브젝트), 그러나 어떻게 계산할 수 있습니까? 이 상자에 포장 여부에 물체가있을 경우 어떻게 모델은 내가 그들이 paper (2 페이지에서 언급 한 바와 같이Yolo가 YOLO 9000에서 P (Object)를 계산하는 방법
것을 내가
감사합니다,
현재 객체 감지 및 종이에서 yolo 9000 모델을 테스트 중입니다. 이미지가 13X13 상자와 각 상자에 P (오브젝트), 그러나 어떻게 계산할 수 있습니까? 이 상자에 포장 여부에 물체가있을 경우 어떻게 모델은 내가 그들이 paper (2 페이지에서 언급 한 바와 같이Yolo가 YOLO 9000에서 P (Object)를 계산하는 방법
것을 내가
감사합니다,
을 tensorflow 사용하고 이해하는 데 도움이 필요하세요, 알 수 섹션 2) 자신감 점수 = P (개체) * 차용 증서. 그러나 그 단락에서 그들은 객관적인 점수가 IOU가 아니면 0이 될 것이라고 언급했다. 그래서 그것은 단지 가이드 라인 일뿐입니다.
그 점은 이해합니다. 그러나 이미지의 작은 영역만으로 어떻게 결과를 얻을 수 있는지 파악하지 못했습니다. 따라서 추출 된 특성의 작은 영역에서 셀이이 영역을 분류 할 수 있습니까? –
나는 슬라이딩 윈도우 작업으로 사용합니다. 여기서 원본 이미지를 49 칸으로 나눕니다. 지상 진실은 원본 이미지에서 얻습니다. 그러나 예측할 기능은 7 * 7 –
인 마지막 전환 레이어에서 얻을 수 있지만 학습을위한 것입니다. 테스트 단계는 무엇인가요? 알려지지 않은 이미지를 제공하고 네트워크에 전달하면 하위 계층에서 추출됩니다. 기능을 사용하고 이미지를 7X7로 나눕니다.하지만 여기서 우리는 진부한 진실을 갖지 않습니다. 그래서 작은 caracteristic으로 어떻게 세포보다 더 큰 크기를 갖는 객체를 generelise 할 수 있습니까? 자세한 내용을 알려주십시오. ? –
그들은 신뢰 점수 = P (개체) * 차용 증서를 훈련시킵니다. 지상 진실 상자의 경우 P (대상) = 1을 취하고 나머지 격자 픽셀의 경우 지상 진실 P (대상)는 0입니다. 해당 그리드 위치에 개체가 있는지, 즉 개체가 아닌 경우 0을 출력하고, 개체가있는 경우 IOU를 출력하고, 개체가있는 경우 출력 1을 출력하도록 네트워크를 교육하고 있습니다. 따라서 테스트 시간에 모델은 해당 위치에 객체가 있는지 여부를 알 수있게됩니다.
사실, 13x13 격자 셀이 있지만 5x13x13 앵커 상자 각각에 대해 P (오브젝트)가 계산됩니다. YOLO9000 논문에서 :
우리가 앵커 박스로 이동할 때 우리는 또한 공간 예측으로부터 클래스 예측 메커니즘을 분리하고 모든 앵커 박스에 대해 클래스와 객체 성을 예측합니다.
내가 여기 새로 왔기 때문에 아직 말할 수는 없지만 테스트 시간에 대해 궁금한 점이 있다면 RPN과 유사합니다. 각 그리드 셀에서 5 개의 앵커 박스는 경계 박스를 예측합니다. 경계 박스는 그리드 셀보다 커질 수 있으며, 최대가 아닌 억제는 분류를 수행 할 상위 몇 개의 박스를 선택하는 데 사용됩니다.
P (객체)는 확률이 높습니다. 네트워크는 실제로 객체가 있는지 여부를 "알지 못합니다".
region_layer.c에서 forward_region_layer 메소드의 소스 코드를보고 관심이있는 경우 손실 계산 방법을 추적 할 수도 있습니다.
이 역시 검색 중입니다. 많은 설명이 없습니다. 또한 그들은 p (클래스/객체)를 계산합니다. quora 세션 https://www.quora.com/How-do-Multi-Object-detection-with-YOLO-Real-time-CNN-works에서 좋은 설명이 있습니다. –