장면에서 어떤 물체의 깊이를 얻으려고하고 있는데 카메라를 제외한 다른 센서를 사용하고 싶지 않습니다. 두 대의 카메라).다른 카메라 (다른 FOV, 관측점)로 캡처 한 이미지와 일치하는 스테레오가 일치하지 않습니다.
그래서 '스테레오 매칭'의 문제라고 생각하고 스테레오 이미지에서 불일치지도를 추출하여 깊이 정보를 얻을 계획입니다.
- 두 카메라가 정렬되지 않습니다
그러나 문제는, 나는 다음과 같은 제약이있다. (x, y, z) 위치는 모두 다릅니다.
- 두 대의 카메라의 FOV (Field Of View)가 다릅니다. 하나는 다른 하나보다 넓습니다.
- 두 카메라의 시점이 다릅니다.
- 두 카메라의 해상도가 다릅니다.
이 경우 정확한 스테레오 매칭이 가능합니까? 그렇다면 어떻게 가능합니까?
저는 스테레오 매칭을 위해 에피 폴라 기하학과 기본 매트릭스가 매우 중요하다는 것을 알고 있습니다. 그러나 내가 아는 한 기본 매트릭스는 항상 하나의 카메라에 속합니다. 두 카메라의 두 기본 매트릭스 사이의 관계가이 문제의 해결책이 될 수 있습니까?
감사합니다.
--------------------------------- 편집 ------------ -------------------------
Stereo image under different camera, resolution, viewpoint, FOV
MATLAB의 스테레오 카메라 교정기를 통해, 나는 stereoParams를 가지고와 나는 그것을 사용하여 교정했다.
하지만 수정 된 이미지가 너무 커서 왜곡 된지도가 표시됩니다.
제가 제대로 가고 있는지 아닌지 궁금합니다.
의견이 있습니까? 고맙습니다.
카메라 사이의 거리를 알고 있다면 가능해야합니다. 필수 매트릭스를 찾아보고 http://www.robots.ox.ac.uk/~vgg/hzbook/ – Photon
고맙습니다. 내 게시물을 편집하고 스테레오 이미지와 정류 된 이미지를 추가했습니다. 나에게 피드백을 줄 수 있니? –