2012-06-14 5 views
2

두뇌 용 iPhone이있는 추적 로봇이 있습니다. 두 대의 카메라가 있습니다. 하나는 iPhone에서, 다른 하나는 독립형 카메라입니다. 휴대 전화에는 GPS, 자이로 스코프, 가속도계 및 자력계가있어 사용자 유도 가속도와 중력 가속도를 분리합니다. 함께 휴대 전화는 공간에서 자신의 태도를 감지 할 수 있습니다. 나는 로봇이 적어도 전에 벽에 부딪쳤다면 로봇이 벽을 피하도록 가르치고 싶다.iPhone Robotics Visual-SLAM 알고리즘 구현

누구나 그러한 로봇이 Visual Simultaneous Location과 Mapping을 할 수있는 초보 프로젝트를 제안 할 수 있습니까? OpenSlam.org에서 C/C++로 작성된 일부 프로젝트를 볼 때 대 표적 인 C 구현에 대해 매우 감사 할 것이지만 그 중 가장 강력한 프로그래밍 언어는 아닙니다.

I 레이저 거리계에 액세스 할 수없는, 그래서 비주얼 SLAM에 어떤 기사, 키워드 또는 학술 논문도 도움이 될 것이다.

입력 해 주셔서 감사합니다. 내가 FAB-MAP을 살펴보고 당신을 제안 할 수

답변

1

, 그것은 OpenCV

에서 구현 내가 특히 루프 폐쇄 문제에 시각-SLAM 내 석사 논문을하고 있어요 있습니다.

C++에서는 있지만 예제를 따르면 매우 쉽게 사용할 수 있습니다.