다음과 같은 문제가 있습니다. 성공적으로 내 ALModule을 크로스 컴파일했습니다. Nao에서 작동하며 ALProxy로 액세스 할 수 있습니다. BIND_METHOD를 통해 모듈에 바인드 된 메소드 만 있고 다른 메소드 (공용이 아니어야하므로 바인드되지 않은 메소드)는 호출하지 않는 한, 이것은 작동합니다. 이제 나는 이것에 대한 해결책을 찾으려고 노력했
Windows-XP 시스템과 Python 2.7에서 NAO 로봇을 사용하고 있습니다. 음성으로 마커를 감지하고 싶습니다. 모든 일을했지만 불행히도 지금은 10 초의 지연이 있고 내 이벤트는 감지되지 않습니다 (콜백 함수가 호출되지 않습니다). 첫째, 내 주요 기능 : from naoqi import ALProxy, ALBroker
from speechEv
저는 프로젝트를 진행하고 있으며 작은 휴머노이드 로봇 (Nao bot) 깊이 인식을 제공해야합니다. 나는 Kinect를 로봇의 이마에 연결하고 로봇의 현재 운영 및 안내 시스템 (OPEN NAO라고하는 기본 시스템)과 통합하여 Linux에서 실행하고 wifi로 로봇에 중계합니다. 지금 당장 나는 어떤 소프트웨어를 쓸모가 없느냐고 묻습니다. API 라이브러리
나는 NAO가 Aldebaran Robotics에서 제공하지 않는 현지 언어 'Hindi'를 말할 수 있기를 바랍니다. 로봇이 공식적으로 지원되는 언어가 아닌 다른 언어로 말할 수있는 방법이 있습니까? 아마도 TextToSpeech Engine을 스스로 설치하십시오. 이 방향으로 적합한 포인터가 유용 할 것입니다.
저는 현재 C# 응용 프로그램을 작성 중입니다. 일부 작업에는 파이썬 스크립트를 사용해야합니다. 나는 Python "site-packages"폴더에 Alebaran NAO 로봇을 제어하기위한 몇 가지 모듈을 가지고 IronPython "site-packages"폴더에 복사했습니다. 그러나 naoqi 파일을 가져 오려고하면 다음과 같이 표시됩니다. No mo
이전에 시도한 적이 있는지 확실하지 않지만 Kinect을 사용하고 Nao robot에서 제스처를 탐지하려고합니다. 나는 Kinect 응용 프로그램을 만들었습니다. a gesture based picture viewer 그리고 인간을 정밀하게 감지합니다. (당연히 그렇습니다!) 내가 시도하고 싶었던 것은 (게으른 것처럼), (음성) 명령을 사용할 수 있는지보
마우스 위치를 밝기로 변환하는 코드에 "작은"문제가 있습니다. 내 마우스의 머리가 가리켜 야 할 위치를 결정하려면 마우스 위치가 필요합니다. 코드가 작동하고 머리 회전 ...하지만! 피치의 최대 값에 너무 빨리 도달합니다. 정확하게 나는 광도 계산이나 C#에서 너무 날카로 웠으므로 전문가의 도움을 받아야합니다. :) 내 코드 : maxcursory = Sc
Nao의 얼굴 탐지를 시각적으로 디버깅하려고합니다. 감지 된 얼굴 주위에 직사각형을 그립니다. 이미지를 획득하고 opencv 알고리즘을 사용하여 얼굴 탐지를 수행하는 대신 시각적 디버깅을 위해 이미지를 수집하고 Nao의 얼굴 탐지 시스템에서 반환 한 매개 변수를 사용합니다. 이 시스템은 Oki에 의해 제공되며 모든 정보는 "FaceDetected"변수에 있
나는 Aldebaran 로봇 Nao와 함께 프로젝트를 진행하고 있습니다. Nao가 Connect 4 (연속 4 회)에서 누군가와 연극하는 간단한 행동을해야합니다. 이렇게하려면 Nao를 Windows Azure와 연결하여 클라우드에서 이미지 처리를 내보내야했지만 실제로 Azure에서 Nao를 연결하는 모듈을 만드는 방법을 모르겠습니다. 내가 생각할 수
카메라와 인식 된 "객체"사이의 거리를 계산하고 싶습니다. 인식 된 "개체"는 예를 들어 화이트 보드의 검은 색 사각형 스티커입니다. 사각형 (x, y)의 값을 알고 있습니다. 원본 직사각형의 값과 카메라로 찍은 직사각형의 그림 값과의 거리를 계산하는 데 사용할 수있는 방법이 있습니까? 나는 answeres에 대한 포럼을 검색했으나 이러한 속성으로 거리를