방금 openNi 라이브러리를 설치하고 내 컴퓨터에서 내 kinect를 작동 시켰습니다. 제 문제는 제가 C++로 프로그래밍하는 것입니다. http://openni.org/Documentation/ProgrammerGuide.html 을 내 VisualStudio11 베타 프로젝트에 붙여 넣습니다 나는이 페이지에서 손 추적을위한 코드를 복사. 변수 xn
kinect 파일을 .oni 형식으로 기록하려고합니다. 나중에 다른 센서와 동기화하려고합니다. 따라서 일부 프레임이 반복 되더라도 일관된 fps를 얻는 것이 매우 중요합니다. 이제 알 수 있듯이 WaitAndUpdateAll은 프레임 속도가 일정하다는 것을 보장하지 않습니다. 나는 몇 분 (20+) 동안 녹음 할 것이므로, 나는 표류가 없는지 확인해야한다!
Processing에서 여러 kinect가있는 PointCloud 매핑 사용자를 만들려고합니다. 반대쪽면에 2 개의 kinect가있는 사용자의 앞면과 뒷면을 가져 와서 두 PointClouds를 생성합니다. 문제는 PointClouds X/Y/Z가 동기화되지 않고 두 개를 화면에 표시하는 것이므로 지저분 해 보입니다. 두 번째 PointCloud를 첫 번째
Kinect 용 OpenNI를 시험해보고 this guide에 따라 샘플 코드를 설치하고 실행시켜야합니다. 하지만 지금은 코드를 수정하고 컴파일하고 테스트하려고합니다. 그러나, 나는 리눅스에서 컴파일하고 실행하는 방법을 모르겠습니다. Windows 용으로 수행하는 here 가이드를 찾았지만 Linux 용으로는 찾지 못했습니다. 나는 리눅스에 대한 Windo
OpenNI 디버깅을 시도하고 있으므로 소스를 다운로드하고 컴파일 한 다음 기존 솔루션에 OpenNI 프로젝트를 추가하고 새 헤더 파일을 포함하고 새로 컴파일 한 라이브러리에 링크하여 OpenNI 프로젝트 참조를 추가했습니다. 내 기존 프로젝트 및. VSB 위치를 내 VS 기호 위치에 추가했습니다. 이 모든 후에도 헤더 파일의 중단 점 만 공격 할 수 있습
OSX 플랫폼의 Python API를 통해 궁극적으로 kinect에서 골격 정보를 얻기 위해 적절한 (또는 적어도 간단한 스택)을 연구 중입니다. 내가 찾는 정보의 대부분은 꽤 퍼져 나갔다. windows 기반 스택은 kinect SDK 위에 Microsoft 자체의 pykinect가 될 것입니다. OSX 환경에서 잘 작동하는지 파악할 수 없습니다. lib
모션 컨트롤 (깊이 센서 사용)을 사용하여 응용 프로그램을 만들기를 원했지만 어디서부터 시작해야할지 모르겠습니다. 내가 현재 비교 가능한 하드웨어 및 소프트웨어 옵션을 비교했다. Asus Xiton, Kinect SDK, OpenNI 등 하지만 불행히도 저는 실패했습니다. 정보가 오래되거나 충돌합니다. 주어진 하드웨어/소프트웨어 설정 (시작하기가 더 쉽다)