지금 당장은 Kinect V2.0 프레임 워크에서 변환 매트릭스를 결정하려고합니다. 최종 목표는 깊이 센서를 기준으로 한 내 포인트 클라우드를 컬러 카메라를 기준으로 한 포인트 클라우드로 변환하는 데 필요한 변환 및 회전 매트릭스로 끝나는 것입니다. 은 내가 수동으로 변환을 결정하기 위해, (OpenCV의 등을 통해) 교정 할 수 있다는 것을 알고 있지만
xbox kinect를 사용하기 위해 openkinect의 웹 사이트에서 간단한 설치를하고 있습니다. 문제는 OSX 배포판이없고 homebrew가 설치를 담당 할 것이라고 가정합니다. 설치 마지막 단계에서 설치에 무엇이 잘못되었는지 유용한 단서를 찾았습니다. 나는 사이트에서 들었다. "당신은 연결에 문제가있는 경우, 각 libfreenect LIB [다음
opencv 및 openkinect 라이브러리로 얼굴 인식을 시도하고 있습니다. 이미지 입력을 위해 나는 xbox kinect v2를 사용하고 싶다. opencv 라이브러리 안의 얼굴 검출 예제에 기초하고 있습니다. 나는 맥에서 일하고있다. 이 내 코드는 지금까지 있습니다 : import gab.opencv.*;
import java.awt.Rectang
나는 Kinect 개발의 초보자이며, Python에서 openCV-Kinect를 사용하여 실시간 객체 추적기를 개발하려고합니다.이 도구는 Camshift를 사용하여 객체의 X 좌표 및 Y 좌표를 찾습니다. 알고리즘 & Kinect의 깊이 스트림을 사용하여 Z 좌표. 모든 픽셀의 깊이 값에 직접 액세스하는 방법이 있습니까?
실제로 Kinect v2 카메라를 사용하여 시상 계획에서 인간의 골격과 관련된 관절 위치를 측정했습니다 (x, y). 이제 Kinect v2와 스켈레톤 모션 방향 사이의 각도를 만들고 싶습니다 (이 그림에서와 같이 : http://www.mediafire.com/file/7wf8890ngnmi1d4/kinect.pdf). MATLAB을 사용하여 SpineB
vision.internal.visionKinectDepthToSkeleton 또는 depthToPointCloud 또는 pcfromkinect와 같은 원시 깊이 이미지에서 실제 xyz를 가져 오는 데는 여러 가지 방법이 있습니다. 문제는 이러한 기능이 어떻게 작동하는지 명확하지 않다는 것입니다. 이 모든 함수는 vision.internal.visionKi
Kinect 센서를 사용하여 오브젝트를 식별하므로 오브젝트의 x, y, z 좌표를 가져올 수 있습니다. 관련 정보를 찾으려고하지만 많은 정보를 찾을 수 없습니다. 나는 비디오를 보았지만 아무도 정보 나 샘플 코드를 공유하지 못했습니까? 이것이 내가 원하는 것입니다. https://www.youtube.com/watch?v=nw3yix3XomY 아마도 약간의
Ubuntu의 Kinect에서 얻은 비디오 파일에 실시간 이미지를 쓰려고합니다. 아래 샘플 코드를 참조하십시오. #!/usr/bin/env python
import roslib
roslib.load_manifest('ros_package_name')
import rospy
import cv2
from sensor_msgs.msg import Ima
현재 Kinect V2의 깊이 데이터 처리를 처리하려고합니다. 특정 거리 내에 있지 않은 모든 포인트를 필터링하려고합니다. 문제는 깊이 데이터 자체를 검색하는 방법은 말할 것도없고 신뢰할 수있는 문서를 찾을 수 없다는 것입니다. 누구든지 kinect V2에서 깊이 데이터를 추출한 경험이 있다면 크게 환영 할 것입니다. 저는 현재 openKinect 라이브러