저는 최근에 OpenCV를 사용하여 PyOpenNI에서 Kinect의 문자열 형식 깊이 데이터를 사용했습니다. 문자열에서 생성 할 수있는 numpy 배열을 사용하고 Python의 cv2 (OpenCV)에서 기본 데이터 유형입니다. 여기
코드 예제 : http://euanfreeman.co.uk/pyopenni-and-opencv/
넥트이 깊이 센서 다릅니다하지만 유용한 출발점이 될 수 있는지 확실하지. 행운을 빕니다!
편집 : 추가 코드
from openni import *
import numpy as np
import cv2
# Initialise OpenNI
context = Context()
context.init()
# Create a depth generator to access the depth stream
depth = DepthGenerator()
depth.create(context)
depth.set_resolution_preset(RES_VGA)
depth.fps = 30
# Start Kinect
context.start_generating_all()
context.wait_any_update_all()
# Create array from the raw depth map string
frame = np.fromstring(depth.get_raw_depth_map_8(), "uint8").reshape(480, 640)
# Render in OpenCV
cv2.imshow("image", frame)