저는 프로젝트를 진행하고 있으며 작은 휴머노이드 로봇 (Nao bot) 깊이 인식을 제공해야합니다. 나는 Kinect를 로봇의 이마에 연결하고 로봇의 현재 운영 및 안내 시스템 (OPEN NAO라고하는 기본 시스템)과 통합하여 Linux에서 실행하고 wifi로 로봇에 중계합니다. 지금 당장 나는 어떤 소프트웨어를 쓸모가 없느냐고 묻습니다. API 라이브러리
OpenGL을 처음 접하는 초보자입니다. 그래서 몇 가지 테스트를하고 있습니다. 회전 및 변환 할 수있는 직사각형이 있으며 모든 것이 잘되어 있습니다. 문제는 내가 1.0 Z 이하로 번역 할 때 사라집니다. 깊이 버퍼에 대해 읽었습니다. 깊이를 만져서는 안됩니다. 이 문제를 해결할 수있는 방법이 있습니까? (아마도) 그렇다면 무엇입니까?
GL_DEPTH_COMPONENT는 CUDA 4.2에서의 CUDA 상호 운용성에서 지원되지 않지만 GL_DEPTH_COMPONENT가 CUDA 5 또는 이후 버전에서 지원 될지 궁금합니다. 현재 저는 fbo를 사용하여 텍스처에 깊이 정보를 렌더링하고 있습니다. 그런 다음이 텍스처를 소스로 사용하여 다른 텍스처로 렌더링하고 CUDA 상호 운용성과 함께이 마지
중첩 세트 모델 (왼쪽 및 오른쪽 값)에 저장된 상위 - 하위 관계가있는 큰 mysql 테이블이 있습니다. 주어진 항목의 모든 하위 항목을 찾는 것이 쉽습니다. 이제 특정 항목의 깊이를 어떻게 찾을 수 있습니까? 행의 예 : PARENT_ID, Taxon_ID, Taxon_Name, LFT, somerow (taxon_id)에 대한 RGT 나는 그것이 루트
Wordpress 'wp_nav_menu을 사용하여 내 메인 탐색을 표시하고 있습니다. 그러나 Wordpress에서 다음 HTML 조각을 재현하려는 것은 상당히 복잡해 보입니다. 워드 프레스에 문제가 I가 보행기를 사용하는 것이 무엇 <ul class="nav">
<li class="home"><a href="#">Home</a></li>
<li><a
Kinect SDK를 사용하여 자신의 깊이 프레임을 만드는 응용 프로그램이 있습니다. 문제는 인간이 깊이의 FPS (그리고 색상도)가 크게 느려지는 것을 감지 할 때입니다. Here은 프레임이 느려지는 경우의 동영상입니다. 내가 사용하고 코드 : 나는 그들이이 감지되면 사람들의 사진을 저장 응용 프로그램을 만드는 중이라서 이후 using (DepthIma
저는 WebGL을 처음 접했지만 기본 사항을 자세히 이해하고 있습니다. 나는 그가 몇 가지 기본 사항을 설명하는 Jacob Seidelin's book의 지침을 따르고 있습니다. 나는이 책에서 직접 설명하지 않은 그의 예 중 하나를 재구성 해 보았습니다. uModelView 행렬의 깊이가 어떤 이유로 응용 프로그램에서 작동하지 않습니다. 또한 WebGLDe
나는 인터넷을 검색해 왔으며 나는 운이 없었습니다. Xbox Kinect를 Kinect SDK v1.0과 함께 사용하고 있습니다. 원본 깊이 데이터를 가져 와서 텍스트 문서로 변환하여 깊이 데이터를 사용할 수 있습니다. 이 사이트에서 뭔가를 찾았지만 Beta2에 대한 것이었고 v1.0을 사용해야합니다. 어떤 도움을 주셔서 감사하지만 나는 코딩에 익숙하지 않
저는 비트 맵의 각 단일 픽셀을 가져 오는 것을 다루기 위해 rmagick을 사용하고 있습니다. 나는 깊이 8 (256 색)의 색 값을 가져올 필요가 있지만 불행히도 픽셀을 사용하면 [color] (예 : 빨간색 픽셀), 나는 깊이 16을 얻고 있습니다. 사용 된 image.quantize (256). 내가 0..255 단지 값을 얻을해야합니까 requ