iOS에서 Madgwick's sensor fusion algorithm을 실행하려고합니다. 코드는 오픈 소스이기 때문에 이미 프로젝트에 포함되어 있으며 제공된 센서 값으로 메소드를 호출합니다. 그러나 알고리즘은 다른 좌표계에서 센서 측정을 기대합니다. Apple CoreMotion 센서 시스템은 오른쪽에, Madgewick은 왼쪽에 있습니다. 다음은 di
iOS의 Google지도 나침반이 인상적으로 잘 작동합니다. 나는지도에서 작은 파란색 "내 위치"점의 나침반 화살표에 대해 말하고 있습니다 (Google Maps SDK - My Location 참조). 그것은 최신 버전 1.7 enter link description here에서 소개되었습니다. 나는 그들이 어떻게 정확하고 안정적인 나침반을 얻을 수 있는
WSN 개발에 대한 내 의견을 얻고 싶습니다. 지금까지 TinyOS와 TOSSIM으로 작업 해 왔으며 WSN 분야와 관련된 기본 개념에 대해 어느 정도 알고 있습니다. 그러나, 나는 천천히 연습으로 이동하고 실제 motes로 작업을 시작하고 싶습니다. 손에 넣을 수있는 실용적인 초보자/개발자 키트/모트는 어디에서 찾을 수 있습니까? Micaz, Mica-I
우리는 손을 감지하고, 사용자가 자신의 휴대 장치를 잡고 있거나, 오른손 또는 왼손 또는 둘 다를 생각하고 있습니다. 우리가 알고있는 한 현재의 하드웨어로는 100 %의 정확도로는 가능하지 않다고 생각하지만, 90 % 이상의 정확도를 기대하지는 않습니다. 그러나 대부분의 스마트 폰에서 사용할 수있는 센서 데이터로이를 달성하려고 시도해도 오늘. 이 센서 데이
저는 Madmwick 센서 융합 알고리즘 from here을 LSM9DS0 센서 (가속도계, 자이로 스코프 및 자력계)에서 STM Cortex M3 마이크로 컨트롤러에 구현하려고합니다. 모든 센서의 원시 데이터가 양호한 것 같습니다. 내 문제는 z 축이 수평 또는 아래쪽 (즉, 롤 또는 피치 각도가 90도 이상)의 센서를 들고있을 때 필터의 쿼터니언이 실제
저는 자이로 스코프를 겨냥한 총으로 휴대 전화를 사용하려고합니다. 휴대 전화 나 태블릿을 일정한 방향으로 보정합니다. 이것은 똑바로 쏠 것입니다. 그런 다음 전화 방향 (왼쪽/오른쪽/위/아래)에 따라 총이 그 방향으로 쏘게됩니다. 자이로 스코프를 사용하고 있습니다. 그리고이 모든 것이 효과가 있습니다. 약 30 초 동안 촬영 한 것을 제외하고, 자이로 스코
나는 안드로이드 폰과 Kinect 센서를 통합 한 프로젝트를 진행 중이다. 나는 안드로이드 폰으로 Kinect (주변 장치로 통합 될 것입니다)를 지적하고 싶습니다. 이를 위해서는 방 (또는 방향)에있는 전화의 위치를 컴퓨터로 보내고 kinect를 분리해야합니다. 그렇게하는 가장 좋은 방법은 무엇입니까? 나는 안드로이드 센서로 몇 가지 테스트를 해왔지만
나는 센서 융합을 위해 보완적인 필터를 사용하고 있습니다. I가 사용하고 상보적인 필터의 식 I은 약 혼란이 (* DT 각도 + 자이로) 각도 = (1- 알파) *이다 + (알파) * (accel_mag_angle) 알파의 계산. I는 알파가 수식 된 DA는 값 (필터의 차단 주파수를 의미한다) 및 DT는 샘플링 시간을 변경할 수있는 속도이다 alpha=
내 프로젝트 : 내가 차 포즈 (X, Y를 추정하기 위해 노력하고, 3 축 가속도계와 자이로 스코프와 슬롯 자동차를 개발하고 있어요, z, yaw, pitch)하지만 소음은 ± 4 [g] 사이의 값을 가지기 때문에 (자동차가 작동하는 동안 기어가 진동을 유발하고 트랙이 악화됨) 진동 소음에 큰 문제가 있습니다 (g = 9.81 [m/s^2])를 계산합니다.
우리는 멀티 센서 수집 도구를 개발 중이며 웹캠에서 이미지를 하드 드라이브에 저장하는 데 문제가 있습니다. 우리는 그 목적을 위해 세 개의 스레드를 사용하고 있습니다 : 지속적으로 웹캠에서 캡처 한 이미지를 수집 하나의 스레드가. 마지막 이미지를 수집하여 파일 저장 방법으로 보내는 타이머 스레드입니다. 타이머 스레드는 주 타이머 스레드 기능을 방해하지 않도