2017-12-13 28 views
0

나는 조금 연구를했고, 내가 여기에 시작해야 함을 발견 : https://developer.apple.com/documentation/arkit/arfacetrackingconfigurationiPhone X : 사용자가 화면을보고 있으면 쉽게 감지 할 수 있습니까?

내가 아이폰을 소유하고 있지 않기 때문에 조금 까다 자신을 텐의 내가 불필요하게 많은 불편을하기 전에 그냥 물어보고 싶은 쉬운 방법이 있거나 어쩌면 똑같은 문제가있는 사람 일 수도 있습니다.

답변

0

얼굴 추적으로 눈을 추적하지 않으며 머리의 위치와 얼굴의 모양/표현 만 추적합니다. Apple은 Face ID에서 시선 추적 /주의 감지를 수행하지만 외부 개발자 API는 없습니다.

0

실제로 트릭스터의 대답은 완전히 사실이 아닙니다. ARKit은 눈을 추적합니다 (다른 누군가가 대답에 의해 잘못 인도 된 경우). 당신이 정말로이 작업을 수행해야한다면

, 당신이 할 수있는 방법으로는 다음과 FaceAnchor -USE FaceAnchor.isTracked에 대한 -checking ARAnchors - 사용자가 직면하는 경우는보기에있는 경우이 말해 줄 것이다. -if가 true 인 경우 - 머리 앵커의 변형을 사용하여 머리가 화면을 향하고 있는지 확인할 수 있습니다. - 더 정확 해지기를 원한다면 눈이 열려 있는지 블렌드 웨이트를 사용하여 눈의 각도를 확인할 수 있습니다. .

나는 이것을 할 수있을 것이라고 확신합니다. 쉽지는 않은지, "화면보기"와 수학 기술에 대한 정확한 정의에 달려 있습니다.