2017-12-28 19 views
0

실내에서 특정 객체를 식별하고 AR을 사용하여 실내 탐색을 위해 사용자의 위치를 ​​식별하는 방법은 무엇입니까? 비콘과 마커를 사용하여 방의 대상이나 위치를 식별 할 수 있음을 알고 있습니다.증강 현실 - ARKit - 환경에서 객체를 동적으로 탐지 (마커/ibeacon 없음)

사용자 위치를 찾고 AR 경험을 위해 개체를 식별하기위한 다른 대안은 무엇입니까? 나는 iOS 장치 (현재 ARKit 사용에 초점을 맞추고 있음)로 실내 탐색을 위해 AR에 대해 탐험 중입니다. 사용자 위치에 코어 위치를 사용하면 정확도가 낮습니다. 작은 상점에서 우리가 핵심 위치 나 어떤지도 관련 서비스를 사용한다면 우리는 사용자/제품 미스 위치에 직면하여 사용자에게 좋지 않은 경험을 선사 할 것입니다. 이것을 해결하는 다른 방법/해결책?

답변

0

씬에서 객체를 시각적으로 감지하는 확실한 방법은 ARKit과 함께 CoreML 프레임 워크를 사용하는 것입니다. 기본 앱은 이미 Github에서 사용할 수 있습니다.

CoreML-in-ARKit

참고 또한 X 출발 원점 & 플롯에 대해 해당 개체의 worldPosition을 얻을 수 있고, Z 형 SCNNode 라벨 위치에 기초하여 시스템 (실내지도) 좌표. 그것은 정확하지 않을 것입니다 ...하지만 그것은 기본적인 물체 식별 및 위치 시스템입니다.

편집 :

Inceptionv3.mlmodel 그것은 그러한 나무, 동물로 일반 카테고리 세트에서 지배적 인 일반 객체를 감지입니다 같은 아웃 - 오브 - 박스 CoreML 이미지 분류를 사용

한 제한, 음식, 차량, 사람 등.

소매점에서 물건 인식 (이미지 분류)을 수행한다고 언급합니다. 예를 들어 단순히 스마트 폰을 결정하기보다는 다양한 유형의 아이폰 모델 (iphone7, iphone 8 또는 iphone X)을 구별 할 수있는 맞춤 이미지 분류기가 필요합니다.

ARkit 용 객체 인식기 (이미지 분류기)를 만들려면 Hunter Ward가 작성한이 자습서를 따르십시오.

https://medium.com/@hunter.ley.ward/create-your-own-object-recognizer-ml-on-ios-7f8c09b461a1

코드는 Github에서 볼 수 있습니다 :

https://github.com/hanleyweng/Gesture-Recognition-101-CoreML-ARKit

참고 : 소매점에있는 항목의 100 년대에 대한 사용자 정의 분류를 만들어야하는 경우 ... 워드는 60 이미지를 추천합니다 클래스 당 ... 약 60 x 100 = 6000 개의 이미지가 될 것입니다. 핵심 ML 모델을 생성하기 위해 Ward는 현재 "사용자 지정 비전"이라고하는 Microsoft인지 서비스를 사용하며 현재 1000 개의 이미지 제한이 있습니다. 따라서 1000 개 이상의 이미지를 작성해야하는 경우 모델을 작성하는 다른 방법을 찾아야합니다.