씬에서 객체를 시각적으로 감지하는 확실한 방법은 ARKit과 함께 CoreML 프레임 워크를 사용하는 것입니다. 기본 앱은 이미 Github에서 사용할 수 있습니다.
CoreML-in-ARKit
참고 또한 X 출발 원점 & 플롯에 대해 해당 개체의 worldPosition을 얻을 수 있고, Z 형 SCNNode 라벨 위치에 기초하여 시스템 (실내지도) 좌표. 그것은 정확하지 않을 것입니다 ...하지만 그것은 기본적인 물체 식별 및 위치 시스템입니다.
편집 :
Inceptionv3.mlmodel 그것은 그러한 나무, 동물로 일반 카테고리 세트에서 지배적 인 일반 객체를 감지입니다 같은 아웃 - 오브 - 박스 CoreML 이미지 분류를 사용
한 제한, 음식, 차량, 사람 등.
소매점에서 물건 인식 (이미지 분류)을 수행한다고 언급합니다. 예를 들어 단순히 스마트 폰을 결정하기보다는 다양한 유형의 아이폰 모델 (iphone7, iphone 8 또는 iphone X)을 구별 할 수있는 맞춤 이미지 분류기가 필요합니다.
ARkit 용 객체 인식기 (이미지 분류기)를 만들려면 Hunter Ward가 작성한이 자습서를 따르십시오.
https://medium.com/@hunter.ley.ward/create-your-own-object-recognizer-ml-on-ios-7f8c09b461a1
코드는 Github에서 볼 수 있습니다 :
https://github.com/hanleyweng/Gesture-Recognition-101-CoreML-ARKit
참고 : 소매점에있는 항목의 100 년대에 대한 사용자 정의 분류를 만들어야하는 경우 ... 워드는 60 이미지를 추천합니다 클래스 당 ... 약 60 x 100 = 6000 개의 이미지가 될 것입니다. 핵심 ML 모델을 생성하기 위해 Ward는 현재 "사용자 지정 비전"이라고하는 Microsoft인지 서비스를 사용하며 현재 1000 개의 이미지 제한이 있습니다. 따라서 1000 개 이상의 이미지를 작성해야하는 경우 모델을 작성하는 다른 방법을 찾아야합니다.
출처
2017-12-29 09:15:39
Ash