2017-12-02 30 views
1

저는 Vision Framework를 사용하여 이미지의 얼굴을 감지 한 다음 CoreML 모델을 사용하여 얼굴이 웃고 있는지 감지합니다. 문제는 CoreML 모델 파일이 거의 500MB라는 것입니다. 그만큼 내 앱을 부 풀리지 않으려 고합니다.Apple Vision Framework : 관찰을 통해 미소 지거나 행복한 얼굴을 감지합니까?

비전 프레임 워크에서 이미 VNFaceLandmarks2D 관찰 데이터를 얻었으므로이를 사용하여 미소를 감지하려고했습니다.

누구나 Vision 프레임 워크의 VNFaceLandmarks2D 데이터를 사용하여 얼굴이 행복한 지 또는 웃는지를 결정하려고 했습니까?

그렇다면 어떻게 작성 했습니까? 얼마나 효과적입니까?

감사합니다.

답변

2

하나의 해결 방법은 더 작은 코어 ML 모델 파일을 사용하는 것입니다. VGGNet을 기반으로하는 모델을 사용하고있는 것처럼 들립니다. VGGNet과 동일한 정확도를 가지며 따라서 모바일 장치에서 사용하기에 더 적합한 몇 가지 훨씬 더 작은 모델 아키텍처 (4MB에서 16MB 사이)가 있습니다.

+0

어떤 모델을 생각하고 있는지 말해 줄 수 있습니까? 감사! – HansG600

+0

일반적으로 사용되는 두 가지는 MobileNet과 SqueezeNet입니다. 그러나 이들을 다시 훈련 시켜서 얼굴을 탐지하도록해야합니다. 원래 모델에서 VGGNet을 사용하는 것처럼 들리므로 VGGNet 레이어를 MobileNet 또는 SqueezeNet으로 대체 한 다음 처음부터 다시 모델을 교육하십시오. –