저는 Vision Framework를 사용하여 이미지의 얼굴을 감지 한 다음 CoreML 모델을 사용하여 얼굴이 웃고 있는지 감지합니다. 문제는 CoreML 모델 파일이 거의 500MB라는 것입니다. 그만큼 내 앱을 부 풀리지 않으려 고합니다.Apple Vision Framework : 관찰을 통해 미소 지거나 행복한 얼굴을 감지합니까?
비전 프레임 워크에서 이미 VNFaceLandmarks2D 관찰 데이터를 얻었으므로이를 사용하여 미소를 감지하려고했습니다.
누구나 Vision 프레임 워크의 VNFaceLandmarks2D 데이터를 사용하여 얼굴이 행복한 지 또는 웃는지를 결정하려고 했습니까?
그렇다면 어떻게 작성 했습니까? 얼마나 효과적입니까?
감사합니다.
어떤 모델을 생각하고 있는지 말해 줄 수 있습니까? 감사! – HansG600
일반적으로 사용되는 두 가지는 MobileNet과 SqueezeNet입니다. 그러나 이들을 다시 훈련 시켜서 얼굴을 탐지하도록해야합니다. 원래 모델에서 VGGNet을 사용하는 것처럼 들리므로 VGGNet 레이어를 MobileNet 또는 SqueezeNet으로 대체 한 다음 처음부터 다시 모델을 교육하십시오. –