실패했습니다아이폰 OS 얼굴 인식은이 같은 얼굴 검출을위한 코어 이미지를 사용하고 불완전 얼굴
CIImage* image = [CIImage imageWithCGImage:aImage.CGImage];
//create Facedetector
NSDictionary *opts = [NSDictionary dictionaryWithObject:CIDetectorAccuracyHigh
forKey:CIDetectorAccuracy];
CIDetector* detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:nil
options:opts];
//Pull out the features of the face and loop through them
NSArray* features = [detector featuresInImage:image];
하지만 내가 완전히 얼굴로 사진을 사용할 때, 제대로 얼굴을 감지 할 수 있음을 찾았지만, 불완전한 얼굴을 사용하면 다음 스냅 샷과 마찬가지로 실패합니다.
내 코드에 어떤 문제가 있습니까? CIDetector는 완전히 얼굴에서만 잘 작동합니까?
[업데이트] here가 난 단지 감지 할 수있는, 내 코드 왼쪽은 전체 얼굴이 아닌 경우 때때로
featuresInImage : options 대신 featuresInImage : 여기에 제시된 방향 정보가 필요합니다. https://developer.apple.com/library/prerelease/ios/documentation/CoreImage/Reference/CIDetector_Ref/index.html#//apple_ref/ doc/constant_group/Detector_Types – Jageen
예제 이미지를 사용하면 얼굴을 감지 할 수 없습니까? 이미지를 사용하여 얼마나 많은 얼굴을 감지 했습니까? – gabbler
@ gabbler 사실 사진에 얼굴이 하나 밖에 없으며 바로 가기에 두 장의 사진이 있습니다. – HamGuy