AVFramework를 사용하여 카메라 프레임을 캡처하고 UIImageView에서 처리하고 표시하고 싶지만 문제가 있습니다. 코드가 있습니다 :UIImageView에서 이미지를 표시하지 않습니다. - iPhone SDK
// Delegate routine that is called when a sample buffer was written
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
//NSLog(@"Capturing\n");
// Create a UIImage from the sample buffer data
UIImage *image = [self imageFromSampleBuffer:sampleBuffer];
NSLog(@"Image: %f %f\n", image.size.height, image.size.width);
[imageView setImage:image];
}
그러나 표시되지 않습니다. 정확한 크기는 NSLog
에 표시, 내가 넣을 때
[imageView setImage:[UIImage imageNamed:@"SomethingElse.png"]];
을있는 viewDidLoad에, 이미지는 (그래서이있는 UIImageView이 제대로 연결되어) 알고 올바르게 표시됩니다.
작동하지 않아야하는 이유가 있습니까? 나는 지금 당장 패배하고있다.
건배,
나는 또한 내가 넣을 때 추가해야합니다 : [이미지 뷰 setImage : [있는 UIImage imageNamed : @ "SOMETHINGELSE .png "]]; captureOutput의 : 이미지는 여전히 표시되지 않습니다. – Brett