AVCaptureSession을 사용하여 이미지를 가져 오려고합니다. 나는이 튜토리얼 http://www.benjaminloulier.com/posts/2-ios4-and-direct-access-to-the-camera을 따라 갔다. 나는 심상 ref에서 uiimage를 창조하고 그 uiimage에서 화소를 얻고있다. 하지만 언젠가 (30 초 미만) 후에 앱이 다운됩니다. 내가 누수를 사용하여 분석을 시도하고 그 너무 충돌합니다. 로그를 사용하여 CGContextDrawImage (context, rect, image1.CGImage) 라인 바로 전에 앱이 다운되는 것을 발견했습니다. 너희들은 내가 뭘 잘못하고 있는지에 대한 제안을하고 있니? 또한 응용 프로그램이 충돌하기 전에 몇 초 동안 메모리 할당 오류가 표시됩니다. 도와주세요. 코드는 아래 게시CGContextDrawImage 카메라 앱 충돌
..
// Create a UIImage from sample buffer data
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
lock = @"YES";
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
// Get the number of bytes per row for the pixel buffer
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
size_t bufferSize = CVPixelBufferGetDataSize(imageBuffer);
// Create a Quartz direct-access data provider that uses data we supply.
NSData *data = [NSData dataWithBytes:baseAddress length:bufferSize];
CGDataProviderRef dataProvider = CGDataProviderCreateWithCFData((__bridge CFDataRef)data);
CGImageRef quartzImage = CGImageCreate(width, height, 8, 32, bytesPerRow,
colorSpace, kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Little,
dataProvider, NULL, true, kCGRenderingIntentDefault);
CGDataProviderRelease(dataProvider);
// Unlock the pixel buffer
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];
// Release the Quartz image
CGImageRelease(quartzImage);
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
baseAddress = nil;
[data release];
lock = @"NO";
return(image);
}
-(void)calculate
{
@try {
UIImage *image1 = [self stillImage]; //Capture an image from the camera.
//Extract the pixels from the camera image.
CGColorSpaceRef colourSpace = CGColorSpaceCreateDeviceRGB();
size_t bytesPerRow = image1.size.width*4;
unsigned char* bitmapData = (unsigned char*)malloc(bytesPerRow*image1.size.height);
CGContextRef context = CGBitmapContextCreate(bitmapData, image1.size.width, image1.size.height, 8, bytesPerRow,colourSpace,kCGImageAlphaPremultipliedFirst|kCGBitmapByteOrder32Big);
CGColorSpaceRelease(colourSpace);
CGContextDrawImage(context, rect, image1.CGImage);
unsigned char* pixels = (unsigned char*)CGBitmapContextGetData(context);
totalLuminance = 0.0;
for(int p=0; p<image1.size.width*image1.size.height*4; p+=4)
{
totalLuminance += pixels[p]*0.3 + pixels[p+1]*0.59 + pixels[p+2]*0.11;
}
totalLuminance /= (image1.size.height * image1.size.width);
pixels = nil;
bitmapData = nil;
[image1 release];
CGContextRelease(context);
//image1 = nil;
//totalLuminance = [n floatValue]; //Calculate the total luminance.
float f = [del.camcont.slider value];
float total = totalLuminance * f;
NSString *ns = [NSString stringWithFormat:@"Lux : %0.2f", total];
NSLog(@"slider = %f",f);
NSLog(@"totlaluminance = %f",totalLuminance);
NSLog(@"%@",ns);
//NSString *ns = [NSString initWithFormat:@"Lux : %0.2f", total];
[del.camcont.lux setText:ns];//Display the total luminance.
self.stillImage = nil;
//[self.stillImage release];
ns = nil;
//n = nil;
//del = nil;
}
@catch (NSException *exception) {
NSLog(@"main: Caught %@: %@", [exception name], [exception reason]);
}
}
크래시의 세부 사항을 볼 수 있도록 기호화 된 오류 로그를 제공 할 수 있습니다. 이 문제에 대한 해결책을 찾았습니까? http://developer.apple.com/library/ios/#technotes/tn2151/_index.html – Bobjt
@viks를 참조하십시오. 동일한 문제에 직면하고 있습니다. –