CVPixelBufferLockBaseAddress为什么? 使用AVFoundation捕获静止图像
我正在编写一个iPhone应用程序,使用AVFoundation从相机创建静态图像。 阅读编程指南我发现了一个几乎需要我做的代码,所以我试图“逆向工程”并理解它。
我发现一些难点来理解将CMSampleBuffer转换为图像的部分。
所以这是我的理解和后来的代码。
CMSampleBuffer表示内存中存储具有附加数据的映像的缓冲区。 之后我调用函数CMSampleBufferGetImageBuffer()来接收一个只带有图像数据的CVImageBuffer。
现在有一个我不明白的功能,我只能想象它的功能:CVPixelBufferLockBaseAddress(imageBuffer,0); 我不明白,如果它是一个“线程锁”,以避免对其进行多重操作或锁定缓冲区的地址,以避免操作过程中的更改(以及为什么它应该改变?..另一个帧,不是数据复制在另一个地方?)。 剩下的代码对我来说很清楚。
试图搜索谷歌,但仍没有发现没有帮助。
有人能带来一些光明吗?
-(UIImage*) getUIImageFromBuffer:(CMSampleBufferRef) sampleBuffer{
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [UIImage imageWithCGImage:quartzImage];
// Release the Quartz image
CGImageRelease(quartzImage);
return (image);
}
谢谢,安德烈
头文件说CVPixelBufferLockBaseAddress使内存“可访问”。 我不确定这意味着什么,但是如果你不这样做,CVPixelBufferGetBaseAddress会失败,所以你最好这样做。
编辑
只是做简单的答案。 为什么认为图像可能不在主内存中,它可能生活在某个GPU上的某个纹理上(CoreVideo也可以在Mac上运行),甚至可能与您期望的格式不同,所以您获得的像素实际上是一个复制。 如果没有锁定/解锁或某种开始/结束对,实现无法知道何时完成重复像素,以便有效地泄露它们。 CVPixelBufferLockBaseAddress仅提供CoreVideo范围信息,我不会太担心它。
是的,他们可以简单地从CVPixelBufferGetBaseAddress返回像素,并完全消除CVPixelBufferLockBaseAddress。 我不知道他们为什么不这样做。
我想提供关于这个功能的更多提示,到目前为止我做了一些测试,我可以告诉你。
当你得到基地址时,你可能会得到一些共享内存资源的地址。 如果您打印基地址的地址,这一点就变得很清楚,因为您可以在获取视频帧时看到基地址重复。
在我的应用程序中,我以特定的时间间隔拍摄帧,并将CVImageBufferRef
传递给NSOperation
子类,该子类将图像中的缓冲区转换并保存在手机中。 我不锁定像素缓冲区,直到操作开始转换CVImageBufferRef
,即使在创建NSOperation
以及在其内部推动像素的基址和CVImageBufferRef
缓冲区地址的更高帧率,也是NSOperation
。 我只保留CVImageBufferRef
。 我期待着引用不匹配,即使我没有看到它,我想最好的描述是CVPixelBufferLockBaseAddress
锁定缓冲区所在的内存部分,使其无法从其他资源访问,因此它将保持相同的数据,直到你解开它。
上一篇: CVPixelBufferLockBaseAddress why? Capture still image using AVFoundation
下一篇: Android Camera takes multi lined bugged picture for some users