主页 深入理解CVPixelBufferRef
Post
Cancel

深入理解CVPixelBufferRef

在iOS里,我们经常能看到CVPixelBufferRef这个类型,在Camera采集返回的数据里得到一个CMSampleBufferRef,而每个CMSampleBufferRef里则包含一个CVPixelBufferRef,在视频硬解码的返回数据里也是一个CVPixelBufferRef

顾名思义,CVPixelBufferRef是一种像素图片类型,由于CV开头,所以它是属于CoreVideo模块的。

iOS喜欢在对象命名前面用缩写表示它属于的模块,比如CF代表CoreFoundation,CG代表CoreGraphicCM代表 CoreMedia。既然属于CoreVideo那么它就和视频处理相关了。

它是一个C对象,而不是Objective-C对象,所以它不是一个类,而是一个类似Handle的东西。从代码头文件的定义来看

CVPixelBufferRef就是用CVBufferRef typedef而来的,而CVBufferRef本质上就是一个void *,至于这个void *具体指向什么数据只有系统才知道了。

所以我们看到 所有对CVPixelBufferRef进行操作的函数都是纯C函数,这很符合iOS CoreXXXX系列API 的风格。

比如CVPixelBufferGetWidth,CVPixelBufferGetBytesPerRow

通过API可以看出来,CVPixelBufferRef里包含很多图片相关属性,比较重要的有widthheightPixelFormatType等。

由于可以有不同的PixelFormatType,说明他可以支持多种位图格式,除了常见的RGB32以外,还可以支持比如kCVPixelFormatType_420YpCbCr8BiPlanarFullRange,这种YUV多平面的数据格式,这个类型里 BiPlanar表示双平面,说明它是一个NV12YUV,包含一个Y平面和一个UV平面。通过CVPixelBufferGetBaseAddressOfPlane可以得到每个平面的数据指针。在得到Address之前需要调用CVPixelBufferLockBaseAddress,这说明CVPixelBufferRef的内部存储不仅是内存也可能是其它外部存储,比如现存,所以在访问前要lock下来实现地址映射,同时lock也保证了没有读写冲突。

由于是C对象,它是不受 ARC 管理的,就是说要开发者自己来管理引用计数,控制对象的生命周期,可以用CVPixelBufferRetainCVPixelBufferRelease函数用来加减引用计数,其实和CFRetainCFRelease是等效的,所以可以用CFGetRetainCount来查看当前引用计数。

如果要显示CVPixelBufferRef里的内容,通常有以下几个思路。

CVPixelBufferRef转换成UIImage,就可以直接赋值给UIImageViewimage属性,显示在UIImageView上,示例代码

1
2
3
4
5
6
7
8
9
+ (UIImage*)uiImageFromPixelBuffer:(CVPixelBufferRef)p {
    CIImage* ciImage = [CIImage imageWithCVPixelBuffer:p];
    CIContext* context = [CIContext contextWithOptions:@{kCIContextUseSoftwareRenderer : @(YES)}];
    CGRect rect = CGRectMake(0, 0, CVPixelBufferGetWidth(p), CVPixelBufferGetHeight(p));
    CGImageRef videoImage = [context createCGImage:ciImage fromRect:rect];
    UIImage* image = [UIImage imageWithCGImage:videoImage];
    CGImageRelease(videoImage);
    return image;
}

从代码可以看出来,这个转换有点复杂,中间经历了多个步骤,所以性能是很差的,只适合偶尔转换一张图片,用于调试截图等,用于显示视频肯定是不行的。

另一个思路是用OpenGL来渲染,CVPixelBufferRef是可以转换成一个openGL texture的,方法如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
CVOpenGLESTextureRef pixelBufferTexture;
CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,
                                             _textureCache,
                                             pixelBuffer,
                                             NULL,
                                             GL_TEXTURE_2D,
                                             GL_RGBA,
                                             width,
                                             height,
                                             GL_BGRA,
                                             GL_UNSIGNED_BYTE,
                                             0,
                                             &pixelBufferTexture);

其中,_textureCache代表一个Texture缓存,每次生产的Texture都是从缓存获取的,这样可以省掉反复创建Texture的开销,_textureCache要实现创建好,创建方法如下

1
CVOpenGLESTextureCacheCreate(kCFAllocatorDefault, NULL, _context, NULL, &_textureCache);

其中_contextopenGLcontext,在iOS里就是 EAGLContext *

pixelBufferTexture还不是openGLTexture,调用CVOpenGLESTextureGetName才能获得在openGL可以使用的Texture ID

当获得了 Texture ID后就可以用openGL来绘制了,这里推荐用 GLKView来做绘制

1
2
3
4
5
6
7
8
glUseProgram(_shaderProgram);
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, textureId);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
glDrawArrays(GL_TRIANGLE_FAN, 0, 4);

当然这不是全部代码,完整的绘制openGL代码还有很多,openGL是著名的啰嗦冗长,还有openGL Context创建shader编译DataBuffer加载等。

本质上这段代码是为了把Texture的内容绘制到 openGL的frame buffer里,然后再把frame buffer贴到 CAEAGLayer

这个从CVPixelBufferRef获取的texture,和原来的CVPixelBufferRef对象共享同一个存储,就是说如果改变了Texture的内容,那么CVPixelBufferRef的内容也会改变。利用这一点我们就可可以用openGL的绘制方法向CVPixelBufferRef对象输出内容了。比如可以给CVPixelBufferRef的内容加图形特效打水印等。

除了从系统API里获得CVPixelBufferRef外,我们也可以自己创建CVPixelBufferRef

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
+(CVPixelBufferRef)createPixelBufferWithSize:(CGSize)size {
    const void *keys[] = {
        kCVPixelBufferOpenGLESCompatibilityKey,
        kCVPixelBufferIOSurfacePropertiesKey,
    };
    const void *values[] = {
        (__bridge const void *)([NSNumber numberWithBool:YES]),
        (__bridge const void *)([NSDictionary dictionary])
    };
    
    OSType bufferPixelFormat = kCVPixelFormatType_32BGRA;
    
    CFDictionaryRef optionsDictionary = CFDictionaryCreate(NULL, keys, values, 2, NULL, NULL);
    
    CVPixelBufferRef pixelBuffer = NULL;
    CVPixelBufferCreate(kCFAllocatorDefault,
                        size.width,
                        size.height,
                        bufferPixelFormat,
                        optionsDictionary,
                        &pixelBuffer);
    
    CFRelease(optionsDictionary);
    
    return pixelBuffer;
}

创建一个BGRA格式的PixelBuffer,注意kCVPixelBufferOpenGLESCompatibilityKeykCVPixelBufferIOSurfacePropertiesKey这两个属性,这是为了实现和openGL兼容,另外有些地方要求CVPixelBufferRef必须是IO Surface

CVPixelBufferRef是iOS视频采集处理编码流程的重要中间数据媒介和纽带,理解`CVPixelBufferRef有助于写出高性能可靠的视频处理。

要进一步理解CVPixelBufferRef还需要学习YUVcolor rangeopenGL等知识。

引用自深入理解CVPixelBufferRef

该博客文章由作者通过 CC BY 4.0 进行授权。

2021年终总结

开源YZ3DMenu导航菜单