先说结论:
CVPixelBufferCreate 创建的 CVPixelBufferRef 可能由以下的原因导致的:
1.pixelFormatType 格式错误,换一下格式尝试
2.width和height 非 32 的整数倍
3.视频帧的宽高比非标准比例(4:3,16:9,1:1)
另外说明,我没找到比较有权威的对应文档和教程,上面是我通过测试得出的结论,如果有错误,还请批评指正
一、pixelFormatType 格式错误
kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange 是nv12 的格式 yyyyuvuv
kCVPixelFormatType_420YpCbCr8Planar 是i420的格式 yyyyuuvv
需要注意的是,并不是每一个枚举值在iOS上都是支持的,可能存在不支持的情况
二、width和height 非 32 的整数倍
CVReturn result = CVPixelBufferCreate(kCFAllocatorDefault,
1920,
1080,
kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange, // NV12
(__bridge CFDictionaryRef)(pixelAttributes),
&pixelBuffer);
像素的存储格式通常是一行一行存储的,当宽度为了实现32的整数倍做出调整时,从帧数据复制的时候,就要在多出的那部分做对应的填充。缩小也是一样的,要去放弃多余的数据
比如原视频是 宽4 高4的视频,你调成宽8高8的时候
yyyy yyyyyyyy (后面四个y是自己填充的)
yyyy yyyyyyyy (后面四个y是自己填充的)
uuuu ->> uuuuuuuu (后面四个u是自己填充的)
vvvv vvvvvvvv (后面四个v是自己填充的)
例子可能不太恰当,但是意思比较清楚的。后面会有代码举例
三、视频帧的宽高比非标准比例(4:3,16:9,1:1)
这个解决办法和上一条是一样的,去调整宽高,来实现比例的要求。
例子:
//例子是 I420 数据转成 NV12 的 CVPixelBufferRef
//width 原视频的宽
//height 原视频的高
//buffer NSData 类型的原视频的帧数据。格式为I420
NSDictionary *pixelAttributes = @{(NSString *)kCVPixelBufferIOSurfacePropertiesKey:@{}};
//调整后的width
int inner_width = 0;
//调整后的height
int inner_height = 0;
//视频比例不是 16:9 , 4:3 , 1:1 ,宽高不是32的整数倍时,将宽高统一调整为1920和1080.
//因为项目要求,所有视频都不会比1920x1080大,故这里只是放大,无需缩小
if (width*1.0 / height*1.0 != 16.0/9 || width*1.0 / height*1.0 != 1.0 || width*1.0 / height*1.0 != 4.0/3 || width%32 != 0 || height%32 != 0 ) {
inner_width = 1920;
inner_height = 1080;
}else{
inner_width = width;
inner_height = height;
}
CVPixelBufferRef pixelBuffer = NULL;
CVReturn result = CVPixelBufferCreate(kCFAllocatorDefault,
inner_width,
inner_height,
kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange, // NV12
(__bridge CFDictionaryRef)(pixelAttributes),
&pixelBuffer);
if (result != kCVReturnSuccess) {
//CVPixelBufferRef 初始化失败
NSLog(@"Unable to create cvpixelbuffer %d", result);
}
// 复制 buffer.bytes 数据
uint8_t* pdata = (uint8_t*)buffer.bytes;
CVPixelBufferLockBaseAddress(pixelBuffer, 0);
// Y 数据填充
unsigned char *yDestPlane = (unsigned char *)CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 0);
for (int i = 0, k = 0; i < inner_height; i++) {
for (int j = 0; j< inner_width; j++) {
if (inner_width > width && j >= width) {
// 扩大的那部分 width 用该行最后一个像素填充
if (i >= height) {
// 高度大于视频的实际高度,说明该行没有帧数据,则用实际视频帧的最后一行最后一个像素填充
yDestPlane[k++] = pdata[height*width];
continue;
}
yDestPlane[k++] = pdata[i*width + width];
continue;
}
if (inner_height > height && i >= height) {
// 高度大于视频的实际高度,说明改行没有帧数据,则用实际视频帧的最后一行最后一个像素填充
yDestPlane[k++] = pdata[height * width];
continue;
}
yDestPlane[k++] = pdata[i*width + j];
}
}
// UV 数据填充
unsigned char *uvDestPlane = (unsigned char *)CVPixelBufferGetBaseAddressOfPlane(pixelBuffer, 1);
for (int i = 0, k = 0; i < inner_height / 2; i++) {
for (int j = 0; j< inner_width / 2; j ++) {
if (inner_width > width && j >= width/2) {
if (i > height/2) {
// 高度大于视频的实际高度,说明改行没有帧数据,则用实际视频帧的最后一行最后一个像素填充
uvDestPlane[k++] = pdata[height *width/4 + width * height];
uvDestPlane[k++] = pdata[height *width/4 + width * height * 5 / 4];
}else{
// 高度不高于视频的实际高度,说明改行有帧数据,则用实际视频帧的该行最后一个像素填充
uvDestPlane[k++] = pdata[i *width/2 + width/2 + width * height];
uvDestPlane[k++] = pdata[i *width/2 + width/2 + width * height * 5 / 4];
}
continue;
}
if (inner_height > height && i >= height/2) {
// 高度大于视频的实际高度,说明改行没有帧数据,则用实际视频帧的最后一行最后一个像素填充
uvDestPlane[k++] = pdata[height *width/4 + width * height];
uvDestPlane[k++] = pdata[height *width/4 + width * height * 5 / 4];
continue;
}
// 高度不高于视频的实际高度,说明改行有帧数据,则用实际视频帧像素填充
uvDestPlane[k++] = pdata[i *width/2 + j + width * height];
uvDestPlane[k++] = pdata[i *width/2 + j + width * height * 5 / 4];
}
}
CVPixelBufferUnlockBaseAddress(pixelBuffer, 0);
//pixelBuffer 构造完成,用于后续使用