您的位置:首页 > 其它

YUV视频格式到RGB32格式转换的速度优化 下篇

2012-04-16 12:13 369 查看
tag: YUV,YCbCr,YUV到RGB颜色转换,YUV解码,VFW,视频,MMX,SSE,多核优化

摘要: 我们得到的很多视频数据(一些解码器的输出或者摄像头的输出等)都使用了一种

叫YUV的颜色格式;本文介绍了常见的YUV视频格式(YUY2/YVYU/UYVY/I420/YV12等)到

RGB颜色格式的转换,并尝试对转化的速度进行优化;

全文 分为:

《上篇》文章首先介绍了YUV颜色格式,并介绍了YUV颜色格式和RGB颜色格式之

间的相互转换;然后重点介绍了YUYV视频格式到RGB32格式的转化,并尝试进行了一

些速度优化;

《中篇》尝试使用MMX/SSE指令对前面实现的解码器核心进行速度优化;然

后简要介绍了一个使用这类CPU特殊指令时的代码框架,使得解码程序能够根据运行时

的CPU指令支持情况动态调用最佳的实现代码;并最终提供一个多核并行的优化版本;

《下篇》介绍YUV类型的其他种类繁多的视频数据编码格式;并将前面实现的解码

器核心(在不损失代码速度的前提下)进行必要的修改,使之适用于这些YUV视频格式

的解码;

正文:

代码使用C++,编译器:VC2005

涉及到汇编的时候假定为x86平台;

现在的高清视频帧尺寸越来越大,所以本文测试的图片大小将使用1024x576和

1920x1080两种常见的帧尺寸来测试解码器速度;

测试平台:(CPU:AMD64x2 4200+(2.37G); 内存:DDR2 677(双通道); 编译器:VC2005)

(另一套测试平台(Intel Core2 4400)不再由我使用,换成了苹果的iMac电脑)

请先参看《YUV视频格式到RGB32格式转换的速度优化 上篇》和《... 中篇》;

A:YUV视频格式的分类:

YUV数据有很多种储存的方式: 从数据布局方式来看,YUV数据主要分为两大类packed

模式和planar模式;packed模式是指Y/U/V颜色分量放置在一起,比如前面的YUYV格式,

它就是两个相邻像素打包在一起;planar模式是指把Y/U/V颜色分量分成3个大区存放,

也就是所有的Y连续储存在一起,同样所有的U和V也连续储存在一起,比如常见的I420

格式。 从数据压缩的角度来看,YUV数据主要的模式有: 1:1:1 、2:1:1、4:1:1等模式;

1:1:1模式是指Y/U/V的数据量一样,一个像素对应一组YUV数据(在视频编码中比较少

见);2:1:1模式是指两个像素对应两个Y数据和一个U和一个V数据,由于人眼对亮度(Y)

更敏感,所以就压缩了U/V分量的数量,比如把相邻的两个像素的U/V分量取平均值,然

后这两个像素共享这组U/V值,前面介绍的YUYV格式就属于2:1:1模式; 4:1:1模式也很好

理解,就是把2x2范围的4个相邻像素一起编码得到4个Y分量,然后4个像素共享这组U/V

值,I420格式就属于这类;

B:我们来实现planar模式的YUV数据解码

void DECODE_PlanarYUV111_Common_line(TARGB32* pDstLine,const TUInt8* pY,

const TUInt8* pU,const TUInt8* pV,long width)

{

for (long x=0;x<width;++x)

pDstLine[x]=YUVToRGB32_Int(pY[x],pU[x],pV[x]);

}

//1:1:1 planar模式

void DECODE_PlanarYUV111_Common(const TUInt8* pY,const long Y_byte_width,

const TUInt8* pU,const long U_byte_width,

const TUInt8* pV,const long V_byte_width,

const TPicRegion& DstPic)

{

assert((DstPic.width & 1)==0);

TARGB32* pDstLine=DstPic.pdata;

for (long y=0;y<DstPic.height;++y)

{

DECODE_PlanarYUV111_Common_line(pDstLine,pY,pU,pV,DstPic.width);

((TUInt8*&)pDstLine)+=DstPic.byte_width;

pY+=Y_byte_width;

pU+=U_byte_width;

pV+=V_byte_width;

}

}

void DECODE_PlanarYUV211_Common_line(TARGB32* pDstLine,const TUInt8* pY,

const TUInt8* pU,const TUInt8* pV,long width)

{

for (long x=0;x<width;x+=2)

{

long x_uv=x>>1;

YUVToRGB32_Two(&pDstLine[x],pY[x],pY[x+1],pU[x_uv],pV[x_uv]);

}

}

//2:1:1 planar模式

void DECODE_PlanarYUV211_Common(const TUInt8* pY,const long Y_byte_width,

const TUInt8* pU,const long U_byte_width,

const TUInt8* pV,const long V_byte_width,

const TPicRegion& DstPic)

{

assert((DstPic.width & 1)==0);

TARGB32* pDstLine=DstPic.pdata;

for (long y=0;y<DstPic.height;++y)

{

DECODE_PlanarYUV211_Common_line(pDstLine,pY,pU,pV,DstPic.width);

((TUInt8*&)pDstLine)+=DstPic.byte_width;

pY+=Y_byte_width;

pU+=U_byte_width;

pV+=V_byte_width;

}

}

//4:1:1 planar模式

void DECODE_PlanarYUV411_Common(const TUInt8* pY,const long Y_byte_width,

const TUInt8* pU,const long U_byte_width,

const TUInt8* pV,const long V_byte_width,

const TPicRegion& DstPic)

{

assert((DstPic.width & 1)==0);

TARGB32* pDstLine=DstPic.pdata;

for (long y=0;y<DstPic.height;++y)

{

DECODE_PlanarYUV211_Common_line(pDstLine,pY,pU,pV,DstPic.width);

((TUInt8*&)pDstLine)+=DstPic.byte_width;

pY+=Y_byte_width;

//这里做了特殊处理,使Y下移两行的时候U、V才会下移一行

if ((y&1)==1)

{

pU+=U_byte_width;

pV+=V_byte_width;

}

}

}

一点说明: 1:1:1模式,后面将不再处理,而4:1:1模式直接使用了2:1:1解码器的核心;

C.我们来优化DECODE_PlanarYUV411_Common函数;

1.当前的实现DECODE_PlanarYUV411_Common

速度测试:

/////////////////////////////////////////////////////////

//=======================================================

// | 1024x576 | 1920x1080 |

//-------------------------------------------------------

// | AMD64x2 | AMD64x2 |

//-------------------------------------------------------

//DECODE_PlanarYUV411_Common 236.1 FPS 67.5 FPS

/////////////////////////////////////////////////////////

2.MMX的实现DECODE_PlanarYUV411_MMX

#define PlanarYUV211_Loader_MMX(in_y_reg,in_u_reg,in_v_reg) /

asm movd mm1,[in_u_reg] /*mm1=00 00 00 00 U3 U2 U1 U0 */ /

asm movd mm2,[in_v_reg] /*mm2=00 00 00 00 V3 V2 V1 V0 */ /

asm pxor mm4,mm4 /*mm4=00 00 00 00 00 00 00 00 */ /

asm movq mm0,[in_y_reg] /*mm0=Y7 Y6 Y5 Y4 Y3 Y2 Y1 Y0 */ /

asm punpcklbw mm1,mm4 /*mm1=00 U3 00 U2 00 U1 00 U0 */ /

asm punpcklbw mm2,mm4 /*mm2=00 V3 00 V2 00 V1 00 V0 */

void DECODE_PlanarYUV211_MMX_line(TARGB32* pDstLine,const TUInt8* pY,

const TUInt8* pU,const TUInt8* pV,long width)

{

long expand8_width=(width>>3)<<3;

if (expand8_width>0)

{

asm

{

push esi

push edi

mov ecx,expand8_width

shr ecx,1

mov eax,pY

mov esi,pU

mov edi,pV

mov edx,pDstLine

lea eax,[eax+ecx*2]

lea esi,[esi+ecx]

lea edi,[edi+ecx]

neg ecx

loop_beign:

PlanarYUV211_Loader_MMX(eax+ecx*2,esi+ecx,edi+ecx)

YUV422ToRGB32_MMX(edx,movq)

add edx,8*4

add ecx,4

jnz loop_beign

mov pY,eax

mov pU,esi

mov pV,edi

mov pDstLine,edx

pop edi

pop esi

}

}

//处理边界

DECODE_PlanarYUV211_Common_line(pDstLine,pY,pU,pV,width-expand8_width);

}

void DECODE_PlanarYUV411_MMX(const TUInt8* pY,const long Y_byte_width,

const TUInt8* pU,const long U_byte_width,

const TUInt8* pV,const long V_byte_width,

const TPicRegion& DstPic)

{

assert((DstPic.width & 1)==0);

TARGB32* pDstLine=DstPic.pdata;

for (long y=0;y<DstPic.height;++y)

{

DECODE_PlanarYUV211_MMX_line(pDstLine,pY,pU,pV,DstPic.width);

((TUInt8*&)pDstLine)+=DstPic.byte_width;

pY+=Y_byte_width;

if ((y&1)==1)

{

pU+=U_byte_width;

pV+=V_byte_width;

}

}

asm emms

}

速度测试:

/////////////////////////////////////////////////////////

//=======================================================

// | 1024x576 | 1920x1080 |

//-------------------------------------------------------

// | AMD64x2 | AMD64x2 |

//-------------------------------------------------------

//DECODE_PlanarYUV411_MMX 650.1 FPS 187.3 FPS

/////////////////////////////////////////////////////////

3.优化写缓冲的SSE实现DECODE_PlanarYUV411_SSE

void DECODE_PlanarYUV211_SSE_line(TARGB32* pDstLine,const TUInt8* pY,

const TUInt8* pU,const TUInt8* pV,long width)

{

long expand8_width=(width>>3)<<3;

if (expand8_width>0)

{

asm

{

push esi

push edi

mov ecx,expand8_width

shr ecx,1

mov eax,pY

mov esi,pU

mov edi,pV

mov edx,pDstLine

lea eax,[eax+ecx*2]

lea esi,[esi+ecx]

lea edi,[edi+ecx]

neg ecx

loop_beign:

PlanarYUV211_Loader_MMX(eax+ecx*2,esi+ecx,edi+ecx)

YUV422ToRGB32_SSE(edx)

add edx,8*4

add ecx,4

jnz loop_beign

mov pY,eax

mov pU,esi

mov pV,edi

mov pDstLine,edx

pop edi

pop esi

}

}

//处理边界

DECODE_PlanarYUV211_Common_line(pDstLine,pY,pU,pV,width-expand8_width);

}

void DECODE_PlanarYUV411_SSE(const TUInt8* pY,const long Y_byte_width,

const TUInt8* pU,const long U_byte_width,

const TUInt8* pV,const long V_byte_width,

const TPicRegion& DstPic)

{

assert((DstPic.width & 1)==0);

TARGB32* pDstLine=DstPic.pdata;

for (long y=0;y<DstPic.height;++y)

{

DECODE_PlanarYUV211_SSE_line(pDstLine,pY,pU,pV,DstPic.width);

((TUInt8*&)pDstLine)+=DstPic.byte_width;

pY+=Y_byte_width;

if ((y&1)==1)

{

pU+=U_byte_width;

pV+=V_byte_width;

}

}

asm emms

}

速度测试:

/////////////////////////////////////////////////////////

//=======================================================

// | 1024x576 | 1920x1080 |

//-------------------------------------------------------

// | AMD64x2 | AMD64x2 |

//-------------------------------------------------------

//DECODE_PlanarYUV411_SSE 864.6 FPS 249.5 FPS

/////////////////////////////////////////////////////////

4.自动适应CPU指令集的版本和并行优化版本的实现就不赘述了;

D:解码器框架

有了前面的各种实现的尝试,完成支持大部分YUV视频格式的解码器已经没有多少困难了;剩下的

就是弄清楚数据的储存格式并组织规划好各种实现代码。

一些建议: 可以将解码器分成3段,载入器、核心解码器、颜色输出器,不同的YUV格式可能需要不同的

“载入器”实现,它负责组织好Y、U、V源,使之适合核心解码器使用,输出的时候可能有不同

的RGB颜色编码输出需求,可以做几个不同的“颜色输出器”实现;

Planar模式的解码是比较容易统一处理的,只要弄清楚各分量存放的位置就能使用同一个解码器

函数的实现;

packed模式就麻烦一些,需要对不同的编码方式实现不同的“载入器”(也可以把它们做成多个

仿函数实现,作为解码函数的参数;另外合理运用内联、宏和泛型可以节省很多代码和维护工作量;)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: