会员体验
专利管家(专利管理)
工作空间(专利管理)
风险监控(情报监控)
数据分析(专利分析)
侵权分析(诉讼无效)
联系我们
交流群
官方交流:
QQ群: 891211   
微信请扫码    >>>
现在联系顾问~

视频压缩技术

阅读:517发布:2021-02-26

IPRDB可以提供视频压缩技术专利检索,专利查询,专利分析的服务。并且公开了视频流压缩技术。将视频数据的运动预测帧和当前帧从源颜色空间转换为感知颜色空间。计算当前帧与运动预测帧之间的Δ帧。确定当前帧与运动预测帧之间的输入色差值,并将其映射成归一化输出,以创建色调映射色差图像。将色调映射色差图像与Δ帧相乘,以获得加权的Δ帧。Δ损耗被计算为加权的Δ帧与Δ帧之间的差异。将运动预测帧的变化映射与Δ损耗相乘,以获得Δ保留映射。将加权的Δ帧与Δ保留映射相加,以获得可被变换、量化和编码的修改的Δ帧。,下面是视频压缩技术专利的具体信息内容。

1.一种方法,包括:

通过计算当前帧中的每个像素与运动预测帧中的每个对应像素之间的差异来确定Δ帧,所述当前帧和所述运动预测帧以感知颜色空间表示;

通过将色调映射色差图像与所述Δ帧相乘来确定加权的Δ帧,所述色调映射色差图像通过针对每个像素将所述当前帧中的每个像素与所述运动预测帧中的每个对应像素之间的输入色差值映射成归一化输出而被确定;

通过将所述运动预测帧的变化映射乘以所述加权的Δ帧与所述Δ帧之间的差异来确定Δ保留映射;

将所述加权的Δ帧和所述Δ保留映射相加,以获得修改的Δ帧。

2.根据权利要求1所述的方法,包括:

从视频流源接收源颜色空间的视频数据的当前帧数据和视频数据的前一帧,并将所述当前帧数据和所述前一帧转换为感知颜色空间;以及利用块匹配算法创建所述运动预测帧。

3.根据权利要求2所述的方法,所述源颜色空间包括YUV颜色空间。

4.根据权利要求1所述的方法,所述感知颜色空间包括CIE Lab颜色空间。

5.根据权利要求1所述的方法,针对每个像素将输入色差值映射成归一化输出是基于所述当前帧和所述运动预测帧的色度特性的。

6.根据权利要求1所述的方法,包括对所述修改的Δ帧进行变换、量化以及编码,以产生经编码的压缩帧。

7.根据权利要求6所述的方法,所述编码包括应用无损压缩算法。

8.根据权利要求6所述的方法,包括将所述经编码的压缩帧传送到传输介质。

9.一种系统,包括:

处理器组件;

在所述处理器组件上运行的色差模块,所述色差模块用于通过计算当前帧中的每个像素与运动预测帧中的每个对应像素之间的差异来确定Δ帧,所述当前帧和所述运动预测帧以感知颜色空间表示;

在所述处理器组件上运行的色调映射模块,所述色调映射模块用于针对每个像素将输入色差值映射成归一化输出,以创建色调映射色差图像;

在所述处理器组件上运行的变化映射模块,所述变化映射模块用于计算所述运动预测帧的变化映射;以及在所述处理器组件上运行的乘法和加法模块,所述乘法和加法模块用于:将所述色调映射色差图像与所述Δ帧相乘,以获得加权的Δ帧;

计算所述加权的Δ帧与所述Δ帧之间的差异,以获得Δ损耗;

将所述变化映射与所述Δ损耗相乘,以获得Δ保留映射;以及将所述加权的Δ帧和所述Δ保留映射相加,以获得修改的Δ帧。

10.根据权利要求9所述的系统,包括在所述处理器组件上运行的颜色转换模块,所述颜色转换模块用于:将视频数据的所述运动预测帧和视频数据的当前帧从源颜色空间转换为感知颜色空间,视频数据的每个帧由多个像素组成。

11.根据权利要求9所述的系统,包括在所述处理器组件上运行的运动预测模块,所述运动预测模块用于:从视频流源接收所述源颜色空间的视频数据的当前帧数据和视频数据的前一帧;并且利用运动估计算法创建所述运动预测帧。

12.根据权利要求10所述的系统,所述源颜色空间包括YUV颜色空间。

13.根据权利要求9所述的系统,所述感知颜色空间包括CIE Lab颜色空间。

14.根据权利要求9所述的系统,在所述处理器组件上运行的所述色调映射模块用于基于所述当前帧和所述运动预测帧的色度特性,针对每个像素将所述输入色差值映射成归一化输出。

15.根据权利要求10所述的系统,包括在所述处理器组件上运行的编码器模块,所述编码器模块用于:变换所述修改的Δ帧,

量化所述修改的Δ帧,以及

编码所述修改的Δ帧,以产生经编码的压缩帧。

16.根据权利要求15所述的系统,所述修改的Δ帧利用无损压缩算法被编码。

17.根据权利要求15所述的系统,包括将所述经编码的压缩帧传送到传输介质。

18.至少一种计算机可读存储介质,包括在被执行时使系统执行以下操作的指令:通过计算当前帧中的每个像素与运动预测帧中的每个对应像素之间的差异来确定Δ帧,所述当前帧和所述运动预测帧以感知颜色空间表示;

通过将色调映射色差图像与所述Δ帧相乘来确定加权的Δ帧,所述色调映射色差图像通过针对每个像素将所述当前帧中的每个像素与所述运动预测帧中的每个对应像素之间的输入色差值映射成归一化输出而被确定;

通过将所述运动预测帧的变化映射乘以所述加权的Δ帧与所述Δ帧之间的差异来确定Δ保留映射;

将所述加权的Δ帧和Δ保留映射相加,以获得修改的Δ帧。

19.根据权利要求18所述的计算机可读存储介质,包括在被执行时使所述系统对所述修改的Δ帧进行变换、量化以及编码以产生经编码的压缩帧的指令。

20.根据权利要求19所述的计算机可读存储介质,包括在被执行时使所述系统应用无损压缩算法以编码所述修改的Δ帧的指令。

说明书全文

视频压缩技术

背景技术

[0001] 在当今信息时代,视频数据的压缩变得越来越重要。视频内容以惊人的速度增长,并且用于支持这种视频内容的带宽要求也是巨大。

附图说明

[0002] 图1图示根据一实施例的视频编码器/解码器(CODEC)的一个示例。
[0003] 图2图示根据一实施例的色差色调映射函数的实施例。
[0004] 图3图示根据一实施例的逻辑流程的实施例。
[0005] 图4图示根据一实施例的用于视频CODEC的工作流程图的一个示例。

具体实施方式

[0006] 公开了基于人类视觉系统利用颜色对比敏感度模型选择性地修改视频流的技术。视频流的特征可以是当顺序地呈现多个帧图像时对这些图像提供运动方面的一系列帧。颜色对比敏感度模型的实施例能够识别观察者用正常色觉感觉不到的帧与帧差异的较大变化区域。颜色对比敏感度模型基于颜色科学的感知规律,并且进一步利用分块无交错视频编码技术的性质。
[0007] 本文中描述的实施例针对视频CODEC,例如MPEG-2 CODEC,基于关于人类视觉系统的潜在假设选择性地丢弃帧间差异。
[0008] MPEG-2是活动图像(例如,视频流)和关联的音频信息的通用编码的标准。MPEG-2描述了允许利用当前可用的存储介质和传输带宽存储并传输视频流的有损视频压缩方法和有损音频数据压缩方法的结合。
[0009] 观察者对色差的敏感度根据色调、饱和度和亮度变化。考虑到此,本文中描述的实施例基于变化加权色度活动映射选择性地衰减视频流的帧间差异。在MPEG-2工作流程的情况下,衰减的差异则可以利用例如离散余弦变换(DCT)变换和量化。离散余弦变换(DCT)通过在不同频率下振荡的余弦函数之和表示一系列有限多个数据点。DCT对于其中少量高频成分可以丢弃的、包括音频和图像的有损压缩的许多应用很重要。
[0010] 接着,可以利用例如霍夫曼编码算法对变换的、量化的视频帧数据进行编码。霍夫曼编码是可以用于无损数据压缩的编码算法。霍夫曼编码涉及利用用于编码源符号的变长码表,其中变长码表是基于针对源符号的每个可能值估计的发生概率以特定方式得到的。
[0011] 可以代替MPEG-2使用可利用不同的变换和编码方案的其它视频编码技术。实施例不限于此示例。
[0012] 现在参照附图,在整个附图中相同的附图标记用于指相同的元件。在下面的描述中,为了进行说明,阐述大量具体细节,以便提供对本发明的全面理解。不过,显然,在没有这些具体细节的情况下,这些新颖的实施例也可以付诸于实践。在其它实例中,公知结构和装置以框图形式示出以助于其说明。目的在于涵盖落入所请求保护的主题的精神和范围内的所有修改、等同物和替换物。
[0013] 图1图示根据一实施例的视频编码器/解码器(CODEC)110的一个示例。视频CODEC 110可以包括受处理器组件115控制的多个模块。多个模块可以包括运动预测模块120、颜色转换模块122、色差模块124、色调映射模块126、变化映射模块128、乘法和加法模块130、变换模块132和编码器模块134。
[0014] 已由国际电信联盟(ITU)和运动图像专家组(MPEG)开发了标准化视频编码框架。在这些框架中,清楚地定义了解码器的结构,但编码器创建视频流所利用的技术却仍需由编码器的作者决定。
[0015] 在本文描述的实施例中,描述了用于预处理视频流的方法,其结合静态图像的颜色科学原理和基于变化的加权,来解释运动的影响。已利用均匀的单色块开发出大量色差模型。将这些模型应用到运动图像(例如,视频流)要引入现有的色差模型没有考虑到的新维度(例如,运动)。
[0016] 运动预测模块120可以用于预测或估计运动矢量。运动预测模块120可以利用例如块匹配运动估计(ME)算法,来确定帧到帧的运动矢量,以创建运动预测帧。该转移由运动矢量表示。
[0017] 运动补偿利用这样的事实,即,通常对于视频流的许多帧,一个帧与下一帧之间的差异可能仅仅是由于相机移动或帧移动中的对象而引起。就视频文件而言,这意味着表示一个帧的信息中的大部分将会与在下一帧中使用的信息相同。一个帧可以由很多块组成。帧内的每个块可以根据参考帧中相同大小的块预测。除被转移到所预测的块的位置之外,这些块没有以任何方式改变。该转移由运动矢量表示。许多运动补偿方案允许使用之前或之后的很多不同帧来用于运动预测,而不一定只是相邻的帧。
[0018] 利用运动补偿,视频流可以包含一些完整(参考)帧。其它帧可以只包含为将前一帧变换成下一帧所需的差异信息。为了利用邻近块矢量之间的冗余,常见的是只编码位流中当前运动矢量和前一运动矢量之间的差异。编码管道之后,熵编码器(例如,霍夫曼编码器)可以利用所产生的零矢量周围的运动矢量的统计分布,以减少输出大小。
[0019] 帧间视频编码利用这样的事实,即,并不是视频流中的每个像素会从一个帧到下一帧改变。通过去除未改变像素的冗余,视频流可以只编码在帧与帧之间改变的那些像素。这导致位速率(例如,为编码视频流帧所需的数据量)显著提高。
[0020] 潜在假设之一是帧与帧之间要被编码的像素差异在感知上是显著的。然而,并不是所有色差被同样可能地感知,这是因为人类视觉系统对颜色变化的敏感度根据亮度、饱和度以及色调变化。
[0021] 颜色科学较新的发展已引起色差公式(被称为CIEΔEab、ΔE94以及最新的ΔE2000公式)的标准化。为了利用这种色差模型,必须利用颜色转换模块122将要比较的颜色从源颜色空间转换为感知颜色空间,例如CIE Lab。
[0022] CIE Lab颜色空间是具有亮度维度L和色对立(color-opponent)维度a和b的感知颜色空间。CIE Lab颜色空间源自于“主(master)”CIE 1931 XYZ颜色空间。CIE 1931 XYZ颜色空间预测哪个光谱功率分布将被感知为相同的颜色,但在视觉上不均匀。CIE Lab创建可根据XYZ空间计算出并且在感知上更加均匀的空间。在感知上均匀指的是相同量的色值改变应产生大约相同的视觉重要性的改变。当将颜色以有限精度值存储时,这能够改善色调的再现。CIE Lab空间是相对于XYZ数据的参考白点定义的,其中Lab值由XYZ数据转变。
[0023] 人眼具有中间亮度和高亮度颜色视觉的光感受体(还有被称为视杆细胞的低亮度、单色“夜视”感受体,该感受体在大约490-495nm具有峰值敏感度),该光感受体在短波长(S,420-440nm)、中间波长(M,530-540nm)和长波长(L,560-580nm)下具有敏感度峰值。因此,原理上,被称为三色刺激值的三个参数能够描述色觉。颜色的这些三色刺激值能够被概念化为三基色附加颜色模型中的三原色的量。将三色刺激值与颜色关联起来是颜色空间的工作。CIE XYZ(许多这种空间中的一个)是常用的标准,并且充当定义许多其它颜色空间的基础。颜色匹配函数将特定的三色刺激值与特定颜色关联起来。
[0024] 颜色转换模块122可以利用例如在下面的公式1-3中示出的CIE Lab公式的简化形式对具有标准的两个等级颜色视觉的观察者的感知进行建模,其中X、Y和Z是受观察的* * *颜色三色刺激值,并且Xn、Yn和Zn是参考白点的三色刺激值。L、a 和b 坐标分别对应于亮度、红-绿对立通道和蓝-黄对立通道。
[0025] 公式(1)
[0026] 公式(2)
[0027] 公式(3)
[0028] 实施例不限于此示例。
[0029] 对于视频流中的像素,一旦针对两个(2)不同的样本计算出CIE Lab坐标(L*,a*,*b),则色差可由色差模块124利用色差公式计算。可以利用ΔE94和ΔE2000公式,这是因为这些公式尝试说明对样本的色度和饱和度的非线性依赖。ΔE94色差公式例如可以利用下面的公式4计算。
[0030] 公式(4)
[0031] 其中,
[0032]
[0033]
[0034]
[0035]
[0036]
[0037]
[0038]
[0039] 并且进一步其中加权因子(KL,K1,K2)取决于应用(例如,视频流的性质和内容)。实施例不限于此示例。
[0040] 接着,加权可以用于基于待分析的帧的色度特性扰乱帧间差异。加权函数可以由色调映射模块126实现。色调映射模块126可以将输入色差值映射成零(0)和一(1)之间的归一化输出。一(1)的加权可以指色差被保留,而零(0)的加权可以指色差可以被丢弃。色调映射加权函数可以是影响所得到的视频流的位速率和质量的可调参数。
[0041] 图2图示具有两个(2)不同的色调映射的样本色差色调映射函数200。相比于与色调映射2220关联的色差,色调映射1210指示由较小输入色差值确定的较小色差可以被保留得更多。例如,色调映射1210在色差值四(4)处达到完全保留的加权因子一(1),而色调映射2220不会达到完全保留的加权因子一(1)直到色差值六(6)。可以基于视频流的性质和内容而利用其它色调映射。
[0042] 返回参照图1,乘法和加法模块130可以首先计算当前帧(Xk+1)与运动预测帧之间的差异,以获得Δ帧。接着,乘法和加法模块130可以逐像素地将Δ帧与由色调映射模块126生成的色调映射色差图像Tmap相乘,以获得加权的Δ帧。接着,乘法和加法模块130可以取Δ帧与加权的帧(例如,色调映射的响应)之间的差异,以获得Δ损耗。
[0043] 变化映射模块128可以通过利用颜色转换模块122对运动预测帧进行颜色转换,来计算空间变化映射(Cmap)。接着,将Δ损耗与运动预测帧的空间变化映射(Cmap)相乘。得到的图像,被称为Δ保留映射,表示在编码过程中要被保留的像素的变化。
[0044] 接着,乘法和加法模块130可以逐像素地将加权的Δ帧的色调映射的响应与Δ保留映射相加,以获得修改的Δ帧。接着,修改的Δ帧可以被传送到变换模块132,在变换模块132处修改的Δ帧可以进行离散余弦变换和量化过程。
[0045] 接着,变换模块132的结果可以被传送到编码器模块134,在编码器模块134处该结果可以被编码。编码器模块134的结果可以是编码的帧数据150,该编码的帧数据150可以被传送到传输介质160,以便传递到接收器装置170。接收器装置170可以包括能够将编码的帧数据转换为视觉上可感知的格式的视频解码器。接收器装置170还可以包括能够将视频流以视觉上可感知的方式呈现的显示装置175,或者与该显示装置175联接。
[0046] 本文中包括了用于执行所公开的架构的新颖方面的典型示例性方法的一组流程图。尽管为了简化说明,在本文中示出的一个或多个方法,例如以流程图或流程表的形式,被示出和描述为一系列行为,但应当理解和明白,这些方法不受这些行为的顺序限制,这是因为某些行为可以根据其情况而以与本文示出和描述的不同的顺序和/或与其它行为同时发生。例如,本领域的技术人员将理解和明白,方法能够可替代地被表示为一系列相关状态或事件,例如在状态图中。而且,并非方法中图示的所有行为都需要用于新的实施方式。
[0047] 图3图示逻辑流程300的实施例。逻辑流程300可以表示由本文中公开的一个或多个实施例执行的一些或所有操作。
[0048] 在图3所示的图示实施例中,逻辑流程300可以在块305处计算运动预测帧。例如,视频CODEC 110可以接收来自视频流源105的当前帧数据107和参考帧数据108。运动预测模块120在处理器组件115的控制下可以例如执行块匹配运动估计(ME)算法(上面描述的),以确定从当前帧内的块到参考帧内的对应块的运动矢量,以创建该帧的运动预测块。这可以针对当前帧和参考帧的所有块执行,以创建运动预测帧。实施例不局限于这些示例。
[0049] 在图3所示的图示实施例中,逻辑流程300可以在块307处通过计算当前帧中的每个像素与运动预测帧中的每个对应像素之间的差异来确定Δ帧。例如,乘法和加法模块130在处理器组件115的控制下可以取当前帧中的每个像素与运动预测帧中的每个对应像素之间的差异。实施例不局限于这些示例。
[0050] 在图3所示的图示实施例中,逻辑流程300可以在块310处将视频数据的运动预测帧和视频数据的当前帧从源颜色空间转换为感知颜色空间,其中视频数据的每个帧可以包括多个像素。例如,颜色转换模块122在处理器组件115的控制下可以利用在上面的公式1-3中示出的CIE Lab公式的形式,其中X、Y和Z是受观察的颜色三色刺激值,并且Xn、Yn和Zn是参考白点的三色刺激值。实施例不局限于这些示例。
[0051] 在图3所示的图示实施例中,逻辑流程300可以在块315处确定当前帧与运动预测帧之间的每个像素的色差。例如,色差模块124在处理器组件115的控制下可以利用例如ΔE94或ΔE2000色差公式,这是因为这些公式尝试考虑对样本的色度和饱和度的非线性依赖。ΔE94色差公式例如可以利用上面的公式4计算。实施例不局限于这些示例。
[0052] 在图3所示的图示实施例中,逻辑流程300可以在块320处针对每个像素将输入色差值映射成零(0)和一(1)之间的归一化输出,以创建色调映射的色差图像。例如,色调映射模块126在处理器组件115的控制下可以基于待分析的帧的色度特性,来确定加权,以扰乱帧间差异。色调映射模块126可以将输入色差值映射成零(0)与一(1)之间的归一化输出。一(1)的加权可以指色差被保留,而零(0)的加权可以指色差可以被丢弃。色调映射加权函数可以是影响所得到的视频流的位速率和质量的可调参数。实施例不局限于这些示例。
[0053] 在图3所示的图示实施例中,逻辑流程300可以在块325处将色调映射的色差图像与Δ帧相乘,以获得加权的Δ帧。例如,乘法和加法模块130在处理器组件115的控制下可以逐像素地将Δ帧与由色调映射模块126生成的色调映射的色差图像Tmap相乘,以获得加权的Δ帧。实施例不局限于这些示例。
[0054] 在图3所示的图示实施例中,逻辑流程300可以在块330处计算加权的Δ帧与Δ帧之间的差异(Δ损耗)。
[0055] 在图3所示的图示实施例中,逻辑流程300可以在块335处计算运动预测帧的变化映射。例如,变化映射模块128在处理器组件115的控制下可以通过利用颜色转换模块122对运动预测帧进行颜色转换,来计算空间变化映射(Cmap)。实施例不局限于这些示例。
[0056] 在图3所示的图示实施例中,逻辑流程300可以在块340处将运动预测帧的变化映射与Δ损耗相乘,以获得Δ保留映射。例如,Δ保留映射可以表示在变换和量化过程之前要被修改的像素的变化。
[0057] 在图3所示的图示实施例中,逻辑流程300可以在块345处将加权的Δ帧与Δ保留映射相加,以获得修改的Δ帧。例如,乘法和加法模块130在处理器组件115的控制下可以逐像素地将加权的Δ帧的色调映射响应与Δ保留映射相加,以获得修改的Δ帧。实施例不局限于这些示例。
[0058] 在图3所示的图示实施例中,逻辑流程300可以在块350处变换修改的Δ帧。例如,变换模块132在处理器组件115的控制下可以进行离散余弦变换和量化过程。实施例不局限于这些示例。
[0059] 在图3所示的图示实施例中,逻辑流程300可以在块355处对经变换和量化的Δ帧进行编码。例如,编码器模块134在处理器组件115的控制下可以通过例如霍夫曼编码过程来对视频流进行编码。实施例不局限于这些示例。
[0060] 图4图示根据一实施例的用于视频CODEC 110的工作流程图的一个示例。工作流程可以包括运动估计函数、色调映射函数、变化映射函数、以及多个求和、差分和乘法函数。工作流程可以接收当前帧(xk+1)405和参考帧(xk)400作为输入,并且确定可被编码用于在传输介质上传递的修改的Δ帧475。下面描述用于获得修改的Δ帧475的工作流程。应当注意,参考帧可以是先前帧或有关当前帧的其它已知帧。
[0061] 首先,工作流程可以在块410处利用当前帧405和其参考帧400作为输入执行运动估计和预测过程,以创建运动预测帧415。运动估计和预测块410可以利用例如运动估计(ME)算法来确定帧与帧之间的运动矢量,以创建运动预测帧415。运动估计算法还可以是基于块的,使得帧内的块被估计直至一帧的所有块都被估计。可以实施其它运动估计算法。
[0062] 接着,运动预测帧415可以被用来通过差分420确定与当前帧405的差异。这样得出Δ帧425。
[0063] 色调映射函数也可以使用运动预测帧415,来确定加权函数。首先,在块430处利用ITU-R推荐BT.601(或REC 601)主要值和各自的白点将运动预测帧415和当前帧405从源颜色空间(例如,YUV)转换为感知颜色空间(例如,CIE Lab),其中YUV参考[1,0,0]例如可以被假设为用于该视频编码标准的场景或各自的颜色空间的白点。实施例不局限于这些示例。
[0064] YUV模型依据一个亮度(Y)成分和两个色度(UV)成分定义颜色空间。YUV是考虑人类感知而编码彩色图像或视频的颜色空间。YUV使用于色度成分的带宽减少。术语YUV还用于描述利用YCbCr编码的文件格式。YCbCr可以用于适于视频压缩和传输的颜色信息的数字编码(例如MPEG)。
[0065] ITU-R推荐BT.601是由国际电信联盟(ITU)无线通信分部为了以数字视频形式编码模拟视频信号而于1982年公布的标准。ITU-R推荐BT.601包括525行60Hz和625行50Hz信号的编码方法,两者每一行都具有720亮度样本和360色度样本。该颜色编码系统被称为YCbCr 4:2:2。对于一对像素,数据按Y1:Cb:Y2:Cr顺序被存储,色度样本与第一亮度样本共站。
[0066] 一旦运动预测帧415和当前帧405的颜色数据在块430处通过例如YUV到CIE Lab的颜色转换过程被转换为感知颜色空间,则运动预测帧415和当前帧405的每个像素之间的色差可以在块435处利用例如之前描述的ΔE94色差公式计算。ΔE94色差公式的输出产生像素加权的色调映射(Tmap)440。
[0067] 观察者的最小可觉差(JND)的理论视觉容差被认为等于大面积单色块的一个ΔE94。在本示例中,少量(像素大小的)颜色可以随时间而改变。由于这个原因,可以允许错误的可变极限。色调映射函数可以被定义成针对每个像素将输入色差值映射成零(0)和一(1)之间的归一化输出。
[0068] 接着,色调映射的色差图像Tmap440和Δ帧425可以在块445处被逐像素地相乘,以获得加权的Δ帧450。然后,可以在块455处计算Δ帧425与色调映射的色差图像Tmap440之间的差异,结果被称为Δ损耗457。
[0069] 在块430处可以通过对运动预测帧415进行颜色转换而获得空间变化映射(Cmap)460。接着,变化映射(Cmap)460可以在块465处乘以Δ损耗457。得到的图像,被称为Δ保留映射470,示出随后在块490处执行的编码过程中去除的像素的变化。
[0070] 通过在块475处对加权的Δ帧450和Δ保留映射470逐像素应用求和,产生修改的Δ帧480,可以得到帧的光滑区域中色差的保留。这之所以可行是因为视频流的细节和本质可以屏蔽色差改变的感知可见性。因此,该工作流程使得能够基于具有较小帧间色差以及中间到高变化的区域选择性地压缩视频内容。
[0071] 接着,可以在块485处利用例如MPEG-2 DCT变换和量化方案变换和量化修改的Δ帧480像素,并且在块485和490处利用例如霍夫曼编码对其进行编码。最终结果是经编码的压缩帧490。
[0072] 至少一个实施例的一个或多个方面可以由存储在非瞬态机器可读介质上的典型指令实施,该指令表示处理器组件115内的各种逻辑,并且当由机器读取时使机器制造逻辑来执行本文中描述的技术。这种代表,被称为“IP核”,可以被存储在有形的机器可读介质上,并且提供给各个客户或制造基地,以加载到实际制作逻辑或处理器的制造机器。
[0073] 某些实施例可以利用措辞“一个实施例”或“一实施例”以及它们的衍生词来描述。这些术语指结合该实施例描述的特定特征、结构或特性包括在至少一个实施例中。短语“在一个实施例中”在说明书各处中的出现不一定全部指相同的实施例。此外,某些实施例可以利用措辞“联接”和“连接”以及它们的衍生词来描述。这些术语不一定被看作是彼此的同义词。例如,某些实施例可以利用术语“连接”和/或“联接”描述,以表示两个或更多单元相互直接物理接触或电接触。不过,术语“联接”还可以指两个或更多单元互相不直接接触,但仍然互相合作或交互。
[0074] 应强调的是,本说明书的摘要被提供,来使读者快速确定技术说明书的性质。应当理解的是,摘要将不用于解释或限制权利要求的范围或含义。另外,在前述具体实施方式中可以看到,为了简化说明书,在单个实施例中将各种特征组合在一起。该公开方法不应被解释为反映所主张的实施例需要比每个权利要求所明确记载的特征多的特征的意图。相反,如以下权利要求反映的,本发明的主题在于少于单个公开实施例的所有特征。因此,以下权利要求在此被合并到具体实施方式中,其中每个权利要求作为单独实施例独立存在。在所附权利要求中,术语“包含”和“在其中”分别与相应术语“包括”和“其中”在中文意思上等同。此外,术语“第一”、“第二”、“第三”等仅仅用作标记,并不旨在对它们对象强加数字要求。
[0075] 上面已描述的内容包括所公开的架构的示例。当然,不可能描述组件和/或方法的每种可想象的组合,但是本领域的技术人员可以理解,多种进一步的组合和排列是可能的。因此,新颖的架构旨在包含落入所附权利要求的精神和范围内的所有这样的改变、修改和变型。
高效检索全球专利

IPRDB是专利检索,专利查询,专利分析-国家发明专利查询检索分析平台,是提供专利分析,专利查询专利检索等数据服务功能的知识产权数据服务商。

我们的产品包含105个国家的1.26亿组数据,专利查询、专利分析

电话:13651749426

侵权分析

IPRDB的侵权分析产品是IPRDB结合多位一线专利维权律师和专利侵权分析师的智慧,开发出来的一款特色产品,也是市面上唯一一款帮助企业研发人员、科研工作者、专利律师、专利分析师快速定位侵权分析的产品,极大的减少了用户重复工作量,提升工作效率,降低无效或侵权分析的准入门槛。

立即试用