CN104704837A - 三维视频编码中的元素间运动预测的方法及装置 - Google Patents
三维视频编码中的元素间运动预测的方法及装置 Download PDFInfo
- Publication number
- CN104704837A CN104704837A CN201380052148.3A CN201380052148A CN104704837A CN 104704837 A CN104704837 A CN 104704837A CN 201380052148 A CN201380052148 A CN 201380052148A CN 104704837 A CN104704837 A CN 104704837A
- Authority
- CN
- China
- Prior art keywords
- texture
- block
- candidate
- depth
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/527—Global motion vector estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/184—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/189—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
- H04N19/196—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
- H04N19/197—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明的实施例识别对应于当前深度区块的给定视图中的纹理图像的纹理共位区块。从包括纹理候选项的候选项列表中推导合并候选项、运动矢量预测项或者视差矢量预测项的候选项,其中,该纹理候选项是从相应于该纹理共位区块的运动信息中推导的。如果选择该纹理候选项作为合并模式中的该合并候选项,或者选择该纹理候选项作为帧间模式中的该运动矢量预测项或该视差矢量预测项的候选项,对相应于使用该纹理候选项的该当前深度区块的该输入数据进行编码或解码。
Description
相关申请的交叉引用
本申请的权利要求范围要求如下申请的优先权:2012年10月3日递交的申请号为61/744,855,标题为“Inter-Component Motion Prediction for Video Coding”的美国临时案。在此合并参考上述美国临时申请案的全部内容。
技术领域
本发明有关于三维视频编码。更具体地,本发明有关于在三维视频编码中使用相应于纹理图像的运动信息。
背景技术
近年来三维电视已成为技术趋势,其目标在于为观众带来更真实的观看体验。目前已开发各种技术用以致能3D立体视图。且与其他技术相比,多视图(multi-view)视频为3D电视应用的主要技术。传统视频为二维(two-dimensional,2D)媒介,其从摄影机的角度向观众提供场景的单一视图。然而,多视图视频可提供动态场景的任意视点(viewpoint)且为观众提供真实的感官。可对深度图像(depth map)进行编码以渲染(render)三维视图或多视图。
本领域已揭露各种技术以改进3D视频编码的编码效率。也具有发展活动以标准化(standardize)编码技术。例如,国际标准组织(International Organization forStandardization,ISO)内的工作组ISO/IEC JTC1/SC29/WG11正在开发基于3D视频编码标准的高效视频编码(High Efficiency Video Coding,HEVC)。为减少视图间冗余,已采用一种称为视差补偿预测(disparity-compensated prediction,DCP)的技术作为运动补偿预测(motion-compensated prediction,MCP)的替代工具。MCP也称为图像间预测(Inter picture prediction),其使用不同存取单元(access unit,AU)中相同视图的先前编码图像,而DCP参照图像内预测,其使用相同存取单元中其他视图的已编码图像,如图1所示。将用于DCP的矢量称为视差矢量(disparity vector,DV),其对比于MCP中使用的运动矢量(MV)。由视图标识符(view identifier,viewID)指示对应于特定摄像机位置的视频图像(110A)和深度图像(110B)。例如,图1中显示了相应于三个视图(即V0,V1和V2)的视频图像和深度图像。属于相同摄像机位置的所有视频图像和深度图像都相应于同一视图ID。如图1中所示,对视频图像以及深度图像(如果存在的话)进行逐个存取单元的编码。AU(120)包括对应于相同时刻的所有视频图像和深度图像。在对同一AU内部的所有图像(纹理及深度)进行编码之后,对每个图像执行运动数据压缩。在此情形中,对于每个AU,用于AU内部的图像的重建过程可依赖于相应于当前AU的全分辨率运动数据。运动数据压缩将仅影响其他AU的重建过程,其中,其他AU参照相应于当前AU的压缩运动数据。
3D-HEVC为HEVC的扩展,其发展用于编码/解码3D视频。将其中一个视图称为基础视图(base view)或独立视图(independent view),其相对其他视图和深度数据独立编码,使用传统HEVC视频编码器对基础视图中的纹理图像进行编码。
在3D-HEVC版本4.0中,使用合并和跳过模式(Merge and Skip mode)以用于深度编码。对于3D-HEVC中的深度编码,类似于用于纹理元素(texture component)的机制,使用基于混合区块的运动补偿类DCT转换编码结构(hybrid block-basedmotion-compensated DCT-like transform coding architecture)。用于压缩的基本单元,称为编码单元(coding unit,CU),为2NX2N的正方块。每个CU可递归地分割为四个更小的CU直至达到预定义最小尺寸。每个CU包含一或多个预测单元(predictionunit,PU)。PU大小可为2Nx2N,2NxN,Nx2N或NxN。当支持不对称运动分区(asymmetric motion partition,AMP)时,PU大小也可为2NxnU,2NxnD,nLx2N或nRx2N。
对于3D-HEVC中的深度编码,也将应用基于MVC的机制以在给定的MVP/DVP候选项集合中选择一个运动预测项/视差矢量预测项(motion vector predictor/disparityvector predictor,MVP/DVP)。MVP/DVP的候选项集合包括空间和时间MVP/DVP。HTM-4.0中存在三种帧间预测模式,包括帧间、跳过及合并模式。帧间模式以传输的运动矢量/视差矢量(MV/DV)执行运动补偿预测/视差补偿预测,而跳过和合并模式使用运动推断方法(motion inference method)以从位于当前图像中的空间区块或从位于时间共位图像中的时间区块获取运动信息,其中,在片头部(slice header)中对上述信息进行发信。当在跳过或合并模式中对PU进行编码时,除了所选择候选项的索引之外,不传输运动信息。在跳过PU的情形中,也将忽略冗余信息。对于HTM-4.0中的帧间模式,使用先进的运动矢量预测(advanced motion vector prediction,AMVP)机制以从包括两个空间MVP/DVP和一个时间MVP/DVP的AMVP候选项集合中选择运动矢量预测项。对于合并和跳过模式中,使用合并机制以从包括四个空间合并候选项和一个时间合并候选项的合并候选项集合中选择运动矢量预测项。基于率失真优化(rate-distortion optimization,RDO)决定,编码器从用于帧间、跳过或合并模式的MVP/DVP的给定候选项集合内部选择一个最终MVP/DVP,并传输选择的MVP/DVP的索引至解码器。根据时间距离或视图距离对选择的MVP/DVP进行线性缩放。
对于深度编码的帧间模式,直接将参考图像索引传输至解码器。然后在用于既定参考图像索引的候选项集合中选择MVP/DVP。如图2中所示,用于HTM-4.0中帧间模式的MVP/DVP候选项集合包括两个空间MVP/DVP和一个时间MVP/DVP。MVP/DVP候选项集合的大小设定为2:
1.左空间预测项(来自A0,A1的第一可用MV/DV)
2.上空间预测项(来自B0,B1,B2的第一可用MV/DV)
3.时间预测项(来自TBR和TCT的第一可用MV/DV)
4.零候选项(零MV/DV)。
对于3D-HEVC中的深度编码,如果将特定区块编码为合并模式,对合并索引进行索引以指示在合并候选项集合中的哪个MVP/DVP被用于此区块的合并。为遵守运动信息共享或重用的本质,每个合并的PU重用所选候选项的MV、预测方向及参考图像索引。如图2中所示,合并候选项集合包括四个空间合并候选项和一个时间合并候选项。合并候选项集合(也称为候选项列表)的大小设定为5:
1.左空间预测项(A1)
2.上空间预测项(B1)
3.右上空间预测项(B0)
4.左下空间预测项(A0)
5.左上预测项(B2)
6.时间预测项(来自TBR和TCT的第一可用M)
7.额外预测项(双向预测候选项、零候选项)
为智能深度图像数据的有效编码,引入一种新的编码模式,称为运动参数继承,其允许树区块(treeblock)子划分为CU和PU的继承,且从纹理数据(texture data)引入了对应的运动参数。由于视频信号的运动矢量具有四分之一采样的精度,而对于深度图像信号仅使用全采样精度,在继承过程中,将运动矢量量化为其最接近的全采样位置。对于深度图像的每个区块可自适应地决定,是否运动数据为继承自视频信号的共位区块或者传输新的运动数据。对于对MPI编码模式的发信,使用合并/跳过模式语法。对于深度图像编码,通过第一合并候选项指示与来自相应视频信号的对应区块合并的方式来扩展可能的合并候选项的列表。由于随着纹理的CU分割结构一起的运动数据被深度重用,MPI机制引入附加缓存(additional buffer)以存储跨目录(inter-dir)(用于指示预测方向)和分割标志(用于指示CU分割)信息。
图3为用于3D-HEVC中深度编码的MPI示例的示意图。纹理图像312对应于当前图像,且纹理图像310对应于在参考时间时刻的图像。两个纹理图像310和312位于同一视图中。将当前图像312中的区块350(例如PU)划分为四个子区块。运动矢量332和334相应于子区块352和354。深度区块360共位于纹理区块350且和从纹理区块350继承运动参数。相应地,子区块362和364可分别从子区块352和354继承运动参数(例如运动矢量332’和334’)。将当前图像312中的区块370划分为四个子区块。运动矢量336共位于子区块372。深度区块380共位于纹理区块370。深度子区块382并不从纹理共位区块继承运动信息。在此情形中,将运动矢量346自身进行传输以用于对应的深度子区块382。对于发信MPI编码模式,将使用合并/跳过模式语法。对于深度图像编码已扩展可能的合并候选项的列表,从而使第一合并候选项指示与相应视频信号的对应区块进行合并,在此情形中即继承相应视频信号的对应区块的运动信息。
MPI模式可用在深度图的分层(hierarchical)编码树区块的任何层级。如果在深度图编码树的较高层级指示MPI模式,在此较高层级单元中的深度数据可继承CP/PU子分区和来自视频信号的对应运动数据。较高的层级单元可大于用于视频信号的CU大小。相应地,可以规范MPI模式以用于所有的树区块,通常对应于64×64图像采样,且通过继承视频信号的对应区块的CU和PU分区,将深度图像的所有树区块划分为CU和PU。如果在小于或与视频信号的对应CU大小等大小的编码树的层级指示MPI模式,从视频信号仅继承运动数据。当使用MPI模式时,从视频信号不仅继承分区和运动矢量,也继承参考图像指数(picture indice)。因此,需要确保对应于视频参考图像的深度图像在用于深度信号的参考图像缓存中也是可用的。如果使用帧间预测对视频信号的整个区块进行编码,则MPI模式是唯一可能的。由于MPI允许深度区块继承运动矢量、参考索引及CU/PU结构,从而产生了深度元素与纹理元素之间的解析依赖性。此外,需要存储CU/PU结构信息以用于纹理元素。
发明内容
本发明揭示了用于包括纹理合并候选项或纹理MVP/DVP候选项的三维视频编码系统的深度编码的方法及装置。本发明的实施例识别对应于当前深度区块的给定视图中的纹理图像的纹理共位区块。从包括纹理候选项的候选项列表中推导合并候选项、运动矢量预测项或者视差矢量预测项的候选项,其中,该纹理候选项是从相应于该纹理共位区块的运动信息中推导的。如果选择该纹理候选项作为合并模式中的该合并候选项,或者选择该纹理候选项作为帧间(AMVP)模式中的该运动矢量预测项或该视差矢量预测项的候选项,对相应于使用该纹理候选项的该当前深度区块的该输入数据进行编码或解码。
本发明的另一方面解决了确定相应于纹理共位区块的运动信息。在一个实施例中,基于纹理共位区块内部的所选择的纹理子区块的运动信息来选择相应于纹理共位区块的运动信息。选择的纹理子区块可对应于该纹理共位区块的中心点的左上、右上、左下或右下子区块。在一个实施例中,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,将相应于该纹理共位区块的合并候选项或MVP/DVP候选项看作不可用。在另一个实施例中,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,相应于该纹理共位区块的运动信息对应于该纹理共位区块内的一第二选择的纹理子区块的运动信息。在另一个实施例中,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,相应于该纹理共位区块的运动信息对应于邻近该纹理共位区块的相邻纹理子区块的运动信息。如果选择该纹理共位区块作为该合并模式中的该合并候选项,由该当前深度预测单元重用该选择的纹理子区块的运动矢量、参考图像索引及参考列表,或从该选择的纹理子区块的运动矢量、参考图像索引及参考列表中推导当前深度PU的运动信息。
可将相应于纹理共位区块的合并候选项或MVP/DVP候选项放置在候选项列表的第一位置以用于候选项推导。如果纹理运动信息具有更高的分辨率,将用于纹理元素的运动信息舍入为与该深度元素的运动信息相同的分辨率,以用于当前深度区块的重用。例如,如果纹理运动信息具有四分之一像素精度,而深度运动矢量具有更高的分辨率,将纹理运动矢量舍入为整数精度以用于深度区块的重用。可在比特流的序列层、图像层或片层对语法元素进行发信以指示是否该候选项列表包括用于推导该合并候选项或者该运动矢量预测项或视差矢量预测项的候选项的该纹理候选项。当选择该纹理候选项时,该当前深度区块的数据分割结构(例如CU或PU分割结构)独立于该纹理共位区块的数据分割结构。
附图说明
图1为基于MCP和DCP的三维视频编码系统的编码结构的示意图,其中,同一时间时刻内的纹理和深度图像被组合在一个AU单元中。
图2为基于先前编码的空间和时间区块的包括MVP/DVP的候选项集合的示意图。
图3为基于HTM-4.0的HEVC中采用的运动参数继承的示意图。
图4为对应于当前深度区块的纹理共位区块和纹理共位子区块的示意图。
图5为被对应深度区块重用的来自纹理共位区块的运动信息的示意图。
图6为根据本发明一个实施例的包括纹理合并候选项或纹理MVP/DVP候选项的系统的示意流程图。
具体实施方式
如上所述,现有的用于深度数据的3D视频编码可使用运动参数继承(MontionParameter Inheritance,MPI)以允许深度区块从纹理区块继承运动参数和CU/PU分割结构(splitting structure).MPI技术具有深度数据与纹理数据之间的解析依赖度(parsing dependency)的缺陷。可将MPI作为用于3D视频编码系统中的深度数据编码的运动矢量竞争(Motion Vector Competition,MVC)机制的候选项。在此情形中,MVC为从包括MPI的MVP/DVP的一个给定候选项集合之中选择一个MVP/DVP。在用于深度数据的合并候选项推导过程中,空间或时间候选项都基于深度数据。因此,MVC技术忽略了对应于同一场景的纹理元素(component)与深度元素之间的关联。
在本发明中,揭示一种用于深度编码的运动矢量/视差矢量预测机制,其中,使用纹理图像的运动信息来预测深度数据的运动信息(例如,MV/DV、参考索引或预测方向)。
在一个实施例中,当对深度PU进行编码时,深度PU可使用在同一时刻的纹理图像的共位区块的运动信息以推导用于合并模式(Merge mode)的合并候选项,或推导用于先进运动矢量预测模式(AMVP mode)的MVP/DVP候选项。在本揭露书的剩余部分中,将使用纹理共位区块(texture collocated block)以表示相同时刻的纹理图像中的共位区块。推导纹理共位区块的不同示例描述如下:
纹理共位区块推导示例。如图4所示,可基于纹理共位区块内部的任何4X4子区块的运动信息推导相应于纹理共位区块的运动信息。例如,可选择左上子区块(即图4中的TL)、中心区块(即图4中的CT)或右下区块(即图4中的BR)且使用相应的运动信息用于深度编码。在此揭露书中,子区块项无需为从纹理共位区块划分的一个部分,子区块用于描述撷取运动信息的位置。
在另一个实施例中,从纹理共位区块中推导用于深度区块的合并候选项,且候选项成为纹理合并候选项。如果选择该纹理合并候选项,合并PU推导或重用(re-use)运动信息(例如纹理共位区块的MV、预测方向及参考图像索引)。
根据本发明的另一实施例,可以预定顺序检测多个纹理共位子区块。推导纹理合并候选项的过程将检查每个纹理共位子区块。如果相应于第一纹理共位子区块的MV/DV不可用,该过程继续根据下一个纹理共位子区块推导候选项直至有有效MV/DV可用或者检查了所有纹理共位子区块。无效情况可对应于纹理共位子区块为帧内编码,纹理共位子区块的参考图像在当前视图中无对应的深度图像,或者当前视图中的对应深度图像不可用的上述情况。示例的检查顺序如下所列,其中,子区块位置如图4中所示:
检查顺序1:CT
检查顺序2:TL
检查顺序3:BR
检查顺序4:CT→BR
检查顺序5:BR→CT
检查顺序6:CT→TL
检查顺序7:CT→BR→TL
在一些实施例中,允许多于一个纹理合并候选项,例如,候选项集合中包括从纹理共位区块的中心位置中推导的一个纹理合并候选项和从纹理共位区块的右下位置中推导的另一个纹理合并候选项。
当选择纹理合并候选项以编码深度区块时,如图5中所示,深度图像(510)中的深度区块(512)的运动信息重用纹理图像(520)的纹理共位区块(522)的运动信息。纹理共位区块(522)可包括多个子区块。纹理共位区块(522)的运动信息可从纹理共位区块(522)的子区块(524)中选择。例如,子区块可对应于位于该纹理共位区块的中心点的右下位置的子区块。然而,也可使用例如左上、右上或左下子区块的其他子区块。运动信息可包括运动矢量、参考图像索引及参考列表。可将纹理合并候选项放置在合并候选项列表的任何位置中。例如,如果纹理合并候选项可用,其可放置在左候选项之前的第一个位置,其中,区块位置如图2中所示。
1.纹理合并候选项
2.左预测项(A1)
3.上预测项(B1)
4.右预测项之上(B0)
5.左预测项之下(A0)
6.左上预测项(B2)
7.时间预测项(来自TBR和TCT的第一可用MV/DV)
8.额外预测项(双向预测候选项、零候选项)
在另一个实施例中,将从纹理共位区块推导的AMVP候选项称为纹理MVP/DVP候选项。推导纹理MVP/DVP候选项的两个示例方法描述如下:
纹理MVP/DVP候选项推导示例1。对于给定的目标参考图像和参考列表,查找顺序如下:
1.查找指向给定参考列表内部的目标参考图像的MV/DV。如果MV/DV可用,将MV/DV设置为MVP/DVP候选项且终止该过程;否则,进行下一步。
2.查找指向另一参考列表内部的目标参考图像的MV/DV。如果MV/DV可用,将MV/DV设置为MVP/DVP候选项且终止该过程;否则,将MVP/DVP候选项设置为不可用。
纹理MVP/DVP候选项推导示例2。对于给定的目标参考图像和参考列表,查找顺序如下:
1.查找指向给定参考列表内部的目标参考图像的MV/DV。如果MV/DV可用,将MV/DV设置为MVP/DVP候选项且终止该过程;否则,进行下一步。
2.查找指向另一参考列表内部的目标参考图像的MV/DV。如果MV/DV可用,将MV/DV设置为MVP/DVP候选项且终止该过程;否则,进行下一步。
3.查找指向给定参考列表内部的另一参考图像的MV/DV。如果MV/DV可用,根据POC距离对MV/DV进行缩放,将缩放的MV/DV设置为MVP/DVP候选项且终止该过程;否则,进行下一步。
4.查找指向另一参考列表内部的另一参考图像的MV/DV。如果MV/DV可用,根据POC距离对MV/DV进行缩放,将缩放的MV/DV设置为MVP/DVP候选项且终止该过程;否则,将MVP/DVP候选项设置为不可用。
在上述推导方法中,可交换步骤2和步骤3以提供另一种查找顺序。可将纹理MVP/DVP候选项放置在用于帧间模式的MVP/DVP候选项列表的任意位置。例如,如果纹理MVP/DVP候选项可用,其可放置在左候选项之前的第一个位置:
1.纹理MVP/DVP候选项
2.左预测项(来自A0,A1的第一可用MV/DV)
3.上预测项(来自B0,B1,B2的第一可用MV/DV)
4.时间预测项(来自TBR和TCT的第一可用MV/DV)
5.零候选项(零MV)
纹理元素的MV/DV精度可比深度元素的精度更精细。存在多种方式将用于纹理元素的较高MV/DV精度转换为用于深度元素的较低MV/DV精度。两个示例如下所列:
1.将纹理MV/DV截取(truncate)为深度MV/DV的精度,以及
2.将纹理MV/DV舍入(round)为深度MV/DV的精度。
可在比特流的序列层、图像层或片层对语法元素进行发信以指示是否使用该纹理合并候选项或者该纹理MVP/DVP候选项。
在用于纹理元素和深度元素的合并候选项推导过程中,HTM-4.0使用基于MVC的机制以选择合并候选项集合。对于视图间预测,HTM-4.0对于纹理元素和深度元素使用非常不同的方式。对于纹理元素,使用视图间候选项。然而,对于深度元素,使用MPI机制,其为MVC的替代。本发明提供协调的方法以确定仅基于候选项的运动信息重用。表格1显示了HTM-4.0与本发明一个实施例之间的运动信息重用的比较。如前所述,根据本发明的一个实施例,合并候选项中包括纹理合并候选项。尽管在HTM-4.0中MPI出现在合并候选项集合中,MPI并不是候选项。当选择MPI模式时,编码器使用合并/跳过模式语法以对MPI编码模式的致能(enable)/禁能(disable)进行发信。因此可通知解码器使用MPI模式而非合并/跳过/帧间模式来解码当前深度区块。当使用MPI模式编码深度数据时,深度数据也重用纹理数据的数据分割结构(data splitting structure)。本发明的纹理合并候选项遵守合并/跳过模式,其从纹理共位区块中仅推导运动信息,而深度区块的数据分割结构(例如CU/PU分割结构)与纹理共位区块的数据分割结构不相关。
表格1
表格2中显示了将包括本发明实施例的系统性能与基于HTM-4.0的锚定系统(anchor system)的性能相比较。基于第一列中所列的不同组测试数据执行性能比较。第二至四列显示了BD率的差异,且BD率中的负值意味着本发明具有更佳的性能。第一组的性能为用于仅纹理视频、仅合成视频以及编码和合成视频的比特率测量。如表格2中所示,用于仅合成视频以及编码和合成视频的改进约为0.2%。也进行处理时间(编码时间、解码时间及渲染时间)。如表格2所示,编码时间、解码时间及渲染时间都得到了轻微的改进。
表格2
图6为用于根据本发明一个实施例的包括纹理合并候选项或纹理MVP/DVP候选项的三维编码系统的流程图。在步骤610中,系统接收相应于给定视图中的深度图像的当前深度区块的输入数据;输入数据也可从处理器中接收,其中处理器可例如控制器、中央处理器、数字信号处理器或推导输入数据的电子电路。如步骤620中所示,识别对应于该深度图像的该当前深度区块的该定视图中的纹理图像的纹理共位区块。如步骤630中所示,确定相应于该纹理共位区块的第一运动信息。如步骤640中所示,从候选项列表中推导合并候选项或者MVP/DVP候选项,其中,该候选项列表包括纹理候选项。如步骤650中所示,如果选择该纹理候选项作为合并模式中的合并候选项,或者选择该纹理候选项作为帧间模式中的MVP/DVP候选项,对相应于使用该纹理候选项的该当前深度区块的该输入数据进行编码或解码。
上述的流程图意在描述根据本发明一个实施例的包括纹理合并候选项或纹理MVP/DVP候选项的三维编码系统的示例。所属领域技术人员可修改每个步骤、重排步骤、分割步骤或组合步骤以在不脱离本发明精神的范围内实现本发明。
上述的叙述以足够的细节叙述使本领域技术人员能藉由上述的描述实施本发明所揭露的系统以及方法。对本领域技术人员而言,对上述实施例的各种修改为显而易见的,以及本发明所定义的原理亦可应用于其它实施例中。因此,前述的实施例并非用于限定本发明范围,但符合本发明所揭露的原理以及新颖特征的最大范围。在上述的详细描述中,所描述的各种特定细节用于彻底理解本发明。然而,本领域技术人员皆可理解并实施上述特定细节。
前述本发明的示范实施例可透过各种硬件、软件件编码或者两者的结合实现。举例来说,本发明一个实施例可为嵌入于视频压缩晶片中的电路或者嵌入于视频压缩软件之程式编码以执行本发明所述之程序。本发明一实施例亦可为数位信号处理器所执行之程式编码以执行本发明所述之程序。本发明亦可包括由电脑处理器、数位信号处理器、微处理器或者现场可编辑逻辑闸阵列(field programmable gate array,FPGA)所执行之复数功能。上述之处理器系透过定义本发明之特定方法之电脑可读取软件编码或者韧体编码执行特定任务。软件编码或者韧体编码可为不同之程式语言以及不同之格式或者类型。亦可对不同之目标平台编译软件编码。无论如何,根据本发明之软件编码的不同编码格式、类型以及语言以及用于执行任务的其它配置编码将不脱离本发明的精神以及范围。
在不脱离本发明的精神以及范围内,本发明可以其它特定格式呈现。所描述的实施例在所有方面仅用于说明的目的而并非用于限制本发明。本发明的保护范围当视后附的权利要求所界定者为准。本领域技术人员皆在不脱离本发明之精神以及范围内做些许更动与润饰。
Claims (16)
1.一种三维视频编码系统中的深度编码方法,该方法包括:
接收相应于给定视图中的深度图像的当前深度区块的输入数据;
识别对应于该深度图像的该当前深度区块的该给定视图中的纹理图像的纹理共位区块;
确定相应于该纹理共位区块的第一运动信息;
从候选项列表中推导合并候选项,或者运动矢量预测项或视差矢量预测项的候选项,其中,该候选项列表包括从相应于该纹理共位区块的该第一运动信息中推导的纹理候选项;以及
如果选择该纹理候选项作为合并模式中的该合并候选项,或者选择该纹理候选项作为基于先进运动矢量预测的该运动矢量预测项或该视差矢量预测项的候选项,对相应于使用该纹理候选项的该当前深度区块的该输入数据进行编码或解码。
2.如权利要求1所述的方法,其特征在于,相应于该纹理共位区块的该第一运动信息对应于该纹理共位区块内的一选择的纹理子区块的第二运动信息。
3.如权利要求2所述的方法,其特征在于,该选择的纹理子区块对应于该纹理共位区块的中心点的左上、右上、左下或右下子区块。
4.如权利要求2所述的方法,其特征在于,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,相应于该纹理共位区块的该纹理候选项为不可用。
5.如权利要求2所述的方法,其特征在于,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,相应于该纹理共位区块的该第一运动信息对应于该纹理共位区块内的一第二选择的纹理子区块的第三运动信息。
6.如权利要求2所述的方法,其特征在于,如果该选择的纹理子区块为帧内编码或该选择的纹理子区块的参考图像在该给定视图中无对应的深度图像,相应于该纹理共位区块的该第一运动信息对应于邻近该纹理共位区块的相邻纹理子区块的第三运动信息。
7.如权利要求2所述的方法,其特征在于,如果选择该纹理候选项作为该合并模式中的该合并候选项,从相应于该选择的纹理子区块的该第二运动信息中推导该当前深度区块的运动矢量、参考图像索引及参考列表。
8.如权利要求2所述的方法,其特征在于,如果选择该纹理候选项作为该合并模式中的该合并候选项,由该当前深度区块重用该选择的纹理子区块的运动矢量、参考图像索引及参考列表,且该当前深度区块对应于深度预测单元。
9.如权利要求1所述的方法,其特征在于,在用于该合并模式或帧间模式模式的该候选项列表中将该纹理候选项放置在第一位置。
10.如权利要求1所述的方法,其特征在于,如果相应于该纹理共位区块的该第一运动信息比该当前深度区块的该运动信息具有更高的分辨率,将该第一运动信息舍入为与该当前深度区块的该运动信息具有相同的分辨率,以用于该当前深度区块的重用。
11.如权利要求10所述的方法,其特征在于,相应于该纹理共位区块的第一运动矢量具有四分之一像素精度且将该第一运动矢量舍入为整数精度且由该当前深度区块使用。
12.如权利要求1所述的方法,其特征在于,在比特流的序列层、图像层或片层对语法元素进行发信以指示是否该候选项列表包括用于推导该合并候选项或者该运动矢量预测项或视差矢量预测项的候选项的该纹理候选项。
13.如权利要求1所述的方法,其特征在于,如果该第一运动矢量或视差矢量指向给定参考列表内部的给定目标参考图像,使用相应于该纹理共位区块的第一运动矢量或视差矢量作为该运动矢量预测项或视差矢量预测项的候选项。
14.如权利要求13所述的方法,其特征在于,如果没有该第一运动矢量或视差矢量指向该给定参考列表内部的该给定目标参考图像,且该第二运动矢量或视差矢量指向另一参考列表内部的该给定目标参考图像,使用相应于该纹理共位区块的第二运动矢量或视差矢量作为该运动矢量预测项或视差矢量预测项的候选项。
15.如权利要求1所述的方法,其特征在于,当选择该纹理候选项作为该合并模式中的该合并候选项,或者选择该纹理候选项作为帧间模式中的该运动矢量预测项或该视差矢量预测项的候选项时,该当前深度区块的数据分割结构独立于该纹理共位区块的数据分割结构。
16.一种三维第二运动矢量视频编码系统中的深度编码装置,该装置包括一或多个电子电路,且该一或多个电子电路用于:
接收相应于给定视图中的深度图像的当前深度区块的输入数据;
识别对应于该深度图像的该当前深度区块的该给定视图中的纹理图像的纹理共位区块;
确定相应于该纹理共位区块的第一运动信息;
从候选项列表中推导合并候选项,或者运动矢量预测项或视差矢量预测项的候选项,其中,该候选项列表包括从相应于该纹理共位区块的该第一运动信息中推导的纹理候选项;以及
如果选择该纹理候选项作为合并模式中的该合并候选项,或者选择该纹理候选项作为基于先进运动矢量预测的该运动矢量预测项或该视差矢量预测项的候选项,对相应于使用该纹理候选项的该当前深度区块的该输入数据进行编码或解码。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201261744855P | 2012-10-03 | 2012-10-03 | |
| US61/744,855 | 2012-10-03 | ||
| PCT/CN2013/084472 WO2014053095A1 (en) | 2012-10-03 | 2013-09-27 | Method and apparatus for inter-component motion prediction in three-dimensional video coding |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN104704837A true CN104704837A (zh) | 2015-06-10 |
Family
ID=50434365
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201380052148.3A Pending CN104704837A (zh) | 2012-10-03 | 2013-09-27 | 三维视频编码中的元素间运动预测的方法及装置 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10110915B2 (zh) |
| EP (1) | EP2904794A4 (zh) |
| CN (1) | CN104704837A (zh) |
| CA (1) | CA2887106A1 (zh) |
| WO (1) | WO2014053095A1 (zh) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111316646A (zh) * | 2019-01-02 | 2020-06-19 | 北京大学 | 候选mv列表构建方法和装置 |
| WO2020259589A1 (en) * | 2019-06-25 | 2020-12-30 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for inter-frame prediction |
| CN114466193A (zh) * | 2016-03-16 | 2022-05-10 | 联发科技股份有限公司 | 视频编码的样式基础的运动向量推导之方法及装置 |
| CN116567226A (zh) * | 2016-08-11 | 2023-08-08 | Lx 半导体科技有限公司 | 图像编码/解码设备和图像数据的发送设备 |
Families Citing this family (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014053090A1 (en) * | 2012-10-03 | 2014-04-10 | Mediatek Inc. | Method and apparatus of disparity vector derivation and inter-view motion vector prediction for 3d video coding |
| US9699450B2 (en) * | 2012-10-04 | 2017-07-04 | Qualcomm Incorporated | Inter-view predicted motion vector for 3D video |
| KR20150095808A (ko) * | 2012-12-14 | 2015-08-21 | 퀄컴 인코포레이티드 | 비대칭적 공간 해상도를 갖는 텍스처 및 심도 뷰 컴포넌트들 사이의 인사이드 뷰 모션 예측 |
| CN104919799A (zh) * | 2013-01-07 | 2015-09-16 | 联发科技股份有限公司 | 用于三维视频编解码的从深度到视差矢量转换的方法和装置 |
| WO2015000108A1 (en) * | 2013-07-01 | 2015-01-08 | Mediatek Singapore Pte. Ltd. | An improved texture merging candidate in 3dvc |
| WO2015196424A1 (en) * | 2014-06-26 | 2015-12-30 | Mediatek Inc. | Methods for the transmission of flags related to dbbp |
| WO2015192314A1 (en) * | 2014-06-17 | 2015-12-23 | Mediatek Singapore Pte. Ltd. | A simplified method for depth based block partitioning |
| WO2015192781A1 (en) * | 2014-06-20 | 2015-12-23 | Mediatek Singapore Pte. Ltd. | Method of sub-pu syntax signaling and illumination compensation for 3d and multi-view video coding |
| US10812822B2 (en) | 2015-10-02 | 2020-10-20 | Qualcomm Incorporated | Intra block copy merge mode and padding of unavailable IBC reference region |
| CA3145758A1 (en) * | 2016-10-11 | 2018-04-19 | Lg Electronics Inc. | Image decoding method and apparatus relying on intra prediction in image coding system |
| EP3349451A1 (en) * | 2017-01-11 | 2018-07-18 | Thomson Licensing | Method and apparatus for selecting a coding mode used for encoding/decoding a residual block |
| WO2019002215A1 (en) * | 2017-06-26 | 2019-01-03 | Interdigital Vc Holdings, Inc. | MULTIPLE PREDICTION CANDIDATES FOR MOTION COMPENSATION |
| CN118175291A (zh) | 2017-09-29 | 2024-06-11 | Lx 半导体科技有限公司 | 图像编码方法、图像解码方法、存储介质和发送方法 |
| WO2020024966A1 (en) * | 2018-07-31 | 2020-02-06 | Mediatek Inc. | Method and apparatus of merge with motion vector difference for video coding |
| US11317090B2 (en) * | 2019-08-12 | 2022-04-26 | Tencent America LLC | Method and apparatus for video coding |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101785317A (zh) * | 2007-08-15 | 2010-07-21 | 汤姆逊许可证公司 | 使用区域视差向量的多视角编码视频中的运动跳过模式的方法和装置 |
| CN102055982A (zh) * | 2011-01-13 | 2011-05-11 | 浙江大学 | 三维视频编解码方法及装置 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7170934B2 (en) * | 2002-12-20 | 2007-01-30 | Lsi Logic Corporation | Method and/or apparatus for motion estimation using a hierarchical search followed by a computation split for different block sizes |
| US20050185711A1 (en) * | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
| US7522774B2 (en) * | 2004-03-10 | 2009-04-21 | Sindhara Supermedia, Inc. | Methods and apparatuses for compressing digital image data |
| KR100587562B1 (ko) * | 2004-04-13 | 2006-06-08 | 삼성전자주식회사 | 비디오 프레임에 대한 움직임 추정 방법 및 비디오 인코더 |
| US8953684B2 (en) * | 2007-05-16 | 2015-02-10 | Microsoft Corporation | Multiview coding with geometry-based disparity prediction |
| WO2010043773A1 (en) * | 2008-10-17 | 2010-04-22 | Nokia Corporation | Sharing of motion vector in 3d video coding |
| WO2010093430A1 (en) * | 2009-02-11 | 2010-08-19 | Packetvideo Corp. | System and method for frame interpolation for a compressed video bitstream |
| CN101742349B (zh) | 2010-01-05 | 2011-07-20 | 浙江大学 | 一种对三维场景的表达方法及其电视系统 |
| US20120236934A1 (en) * | 2011-03-18 | 2012-09-20 | Qualcomm Incorporated | Signaling of multiview video plus depth content with a block-level 4-component structure |
| WO2013030456A1 (en) | 2011-08-30 | 2013-03-07 | Nokia Corporation | An apparatus, a method and a computer program for video coding and decoding |
| WO2013068548A2 (en) * | 2011-11-11 | 2013-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Efficient multi-view coding using depth-map estimate for a dependent view |
-
2013
- 2013-09-27 US US14/433,344 patent/US10110915B2/en active Active
- 2013-09-27 CA CA2887106A patent/CA2887106A1/en active Pending
- 2013-09-27 WO PCT/CN2013/084472 patent/WO2014053095A1/en not_active Ceased
- 2013-09-27 EP EP13843889.0A patent/EP2904794A4/en not_active Withdrawn
- 2013-09-27 CN CN201380052148.3A patent/CN104704837A/zh active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101785317A (zh) * | 2007-08-15 | 2010-07-21 | 汤姆逊许可证公司 | 使用区域视差向量的多视角编码视频中的运动跳过模式的方法和装置 |
| CN102055982A (zh) * | 2011-01-13 | 2011-05-11 | 浙江大学 | 三维视频编解码方法及装置 |
Non-Patent Citations (2)
| Title |
|---|
| GERHARD TECH ET AL: "《JCT-3V MEETING》", 20 September 2012 * |
| HAN OH AND YO-SUNG HO: "《ADVANCES IN IMAGE AND VIDEO TECHNOLOGY LECTURE NOTES IN COMPUTER SCIENCE》", 1 January 2006 * |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114466193A (zh) * | 2016-03-16 | 2022-05-10 | 联发科技股份有限公司 | 视频编码的样式基础的运动向量推导之方法及装置 |
| CN116567226A (zh) * | 2016-08-11 | 2023-08-08 | Lx 半导体科技有限公司 | 图像编码/解码设备和图像数据的发送设备 |
| CN111316646A (zh) * | 2019-01-02 | 2020-06-19 | 北京大学 | 候选mv列表构建方法和装置 |
| WO2020140221A1 (zh) * | 2019-01-02 | 2020-07-09 | 北京大学 | 候选mv列表构建方法和装置 |
| KR20210104907A (ko) * | 2019-01-02 | 2021-08-25 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 후보 mv 리스트 구성 방법 및 장치 |
| KR102828450B1 (ko) | 2019-01-02 | 2025-07-01 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 후보 mv 리스트 구성 방법 및 장치 |
| WO2020259589A1 (en) * | 2019-06-25 | 2020-12-30 | Zhejiang Dahua Technology Co., Ltd. | Systems and methods for inter-frame prediction |
Also Published As
| Publication number | Publication date |
|---|---|
| US20150208086A1 (en) | 2015-07-23 |
| CA2887106A1 (en) | 2014-04-10 |
| WO2014053095A1 (en) | 2014-04-10 |
| US10110915B2 (en) | 2018-10-23 |
| EP2904794A4 (en) | 2016-03-09 |
| EP2904794A1 (en) | 2015-08-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN104704837A (zh) | 三维视频编码中的元素间运动预测的方法及装置 | |
| AU2013330031B2 (en) | Method and apparatus for motion information prediction and inheritance in video coding | |
| KR101706309B1 (ko) | 3차원 비디오 코딩을 위한 뷰간 후보자 유도 방법 및 장치 | |
| US9998755B2 (en) | Method and apparatus for motion information inheritance in three-dimensional video coding | |
| CA2920413C (en) | Method of deriving default disparity vector in 3d and multiview video coding | |
| CN104301739B (zh) | 多视点视频编码方法 | |
| CN104521236B (zh) | 三维视频编码或解码方法 | |
| CN106464907B (zh) | 运动合并模式下消除视点合成预测候选冗余的装置和方法 | |
| CA2896905C (en) | Method and apparatus of view synthesis prediction in 3d video coding | |
| CN103597837A (zh) | 运动和视差矢量预测的方法及装置以及3d视频编码补偿 | |
| KR101709649B1 (ko) | 3d 비디오 코딩에서의 인터 뷰 모션 벡터 예측과 변이 벡터 예측의 방법 및 장치 | |
| CA2921759C (en) | Method of motion information prediction and inheritance in multi-view and three-dimensional video coding | |
| WO2014029086A1 (en) | Methods to improve motion vector inheritance and inter-view motion prediction for depth map | |
| RU2828826C2 (ru) | Способ декодирования изображения, способ кодирования изображения и машиночитаемый носитель информации | |
| WO2014023024A1 (en) | Methods for disparity vector derivation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| C10 | Entry into substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| C41 | Transfer of patent application or patent right or utility model | ||
| TA01 | Transfer of patent application right |
Effective date of registration: 20160826 Address after: Hsinchu County, Taiwan, China Applicant after: Atlas Limited by Share Ltd Address before: Hsinchu Science Park, Taiwan, China Applicant before: MediaTek.Inc |
|
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150610 |
|
| RJ01 | Rejection of invention patent application after publication |