CN116456110A - 视频编解码方法及装置 - Google Patents
视频编解码方法及装置 Download PDFInfo
- Publication number
- CN116456110A CN116456110A CN202310039436.0A CN202310039436A CN116456110A CN 116456110 A CN116456110 A CN 116456110A CN 202310039436 A CN202310039436 A CN 202310039436A CN 116456110 A CN116456110 A CN 116456110A
- Authority
- CN
- China
- Prior art keywords
- motion vector
- affine
- neighborhood
- motion
- current block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/119—Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本公开提供了一种视频编解码方法和相关装置。视频编解码方法包括接收与当前块相关联的输入数据;从当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;基于一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换目标邻域运动矢量;生成仿射合并列表或仿射高级运动矢量预测列表,其中一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及使用从仿射合并列表或仿射高级运动矢量预测列表中选择的运动候选对当前块进行编码或解码。本发明的视频编解码方法和相关装置减少了存储需求。
Description
【技术领域】
本发明涉及使用运动估计和运动补偿的视频编解码。更具体地,本发明涉及使用具有非相邻候选(non-adjacent candidate)的仿射模式(affine mode)的系统的复杂度降低。
【背景技术】
除非本文另有说明,否则本节中描述的方法不是下面列出的权利要求的现有技术,并且不因包含在本节中而被承认为现有技术。
通用视频编解码(VVC)是由ITU-T视频编解码专家组(VCEG)和ISO/IEC运动图像专家组的联合视频专家组(JVET)制定的最新国际视频编解码标准(MPEG)。该标准已作为ISO标准发布:ISO/IEC 23090-3:2021,Information technology-Coded representation ofimmersive media-Part 3:Versatile video coding,2021年2月发布。通过基于其前身HEVC(High Efficiency Video coding),添加更多编解码工具来提高编解码效率,并处理各种类型的视频源,包括3维(3D)视频信号,发展处发展出VVC。
图1A说明了包含循环处理的示例性适应性帧间/帧内(adaptive Inter/Intra)视频编解码系统。对于帧内预测,预测数据是根据当前图片(在后文中也称为画面)中先前编解码的视频数据导出的。对于帧间预测112,在编码器侧执行运动估计(MotionEstimation,简写为ME)并且基于ME的结果执行运动补偿(Motion Compensation,简写为MC)以提供从其他画面和运动数据导出的预测数据。开关114选择帧内预测110或帧间预测112并且所选择的预测数据被提供给加法器116以形成预测误差,也称为残差(residual)。预测误差然后由变换(T)118和随后的量化(Q)120处理。变换和量化的残差然后由熵编码器122编码以包括在对应于压缩视频数据的视频位流中。然后,与变换系数相关联的位流将与辅助信息(side information)(例如与帧内预测和帧间预测相关联的运动和解码模式)以及其他信息(例如与应用于底层图像区域(underlying image area)的环路滤波器相关联的参数)一起打包。与帧内预测110、帧间预测112和环路滤波器130相关联的辅助信息被提供给熵编码器122,如图1A所示。当使用帧间预测模式时,也必须在编码器端重建一个或多个参考图片。因此,经变换和量化的残差由逆量化(IQ)124和逆变换(IT)126处理以恢复残差。然后在重建(REC)128处将残差加回到预测数据136以重建视频数据。重建的视频数据可以存储在参考图片缓冲器134中并用于预测其他帧。
如图1A所示,输入的视频数据在编码系统中经过一系列处理。由于一系列处理,来自REC 128的重建的视频数据可能会受到各种损害。因此,环路滤波器130经常在重建的视频数据被存储在参考图片缓冲器134中之前应用于重建的视频数据以提高视频质量。例如,可以使用去块滤波器(deblocking filter,简写为DF)、样本适应性偏移(Sample AdaptiveOffset,简写为SAO)和适应性环路滤波器(Adaptive Loop Filter,简写为ALF)。可能需要将环路滤波器信息合并到位流中,以便解码器可以正确地恢复所需的信息。因此,环路滤波器信息也被提供给熵编码器122以合并到位流中。在图1A中,环路滤波器130在重建样本被存储在参考图片缓冲器134中之前被应用于重建的视频。图1A中的系统旨在说明典型视频编码器的示例性结构。它可能对应于高效视频编解码(HEVC)系统、VP8、VP9、H.264或VVC。
如图1B所示,除了变换118和量化120之外,解码器可以使用与编码器相似或相同的功能块,因为解码器只需要逆量化124和逆变换126。取代熵编码器122,解码器使用熵解码器140将视频位流解码为量化的变换系数和需要的编解码信息(例如ILPF信息、帧内预测信息和帧间预测信息)。解码器侧的帧内预测150不需要执行模式搜索。相反,解码器仅需要根据从熵解码器140接收的帧内预测信息生成帧内预测。此外,对于帧间预测,解码器仅需要根据从熵解码器140接收的帧间预测信息执行运动补偿(MC 152)而无需运动估计。
根据VVC,与HEVC类似,输入图片被划分(partition)为称为CTU(编解码树单元)的非重叠方形块区域。每个CTU可以划分为一个或多个更小的编解码单元(CU)。生成的CU分区可以是正方形或矩形。此外,VVC将CTU划分为预测单元(PU),作为应用预测处理的单元,例如帧间预测、帧内预测等。
VVC标准结合了各种新的编解码工具,以进一步在HEVC标准基础上提高编解码效率。在各种新的编解码工具中,与本发明相关的一些编解码工具综述如下。
仿射光流(Affine Optical Flow)
当编解码单元(CU)被仿射模式编解码时,编解码单元被划分为4x4的子块,并且对于每个子块,基于仿射模型导出一个运动矢量并执行运动补偿以生成相应的预测子(predictor)。使用4x4块作为一个子块而不是使用其他更小尺寸的原因是为了在运动补偿的计算复杂性和编解码效率之间实现良好的折衷。为了提高编解码效率,JVET-N0236(J.Luo等人,“CE2-related:Prediction refinement with optical flow for affinemode”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11的联合视频专家组(JVET),第14次会议:瑞士日内瓦,2019年3月19-27日,文件:JVET-N0236)、JVET-N0261(K.Zhang等人,“CE2-1.1:Interweaved Prediction for Affine Motion Compensation”,ITU-T SG 16WP3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET),第14次会议:瑞士日内瓦,2019年3月19-27日,文件:JVET-N0261),and JVET-N0262(H.Huang等人,“CE9-related:Disabling DMVR for non equal weight BPWA”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC29/WG 11的联合视频专家组(JVET),第14次会议:瑞士日内瓦,2019年3月19-27日,文件:JVET-N0262)公开了几种方法。
在JVET-N0236中,为了实现更细粒度(finer granularity)的运动补偿,文稿(contribution)提出了一种使用光流细化基于子块的仿射运动补偿预测的方法。在执行基于子块的仿射运动补偿后,通过添加由光流方程导出的差值来细化亮度预测样本。所提出的使用光流的预测细化(Prediction Refinement with Optical Flow,简写为PROF)被描述为以下四个步骤。步骤1),执行基于子块的仿射运动补偿以生成子块预测(sub-blockprediction)I(i,j)。步骤2),使用3抽头(3-tap)滤波器[-1,0,1]在每个样本位置计算子块预测的空间梯度gx(i,j)和gy(i,j)。
gx(i,j)=I(i+1,j)-I(i-1,j),且
gy(i,j)=I(i,j+1)-I(i,j-1)。
子块预测在每一侧扩展一个像素以进行梯度计算(gradient calculation)。为了减少内存带宽和复杂性,扩展边界上的像素是从参考图片中最近的整数像素位置复制的。因此,避免了对填充区域的额外插值(interpolation)。步骤3),亮度预测细化由光流方程计算。
ΔI(i,j)=gx(i,j)*Δvx(i,j)+gy(i,j)*Δvy(i,j)
其中Δv(i,j)是为样本位置(i,j)计算的像素MV(由v(i,j)表示)与像素(i,j)所属的块210的子块220的子块MV(表示为vSB(212))之间的差异,如图2所示。在图2中,子块222对应于由运动矢量vSB(212)指向的子块220的参考子块。参考子块222表示由块220的平移运动产生的参考子块。参考子块224对应于具有PROF的参考子块。每个像素的运动矢量由Δv(i,j)细化。例如,基于由Δv(i,j)216修改的子块MV vSB(212)导出子块220的左上像素的细化的运动矢量v(i,j)214。
由于仿射模型参数和相对于子块中心的像素位置在子块与子块之间没有改变,因此可以为第一个子块计算Δv(i,j),并重新用于同一个CU中的其他子块。令x和y为从像素位置到子块中心的水平和垂直偏移,Δv(x,y)可以通过以下等式导出,
对于4参数仿射模型(4-parameter affine model),参数c和e可以通过以下等式导出:
对于6参数仿射模型(6-parameter affine model),参数c,d,e和f可以通过以下等式导出:
其中(v0x,v0y),(v1x,v1y),(v2x,v2y)是左上、右上和左下控制点运动矢量(controlpoint motion vector),w和h是CU的宽度和高度。步骤4),最后,将亮度预测细化(lumaprediction refinement)添加到子块预测I(i,j)。最终预测I’的生成如下述等式。
I′(i,j)=I(i,j)+ΔI(i,j).
在JVET-N0261中,图3中提出了另一种基于子块的仿射模式交织预测。通过交织预测,编解码块310被划分为具有两种不同划分模式的子块(320和322)。然后利用两个划分模式通过仿射运动补偿产生两个辅助预测(auxiliary prediction)(P0 330和P1 332)。最终预测340被计算为两个辅助预测(330和332)的加权和。为了避免对2×H或W×2块大小进行运动补偿,对于图4所示的两种划分模式,交织预测(interweaved prediction)仅应用于子块大小为4×4的区域。
根据JVET-N0261中公开的方法,基于2x2子块的仿射运动补偿仅应用于亮度样本的单向预测(uni-prediction)并且2x2子块运动场(motion field)仅用于运动补偿。用于运动预测等的运动矢量场的存储仍然是基于4x4子块的。如果应用带宽约束,则当仿射运动参数不满足特定标准时,禁用基于2x2子块的仿射运动补偿。
在JVET-N0273(H.Huang等人,“CE9-related:Disabling DMVR for non equalweight BPWA”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11的联合视频专家组(JVET)1/SC 29/WG 11,第14次会议:瑞士日内瓦,2019年3月19-27日,文件:JVET-N0262),基于2x2子块的仿射运动补偿仅适用于亮度样本的单向预测,2x2子块运动场仅用于运动补偿。如果应用带宽约束,当仿射运动参数不满足特定标准时,基于2x2子块的仿射运动补偿将被禁用。
仿射模型(Affine Model)
沿着时间轴跨图片发生的运动可以由许多不同的模型来描述。假设A(x,y)是所考虑位置(x,y)处的原始像素,A′(x′,y′)是当前像素A(x,y)的参考图片中位置(x′,y′)处的对应像素,仿射运动模型描述如下。
仿射模型能够描述二维块旋转以及二维变形以将正方形(或矩形)变换成平行四边形。该模型可以描述如下:
x’=a0+a1*x+a2*y,and
y’=b0+b1*x+b2*y. (1)
在提交给ITU-VCEG的ITU-T13-SG16-C1016文稿(Lin等人,“Affine transformprediction for next generation video coding”,ITU-U,第16研究组,问题Q6/16,文稿C1016,2015年9月,瑞士日内瓦)中,公开了四参数仿射预测,其中包括仿射合并模式(affine Merge mode)。当一个仿射运动块在运动时,块的运动矢量场可以用两个控制点运动矢量或四个参数来描述如下,其中(vx,vy)表示运动矢量
四参数仿射模型的示例如图5所示,其中根据具有两个控制点运动矢量(即v0和v1)的仿射模型定位当前块510的相应参考块520。变换后的块是一个矩形块。该运动块中各点的运动矢量场可用下式表示:
或
上述等式中,(v0x,v0y)为块左上角的控制点运动矢量(即v0),(v1x,v1y)为块的右上角的另一个控制点运动矢量(即v1)。当解码两个控制点的MV时,块的每个4x4块的MV可以根据上式确定。换句话说,块的仿射运动模型可以由两个控制点处的两个运动矢量指定。进一步地,虽然以块的左上角和右上角作为两个控制点,但也可以使用其他两个控制点。可以根据等式(3)基于两个控制点的MV为每个4x4子块确定当前块的运动矢量的示例。
在ITU-T13-SG16-C1016文稿中,对于帧间模式编解码的CU,当CU大小等于或大于16x16时,发送仿射标志以指示是否应用仿射帧间模式。如果当前块(例如,当前CU)以仿射帧间模式编解码,则使用相邻的有效重构块构造候选MVP对列表。图6图示了用于导出角导出的(corner derived)仿射候选的邻域块集(neighboring block set)。如图6所示,对应于当前块610左上角的块V0的运动矢量,其选自邻域块A0(称为左上(above-left)块)、A1(称为内左上(inner above-left)块)和A2(称为下左上(lower above-left)块)的运动矢量,对应于当前块610右上角的块V1的运动矢量,其选自邻域块B0(称为上方块(aboveblock))和B1(称为右上块(above-right block))的运动矢量。
在文稿ITU-T13-SG16-C1016中,还提出了仿射合并(affine Merge)模式。如果当前块710是合并编解码的PU,则检查相邻的五个块(图7中的A0、A1、B0、B1和B2块)以确定它们中的任何块是否以仿射帧间模式(affine Inter mode)或仿射合并模式编解码。如果是,则发信affine_flag以指示当前PU是否为仿射模式。当当前PU应用于仿射合并模式时,它从有效的相邻重建块中获取第一个用仿射模式编解码的块。候选块的选择顺序是从左块(A1)、上方块(B1)、右上块(B0)、左下块(A0)到左上块(B2)。换句话说,搜索顺序是A1-→B1→B0→A0→B2,如图7所示。仿射编解码块的仿射参数用于导出当前PU的v0和v1。在图7的示例中,用于构造用于仿射运动模型的控制点MV的邻域块(A0、A1、B0、B1和B2)在本公开中被称为邻域块集(neighboring blockset)。
在仿射运动补偿(MC)中,当前块被分成多个4x4子块。对于每个子块,中心点(2,2)用于通过使用该子块的等式(3)导出MV。对于这个当前的MC,每个子块执行一个4x4的子块平移MC。
在HEVC中,每个PU的解码的MV以16:1的比率被下采样并存储在时间MV缓冲区(temporal MV buffer)中用于后续帧的MVP推导。对于16x16块,只有左上角的4x4 MV存储在时间MV缓冲区中,存储的MV代表整个16x16块的MV。
双向光流(Bi-directional Optical Flow,简写为BIO)
双向光流(BIO)是在JCTVC-C204(E.Alshina等人,Bi-directional opticalflow,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11视频编解码联合协作小组(JCT-VC),第3次会议:中国广州,2010年10月7-15日,文件:JCTVC-C204)和VCEG-AZ05(E.Alshina等,Known tools performance investigationfor next generation video coding,ITU-T SG 16问题6,视频编解码专家组(VCEG),第52次会议:2015年6月19-26日,波兰华沙,文件:VCEG-AZ05)中公开的运动估计/补偿技术。BIO基于如图8所示的光流和稳定运动的假设导出样本级(sample-level)运动细化,其中B切片(双向预测切片)820中的当前像素822由参考图片0(830)中的一个像素和参考图片1(810)中的一个像素预测。如图8所示,当前像素822由参考图片1(810)中的像素B(812)和参考图片0(830)中的像素A(832)预测。在图8中,vx和vy是x方向和y方向的像素位移矢量(displacement vector),它们是使用双向光流(BIO)模型导出的。它仅适用于真正的双向预测块,它是从对应于前一张图片和后一张图片的两个参考图片中预测出来的。在VCEG-AZ05中,BIO使用5x5窗口来导出每个样本的运动细化。因此,对于NxN块,需要(N+4)x(N+4)块的运动补偿结果和相应的梯度信息来推导针对NxN块的基于样本的运动细化。根据VCEG-AZ05,使用6抽头(6-Tap)梯度滤波器和6抽头插值滤波器来生成BIO的梯度信息。因此,BIO的计算复杂度远高于传统的双向预测。为了进一步提高BIO的性能,提出了以下方法。
在HEVC中的常规双向预测中,使用以下等式生成预测子,其中P(0)和P(1)分别是列表0和列表1预测子。
PConventional[i,j]=(P(0)[i,j]+P(1)[i,j]+1)>>1
在JCTVC-C204和VECG-AZ05中,使用以下等式生成BIO预测子:
PopticalFlow=(P(0)[i,j]+P(1)[i,j]+vx[i,j](Ix (0)-Ix (1)[i,j])+vy[i,j](Iy (0)-Iy (1)[i,j])+1)>>1
在上述等式中,Ix (0)和Ix (1)分别表示list0和list1预测子中的x方向梯度;Iy (0)和Iy (1)分别表示list0和list1预测子中的y方向梯度;vx和vy分别表示x和y方向上的偏移或位移。vx和vy的推导过程如下所示。首先,成本函数(cost function)定义为diffCost(x,y)以找到最佳值vx和vy。为了找到最佳值vx和vy以最小化成本函数diffCost(x,y),使用一个5x5窗口。vx和vy的解可以用S1、S2、S3、S5和S6表示。
最小成本函数mindiffCost(x,y)可以推导如下:
通过求解式(3)和(4),vx和vy可以根据以下等式求解:
其中,
上述等式中,对应于list 0图片中(x,y)处像素的x方向梯度,对应于list 1图片中(x,y)处像素的x方向梯度,对应list 0图片中(x,y)处像素的y方向梯度,对应list 1图片中(x,y)处像素的y方向梯度。
在一些相关技术中,S2可以忽略,vx和vy可以如下求解
其中,
我们可以发现,BIO过程中需要的位深(bit-depth)较大,尤其是计算S1、S2、S3、S5、S6时。例如,如果视频序列中像素值的位深为10位,通过分数插值滤波器或梯度滤波器增加梯度的位深,则需要16位来表示一个x方向的梯度或一个y方向的梯度。这16位可以通过等于4的梯度移位(gradient shift)进一步减少,因此一个梯度需要12位来表示值。即使通过梯度移位可以将梯度的幅度降低到12位,BIO操作所需的位深度仍然很大。需要一个13位x13位的乘法器来计算S1、S2和S5。需要另一个13位x 17位的乘法器才能得到S3和S6。当窗口尺寸较大时,需要多于32位来表示S1、S2、S3、S5、S6。
最近,一种名为非相邻仿射候选的新工具也被提出用于新兴的视频编解码标准。然而,这个新工具需要存储大面积邻域块的运动信息。本发明公开了减少存储需求的技术。
【发明内容】
以下概述仅是说明性的,并不旨在以任何方式进行限制。即,提供以下概要以介绍本文描述的新颖且非显而易见的技术的概念、亮点、益处和优点。在下面的详细描述中进一步描述了选择而不是所有的实现。因此,以下概述不旨在确定要求保护的主题的基本特征,也不旨在用于确定要求保护的主题的范围。
本发明公开一种视频编解码方法,包括:接收与当前块相关联的输入数据,其中,输入数据包括编码器侧待编码的当前块的像素数据或解码器侧待解码的与当前块相关联的编码数据;从当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;基于一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换目标邻域运动矢量;生成包括一个或多个邻域运动矢量作为一个非相邻仿射候选的仿射合并列表或仿射高级运动矢量预测列表,其中一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及使用从仿射合并列表或仿射高级运动矢量预测列表中选择的运动候选对当前块进行编码或解码。
本发明还公开一种用于视频编解码的装置,设备包括一个或多个电子电路或处理器,用于:接收与当前块相关联的输入数据,其中,输入数据包括编码器侧待编码的当前块的像素数据或解码器侧待解码的与当前块相关联的编码数据;从当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;基于一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换目标邻域运动矢量;生成包括一个或多个邻域运动矢量作为一个非相邻仿射候选的仿射合并列表或仿射高级运动矢量预测列表,其中一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及使用从仿射合并列表或仿射高级运动矢量预测列表中选择的运动候选对当前块进行编码或解码。
本发明还公开一种视频编解码方法,方法包括:接收与当前块相关联的输入数据,其中,输入数据包括编码器侧待编码的当前块的像素数据或解码器侧待解码的与当前块相关联的编码数据;从当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;基于一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换目标邻域运动矢量;生成包括一个或多个邻域运动矢量的运动候选列表作为一个非相邻仿射候选,其中一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及使用从运动候选列表中选择的运动候选对当前块进行编码或解码。
本发明的视频编解码方法和相关装置减少了存储需求。
【附图说明】
附图被包括以提供对本公开的进一步理解,并且并入并构成本公开的一部分。附图图示了本公开的实施方式并且与描述一起用于解释本公开的原理。可以理解的是,附图不一定是按比例绘制的,因为在实际实施中,为了清楚地说明本公开的概念,一些部件可能被示出为与尺寸不成比例。
图1A中的系统说明了典型视频编码器的示例性结构。
图1B图示了图1A中的编码器的相应解码器。
图2图示了基于子块的仿射运动补偿的示例,其中子块的各个像素的运动矢量是根据运动矢量细化导出的。
图3示出了交织预测的示例,其中编解码块被划分为具有两种不同划分型样的子块,然后通过具有两种划分型样的仿射运动补偿生成两个辅助预测。
图4示出了针对交织预测避免具有2×H或W×2块尺寸的运动补偿的示例,其中对于两种划分模式,交织预测仅应用于子块尺寸为4×4的区域。
图5图示了四参数仿射模型的示例,其中示出了当前块和参考块。
图6示出了继承的仿射候选推导的示例,其中当前块通过继承邻域块的控制点MV作为当前块的控制点MV来继承邻域块的仿射模型。
图7示出了构造的仿射候选推导的示例,其中邻域块(A0、A1、B0、B1和B2)用于构造用于仿射运动模型的控制点MV。
图8图示了基于光流和稳定运动的假设的双向光流(BIO)导出的样本级运动细化的示例。
图9A-B示出了用于导出仿射合并模式的非相邻空间邻域(NSAM)的示例,其中获得非相邻空间邻域的模式在图9A中示出用于导出继承的仿射合并候选,在图9B中示出用于导出构造的仿射合并候选。
图10示出了根据非相邻邻域构造的仿射候选的示例,其中位置A、B和C处的三个非相邻邻域的运动信息被用于形成CPMV。
图11示出了根据本发明的实施例的利用非相邻仿射候选的视频编解码系统的示例性流程图。
【具体实施方式】
容易理解的是,如本文附图中大体描述和图示的本发明的组件可以以多种不同的配置来布置和设计。因此,以下对如图所示的本发明的系统和方法的实施例的更详细描述并不旨在限制所要求保护的本发明的范围,而仅代表本发明的选定实施例。贯穿本说明书对“一实施例”、“一个实施例”或类似语言的引用意味着结合该实施例描述的特定特征、结构或特性可以包括在本发明的至少一个实施例中。因此,贯穿本说明书各处出现的短语“在一实施例中”或“在一个实施例中”不一定都指代相同的实施例。
此外,所描述的特征、结构或特性可以以任何合适的方式组合在一个或多个实施例中。然而,相关领域的技术人员将认识到,本发明可以在没有一个或多个特定细节的情况下,或使用其他方法、组件等来实践。在其他情况下,未显示或未显示众所周知的结构或操作详细描述以避免模糊本发明的方面。参考附图将最好地理解本发明的所示实施例,其中相同的部分自始至终由相同的数字表示。下面的描述仅旨在作为示例,并且简单地说明与如本文要求保护的本发明一致的设备和方法的某些选定实施例。
具有非相邻候选的仿射(Affine with Non-Adjacent Candidates)
在JVET-Y0153(Wei Chen等人,“EE2-3.11:Non-adjacent spatial neighborsfor affine merge mode”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第25次会议,电话会议,2022.1.12-21,文件:JVET-Y0153),提出了一种使用非相邻空间邻域(non-adjacent spatial neighbor)用于仿射合并和AMVP模式的技术。在用于仿射合并模式的非相邻空间邻域(non-adjacent spatial neighbors for affine mergemode,简写为NSAM)中,获得非相邻空间邻域的型样(pattern)如图9A-B所示,其中图9A用于导出继承的仿射合并候选,图9B用于导出构造的仿射合并候选。与JVET-X2025(Fabrice LeLéannec等人,“Algorithm description of Enhanced Compression Model 3(ECM 3)”,ITU-T SG 16WP 3和ISO/IEC JTC 1/SC 29/WG 11联合视频专家组(JVET),第24次会议,电话会议,2021年10月6-15日,文件:JVET-X2025)中公开的现有非相邻常规合并候选相同,NSAM中非相邻空间邻域与当前编解块之间的距离也是基于当前CU的宽度和高度定义的。
图9A-B中的非相邻空间邻域的运动信息被用于为当前CU(图9A中的块910和图9B中的块920)生成额外的继承和/或构造的仿射合并候选。具体来说,对于继承候选,VVC中继承的仿射合并候选的相同推导过程保持不变,除了CPMV是从非相邻空间邻域继承的。换句话说,CPMV在一个示例中可以对应于基于一个或多个非相邻邻域MV的继承的MV,或者在另一示例中对应于从一个或多个非相邻邻域MV导出的构造的MV。在又一示例中,CPMV可以对应于基于一个或多个非相邻邻域MV的继承的MV或从一个或多个非相邻邻域MV导出的构造的MV。不相邻的空间邻域根据它们到当前块的距离从近邻到远邻进行检查。在特定距离处,仅包含当前块每一侧(例如,左侧和上方)的第一个可用邻域(即,使用仿射模式编解码的一个邻域)用于继承的候选推导。如图9A中的虚线箭头所示,左侧和上方邻域的检查顺序分别是自下而上和从右到左。对于构造的候选(即“来自非相邻邻域的第一类构造的仿射候选”),如图9B所示,首先独立确定一个左侧和一个上方的非相邻空间邻域的位置。之后,可以相应地确定左上参考的位置,它可以与左侧和上方非相邻邻域一起围成一个矩形虚拟块。然后,如图10所示,使用位置A、B和C的三个不相邻邻域的运动信息来形成虚拟块的左上角(A)、右上角(B)和左下角(C)的CPMV,最终投影到当前CU以生成相应的构造的候选。
在JVET-Y0153中,需要存储大量邻域CTU的CPMV。为了减少数据访问的缓冲区需求,建议限制非相邻空间邻域块的可用区域。如果与CPMV关联的邻域块在可用区域之外,则CPMV被视为不可用或将被导出的CPMV替换,其中导出的CPMV可以是可用区域周围最近的CPMV、一个或多个预定义的CPMV、一个或多个通过预定义方法导出的CPMV,或存储的4x4或NxN子块MV。在本公开中,当与CPMV相关联的邻域块在可用区域之外时,为了简单起见,我们可以将这种情况称为“CPMV在可用区域之外”。在一个实施例中,该区域在当前CTU内。在这种情况下,只有当要使用的非相邻空间邻域块与当前块在同一CTU内时,才可以将其插入到仿射合并列表或仿射AMVP列表,或任何CPMV候选列表中。在另一个实施例中,该区域可以是当前CTU和左侧(left)K个解码的CTU。在另一个实施例中,该区域可以是当前CTU、左侧K个解码的CTU和上方L个解码的CTU。在另一个实施例中,区域可以是N CTU行。在另一个实施例中,该区域可以是具有多个CTU的区域。在另一个实施例中,该区域可以是当前CTU、左侧K个解码的CTU和上方L个解码的CTU、左上方M个解码的CTU和右上方P个解码的CTU。K、L、M、N和P可以是任何大于零的整数。在另一个实施例中,可以通过涉及当前CU位置的方法适应性地确定可用区域。
预定义的可用区域可以根据处理单元来定义。在一个实施例中,用于基于一个或多个非相邻邻域MV的继承的仿射合并候选(即,继承的MV)和从一个或多个不相邻的邻域MV导出的构造的仿射合并候选(即,构造的MV)的非相邻空间邻域块的可用区域应相同。
在一个实施例中,如果要使用的非相邻空间邻域块无效(即,在预定义区域之外),则可以应用默认运动矢量。例如,默认运动矢量可以从有效区域的左上角块、有效区域的最左侧块或最顶部块导出,或者直接使用平移运动矢量。
该约束还可以扩展到在常规合并、MMVD、AMVP、IBC或试图引用非相邻空间邻域候选的任何其他工具中使用的非相邻邻域候选。
在一个实施例中,对于时间并置的(temporal collocated)运动矢量,可以预定义可用区域。如果要参考的时间并置的运动矢量在该区域之外,则不应参考它。在一个实施例中,区域可以是当前CTU、N个解码的CTU或M个解码的CTU行。M和N可以是任何大于零的整数。用于时间并置的运动矢量的可用区域可以不同于用于非相邻空间邻域候选的可用区域。
任何前述提出的方法都可以在编码器和/或解码器中实现。例如,所提出的任何方法都可以在编码器和/或解码器的仿射帧间预测模块(例如,图1A中的帧间预测112或图1B中的MC 152)中实现。或者,所提出的任何方法都可以实现为耦合到编码器和/或解码器的仿射帧间预测模块的电路。
图11图示了根据本发明的实施例的利用非相邻仿射候选的视频编解码系统的示例性流程图。流程图中所示的步骤可以实现为在编码器侧的一个或多个处理器(例如,一个或多个CPU)上可执行的程序代码。流程图中所示的步骤也可以基于硬件来实现,诸如被布置为执行流程图中的步骤的一个或多个电子设备或处理器。根据该方法,在步骤1110接收与当前块相关联的输入数据,其中输入数据包括在编码器侧待编码的当前块的像素数据或在解码器侧与待解码的当前块相关联的编码数据。在步骤1120中,根据当前块的一个或多个非相邻仿射编码的邻域确定一个或多个邻域MV(运动矢量)。在步骤1130中基于所述一个或多个邻域MV确定CPMV(控制点运动矢量),其中,如果与一个目标邻域MV相关联的目标邻域块在可用区域之外,则生成导出的CPMV以替换目标邻域MV。在步骤1140中生成包括所述一个或多个邻域MV作为一个非相邻仿射候选的仿射合并列表或仿射AMVP(高级运动矢量预测)列表,其中所述一个非相邻仿射候选生成非相邻仿射预测子,根据CPMV使用运动信息。在步骤1150中使用从仿射合并列表或仿射AMVP(高级运动矢量预测)列表中选择的运动候选对当前块进行编码或解码。
所示流程图旨在说明根据本发明的视频编解码的示例。在不脱离本发明的精神的情况下,本领域的技术人员可以修改每个步骤、重新安排步骤、拆分步骤或组合步骤来实施本发明。在本公开中,已经使用特定语法和语义来说明示例以实现本发明的实施例。在不脱离本发明的精神的情况下,技术人员可以通过用等同的句法和语义替换句法和语义来实施本发明。
提供以上描述是为了使本领域的普通技术人员能够实践在特定应用及其要求的上下文中提供的本发明。对所描述的实施例的各种修改对于本领域技术人员而言将是显而易见的,并且本文定义的一般原理可以应用于其他实施例。因此,本发明并不旨在限于所示出和描述的特定实施例,而是符合与本文公开的原理和新颖特征一致的最宽范围。在以上详细描述中,举例说明了各种具体细节以提供对本发明的透彻理解。然而,本领域的技术人员将理解可以实施本发明。
如上所述的本发明的实施例可以以各种硬件、软件代码或两者的组合来实现。例如,本发明的一个实施例可以是集成到视频压缩芯片中的一个或多个电路电路或者集成到视频压缩软件中的程序代码以执行这里描述的处理。本发明的实施例还可以是要在数字信号处理器(DSP)上执行以执行这里描述的处理的程序代码。本发明还可以涉及由计算机处理器、数字信号处理器、微处理器或现场可编程门阵列(FPGA)执行的许多功能。这些处理器可以被配置为通过执行定义由本发明体现的特定方法的机器可读软件代码或固件代码来执行根据本发明的特定任务。软件代码或固件代码可以以不同的编程语言和不同的格式或风格来开发。也可以为不同的目标平台编译软件代码。然而,软件代码的不同代码格式、风格和语言以及配置代码以执行根据本发明的任务的其他方式都不会脱离本发明的精神和范围。
在不脱离其精神或基本特征的情况下,本发明可以以其他特定形式体现。所描述的示例在所有方面都应被视为说明性而非限制性的。因此,本发明的范围由所附权利要求而不是由前述描述来指示。落入权利要求等同物的含义和范围内的所有变化都应包含在其范围内。
Claims (13)
1.一种视频编解码方法,包括:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧待解码的与该当前块相关联的编码数据;
从该当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;
基于该一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换该目标邻域运动矢量;
生成包括该一个或多个邻域运动矢量作为一个非相邻仿射候选的仿射合并列表或仿射高级运动矢量预测列表,其中该一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及
使用从该仿射合并列表或该仿射高级运动矢量预测列表中选择的运动候选对该当前块进行编码或解码。
2.如权利要求1所述的视频编解码方法,其中该可用区域对应于包围该当前块的当前CTU、该当前块的左侧K个解码的CTU、该当前块上方的L个解码的CTU或其组合,并且其中K和L是正整数。
3.如权利要求1所述的视频编解码方法,其中该导出的控制点运动矢量对应于该可用区域中最接近该当前块的控制点运动矢量。
4.如权利要求1所述的视频编解码方法,其中该导出的控制点运动矢量对应于一个或多个预定义的控制点运动矢量。
5.如权利要求1所述的视频编解码方法,其特征在于,该导出的控制点运动矢量是根据预先定义的方法导出的。
6.如权利要求1所述的视频编解码方法,其特征在于,该导出的控制点运动矢量是根据存储的4x4或NxN子块运动矢量导出的,其中N为正整数。
7.如权利要求1所述的方法,其特征在于,该控制点运动矢量对应于基于该一个或多个邻域运动矢量的继承的运动矢量。
8.如权利要求1所述的视频编解码方法,其特征在于,该控制点运动矢量对应于从该一个或多个邻域运动矢量导出的构造的运动矢量。
9.如权利要求1所述的视频编解码方法,其特征在于,该控制点运动矢量对应于从该一个或多个邻域运动矢量导出的构造的运动矢量或基于该一个或多个邻域运动矢量的继承的运动矢量。
10.如权利要求9所述的方法,其中,该可用区域对于该构造的运动矢量和该继承的运动矢量是相同的。
11.一种用于视频编解码的装置,该设备包括一个或多个电子电路或处理器,用于:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧待解码的与该当前块相关联的编码数据;
从该当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;
基于该一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换该目标邻域运动矢量;
生成包括该一个或多个邻域运动矢量作为一个非相邻仿射候选的仿射合并列表或仿射高级运动矢量预测列表,其中该一个非相邻仿射候选根据控制点运动矢量使用运动信息生成非相邻仿射预测子;以及
使用从该仿射合并列表或该仿射高级运动矢量预测列表中选择的运动候选对该当前块进行编码或解码。
12.一种视频编解码方法,该方法包括:
接收与当前块相关联的输入数据,其中,该输入数据包括编码器侧待编码的该当前块的像素数据或解码器侧待解码的与该当前块相关联的编码数据;
从该当前块的一个或多个非相邻仿射编解码的邻域确定一个或多个邻域运动矢量;
基于该一个或多个相邻运动矢量确定控制点运动矢量,其中如果与一个目标邻域运动矢量相关联的目标邻域块在可用区域之外,则生成导出的控制点运动矢量以替换该目标邻域运动矢量;
生成包括该一个或多个邻域运动矢量的运动候选列表作为一个非相邻仿射候选,其中该一个非相邻仿射候选根据该控制点运动矢量使用运动信息生成非相邻仿射预测子;以及
使用从该运动候选列表中选择的运动候选对该当前块进行编码或解码。
13.如权利要求12所述的视频编解码方法,其特征在于,该运动候选列表对应于常规合并候选列表、MMVD、高级运动矢量预测列表或帧内块复制。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US63/299,522 | 2022-01-14 | ||
| US18/064,434 | 2022-12-12 | ||
| US18/064,434 US12477118B2 (en) | 2022-01-14 | 2022-12-12 | Method and apparatus using affine non-adjacent candidates for video coding |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116456110A true CN116456110A (zh) | 2023-07-18 |
Family
ID=87124450
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310039436.0A Pending CN116456110A (zh) | 2022-01-14 | 2023-01-13 | 视频编解码方法及装置 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116456110A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025124507A1 (en) * | 2023-12-13 | 2025-06-19 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190082191A1 (en) * | 2016-03-15 | 2019-03-14 | Mediatek Inc. | Method and apparatus of video coding with affine motion compensation |
| US20190116376A1 (en) * | 2017-10-12 | 2019-04-18 | Qualcomm Incorporated | Motion vector predictors using affine motion model in video coding |
| US20200014931A1 (en) * | 2018-07-06 | 2020-01-09 | Mediatek Inc. | Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems |
| CN111466116A (zh) * | 2018-01-26 | 2020-07-28 | 联发科技股份有限公司 | 用于视频编解码系统的仿射帧间预测的方法和装置 |
| US20210058637A1 (en) * | 2018-07-01 | 2021-02-25 | Beijing Bytedance Network Technology Co., Ltd. | Efficient affine merge motion vector derivation |
| US20210211646A1 (en) * | 2018-05-24 | 2021-07-08 | Kt Corporation | Method and apparatus for processing video signal |
| US20210266589A1 (en) * | 2018-08-17 | 2021-08-26 | Mediatek Inc. | Method and Apparatus of Simplified Sub-Mode for Video Coding |
| US20210352315A1 (en) * | 2019-02-02 | 2021-11-11 | Beijing Bytedance Network Technology Co., Ltd. | Multi-hmvp for affine |
| US20210385483A1 (en) * | 2019-02-27 | 2021-12-09 | Beijing Bytedance Network Technology Co., Ltd. | Regression-based motion vector field based sub-block motion vector derivation |
-
2023
- 2023-01-13 CN CN202310039436.0A patent/CN116456110A/zh active Pending
Patent Citations (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190082191A1 (en) * | 2016-03-15 | 2019-03-14 | Mediatek Inc. | Method and apparatus of video coding with affine motion compensation |
| US20190116376A1 (en) * | 2017-10-12 | 2019-04-18 | Qualcomm Incorporated | Motion vector predictors using affine motion model in video coding |
| CN111466116A (zh) * | 2018-01-26 | 2020-07-28 | 联发科技股份有限公司 | 用于视频编解码系统的仿射帧间预测的方法和装置 |
| US20210211646A1 (en) * | 2018-05-24 | 2021-07-08 | Kt Corporation | Method and apparatus for processing video signal |
| US20210058637A1 (en) * | 2018-07-01 | 2021-02-25 | Beijing Bytedance Network Technology Co., Ltd. | Efficient affine merge motion vector derivation |
| US20200014931A1 (en) * | 2018-07-06 | 2020-01-09 | Mediatek Inc. | Methods and Apparatuses of Generating an Average Candidate for Inter Picture Prediction in Video Coding Systems |
| US20210266589A1 (en) * | 2018-08-17 | 2021-08-26 | Mediatek Inc. | Method and Apparatus of Simplified Sub-Mode for Video Coding |
| US20210352315A1 (en) * | 2019-02-02 | 2021-11-11 | Beijing Bytedance Network Technology Co., Ltd. | Multi-hmvp for affine |
| US20210385483A1 (en) * | 2019-02-27 | 2021-12-09 | Beijing Bytedance Network Technology Co., Ltd. | Regression-based motion vector field based sub-block motion vector derivation |
Non-Patent Citations (1)
| Title |
|---|
| WEI CHEN ET AL.: "Non-adjacent spatial neighbors for affine merge mode", 《JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29》, 12 January 2022 (2022-01-12) * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025124507A1 (en) * | 2023-12-13 | 2025-06-19 | Douyin Vision Co., Ltd. | Method, apparatus, and medium for video processing |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111937391B (zh) | 用于视频编解码系统中的子块运动补偿的视频处理方法和装置 | |
| TWI870823B (zh) | 視訊編碼解碼方法和裝置 | |
| TWI853413B (zh) | 視訊編解碼方法及裝置 | |
| CN112970250A (zh) | 视频编码的多重假设方法和装置 | |
| CN112840645A (zh) | 视频编码系统中组合多个预测子用于块预测的方法及装置 | |
| US20220210439A1 (en) | Method and Apparatus of Simplified Affine Subblock Process for Video Coding System | |
| TWI852465B (zh) | 視訊編解碼方法及相關裝置 | |
| US20210360274A1 (en) | Video Processing Methods and Apparatuses of Determining Motion Vectors for Storage in Video Coding Systems | |
| WO2023221993A1 (en) | Method and apparatus of decoder-side motion vector refinement and bi-directional optical flow for video coding | |
| TW202349959A (zh) | 使用mvd合併模式來降低視頻編解碼複雜度的方法和裝置 | |
| CN116456110A (zh) | 视频编解码方法及装置 | |
| TWI853412B (zh) | 用於視頻編解碼的仿射編碼塊導出合併候選的方法和裝置 | |
| WO2024016844A1 (en) | Method and apparatus using affine motion estimation with control-point motion vector refinement | |
| WO2024146374A9 (en) | Method and apparatus of parameters inheritance for overlapped blocks motion compensation in video coding system | |
| TWI822567B (zh) | 用於使用移動向量差值之合併模式的視訊編碼之方法和裝置 | |
| WO2023207511A1 (en) | Method and apparatus of adaptive weighting for overlapped block motion compensation in video coding system | |
| WO2025007947A1 (en) | Methods and apparatus for video coding improvement by storing information and implicit derivation | |
| WO2024149017A1 (en) | Methods and apparatus of motion shift in overlapped blocks motion compensation for video coding | |
| TW202349962A (zh) | 使用具有運動向量差的合併模式的視訊編解碼方法和裝置 | |
| TW202446060A (zh) | 彩色圖片編解碼方法及視訊編解碼裝置 | |
| TW202512733A (zh) | 雙向光流位移融合的影片編解碼方法和裝置 | |
| TW202444096A (zh) | 彩色圖片編解碼方法及其裝置 | |
| CN121464629A (zh) | 构建用于继承邻近跨分量模型以进行色度帧间编码的候选列表的方法和设备 | |
| TW202410696A (zh) | 使用合併mvd模式降低視頻編碼複雜性的方法和裝置 | |
| CN119654869A (zh) | 视频编解码中基于子块的时间运动向量预测及其重新排序和细化的方法和装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |