JP2018513571A - ビデオピクチャを符号化および復号する方法および装置 - Google Patents
ビデオピクチャを符号化および復号する方法および装置 Download PDFInfo
- Publication number
- JP2018513571A JP2018513571A JP2016520029A JP2016520029A JP2018513571A JP 2018513571 A JP2018513571 A JP 2018513571A JP 2016520029 A JP2016520029 A JP 2016520029A JP 2016520029 A JP2016520029 A JP 2016520029A JP 2018513571 A JP2018513571 A JP 2018513571A
- Authority
- JP
- Japan
- Prior art keywords
- matching
- region
- picture
- denoising
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/147—Data rate or code amount at the encoder output according to rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/537—Motion estimation other than block-based
- H04N19/54—Motion estimation other than block-based using feature points or meshes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/567—Motion estimation based on rate distortion criteria
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
for each block
for each denoising filter
apply denoising filter to reference picture
for each motion vector field
check match of template between current picture and denoised reference picture
if best match
store prediction block
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより符号化し、第2のピクチャ11、12の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択される。
− 第1の参照ピクチャ7の参照マッチング領域4が、参照ピクチャ7の参照テンプレート領域を含み、
− ノイズ除去バージョン7’の参照マッチング領域4’が、ノイズ除去バージョン7’の参照テンプレート領域を含み、
− 第2のピクチャ6が、現在のピクチャを含み、
− 第2のピクチャ6のマッチング領域3が、現在のピクチャのテンプレート領域を含み、
− 予測領域5、5’が、参照ピクチャ7およびノイズ除去バージョン7’のそれぞれのテンプレート領域4;4’に隣接している。
− エンコーダ40は、ブロック16の符号化時に、
− 第2の参照ピクチャ12、11の第3の予測領域15、14、または第2の参照ピクチャ12、11のノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択し、
− 選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、14’に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ13のブロック16の符号化のために第5の予測領域を選択するように構成される。
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより符号化し、第2のピクチャ6;14、15の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択されるように動作可能である。
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’に基づく第2の予測領域を選択することにより復号し、第2のピクチャ6;12、11の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択される。
− 第1の参照ピクチャ7の参照マッチング領域4が、参照ピクチャ7の参照テンプレート領域を含み、
− ノイズ除去バージョン7’の参照マッチング領域4’が、ノイズ除去バージョン7’の参照テンプレート領域を含み、
− 第2のピクチャ6が、現在のピクチャを含み、
− 第2のピクチャ6のマッチング領域3が、現在のピクチャのテンプレート領域を含み、
− 予測領域5、5’が、参照ピクチャ7およびノイズ除去バージョン7’のそれぞれのテンプレート領域4;4’に隣接している。
− 第2のピクチャ12、11が、第2の取得された参照ピクチャ12、11、または第2の取得された参照ピクチャのノイズ除去バージョン12’、11’を含み、
− デコーダ50が、ブロック16の復号時に、
− 第2の参照ピクチャ12、11の第3の予測領域15、14、または第2の参照ピクチャ12、11のノイズ除去バージョン12’、11’の第4の予測領域15’、14’を選択し、
− 選択された第1の予測領域14、15および選択された第3の予測領域15、14または選択された第2の予測領域14’、15’および選択された第4の予測領域15’、14’に基づいて、第5の予測領域を導き出し、
− 現在のピクチャ13のブロック16の復号のために第5の予測領域を選択するように構成される。
− 参照ピクチャ7;11、12のノイズ除去バージョン7’;11’、12’を取得し、
− 参照ピクチャ7;11、12の参照マッチング領域4;14、15を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることと、ノイズ除去バージョン7’;11’、12’の参照マッチング領域4’:14’、15’を第2のピクチャ6;12、11のマッチング領域3;15、14にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
− 現在のピクチャ6;13のブロック2;16を、そのブロック2;16に対して、参照ピクチャ7;11、12の第1の参照領域5;14、15に基づく第1の予測領域またはノイズ除去バージョン7’;11’、12’の第2の参照領域5’;14’、15’の第2の予測領域を選択することにより復号し、第2のピクチャ6;12、11の対応するマッチング領域3;15、14に対するマッチング誤差が最小である予測領域が選択されるように動作可能である。
Claims (36)
- ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)で実行される方法(20)であって、
参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得すること(21)と、
マッチング手順を少なくとも1回実行すること(22)であり、前記マッチング手順が、前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記ノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む、マッチング手順を実行すること(22)と、
現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記ノイズ除去バージョン(7’;11’、12’)の第2の参照領域(5’;14’、15’)に基づく第2の予測領域を選択することにより符号化すること(23)であり、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択される、符号化すること(23)と
を含む方法(20)。 - 前記参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得すること(21)が、前記参照マッチング領域(4;14、15)のみをノイズ除去することを含む、請求項1に記載の方法(20)。
- 前記マッチング手順を、前記符号化よりも低い解像度で実行すること(22)を含む、請求項1または2に記載の方法(20)。
- 前記マッチング手順を実行すること(22)が、第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットのマッチを絞り込むこととを含み、前記符号化すること(23)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することを含む、請求項1から3のいずれか一項に記載の方法(20)。
- デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングすることを含む、請求項4に記載の方法(20)。
- ノイズ除去バージョン(7’;11’、12’)を取得すること(21)が、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することを含む、請求項1から5のいずれか一項に記載の方法(20)。
- 前記マッチング手順がテンプレートマッチングを含み、
第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
前記第2のピクチャ(6)が、前記現在のピクチャを含み、
前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
前記予測領域(3)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項1から6のいずれか一項に記載の方法(20)。 - 前記マッチング手順がバイラテラルマッチングを含み、
前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
前記方法(20)が、前記ブロック(16)の前記符号化(23)中に、
第2の参照ピクチャ(12、11)の第3の予測領域(15)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョンの第4の予測領域(15’)を選択することと、
前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出すことと、
現在のフレーム(13)の前記ブロック(16)の符号化(23)のために前記第5の予測領域を選択することと
を含む、請求項1から6のいずれか一項に記載の方法(20)。 - ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)用のコンピュータプログラム(43)であって、前記エンコーダ(40)の少なくとも1つのプロセッサで実行されたときに、前記エンコーダ(40)に請求項1から8のいずれか一項に記載の方法(20)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(43)。
- 請求項9に記載のコンピュータプログラム(43)と、前記コンピュータプログラム(43)が格納されるコンピュータ可読手段とを備えるコンピュータプログラム製品(42)。
- ビデオピクチャをビデオビットストリームに符号化するエンコーダ(40)であって、
参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得し、
前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記ノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記ノイズ除去バージョン(7’;11’、12’)の第2の参照領域(5’;14’、15’)に基づく第2の予測領域を選択することにより符号化し、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択されるように構成されたエンコーダ(40)。 - 前記参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を、前記参照マッチング領域(4;14、15)のみをノイズ除去することにより取得するように構成された、請求項11に記載のエンコーダ(40)。
- 前記マッチング手順を、前記符号化よりも低い解像度で実行するように構成された、請求項11または12に記載のエンコーダ(40)。
- 第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することにより前記マッチング手順を実行するように構成され、第2の標本精度を使用して前記第1のセットのマッチを絞り込むように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することにより符号化を実行するように構成された、請求項11から13のいずれか一項に記載のエンコーダ(40)。
- デコーダ(50)に対し、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報をシグナリングするように構成された、請求項14に記載のエンコーダ(40)。
- ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することにより、ノイズ除去バージョン(7’;11’、12’)を取得するように構成された、請求項11から15のいずれか一項に記載のエンコーダ(40)。
- 前記マッチング手順がテンプレートマッチングを含み、
第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
前記第2のピクチャ(6)が、前記現在のピクチャを含み、
前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項11から16のいずれか一項に記載のエンコーダ(40)。 - 前記マッチング手順がバイラテラルマッチングを含み、
前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
前記エンコーダ(40)が、前記ブロック(16)の前記符号化中に、
第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョンの第4の予測領域(15’、14’)を選択し、
前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出し、
現在のフレーム(13)の前記ブロック(16)の符号化(23)のために前記第5の予測領域を選択する
ように構成された、請求項11から16のいずれか一項に記載のエンコーダ(40)。 - ビデオビットストリームからビデオピクチャを復号するデコーダ(50)で実行される方法(30)であって、
参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得すること(31)と、
マッチング手順を少なくとも1回実行すること(32)であり、前記マッチング手順が、前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記ノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含む、マッチング手順を実行すること(32)と、
前記第2のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記ノイズ除去バージョン(7’;11’、12’)の第2の参照領域(5’;14’、15’)に基づく第2の予測領域を選択することにより復号すること(33)であり、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択される、復号すること(33)と
を含む方法(30)。 - 参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得すること(31)が、前記参照マッチング領域(4;14、15)のみをノイズ除去することを含む、請求項19に記載の方法(30)。
- 前記マッチング手順を、前記復号よりも低い解像度で実行すること(32)を含む、請求項19または20に記載の方法(30)。
- 前記マッチング手順を実行することが、第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することと、第2の標本精度を使用して前記第1のセットのマッチを絞り込むこととを含み、前記復号すること(33)が、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することを含む、請求項19から21のいずれか一項に記載の方法(30)。
- エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取ることを含む、請求項22に記載の方法(30)。
- ノイズ除去バージョン(7’;11’、12’)を取得すること(31)が、ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することを含む、請求項19から23のいずれか一項に記載の方法(30)。
- 前記マッチング手順がテンプレートマッチングを含み、
第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
前記第2のピクチャ(6)が、前記現在のピクチャを含み、
前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項19から24のいずれか一項に記載の方法(30)。 - 前記マッチング手順がバイラテラルマッチングを含み、
前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャのノイズ除去バージョン(11’、12’)を含み、
前記方法(30)が、前記ブロック(16)の前記復号(33)中に、
第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョン(12’、11 ’)の第4の予測領域(15’、14’)を選択することと、
前記選択された第1の予測領域(14、15)および前記選択された第3の予測領域(15、14)または前記選択された第2の予測領域(14’、15’)および前記選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出すことと、
現在のフレーム(13)の前記ブロック(16)の復号(33)のために前記第5の予測領域を選択することと
を含む、請求項19から24のいずれか一項に記載の方法(30)。 - ビデオビットストリームからビデオピクチャを復号するデコーダ(50)用のコンピュータプログラム(53)であって、前記デコーダ(50)の少なくとも1つのプロセッサで実行されたときに、前記デコーダ(50)に請求項19から26のいずれか一項に記載の方法(30)を実行させるコンピュータプログラムコードを含むコンピュータプログラム(53)。
- 請求項27に記載のコンピュータプログラム(53)と、前記コンピュータプログラム(53)が格納されるコンピュータ可読手段とを備えるコンピュータプログラム製品(52)。
- ビデオビットストリームからビデオピクチャを復号するデコーダ(50)であって、
参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を取得し、
前記参照ピクチャ(7;11、12)の参照マッチング領域(4;14、15)を第2のピクチャ(6;12、11)のマッチング領域(3;15、14)にマッチさせることと、前記ノイズ除去バージョン(7’;11’、12’)の参照マッチング領域(4’;14’、15’)を前記第2のピクチャ(6;12、11)の前記マッチング領域(3;15、14)にマッチさせることとを含むマッチング手順を、少なくとも1回実行し、
現在のピクチャ(6;13)のブロック(2;16)を、前記ブロック(2;16)に対して、前記参照ピクチャ(7;11、12)の第1の参照領域(5;14、15)に基づく第1の予測領域または前記ノイズ除去バージョン(7’;11’、12’)の第2の参照領域(5’;14’、15’)に基づく第2の予測領域を選択することにより復号し、前記第2のピクチャ(6;12、11)の対応するマッチング領域(3;15、14)に対するマッチング誤差が最小である予測領域が選択されるように構成されたデコーダ(50)。 - 前記参照ピクチャ(7;11、12)のノイズ除去バージョン(7’;11’、12’)を、前記参照マッチング領域(4;14、15)のみをノイズ除去することにより取得するように構成された、請求項29に記載のデコーダ(50)。
- 前記マッチング手順を、前記復号よりも低い解像度で実行するように構成された、請求項29または30に記載のデコーダ(50)。
- 第1の標本精度を使用して前記参照マッチング領域(4、4’;14、14’、15、15’)に対するマッチの第1のセットを取得することにより前記マッチング手順を実行するように構成され、第2の標本精度を使用して前記第1のセットのマッチを絞り込むように構成され、前記第2の標本精度が使用された前記第1のセットのマッチの中から予測領域を選択することにより復号するように構成された、請求項29から31のいずれか一項に記載のデコーダ(50)。
- エンコーダ(40)から、前記第2の標本精度が使用された前記第1のセットのマッチの中の使用するマッチ候補に関する情報を受け取るように構成された、請求項32に記載のデコーダ(50)。
- ローパスフィルタ、線形平滑化フィルタ、異方性拡散、非線形フィルタ、時間フィルタ、およびピクチャのすべてのピクセルの非局所的平均化より選択されるノイズ除去フィルタを使用することにより、ノイズ除去バージョン(7’;11’、12’)を取得するように構成された、請求項29から33のいずれか一項に記載のデコーダ(50)。
- 前記マッチング手順がテンプレートマッチングを含み、
第1の参照ピクチャ(7)の前記参照マッチング領域(4)が、参照ピクチャ(7)の参照テンプレート領域を含み、
前記ノイズ除去バージョン(7’)の前記参照マッチング領域(4’)が、前記ノイズ除去バージョン(7’)の参照テンプレート領域を含み、
前記第2のピクチャ(6)が、前記現在のピクチャを含み、
前記第2のピクチャ(6)の前記マッチング領域(3)が、前記現在のピクチャのテンプレート領域を含み、
前記予測領域(5、5’)が、前記参照ピクチャ(7)および前記ノイズ除去バージョン(7’)のそれぞれのテンプレート領域(4;4’)に隣接している、請求項29から34のいずれか一項に記載のデコーダ(50)。 - 前記マッチング手順がバイラテラルマッチングを含み、
前記第2のピクチャ(12、11)が、第2の取得された参照ピクチャ(11、12)または第2の取得された参照ピクチャ(12、11)のノイズ除去バージョン(12’、11’)を含み、
前記デコーダ(50)が、前記ブロック(16)の前記復号中に、
第2の参照ピクチャ(12、11)の第3の予測領域(15、14)または前記第2の参照ピクチャ(12、11)のノイズ除去バージョン(12’、11’)の第4の予測領域(15’、14’)を選択し、
選択された第1の予測領域(14、15)および選択された第3の予測領域(15、14)または選択された第2の予測領域(14’、15’)および選択された第4の予測領域(15’、14’)に基づいて、第5の予測領域を導き出し、
現在のフレーム(13)の前記ブロック(16)の復号のために前記第5の予測領域を選択する
ように構成された、請求項29から34のいずれか一項に記載のデコーダ(50)。
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/SE2016/050123 WO2017142449A1 (en) | 2016-02-17 | 2016-02-17 | Methods and devices for encoding and decoding video pictures |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018513571A true JP2018513571A (ja) | 2018-05-24 |
| JP6419170B2 JP6419170B2 (ja) | 2018-11-07 |
Family
ID=59625338
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016520029A Expired - Fee Related JP6419170B2 (ja) | 2016-02-17 | 2016-02-17 | ビデオピクチャを符号化および復号する方法および装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10390038B2 (ja) |
| EP (1) | EP3417618A4 (ja) |
| JP (1) | JP6419170B2 (ja) |
| WO (1) | WO2017142449A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024222716A1 (en) * | 2023-04-24 | 2024-10-31 | Mediatek Inc. | Signaling partitioning information for video and image coding |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| HUE055787T2 (hu) | 2014-12-29 | 2021-12-28 | Douglas David Bunjes | Belsõ égésû motor, égési rendszerek és vonatkozó eljárások és vezérlési eljárások és rendszerek |
| US10368107B2 (en) * | 2016-08-15 | 2019-07-30 | Qualcomm Incorporated | Intra video coding using a decoupled tree structure |
| US10555006B2 (en) * | 2016-12-22 | 2020-02-04 | Qualcomm Incorporated | Deriving bilateral filter information based on a prediction mode in video coding |
| US10448014B2 (en) * | 2017-05-23 | 2019-10-15 | Intel Corporation | Content adaptive motion compensated temporal filtering for denoising of noisy video for efficient coding |
| EP3788787A1 (en) | 2018-06-05 | 2021-03-10 | Beijing Bytedance Network Technology Co. Ltd. | Interaction between ibc and atmvp |
| CN110636298B (zh) | 2018-06-21 | 2022-09-13 | 北京字节跳动网络技术有限公司 | 对于Merge仿射模式和非Merge仿射模式的统一约束 |
| CN110636300B (zh) | 2018-06-21 | 2022-07-29 | 北京字节跳动网络技术有限公司 | 颜色分量之间的子块运动矢量继承 |
| CN108921799B (zh) * | 2018-06-22 | 2021-07-23 | 西北工业大学 | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 |
| US10911768B2 (en) * | 2018-07-11 | 2021-02-02 | Tencent America LLC | Constraint for template matching in decoder side motion derivation and refinement |
| CN117768651A (zh) | 2018-09-24 | 2024-03-26 | 北京字节跳动网络技术有限公司 | 处理视频数据的方法、装置、介质、以及比特流存储方法 |
| JP7324841B2 (ja) | 2018-11-10 | 2023-08-10 | 北京字節跳動網絡技術有限公司 | ビデオ・データ処理方法、装置、記憶媒体及び記憶方法 |
| KR20230125784A (ko) * | 2020-12-29 | 2023-08-29 | 퀄컴 인코포레이티드 | 비디오 코딩에서의 템플릿 매칭 |
| US20230059035A1 (en) * | 2021-08-23 | 2023-02-23 | Netflix, Inc. | Efficient encoding of film grain noise |
| CN114972119B (zh) * | 2022-07-01 | 2025-12-19 | 深圳市商汤科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007004678A1 (ja) * | 2005-07-05 | 2007-01-11 | Ntt Docomo, Inc. | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
| WO2009084340A1 (ja) * | 2007-12-28 | 2009-07-09 | Sharp Kabushiki Kaisha | 動画像符号化装置、および、動画像復号装置 |
| WO2011121942A1 (ja) * | 2010-03-31 | 2011-10-06 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム |
| WO2011145282A1 (ja) * | 2010-05-21 | 2011-11-24 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム |
| JP2012191311A (ja) * | 2011-03-09 | 2012-10-04 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化/復号方法,映像符号化/復号装置およびそのプログラム |
Family Cites Families (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4606069A (en) * | 1983-06-10 | 1986-08-12 | At&T Bell Laboratories | Apparatus and method for compression of facsimile information by pattern matching |
| US6678426B1 (en) * | 1997-05-13 | 2004-01-13 | Hewlett-Packard Development Company, L.P. | Programmable mapping of lower resolution digital data to a higher resolution for output on a lower resolution device |
| JPH11168727A (ja) * | 1997-12-02 | 1999-06-22 | Mitsubishi Electric Corp | 動きベクトル検出装置 |
| EP1094669B1 (en) * | 1999-10-19 | 2008-06-04 | Thomson Licensing | Method of motion estimation for a digital input video signal |
| US20070092110A1 (en) * | 2004-11-08 | 2007-04-26 | Li-Qun Xu | Object tracking within video images |
| US20090022220A1 (en) * | 2005-04-13 | 2009-01-22 | Universitaet Hannover | Method and apparatus for enhanced video coding |
| KR100772873B1 (ko) * | 2006-01-12 | 2007-11-02 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
| JP4961161B2 (ja) * | 2006-04-27 | 2012-06-27 | 株式会社日立ハイテクノロジーズ | 検査装置 |
| US20100118940A1 (en) * | 2007-04-19 | 2010-05-13 | Peng Yin | Adaptive reference picture data generation for intra prediction |
| US20080316364A1 (en) * | 2007-06-25 | 2008-12-25 | The Hong Kong University Of Science And Technology | Rate distortion optimization for video denoising |
| JP4909859B2 (ja) * | 2007-09-28 | 2012-04-04 | 株式会社日立ハイテクノロジーズ | 検査装置及び検査方法 |
| US8483803B2 (en) * | 2008-09-15 | 2013-07-09 | Varian Medical Systems, Inc. | Systems and methods for tracking and targeting object in a patient using imaging techniques |
| US20110176611A1 (en) | 2010-01-15 | 2011-07-21 | Yu-Wen Huang | Methods for decoder-side motion vector derivation |
| US9126044B2 (en) * | 2010-04-15 | 2015-09-08 | Cardiac Pacemakers, Inc. | Autonomic modulation using transient response with intermittent neural stimulation |
| CN103039075B (zh) | 2010-05-21 | 2015-11-25 | Jvc建伍株式会社 | 图像编码装置、图像编码方法、以及图像解码装置、图像解码方法 |
| US8730318B2 (en) * | 2010-07-29 | 2014-05-20 | Hitachi-Ge Nuclear Energy, Ltd. | Inspection apparatus and method for producing image for inspection |
| CN102986224B (zh) | 2010-12-21 | 2017-05-24 | 英特尔公司 | 用于增强的解码器侧运动向量导出处理的系统及方法 |
| JP6143430B2 (ja) | 2012-05-08 | 2017-06-07 | 三菱プレシジョン株式会社 | バイアス補正機能を備えた振動型ジャイロ |
| US10958927B2 (en) * | 2015-03-27 | 2021-03-23 | Qualcomm Incorporated | Motion information derivation mode determination in video coding |
-
2016
- 2016-02-17 WO PCT/SE2016/050123 patent/WO2017142449A1/en not_active Ceased
- 2016-02-17 JP JP2016520029A patent/JP6419170B2/ja not_active Expired - Fee Related
- 2016-02-17 US US15/026,928 patent/US10390038B2/en active Active
- 2016-02-17 EP EP16890800.2A patent/EP3417618A4/en not_active Withdrawn
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2007004678A1 (ja) * | 2005-07-05 | 2007-01-11 | Ntt Docomo, Inc. | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
| WO2009084340A1 (ja) * | 2007-12-28 | 2009-07-09 | Sharp Kabushiki Kaisha | 動画像符号化装置、および、動画像復号装置 |
| WO2011121942A1 (ja) * | 2010-03-31 | 2011-10-06 | 株式会社Jvcケンウッド | 動画像符号化装置、動画像符号化方法及び動画像符号化プログラム、ならびに動画像復号装置、動画像復号方法及び動画像復号プログラム |
| WO2011145282A1 (ja) * | 2010-05-21 | 2011-11-24 | 株式会社Jvcケンウッド | 画像符号化装置、画像符号化方法および画像符号化プログラム、ならびに画像復号装置、画像復号方法および画像復号プログラム |
| JP2012191311A (ja) * | 2011-03-09 | 2012-10-04 | Nippon Telegr & Teleph Corp <Ntt> | 映像符号化/復号方法,映像符号化/復号装置およびそのプログラム |
Non-Patent Citations (3)
| Title |
|---|
| "Algorithm Description of Joint Exploration Test Model 1 (JEM 1)", INTERNATIONAL ORGANIZATION FOR STANDARDIZATION ISO/IEC JTC1/SC29/WG11 CODING OF MOVING PICTURES AND, vol. ISO/IEC JTC1/SC29/WG11/N15790, JPN6018009199, October 2015 (2015-10-01), pages 1 - 25, ISSN: 0003785235 * |
| EUGEN WIGE ET AL.: "In-Loop Noise-Filtered Prediction for High Efficiency Video Coding", IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY, vol. 24, no. 7, JPN6018014948, July 2014 (2014-07-01), pages 1142 - 1155, ISSN: 0003785234 * |
| JIANLE CHEN ET AL.: "Further improvements to HMKTA-1.0", ITU - TELECOMMUNICATIONS STANDARDIZATION SECTOR STUDY GROUP 16 QUESTION 6 VIDEO CODING EXPERTS GROUP, vol. VCEG-AZ07_v2, JPN6018014946, June 2015 (2015-06-01), pages 1 - 8, ISSN: 0003785233 * |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2024222716A1 (en) * | 2023-04-24 | 2024-10-31 | Mediatek Inc. | Signaling partitioning information for video and image coding |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2017142449A1 (en) | 2017-08-24 |
| EP3417618A1 (en) | 2018-12-26 |
| US10390038B2 (en) | 2019-08-20 |
| US20180054628A1 (en) | 2018-02-22 |
| JP6419170B2 (ja) | 2018-11-07 |
| EP3417618A4 (en) | 2019-07-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6419170B2 (ja) | ビデオピクチャを符号化および復号する方法および装置 | |
| JP6379186B2 (ja) | ビデオピクチャを符号化および復号する方法および装置 | |
| JP5330647B2 (ja) | 適応参照画像の発生 | |
| RU2683165C1 (ru) | Внутреннее предсказание блочного копирования с асимметричными разделами и схемами поиска на стороне кодера, диапазоны поиска и подходы к разделению | |
| RU2696311C1 (ru) | Устройство и способ для компенсации движения видео с выбираемым интерполяционным фильтром | |
| JP5606625B2 (ja) | ビデオ符号化のための高度な動きモデルを使った参照処理 | |
| KR20090039720A (ko) | 적응적 참조 필터링을 위한 방법 및 장치 | |
| TWI737137B (zh) | 視訊編碼之非線性適應性迴圈濾波方法和裝置 | |
| KR100853336B1 (ko) | 화상 부호화 장치 및 화상 복호화 장치 | |
| RU2684193C1 (ru) | Устройство и способ для компенсации движения в видеоизображении | |
| US9438920B2 (en) | Picture encoding method, picture encoding apparatus, picture decoding method and picture decoding apparatus | |
| KR102402671B1 (ko) | 보간 필터의 연산 복잡도를 조절할 수 있는 영상 처리 장치, 영상 보간 방법 및 영상 부호화 방법 | |
| CN102067600A (zh) | 将局部自适应滤波用于运动补偿内插和基准画面滤波的方法和装置 | |
| US20190253707A1 (en) | Video coding method and apparatus utilizing adaptive interpolation filter | |
| CN114430904A (zh) | 利用环内子图像级可控噪声生成进行的视频压缩 | |
| CN119137953A (zh) | 色度样本的交叉分量预测 | |
| KR20230157975A (ko) | 딥러닝 기반 yuv 비디오 압축을 위한 모션 흐름 코딩 | |
| US20140044167A1 (en) | Video encoding apparatus and method using rate distortion optimization | |
| US20250227278A1 (en) | Method and apparatus for cross-component prediction for video coding | |
| CN111050167B (zh) | 用于恢复由源帧的重构产生的劣化帧的方法和装置 | |
| JP2007329678A (ja) | 輝度マスキング及び輝度補償を用いた超解像処理方法及び装置 | |
| WO2025139532A1 (en) | Methods and apparatus of enabling tools on scaled reference picture for video coding | |
| CN113840144A (zh) | 图像分量的预测方法、编码器、解码器及计算机存储介质 | |
| US20250301158A1 (en) | Method and apparatus for cross-component prediction for video coding | |
| CN114175659A (zh) | 用于双向光流的比特宽度控制的装置和方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160531 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180314 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180808 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180822 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180918 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181009 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6419170 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |