WO2011152315A1 - 画像処理装置および方法 - Google Patents
画像処理装置および方法 Download PDFInfo
- Publication number
- WO2011152315A1 WO2011152315A1 PCT/JP2011/062248 JP2011062248W WO2011152315A1 WO 2011152315 A1 WO2011152315 A1 WO 2011152315A1 JP 2011062248 W JP2011062248 W JP 2011062248W WO 2011152315 A1 WO2011152315 A1 WO 2011152315A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- motion vector
- vector information
- image
- unit
- small area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
Definitions
- the motion vector information storage unit can store motion vector information of one small area for each partial area.
- the motion vector information of the processing target small area obtained by dividing the processing target partial area of the processing target frame image into a plurality of parts using the temporal correlation of the motion vector information
- the motion vector information storage unit Using the stored motion vector information, a calculation unit that calculates motion vector information of the reference small area, and a calculation unit that calculates
- An image processing apparatus comprising: a decoding unit that decodes motion vector information of the processing target small region encoded in the encoding mode using the motion vector information and using temporal correlation of the motion vector information.
- the calculation unit stores motion vector information corresponding to a partial region including the reference small region, and motion vector information corresponding to another partial region adjacent to the partial region, stored in the motion vector information storage unit.
- the motion vector information of the reference small area can be calculated using at least one of them.
- the motion vector information of the processing target small region obtained by dividing the processing target partial region of the processing target frame image into a plurality of reference small regions at the same position as the processing target small region of the reference frame
- motion vector information of a part of the small areas included in the partial areas is stored for each partial area of the reference frame, and the motion vector information is
- the motion vector information of the reference small area is calculated using the stored motion vector information, and the motion vector information is calculated using the calculated motion vector information.
- the motion vector information of the small area to be processed is encoded.
- the lossless encoding unit 106 performs lossless encoding such as variable length encoding and arithmetic encoding on the quantized transform coefficient.
- the inverse orthogonal transform unit 109 performs inverse orthogonal transform on the supplied transform coefficient by a method corresponding to the orthogonal transform processing by the orthogonal transform unit 104.
- the inversely orthogonal transformed output (restored difference information) is supplied to the calculation unit 110.
- the rate control unit 117 controls the quantization operation rate of the quantization unit 105 based on the compressed image stored in the storage buffer 107 so that overflow or underflow does not occur.
- FIG. 2 is a diagram for explaining an example of the state of motion prediction / compensation processing with 1/4 pixel accuracy defined in the AVC encoding method.
- each square represents a pixel.
- A indicates the position of integer precision pixels stored in the frame memory 112
- b, c, d indicate positions of 1/2 pixel precision
- e1, e2, e3 indicate 1/4 pixel precision. Indicates the position.
- the pixel value at the position of c is generated as shown in the following formulas (4) to (6) by applying a 6 tap FIR filter in the horizontal direction and the vertical direction.
- temporal direct mode Tempooral Direct Mode
- the block at the same space address as the current block is a Co-Located block
- the motion vector information in the Co-Located block is mv col .
- Predictor is the motion vector information of the peripheral blocks.
- the motion vector buffer 183 supplies the motion vector information corresponding to the block address of the designated peripheral macroblock to the motion vector interpolation unit 182.
- the motion vector interpolation unit 182 performs interpolation processing using the supplied motion vector information, and generates motion vector information corresponding to the target Co-located block.
- the motion vector buffer 183 supplies motion vector information corresponding to the supplied block address to the motion vector interpolation unit 182.
- step S101 the A / D converter 101 performs A / D conversion on the input image.
- step S102 the screen rearrangement buffer 102 stores the A / D converted image, and rearranges the picture from the display order to the encoding order.
- step S113 the selection unit 116 determines the optimal prediction mode based on the cost function values output from the intra prediction unit 114 and the motion prediction / compensation unit 115. That is, the selection unit 116 selects either the prediction image generated by the intra prediction unit 114 or the prediction image generated by the motion prediction / compensation unit 115.
- step S115 the accumulation buffer 107 accumulates the encoded data output from the lossless encoding unit 106.
- the encoded data stored in the storage buffer 107 is appropriately read out and transmitted to the decoding side via the transmission path.
- the selection unit 210 reads out the inter-processed image and the referenced image from the frame memory 209 and supplies them to the motion prediction / compensation unit 212. Further, the selection unit 210 reads an image used for intra prediction from the frame memory 209 and supplies the image to the intra prediction unit 211.
- step S201 the accumulation buffer 201 accumulates the transmitted encoded data.
- step S202 the lossless decoding unit 202 decodes the encoded data supplied from the accumulation buffer 201. That is, the I picture, P picture, and B picture encoded by the lossless encoding unit 106 in FIG. 1 are decoded.
- step S205 the calculation unit 205 adds the predicted image to the difference information obtained by the process in step S204. As a result, the original image data is decoded.
- step S207 the frame memory 209 stores the filtered decoded image.
- the lossless decoding unit 202 determines whether the encoded data is intra-encoded based on the decoded prediction mode information in step S231.
- the motion prediction / compensation unit 212 supplies the generated predicted image to the calculation unit 205 via the selection unit 213, ends the prediction process, and returns the process to step S208 in FIG. The process after step S209 is executed.
- the motion vector information (motion vector information 301A to motion vector information 304A) of the submacroblocks at the four corners (submacroblock 301 to submacroblock 304) is used as the motion vector. You may make it hold
- the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
- the terrestrial tuner 1013 receives a broadcast wave signal of terrestrial analog broadcast via an antenna, demodulates it, acquires a video signal, and supplies it to the video decoder 1015.
- the video decoder 1015 performs a decoding process on the video signal supplied from the terrestrial tuner 1013 and supplies the obtained digital component signal to the video signal processing circuit 1018.
- the television receiver 1000 also has a digital tuner 1016 and an MPEG decoder 1017.
- the audio data supplied from the MPEG decoder 1017 is subjected to predetermined processing in the audio signal processing circuit 1022 as in the case of the audio data supplied from the audio A / D conversion circuit 1014, and an echo cancellation / audio synthesis circuit 1023.
- predetermined processing in the audio signal processing circuit 1022 as in the case of the audio data supplied from the audio A / D conversion circuit 1014, and an echo cancellation / audio synthesis circuit 1023.
- sound adjusted to a predetermined volume is output from the speaker 1025.
- the television receiver 1000 also includes an audio codec 1028, an internal bus 1029, an SDRAM (Synchronous Dynamic Random Access Memory) 1030, a flash memory 1031, a CPU 1032, a USB (Universal Serial Bus) I / F 1033, and a network I / F 1034.
- an audio codec 1028 an internal bus 1029
- an SDRAM Serial Dynamic Random Access Memory
- flash memory 1031
- CPU central processing unit
- USB Universal Serial Bus
- the network I / F 1034 is connected to the network via a cable attached to the network terminal 1035.
- the network I / F 1034 transmits the audio data supplied from the audio codec 1028 to another device connected to the network.
- the network I / F 1034 receives, for example, audio data transmitted from another device connected via the network via the network terminal 1035, and receives the audio data via the internal bus 1029 to the audio codec 1028. Supply.
- the cellular phone 1100 simultaneously converts the audio collected by the microphone (microphone) 1121 during imaging by the CCD camera 1116 to analog-digital conversion by the audio codec 1159 and further encodes it.
- the cellular phone 1100 uses the above-described image decoding device 200 as the image decoder 1156 that performs such processing. That is, as in the case of the image decoding apparatus 200, the image decoder 1156, when performing the motion vector information decoding process using the correlation in the time direction, only the motion vector information of some sub-macroblocks of each macroblock.
- the motion vector information stored in the motion vector buffer of the temporal motion vector decoding unit 221 and the other sub-macroblocks is calculated by interpolation using the other motion vector information held in the motion vector buffer. Therefore, the image decoder 1156 can reduce the amount of motion vector information stored in the motion vector buffer, and can reduce the load of the motion vector information decoding process using the correlation in the time direction.
- the mobile phone 1100 can analyze the two-dimensional code obtained by the CCD camera 1116 and captured by the main control unit 1150 and obtain information recorded in the two-dimensional code.
- the cellular phone 1100 uses the CCD camera 1116.
- an image sensor CMOS image sensor
- CMOS Complementary Metal Metal Oxide Semiconductor
- the mobile phone 1100 can capture an image of a subject and generate image data of the image of the subject as in the case where the CCD camera 1116 is used.
- the receiving unit 1221 receives an infrared signal from a remote controller (not shown), converts it into an electrical signal, and outputs it to the recorder control unit 1226.
- the recorder control unit 1226 is constituted by, for example, a microprocessor and executes various processes according to a program stored in the program memory 1228. At this time, the recorder control unit 1226 uses the work memory 1229 as necessary.
- the recording / playback unit 1233 has a hard disk as a storage medium for recording video data, audio data, and the like.
- the recording / playback unit 1233 encodes the audio data supplied from the audio decoder 1224 by the encoder 1251, for example.
- the recording / playback unit 1233 encodes the video data supplied from the video encoder 1241 of the display converter 1230 by the encoder 1251.
- the recording / playback unit 1233 combines the encoded data of the audio data and the encoded data of the video data by a multiplexer.
- the recording / playback unit 1233 amplifies the synthesized data by channel coding, and writes the data to the hard disk via the recording head.
- the hard disk recorder 1200 when the hard disk recorder 1200 generates encoded data to be recorded on the hard disk, the image data to be recorded is encoded in a mode in which motion vector information is encoded using the correlation in the time direction.
- the amount of memory required for the encoding process can be reduced, and the load can be reduced.
- the recording medium 1333 is an arbitrary readable / writable removable medium such as a magnetic disk, a magneto-optical disk, an optical disk, or a semiconductor memory.
- the recording medium 1333 may be of any kind as a removable medium, and may be a tape device, a disk, or a memory card.
- a non-contact IC card or the like may be used.
- the camera 1300 can receive image data generated in the CCD / CMOS 1312, encoded data of video data read from the DRAM 1318 or the recording medium 1333, and encoded data of video data acquired via the network in the time direction.
- the motion vector information is encoded in a mode that performs the encoding process using the correlation, the amount of memory necessary for the decoding process can be reduced and the load can be reduced.
- the camera 1300 uses the image encoding device 100 as the encoder 1341.
- the encoder 1341 performs only time-based motion vector information of a part of sub-macroblocks of each macroblock when performing motion vector information coding processing using temporal correlation.
- the motion vector information stored in the motion vector buffer 183 of the motion vector encoding unit 121 and the other sub macroblocks is calculated by interpolation using other motion vector information stored in the motion vector buffer 183. . Therefore, the encoder 1341 can reduce the amount of motion vector information stored in the motion vector buffer 183, and can reduce the load of the motion vector information encoding process using the correlation in the time direction.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
1.第1の実施の形態(画像符号化装置)
2.第2の実施の形態(画像復号装置)
3.第3の実施の形態(パーソナルコンピュータ)
4.第4の実施の形態(テレビジョン受像機)
5.第5の実施の形態(携帯電話機)
6.第6の実施の形態(ハードディスクレコーダ)
7.第7の実施の形態(カメラ)
[画像符号化装置]
図1は、画像処理装置としての画像符号化装置の一実施の形態の構成を表している。
ところで、MPEG-2等の符号化方式においては、線形内挿処理により、1/2画素精度の動き予測・補償処理を行っているが、AVC符号化方式においては、これが、6タップのFIRフィルタを用いた1/4画素精度の動き予測・補償処理を行っており、これにより、符号化効率が向上している。
また、MPEG-2においては、動き予測・補償処理の単位は、フレーム動き補償モードの場合には16×16画素、フィールド動き補償モードの場合には第一フィールド、第二フィールドのそれぞれに対し、16×8画素を単位として動き予測・補償処理が行なわれる。
ところで、AVC符号化方式において、より高い符号化効率を達成するには、適切な予測モードの選択が重要である。
このため、High Complexity Modeより低い演算量での実現が可能である。
また非特許文献2は、インタースライスに対して拡張されたマクロブロックを適用する提案であるが、非特許文献3においては、拡張されたマクロブロックを、イントラスライスに適用することが提案されている。
図1に示された画像符号化装置100においては、Bピクチャを符号化する際、時間ダイレクトモード(temporal direct mode)を用いた符号化処理をするため、参照フレームにおける動きベクトル情報をメモリに保持しておく必要がある。非特許文献1における動きベクトル符号化方法を、Pピクチャにおいても用いる際には、Pピクチャ符号化の際にも、動きベクトル情報をメモリに保持しておく必要がある。動きベクトル情報の、メモリへの保持は、全ての動き補償ブロックに対して行う必要があった。
図13は、図1の時間動きベクトル符号化部121の詳細な構成例を示すブロック図である。
次に、以上のような画像符号化装置100により実行される各処理の流れについて説明する。最初に、図14のフローチャートを参照して、符号化処理の流れの例を説明する。
次に、図15のフローチャートを参照して、図14のステップS112において実行されるインター動き予測処理の流れの例を説明する。
図16のフローチャートを参照して、時間動きベクトル符号化処理の流れの例を説明する。
この場合、動き予測・補償部115は、処理をステップS158に進め、その動きベクトル情報を、動きベクトルバッファ183に供給する。動きベクトルバッファ183は、動き予測・補償部115から供給されるその動きベクトル情報を保存する。
[画像復号装置]
図17は、画像復号装置の主な構成例を示すブロック図である。図17に示される画像復号装置200は、画像符号化装置100に対応する復号装置である。
次に、以上のような画像復号装置200により実行される各処理の流れについて説明する。最初に、図18のフローチャートを参照して、復号処理の流れの例を説明する。
次に、図19のフローチャートを参照して、図18のステップS208において実行される予測処理の詳細な流れの例を説明する。
[パーソナルコンピュータ]
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図21に示されるようなパーソナルコンピュータとして構成されるようにしてもよい。
[テレビジョン受像機]
図22は、画像復号装置200を用いるテレビジョン受像機の主な構成例を示すブロック図である。
フラッシュメモリ1031に記憶されているプログラムは、テレビジョン受像機1000の起動時などの所定のタイミングでCPU1032により読み出される。フラッシュメモリ1031には、デジタル放送を介して取得されたEPGデータ、ネットワークを介して所定のサーバから取得されたデータなども記憶される。
[携帯電話機]
図23は、画像符号化装置100および画像復号装置200を用いる携帯電話機の主な構成例を示すブロック図である。
携帯電話機1100は、その変換処理により得られた送信用信号を、アンテナ1114を介して図示しない基地局へ送信する。基地局へ伝送された送信用信号(電子メール)は、ネットワークおよびメールサーバ等を介して、所定のあて先に供給される。
これにより、例えば、簡易ホームページにリンクされた動画像ファイルに含まれる音声データが再生される。
[ハードディスクレコーダ]
図24は、画像符号化装置100および画像復号装置200を用いるハードディスクレコーダの主な構成例を示すブロック図である。
記録再生部1233は、デコーダ1252によりオーディオデータおよびビデオデータをデコードする。記録再生部1233は、復号したオーディオデータをD/A変換し、モニタ1260のスピーカに出力する。また、記録再生部1233は、復号したビデオデータをD/A変換し、モニタ1260のディスプレイに出力する。
ディスプレイコンバータ1230は、ビデオデコーダ1225から供給されるビデオデータと同様に、レコーダ制御部1226から供給されるビデオデータを処理し、ディスプレイ制御部1232を介してモニタ1260に供給し、その画像を表示させる。
[カメラ]
図25は、画像符号化装置100および画像復号装置200を用いるカメラの主な構成例を示すブロック図である。
エンコーダ1341は、画像符号化装置100の場合と同様に、時間方向の相関を利用した動きベクトル情報の符号化処理を行う場合、各マクロブロックの一部のサブマクロブロックの動きベクトル情報のみを時間動きベクトル符号化部121の動きベクトルバッファ183に格納し、それ以外のサブマクロブロックの動きベクトル情報は、動きベクトルバッファ183に保持させた他の動きベクトル情報を用いて内挿処理等によって算出する。
したがって、エンコーダ1341は、動きベクトルバッファ183に格納する動きベクトル情報の量を低減させることができ、時間方向の相関を利用した動きベクトル情報の符号化処理の負荷を低減させることができる。
(1) 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードにおいて、
前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶する動きベクトル情報記憶部と、
前記動きベクトル情報記憶部により前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、前記動きベクトル情報記憶部により記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出する算出部と、
前記算出部により算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記処理対象小領域の動きベクトル情報を符号化する符号化部と
を備える画像処理装置。
(2) 前記動きベクトル情報記憶部は、1つの前記部分領域につき、1つの前記小領域の動きベクトル情報を記憶する
前記(1)に記載の画像処理装置。
(3) 前記動きベクトル情報記憶部は、各部分領域の一番左上の小領域の動きベクトル情報を記憶する
前記(2)に記載の画像処理装置。
(4) 前記動きベクトル情報記憶部は、1つの前記部分領域につき、複数の前記小領域の動きベクトル情報を記憶する
前記(1)に記載の画像処理装置。
(5) 前記動きベクトル情報記憶部は、各部分領域の4隅の小領域の動きベクトル情報を記憶する
前記(4)に記載の画像処理装置。
(6) 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報のうち、少なくとも1つを用いて、前記参照小領域の動きベクトル情報を算出する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(7) 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報を用いた内挿処理により、前記参照小領域の動きベクトル情報を算出する
前記(1)乃至(5)のいずれかに記載の画像処理装置。
(8) 前記算出部は、前記参照小領域を含む部分領域、および、前記部分領域に隣接する他の部分領域のそれぞれの代表点と、前記参照小領域の代表点との間の距離に応じた値を、前記内挿処理のための重み係数として用いる
前記(7)に記載の画像処理装置。
(9) 前記算出部は、前記内挿処理に用いる各動きベクトル情報が対応する小領域の大きさ、前記小領域内の画像の複雑さ、若しくは、前記小領域内の画素分散の類似性のいずれかに応じた値を、前記内挿処理のための重み係数として用いる
前記(7)に記載の画像処理装置。
(10) 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードに対応する画像処理装置の画像処理方法であって、
動きベクトル情報記憶部が、前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶し、
算出部が、前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出し、
符号化部が、算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記処理対象小領域の動きベクトル情報を符号化する
画像処理方法。
(11) 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードにおいて、
前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶する動きベクトル情報記憶部と、
前記動きベクトル情報記憶部により前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、前記動きベクトル情報記憶部により記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出する算出部と、
前記算出部により算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記符号化モードで符号化された前記処理対象小領域の動きベクトル情報を復号する復号部と
を備える画像処理装置。
(12) 前記動きベクトル情報記憶部は、1つの前記部分領域につき、1つの前記小領域の動きベクトル情報を記憶する
前記(11)に記載の画像処理装置。
(13) 前記動きベクトル情報記憶部は、各部分領域の一番左上の小領域の動きベクトル情報を記憶する
前記(12)に記載の画像処理装置。
(14) 前記動きベクトル情報記憶部は、1つの前記部分領域につき、複数の前記小領域の動きベクトル情報を記憶する
前記(11)に記載の画像処理装置。
(15) 前記動きベクトル情報記憶部は、各部分領域の4隅の小領域の動きベクトル情報を記憶する
前記(14)に記載の画像処理装置。
(16) 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報のうち、少なくとも1つを用いて、前記参照小領域の動きベクトル情報を算出する
前記(11)乃至(15)のいずれかに記載の画像処理装置。
(17) 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報を用いた内挿処理により、前記参照小領域の動きベクトル情報を算出する
前記(11)乃至(15)のいずれかに記載の画像処理装置。
(18) 前記算出部は、前記参照小領域を含む部分領域、および、前記部分領域に隣接する他の部分領域のそれぞれの代表点と、前記参照小領域の代表点との間の距離に応じた値を、前記内挿処理のための重み係数として用いる
前記(17)に記載の画像処理装置。
(19) 前記算出部は、前記内挿処理に用いる各動きベクトル情報が対応する小領域の大きさ、前記小領域内の画像の複雑さ、若しくは、前記小領域内の画素分散の類似性のいずれかに応じた値を、前記内挿処理のための重み係数として用いる
前記(17)に記載の画像処理装置。
(20) 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードに対応する画像処理装置の画像処理方法であって、
動きベクトル情報記憶部が、前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶し、
算出部が、前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出し、
復号部が、算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記符号化モードで符号化された前記処理対象小領域の動きベクトル情報を復号する
画像処理方法。
Claims (20)
- 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードにおいて、
前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶する動きベクトル情報記憶部と、
前記動きベクトル情報記憶部により前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、前記動きベクトル情報記憶部により記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出する算出部と、
前記算出部により算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記処理対象小領域の動きベクトル情報を符号化する符号化部と
を備える画像処理装置。 - 前記動きベクトル情報記憶部は、1つの前記部分領域につき、1つの前記小領域の動きベクトル情報を記憶する
請求項1に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、各部分領域の一番左上の小領域の動きベクトル情報を記憶する
請求項2に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、1つの前記部分領域につき、複数の前記小領域の動きベクトル情報を記憶する
請求項1に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、各部分領域の4隅の小領域の動きベクトル情報を記憶する
請求項4に記載の画像処理装置。 - 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報のうち、少なくとも1つを用いて、前記参照小領域の動きベクトル情報を算出する
請求項1に記載の画像処理装置。 - 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報を用いた内挿処理により、前記参照小領域の動きベクトル情報を算出する
請求項1に記載の画像処理装置。 - 前記算出部は、前記参照小領域を含む部分領域、および、前記部分領域に隣接する他の部分領域のそれぞれの代表点と、前記参照小領域の代表点との間の距離に応じた値を、前記内挿処理のための重み係数として用いる
請求項7に記載の画像処理装置。 - 前記算出部は、前記内挿処理に用いる各動きベクトル情報が対応する小領域の大きさ、前記小領域内の画像の複雑さ、若しくは、前記小領域内の画素分散の類似性のいずれかに応じた値を、前記内挿処理のための重み係数として用いる
請求項7に記載の画像処理装置。 - 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードに対応する画像処理装置の画像処理方法であって、
動きベクトル情報記憶部が、前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶し、
算出部が、前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出し、
符号化部が、算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記処理対象小領域の動きベクトル情報を符号化する
画像処理方法。 - 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードにおいて、
前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶する動きベクトル情報記憶部と、
前記動きベクトル情報記憶部により前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、前記動きベクトル情報記憶部により記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出する算出部と、
前記算出部により算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記符号化モードで符号化された前記処理対象小領域の動きベクトル情報を復号する復号部と
を備える画像処理装置。 - 前記動きベクトル情報記憶部は、1つの前記部分領域につき、1つの前記小領域の動きベクトル情報を記憶する
請求項11に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、各部分領域の一番左上の小領域の動きベクトル情報を記憶する
請求項12に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、1つの前記部分領域につき、複数の前記小領域の動きベクトル情報を記憶する
請求項11に記載の画像処理装置。 - 前記動きベクトル情報記憶部は、各部分領域の4隅の小領域の動きベクトル情報を記憶する
請求項14に記載の画像処理装置。 - 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報のうち、少なくとも1つを用いて、前記参照小領域の動きベクトル情報を算出する
請求項11に記載の画像処理装置。 - 前記算出部は、前記動きベクトル情報記憶部により記憶されている、前記参照小領域を含む部分領域に対応する動きベクトル情報、および、前記部分領域に隣接する他の部分領域に対応する動きベクトル情報を用いた内挿処理により、前記参照小領域の動きベクトル情報を算出する
請求項11に記載の画像処理装置。 - 前記算出部は、前記参照小領域を含む部分領域、および、前記部分領域に隣接する他の部分領域のそれぞれの代表点と、前記参照小領域の代表点との間の距離に応じた値を、前記内挿処理のための重み係数として用いる
請求項17に記載の画像処理装置。 - 前記算出部は、前記内挿処理に用いる各動きベクトル情報が対応する小領域の大きさ、前記小領域内の画像の複雑さ、若しくは、前記小領域内の画素分散の類似性のいずれかに応じた値を、前記内挿処理のための重み係数として用いる
請求項17に記載の画像処理装置。 - 動きベクトル情報の時間相関を利用して、処理対象フレーム画像の処理対象部分領域が複数に分割された、処理対象小領域の動きベクトル情報を、参照フレームの、前記処理対象小領域と同位置にある参照小領域の動きベクトル情報を用いて符号化する符号化モードに対応する画像処理装置の画像処理方法であって、
動きベクトル情報記憶部が、前記参照フレームの各部分領域について、前記部分領域に含まれる小領域のうち、一部の小領域の動きベクトル情報を記憶し、
算出部が、前記動きベクトル情報が記憶されていない小領域を前記参照小領域とする場合、記憶されている前記動きベクトル情報を用いて、前記参照小領域の動きベクトル情報を算出し、
復号部が、算出された前記動きベクトル情報を用いて、前記動きベクトル情報の時間相関を利用して、前記符号化モードで符号化された前記処理対象小領域の動きベクトル情報を復号する
画像処理方法。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/699,875 US20130070856A1 (en) | 2010-06-04 | 2011-05-27 | Image processing apparatus and method |
| CN2011800263340A CN102939757A (zh) | 2010-06-04 | 2011-05-27 | 图像处理装置和方法 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010129415A JP2011259040A (ja) | 2010-06-04 | 2010-06-04 | 画像処理装置および方法 |
| JP2010-129415 | 2010-06-04 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2011152315A1 true WO2011152315A1 (ja) | 2011-12-08 |
Family
ID=45066682
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2011/062248 Ceased WO2011152315A1 (ja) | 2010-06-04 | 2011-05-27 | 画像処理装置および方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20130070856A1 (ja) |
| JP (1) | JP2011259040A (ja) |
| CN (1) | CN102939757A (ja) |
| WO (1) | WO2011152315A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012099278A1 (en) * | 2011-01-21 | 2012-07-26 | Sharp Kabushiki Kaisha | Method for decoding video using buffer compression for motion vector competition |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| PL3091743T3 (pl) * | 2014-01-03 | 2025-09-01 | University-Industry Cooperation Group Of Kyung Hee University | Sposób i urządzenie do indukowania informacji o ruchu pomiędzy punktami czasowymi podrzędnej jednostki predykcyjnej |
| CN106254878B (zh) * | 2015-06-14 | 2020-06-12 | 同济大学 | 一种图像编码及解码方法、图像处理设备 |
| WO2016202189A1 (zh) * | 2015-06-14 | 2016-12-22 | 同济大学 | 图像编码及解码方法、图像处理设备、计算机存储介质 |
| CN105430414A (zh) * | 2015-12-03 | 2016-03-23 | 福州瑞芯微电子股份有限公司 | 一种帧间预测解码方法和装置 |
| CN105704493B (zh) * | 2016-03-09 | 2018-12-18 | 宏祐图像科技(上海)有限公司 | 基于块特征对运动矢量进行扩展的方法及系统 |
| US10721489B2 (en) * | 2016-09-06 | 2020-07-21 | Qualcomm Incorporated | Geometry-based priority for the construction of candidate lists |
| US11917128B2 (en) * | 2017-08-22 | 2024-02-27 | Google Llc | Motion field estimation based on motion trajectory derivation |
| US10659788B2 (en) | 2017-11-20 | 2020-05-19 | Google Llc | Block-based optical flow estimation for motion compensated prediction in video coding |
| JP7324065B2 (ja) * | 2019-06-26 | 2023-08-09 | キヤノン株式会社 | 動きベクトル検出装置、撮像装置、動きベクトル検出方法、及びプログラム |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004194274A (ja) * | 2002-07-26 | 2004-07-08 | Matsushita Electric Ind Co Ltd | 動画像符号化方法、動画像復号化方法および記録媒体 |
| JP2004194283A (ja) * | 2002-11-25 | 2004-07-08 | Matsushita Electric Ind Co Ltd | 動き補償方法、画像符号化方法および画像復号化方法 |
| JP2006254347A (ja) * | 2005-03-14 | 2006-09-21 | Mitsubishi Electric Corp | 画像符号化装置 |
| JP2008048199A (ja) * | 2006-08-17 | 2008-02-28 | Fujitsu Ltd | 動き予測処理装置、画像符号化装置および画像復号化装置 |
| JP2009049519A (ja) * | 2007-08-14 | 2009-03-05 | Kddi Corp | 動画像符号化装置の予測動きベクトル生成装置 |
| JP2009055519A (ja) * | 2007-08-29 | 2009-03-12 | Sony Corp | 符号化処理装置、符号化処理方法、復号処理装置、及び、復号処理方法 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR100846780B1 (ko) * | 2003-11-10 | 2008-07-16 | 삼성전자주식회사 | 움직임 벡터 추정 방법 및 장치 |
| JP4419062B2 (ja) * | 2004-03-29 | 2010-02-24 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
| KR20050119285A (ko) * | 2004-06-16 | 2005-12-21 | 삼성전자주식회사 | 하이브리드 블록기반 움직임 추정장치 및 그 방법 |
-
2010
- 2010-06-04 JP JP2010129415A patent/JP2011259040A/ja not_active Withdrawn
-
2011
- 2011-05-27 CN CN2011800263340A patent/CN102939757A/zh active Pending
- 2011-05-27 WO PCT/JP2011/062248 patent/WO2011152315A1/ja not_active Ceased
- 2011-05-27 US US13/699,875 patent/US20130070856A1/en not_active Abandoned
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004194274A (ja) * | 2002-07-26 | 2004-07-08 | Matsushita Electric Ind Co Ltd | 動画像符号化方法、動画像復号化方法および記録媒体 |
| JP2004194283A (ja) * | 2002-11-25 | 2004-07-08 | Matsushita Electric Ind Co Ltd | 動き補償方法、画像符号化方法および画像復号化方法 |
| JP2006254347A (ja) * | 2005-03-14 | 2006-09-21 | Mitsubishi Electric Corp | 画像符号化装置 |
| JP2008048199A (ja) * | 2006-08-17 | 2008-02-28 | Fujitsu Ltd | 動き予測処理装置、画像符号化装置および画像復号化装置 |
| JP2009049519A (ja) * | 2007-08-14 | 2009-03-05 | Kddi Corp | 動画像符号化装置の予測動きベクトル生成装置 |
| JP2009055519A (ja) * | 2007-08-29 | 2009-03-12 | Sony Corp | 符号化処理装置、符号化処理方法、復号処理装置、及び、復号処理方法 |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012099278A1 (en) * | 2011-01-21 | 2012-07-26 | Sharp Kabushiki Kaisha | Method for decoding video using buffer compression for motion vector competition |
| US9749657B2 (en) | 2011-01-21 | 2017-08-29 | Sharp Kabushiki Kaisha | Buffer compression for motion vector competition |
| US10397613B2 (en) | 2011-01-21 | 2019-08-27 | Velos Media, Llc | Method for deriving a motion vector |
| US10771816B2 (en) | 2011-01-21 | 2020-09-08 | Velos Media, Llc | Method for deriving a motion vector |
| US11350129B2 (en) | 2011-01-21 | 2022-05-31 | Velos Media, Llc | Method and device for encoding and decoding a video bitstream using a selected motion vector |
Also Published As
| Publication number | Publication date |
|---|---|
| US20130070856A1 (en) | 2013-03-21 |
| JP2011259040A (ja) | 2011-12-22 |
| CN102939757A (zh) | 2013-02-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2011155378A1 (ja) | 画像処理装置および方法 | |
| WO2011152315A1 (ja) | 画像処理装置および方法 | |
| WO2010101064A1 (ja) | 画像処理装置および方法 | |
| JPWO2010095560A1 (ja) | 画像処理装置および方法 | |
| JP2011041037A (ja) | 画像処理装置および方法 | |
| WO2010095559A1 (ja) | 画像処理装置および方法 | |
| JP2011050001A (ja) | 画像処理装置および方法 | |
| WO2010035731A1 (ja) | 画像処理装置および方法 | |
| JP2011151683A (ja) | 画像処理装置および方法 | |
| JP5556996B2 (ja) | 画像処理装置および方法 | |
| WO2011155377A1 (ja) | 画像処理装置および方法 | |
| WO2010035732A1 (ja) | 画像処理装置および方法 | |
| JPWO2010064674A1 (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
| WO2012108271A1 (ja) | 画像処理装置および方法 | |
| WO2011096318A1 (ja) | 画像処理装置および方法 | |
| JP2012147127A (ja) | 画像処理装置および方法 | |
| JPWO2010101063A1 (ja) | 画像処理装置および方法 | |
| WO2011096317A1 (ja) | 画像処理装置および方法 | |
| JP2012019447A (ja) | 画像処理装置および方法 | |
| WO2010035735A1 (ja) | 画像処理装置および方法 | |
| WO2011145437A1 (ja) | 画像処理装置および方法 | |
| WO2011125809A1 (ja) | 画像処理装置および方法 | |
| JP2012160991A (ja) | 画像処理装置および方法、並びに、プログラム | |
| WO2012005195A1 (ja) | 画像処理装置および方法 | |
| WO2011125625A1 (ja) | 画像処理装置および方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| WWE | Wipo information: entry into national phase |
Ref document number: 201180026334.0 Country of ref document: CN |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11789718 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 13699875 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 11789718 Country of ref document: EP Kind code of ref document: A1 |