[go: up one dir, main page]

JP4672561B2 - Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium - Google Patents

Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP4672561B2
JP4672561B2 JP2006018144A JP2006018144A JP4672561B2 JP 4672561 B2 JP4672561 B2 JP 4672561B2 JP 2006018144 A JP2006018144 A JP 2006018144A JP 2006018144 A JP2006018144 A JP 2006018144A JP 4672561 B2 JP4672561 B2 JP 4672561B2
Authority
JP
Japan
Prior art keywords
image data
image
output
digital content
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006018144A
Other languages
Japanese (ja)
Other versions
JP2007201831A (en
Inventor
孝之 永松
義弘 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2006018144A priority Critical patent/JP4672561B2/en
Publication of JP2007201831A publication Critical patent/JP2007201831A/en
Application granted granted Critical
Publication of JP4672561B2 publication Critical patent/JP4672561B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、デジタルコンテンツデータの画像を処理して出力する画像処理装置、受信装置、放送システム、画像処理方法、画像処理プログラム、および記録媒体に関する。   The present invention relates to an image processing apparatus, a receiving apparatus, a broadcast system, an image processing method, an image processing program, and a recording medium that process and output an image of digital content data.

従来、デジタル放送では、ビデオデータがMPEG−2(Motion Picture Experts Group-2)で圧縮され、パケット化されて送信する方法が広く用いられている。MPEG−2では、画像データをDCT(Discrete Cosine Transform)変換することで、データを周波数領域に変換して圧縮符号化する。さらに、動き補償された隣接フレームまたはフィールドとの差分を符号化することによって、データは圧縮符号化される。   Conventionally, in digital broadcasting, a method in which video data is compressed by MPEG-2 (Motion Picture Experts Group-2), packetized, and transmitted is widely used. In MPEG-2, image data is subjected to DCT (Discrete Cosine Transform) conversion, thereby converting the data into the frequency domain and compression encoding. Furthermore, the data is compression encoded by encoding the difference from the motion compensated adjacent frame or field.

MPEG−2で用いられる各ピクチャについて、図11を参照して説明する。図11は、デジタルコンテンツをエンコードおよびデコードする際の各画像データの様子を示す概略図である。MPEG−2では、Iピクチャ、Pピクチャ、およびBピクチャの3種類のピクチャが存在する。Iピクチャは、同一のフレームまたはフィールド内で符号化されたピクチャである。   Each picture used in MPEG-2 will be described with reference to FIG. FIG. 11 is a schematic diagram showing the state of each image data when digital content is encoded and decoded. In MPEG-2, there are three types of pictures: I picture, P picture, and B picture. An I picture is a picture encoded in the same frame or field.

Pピクチャは、同一フレームまたはフィールドから順方向予測を行い、差分を符号化したピクチャである。Bピクチャは、過去および未来の2つのフレームから双方向予測を行い、差分を符号化したピクチャである。Bピクチャは、過去のIピクチャまたはPピクチャを予測時の参照画面として用いるだけでなく、未来のIピクチャまたはPピクチャも予測時の参照画面として用いる。そのため、IピクチャおよびPピクチャは先に処理され、IピクチャとPピクチャとの間にあるBピクチャは後で処理される。   A P picture is a picture obtained by performing forward prediction from the same frame or field and encoding a difference. The B picture is a picture obtained by performing bi-directional prediction from two past and future frames and encoding a difference. The B picture not only uses the past I picture or P picture as a reference screen for prediction, but also uses the future I picture or P picture as a reference screen for prediction. Therefore, the I picture and the P picture are processed first, and the B picture between the I picture and the P picture is processed later.

以下では、図11を参照しながら、入力された入力動画シーケンスを符号化するエンコードが行われ、符号化されたデータを復号化するデコードを再び行うことで、再生動画シーケンスを得る処理の手順について説明する。   In the following, referring to FIG. 11, an encoding process for encoding an input video sequence that has been input is performed, and a process for obtaining a playback video sequence by performing decoding again to decode the encoded data is performed. explain.

Iピクチャの前のBピクチャはIピクチャがエンコードされるまではバッファにためて待つ必要がある。図11では、B0およびB1のBピクチャはI2のIピクチャが符号化されるまでバッファに一時保存して出力を待つ必要がある。同様に、B3およびB4のBピクチャは、P5のPピクチャがエンコードされるまでバッファに一時保存して出力するのを待つ必要がある。   The B picture before the I picture needs to wait for the buffer until the I picture is encoded. In FIG. 11, the B pictures of B0 and B1 need to be temporarily stored in a buffer and wait for output until the I picture of I2 is encoded. Similarly, the B picture of B3 and B4 needs to be temporarily stored in the buffer and output until the P picture of P5 is encoded.

以下、同様に、I2、B0、B1、P5、B3、B4・・・という順にエンコードされる。すなわち、エンコーダ側では、Bピクチャを飛ばして次のIピクチャまたはPピクチャを先に処理し、その後、間にあるBピクチャを処理する。   Similarly, encoding is performed in the order of I2, B0, B1, P5, B3, B4. That is, the encoder side skips the B picture and processes the next I picture or P picture first, and then processes the B picture in between.

一方、エンコード処理されたものをデコード処理する場合、図11に示すように、I2、B0、B1、P5、B3、B4・・・の順に符号化データを受け取ると、その順にデコード処理を行う。しかし、元の入力画像順で最初の画像B0が再生可能となるまでは画面提示は待たされるので、ここでは1フレーム分の遅延が生じる。すなわち、デコーダ側ではBピクチャはデコード処理してすぐに表示するが、IピクチャとPピクチャはデコードが完了しても、次のいくつかのBピクチャを処理して、当該処理が完了するまで表示しないため、画面提示が行われるまでの遅延が生じる。   On the other hand, when decoding the encoded data, as shown in FIG. 11, when the encoded data is received in the order of I2, B0, B1, P5, B3, B4..., The decoding processing is performed in that order. However, since the screen presentation is kept waiting until the first image B0 can be reproduced in the original input image order, a delay of one frame occurs here. That is, on the decoder side, the B picture is decoded and displayed immediately, but even if the I picture and P picture are decoded, the next several B pictures are processed and displayed until the process is completed. Therefore, a delay occurs until the screen is presented.

このため、ユーザがデジタル放送を視聴している際に、チャンネルを切り替えた場合、チャンネル切り替え後の映像がすぐに表示されずに、切り替え後の映像が表示装置に表示されるまでは長い時間が必要となる。上記の時間は、映像が表示されるまで待っているという心理的負担をユーザに与えてしまうので、次々とチャンネルを切り替えながらコンテンツを視聴する、いわゆるザッピング視聴には不向きである。   For this reason, when the user switches the channel while watching the digital broadcast, the video after the channel switching is not immediately displayed, and it takes a long time until the video after the switching is displayed on the display device. Necessary. The above time gives the user a psychological burden of waiting until an image is displayed, and is not suitable for so-called zapping viewing, in which content is viewed while switching channels one after another.

そこで、特許文献1には、チャンネル切り替えによる出力待ち時間に、切り替え前のチャンネルと切り替え後のチャンネルとを繋ぐ静止画像を出力するデジタル放送用テレビ受信機が開示されている。   Therefore, Patent Document 1 discloses a digital broadcast television receiver that outputs a still image that connects a channel before switching and a channel after switching to an output waiting time due to channel switching.

上記のデジタル放送用テレビ受信機では、チャンネル切り替えの際に切り替え後の映像が映し出されるまでに、チャンネル切り替え前の静止画が画面上で徐々に小さくなっていき、その後にチャンネル切り替え後の動画が徐々に大きくなっていく様子が表示される。上記の一連の出力処理で、チャンネル切り替えに生じる時間を埋めることで、チャンネル切り替え時間の長さによるユーザの心理的負担を軽減している。   In the above digital broadcasting television receiver, the still image before switching the channel gradually decreases on the screen until the switched image is displayed when the channel is switched. A state of gradually increasing is displayed. By filling the time required for channel switching with the series of output processes described above, the user's psychological burden due to the length of the channel switching time is reduced.

また、特許文献1のデジタル放送用テレビ受信機では、メモリに保存されているチャンネル切り替え前の複数の画像データを使って複数の画像を作り出し、チャンネル切り替え時にその動画を映し出す。これにより、チャンネル切り替えに生じる時間を埋めることで、チャンネル切り替え時間の長さによるユーザの心理的負担を軽減している。
特開平9−135394号公報(1997年5月20日公開)
Further, the digital broadcast television receiver of Patent Document 1 creates a plurality of images using a plurality of image data before channel switching stored in a memory, and displays the moving image at the time of channel switching. Thereby, the user's psychological burden due to the length of the channel switching time is reduced by filling the time required for the channel switching.
Japanese Patent Laid-Open No. 9-135394 (published on May 20, 1997)

しかしながら、特許文献1で開示されているデジタル放送用テレビ受信機では、メモリに保存されているチャンネル切り替え前の画像を加工し、徐々に小さくしていく複数の画像を作成して画面に出力するため、ユーザはチャンネル切り替えた後もしばらくの間、チャンネル切り替え前の画像または動画をもとにした画像を見続けなければならないという問題を生じる。そのため、ユーザはチャンネルを切り替える操作を行ったのに、切り替え前の画像を見ていることに対して違和感を感じ、心理的負担を感じることになる。   However, the digital broadcast television receiver disclosed in Patent Document 1 processes the images before channel switching stored in the memory, creates a plurality of images that are gradually reduced, and outputs them to the screen. Therefore, there arises a problem that the user must continue to view the image based on the image before the channel switching or the moving image for a while after the channel switching. For this reason, the user performs an operation of switching channels, but feels uncomfortable with seeing the image before switching, and feels a psychological burden.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像処理装置、受信装置、放送システム、画像処理方法、画像処理プログラム、および記録媒体を実現することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to output an image with less sense of incongruity between the time the digital content data is output and the time the image is actually output. An image processing apparatus, a receiving apparatus, a broadcasting system, an image processing method, an image processing program, and a recording medium.

本発明の処理装置は、上記課題を解決するために、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、デコードした時点ですぐに出力しない再生画像を先行画像として抽出する抽出手段と、前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備え、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴としている。   In order to solve the above problems, the processing device of the present invention includes an input unit for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images. An image processing apparatus comprising: a playback unit that decodes the digital content data received from the input unit into a playback image; and an output unit that rearranges the plurality of decoded playback images and outputs the video as a video. Extracting means for extracting a reproduced image not output as a preceding image, adding means for adding an effect to the preceding image to generate an additional image, and when the digital content data is input, the preceding image is decoded. A period from when the plurality of reproduced images decoded from the above are rearranged and output as video. Output control means for controlling the output means so as to output an image, and when the digital content data input to the input means is changed, the first decoded playback image is extracted as the preceding image It is characterized by doing.

上記の構成によれば、デジタルコンテンツデータをデコードし、再生画像を並び替えて、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、最初に得られる再生画像に対してエフェクトを付加した付加画像を生成し、最初に出力するべき再生画像のデコード完了までの待ち時間に出力する。   According to the above configuration, the digital content that is input as a result of performing the decoding process on the digital content in the time required for the processing that is performed when the digital content data is decoded, the reproduced images are rearranged, and the video is output. When the data is changed, an additional image obtained by adding an effect to the reproduced image obtained first is generated, and is output at a waiting time until the decoding of the reproduced image to be output first is completed.

これによって、再生画像が出力されるより前に、付加手段からの付加画像が出力されるように制御される。ここで、付加手段は、抽出手段によって抽出される先行画像、すなわち、上記映像での順序が前の再生画像が未だデコードされておらず、遅延して出力される再生画像である先行画像に対して映像効果を付加している。   Thus, control is performed so that the additional image from the adding means is output before the reproduced image is output. Here, the adding means applies to the preceding image extracted by the extracting means, i.e., the preceding image that is a reproduced image that has not been decoded yet and is output in a delayed manner. Video effects.

したがって、付加手段は、先行画像がデコードされた時点より後であれば、本来であれば最初に出力すべき再生画像のデコードを完了可能な時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。よって、映像再生装置は、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記再生手段が映像として最初に出力する画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。   Therefore, the adding means, if it is later than the time point when the preceding image is decoded, is the time when the decoding of the reproduced image to be output first should be completed, and the time point when the preceding image is set after that. It is possible to apply a video effect to the preceding image at an earlier time. Therefore, when the preceding image is arranged at the beginning of the digital content data that is instructed to be output, the video playback device is earlier than the time when the playback means decodes and outputs the first output image as video. Thus, it is possible to output a signal indicating an image obtained by adding a video effect to the preceding image obtained by decoding the image data in the digital content data instructed to be output.

また、付加手段が出力する先行画像は、上記再生手段がデコードした再生画像を並び替えて映像を出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力する画像により類似しているので、ユーザに与える違和感を軽減することができる。   The preceding image output by the adding means is a reproduced image to be output after the time when the reproduced images decoded by the reproducing means are rearranged and the video is output. This is an image obtained by adding a video effect to an image generated by decoding the image data in the inside. Therefore, compared with an image that has been instructed to be output before the output of the digital content data is instructed, in many cases, it is more similar to the image that is output first as a video image. Can be reduced.

さらに、付加手段がエフェクトを付加する先行画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像再生装置を実現できる。   Further, since the preceding image to which the adding means adds an effect has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user hardly notices the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an image with less sense of incongruity between the time when the output of digital content data is instructed and the time when the image is actually output.

本発明の画像処理装置では、前記先行画像は、画面内の画素を全てイントラ符号化するイントラ符号化画像データであることが好ましい。   In the image processing apparatus of the present invention, it is preferable that the preceding image is intra-encoded image data in which all pixels in the screen are intra-encoded.

上記の構成によれば、デコードは最初にデコードされるが出力するまでに時間がある先行画像を用いて、映像として最初に出力するべき画像である再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。なお、具体例をあげると、上記のイントラ符号化された画像データは、例えば、MPEG2において、Iピクチャを用いてもよい。Iピクチャであれば、各GOPの最初にデコードされるフレームの画像データであるので、上記の条件を満たすことができる。   According to the above configuration, decoding is performed at the waiting time until the decoding of the reproduced image, which is the first image to be output, is performed using the preceding image that is first decoded but has time to output. An image can be generated. As a specific example, the intra-coded image data may be an I picture in MPEG2, for example. In the case of an I picture, the image data of the frame decoded at the beginning of each GOP is satisfied, so that the above condition can be satisfied.

本発明の画像処理装置では、前記出力制御手段は、前記入力手段に入力されるデジタルコンテンツデータが変更された場合、前記先行画像を映像として最初に出力すべき再生画像として用い、当該再生画像を出力するまでの期間、前記付加画像を出力するように前記出力手段を制御してもよい。   In the image processing apparatus of the present invention, when the digital content data input to the input unit is changed, the output control unit uses the preceding image as a playback image to be output first as a video, and uses the playback image. The output means may be controlled to output the additional image during a period until output.

上記の構成によれば、従来では、何も画像が出力されない期間、または、過去の画像を用いた画像が出力される期間および最初にデコードされる画像のデータより前に出力される画像が出力される期間において、これから出力する予定の、先行画像に基づいて作成した付加画像を、映像として最初に出力すべき再生画像が出力可能な状態になるまでの間出力することができる。これによって、何も画像が出力されない期間、または、過去の画像を用いた画像が出力される期間に違和感の少ない画像を出力し、さらに、時系列上の過去の画像が未来の画像よりも先に出力する可能性がなくなるので、ユーザの心理的負担をさらに減らすことができる。   According to the above configuration, conventionally, an image that is output before a period in which no image is output, or a period in which an image using a past image is output and data of an image that is first decoded is output. In this period, the additional image that is scheduled to be output and created based on the preceding image can be output until the reproduction image to be output first as a video is ready to be output. As a result, an image with less sense of incongruity is output during a period in which no image is output or an image using a past image is output, and the past image in time series is ahead of the future image. Therefore, the user's psychological burden can be further reduced.

前述の例と比較すると、付加手段が出力する再生画像は、上記再生手段が第2のデコードデータをデコードして出力する時点よりも後で出力すべき再生画像を先に出力することがなくなるため、さらに、ユーザに与える違和感を軽減することができる。   Compared with the above-described example, the reproduced image output by the adding unit does not output the reproduced image to be output later than the time when the reproducing unit decodes and outputs the second decoded data. Furthermore, the uncomfortable feeling given to the user can be reduced.

本発明の処理装置は、上記課題を解決するために、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する抽出手段と、前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備えることを特徴としている。   In order to solve the above problems, the processing device of the present invention includes an input unit for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images. An image processing apparatus comprising: a playback unit that decodes the digital content data received from the input unit into a playback image; and an output unit that rearranges the plurality of decoded playback images and outputs the video as a video. Extracting means for extracting an incomplete reproduced image as a preceding image from image data in which complete video cannot be decoded but part of the complete video can be decoded when the digital content data is changed Adding means for adding an effect to the preceding image to generate an additional image; and the digital content An output for controlling the output means to output the additional image during a period from when the preceding image is decoded to when the plurality of decoded reproduced images are rearranged and output as video. And a control means.

上記の構成によれば、デジタルコンテンツデータをデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像に対してエフェクトを付加した付加画像を生成し、並べ替えを行った再生画像のデコードが完了するまでの待ち時間に出力する。これによって、上記再生手段からの並べ替えを行った再生画像が出力されるより前に、付加手段からの付加画像が出力されるように制御される。   According to the above configuration, when the digital content data to be input is changed as a result of performing the decoding process on the digital content in the time required for the processing to be performed when decoding the digital content data and outputting the video, Reproduced image that cannot be decoded completely, but generates an additional image with an effect added to the incomplete replayed image from image data that can decode a part of the complete video. Is output during the waiting time until the decoding of is completed. In this way, control is performed so that the additional image from the adding means is output before the reproduced image subjected to the rearrangement from the reproducing means is output.

さらに、付加手段がエフェクトを付加する先行画像には映像効果が付されているので、映像として不完全であったとしてもユーザは、その相違に気付き難いようにすることができる。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、不完全ではあるが違和感の少ない画像を出力可能な画像再生装置を実現できる。   In addition, since the video effect is added to the preceding image to which the adding means adds the effect, even if the video is incomplete, the user can hardly notice the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an incomplete but little uncomfortable image from when the output of the digital content data is instructed until the image is actually output.

具体例をあげれば、入力されるデジタルコンテンツデータの変更等により、デジタルコンテンツデータのひとつのまとまりである映像のグループの途中から入力された、画像の一部しかデコードできないデータからデコードして生成された再生画像である先行画像に対して映像効果を付加している。   To give a specific example, it is generated by decoding from data that can be decoded only part of an image, which is input from the middle of a group of video that is a unit of digital content data due to changes in the input digital content data. A video effect is added to the preceding image that is the reproduced image.

本発明の画像処理装置では、前記先行画像は、画面内の画素にイントラ符号化されたデータを含むフレーム間順方向予測画像データであることが好ましい。   In the image processing device according to the aspect of the invention, it is preferable that the preceding image is inter-frame forward prediction image data including data intra-coded in pixels in the screen.

上記の構成によれば、デコードを完全に行うことは出来ないが、一部をデコードすることができる画像データから不完全なデコードを行った映像を先行画像に用いて、完全な再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。具体例をあげると、上記のイントラ符号化されたデータを含む画像データは、例えば、MPEG2において、Pピクチャを用いてもよい。   According to the above configuration, although decoding cannot be performed completely, a video that has been subjected to incomplete decoding from image data that can be partially decoded is used as a preceding image, and a complete reproduced image is decoded. An image to be output during the waiting time until completion can be generated. As a specific example, image data including the intra-encoded data may use a P picture in MPEG2, for example.

本発明の画像処理装置では、前記先行画像は、画面内の画素にイントラ符号化されたデータを含む双方向予測符号化画像データであることが好ましい。   In the image processing apparatus according to the aspect of the invention, it is preferable that the preceding image is bi-directional predictive encoded image data including data that is intra-encoded into pixels in the screen.

上記の構成によれば、デコードを完全に行うことは出来ないが、一部をデコードすることができる画像データからデコードした不完全な映像を先行画像に用いて、完全な再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。具体例をあげると、上記のイントラ符号化されたデータを含む画像データは、例えば、MPEG2において、Bピクチャを用いてもよい。   According to the above configuration, the decoding cannot be performed completely, but the incomplete video decoded from the image data that can be partially decoded is used as the preceding image until the decoding of the complete reproduced image is completed. An image to be output during the waiting time can be generated. As a specific example, the picture data including the intra-coded data may use a B picture in MPEG2, for example.

本発明の画像処理装置では、前記付加手段は、前記先行画像のパラメータを変更するエフェクトを付加することで、1つ以上の付加画像を生成し、前記出力制御手段は、前記先行画像との近似度が高くなって行く順序で前記付加画像を出力するように制御することが好ましい。   In the image processing apparatus according to the aspect of the invention, the adding unit generates one or more additional images by adding an effect of changing a parameter of the preceding image, and the output control unit approximates the preceding image. It is preferable to perform control so that the additional images are output in the order of increasing degrees.

上記の構成によれば、付加手段は、最初にデコードされる再生画像を用いて、段階的にエフェクトの強度がことなる複数の画像を作成し、段階的に元の再生画像に近づいてゆく動画を生成することができる。これによって、徐々に元の再生画像近づいて行く連続する画像を用いて画面をなだらかに連続させることができるので、さらに、ユーザに与える違和感を軽減することができる。   According to the above configuration, the adding means creates a plurality of images having step-by-step effects using the first decoded image and gradually approaches the original reproduced image. Can be generated. Thus, since the screen can be made to continue smoothly using successive images that gradually approach the original reproduced image, it is possible to further reduce the sense of discomfort given to the user.

なお、上記の近似度は、エフェクトを付加する前の先行画像と、エフェクトを付加した後の付加画像とを、予め定められた画像の特性を示すパラメータの観点から比較した結果、両画像がどの程度近似しているかを示すためのものであって、両画像の特性を示すパラメータ同士がより近い値である程、近似度は高くなるものとする。   Note that the degree of approximation described above is based on the comparison between the preceding image before the effect is added and the additional image after the effect is added from the viewpoint of the parameters indicating the characteristics of the predetermined image. The degree of approximation is higher as the parameters indicating the characteristics of both images are closer to each other.

具体例をあげると、上記画像の特性を示すパラメータが解像度の場合、解像度に差があれば有るほど近似度は低くなり、解像度が同じ場合に近似度は最大になる。また、上記画像の特性を示すパラメータが明度であれば、明度をより多量に変化させるエフェクトを付せば付す程、近似度が低下し、明度が同じであれば、近似度が最大になるものとする。   As a specific example, when the parameter indicating the characteristics of the image is resolution, the closer the resolution is, the lower the degree of approximation is. When the resolution is the same, the degree of approximation is maximum. If the parameter indicating the characteristics of the image is lightness, the degree of approximation decreases with the addition of an effect that changes the lightness in a larger amount. If the lightness is the same, the degree of approximation becomes maximum. And

本発明の画像処理装置では、前記エフェクトは、解像度、明度、彩度、およびぼかし度のうち少なくても1つのパラメータを変更するエフェクトであってもよい。   In the image processing apparatus of the present invention, the effect may be an effect that changes at least one parameter among resolution, brightness, saturation, and blur.

なお、前記エフェクトは上記の例に限定されない。徐々に元の画像に近づいてゆく複数の画像を構成できるエフェクトであれば、どのようなものであってもよい。   The effect is not limited to the above example. Any effect may be used as long as it can form a plurality of images that gradually approach the original image.

本発明の受信装置は、上記の画像処理装置と、ユーザの指示に基づいてデジタルコンテンツデータを受信し、受信した当該デジタルコンテンツデータを前記入力手段に入力する受信手段を備えたこと特徴としている。   A receiving apparatus according to the present invention includes the above-described image processing apparatus and receiving means for receiving digital content data based on a user instruction and inputting the received digital content data to the input means.

さらに、上記の受信装置と、当該受信装置へデジタルコンテンツデータを送信する送信装置とを備えることによって放送システムを構成することができる。   Furthermore, a broadcasting system can be configured by including the above-described receiving device and a transmitting device that transmits digital content data to the receiving device.

上記の構成を用いれば、上記と略同様の効果を奏する受信装置および放送システムを実現することができる。   If the above configuration is used, it is possible to realize a receiving apparatus and a broadcasting system that have substantially the same effects as described above.

本発明の画像処理方法は、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法において、デコードした時点ですぐに出力しない再生画像を先行画像として抽出するステップと、前記先行画像にエフェクトを付加して付加画像を生成するステップと、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備え、前記入力するステップに入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴としている。   An image processing method according to the present invention includes a step of inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and reproducing the inputted digital content data In an image processing method comprising a step of decoding into an image and a step of rearranging the plurality of decoded reproduced images and outputting as a video, a step of extracting a reproduced image that is not output immediately when decoded as a preceding image; A step of generating an additional image by adding an effect to the preceding image; and when the digital content data is input, the decoded images are rearranged after the preceding image is decoded and output as a video. Controlling to output the additional image during a period until Further comprising the input to the step of the input if the digital content data has been changed, it is characterized by extracting the first decoded reproduction image as the preceding image.

上記の構成によれば、デジタルコンテンツデータをデコードし、再生画像を並び替えて、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、最初に得られる再生画像に対してエフェクトを付加した付加画像を生成し、映像として最初に出力するべき再生画像のデコード完了までの待ち時間に出力する。   According to the above configuration, the first reproduction image obtained as a result of decoding the digital content during the time required for decoding the digital content data, rearranging the reproduction images, and outputting the video. An additional image to which an effect is added is generated, and is output in a waiting time until the decoding of the reproduced image to be output first as a video is completed.

これによって、再生画像が出力されるより前に、付加画像が出力されるように制御される。ここで、抽出するステップに抽出され、一時的に記憶される先行画像、すなわち、上記映像での順序が前の映像として最初に出力すべき再生画像が未だデコードされておらず、遅延して出力される再生画像である先行画像に対して映像効果を付加している。   Thus, the additional image is controlled to be output before the reproduced image is output. Here, the preceding image extracted and temporarily stored in the extracting step, that is, the reproduced image to be output first as the previous image in the order in the above video has not been decoded yet and is output with delay. A video effect is added to the preceding image that is the reproduced image to be reproduced.

したがって、付加画像を生成するステップでは、先行画像がデコードされた時点より後であれば、映像として最初に出力すべき再生画像がデコードされる時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。よって、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記デコードするステップで映像として最初に出力すべき再生画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。   Therefore, in the step of generating the additional image, if it is after the time point when the preceding image is decoded, the time point when the reproduction image to be output first as a video is decoded, and the time point when the preceding image is set thereafter It is possible to apply a video effect to the preceding image at an earlier time. Therefore, when the preceding image is arranged at the beginning of the digital content data instructed to be output, at a time earlier than the time when the reproduced image to be output first as a video is decoded and output in the decoding step, A signal indicating an image obtained by adding a video effect to a preceding image obtained by decoding the image data in the digital content data instructed to be output can be output.

また、付加画像を生成するステップで出力する先行画像は、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力すべき再生画像により類似しているので、ユーザに与える違和感を軽減することができる。   Further, the preceding image output in the step of generating the additional image is a reproduced image to be output after the time when the reproducing means decodes and outputs the first reproduced image to be output as the video. Is an image obtained by adding a video effect to an image generated by decoding image data in the digital content data instructed. Therefore, compared with an image that has been instructed to be output before the output of the digital content data is instructed, in many cases it is more similar to a reproduced image that should be output first as a video. The feeling of incongruity given can be reduced.

さらに、付加画像を生成するステップでエフェクトを付加する先行画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像処理方法を実現できる。   Further, since the preceding image to which the effect is added in the step of generating the additional image has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user notices the difference. hard. As a result, it is possible to realize an image processing method capable of outputting an image with less sense of incongruity between the time when the output of digital content data is instructed and the time when the image is actually output.

本発明の画像処理方法は、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するためのステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法であって、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出するステップと、前記先行画像にエフェクトを付加して付加画像を生成するステップと、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備えることを特徴としている。   The image processing method of the present invention includes a step for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images, and the input digital content data An image processing method comprising: a step of decoding a reproduced image; and a step of rearranging the plurality of decoded reproduced images and outputting the image as a video, wherein when the input digital content data is changed, Extracting an incomplete reproduced image as a preceding image from image data that cannot be decoded but can decode a part of a complete image, and adding an effect to the preceding image to generate an additional image And when the digital content data is input, the preceding image is decoded. It is characterized period until the output rearranges a plurality of the reproduced image obtained by decoding the video, further comprising the step of controlling to output the additional image from.

上記の構成によれば、デジタルコンテンツデータをデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出し、先行画像に対してエフェクトを付加した付加画像を生成し、再生画像を並び替えて映像として出力するまでの期間、出力する。   According to the above configuration, when the digital content data to be input is changed as a result of performing the decoding process on the digital content in the time required for the processing to be performed when decoding the digital content data and outputting the video, Incomplete playback image is extracted as a preceding image from image data that cannot decode a complete video but can decode a part of a complete video, and an additional image with an effect added to the previous image is generated. Then, it is output during the period until the playback images are rearranged and output as video.

これによって、並び替えられた映像が出力されるより前に、付加画像が出力されるように制御される。ここで、映像効果は抽出される先行画像、すなわち、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データからデコードした不完全な再生画像に対して付加している。   Accordingly, the additional image is controlled to be output before the rearranged video is output. Here, the video effect is added to the preceding image to be extracted, that is, the incomplete reproduced image decoded from the image data which cannot decode the complete video but can decode a part of the complete video. is doing.

よって、上記再生するステップで映像として出力する画像をデコードし、並び替えて出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。   Therefore, the video effect is applied to the preceding image obtained by decoding the image data in the digital content data instructed to be output at a time earlier than the time when the image output as the video is decoded and rearranged and output in the step of reproducing. A signal indicating the added image can be output.

さらに、エフェクトを付加するステップにおいて、先行画像には映像効果が付されているので、先行画像が映像として不完全であったとしても、ユーザはその相違に気付き難いようにすることができる。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、不完全ではあるが違和感の少ない画像を出力可能な画像再生方法を実現できる。   Furthermore, in the step of adding an effect, since the video effect is added to the preceding image, even if the preceding image is incomplete as a video, the user can hardly notice the difference. As a result, it is possible to realize an image reproduction method capable of outputting an incomplete but less uncomfortable image from the time when the output of digital content data is instructed until the image is actually output.

なお、上記画像処理装置における各手段を、プログラムによりコンピュータ上で実行させることができる。さらに、上記画像処理プログラムをコンピュータ読み取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記プログラムを実行させることができる。   Each unit in the image processing apparatus can be executed on a computer by a program. Furthermore, by storing the image processing program in a computer-readable recording medium, the program can be executed on any computer.

本発明の処理装置は、デジタルコンテンツデータを出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、最初に得られる画像データに対して、画像データを出力する際のエフェクトを付加した画像を生成し、エフェクトが付加された画像データを時系列に沿った画像データのデコード完了までの待ち時間に出力する。   The processing apparatus according to the present invention provides an effect of outputting image data with respect to image data obtained first as a result of performing decoding processing on digital content during the time required for processing performed when outputting digital content data. Is generated, and the image data to which the effect is added is output in a waiting time until the decoding of the image data along the time series is completed.

これによって、デコード終了後に出力する画像になだらかに繋がる、違和感の少ない画像を生成して出力するので、チャンネル切り替えなどの際に生じるデジタルコンテンツデータのデコードなどの処理に要する時間にユーザが感じる心理的負担を軽減することができる処理装置を実現することができる。   As a result, an image with a little sense of incongruity that is smoothly connected to the image to be output after the decoding is completed is generated and output. A processing apparatus that can reduce the burden can be realized.

すなわち、ユーザはチャンネル切り替え後の映像を鑑賞するまでの間、エフェクトが付加された画像データを鑑賞することができるので、チャンネル切り替え時間の長さにより生じるユーザの心理的負担を軽減することができる処理装置を実現することができる。   That is, since the user can view the image data with the effect added until the user views the video after the channel switching, the user's psychological burden caused by the length of the channel switching time can be reduced. A processing device can be realized.

〔実施形態1〕
本発明の一実施形態について図1〜図10に基づいて説明すると以下の通りである。以下、図面を参照しつつ本発明の一実施の形態について説明する。なお、以下の説明に用いる図面では、同一の部品に同一の符号を付してある。それらの名称および機能も同一である。従って、それらについての詳細な説明は繰り返さない。
Embodiment 1
One embodiment of the present invention is described below with reference to FIGS. Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings used for the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1は、本実施形態に係る放送システム1の要部構成を示す概略図である。図2は、当該放送システム1の受信装置10に設けられた画像処理装置20の要部構成を示すブロック図である。図3は、上記画像処理装置20に設けられた効果付加処理部(付加手段)30の要部構成を示すブロック図であって、当該効果付加処理部30は、デコードした画像に対して効果(エフェクト)を付加できる。以下、各機能ブロックについて、詳細を説明する。   FIG. 1 is a schematic diagram showing a main configuration of a broadcasting system 1 according to the present embodiment. FIG. 2 is a block diagram illustrating a main configuration of the image processing device 20 provided in the receiving device 10 of the broadcasting system 1. FIG. 3 is a block diagram showing the main configuration of an effect addition processing unit (addition means) 30 provided in the image processing apparatus 20, and the effect addition processing unit 30 applies an effect ( Effects) can be added. Details of each functional block will be described below.

図1に示すように、本実施形態に係る放送システム1は、ユーザ48の操作に応じたデジタルコンテンツをユーザに提供するものであって、受信装置10、デジタルコンテンツ提供サーバ(送信装置)42、外部機器44、表示装置46を備えている。   As shown in FIG. 1, the broadcasting system 1 according to the present embodiment provides a user with digital content according to the operation of the user 48, and includes a receiving device 10, a digital content providing server (transmitting device) 42, An external device 44 and a display device 46 are provided.

上記受信装置10は、ユーザ48からの操作指示に従ってデジタルコンテンツ提供サーバ42からデジタルコンテンツ50を受信し、外部機器44および表示装置46に画像処理を行った映像を出力するものであって、当該受信装置10は、コンテンツ受信部(受信手段)12、チャンネル切り替え部14、コンテンツ表示処理部(出力手段)16、および画像処理装置20を備えている。   The receiving device 10 receives the digital content 50 from the digital content providing server 42 in accordance with an operation instruction from the user 48, and outputs the image processed image to the external device 44 and the display device 46. The apparatus 10 includes a content receiving unit (receiving unit) 12, a channel switching unit 14, a content display processing unit (output unit) 16, and an image processing device 20.

上記コンテンツ受信部12は、チャンネル切り替え部14からの指示に従ってデジタルコンテンツ50を受信し、画像処理装置20に送信できる。一方、チャンネル切り替え部14は、ユーザからの操作を入力するためのインタフェースを含んでおり、ユーザ48によるチャンネル切り替え指示を受け付け、受信すべきデジタルコンテンツ50をコンテンツ受信部12へ指定できる。上記インタフェースとしては、例えば、リモートコントローラ(以下、リモコン)からの信号を受信する回路などが挙げられる。この場合、ユーザ48がリモコンを操作して現在鑑賞しているコンテンツのチャンネルを切り替えると、ユーザ48が行ったチャンネル切り替えの指示を示す信号がリモコンからチャンネル切り替え部14に入力され、チャンネル切り替え指示がコンテンツ受信部12に送られる。   The content receiving unit 12 can receive the digital content 50 in accordance with an instruction from the channel switching unit 14 and transmit it to the image processing apparatus 20. On the other hand, the channel switching unit 14 includes an interface for inputting an operation from the user, can receive a channel switching instruction from the user 48, and can specify the digital content 50 to be received to the content receiving unit 12. Examples of the interface include a circuit that receives a signal from a remote controller (hereinafter referred to as a remote controller). In this case, when the user 48 operates the remote controller to switch the channel of the content currently being viewed, a signal indicating a channel switching instruction performed by the user 48 is input to the channel switching unit 14 from the remote controller, and the channel switching instruction is received. It is sent to the content receiver 12.

上記画像処理装置20は、上記コンテンツ受信部12がチャンネル切り替え部14からの指示に基づいて受信したデジタルコンテンツ50をデコードし、デコードにより得られた画像データを外部機器44に出力したり、コンテンツ表示処理部16を介して表示装置46に出力したりできる。また、画像処理装置20は、デコードにより得られた画像データを出力するだけではなく、デコードにより得られた画像データに映像効果を付加した画像データも、外部機器44に出力したり、コンテンツ表示処理部16を介して表示装置46に出力したりできる。なお、コンテンツ表示処理部16は、画像処理装置20から出力された画像データを表示装置46へ出力するための処理(表示装置46に合った信号への変換など)を行っている。   The image processing apparatus 20 decodes the digital content 50 received by the content receiving unit 12 based on an instruction from the channel switching unit 14, and outputs the image data obtained by the decoding to the external device 44, or a content display Or output to the display device 46 via the processing unit 16. Further, the image processing apparatus 20 not only outputs image data obtained by decoding, but also outputs image data obtained by adding a video effect to the image data obtained by decoding to the external device 44 or content display processing. Or output to the display device 46 via the unit 16. The content display processing unit 16 performs processing for converting the image data output from the image processing device 20 to the display device 46 (such as conversion to a signal suitable for the display device 46).

上記外部機器44は、例えば、ハードディスクレコーダやビデオ録画装置などの記録装置であり、図示しない表示装置を備えていてもよい。一方、表示装置46は、例えば、ディスプレイ装置などである。当該外部機器44および表示装置46は、受信装置10に含まれていてもよいし、それぞれが別体に設けられていてもよい。また、両者の一方のみが受信装置10に含まれていてもよい。なお、図1では、放送システム1に外部機器44および表示装置46の双方が含まれている場合を例示しているが、一方のみが含まれていてもよい。   The external device 44 is, for example, a recording device such as a hard disk recorder or a video recording device, and may include a display device (not shown). On the other hand, the display device 46 is, for example, a display device. The external device 44 and the display device 46 may be included in the receiving device 10 or may be provided separately. Further, only one of the two may be included in the receiving device 10. Although FIG. 1 illustrates a case where the broadcast system 1 includes both the external device 44 and the display device 46, only one of them may be included.

また、デジタルコンテンツ50は、例えば、デジタル放送などで配信されているようなMPEG2などの動画像データをさす。デジタルコンテンツ50はネットワークを通じてストリーミングで配信されていてもよいし、各放送局から配信されチャンネル切り替えによって受信を行うものでもよい。以下では、デジタルコンテンツ提供サーバ42からデジタルコンテンツ50が配信される場合を例に説明する。   The digital content 50 refers to moving image data such as MPEG2 distributed by digital broadcasting, for example. The digital content 50 may be distributed by streaming through a network, or may be distributed from each broadcasting station and received by channel switching. Hereinafter, a case where the digital content 50 is distributed from the digital content providing server 42 will be described as an example.

なお、放送システム1は、外部のデジタルコンテンツ提供サーバ42から配信される形態に限らず、ホームサーバなどの記録装置に蓄積されたデジタルコンテンツ50を各部屋に設置されたディスプレイ、再生装置、PC、携帯電話機などに配信するものであってもよい。デジタルコンテンツ提供サーバ42は、再生装置の内部の記録装置または外部から挿入された記録媒体からデジタルコンテンツを読み出すものであってもよい。画像処理装置20に入力されるデジタルコンテンツ50が、画像データをデコードして画像を出力する順序と、エンコードされた画像データが入力される順序とが異なる画像データを含むデジタルコンテンツデータであればよい。   The broadcasting system 1 is not limited to the form distributed from the external digital content providing server 42, but the digital content 50 stored in a recording device such as a home server is displayed in each room, a playback device, a PC, It may be distributed to a mobile phone or the like. The digital content providing server 42 may read digital content from a recording device inside the playback device or a recording medium inserted from the outside. The digital content 50 input to the image processing apparatus 20 may be digital content data including image data in which the order in which the image data is decoded and the image is output differs from the order in which the encoded image data is input. .

次に、画像処理装置20の各処理部について、図2を参照して説明する。図2に示すように、画像処理装置20は、入力部(入力手段)22、コンテンツ蓄積部24、デコード処理部(再生手段)26、画像データ保管部28、効果付加処理部(付加手段)30、および画像データ出力処理部(出力制御手段)40を備えている。なお、図2では、説明の便宜上、画像データ出力処理部40から外部機器44への信号経路のみを図示しているが、画像データ出力処理部40の出力信号は、コンテンツ表示処理部16を介し、図1に示す表示装置46にも出力されている。   Next, each processing unit of the image processing apparatus 20 will be described with reference to FIG. As shown in FIG. 2, the image processing apparatus 20 includes an input unit (input unit) 22, a content storage unit 24, a decode processing unit (reproduction unit) 26, an image data storage unit 28, and an effect addition processing unit (addition unit) 30. , And an image data output processing unit (output control means) 40. In FIG. 2, for convenience of explanation, only the signal path from the image data output processing unit 40 to the external device 44 is illustrated, but the output signal of the image data output processing unit 40 is transmitted via the content display processing unit 16. 1 is also output to the display device 46 shown in FIG.

入力部22は、情報を入力するためのインタフェースである。入力部22は、外部から入力されたデジタルコンテンツ50を、コンテンツ蓄積部24に出力する。コンテンツ蓄積部24は、入力部22を介して入力されたデジタルコンテンツ50を蓄積する。コンテンツ蓄積部24は、ハードディスクなどの記録媒体でもよいし、フラッシュROMなどの半導体メモリでもよい。コンテンツ蓄積部24は、デジタルコンテンツ50を記録し蓄積できれば、どのような記録媒体であってもよい。   The input unit 22 is an interface for inputting information. The input unit 22 outputs the digital content 50 input from the outside to the content storage unit 24. The content storage unit 24 stores the digital content 50 input via the input unit 22. The content storage unit 24 may be a recording medium such as a hard disk or a semiconductor memory such as a flash ROM. The content storage unit 24 may be any recording medium as long as the digital content 50 can be recorded and stored.

デコード処理部26は、入力部22を介して入力され、コンテンツ蓄積部24に蓄積されているデジタルコンテンツを画像データにデコードする。デコード処理部26は、デコードした画像データを画像データ保管部28に出力する。画像データ保管部28は、デコード処理部26におけるデコード処理により得られた画像データを保管する。デコード処理部26に保管された画像データは、効果付加処理部30および画像データ出力処理部40によって、任意のタイミングで参照される。   The decode processing unit 26 decodes the digital content input through the input unit 22 and stored in the content storage unit 24 into image data. The decode processing unit 26 outputs the decoded image data to the image data storage unit 28. The image data storage unit 28 stores the image data obtained by the decoding process in the decoding processing unit 26. The image data stored in the decoding processing unit 26 is referred to by the effect addition processing unit 30 and the image data output processing unit 40 at an arbitrary timing.

効果付加処理部30は、画像データ保管部28にて保管された画像データを外部機器44に出力する際の効果を付加する処理を行う。効果付加処理部30で行う処理について、詳細は後述する。画像データ出力処理部40は、画像データ保管部28にて保管されている画像データを外部機器44に出力する。また、画像データ出力処理部40は効果付加処理部30にて効果が付加された画像データを外部機器44および表示装置46に出力できる。したがって、画像データ出力処理部40が効果付加処理部30にて効果が付加された画像データを出力した場合、ユーザ48は、表示装置46、および、外部機器44に表示装置が設けられているときは当該表示装置において、効果が付加された画像データを鑑賞できる。   The effect addition processing unit 30 performs processing for adding an effect when the image data stored in the image data storage unit 28 is output to the external device 44. Details of the processing performed by the effect addition processing unit 30 will be described later. The image data output processing unit 40 outputs the image data stored in the image data storage unit 28 to the external device 44. Further, the image data output processing unit 40 can output the image data to which the effect is added by the effect addition processing unit 30 to the external device 44 and the display device 46. Therefore, when the image data output processing unit 40 outputs the image data to which the effect is added by the effect addition processing unit 30, the user 48 is provided with a display device provided in the display device 46 and the external device 44. Can view the image data to which the effect is added on the display device.

次に、効果付加処理部30の機能的構成について、図3を参照して説明する。図3に示すように、効果付加処理部30は、解像度調整処理部31、明度調整処理部33、彩度調整処理部35、ぼかし度調整処理部37、画像データ処理部32・34・36・38、および画像データ結合処理部39を備えている。なお、効果付加処理部30は、必ずしもこれら全てを備えている必要はないし、ここに記載されている以外の機能を備えていても構わない。効果付加処理部30は、入力された画像データ60に対して、出力する際の効果を付加することができる機能が備わっていればどのような機能を持っていてもよい。   Next, the functional configuration of the effect addition processing unit 30 will be described with reference to FIG. As shown in FIG. 3, the effect addition processing unit 30 includes a resolution adjustment processing unit 31, a brightness adjustment processing unit 33, a saturation adjustment processing unit 35, a blur adjustment processing unit 37, and image data processing units 32, 34, 36, and so on. 38, and an image data combination processing unit 39. Note that the effect addition processing unit 30 is not necessarily provided with all of these, and may have functions other than those described here. The effect addition processing unit 30 may have any function as long as it has a function capable of adding an output effect to the input image data 60.

解像度調整処理部31は、入力された画像データ60に対して解像度を調整する処理を行い、画像データ処理部32は、解像度を調整した画像データを作成する。ここで、解像度を調整する方法としては、例えば入力された画像データを間引くことで解像度を落とす方法などが挙げられるが、必ずしもこれに限定されない。   The resolution adjustment processing unit 31 performs processing for adjusting the resolution of the input image data 60, and the image data processing unit 32 creates image data with the resolution adjusted. Here, as a method of adjusting the resolution, for example, there is a method of reducing the resolution by thinning out the input image data, but it is not necessarily limited thereto.

なお、解像度調整処理部31および画像データ処理部32は、それぞれ解像度の異なる1または複数の画像データを作成できる。また、解像度調整処理部31および画像データ処理部32は、入力された画像データ60よりも解像度の低い画像データを作成できる。   The resolution adjustment processing unit 31 and the image data processing unit 32 can create one or a plurality of image data having different resolutions. Further, the resolution adjustment processing unit 31 and the image data processing unit 32 can create image data having a resolution lower than that of the input image data 60.

明度調整処理部33は、入力された画像データ60に対して明度を調整する処理を行い、画像データ処理部34は明度を調整した画像データを作成する。ここで、明度を調整する方法としては、RGBの階調を調整して明度を調整する方法、または、ガンマ補正をかけて明度を調整する方法などが挙げられるが、必ずしもこれらに限定されない。   The brightness adjustment processing unit 33 performs a process of adjusting the brightness on the input image data 60, and the image data processing unit 34 creates image data with adjusted brightness. Here, examples of the method for adjusting the brightness include a method for adjusting the brightness by adjusting RGB gradations, and a method for adjusting the brightness by applying gamma correction, but are not necessarily limited thereto.

なお、明度調整処理部33および画像データ処理部34は、それぞれ明度の異なる1または複数の画像データを作成できる。また、明度調整処理部33および画像データ処理部34は、入力された画像データ60の明度よりも明度の低い画像データを作成するものであっても構わないし、入力された画像データ60の明度よりも明度の高い画像データを作成するものであっても構わない。   The brightness adjustment processing unit 33 and the image data processing unit 34 can create one or a plurality of image data having different brightnesses. Further, the lightness adjustment processing unit 33 and the image data processing unit 34 may create image data having a lightness lower than the lightness of the input image data 60, and may be based on the lightness of the input image data 60. Alternatively, image data with high brightness may be created.

彩度調整処理部35は、入力された画像データ60に対して彩度を調整する処理を行い、画像データ処理部36は、彩度を調整した画像データを作成する。ここで、彩度を調整する方法としては、RGBの階調を調整して彩度を調整する方法などが挙げられるが、必ずしもこれに限定されない。   The saturation adjustment processing unit 35 performs processing for adjusting the saturation of the input image data 60, and the image data processing unit 36 creates image data with adjusted saturation. Here, as a method of adjusting the saturation, a method of adjusting the saturation by adjusting the gradation of RGB may be mentioned, but the method is not necessarily limited thereto.

なお、彩度調整処理部35および画像データ処理部36は、それぞれ彩度の異なる1または複数の画像データを作成できる。また、彩度調整処理部35および画像データ処理部36は、入力された画像データ60の彩度よりも彩度の低い画像データを作成するものであっても構わないし、入力された画像データ60の彩度よりも彩度の高い画像データを作成するものであっても構わない。   Note that the saturation adjustment processing unit 35 and the image data processing unit 36 can create one or a plurality of image data having different saturations. Further, the saturation adjustment processing unit 35 and the image data processing unit 36 may create image data whose saturation is lower than the saturation of the input image data 60, or the input image data 60 Image data with higher saturation than that of the above may be created.

ぼかし度調整処理部37は、入力された画像データ60に対してぼかし度を調整する処理を行い、画像データ処理部38は、ぼかし度を調整した画像データを作成する。ここで、ぼかし度を調整する方法としては、フィルタ処理を行う方法があるが、必ずしもこれに限定されない。   The blur adjustment processing unit 37 performs a process of adjusting the blur on the input image data 60, and the image data processing unit 38 creates image data with the blur adjusted. Here, as a method of adjusting the blurring degree, there is a method of performing filter processing, but it is not necessarily limited thereto.

なお、ぼかし度調整処理部37および画像データ処理部38は、それぞれぼかし具合の異なる1または複数の画像データを作成できる。   Note that the blur adjustment processing unit 37 and the image data processing unit 38 can create one or a plurality of image data having different blur conditions.

画像データ処理部32、34、36および38において、複数の画像データが作成された場合、画像データ結合処理部39は、それぞれの複数データの画像を結合して一つの動画像データを作成できる。   When a plurality of pieces of image data are created in the image data processing units 32, 34, 36 and 38, the image data combination processing unit 39 can create one moving image data by combining the images of the plurality of pieces of data.

例えば、解像度調整処理部31および画像データ処理部32が解像度の異なる複数の画像データを作成した場合、画像データ結合処理部39は、解像度の低い画像データから解像度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、解像度の低い画像から徐々に解像度の高い画像が出力されているように見える。すなわち、ユーザ48は、画像の解像度が、低い解像度から、徐々に入力された画像データの解像度に近づいていくように感じる。   For example, when the resolution adjustment processing unit 31 and the image data processing unit 32 create a plurality of pieces of image data having different resolutions, the image data combination processing unit 39 performs an order from image data having a low resolution to image data having a high resolution. In addition, a plurality of pieces of the image data are combined to create one moving image data. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, it seems that an image with a gradually higher resolution is output from an image with a lower resolution. . That is, the user 48 feels that the resolution of the image gradually approaches the resolution of the input image data from a low resolution.

同様に、明度調整処理部33および画像データ処理部34が入力された画像データ60の明度よりも明度の低い複数の画像データを作成した場合、画像データ結合処理部39は、明度の低い画像データから明度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、明度の低い画像から徐々に明度が高い画像が出力されているように見える。すなわち、ユーザ48は、画像の明度が、低い明度からから徐々に入力された画像データの明度に近づいていくように感じる。   Similarly, when the brightness adjustment processing unit 33 and the image data processing unit 34 create a plurality of pieces of image data whose brightness is lower than the brightness of the input image data 60, the image data combination processing unit 39 displays the image data with a low brightness. A plurality of pieces of the image data are combined so as to create one moving image data so that the image data is ordered in descending order of brightness. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, it seems that an image with gradually increasing brightness is output from an image with lower brightness. . That is, the user 48 feels that the brightness of the image gradually approaches the brightness of the image data input from a low brightness.

逆に、明度調整処理部33および画像データ処理部34が入力された画像データ60の明度よりも明度の高い複数の画像データを作成した場合、画像データ結合処理部39は明度の高い画像データから明度の低い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、明度の高い画像から徐々に明度が低い画像が出力されているように見える。すなわち、ユーザ48は、画像の明度が、高い明度から徐々に入力された画像データの明度に近づいていくように感じる。   Conversely, when the brightness adjustment processing unit 33 and the image data processing unit 34 create a plurality of pieces of image data having a higher brightness than that of the input image data 60, the image data combination processing unit 39 uses the image data having a higher brightness. A plurality of pieces of the image data are combined so as to create one moving image data in order of image data having a low brightness. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, it seems that an image having a gradually lower brightness is output from an image having a higher brightness. . That is, the user 48 feels that the brightness of the image gradually approaches the brightness of the image data input from the high brightness.

また、彩度調整処理部35および画像データ処理部36が入力された画像データ60の彩度よりも彩度の低い複数の画像データを作成した場合、画像データ結合処理部39は、彩度の低い画像データから彩度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、彩度の低い画像から徐々に彩度が高い画像が出力されているように見える。すなわち、ユーザ48は、画像の彩度が、低い彩度から徐々に入力された画像データの彩度に近づいていくように感じる。   In addition, when the saturation adjustment processing unit 35 and the image data processing unit 36 create a plurality of pieces of image data whose saturation is lower than the saturation of the input image data 60, the image data combination processing unit 39 displays the saturation data. A plurality of pieces of image data are combined to create one moving image data so that the order is from low image data to high saturation image data. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, an image with gradually increasing saturation is output from an image with lower saturation. Looks like. That is, the user 48 feels that the saturation of the image gradually approaches the saturation of the image data input from the low saturation.

逆に、彩度調整処理部35および画像データ処理部36が入力された画像データ60の彩度よりも彩度の高い複数の画像データを作成した場合、画像データ結合処理部39は、彩度の高い画像データから彩度の低い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、彩度の高い画像から徐々に彩度が低い画像が出力されているように見える。すなわち、ユーザ48は、画像の彩度が、高い彩度から徐々に入力された画像データの彩度に近づいていくように感じる。   Conversely, when the saturation adjustment processing unit 35 and the image data processing unit 36 create a plurality of pieces of image data with higher saturation than the saturation of the input image data 60, the image data combination processing unit 39 A plurality of pieces of image data are combined so as to create one moving image data so that the image data is ordered from high image data to low image data. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, an image with a gradually lower saturation is output from a higher saturation image. Looks like. That is, the user 48 feels that the saturation of the image gradually approaches the saturation of the image data input from the high saturation.

さらに、ぼかし度調整処理部37および画像データ処理部38がぼかし度の異なる複数の画像データを作成した場合、画像データ結合処理部39は、ぼかし度の大きい画像データからぼかし度の小さい画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、ぼかし度の大きい画像データから徐々にぼかし度が小さい画像データが出力されているように見える。すなわち、ユーザ48はぼかし度の大きい画像データから徐々に入力された画像データに近づいていくように感じる。   Further, when the blur adjustment processing unit 37 and the image data processing unit 38 create a plurality of image data having different blur levels, the image data combination processing unit 39 changes from image data having a high blur level to image data having a low blur level. A plurality of pieces of the image data are combined so as to create one moving image data so as to be in this order. As a result, when the user 48 views one piece of moving image data created by the image data combination processing unit 39 on the display device 46, for example, image data with a gradually reduced blur is output from image data with a higher blur. Looks like you are. That is, the user 48 feels as if the image data gradually inputted from the image data having a large blurring degree is approached.

次に、映像効果を付加した画像を出力するタイミングについて、図4を参照して説明する。図4は、各実施形態におけるデジタルコンテンツ50をエンコードおよびデコードする際の各画像データの様子を示す概略図である。図4では、上から順に、時間、受信画像、復号画像、実施形態1の画面出力を、時系列にそって左から右に示している。また、時間は、左から右に順に、時刻T1〜T26までの各時刻を示している。なお、図4では、実施形態2の画面出力も併記しているが、これについては、実施形態2において説明する。   Next, the timing for outputting an image with an added video effect will be described with reference to FIG. FIG. 4 is a schematic diagram showing the state of each image data when encoding and decoding the digital content 50 in each embodiment. In FIG. 4, the time, the received image, the decoded image, and the screen output of the first embodiment are shown from left to right along the time series in order from the top. The time indicates each time from time T1 to time T26 in order from left to right. In FIG. 4, the screen output of the second embodiment is also shown. This will be described in the second embodiment.

上述したように、本実施形態に係るデジタルコンテンツ50は、映像を構成する各画像をそれぞれエンコードした画像データから構成されている。各画像データは、Iピクチャ、PピクチャまたはBピクチャのいずれかである。画像データがIピクチャである場合、デコード処理部26は、当該画像データのみから、その画像データをデコードしたデータを生成できる。一方、画像データがPまたはBピクチャである場合、デコード処理部26は、その画像データをエンコードする際に参照した他の画像データを参照して、その画像データをデコードする。   As described above, the digital content 50 according to the present embodiment is composed of image data obtained by encoding each image constituting a video. Each image data is either an I picture, a P picture, or a B picture. When the image data is an I picture, the decoding processing unit 26 can generate data obtained by decoding the image data from only the image data. On the other hand, when the image data is a P or B picture, the decoding processing unit 26 decodes the image data with reference to other image data referred to when the image data is encoded.

ここで、仮に、デジタルコンテンツ50における各画像データが、それぞれに対応する画像の上記映像での時系列順に並べられており、これらの各画像データを含むデジタルコンテンツ50が送信されたとすると、PまたはBピクチャの画像データを受信した時点では、その画像データをデコードする際に必要な他の画像データが受信されていない場合がある。この場合、受信した画像データをデコード処理部26がデコードできないため、デコード処理部26がいずれの画像データをも処理できない期間が生じる虞がある。   Here, if each image data in the digital content 50 is arranged in time series in the video of the corresponding image, and the digital content 50 including each image data is transmitted, P or When the image data of the B picture is received, other image data necessary for decoding the image data may not be received. In this case, since the decode processing unit 26 cannot decode the received image data, there is a possibility that a period during which the decode processing unit 26 cannot process any image data may occur.

これに対して、本施形態に係るデジタルコンテンツ50では、PまたはBピクチャの画像データは、その画像データをデコードする際に必要な他の画像データよりも後になるように並べられており、受信装置10は、受信したデジタルコンテンツに含まれる各画像データをデコードした後、デコードされた画像データの順序を並べ替え、当該各画像データを、それぞれに対応する画像の、上記映像における時系列順に出力している。これにより、デコード処理部26を効率良く動作させている。   On the other hand, in the digital content 50 according to the present embodiment, the image data of the P or B picture is arranged so as to be behind the other image data necessary for decoding the image data. The apparatus 10 decodes each image data included in the received digital content, rearranges the order of the decoded image data, and outputs each image data in the time-series order in the video of the corresponding image. is doing. Thereby, the decoding processing unit 26 is operated efficiently.

一例として、図4の例では、デジタルコンテンツ50において、各画像データが、I2、B0、B1、P5、B3…の順で並べられている。なお、各画像データには、Iピクチャ、PピクチャまたはBピクチャのいずれであるかを示す英文字(I、PまたはB)に、映像における時系列順を示す数値を連結した参照符号が付されている。また、以下では、説明の便宜上、画像データに対応する画像も、当該画像データと同じ参照符号を付して参照する。なお、本実施形態に係るデジタルコンテンツ50は、複数のGOP(Group of Pictures)から構成されているが、図4では、1つのGOPのみを例示している。図4の例では、当該GOPがB0〜P11の12フレームから構成されている。   As an example, in the example of FIG. 4, in the digital content 50, each image data is arranged in the order of I2, B0, B1, P5, B3. Note that each image data is provided with a reference code obtained by concatenating an English character (I, P, or B) indicating whether it is an I picture, a P picture, or a B picture with a numerical value indicating a time-series order in the video. ing. In the following, for convenience of explanation, an image corresponding to image data is also referred to with the same reference numeral as that of the image data. The digital content 50 according to the present embodiment is composed of a plurality of GOPs (Group of Pictures), but FIG. 4 illustrates only one GOP. In the example of FIG. 4, the GOP is composed of 12 frames B0 to P11.

ここで、映像効果が付された画像の出力タイミングについて説明する前に、特に映像効果を付さない画像の出力タイミングと、その画像を示す画像データの処理とについて説明する。   Before describing the output timing of an image with a video effect, the output timing of an image without a video effect and the processing of image data indicating the image will be described.

時刻T1〜T2において、受信装置10は、画像データI2を受信しデコードする。画像データI2は、イントラ符号化された画像データであり、画像データI2のみを用いて画面全体をデコードすることが可能なデータである。しかしながら、画面I2の出力タイミングは、画面B0・B1の出力の後である。したがって、受信装置10(より詳細には、受信装置10のデコード処理部26)は、当該デコードした画像データI2を、一時記憶用のメモリとしての画像データ保管部28に保存する。   At times T1 to T2, the receiving device 10 receives and decodes the image data I2. The image data I2 is image data that has been intra-coded, and can be decoded using only the image data I2. However, the output timing of the screen I2 is after the output of the screens B0 and B1. Therefore, the receiving device 10 (more specifically, the decoding processing unit 26 of the receiving device 10) stores the decoded image data I2 in the image data storage unit 28 as a temporary storage memory.

また、時刻T3〜T4において、受信装置10は、画像データB0を受信し、デコード処理部26は、画像データI2のデコード結果および画像データB0に基づいて、画像データB0をデコードする。さらに、受信装置10は、当該デコードされた画像データB0を表示装置46などの表示装置(以下では、単に表示装置と称する)に出力し、表示装置は、画像データB0の示す画像B0を出力する。   Further, at time T3 to T4, the receiving device 10 receives the image data B0, and the decoding processing unit 26 decodes the image data B0 based on the decoding result of the image data I2 and the image data B0. Furthermore, the receiving device 10 outputs the decoded image data B0 to a display device such as the display device 46 (hereinafter simply referred to as a display device), and the display device outputs an image B0 indicated by the image data B0. .

ここで、画像B0は、デジタルコンテンツ50の最初の画像であり、例えば、チャンネル切り替えなど、デジタルコンテンツ50の出力指示を受けた場合、即座に出力することが望まれる。ただし、上述したように、画像データB0は、画像データI2のデコード結果および画像データB0に基づいてデコードされるデータであって、デジタルコンテンツ50では、画像データI2の次に並べられている。したがって、受信装置10は、デジタルコンテンツ50の出力指示を受けた場合、画像B0を即座に出力することができず、少なくとも時刻T1〜T2における1フレーム分の遅延の後に、表示装置に出力する。   Here, the image B0 is the first image of the digital content 50. For example, when receiving an output instruction of the digital content 50 such as channel switching, it is desired to output the image B0 immediately. However, as described above, the image data B0 is data decoded based on the decoding result of the image data I2 and the image data B0, and is arranged next to the image data I2 in the digital content 50. Therefore, when receiving an instruction to output the digital content 50, the receiving device 10 cannot output the image B0 immediately, and outputs it to the display device after a delay of at least one frame at times T1 to T2.

同様に、時刻T5〜T6において、受信装置10は、画像データB1を受信し、デコード処理部26は、画像データI2および画像データB1のデータに基づいて、画面データB1をデコードする。それにより、画面データB1の示す画面B1が表示装置から出力される。   Similarly, at time T5 to T6, the receiving device 10 receives the image data B1, and the decoding processing unit 26 decodes the screen data B1 based on the image data I2 and the image data B1. Thereby, the screen B1 indicated by the screen data B1 is output from the display device.

一方、画像データ保管部28に保存しておいた画面データI2の出力タイミング、すなわち、時刻T7〜T8になると、デコード処理部26は、画像データ保管部28に保存しておいた画面データI2を、表示装置に出力する。また、時刻T7〜T8では、受信装置10は、画像データP5を受信し、デコードする。ただし、画面P5の出力タイミングは、画面B3・B4の後であるため、デコード処理部26は、画像データP5をデコードした後、画像データ保管部28に保存する。   On the other hand, at the output timing of the screen data I2 stored in the image data storage unit 28, that is, from time T7 to T8, the decode processing unit 26 stores the screen data I2 stored in the image data storage unit 28. And output to the display device. Further, at times T7 to T8, the receiving apparatus 10 receives and decodes the image data P5. However, since the output timing of the screen P5 is after the screens B3 and B4, the decode processing unit 26 decodes the image data P5 and stores it in the image data storage unit 28.

時刻T9〜T10において、受信装置10は、画像データB3を受信し、デコード処理部26は、画像データP5のデコード結果および画像データB3に基づいて、画像データB3をデコードする。その後、画像データB3の示す画面B3が表示装置に出力される。時刻T11〜T12において、受信装置10は、画像データB4を受信し、デコード処理部26は、画像データP5のデコード結果および画像データB4に基づいて、画面データB4をデコードする。その後、画像データB4の示す画面B4が表示装置に出力される。   At times T9 to T10, the receiving device 10 receives the image data B3, and the decoding processing unit 26 decodes the image data B3 based on the decoding result of the image data P5 and the image data B3. Thereafter, the screen B3 indicated by the image data B3 is output to the display device. At times T11 to T12, the receiving device 10 receives the image data B4, and the decoding processing unit 26 decodes the screen data B4 based on the decoding result of the image data P5 and the image data B4. Thereafter, a screen B4 indicated by the image data B4 is output to the display device.

また、上記画面データP5の出力タイミング、すなわち、時刻T13〜T14になると、デコード処理部26は、画像データ保管部28に保存しておいた画面データP5を表示装置に出力する。また、時刻T13〜T14において、受信装置10は、画像データP8を受信しデコードする。ただし、画面P8の出力タイミングは、画面B6・B7の後であるため、デコード処理部26は、画像データP8をデコードした後、画像データ保管部28に保存する。   At the output timing of the screen data P5, that is, times T13 to T14, the decode processing unit 26 outputs the screen data P5 stored in the image data storage unit 28 to the display device. At times T13 to T14, the receiving device 10 receives and decodes the image data P8. However, since the output timing of the screen P8 is after the screens B6 and B7, the decode processing unit 26 decodes the image data P8 and stores it in the image data storage unit 28.

同様に、時刻T15〜T16において、画像データB6は受信装置10に受信され、画像データP8および画像データB6のデータに基づいて、デコード処理部26は画面B6のデコードを行う。その後、画面B6が表示装置に出力される。時刻T17〜T18において、画像データB7は受信装置10に受信され、画像データP8および画像データB6のデータに基づいて、デコード処理部26は画面B7のデコードを行う。その後、画面B7が表示装置に出力される。   Similarly, at time T15 to T16, the image data B6 is received by the receiving device 10, and the decoding processing unit 26 decodes the screen B6 based on the data of the image data P8 and the image data B6. Thereafter, the screen B6 is output to the display device. At times T17 to T18, the image data B7 is received by the receiving device 10, and the decode processing unit 26 decodes the screen B7 based on the data of the image data P8 and the image data B6. Thereafter, the screen B7 is output to the display device.

時刻T19〜T20において、画面P8が表示装置に出力される。そして、画像データP11が受信装置10に受信されるが、画面P11の出力タイミングは画面B9・B10の後であるため、画像データP11はデコードされた後、画像データ保管部28に保存される。   From time T19 to T20, the screen P8 is output to the display device. Then, the image data P11 is received by the receiving device 10. Since the output timing of the screen P11 is after the screens B9 and B10, the image data P11 is decoded and stored in the image data storage unit 28.

時刻T21〜T22において、画像データB9は受信装置10に受信され、画像データP11および画像データB9のデータに基づいて、デコード処理部26は画面B9のデコードを行う。その後、画面B9が表示装置に出力される。時刻T23〜T24において、画像データB10は受信装置10に受信され、画像データP11および画像データB9のデータに基づいて、デコード処理部26は画面B9のデコードを行う。その後、画面B9が表示装置に出力される。   At times T21 to T22, the image data B9 is received by the receiving device 10, and the decode processing unit 26 decodes the screen B9 based on the data of the image data P11 and the image data B9. Thereafter, the screen B9 is output to the display device. At times T23 to T24, the image data B10 is received by the receiving device 10, and the decoding processing unit 26 decodes the screen B9 based on the data of the image data P11 and the image data B9. Thereafter, the screen B9 is output to the display device.

時刻T25〜T26において、画像データ保管部28に一時保存しておいた画面P11が表示装置に出力される。以降、次のGOPについても、同様に出力を繰り返す。   At times T25 to T26, the screen P11 temporarily stored in the image data storage unit 28 is output to the display device. Thereafter, the same GOP is repeated for the next GOP.

ところで、受信装置10がI2を受信し、デコード処理部26が画像データI2をデコードした時点では、画像データI2のデコードが終了しているにも拘わらず、未だ画像データB0がデコードされていないため、当該画像データI2は、画像データ保管部28に記憶される。そして、当該画像データI2の示す画像I2は、デジタルコンテンツ50の示す映像において最初の画像B0、および、その次の画像B1が出力された後で出力される。   By the way, when the receiving device 10 receives I2 and the decode processing unit 26 decodes the image data I2, the image data B0 has not been decoded even though the decoding of the image data I2 has been completed. The image data I2 is stored in the image data storage unit 28. The image I2 indicated by the image data I2 is output after the first image B0 and the next image B1 in the video indicated by the digital content 50 are output.

ここで、従来では、画像B0を出力する前の時刻T1〜T2において、空白画像やブランクの黒い画面、または過去の画面などを表示装置に出力していた。   Conventionally, a blank image, a blank black screen, a past screen, or the like is output to the display device at times T1 to T2 before the image B0 is output.

これに対して、本実施形態に係る受信装置10は、画像データI2をデコードしてから画像B0を出力するまでの期間(時刻T1〜T2)において、これから出力する画面I2の画像データI2に映像効果を付加して出力する。   On the other hand, the receiving apparatus 10 according to the present embodiment displays a video on the image data I2 of the screen I2 to be output in the period (time T1 to T2) from when the image data I2 is decoded until the image B0 is output. Output with effect.

具体的には、効果付加処理部30は、画像データI2に基づいて、近似度が低い画面I2a、および画面I2aよりも近似度が高くかつ画面I2よりも近似度が低い画面I2bを生成し、時刻T1において画面I2aを、時刻T2において画面I2bを出力する。これにより、画面I2a→画面I2b→画面B0と徐々に画面I2と同一の画像に近づいてゆくように画像が出力される。   Specifically, the effect addition processing unit 30 generates, based on the image data I2, a screen I2a having a low degree of approximation and a screen I2b having a higher degree of approximation than the screen I2a and a lower degree of approximation than the screen I2. The screen I2a is output at time T1, and the screen I2b is output at time T2. As a result, the image is output so that the screen I2a → screen I2b → screen B0 gradually approaches the same image as the screen I2.

ここで、画面I2aおよび画面I2bは、画面B0よりも未来の画像であるが、画面B0は画像データI2に基づいてデコードされる画像であり、画面B0および画面I2は似た画像である可能性が高いため、ユーザが感じる違和感は少ない。そのため、従来1フレーム分の遅延が生じる時刻T1〜T2において、時刻T3に出力される画面B0に自然に繋がる画像を出力することができるので、ユーザに与える心理的負担を軽減することができる。   Here, the screen I2a and the screen I2b are future images than the screen B0, but the screen B0 is an image decoded based on the image data I2, and the screen B0 and the screen I2 may be similar images. Therefore, the user feels uncomfortable. Therefore, at time T1 to T2 when a delay of one frame is conventionally generated, an image that is naturally connected to the screen B0 output at time T3 can be output, so that the psychological burden on the user can be reduced.

また、画面B0の前に挿入される画面I2a…は、画面I2に映像効果を付加して生成された画面であり、画面I2を含む本来のデジタルコンテンツ50よりも近似度が低く設定されている。したがって、画面I2が画面B0と若干相違していたとしても、ユーザは、その相違に気付きにくい。この結果、ユーザに与える違和感を抑制でき、ユーザに与える心理的負担を軽減できる。   Further, the screen I2a... Inserted before the screen B0 is a screen generated by adding a video effect to the screen I2, and has a lower degree of approximation than the original digital content 50 including the screen I2. . Therefore, even if the screen I2 is slightly different from the screen B0, the user hardly notices the difference. As a result, the uncomfortable feeling given to the user can be suppressed, and the psychological burden given to the user can be reduced.

〔実施形態2〕
次に、実施形態2における別の画面出力方法について、説明する。なお、実施形態2に係る受信装置10は、実施形態1に係る受信装置10と比較して、効果付加処理部30および画像データ出力処理部の動作タイミングおよび効果の付加方法が異なっているが、動作タイミングおよび効果の付加方法を除けば、両受信装置10は、互いに同じ構造である。したがって、実施形態2では、受信装置、および、それを構成する各部材を、実施形態1と同じ参照符号を付して参照する。
[Embodiment 2]
Next, another screen output method according to the second embodiment will be described. The receiving device 10 according to the second embodiment is different from the receiving device 10 according to the first embodiment in the operation timing and the effect adding method of the effect addition processing unit 30 and the image data output processing unit. Except for the operation timing and the method of adding effects, both receiving apparatuses 10 have the same structure. Therefore, in the second embodiment, the receiving apparatus and each member constituting the receiving apparatus are referred to with the same reference numerals as those in the first embodiment.

実施形態2では、受信装置10がI2を受信し、デコード処理部26がI2をデコードし、従来では外部機器44には何も出力されない時刻T1〜T2および画面B0・B1が出力される時刻T3〜T6において、これから出力する画面I2の画像を用いて効果を付加した画像を作成し、出力する。すなわち、画面I2が出力される時刻T7〜T8まで、効果を付加した画面を出力する。   In the second embodiment, the receiving device 10 receives I2, the decoding processing unit 26 decodes I2, and the time T1 to T2 when nothing is output to the external device 44 and the time T3 when the screens B0 and B1 are output conventionally. In ~ T6, an image with an effect is created and output using the image of the screen I2 to be output from now on. That is, the screen with the effect is output from time T7 to time T8 when the screen I2 is output.

具体的には、効果付加処理部30は、画像データI2に基づいて、近似度が順に高くなっていくように、画面I2a・I2b・I2c・I2d・I2e・I2fを生成し、時刻T1・T2・T3・T4・T5・T6において、それぞれ画面I2a・I2b・I2c・I2d・I2e・I2fを出力する。これにより、画面I2a→画面I2b→画面I2c→画面I2d→画面I2e→画面I2f→画面I2と徐々に画面が近似し、画面I2と同一の画面に近づいてゆくように画像が出力される。   Specifically, the effect addition processing unit 30 generates the screens I2a, I2b, I2c, I2d, I2e, and I2f based on the image data I2 so that the degree of approximation increases in order, and the times T1 and T2 At T3, T4, T5, and T6, screens I2a, I2b, I2c, I2d, I2e, and I2f are output, respectively. As a result, the screen gradually approximates as screen I2a → screen I2b → screen I2c → screen I2d → screen I2e → screen I2f → screen I2, and the image is output so as to approach the same screen as screen I2.

実施形態1の画面の出力方法と比較して、時系列に沿わない画像を出力することがなくなるため、より自然に繋がる画像を順に出力することができるので、ユーザに与える心理的負担をより軽減することができる。   Compared with the screen output method of the first embodiment, images that do not follow the time series are not output, and thus images that are more naturally connected can be output in order, thereby further reducing the psychological burden on the user. can do.

次に、画像処理装置20で実際に行われる画像処理について、図5〜図9を参照して説明する。図5は、画像処理装置20の主要動作S101〜S107の概要を示すフロー図である。図6は、図5に示すS103で実行される解像度調整処理を示すフロー図である。図7は、図5に示すS104で実行される明度調整処理を示すフロー図である。図8は、図5に示すS105で実行される彩度調整処理を示すフロー図である。図9は、図5に示すS106で実行されるぼかし度調整処理を示すフロー図である。   Next, image processing actually performed by the image processing apparatus 20 will be described with reference to FIGS. FIG. 5 is a flowchart showing an outline of the main operations S101 to S107 of the image processing apparatus 20. FIG. 6 is a flowchart showing the resolution adjustment process executed in S103 shown in FIG. FIG. 7 is a flowchart showing the brightness adjustment process executed in S104 shown in FIG. FIG. 8 is a flowchart showing the saturation adjustment process executed in S105 shown in FIG. FIG. 9 is a flowchart showing the blurring degree adjustment process executed in S106 shown in FIG.

図5を参照して、主要動作の処理の流れについて説明を行う。画像処理装置20の電源が入れられると、画像処理が開始され、処理はS101へ進む。   With reference to FIG. 5, the flow of the main operation process will be described. When the image processing apparatus 20 is turned on, image processing is started, and the process proceeds to S101.

S101において、画像処理装置20は入力されたデジタルコンテンツ50に対して効果を付加する指示があるか否かの判断を行う。効果を付加する指示がある場合(S101でYES)S102へ進み、効果を付加する指示がない場合(S101でNO)、処理を終了する。なお、効果を付加するか否かの情報は、予め画像処理装置20が保持しているものであっても構わないし、ユーザ48が画像処理装置20に対して適宜指示または設定するものであっても構わない。   In step S <b> 101, the image processing apparatus 20 determines whether there is an instruction to add an effect to the input digital content 50. If there is an instruction to add an effect (YES in S101), the process proceeds to S102, and if there is no instruction to add an effect (NO in S101), the process ends. It should be noted that the information as to whether or not the effect is to be added may be stored in advance in the image processing apparatus 20, and the user 48 instructs or sets the image processing apparatus 20 as appropriate. It doesn't matter.

S102において、効果付加処理部30は、画像データ60に対して付加する効果を決定する。画像データ60に対して解像度を調整することで効果を付加する場合(S102で解像度調整)、処理はS103へ進む。画像データ60に対して明度を調整することで効果を付加する場合(S102で明度調整)、処理はS104へ進む。画像データ60に対して彩度を調整することで効果を付加する場合(S102で彩度調整)、処理はS105へ進む。画像データ60に対してぼかし度を調整することで効果を付加する場合(S102でぼかし度調整)、処理はS106へ進む。   In S <b> 102, the effect addition processing unit 30 determines an effect to be added to the image data 60. If an effect is added to the image data 60 by adjusting the resolution (resolution adjustment in S102), the process proceeds to S103. When an effect is added to the image data 60 by adjusting the lightness (lightness adjustment in S102), the process proceeds to S104. When an effect is added by adjusting the saturation of the image data 60 (saturation adjustment in S102), the process proceeds to S105. When an effect is added to the image data 60 by adjusting the blur level (blur level adjustment in S102), the process proceeds to S106.

なお、画像データ60に対してどの効果を付加するかの情報は、予め効果付加処理部30が保持しているものであっても構わないし、ユーザ48が画像処理装置20に対して適宜指示または設定するものであっても構わない。   The information about which effect is added to the image data 60 may be stored in advance by the effect addition processing unit 30, and the user 48 may instruct the image processing apparatus 20 as appropriate or It may be set.

S103において、解像度調整処理部31および画像データ処理部32は、画像データ60に対して解像度を調整することで解像度の異なる1つ以上の画像データを作成し、処理はS107へ進む。解像度調整処理の詳細については、後述する。S104において、明度調整処理部33および画像データ処理部34は、画像データ60に対して明度を調整することで明度の異なる1つ以上の画像データを作成し、処理はS107へ進む。明度調整処理の詳細については、後述する。   In S103, the resolution adjustment processing unit 31 and the image data processing unit 32 create one or more image data with different resolutions by adjusting the resolution of the image data 60, and the process proceeds to S107. Details of the resolution adjustment processing will be described later. In S104, the brightness adjustment processing unit 33 and the image data processing unit 34 adjust the brightness of the image data 60 to create one or more image data having different brightnesses, and the process proceeds to S107. Details of the brightness adjustment processing will be described later.

S105において、彩度調整処理部35および画像データ処理部36は、画像データ60に対して彩度を調整することで彩度の異なる1つ以上の画像データを作成し、処理はS107へ進む。なお、彩度調整処理の詳細については後述する。S106において、ぼかし度調整処理部37および画像データ処理部38は、画像データ60に対してぼかし度を調整することでぼかし度の異なる1または複数の画像データを作成してS107へ進む。なお、ぼかし度調整処理の詳細については後述する。   In S105, the saturation adjustment processing unit 35 and the image data processing unit 36 create one or more image data having different saturations by adjusting the saturation of the image data 60, and the process proceeds to S107. Details of the saturation adjustment process will be described later. In S106, the blurring degree adjustment processing unit 37 and the image data processing unit 38 adjust the blurring degree with respect to the image data 60 to create one or a plurality of image data having different blurring degrees, and the process proceeds to S107. The details of the blur adjustment process will be described later.

S107において、画像データ出力処理部40はS103、S104、S105およびS106において効果が付加された画像データを出力して処理を終了する。   In S107, the image data output processing unit 40 outputs the image data to which the effect is added in S103, S104, S105, and S106, and ends the process.

次に、図6を参照して、解像度調整処理について説明する。解像度調整処理が開始されると、S201において、解像度調整処理部31はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも解像度を落とした画像データを作成するか否かの判定を行う。解像度を落とした画像データを作成する場合はS202へ進み、解像度を落とした画像データを作成しない場合はS203へ進む。なお、解像度調整処理部31が解像度を落とした画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。   Next, the resolution adjustment process will be described with reference to FIG. When the resolution adjustment processing is started, in S201, the resolution adjustment processing unit 31 creates image data with a resolution lower than that of the image data 60 for the image data 60 obtained by the decoding processing in the decoding processing unit 26. It is determined whether or not to do so. If image data with a reduced resolution is to be created, the process proceeds to S202. If image data with a reduced resolution is not to be created, the process proceeds to S203. Note that the reference for determining whether or not the resolution adjustment processing unit 31 creates image data with a reduced resolution may be held in advance by the image processing apparatus 20.

具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S205において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Specifically, the number of image data to be created may be determined in advance, and in S205, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

S202において、画像データ処理部32は、デコード処理部26におけるデコード処理により得られた画像データ60の解像度よりも解像度を落とした画像データを作成する。ただし、S201およびS202において繰り返しの処理が行われており、かつS202における処理が複数回行われている場合、S202において画像データ処理部32が作成する画像データの解像度は全て異なるように制御される。   In S <b> 202, the image data processing unit 32 creates image data in which the resolution is lower than the resolution of the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when the repetitive processing is performed in S201 and S202 and the processing in S202 is performed a plurality of times, the resolution of the image data created by the image data processing unit 32 in S202 is controlled to be all different. .

具体的には、解像度調整処理部31が、S202において作成された画像データの解像度を全て管理しておくことで、S202において画像データ処理部32による画像データの作成処理が行われるたびに、解像度調整処理部31が当該画像データの解像度を決定すればよい。なお、解像度調整処理部31が解像度を決定する方法は限定しないが、例えば一つ前に作成した画像データの解像度から一定量または一定割合ずつ減じていくことで、解像度を決定するものであっても構わない。   Specifically, the resolution adjustment processing unit 31 manages all the resolutions of the image data created in S202, so that every time the image data creation process is performed by the image data processing unit 32 in S202, the resolution The adjustment processing unit 31 may determine the resolution of the image data. The method for determining the resolution by the resolution adjustment processing unit 31 is not limited. For example, the resolution is determined by subtracting a predetermined amount or a predetermined ratio from the resolution of the image data created immediately before. It doesn't matter.

なお、画像データ処理部32が行う解像度を落とす方法としては、例えば入力された画像データ60を間引くことで実現することができるが、必ずしもこれに限定されない。入力された画像データ60よりも解像度を落とすことができるものであれば、何でも構わない。   Note that the method of reducing the resolution performed by the image data processing unit 32 can be realized, for example, by thinning out the input image data 60, but is not necessarily limited thereto. Anything can be used as long as the resolution can be lower than that of the input image data 60.

S203において、画像データ結合処理部39はS202において作成された解像度を落とした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS204へ進み、複数の画像データが存在しない場合は処理を終了する。   In S203, the image data combination processing unit 39 determines whether there are a plurality of pieces of image data with a reduced resolution created in S202. When there are a plurality of image data, the process proceeds to S204, and when there are no plurality of image data, the process ends.

S204において、画像データ結合処理部39はS202において作成された複数の画像データを解像度が低い画像データから解像度が高い画像データの順になるようにソートして、S205へ進む。   In step S204, the image data combination processing unit 39 sorts the plurality of pieces of image data created in step S202 in the order of image data having a low resolution to image data having a high resolution, and the process proceeds to S205.

S205において、画像データ結合処理部39はS204においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、解像度が低い画像データから徐々に解像度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも解像度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In S205, the image data combination processing unit 39 combines the image data in the order sorted in S204, creates one moving image data, and ends the process. The moving image data is created so that the image data gradually becomes higher in resolution from the image data whose resolution is lower. That is, the moving image data is created so as to gradually approach the image data obtained by the decoding process from the image data having a resolution much lower than that of the image data obtained by the decoding process.

次に、図7を参照して、明度調整処理について説明する。明度調整処理が開始されると、S301において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも明度を高くした画像データを作成するか、あるいは当該画像データ60よりも明度を低くした画像データを作成するかどうかを判定する。明度を高くした画像データを作成する場合はS302へ進み、明度を低くした画像データを作成する場合はS307へ進む。   Next, the brightness adjustment process will be described with reference to FIG. When the brightness adjustment processing is started, in S301, the brightness adjustment processing unit 33 creates image data having a higher brightness than the image data 60 for the image data 60 obtained by the decoding processing in the decoding processing unit 26. Or whether to create image data having a lightness lower than that of the image data 60 is determined. When creating image data with increased brightness, the process proceeds to S302, and when creating image data with decreased brightness, the process proceeds to S307.

なお、明度調整処理部33が明度を高くした画像データを作成するか、あるいは明度を低くした画像データを作成するかどうかを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。   Note that the criterion for determining whether the brightness adjustment processing unit 33 creates image data with increased brightness or creates image data with reduced brightness is the one that the image processing apparatus 20 holds in advance. It doesn't matter.

S302において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を高くした画像データを作成するか否かの判定を行う。明度を高くした画像データを作成する場合はS303へ進み、明度を高くした画像データを作成しない場合はS304へ進む。   In S <b> 302, the brightness adjustment processing unit 33 determines whether or not to create image data having a higher brightness than the brightness of the image data 60 obtained by the decoding process in the decoding processing unit 26. If image data with increased brightness is to be created, the process proceeds to S303. If image data with increased brightness is not to be created, the process proceeds to S304.

なお、明度調整処理部33が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S306において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Note that the criterion for determining whether or not the brightness adjustment processing unit 33 creates image data may be one that the image processing apparatus 20 holds in advance. Specifically, the number of image data to be created may be determined in advance. In S306, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

S303において、画像データ処理部34は、デコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を高くした画像データを作成する。ただし、S302およびS303において繰り返しの処理が行われており、かつS303における処理が複数回行われている場合、S303において画像データ処理部34が作成する画像データの明度は全て異なるように制御される。   In step S <b> 303, the image data processing unit 34 creates image data having a lightness higher than that of the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when the repeated processing is performed in S302 and S303 and the processing in S303 is performed a plurality of times, the brightness of the image data created by the image data processing unit 34 is controlled to be different in S303. .

具体的には、明度調整処理部33が、S303において作成された画像データの明度を全て管理しておくことで、S303において画像データ処理部34による画像データの作成処理が行われるたびに、明度調整処理部33が当該画像データの明度を決定すればよい。なお、明度調整処理部33が明度を決定する方法は限定しないが、例えば一つ前に作成した画像データの明度から一定量または一定割合ずつ高くしていくことで、明度を決定するものであっても構わない。   Specifically, the lightness adjustment processing unit 33 manages all the lightnesses of the image data created in S303, so that every time image data creation processing is performed by the image data processing unit 34 in S303, the lightness is processed. The adjustment processing unit 33 may determine the brightness of the image data. The method for determining the brightness by the brightness adjustment processing unit 33 is not limited. For example, the brightness is determined by increasing the brightness of the previously created image data by a certain amount or a certain percentage. It doesn't matter.

なお、画像データ処理部34が行う明度を高くする方法としては、例えばRGBの階調を徐々に上げていくことで、明度を高くすることができる。例えば、シアン(R=0、G=255、B=255)から緑(Gの値)と青(Bの値)を減らさずに、赤(Rの値)だけを徐々に増やすと、光の量が増えていき、最後は白(R=255、G=255、B=255)となる。このように、RGBの階調を調整することで、明度を調整することができる。なお、明度を調整する方法は必ずしもこれに限定されない。例えば、ガンマ補正をかけることで、明度をあげることができる。   As a method of increasing the brightness performed by the image data processing unit 34, for example, the brightness can be increased by gradually increasing the gradation of RGB. For example, if only red (R value) is gradually increased without reducing green (G value) and blue (B value) from cyan (R = 0, G = 255, B = 255), The amount increases and finally white (R = 255, G = 255, B = 255). In this way, the brightness can be adjusted by adjusting the gradation of RGB. Note that the method of adjusting the brightness is not necessarily limited to this. For example, brightness can be increased by applying gamma correction.

S304において、画像データ結合処理部39はS303において作成された明度を高くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS305へ進み、複数の画像データが存在しない場合は処理を終了する。S305において、画像データ結合処理部39はS303において作成された複数の画像データを明度が高い画像データから明度が低い画像データの順になるようにソートして、S306へ進む。   In S304, the image data combination processing unit 39 determines whether or not there are a plurality of pieces of image data with high brightness created in S303. If there are a plurality of image data, the process proceeds to S305, and if there is no plurality of image data, the process ends. In step S305, the image data combination processing unit 39 sorts the plurality of pieces of image data created in step S303 in the order of image data having a high lightness to image data having a low lightness, and the process proceeds to S306.

S306において、画像データ結合処理部39はS305においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、明度が高い画像データから徐々に明度が低い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも明度が非常に高い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In S306, the image data combination processing unit 39 combines the image data in the order sorted in S305, creates one moving image data, and ends the process. This is created so that the moving image data gradually changes from image data with high brightness to image data with low brightness. That is, the moving image data is created so as to gradually approach the image data obtained by the decoding process from the image data having a much higher brightness than the image data obtained by the decoding process.

S307において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を低くした画像データを作成するか否かの判定を行う。明度を低くした画像データを作成する場合はS308へ進み、明度を低くした画像データを作成しない場合はS309へ進む。なお、明度調整処理部33が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。   In step S <b> 307, the brightness adjustment processing unit 33 determines whether to create image data whose brightness is lower than the brightness of the image data 60 obtained by the decoding processing in the decoding processing unit 26. When creating image data with low brightness, the process proceeds to S308, and when not creating image data with low brightness, the process proceeds to S309. Note that the criterion for determining whether or not the brightness adjustment processing unit 33 creates image data may be one that the image processing apparatus 20 holds in advance.

具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S311において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Specifically, the number of image data to be created may be determined in advance, and in S311, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

S308において、画像データ処理部34は、デコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を低くした画像データを作成する。ただし、S307およびS308において繰り返しの処理が行われており、かつS308における処理が複数回行われている場合、S308において画像データ処理部34が作成する画像データの明度は全て異なるように制御される。   In S <b> 308, the image data processing unit 34 creates image data having a lightness lower than the lightness of the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when the repeated processing is performed in S307 and S308 and the processing in S308 is performed a plurality of times, the brightness of the image data created by the image data processing unit 34 in S308 is controlled to be different from each other. .

具体的には、明度調整処理部33が、S308において作成された画像データの明度を全て管理しておくことで、S308において画像データ処理部34による画像データの作成処理が行われるたびに、明度調整処理部33が当該画像データの明度を決定すればよい。なお、明度調整処理部33が明度を決定する方法は限定しないが、例えば一つ前に作成した画像データの明度から一定量または一定割合ずつ低くしていくことで、明度を決定するものであっても構わない。   Specifically, the lightness adjustment processing unit 33 manages all the lightnesses of the image data created in S308, so that every time image data creation processing is performed by the image data processing unit 34 in S308, the lightness is processed. The adjustment processing unit 33 may determine the brightness of the image data. The method for determining the lightness by the lightness adjustment processing unit 33 is not limited. For example, the lightness is determined by decreasing the lightness of the previously created image data by a certain amount or a certain ratio. It doesn't matter.

なお、画像データ処理部34が行う明度を低くする方法としては、上記にあげた明度を高くする方法の逆を行えばよい。すなわち、RGBの階調を徐々に下げていくことで、明度を低くすることができる。   As a method for reducing the brightness performed by the image data processing unit 34, the reverse of the above-described methods for increasing the brightness may be performed. That is, the brightness can be lowered by gradually lowering the gradation of RGB.

S309において、画像データ結合処理部39はS308において作成された明度を低くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS310へ進み、複数の画像データが存在しない場合は処理を終了する。   In step S309, the image data combination processing unit 39 determines whether there are a plurality of pieces of image data with low brightness created in step S308. If there are a plurality of image data, the process proceeds to S310, and if a plurality of image data does not exist, the process ends.

S310において、画像データ結合処理部39はS308において作成された複数の画像データを明度が低い画像データから明度が高い画像データの順になるようにソートして、S311へ進む。   In step S310, the image data combination processing unit 39 sorts the plurality of pieces of image data created in step S308 in order of image data having low brightness to image data having high brightness, and the process advances to step S311.

S311において、画像データ結合処理部39はS310においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、明度が低い画像データから徐々に明度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも明度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In S311, the image data combination processing unit 39 combines the image data in the order sorted in S310, creates one moving image data, and ends the process. This is created so that the moving image data gradually changes from image data with low brightness to image data with high brightness. That is, the moving image data is created so as to gradually approach the image data obtained by the decoding process from the image data having a lightness much lower than that of the image data obtained by the decoding process.

次に、図8を参照して、彩度調整処理について説明する。彩度調整処理が開始されると、S401において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも彩度を高くした画像データを作成するか、あるいは当該画像データ60よりも彩度を低くした画像データを作成するかどうかを判定する。彩度を高くした画像データを作成する場合はS402へ進み、彩度を低くした画像データを作成する場合はS407へ進む。   Next, the saturation adjustment process will be described with reference to FIG. When the saturation adjustment processing is started, in S401, the saturation adjustment processing unit 35 sets an image with higher saturation than the image data 60 with respect to the image data 60 obtained by the decoding processing in the decoding processing unit 26. It is determined whether to create data, or to create image data with a lower saturation than the image data 60. When creating image data with high saturation, the process proceeds to S402, and when creating image data with low saturation, the process proceeds to S407.

なお、彩度調整処理部35が彩度を高くした画像データを作成するか、あるいは彩度を低くした画像データを作成するかどうかを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。   Note that the image processing apparatus 20 holds in advance a criterion for determining whether the saturation adjustment processing unit 35 creates image data with high saturation or whether to create image data with low saturation. It doesn't matter.

S402において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を高くした画像データを作成するか否かの判定を行う。彩度を高くした画像データを作成する場合はS403へ進み、彩度を高くした画像データを作成しない場合はS404へ進む。なお、彩度調整処理部35が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。   In step S <b> 402, the saturation adjustment processing unit 35 determines whether or not to create image data with a saturation higher than the saturation of the image data 60 obtained by the decoding processing in the decoding processing unit 26. When creating image data with high saturation, the process proceeds to S403. When image data with high saturation is not created, the process proceeds to S404. Note that the criterion for determining whether or not the saturation adjustment processing unit 35 creates image data may be one that the image processing apparatus 20 holds in advance.

具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S406において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Specifically, the number of image data to be created may be determined in advance, and in S406, a plurality of created image data is combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

S403において、画像データ処理部36は、デコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を高くした画像データを作成する。ただし、S402およびS403において繰り返しの処理が行われており、かつS403における処理が複数回行われている場合、S403において画像データ処理部36が作成する画像データの彩度は全て異なるように制御される。   In step S <b> 403, the image data processing unit 36 creates image data whose saturation is higher than the saturation of the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when the repeated processing is performed in S402 and S403 and the processing in S403 is performed a plurality of times, the saturation of the image data created by the image data processing unit 36 in S403 is controlled to be different. The

具体的には、彩度調整処理部35が、S403において作成された画像データの彩度を全て管理しておくことで、S403において画像データ処理部36による画像データの作成処理が行われるたびに、彩度調整処理部35が当該画像データの彩度を決定すればよい。なお、彩度調整処理部35が彩度を決定する方法は限定しないが、例えば一つ前に作成した画像データの彩度から一定量または一定割合ずつ高くしていくことで、彩度を決定するものであっても構わない。   Specifically, the saturation adjustment processing unit 35 manages all the saturations of the image data created in S403, so that every time image data creation processing is performed by the image data processing unit 36 in S403. The saturation adjustment processing unit 35 may determine the saturation of the image data. The method for determining the saturation by the saturation adjustment processing unit 35 is not limited. For example, the saturation is determined by increasing the saturation of the previously created image data by a certain amount or a certain ratio. It doesn't matter if you do it.

なお、画像データ処理部36が行う彩度を高くする方法としては、例えばRGBの階調を調整することで彩度を高くすることができる。例えば、グレー(R=39、G=39、B=39)から青(Bの値)を徐々に増していき、増やした分だけ赤(Rの値)と緑(Gの値)を減らしていくと、色は鮮やかになり、シアン(R=0、G=255、B=255)に近づいていく。この結果、彩度を高くすることができる。   As a method of increasing the saturation performed by the image data processing unit 36, for example, the saturation can be increased by adjusting the gradation of RGB. For example, gradually increase blue (B value) from gray (R = 39, G = 39, B = 39) and decrease red (R value) and green (G value) by the increased amount. As it goes on, the color becomes more vivid and approaches cyan (R = 0, G = 255, B = 255). As a result, the saturation can be increased.

S404において、画像データ結合処理部39はS403において作成された彩度を高くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS405へ進み、複数の画像データが存在しない場合は処理を終了する。   In step S404, the image data combination processing unit 39 determines whether there are a plurality of pieces of image data with high saturation created in step S403. If there is a plurality of image data, the process proceeds to S405, and if there is no plurality of image data, the process ends.

S405において、画像データ結合処理部39はS403において作成された複数の画像データを彩度が高い画像データから彩度が低い画像データの順になるようにソートして、S406へ進む。   In step S405, the image data combination processing unit 39 sorts the plurality of pieces of image data created in step S403 in order of image data with high saturation to image data with low saturation, and the process proceeds to step S406.

S406において、画像データ結合処理部39はS405においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、彩度が高い画像データから徐々に彩度が低い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも彩度が非常に高い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In S406, the image data combination processing unit 39 combines the image data in the order sorted in S405, creates one moving image data, and ends the process. The moving image data is created so that the image data gradually becomes lower from the image data having higher saturation. That is, the moving image data is created so as to gradually approach the image data obtained by the decoding process from the image data having a much higher saturation than the image data obtained by the decoding process.

S407において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を低くした画像データを作成するか否かの判定を行う。彩度を低くした画像データを作成する場合はS408へ進み、彩度を低くした画像データを作成しない場合はS409へ進む。   In step S <b> 407, the saturation adjustment processing unit 35 determines whether or not to create image data whose saturation is lower than the saturation of the image data 60 obtained by the decoding processing in the decoding processing unit 26. When creating image data with low saturation, the process proceeds to S408, and when not creating image data with low saturation, the process proceeds to S409.

なお、彩度調整処理部35が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。例えば、作成する画像データの枚数が予め決められているものであっても構わないし、S411において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する当該動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Note that the criterion for determining whether or not the saturation adjustment processing unit 35 creates image data may be one that the image processing apparatus 20 holds in advance. For example, the number of image data to be created may be determined in advance. In S411, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of the image data. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

S408において、画像データ処理部36は、デコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を低くした画像データを作成する。ただし、S407およびS408において繰り返しの処理が行われており、かつS408における処理が複数回行われている場合、S408において画像データ処理部36が作成する画像データの彩度は全て異なるように制御される。   In step S <b> 408, the image data processing unit 36 creates image data having a saturation lower than that of the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when iterative processing is performed in S407 and S408 and the processing in S408 is performed a plurality of times, the saturation of the image data created by the image data processing unit 36 in S408 is controlled to be different. The

具体的には、彩度調整処理部35が、S408において作成された画像データの彩度を全て管理しておくことで、S408において画像データ処理部36による画像データの作成処理が行われるたびに、彩度調整処理部35が当該画像データの彩度を決定すればよい。なお、彩度調整処理部35が彩度を決定する方法は限定しないが、例えば、一つ前に作成した画像データの彩度から一定量または一定割合ずつ低くしていくことで、彩度を決定するものであっても構わない。   Specifically, the saturation adjustment processing unit 35 manages all the saturations of the image data created in S408, so that every time image data creation processing is performed by the image data processing unit 36 in S408. The saturation adjustment processing unit 35 may determine the saturation of the image data. The method for determining the saturation by the saturation adjustment processing unit 35 is not limited. For example, the saturation can be reduced by decreasing the saturation of the image data created previously by a certain amount or a certain ratio. It may be determined.

なお、画像データ処理部36が行う彩度を低くする方法としては、例えばRGBの階調を調整することで彩度を低くすることができる。例えば、シアン(R=0、G=255、B=255)から赤(Rの値)を徐々に増やしていき、増やした分だけ緑(Gの値)と青(Bの値)を減らしていくと、色は鮮やかさを失い、グレー(R=39、G=39、B=39)に近づいていく。この結果、彩度を低くすることができる。   As a method for reducing the saturation performed by the image data processing unit 36, for example, the saturation can be reduced by adjusting the gradation of RGB. For example, red (R value) is gradually increased from cyan (R = 0, G = 255, B = 255), and green (G value) and blue (B value) are decreased by the increased amount. As it goes on, the color loses its vividness and approaches gray (R = 39, G = 39, B = 39). As a result, the saturation can be lowered.

S409において、画像データ結合処理部39はS408において作成された彩度を低くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS410へ進み、複数の画像データが存在しない場合は処理を終了する。   In step S409, the image data combination processing unit 39 determines whether there are a plurality of pieces of image data with low saturation created in step S408. If there is a plurality of image data, the process proceeds to S410, and if a plurality of image data does not exist, the process ends.

S410において、画像データ結合処理部39はS408において作成された複数の画像データを彩度が低い画像データから彩度が高い画像データの順になるようにソートして、S411へ進む。   In step S410, the image data combination processing unit 39 sorts the plurality of pieces of image data created in step S408 in the order of image data having low saturation to image data having high saturation, and the process advances to step S411.

S411において、画像データ結合処理部39はS410においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、彩度が低い画像データから徐々に彩度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも彩度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In S411, the image data combination processing unit 39 combines the image data in the order sorted in S410, creates one moving image data, and ends the process. This moving image data is created so that the image data gradually becomes higher in saturation from the image data having lower saturation. In other words, the moving image data is created so as to gradually approach the image data obtained by the decoding process from the image data whose saturation is much lower than that of the image data obtained by the decoding process.

次に、図9を参照して、ぼかし度調整処理について説明する。ステップS501において、ぼかし度調整処理部37はデコード処理部26におけるデコード処理により得られた画像データ60に対して、ぼかした画像データを作成するか否かの判定を行う。ぼかした画像データを作成する場合はステップS502へ進み、ぼかした画像データを作成しない場合はステップS503へ進む。   Next, the blurring degree adjustment process will be described with reference to FIG. In step S <b> 501, the blurring degree adjustment processing unit 37 determines whether to create blurred image data for the image data 60 obtained by the decoding processing in the decoding processing unit 26. If the blurred image data is to be created, the process proceeds to step S502. If the blurred image data is not to be created, the process proceeds to step S503.

なお、ぼかし度調整処理部37がぼかした画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。例えば、作成する画像データの枚数が予め決められているものであっても構わないし、ステップS505において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。   Note that the criterion for determining whether or not to create the blurred image data by the blurring degree adjustment processing unit 37 may be one held in advance by the image processing device 20. For example, the number of image data to be created may be determined in advance. In step S505, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of the image data. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.

ステップS502において、画像データ処理部38は、デコード処理部26におけるデコード処理により得られた画像データ60に対してぼかした画像データを作成する。ただし、ステップS501およびステップS502において繰り返しの処理が行われており、かつステップS502における処理が複数回行われている場合、ステップS502において画像データ処理部38が作成する画像データのぼかし具合は全て異なるように制御される。   In step S502, the image data processing unit 38 creates blurred image data with respect to the image data 60 obtained by the decoding processing in the decoding processing unit 26. However, when iterative processing is performed in steps S501 and S502 and the processing in step S502 is performed a plurality of times, the degree of blurring of the image data created by the image data processing unit 38 in step S502 is all different. To be controlled.

例えば、ぼかし度調整処理部37が、ステップS502において作成された画像データのぼかし度を全て管理しておくことで、ステップS502において画像データ処理部38による画像データの作成処理が行われるたびに、ぼかし度調整処理部37が当該画像データのぼかし度を決定すればよい。   For example, the blur adjustment processing unit 37 manages all the blurs of the image data created in step S502, so that every time the image data creation process is performed by the image data processing unit 38 in step S502, The blur adjustment processing unit 37 may determine the blur of the image data.

なお、ぼかし度調整処理部37がぼかし度を決定する方法は限定しないが、例えば一つ前に作成した画像データのぼかし度から一定量または一定割合ずつ大きくしていくことで、ぼかし度を決定するものであっても構わない。また、画像データ処理部38が行うぼかした画像データを作成する方法としては、例えばフィルタ処理を行う方法がある。例えば、フィルタ処理後の注目画素濃度値を隣接する画素の平均値とするようなフィルタをかけることで当該画像データをぼかすことができる。   The method of determining the blur level by the blur level adjustment processing unit 37 is not limited. For example, the blur level is determined by increasing the blur level of the previously created image data by a certain amount or a certain ratio. It doesn't matter if you do it. Further, as a method of creating blurred image data performed by the image data processing unit 38, for example, there is a method of performing filter processing. For example, the image data can be blurred by applying a filter that sets the target pixel density value after filtering to the average value of adjacent pixels.

ステップS503において、画像データ結合処理部39はステップS502において作成されたぼかした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はステップS504へ進み、複数の画像データが存在しない場合は処理を終了する。   In step S503, the image data combination processing unit 39 determines whether there are a plurality of blurred image data created in step S502. If a plurality of image data exists, the process proceeds to step S504, and if a plurality of image data does not exist, the process ends.

ステップS504において、画像データ結合処理部39はステップS502において作成された複数の画像データをぼかし度が大きい画像データからぼかし度が小さい画像データの順になるようにソートして、ステップS505へ進む。   In step S504, the image data combination processing unit 39 sorts the plurality of image data created in step S502 in the order of image data with a high degree of blurring to image data with a low degree of blurring, and the process proceeds to step S505.

ステップS505において、画像データ結合処理部39はステップS504においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、ぼかし度が大きい画像データから徐々にぼかし度が小さい画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データにぼかしが入った画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。   In step S505, the image data combination processing unit 39 combines the image data in the order sorted in step S504, creates one moving image data, and ends the process. This moving image data is created so that the image data having a gradually increased blur is gradually changed from the image data having the increased blur. That is, the moving image data is created so that the image data obtained by the decoding process gradually approaches the image data obtained by the decoding process from the image data obtained by blurring the image data obtained by the decoding process.

次に、画像処理装置20の具体的な動作として、実施例1から実施例4を例示する。   Next, as a specific operation of the image processing apparatus 20, Example 1 to Example 4 will be exemplified.

以下に示す実施例1において、デコード処理により得られた画像データに対して、解像度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。   In the first embodiment shown below, a plurality of pieces of image data with adjusted resolution are created for the image data obtained by the decoding process, and one piece of moving image data is created by combining the plurality of pieces of created image data. The operation of the image processing apparatus 20 at the time of output is exemplified.

例えば、a×bの解像度の画像データA0が入力された場合について、図6に示すフロー図に従って説明する。S201およびS202において、解像度調整処理部31は入力された画像データA0に対して、a×bの解像度よりも低い解像度の画像データを作成する。ここで、解像度調整処理部31が解像度を落とした画像データを作成する方法として、例えば入力された画像データA0を間引くことで、解像度を落とした画像データを作成するものであっても構わない。水平方向および垂直方向の解像度を半分にする場合、水平方向成分において偶数ラインを間引き、かつ垂直方向成分において偶数ラインを間引くことで、a/2×b/2の解像度の画像データを作成することができる。   For example, a case where image data A0 having an a × b resolution is input will be described with reference to the flowchart shown in FIG. In S201 and S202, the resolution adjustment processing unit 31 creates image data having a resolution lower than the a × b resolution for the input image data A0. Here, as a method of creating image data with a reduced resolution, the resolution adjustment processing unit 31 may create image data with a reduced resolution by thinning out the input image data A0, for example. When the horizontal and vertical resolutions are halved, image data with a / 2 × b / 2 resolution is created by thinning even lines in the horizontal component and thinning even lines in the vertical component. Can do.

ここで、S201およびS202において、画像データA0の解像度よりも解像度を落とした画像データを5枚作成するものとする。この場合、水平方向および垂直方向の解像度がそれぞれ5/6、4/6、3/6、2/6および1/6となる画像データを作成する。なお、上記のような解像度にする理由は、5枚の画像データを結合して一つの動画像データを作成してそれをユーザ48が鑑賞した際に、違和感を与えないようにするためである。すなわち、解像度の変化を規則的に行うことで、そこから作成された動画像データを鑑賞したユーザ48に違和感を与えないようにするためである。   Here, in S201 and S202, five pieces of image data having a resolution lower than that of the image data A0 are created. In this case, image data is created in which the horizontal and vertical resolutions are 5/6, 4/6, 3/6, 2/6, and 1/6, respectively. The reason why the resolution is as described above is to prevent the user 48 from feeling uncomfortable when the image data is created by combining the five pieces of image data and the user 48 views it. . That is, by regularly changing the resolution, the user 48 who has viewed the moving image data created from the resolution is prevented from feeling uncomfortable.

S202において、画像データ処理部32は、5a/6×5b/6の解像度からなる画像データA1、4a/6×4b/6の解像度からなる画像データA2、3a/6×3b/6の解像度からなる画像データA3、2a/6×2b/6の解像度からなる画像データA4、および1a/6×1b/6の解像度からなる画像データA5の5枚の画像データを作成する。   In S202, the image data processing unit 32 starts from the image data A1 having a resolution of 5a / 6 × 5b / 6, the image data A2 having a resolution of 4a / 6 × 4b / 6, and the resolution of 3a / 6 × 3b / 6. Five pieces of image data A3, image data A4 having a resolution of 2a / 6 × 2b / 6, and image data A5 having a resolution of 1a / 6 × 1b / 6 are created.

S203、S204およびS205において、5枚の画像データが存在するため、5枚の画像データを結合して、一つの動画像データを作成する。ここで、画像データ結合処理部39は、A1からA5の5枚の画像データを解像度が低い画像データから解像度が高い画像データの順になるようにソートするため、A5−A4−A3−A2−A1の順にソートされる。   In S203, S204, and S205, since there are five pieces of image data, the five pieces of image data are combined to create one moving image data. Here, the image data combination processing unit 39 sorts the five pieces of image data A1 to A5 in order from the image data having the low resolution to the image data having the high resolution, so that A5-A4-A3-A2-A1. Sort in the order of.

S205において、画像データ結合処理部39はソートされた順に5枚の画像データを結合して、一つの動画像データA10を作成する。   In S205, the image data combination processing unit 39 combines the five pieces of image data in the sorted order to create one moving image data A10.

そして、図5に示すS107において、画像データ出力処理部40は動画像データA10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データA10が出力され、ユーザ48は動画像データA10を鑑賞することができる。動画像データA10は解像度の低い画像データから徐々に解像度が高い画像データになるように構成されているため、ユーザ48は解像度の低い画像データから始まり徐々に元の画像データA0に近づいていくように感じることができる。   5, the image data output processing unit 40 outputs the moving image data A10 to the external device 44. In the case where the external device 44 has a display device, the moving image data A10 is output, and the user 48 can view the moving image data A10. Since the moving image data A10 is configured so that the image data gradually becomes higher from the image data with lower resolution, the user 48 starts from image data with lower resolution and gradually approaches the original image data A0. I can feel it.

次に、上記のような入力された画像データに対して解像度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツA100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツA200を鑑賞しようとした場合について説明する。   Next, the operation of the receiving apparatus 10 including the image processing apparatus 20 that can generate image data in which the resolution is adjusted with respect to the input image data as described above will be exemplified. For example, a case will be described in which the user 48 is watching the digital content A200 by switching the channel while watching the digital content A100 of the digital broadcast.

チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツA200を受信する。なお、デジタルコンテンツA200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツA200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。   The channel switching unit 14 receives a channel switching instruction from the user 48, and the content receiving unit 12 receives the digital content A 200 that is the content after the channel switching instructed by the user 48. It is assumed that the digital content A200 is encoded and decoded in the form shown in FIG. That is, digital content A200 encoded in the order of I2, B0, B1, P5, B3, B4... Is input via the content receiving unit 12, and the decoding processing unit 26 receives I2, B0, B1, P5, B3, Decode processing is performed in the order of B4.

そこで、効果付加処理部30を構成する解像度調整処理部31および画像データ処理部32は、最初にデコード処理されたI2に対して、解像度を調整した画像データを作成して、解像度の低い画像データから解像度の高い画像データの順に結合して一つの動画像データA201を作成する。なお、これら一連の処理は上述で説明した通りである。   Therefore, the resolution adjustment processing unit 31 and the image data processing unit 32 constituting the effect addition processing unit 30 create image data with the resolution adjusted for the first decoded I2, and the image data with low resolution Are combined in the order of high resolution image data to create one moving image data A201. The series of processing is as described above.

そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データA201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データA201を出力する。   Then, the content display processing unit 16 outputs the moving image data A201 until the video after the channel switching by the user 48 is displayed. That is, as shown in FIG. 11, moving image data A201 is output until B0 next to I2 is decoded and reproduced.

または、動画像データA201を作成する際に使用したI2が再生処理されるまでの間、動画像データA201を出力するものであっても構わない。この場合、B0およびB1は出力されない。これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データA201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。   Alternatively, the moving image data A201 may be output until I2 used when creating the moving image data A201 is reproduced. In this case, B0 and B1 are not output. Thus, the user 48 does not have to wait until the video after the channel switching is output, and can view the moving image data A201 until the video after the channel switching is output. It is possible to reduce the psychological burden of the user 48 who is waiting until

さらに、動画像データA201は解像度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データA201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   Furthermore, since the moving image data A201 is created so as to gradually approach the original image data from the low-resolution image data, the moving image data A201 can be smoothly switched to the video after channel switching, The user 48 does not feel uncomfortable.

なお、解像度を落とした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが表示される。   Note that it is not always necessary to create a plurality of image data with a reduced resolution, and one image data may be used. In this case, since the moving image data is not created, the image data is displayed until the video after the channel switching is output.

以上のように、本実施例1の構成において、デコード処理により得られた画像データに対して、元の画像データよりも解像度を落とした画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。   As described above, in the configuration of the first embodiment, image data having a resolution lower than that of the original image data is created for the image data obtained by the decoding process, and the created image data is combined. Create two video data. Then, by outputting the created moving image data until the video after the channel switching by the user 48 is displayed, the user 48 can appreciate the moving image data. Thereby, it is possible to reduce the psychological burden of the user 48 that is waiting until the video after the channel switching is displayed.

以下に示す実施例2において、デコード処理により得られた画像データに対して、明度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。   In Example 2 shown below, a plurality of pieces of image data with adjusted brightness are created for the image data obtained by the decoding process, and one piece of moving image data is created by combining the plurality of pieces of created image data. The operation of the image processing apparatus 20 at the time of output is exemplified.

例えば、画像データC0が入力された場合について説明する。S301において、明度調整処理部33はデコード処理により得られた画像データに対して、明度を高くした画像データを作成するのか、あるいは明度を低くした画像データを作成するのかを判定する。ここにおいて、明度を高くした画像データを作成するものとする。   For example, a case where image data C0 is input will be described. In S301, the brightness adjustment processing unit 33 determines whether to create image data with higher brightness or image data with lower brightness for the image data obtained by the decoding process. Here, it is assumed that image data with high brightness is created.

このとき、S302およびS303において、明度調整処理部33は入力された画像データC0に対して、画像データC0よりも明度の高い画像データを作成する。ここで、明度調整処理部33が明度を高くした画像データを作成する方法として、例えばRGBの階調を徐々に上げていくことで、明度の高い画像データを作成するものであっても構わない。また、ガンマ補正をかけることで、明度の高い画像データを作成するものであっても構わない。なお、明度の高い画像データを複数枚作成する場合、明度の変化が徐々になるように画像データを作成する。   At this time, in S302 and S303, the brightness adjustment processing unit 33 creates image data having a higher brightness than the image data C0 for the input image data C0. Here, as a method of creating image data with increased brightness, the brightness adjustment processing unit 33 may create image data with high brightness by gradually increasing RGB gradations, for example. . Further, image data with high brightness may be created by applying gamma correction. Note that when creating a plurality of pieces of image data with high brightness, the image data is created so that the change in brightness gradually.

S305において、画像データ結合処理部39は、作成された画像データを明度が高い画像データから明度の低い画像データの順になるようにソートし、S306にて、ソートされた順に画像データを結合して、一つの動画像データC10を作成する。   In step S305, the image data combination processing unit 39 sorts the created image data in order of image data having high brightness to image data having low brightness, and combines the image data in the sorted order in step S306. , One moving image data C10 is created.

そして、図5に示すS107において、画像データ出力処理部40は動画像データC10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データC10が出力され、ユーザ48は動画像データC10を鑑賞することができる。動画像データC10は明度の高い画像データから徐々に明度の低い画像データになるように構成されているため、ユーザ48は明度の高い画像データから始まり徐々に元の画像データC0に近づいていくように感じることができる。   5, the image data output processing unit 40 outputs the moving image data C10 to the external device 44. When the external device 44 is equipped with a display device, the moving image data C10 is output, and the user 48 can view the moving image data C10. Since the moving image data C10 is configured so that the image data is gradually changed from image data with high brightness to image data with low brightness, the user 48 starts from image data with high brightness and gradually approaches the original image data C0. I can feel it.

次に、上記のように入力された画像データに対して明度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツC100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツC200を鑑賞しようとした場合について説明する。   Next, the operation of the receiving apparatus 10 including the image processing apparatus 20 capable of creating image data in which the brightness is adjusted with respect to the image data input as described above will be exemplified. For example, a case where the user 48 is watching the digital content C100 by switching the channel while watching the digital content C100 of the digital broadcast will be described.

チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツC200を受信する。なお、デジタルコンテンツC200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツC200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。   The channel switching unit 14 receives a channel switching instruction from the user 48, and the content receiving unit 12 receives the digital content C 200 that is the content after the channel switching instructed by the user 48. The digital content C200 is encoded and decoded in the form shown in FIG. That is, digital content C200 encoded in the order of I2, B0, B1, P5, B3, B4... Is input via the content receiving unit 12, and the decoding processing unit 26 receives I2, B0, B1, P5, B3, Decode processing is performed in the order of B4.

そこで、効果付加処理部30を構成する明度調整処理部33および画像データ処理部34は、最初にデコード処理されたI2に対して、明度を調整した画像データを作成して、明度の高い画像データから明度の低い画像データの順に結合して一つの動画像データC201を作成する。なお、これら一連の処理は上述で説明した通りである。   Therefore, the lightness adjustment processing unit 33 and the image data processing unit 34 constituting the effect addition processing unit 30 create image data in which the lightness is adjusted for the first decoded I2, and the image data having high lightness. The moving image data C201 is created by combining the image data with the lowest brightness. The series of processing is as described above.

そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データC201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データC201を出力する。または、動画像データC201を作成する際に使用したI2が再生処理されるまでの間、動画像データC201を出力するものであっても構わない。この場合、B0およびB1は出力されない。これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データC201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データC201は明度の高い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データC201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   Then, the content display processing unit 16 outputs the moving image data C201 until the video after the channel switching by the user 48 is displayed. That is, as shown in FIG. 11, moving image data C201 is output until B0 next to I2 is decoded and reproduced. Alternatively, the moving image data C201 may be output until I2 used when creating the moving image data C201 is reproduced. In this case, B0 and B1 are not output. As a result, the user 48 does not need to wait until the video after the channel switching is output, and can view the moving image data C201 until the video after the channel switching is output, so that the video is output. It is possible to reduce the psychological burden of the user 48 who is waiting until Furthermore, since the moving image data C201 is created so as to gradually approach the original image data from the image data with high brightness, the moving image data C201 can be smoothly switched to the video after channel switching. The user 48 does not feel uncomfortable.

なお、明度を高くした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。   Note that it is not always necessary to create a plurality of image data with high brightness, and one image data may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.

また、上記において、入力された画像データよりも明度を高くした画像データを作成した場合について説明したが、入力された画像データよりも明度を低くした画像データを作成するものであっても構わない。この場合、S310において、画像データ結合処理部39は、作成された画像データを明度が低い画像データから明度の高い画像データの順になるようにソートし、S311にて、ソートされた順に画像データを結合して、一つの動画像データを作成する。   In the above description, the case where image data having a higher brightness than input image data has been described. However, image data having a brightness lower than that of input image data may be generated. . In this case, in S310, the image data combination processing unit 39 sorts the created image data so that the image data having the low brightness is ordered in the order of the image data having the high brightness, and in S311, the image data is sorted in the sorted order. Combined to create one moving image data.

そして、この動画像データをユーザ48がチャンネル切り替え指示を出して切り替え後の映像が映し出されるまでの間に出力することで、ユーザ48はそれを鑑賞することができ、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データは明度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データからチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   Then, by outputting this moving image data between the time when the user 48 issues a channel switching instruction and the video after switching is displayed, the user 48 can view it and wait until the video is output. Therefore, the psychological burden on the user 48 can be reduced. Furthermore, since the moving image data is created so as to gradually approach the original image data from the image data with low brightness, the moving image data can be smoothly switched to the video after channel switching. Does not give a sense of incongruity.

以上のように、本実施例2の構成において、デコード処理により得られた画像データに対して、明度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。   As described above, in the configuration of the second embodiment, image data with adjusted brightness is created for the image data obtained by the decoding process, and one moving image data is created by combining the created image data. To do. Then, by outputting the created moving image data until the video after the channel switching by the user 48 is displayed, the user 48 can appreciate the moving image data. Thereby, it is possible to reduce the psychological burden of the user 48 that is waiting until the video after the channel switching is displayed.

以下に示す実施例3において、デコード処理により得られた画像データに対して、彩度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。   In Example 3 shown below, a plurality of pieces of image data with adjusted saturation are created for the image data obtained by the decoding process, and one piece of moving image data is combined by combining the plurality of pieces of created image data. The operation of the image processing apparatus 20 when creating and outputting is illustrated.

例えば、画像データD0が入力された場合について説明する。S401において、彩度調整処理部35はデコード処理により得られた画像データに対して、彩度を高くした画像データを作成するのか、あるいは彩度を低くした画像データを作成するのかを判定する。ここにおいて、彩度を高くした画像データを作成するものとする。   For example, a case where image data D0 is input will be described. In step S <b> 401, the saturation adjustment processing unit 35 determines whether to create image data with high saturation or image data with low saturation for the image data obtained by the decoding process. Here, it is assumed that image data with high saturation is created.

このとき、S402およびS403において、彩度調整処理部35は入力された画像データD0に対して、画像データD0よりも彩度の高い画像データを作成する。ここで、彩度調整処理部35が彩度を高くした画像データを作成する方法として、例えばRGBの階調を調整し、画像データに入る光の量を増やすことで、彩度の高い画像データを作成するものであっても構わない。なお、彩度の高い画像データを複数枚作成する場合、彩度の変化が徐々になるように、画像データを作成する。   At this time, in S402 and S403, the saturation adjustment processing unit 35 creates image data with higher saturation than the image data D0 for the input image data D0. Here, as a method of creating image data with high saturation, the saturation adjustment processing unit 35 adjusts the gradation of RGB, for example, and increases the amount of light entering the image data, so that image data with high saturation is obtained. You may create. Note that when creating a plurality of high-saturation image data, the image data is created so that the change in the saturation gradually.

S405において、画像データ結合処理部39は、作成された画像データを彩度が高い画像データから彩度の低い画像データの順になるようにソートし、S406にて、ソートされた順に画像データを結合して、一つの動画像データD10を作成する。   In step S405, the image data combination processing unit 39 sorts the created image data in order of image data with high saturation to image data with low saturation, and combines the image data in the sorted order in step S406. Thus, one moving image data D10 is created.

そして、図5に示すS107において、画像データ出力処理部40は動画像データD10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データD10が出力され、ユーザ48は動画像データD10を鑑賞することができる。動画像データD10は彩度の高い画像データから徐々に彩度の低い画像データになるように構成されているため、ユーザ48は彩度の高い画像データから始まり徐々に元の画像データD0に近づいていくように感じることができる。   In step S <b> 107 illustrated in FIG. 5, the image data output processing unit 40 outputs the moving image data D <b> 10 to the external device 44. If the external device 44 is equipped with a display device, moving image data D10 is output, and the user 48 can view the moving image data D10. Since the moving image data D10 is configured so that image data with high saturation gradually changes to image data with low saturation, the user 48 starts from image data with high saturation and gradually approaches the original image data D0. You can feel like going.

次に、上記のように入力された画像データに対して彩度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツD100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツD200を鑑賞しようとした場合について説明する。   Next, the operation of the receiving device 10 including the image processing device 20 capable of creating image data in which the saturation is adjusted with respect to the image data input as described above will be exemplified. For example, a case will be described in which the user 48 is watching the digital content D200 by switching the channel while watching the digital content D100 of the digital broadcast.

チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツD200を受信する。なお、デジタルコンテンツD200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツD200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。   The channel switching unit 14 receives a channel switching instruction from the user 48, and the content receiving unit 12 receives the digital content D200 that is the content after the channel switching instructed by the user 48. It is assumed that the digital content D200 is encoded and decoded in the form shown in FIG. That is, digital content D200 encoded in the order of I2, B0, B1, P5, B3, B4... Is input via the content receiving unit 12, and the decoding processing unit 26 receives I2, B0, B1, P5, B3, Decode processing is performed in the order of B4.

そこで、効果付加処理部30を構成する彩度調整処理部35および画像データ処理部36は、最初にデコード処理されたI2に対して、彩度を調整した画像データを作成して、彩度の高い画像データから彩度の低い画像データの順に結合して一つの動画像データD201を作成する。なお、これら一連の処理は上述で説明した通りである。   Therefore, the saturation adjustment processing unit 35 and the image data processing unit 36 constituting the effect addition processing unit 30 create image data in which the saturation is adjusted for the first decoded I2, and the saturation adjustment One moving image data D201 is created by combining high image data and low saturation image data in this order. The series of processing is as described above.

そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データD201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データD201を出力する。または、動画像データD201を作成する際に使用したI2が再生処理されるまでの間、動画像データD201を出力するものであっても構わない。この場合、B0およびB1は出力されない。   Then, the content display processing unit 16 outputs the moving image data D201 until the video after the channel switching by the user 48 is displayed. That is, as shown in FIG. 11, moving image data D201 is output until B0 next to I2 is decoded and reproduced. Alternatively, the moving image data D201 may be output until I2 used for creating the moving image data D201 is reproduced. In this case, B0 and B1 are not output.

これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データD201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データD201は彩度の高い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データD201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   Thus, the user 48 does not need to wait until the video after the channel switching is output, and can view the moving image data D201 until the video after the channel switching is output. It is possible to reduce the psychological burden of the user 48 who is waiting until Furthermore, since the moving image data D201 is created so as to gradually approach the original image data from the image data with high saturation, the moving image data D201 can be smoothly switched to the video after channel switching. , The user 48 does not feel uncomfortable.

なお、彩度を高くした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。   Note that it is not always necessary to create a plurality of image data with high saturation, and one image data may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.

また、上記において、入力された画像データよりも彩度を高くした画像データを作成した場合について説明したが、入力された画像データよりも彩度を低くした画像データを作成するものであっても構わない。   In the above description, the case where the image data with higher saturation than the input image data is created has been described. However, the image data with lower saturation than the input image data may be created. I do not care.

この場合、S410において、画像データ結合処理部39は、作成された画像データを彩度が低い画像データから彩度の高い画像データの順になるようにソートし、S411にて、ソートされた順に画像データを結合して、一つの動画像データを作成する。そして、この動画像データをユーザ48がチャンネル切り替え指示を出して切り替え後の映像が映し出されるまでの間に出力することで、ユーザ48はそれを鑑賞することができ、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。   In this case, in S410, the image data combination processing unit 39 sorts the created image data in the order of image data with low saturation to image data with high saturation, and in S411, the images are sorted in the sorted order. Combine the data to create one moving image data. Then, by outputting this moving image data between the time when the user 48 issues a channel switching instruction and the video after switching is displayed, the user 48 can view it and wait until the video is output. Therefore, the psychological burden on the user 48 can be reduced.

さらに、動画像データは彩度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データからチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   Furthermore, since the moving image data is created so as to gradually approach the original image data from the low-saturation image data, it is possible to smoothly switch from the moving image data to the video after the channel switching. 48 does not give a sense of incongruity.

以上のように、本実施例3の構成において、デコード処理により得られた画像データに対して、彩度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。   As described above, in the configuration of the third embodiment, image data with adjusted saturation is created for the image data obtained by the decoding process, and one moving image data is combined by combining the created image data. create. Then, by outputting the created moving image data until the video after the channel switching by the user 48 is displayed, the user 48 can appreciate the moving image data. Thereby, it is possible to reduce the psychological burden of the user 48 that is waiting until the video after the channel switching is displayed.

以下に示す実施例4において、デコード処理により得られた画像データに対して、ぼかした複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。   In Example 4 shown below, a plurality of blurred image data is created for the image data obtained by the decoding process, and one moving image data is created by combining the created plurality of image data. The operation of the image processing apparatus 20 when outputting will be exemplified.

例えば、画像データE0が入力された場合について説明する。ステップS501およびステップS502において、ぼかし度調整処理部37は入力された画像データE0に対して、画像データE0をぼかした画像データを作成する。ここで、ぼかし度調整処理部37がぼかした画像データを作成する方法として、例えばフィルタ処理を行うものであっても構わない。   For example, a case where image data E0 is input will be described. In step S501 and step S502, the blurring degree adjustment processing unit 37 creates image data obtained by blurring the image data E0 with respect to the input image data E0. Here, as a method of creating the blurred image data by the blurring degree adjustment processing unit 37, for example, a filtering process may be performed.

この場合に使用するフィルタとしては、フィルタ処理後の注目画素の濃度値を、注目画素の、周りの画素の平均値とするようなものであっても構わない。例えば、フィルタの「縦×横」が3×3画素とした場合、全9個のフィルタの数値を1/9とすればよい。ただし、フィルタは必ずしもこれに限定されない。さらに大きなフィルタを用いても構わない。なお、大きなフィルタを用いるほど、ぼかし度の大きい画像データを作成することができる。   The filter used in this case may be such that the density value of the target pixel after the filter processing is set to the average value of the surrounding pixels of the target pixel. For example, if the “vertical × horizontal” of the filter is 3 × 3 pixels, the numerical values of all nine filters may be 1/9. However, the filter is not necessarily limited to this. A larger filter may be used. Note that the larger the filter is used, the more the image data with a higher degree of blur can be created.

また、ぼかした画像データを作成する方法として、モザイク処理であっても構わない。モザイク処理をする方法としては、例えばある矩形範囲のうち、1点の画素の濃度値をその矩形全体の濃度値にすることで、モザイク処理された画像データを作成することができる。なお、ぼかした画像データを複数枚作成する場合、ぼかし度の変化が徐々になるように画像データを作成する。   Further, mosaic processing may be used as a method of creating blurred image data. As a method of performing the mosaic processing, for example, by setting the density value of one pixel in a certain rectangular range to the density value of the entire rectangle, it is possible to create mosaic-processed image data. Note that when creating a plurality of pieces of blurred image data, the image data is created so that the change in the blurring degree is gradually increased.

ステップS504において、画像データ結合処理部39は、作成された画像データをぼかし度が大きい画像データからぼかし度の小さい画像データの順になるようにソートし、ステップS505にて、ソートされた順に画像データを結合して、一つの動画像データE10を作成する。   In step S504, the image data combination processing unit 39 sorts the generated image data so that the image data having the highest blur level is arranged in the order of the image data having the lower blur level, and in step S505, the image data is sorted in the sorted order. Are combined to create one moving image data E10.

そして、図5に示すS107において、画像データ出力処理部40は動画像データE10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データE10が出力され、ユーザ48は動画像データE10を鑑賞することができる。動画像データE10はぼかし度の大きい画像データから徐々にぼかし度の小さい画像データになるように構成されているため、ユーザ48はぼかし度の大きい画像データから始まり徐々に元の画像データE0に近づいていくように感じることができる。   In step S <b> 107 illustrated in FIG. 5, the image data output processing unit 40 outputs the moving image data E <b> 10 to the external device 44. In the case where the external device 44 has a display device, the moving image data E10 is output, and the user 48 can view the moving image data E10. Since the moving image data E10 is configured so that image data with a high degree of blur gradually changes to image data with a low degree of blur, the user 48 starts with image data with a high degree of blur and gradually approaches the original image data E0. You can feel like going.

次に、上記のように入力された画像データに対してぼかし度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツE100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツE200を鑑賞しようとした場合について説明する。   Next, the operation of the receiving apparatus 10 including the image processing apparatus 20 capable of creating image data in which the blur level is adjusted with respect to the image data input as described above will be exemplified. For example, a case where the user 48 is watching the digital content E100 by switching the channel while watching the digital content E100 of the digital broadcast will be described.

チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツE200を受信する。   The channel switching unit 14 receives a channel switching instruction from the user 48, and the content receiving unit 12 receives the digital content E200 that is the content after the channel switching instructed by the user 48.

なお、デジタルコンテンツE200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツE200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。   The digital content E200 is encoded and decoded in the form shown in FIG. That is, digital content E200 encoded in the order of I2, B0, B1, P5, B3, B4... Is input via the content receiving unit 12, and the decoding processing unit 26 receives I2, B0, B1, P5, B3, Decode processing is performed in the order of B4.

そこで、効果付加処理部30を構成するぼかし度調整処理部37および画像データ処理部38は、最初にデコード処理されたI2に対して、ぼかし度を調整した画像データを作成して、ぼかし度の大きい画像データからぼかし度の小さい画像データの順に結合して一つの動画像データE201を作成する。なお、これら一連の処理は上述で説明した通りである。   Therefore, the blurring degree adjustment processing unit 37 and the image data processing unit 38 constituting the effect addition processing unit 30 create image data in which the blurring degree is adjusted for the first decoded I2, and the blurring degree is adjusted. One moving image data E201 is created by combining large image data and image data with a small blurring degree. The series of processing is as described above.

そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データE201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データE201を出力する。または、動画像データE201を作成する際に使用したI2が再生処理されるまでの間、動画像データE201を出力するものであっても構わない。この場合、B0およびB1は出力されない。   Then, the content display processing unit 16 outputs the moving image data E201 until the video after the channel switching by the user 48 is displayed. That is, as shown in FIG. 11, moving image data E201 is output until B0 next to I2 is decoded and reproduced. Alternatively, the moving image data E201 may be output until I2 used for creating the moving image data E201 is reproduced. In this case, B0 and B1 are not output.

これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データE201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データE201はぼかし度の大きい画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データE201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。   As a result, the user 48 does not need to wait until the video after the channel switching is output, and can view the moving image data E201 until the video after the channel switching is output. It is possible to reduce the psychological burden of the user 48 who is waiting until Furthermore, since the moving image data E201 is created so as to gradually approach the original image data from image data with a high degree of blurring, the moving image data E201 can be smoothly switched to the video after channel switching. , The user 48 does not feel uncomfortable.

なお、ぼかした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。   Note that it is not always necessary to create a plurality of blurred image data, and a single image may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.

以上のように、本実施例4の構成では、デコード処理により得られた画像データに対して、ぼかし度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。   As described above, in the configuration of the fourth embodiment, image data obtained by adjusting the blurring degree is created for the image data obtained by the decoding process, and the created image data is combined to generate one moving image data. create. Then, by outputting the created moving image data until the video after the channel switching by the user 48 is displayed, the user 48 can appreciate the moving image data. Thereby, it is possible to reduce the psychological burden of the user 48 that is waiting until the video after the channel switching is displayed.

このように、本実施形態に係る画像処理装置は、複数の画像から構成された映像を示すデジタルコンテンツデータをデコードする再生手段を備え、上記デジタルコンテンツデータでは、映像における画像の順序とは異なる順序で、各画像をエンコードした画像データが並べられており、上記再生手段は、上記デジタルコンテンツデータに含まれる画像データをデコードして再生画像を生成した後、当該処理対象の再生画像に対応する画像と比較して、上記映像における順序が前の画像に対応する再生画像が未だデコードされていなければ、上記処理対象の再生画像を一時的に記憶し、上記未だデコードされていない再生画像をデコードした後に出力する画像再生装置において、上記一時的に記憶される再生画像に対して映像効果を付加する画像処理を施して出力する付加手段と、上記デジタルコンテンツデータの出力が指示された場合、上記付加手段からの出力を付加した後に上記再生手段からの出力を出力する出力制御手段とを備えている。   As described above, the image processing apparatus according to the present embodiment includes a reproducing unit that decodes digital content data indicating a video composed of a plurality of images, and the digital content data has an order different from the order of the images in the video. The image data obtained by encoding each image is arranged, and the reproduction means decodes the image data included in the digital content data to generate a reproduction image, and then generates an image corresponding to the reproduction image to be processed. If the playback image corresponding to the previous image in the video is not yet decoded, the playback image to be processed is temporarily stored, and the playback image that has not been decoded is decoded. In an image playback device to be output later, an image for adding a video effect to the temporarily stored playback image And adding means for outputting subjected to a treatment, when the output of the digital content data is instructed, and an output control means for outputting an output from said reproducing means after adding the output from said adding means.

上記の構成によれば、上記再生手段からの出力が出力されるようにも前に、付加手段からの出力が出力される。ここで、付加手段は、一時的に記録される先行画像、すなわち、上記映像での順序が前の画像の映像として最初に出力すべき再生画像が未だデコードされておらず、遅延して出力される再生画像に対して映像効果を付加している。したがって、付加手段は先行画像がデコードされた時点よりも後であれば、映像として最初に出力すべき再生画像がデコードされる時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。   According to the above configuration, the output from the adding unit is output before the output from the reproducing unit is output. Here, the adding means does not yet decode the preceding image that is temporarily recorded, that is, the reproduction image that should be output first as the image of the previous image in the above order, and is output with a delay. A video effect is added to the playback image. Therefore, if the adding means is later than the time point when the preceding image is decoded, the time point when the reproduced image to be output first as a video is decoded, and the time point earlier than the output time point of the preceding image set thereafter Thus, a process for adding a video effect to the preceding image can be performed.

したがって、映像再生装置は、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した再生画像を示す信号を出力できる。   Therefore, when the preceding image is arranged at the beginning of the digital content data that is instructed to be output, the video playback device is more than the time when the playback means decodes and outputs the playback image to be output first as video. At an early point, a signal indicating a reproduced image obtained by adding a video effect to an image generated by decoding image data in the digital content data instructed to be output can be output.

また、付加手段が出力する画像は、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した再生画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力すべき再生画像に、より類似しているので、ユーザに与える違和感を軽減できる。   Further, the image output by the adding means is a reproduced image that should be output later than the time point when the reproducing means decodes and outputs the first reproduced image to be output as a video. This is an image obtained by adding a video effect to a reproduced image generated by decoding image data in content data. Therefore, in many cases, it is more similar to a reproduced image to be output first as a video, compared to an image instructed to be output before the output of the digital content data is instructed. The user feels uncomfortable.

さらに、付加手段が出力する画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が表示されるまでの間に、違和感の少ない画像を出力可能な画像再生装置を実現できる。   Furthermore, since the image output by the adding means has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user hardly notices the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an image with less sense of incongruity between the time when the digital content data is output and the time when the image is actually displayed.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

なお、上記の実施形態では、イントラ符号化するイントラ符号化画像データ、すなわちIピクチャを用い、当該Iピクチャに対して、効果を付加した画像データを作成したが、必ずしもこれに限定されない。例えば、PピクチャおよびBピクチャを使用するものであっても構わない。PピクチャおよびBピクチャはそれ単体では完全に復号することはできないが、Pピクチャ及びBピクチャを使用することで、最初に出力するべき完全な画像に段階的に近似してゆく画像データを得ることができ、それらの画像をチャンネル切り替え時間の間に出力することで、上述と同様の効果を奏することが可能である。   In the above-described embodiment, intra-encoded image data to be intra-encoded, that is, an I picture is used, and image data in which an effect is added to the I picture is created. However, the present invention is not limited to this. For example, a P picture and a B picture may be used. P picture and B picture cannot be completely decoded by themselves, but by using P picture and B picture, it is possible to obtain image data that gradually approximates a complete picture to be output first. By outputting these images during the channel switching time, it is possible to achieve the same effects as described above.

さらにPピクチャやBピクチャを用いる場合には、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされたPピクチャまたはBピクチャから不完全な再生画像を抽出し、前記先行画像として出力してもよい。PピクチャやBピクチャ単体から完全な映像のデコードは不可能であるが、完全な映像の一部をデコードすることができる。このような不完全な再生画像を抽出し、エフェクトを付加することで前記先行画像として用いることが可能である。   Further, in the case of using a P picture or a B picture, if the digital content data input to the input means is changed, an incomplete reproduced image is extracted from the P picture or B picture decoded first, It may be output as a preceding image. Although it is impossible to decode a complete picture from a single P picture or B picture, it is possible to decode a part of a complete picture. By extracting such an incomplete reproduced image and adding an effect, it can be used as the preceding image.

具体的には、デコード処理部26において、入力されたデータから不完全にデコードされた再生画像を画像データ保管部28に出力して保管する。デコード処理部26に保管された画像データは、上述の実施形態と同様に、効果付加処理部30および画像データ出力処理部40によって、任意のタイミングで参照される。効果付加処理部30は、画像データ保管部28にて保管された画像データを外部機器44に出力する際の効果を付加する処理を行う。   Specifically, in the decoding processing unit 26, a reproduced image that is incompletely decoded from the input data is output to the image data storage unit 28 and stored. The image data stored in the decode processing unit 26 is referred to at an arbitrary timing by the effect addition processing unit 30 and the image data output processing unit 40 as in the above-described embodiment. The effect addition processing unit 30 performs processing for adding an effect when the image data stored in the image data storage unit 28 is output to the external device 44.

上記の構成によれば、上述の実施形態よりもさらに早く先行画像を出力することができ、かつ、不完全な再生画像に対してエフェクトを付加することによる違和感を軽減した映像を出力する画像処理装置20および受信装置10を実現することができる。   According to the above configuration, image processing that can output a preceding image earlier than the above-described embodiment, and that outputs a video with reduced discomfort by adding an effect to an incomplete reproduced image The device 20 and the receiving device 10 can be realized.

より詳細には、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツ50を入力するための入力部22と、入力部22から受け取ったデジタルコンテンツ50を再生画像にデコードするデコード処理部26と、デコードした複数の再生画像を並び替えて映像として出力する画像データ出力処理部40とを備える画像処理装置20において、入力部22に入力されるデジタルコンテンツ50が変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する画像データ保管部28と、先行画像にエフェクトを付加して付加画像を生成する効果付加処理部30と、デジタルコンテンツ50が入力された際、先行画像がデコードされてからデコードした複数の再生画像を並び替えて映像として出力するまでの期間、付加画像を出力するように前記出力手段を制御するコンテンツ表示処理部16とをさらに備えている。   More specifically, an input unit 22 for inputting digital content 50 composed of a plurality of image data created by encoding a video composed of a plurality of images, and the digital content received from the input unit 22 In an image processing apparatus 20 including a decoding processing unit 26 that decodes 50 into a reproduction image, and an image data output processing unit 40 that rearranges a plurality of decoded reproduction images and outputs them as video, digital input to the input unit 22 An image data storage unit 28 for extracting an incomplete reproduced image as a preceding image from image data in which complete video cannot be decoded but part of the complete video can be decoded when the content 50 is changed; An effect addition processing unit 30 that adds an effect to the preceding image to generate an additional image, and digital content 50 A content display processing unit 16 for controlling the output means so as to output an additional image during a period from when the preceding image is decoded until a plurality of decoded reproduced images are rearranged and output as video. It has more.

上記の構成によれば、デジタルコンテンツ50をデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツ50に対するデコード処理を行った結果、入力される前記デジタルコンテンツ50が変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像に対してエフェクトを付加した付加画像を生成し、並べ替えを行った再生画像のデコードが完了するまでの待ち時間に出力する。これによって、並べ替えを行った再生画像が画像データ出力処理部40から出力されるより前に、効果付加処理部30からの付加画像が出力されるように制御される。   According to the above configuration, when the input digital content 50 is changed as a result of performing the decoding process on the digital content 50 during the time required for the processing performed when the digital content 50 is decoded and the video is output. , Playback that has been rearranged by generating an additional image with effects added to the incomplete playback image from image data that cannot be decoded completely, but can decode a part of the complete video Output during waiting time until image decoding is complete. Accordingly, the additional image from the effect addition processing unit 30 is controlled to be output before the reconstructed reproduced image is output from the image data output processing unit 40.

最後に、受信装置10の各ブロック、特に画像処理装置20に含まれるデコード処理部26、画像データ保管部28、効果付加処理部30、および画像データ出力処理部40は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the receiving device 10, in particular, the decoding processing unit 26, the image data storage unit 28, the effect addition processing unit 30, and the image data output processing unit 40 included in the image processing device 20 are configured by hardware logic. Alternatively, it may be realized by software using a CPU as follows.

すなわち、本実施の形態に係る画像処理装置20は、実質的には、コンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図10は、このコンピュータシステム200の内部構成を示すブロック図である。   That is, the image processing apparatus 20 according to the present embodiment is substantially realized by computer hardware, a program executed by the computer hardware, and data stored in the computer hardware. FIG. 10 is a block diagram showing the internal configuration of the computer system 200.

図10を参照して、このコンピュータシステム200は、光ディスクドライブ201および磁気ディスクドライブ202を有するコンピュータ220と、モニタ203と、リモートコントローラ(以下、「リモコン」と呼ぶ)204とを含む。   Referring to FIG. 10, a computer system 200 includes a computer 220 having an optical disk drive 201 and a magnetic disk drive 202, a monitor 203, and a remote controller (hereinafter referred to as “remote controller”) 204.

コンピュータ220は、光ディスクドライブ201および磁気ディスクドライブ202に加えて、リモコン204からの信号を受信するリモコンインタフェース(I/F)205と、CPU(中央処理装置)206と、リモコンインタフェース205、CPU206、光ディスクドライブ201および磁気ディスクドライブ202に接続されたバス207と、バス207に接続され、ブートアッププログラム等を記憶する読出専用メモリ(ROM)208と、同じくバス207に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)209とを含む。   In addition to the optical disk drive 201 and the magnetic disk drive 202, the computer 220 includes a remote control interface (I / F) 205 that receives a signal from the remote control 204, a CPU (central processing unit) 206, a remote control interface 205, a CPU 206, and an optical disk. A bus 207 connected to the drive 201 and the magnetic disk drive 202, a read-only memory (ROM) 208 connected to the bus 207 and storing a boot-up program and the like, and also connected to the bus 207, program instructions, system programs, And a random access memory (RAM) 209 for storing work data and the like.

ここでは示さないが、コンピュータ220はさらにローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでいてもよい。   Although not shown here, the computer 220 may further include a network adapter board that provides a connection to a local area network (LAN).

コンピュータシステム200に画像処理装置20の機能を実現させるためのプログラム、デジタルコンテンツ50、および画像データ60はいずれも、光ディスクドライブ201又は磁気ディスクドライブ202に挿入される光ディスク210又は磁気ディスク211に記憶され、さらにハードディスク212に転送される。又は、プログラム、デジタルコンテンツ50、および画像データ60は図示しないネットワークを通じてコンピュータ220に送信されハードディスク212に記憶されてもよい。プログラムは実行の際にRAM209にロードされる。光ディスク210から、磁気ディスク211から、又はネットワークを介して、直接にRAM209にプログラムをロードしてもよい。   A program for causing the computer system 200 to realize the functions of the image processing apparatus 20, the digital content 50, and the image data 60 are all stored in the optical disk 210 or the magnetic disk 211 inserted into the optical disk drive 201 or the magnetic disk drive 202. And further transferred to the hard disk 212. Alternatively, the program, the digital content 50, and the image data 60 may be transmitted to the computer 220 through a network (not shown) and stored in the hard disk 212. The program is loaded into the RAM 209 when executed. The program may be loaded directly into the RAM 209 from the optical disk 210, from the magnetic disk 211, or via a network.

このプログラムは、コンピュータ220に本実施の形態に係る画像処理装置20の機能を実現させる複数の命令を含む。これら機能を実現させるのに必要な基本的機能のいくつかはコンピュータ220上で動作するオペレーティングシステム(OS)又はサードパーティのプログラム、若しくはコンピュータ220にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施の形態に係る画像処理装置20の機能を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「ツール」を呼出すことにより、上記した画像処理装置20の制御を実行する命令のみを含んでいればよい。コンピュータシステム200の動作は周知であるので、ここでは繰り返さない。   This program includes a plurality of instructions for causing the computer 220 to realize the functions of the image processing apparatus 20 according to the present embodiment. Some of the basic functions necessary to realize these functions are provided by an operating system (OS) or a third-party program running on the computer 220 or various toolkit modules installed on the computer 220. Therefore, this program does not necessarily include all functions necessary to realize the functions of the image processing apparatus 20 according to this embodiment. This program may include only instructions for executing the control of the image processing apparatus 20 described above by calling an appropriate function or “tool” in a controlled manner so as to obtain a desired result. That's fine. The operation of computer system 200 is well known and will not be repeated here.

なお、画像処理装置20の機能を実現するためのプログラム、デジタルコンテンツ50、および画像データ60が記録される記録媒体は、CD−ROM(Compact Disc Read Only Memory)、MO(Magneto Optical Disk)、MD(Mini Disc)、およびDVD(Digital Versatile Disk)等の光ディスク210、FD(Floppy(登録商標) Disk)およびハードディスク等の磁気ディスク211に限らない。   A recording medium on which the program for realizing the functions of the image processing apparatus 20, the digital content 50, and the image data 60 are recorded is a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical Disk), an MD. It is not limited to the optical disk 210 such as (Mini Disc) and DVD (Digital Versatile Disk), and the magnetic disk 211 such as FD (Floppy (registered trademark) Disk) and hard disk.

あるいは、磁気テープおよびカセットテープ等のテープ、ICカードおよび光カード等のカード型記録媒体、並びにマスクROM、EPROM(Erasable Programable Read Only Memory)、EEPROM(Electrically Erasable Programable Read Only Memory)、およびフラッシュROM等の半導体メモリのいずれかでもよい。ただし、コンピュータシステム200は、これら記録媒体からの読出を行うための読出装置が必要となる。   Alternatively, tapes such as magnetic tapes and cassette tapes, card-type recording media such as IC cards and optical cards, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. Any of these semiconductor memories may be used. However, the computer system 200 requires a reading device for reading from these recording media.

なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

なお、上記外部機器と表示装置とに出力する映像データが異なっていてもよい。   Note that the video data output to the external device and the display device may be different.

本発明は、デコード終了後に出力する画像になだらかに繋がる、違和感の少ない画像を生成して出力するので、チャンネル切り替えなどの際に生じる、デジタルコンテンツデータのデコードなどの処理に要する時間に、ユーザが感じる心理的負担を軽減することができるので、デジタルコンテンツをデコードするデコード装置、およびデジタル放送を鑑賞するためのデジタル放送受信端末装置などの用途にも適用することができる。   Since the present invention generates and outputs an image that is smoothly connected to an image to be output after the completion of decoding and has a less uncomfortable feeling, the user can reduce the time required for processing such as decoding of digital content data that occurs at the time of channel switching or the like. Since the psychological burden to be felt can be reduced, the present invention can be applied to uses such as a decoding device for decoding digital contents and a digital broadcast receiving terminal device for watching digital broadcasting.

本発明の一実施形態を示すもので、ユーザの操作によってデジタルコンテンツを提供する放送システムの要部構成を示す概略図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic diagram illustrating a configuration of a main part of a broadcasting system that provides an embodiment of the present invention and provides digital content by user operation. 上記の放送システムにおける受信装置内の画像処理装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the image processing apparatus in the receiver in said broadcast system. 上記の画像処理装置における効果付加処理部の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the effect addition process part in said image processing apparatus. 上記の画像処理装置におけるデジタルコンテンツをエンコードおよびデコードする際の各画像データの様子を示す概略図であるIt is the schematic which shows the mode of each image data at the time of encoding and decoding the digital content in said image processing apparatus. 上記の画像処理装置における各処理S101〜S107の流れを示すフロー図である。It is a flowchart which shows the flow of each process S101-S107 in said image processing apparatus. 図5におけるS103で実行される解像度調整処理を示すフロー図である。It is a flowchart which shows the resolution adjustment process performed by S103 in FIG. 図5におけるS104で実行される明度調整処理を示すフロー図である。It is a flowchart which shows the brightness adjustment process performed by S104 in FIG. 図5におけるS105で実行される彩度調整処理を示すフロー図である。It is a flowchart which shows the saturation adjustment process performed by S105 in FIG. 図5におけるS106で実行されるぼかし度調整処理を示すフロー図である。It is a flowchart which shows the blurring degree adjustment process performed by S106 in FIG. 上記の受信装置および放送システムをコンピュータシステムで実現する場合の内部構成を示すブロック図である。It is a block diagram which shows an internal structure in the case of implement | achieving said receiving apparatus and broadcast system with a computer system. デジタルコンテンツをエンコードする際、およびエンコードされたデジタルコンテンツをデコードする際の様子を示す概略図である。It is the schematic which shows a mode at the time of encoding digital content and decoding the encoded digital content.

符号の説明Explanation of symbols

1 放送システム
10 受信装置
12 コンテンツ受信部(受信手段)
14 チャンネル切り替え部
16 コンテンツ表示処理部(出力手段)
20 画像処理装置
22 入力部(入力手段)
24 コンテンツ蓄積部
26 デコード処理部(再生手段)
28 画像データ保管部(抽出手段)
30 効果付加処理部(付加手段)
31 解像度調整処理部
32 画像データ処理部
33 明度調整処理部
34 画像データ処理部
35 彩度調整処理部
36 画像データ処理部
37 ぼかし度調整処理部
38 画像データ処理部
39 画像データ結合処理部
40 画像データ出力処理部(出力制御手段)
42 デジタルコンテンツ提供サーバ(送信装置)
44 外部機器
46 表示装置
48 ユーザ
50 デジタルコンテンツ
60 画像データ
200 コンピュータシステム
201 光ディスクドライブ
202 磁気ディスクドライブ
203 モニタ
204 リモートコントローラ
204 リモコン
205 リモコンインタフェース
206 CPU
207 バス
208 読出専用メモリ
209 RAM
209 ランダムアクセスメモリ
210 光ディスク
211 磁気ディスク
212 ハードディスク
220 コンピュータ
DESCRIPTION OF SYMBOLS 1 Broadcasting system 10 Receiving device 12 Content receiving part (receiving means)
14 Channel switching unit 16 Content display processing unit (output means)
20 Image processing device 22 Input unit (input means)
24 content storage unit 26 decoding processing unit (reproducing means)
28 Image data storage (extraction means)
30 Effect addition processing part (addition means)
31 Resolution adjustment processing unit 32 Image data processing unit 33 Brightness adjustment processing unit 34 Image data processing unit 35 Saturation adjustment processing unit 36 Image data processing unit 37 Blurness adjustment processing unit 38 Image data processing unit 39 Image data combination processing unit 40 Image Data output processor (output control means)
42 Digital content providing server (transmitting device)
44 External device 46 Display device 48 User 50 Digital content 60 Image data 200 Computer system 201 Optical disk drive 202 Magnetic disk drive 203 Monitor 204 Remote controller 204 Remote controller 205 Remote control interface 206 CPU
207 Bus 208 Read only memory 209 RAM
209 Random access memory 210 Optical disk 211 Magnetic disk 212 Hard disk 220 Computer

Claims (14)

複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、
デコードした時点ですぐに出力しない再生画像を先行画像として抽出する抽出手段と、
前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備え、
前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴とする画像処理装置。
An input means for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and the digital content data received from the input means are decoded into reproduced images. In an image processing apparatus comprising: a reproducing unit that outputs; and an output unit that rearranges the plurality of decoded reproduced images and outputs the rearranged images.
Extraction means for extracting a reproduced image that is not output immediately upon decoding as a preceding image;
An adding means for generating an additional image by adding an effect to the preceding image;
When the digital content data is input, the output means is controlled to output the additional image during a period from when the preceding image is decoded to when the decoded plurality of reproduced images are rearranged and output as video. And an output control means for
An image processing apparatus, wherein when the digital content data input to the input means is changed, a reproduced image that is decoded first is extracted as the preceding image.
前記先行画像は、画面内の画素を全てイントラ符号化するイントラ符号化画像データであることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the preceding image is intra-encoded image data that intra-encodes all pixels in the screen. 前記出力制御手段は、前記入力手段に入力されるデジタルコンテンツデータが変更された場合、前記先行画像を並び替えて出力する映像の最初の再生画像として用い、当該再生画像を出力するまでの期間、前記付加画像を出力するように前記出力手段を制御することを特徴とする請求項1に記載の画像処理装置。   When the digital content data input to the input unit is changed, the output control unit uses the preceding image as a first reproduced image to be output and rearranges the period until the reproduced image is output, The image processing apparatus according to claim 1, wherein the output unit is controlled to output the additional image. 複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、
前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する抽出手段と、
前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備えることを特徴とする画像処理装置。
An input means for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and the digital content data received from the input means are decoded into reproduced images. In an image processing apparatus comprising: a reproducing unit that outputs; and an output unit that rearranges the plurality of decoded reproduced images and outputs the rearranged images.
When the digital content data input to the input means is changed, an incomplete reproduced image is converted from an image data that cannot be completely decoded but can be partially decoded. Extraction means for extracting as:
An adding means for generating an additional image by adding an effect to the preceding image;
When the digital content data is input, the output means is controlled to output the additional image during a period from when the preceding image is decoded to when the decoded plurality of reproduced images are rearranged and output as video. And an output control means.
前記先行画像は、画面内の画素にイントラ符号化されたデータを含むフレーム間順方向予測画像データであることを特徴とする請求項1または4に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the preceding image is inter-frame forward prediction image data including intra-coded data in pixels in a screen. 前記先行画像は、画面内の画素にイントラ符号化されたデータを含む双方向予測符号化画像データであることを特徴とする請求項1または4に記載の画像処理装置。   5. The image processing apparatus according to claim 1, wherein the preceding image is bi-directional predictive encoded image data including intra-encoded data in pixels in a screen. 前記付加手段は、前記先行画像のパラメータを変更するエフェクトを付加することで、1つ以上の付加画像を生成し、
前記出力制御手段は、前記先行画像との近似度が高くなって行く順序で前記付加画像を出力するように制御することを特徴とする請求項1または4に記載の画像処理装置。
The adding means generates one or more additional images by adding an effect of changing a parameter of the preceding image,
The image processing apparatus according to claim 1, wherein the output control unit performs control so that the additional image is output in an order in which the degree of approximation with the preceding image increases.
前記エフェクトは、解像度、明度、彩度、およびぼかし度のうち少なくても1つのパラメータを変更するエフェクトであることを特徴とする請求項7に記載の画像処理装置。   The image processing apparatus according to claim 7, wherein the effect is an effect of changing at least one parameter among resolution, brightness, saturation, and blur. 請求項1ないし8のいずれか1項に記載の画像処理装置と、ユーザの指示に基づいてデジタルコンテンツデータを受信し、受信した当該デジタルコンテンツデータを前記入力手段に入力する受信手段を備えたこと特徴とする受信装置。   9. The image processing apparatus according to claim 1, further comprising: a receiving unit that receives digital content data based on a user instruction and inputs the received digital content data to the input unit. A receiving device. 請求項9に記載の受信装置と、当該受信装置へデジタルコンテンツデータを送信する送信装置とを備えることを特徴とする放送システム。   A broadcasting system comprising: the receiving device according to claim 9; and a transmitting device that transmits digital content data to the receiving device. 複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法において、
デコードした時点ですぐに出力しない再生画像を先行画像として抽出するステップと、
前記先行画像にエフェクトを付加して付加画像を生成するステップと、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備え、
前記入力するステップに入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴とする画像処理方法。
A step of inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images; a step of decoding the input digital content data into a reproduced image; and a decoding An image processing method comprising: rearranging a plurality of the reproduced images and outputting as a video image,
Extracting a reproduced image that is not output immediately upon decoding as a preceding image;
Adding an effect to the preceding image to generate an additional image;
When the digital content data is input, controlling to output the additional image during a period from when the preceding image is decoded until a plurality of decoded playback images are rearranged and output as video. In addition,
An image processing method, wherein when the digital content data input in the input step is changed, a reproduced image that is decoded first is extracted as the preceding image.
複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するためのステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法であって、
入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出するステップと、
前記先行画像にエフェクトを付加して付加画像を生成するステップと、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備えることを特徴とする画像処理方法。
A step for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and a step of decoding the input digital content data into a reproduced image; An image processing method comprising a step of rearranging a plurality of decoded reproduced images and outputting as a video,
A step of extracting an incomplete reproduced image as a preceding image from image data in which complete video cannot be decoded but part of the complete video can be decoded when the input digital content data is changed When,
Adding an effect to the preceding image to generate an additional image;
When the digital content data is input, controlling to output the additional image during a period from when the preceding image is decoded until a plurality of decoded playback images are rearranged and output as video. An image processing method further comprising:
請求項1から8のいずれか1項に記載の画像処理装置の各手段として、コンピュータを機能させるための画像処理プログラム。   An image processing program for causing a computer to function as each unit of the image processing apparatus according to claim 1. 請求項13に記載の画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the image processing program according to claim 13 is recorded.
JP2006018144A 2006-01-26 2006-01-26 Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium Expired - Fee Related JP4672561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006018144A JP4672561B2 (en) 2006-01-26 2006-01-26 Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006018144A JP4672561B2 (en) 2006-01-26 2006-01-26 Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium

Publications (2)

Publication Number Publication Date
JP2007201831A JP2007201831A (en) 2007-08-09
JP4672561B2 true JP4672561B2 (en) 2011-04-20

Family

ID=38455966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006018144A Expired - Fee Related JP4672561B2 (en) 2006-01-26 2006-01-26 Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP4672561B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5521690B2 (en) * 2010-03-26 2014-06-18 日本電気株式会社 Screen data distribution system, server, screen data distribution method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3469705B2 (en) * 1996-03-12 2003-11-25 三洋電機株式会社 Decoding circuit for multiplexed video signal
JP4337244B2 (en) * 2000-07-25 2009-09-30 ソニー株式会社 MPEG image stream decoding apparatus and decoding method
JP3631123B2 (en) * 2000-10-03 2005-03-23 三洋電機株式会社 Digital broadcast receiver
JP4043406B2 (en) * 2002-06-07 2008-02-06 三洋電機株式会社 Image decoding method and apparatus, and television receiver capable of using them

Also Published As

Publication number Publication date
JP2007201831A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
EP3157242B1 (en) Display system, display method, and display device
US9554132B2 (en) Video compression implementing resolution tradeoffs and optimization
US6493036B1 (en) System and method for scaling real time video
US9516311B2 (en) Chroma information signaling for video streams
JP4564613B2 (en) Image processing apparatus, television receiver, and image processing method
US8731285B1 (en) Systems and methods for identifying a video aspect-ratio frame attribute
US10244215B2 (en) Re-projecting flat projections of pictures of panoramic video for rendering by application
US6996838B2 (en) System and method for media processing with adaptive resource access priority assignment
US8139081B1 (en) Method for conversion between YUV 4:4:4 and YUV 4:2:0
CN109640167B (en) Video processing method, device, electronic device and storage medium
US8665372B2 (en) Method and system for key aware scaling
JP2011175085A (en) Display driving circuit
JP2018191269A (en) Method and apparatus for reconstructing image data from decoded image data
US9161030B1 (en) Graphics overlay system for multiple displays using compressed video
CN102714028B (en) A digital video signal, a method for encoding of a digital video signal and a digital video signal encoder
JPH1079941A (en) Image processing device
US8817881B1 (en) Video processing apparatus and video processing method
US20190172416A1 (en) Image processing apparatus and image processing method
US9053752B1 (en) Architecture for multiple graphics planes
US20250106437A1 (en) Sei message for film grain synthesis
JPWO2009093557A1 (en) Multi-screen display device
JP4672561B2 (en) Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium
JP2002218472A (en) Device and method for decoding variable image rate
US20120051426A1 (en) Code amount reducing apparatus, encoder and decoder
CN1914902A (en) Changing the aspect ratio of images to be displayed on a screen

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees