JP4672561B2 - Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium - Google Patents
Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium Download PDFInfo
- Publication number
- JP4672561B2 JP4672561B2 JP2006018144A JP2006018144A JP4672561B2 JP 4672561 B2 JP4672561 B2 JP 4672561B2 JP 2006018144 A JP2006018144 A JP 2006018144A JP 2006018144 A JP2006018144 A JP 2006018144A JP 4672561 B2 JP4672561 B2 JP 4672561B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- output
- digital content
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、デジタルコンテンツデータの画像を処理して出力する画像処理装置、受信装置、放送システム、画像処理方法、画像処理プログラム、および記録媒体に関する。 The present invention relates to an image processing apparatus, a receiving apparatus, a broadcast system, an image processing method, an image processing program, and a recording medium that process and output an image of digital content data.
従来、デジタル放送では、ビデオデータがMPEG−2(Motion Picture Experts Group-2)で圧縮され、パケット化されて送信する方法が広く用いられている。MPEG−2では、画像データをDCT(Discrete Cosine Transform)変換することで、データを周波数領域に変換して圧縮符号化する。さらに、動き補償された隣接フレームまたはフィールドとの差分を符号化することによって、データは圧縮符号化される。 Conventionally, in digital broadcasting, a method in which video data is compressed by MPEG-2 (Motion Picture Experts Group-2), packetized, and transmitted is widely used. In MPEG-2, image data is subjected to DCT (Discrete Cosine Transform) conversion, thereby converting the data into the frequency domain and compression encoding. Furthermore, the data is compression encoded by encoding the difference from the motion compensated adjacent frame or field.
MPEG−2で用いられる各ピクチャについて、図11を参照して説明する。図11は、デジタルコンテンツをエンコードおよびデコードする際の各画像データの様子を示す概略図である。MPEG−2では、Iピクチャ、Pピクチャ、およびBピクチャの3種類のピクチャが存在する。Iピクチャは、同一のフレームまたはフィールド内で符号化されたピクチャである。 Each picture used in MPEG-2 will be described with reference to FIG. FIG. 11 is a schematic diagram showing the state of each image data when digital content is encoded and decoded. In MPEG-2, there are three types of pictures: I picture, P picture, and B picture. An I picture is a picture encoded in the same frame or field.
Pピクチャは、同一フレームまたはフィールドから順方向予測を行い、差分を符号化したピクチャである。Bピクチャは、過去および未来の2つのフレームから双方向予測を行い、差分を符号化したピクチャである。Bピクチャは、過去のIピクチャまたはPピクチャを予測時の参照画面として用いるだけでなく、未来のIピクチャまたはPピクチャも予測時の参照画面として用いる。そのため、IピクチャおよびPピクチャは先に処理され、IピクチャとPピクチャとの間にあるBピクチャは後で処理される。 A P picture is a picture obtained by performing forward prediction from the same frame or field and encoding a difference. The B picture is a picture obtained by performing bi-directional prediction from two past and future frames and encoding a difference. The B picture not only uses the past I picture or P picture as a reference screen for prediction, but also uses the future I picture or P picture as a reference screen for prediction. Therefore, the I picture and the P picture are processed first, and the B picture between the I picture and the P picture is processed later.
以下では、図11を参照しながら、入力された入力動画シーケンスを符号化するエンコードが行われ、符号化されたデータを復号化するデコードを再び行うことで、再生動画シーケンスを得る処理の手順について説明する。 In the following, referring to FIG. 11, an encoding process for encoding an input video sequence that has been input is performed, and a process for obtaining a playback video sequence by performing decoding again to decode the encoded data is performed. explain.
Iピクチャの前のBピクチャはIピクチャがエンコードされるまではバッファにためて待つ必要がある。図11では、B0およびB1のBピクチャはI2のIピクチャが符号化されるまでバッファに一時保存して出力を待つ必要がある。同様に、B3およびB4のBピクチャは、P5のPピクチャがエンコードされるまでバッファに一時保存して出力するのを待つ必要がある。 The B picture before the I picture needs to wait for the buffer until the I picture is encoded. In FIG. 11, the B pictures of B0 and B1 need to be temporarily stored in a buffer and wait for output until the I picture of I2 is encoded. Similarly, the B picture of B3 and B4 needs to be temporarily stored in the buffer and output until the P picture of P5 is encoded.
以下、同様に、I2、B0、B1、P5、B3、B4・・・という順にエンコードされる。すなわち、エンコーダ側では、Bピクチャを飛ばして次のIピクチャまたはPピクチャを先に処理し、その後、間にあるBピクチャを処理する。 Similarly, encoding is performed in the order of I2, B0, B1, P5, B3, B4. That is, the encoder side skips the B picture and processes the next I picture or P picture first, and then processes the B picture in between.
一方、エンコード処理されたものをデコード処理する場合、図11に示すように、I2、B0、B1、P5、B3、B4・・・の順に符号化データを受け取ると、その順にデコード処理を行う。しかし、元の入力画像順で最初の画像B0が再生可能となるまでは画面提示は待たされるので、ここでは1フレーム分の遅延が生じる。すなわち、デコーダ側ではBピクチャはデコード処理してすぐに表示するが、IピクチャとPピクチャはデコードが完了しても、次のいくつかのBピクチャを処理して、当該処理が完了するまで表示しないため、画面提示が行われるまでの遅延が生じる。 On the other hand, when decoding the encoded data, as shown in FIG. 11, when the encoded data is received in the order of I2, B0, B1, P5, B3, B4..., The decoding processing is performed in that order. However, since the screen presentation is kept waiting until the first image B0 can be reproduced in the original input image order, a delay of one frame occurs here. That is, on the decoder side, the B picture is decoded and displayed immediately, but even if the I picture and P picture are decoded, the next several B pictures are processed and displayed until the process is completed. Therefore, a delay occurs until the screen is presented.
このため、ユーザがデジタル放送を視聴している際に、チャンネルを切り替えた場合、チャンネル切り替え後の映像がすぐに表示されずに、切り替え後の映像が表示装置に表示されるまでは長い時間が必要となる。上記の時間は、映像が表示されるまで待っているという心理的負担をユーザに与えてしまうので、次々とチャンネルを切り替えながらコンテンツを視聴する、いわゆるザッピング視聴には不向きである。 For this reason, when the user switches the channel while watching the digital broadcast, the video after the channel switching is not immediately displayed, and it takes a long time until the video after the switching is displayed on the display device. Necessary. The above time gives the user a psychological burden of waiting until an image is displayed, and is not suitable for so-called zapping viewing, in which content is viewed while switching channels one after another.
そこで、特許文献1には、チャンネル切り替えによる出力待ち時間に、切り替え前のチャンネルと切り替え後のチャンネルとを繋ぐ静止画像を出力するデジタル放送用テレビ受信機が開示されている。
Therefore,
上記のデジタル放送用テレビ受信機では、チャンネル切り替えの際に切り替え後の映像が映し出されるまでに、チャンネル切り替え前の静止画が画面上で徐々に小さくなっていき、その後にチャンネル切り替え後の動画が徐々に大きくなっていく様子が表示される。上記の一連の出力処理で、チャンネル切り替えに生じる時間を埋めることで、チャンネル切り替え時間の長さによるユーザの心理的負担を軽減している。 In the above digital broadcasting television receiver, the still image before switching the channel gradually decreases on the screen until the switched image is displayed when the channel is switched. A state of gradually increasing is displayed. By filling the time required for channel switching with the series of output processes described above, the user's psychological burden due to the length of the channel switching time is reduced.
また、特許文献1のデジタル放送用テレビ受信機では、メモリに保存されているチャンネル切り替え前の複数の画像データを使って複数の画像を作り出し、チャンネル切り替え時にその動画を映し出す。これにより、チャンネル切り替えに生じる時間を埋めることで、チャンネル切り替え時間の長さによるユーザの心理的負担を軽減している。
しかしながら、特許文献1で開示されているデジタル放送用テレビ受信機では、メモリに保存されているチャンネル切り替え前の画像を加工し、徐々に小さくしていく複数の画像を作成して画面に出力するため、ユーザはチャンネル切り替えた後もしばらくの間、チャンネル切り替え前の画像または動画をもとにした画像を見続けなければならないという問題を生じる。そのため、ユーザはチャンネルを切り替える操作を行ったのに、切り替え前の画像を見ていることに対して違和感を感じ、心理的負担を感じることになる。
However, the digital broadcast television receiver disclosed in
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像処理装置、受信装置、放送システム、画像処理方法、画像処理プログラム、および記録媒体を実現することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to output an image with less sense of incongruity between the time the digital content data is output and the time the image is actually output. An image processing apparatus, a receiving apparatus, a broadcasting system, an image processing method, an image processing program, and a recording medium.
本発明の処理装置は、上記課題を解決するために、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、デコードした時点ですぐに出力しない再生画像を先行画像として抽出する抽出手段と、前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備え、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴としている。 In order to solve the above problems, the processing device of the present invention includes an input unit for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images. An image processing apparatus comprising: a playback unit that decodes the digital content data received from the input unit into a playback image; and an output unit that rearranges the plurality of decoded playback images and outputs the video as a video. Extracting means for extracting a reproduced image not output as a preceding image, adding means for adding an effect to the preceding image to generate an additional image, and when the digital content data is input, the preceding image is decoded. A period from when the plurality of reproduced images decoded from the above are rearranged and output as video. Output control means for controlling the output means so as to output an image, and when the digital content data input to the input means is changed, the first decoded playback image is extracted as the preceding image It is characterized by doing.
上記の構成によれば、デジタルコンテンツデータをデコードし、再生画像を並び替えて、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、最初に得られる再生画像に対してエフェクトを付加した付加画像を生成し、最初に出力するべき再生画像のデコード完了までの待ち時間に出力する。 According to the above configuration, the digital content that is input as a result of performing the decoding process on the digital content in the time required for the processing that is performed when the digital content data is decoded, the reproduced images are rearranged, and the video is output. When the data is changed, an additional image obtained by adding an effect to the reproduced image obtained first is generated, and is output at a waiting time until the decoding of the reproduced image to be output first is completed.
これによって、再生画像が出力されるより前に、付加手段からの付加画像が出力されるように制御される。ここで、付加手段は、抽出手段によって抽出される先行画像、すなわち、上記映像での順序が前の再生画像が未だデコードされておらず、遅延して出力される再生画像である先行画像に対して映像効果を付加している。 Thus, control is performed so that the additional image from the adding means is output before the reproduced image is output. Here, the adding means applies to the preceding image extracted by the extracting means, i.e., the preceding image that is a reproduced image that has not been decoded yet and is output in a delayed manner. Video effects.
したがって、付加手段は、先行画像がデコードされた時点より後であれば、本来であれば最初に出力すべき再生画像のデコードを完了可能な時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。よって、映像再生装置は、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記再生手段が映像として最初に出力する画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。 Therefore, the adding means, if it is later than the time point when the preceding image is decoded, is the time when the decoding of the reproduced image to be output first should be completed, and the time point when the preceding image is set after that. It is possible to apply a video effect to the preceding image at an earlier time. Therefore, when the preceding image is arranged at the beginning of the digital content data that is instructed to be output, the video playback device is earlier than the time when the playback means decodes and outputs the first output image as video. Thus, it is possible to output a signal indicating an image obtained by adding a video effect to the preceding image obtained by decoding the image data in the digital content data instructed to be output.
また、付加手段が出力する先行画像は、上記再生手段がデコードした再生画像を並び替えて映像を出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力する画像により類似しているので、ユーザに与える違和感を軽減することができる。 The preceding image output by the adding means is a reproduced image to be output after the time when the reproduced images decoded by the reproducing means are rearranged and the video is output. This is an image obtained by adding a video effect to an image generated by decoding the image data in the inside. Therefore, compared with an image that has been instructed to be output before the output of the digital content data is instructed, in many cases, it is more similar to the image that is output first as a video image. Can be reduced.
さらに、付加手段がエフェクトを付加する先行画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像再生装置を実現できる。 Further, since the preceding image to which the adding means adds an effect has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user hardly notices the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an image with less sense of incongruity between the time when the output of digital content data is instructed and the time when the image is actually output.
本発明の画像処理装置では、前記先行画像は、画面内の画素を全てイントラ符号化するイントラ符号化画像データであることが好ましい。 In the image processing apparatus of the present invention, it is preferable that the preceding image is intra-encoded image data in which all pixels in the screen are intra-encoded.
上記の構成によれば、デコードは最初にデコードされるが出力するまでに時間がある先行画像を用いて、映像として最初に出力するべき画像である再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。なお、具体例をあげると、上記のイントラ符号化された画像データは、例えば、MPEG2において、Iピクチャを用いてもよい。Iピクチャであれば、各GOPの最初にデコードされるフレームの画像データであるので、上記の条件を満たすことができる。 According to the above configuration, decoding is performed at the waiting time until the decoding of the reproduced image, which is the first image to be output, is performed using the preceding image that is first decoded but has time to output. An image can be generated. As a specific example, the intra-coded image data may be an I picture in MPEG2, for example. In the case of an I picture, the image data of the frame decoded at the beginning of each GOP is satisfied, so that the above condition can be satisfied.
本発明の画像処理装置では、前記出力制御手段は、前記入力手段に入力されるデジタルコンテンツデータが変更された場合、前記先行画像を映像として最初に出力すべき再生画像として用い、当該再生画像を出力するまでの期間、前記付加画像を出力するように前記出力手段を制御してもよい。 In the image processing apparatus of the present invention, when the digital content data input to the input unit is changed, the output control unit uses the preceding image as a playback image to be output first as a video, and uses the playback image. The output means may be controlled to output the additional image during a period until output.
上記の構成によれば、従来では、何も画像が出力されない期間、または、過去の画像を用いた画像が出力される期間および最初にデコードされる画像のデータより前に出力される画像が出力される期間において、これから出力する予定の、先行画像に基づいて作成した付加画像を、映像として最初に出力すべき再生画像が出力可能な状態になるまでの間出力することができる。これによって、何も画像が出力されない期間、または、過去の画像を用いた画像が出力される期間に違和感の少ない画像を出力し、さらに、時系列上の過去の画像が未来の画像よりも先に出力する可能性がなくなるので、ユーザの心理的負担をさらに減らすことができる。 According to the above configuration, conventionally, an image that is output before a period in which no image is output, or a period in which an image using a past image is output and data of an image that is first decoded is output. In this period, the additional image that is scheduled to be output and created based on the preceding image can be output until the reproduction image to be output first as a video is ready to be output. As a result, an image with less sense of incongruity is output during a period in which no image is output or an image using a past image is output, and the past image in time series is ahead of the future image. Therefore, the user's psychological burden can be further reduced.
前述の例と比較すると、付加手段が出力する再生画像は、上記再生手段が第2のデコードデータをデコードして出力する時点よりも後で出力すべき再生画像を先に出力することがなくなるため、さらに、ユーザに与える違和感を軽減することができる。 Compared with the above-described example, the reproduced image output by the adding unit does not output the reproduced image to be output later than the time when the reproducing unit decodes and outputs the second decoded data. Furthermore, the uncomfortable feeling given to the user can be reduced.
本発明の処理装置は、上記課題を解決するために、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するための入力手段と、入力手段から受け取った前記デジタルコンテンツデータを再生画像にデコードする再生手段と、デコードした複数の前記再生画像を並び替えて映像として出力する出力手段とを備える画像処理装置において、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する抽出手段と、前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備えることを特徴としている。 In order to solve the above problems, the processing device of the present invention includes an input unit for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images. An image processing apparatus comprising: a playback unit that decodes the digital content data received from the input unit into a playback image; and an output unit that rearranges the plurality of decoded playback images and outputs the video as a video. Extracting means for extracting an incomplete reproduced image as a preceding image from image data in which complete video cannot be decoded but part of the complete video can be decoded when the digital content data is changed Adding means for adding an effect to the preceding image to generate an additional image; and the digital content An output for controlling the output means to output the additional image during a period from when the preceding image is decoded to when the plurality of decoded reproduced images are rearranged and output as video. And a control means.
上記の構成によれば、デジタルコンテンツデータをデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像に対してエフェクトを付加した付加画像を生成し、並べ替えを行った再生画像のデコードが完了するまでの待ち時間に出力する。これによって、上記再生手段からの並べ替えを行った再生画像が出力されるより前に、付加手段からの付加画像が出力されるように制御される。 According to the above configuration, when the digital content data to be input is changed as a result of performing the decoding process on the digital content in the time required for the processing to be performed when decoding the digital content data and outputting the video, Reproduced image that cannot be decoded completely, but generates an additional image with an effect added to the incomplete replayed image from image data that can decode a part of the complete video. Is output during the waiting time until the decoding of is completed. In this way, control is performed so that the additional image from the adding means is output before the reproduced image subjected to the rearrangement from the reproducing means is output.
さらに、付加手段がエフェクトを付加する先行画像には映像効果が付されているので、映像として不完全であったとしてもユーザは、その相違に気付き難いようにすることができる。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、不完全ではあるが違和感の少ない画像を出力可能な画像再生装置を実現できる。 In addition, since the video effect is added to the preceding image to which the adding means adds the effect, even if the video is incomplete, the user can hardly notice the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an incomplete but little uncomfortable image from when the output of the digital content data is instructed until the image is actually output.
具体例をあげれば、入力されるデジタルコンテンツデータの変更等により、デジタルコンテンツデータのひとつのまとまりである映像のグループの途中から入力された、画像の一部しかデコードできないデータからデコードして生成された再生画像である先行画像に対して映像効果を付加している。 To give a specific example, it is generated by decoding from data that can be decoded only part of an image, which is input from the middle of a group of video that is a unit of digital content data due to changes in the input digital content data. A video effect is added to the preceding image that is the reproduced image.
本発明の画像処理装置では、前記先行画像は、画面内の画素にイントラ符号化されたデータを含むフレーム間順方向予測画像データであることが好ましい。 In the image processing device according to the aspect of the invention, it is preferable that the preceding image is inter-frame forward prediction image data including data intra-coded in pixels in the screen.
上記の構成によれば、デコードを完全に行うことは出来ないが、一部をデコードすることができる画像データから不完全なデコードを行った映像を先行画像に用いて、完全な再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。具体例をあげると、上記のイントラ符号化されたデータを含む画像データは、例えば、MPEG2において、Pピクチャを用いてもよい。 According to the above configuration, although decoding cannot be performed completely, a video that has been subjected to incomplete decoding from image data that can be partially decoded is used as a preceding image, and a complete reproduced image is decoded. An image to be output during the waiting time until completion can be generated. As a specific example, image data including the intra-encoded data may use a P picture in MPEG2, for example.
本発明の画像処理装置では、前記先行画像は、画面内の画素にイントラ符号化されたデータを含む双方向予測符号化画像データであることが好ましい。 In the image processing apparatus according to the aspect of the invention, it is preferable that the preceding image is bi-directional predictive encoded image data including data that is intra-encoded into pixels in the screen.
上記の構成によれば、デコードを完全に行うことは出来ないが、一部をデコードすることができる画像データからデコードした不完全な映像を先行画像に用いて、完全な再生画像のデコード完了までの待ち時間に出力する画像を生成することができる。具体例をあげると、上記のイントラ符号化されたデータを含む画像データは、例えば、MPEG2において、Bピクチャを用いてもよい。 According to the above configuration, the decoding cannot be performed completely, but the incomplete video decoded from the image data that can be partially decoded is used as the preceding image until the decoding of the complete reproduced image is completed. An image to be output during the waiting time can be generated. As a specific example, the picture data including the intra-coded data may use a B picture in MPEG2, for example.
本発明の画像処理装置では、前記付加手段は、前記先行画像のパラメータを変更するエフェクトを付加することで、1つ以上の付加画像を生成し、前記出力制御手段は、前記先行画像との近似度が高くなって行く順序で前記付加画像を出力するように制御することが好ましい。 In the image processing apparatus according to the aspect of the invention, the adding unit generates one or more additional images by adding an effect of changing a parameter of the preceding image, and the output control unit approximates the preceding image. It is preferable to perform control so that the additional images are output in the order of increasing degrees.
上記の構成によれば、付加手段は、最初にデコードされる再生画像を用いて、段階的にエフェクトの強度がことなる複数の画像を作成し、段階的に元の再生画像に近づいてゆく動画を生成することができる。これによって、徐々に元の再生画像近づいて行く連続する画像を用いて画面をなだらかに連続させることができるので、さらに、ユーザに与える違和感を軽減することができる。 According to the above configuration, the adding means creates a plurality of images having step-by-step effects using the first decoded image and gradually approaches the original reproduced image. Can be generated. Thus, since the screen can be made to continue smoothly using successive images that gradually approach the original reproduced image, it is possible to further reduce the sense of discomfort given to the user.
なお、上記の近似度は、エフェクトを付加する前の先行画像と、エフェクトを付加した後の付加画像とを、予め定められた画像の特性を示すパラメータの観点から比較した結果、両画像がどの程度近似しているかを示すためのものであって、両画像の特性を示すパラメータ同士がより近い値である程、近似度は高くなるものとする。 Note that the degree of approximation described above is based on the comparison between the preceding image before the effect is added and the additional image after the effect is added from the viewpoint of the parameters indicating the characteristics of the predetermined image. The degree of approximation is higher as the parameters indicating the characteristics of both images are closer to each other.
具体例をあげると、上記画像の特性を示すパラメータが解像度の場合、解像度に差があれば有るほど近似度は低くなり、解像度が同じ場合に近似度は最大になる。また、上記画像の特性を示すパラメータが明度であれば、明度をより多量に変化させるエフェクトを付せば付す程、近似度が低下し、明度が同じであれば、近似度が最大になるものとする。 As a specific example, when the parameter indicating the characteristics of the image is resolution, the closer the resolution is, the lower the degree of approximation is. When the resolution is the same, the degree of approximation is maximum. If the parameter indicating the characteristics of the image is lightness, the degree of approximation decreases with the addition of an effect that changes the lightness in a larger amount. If the lightness is the same, the degree of approximation becomes maximum. And
本発明の画像処理装置では、前記エフェクトは、解像度、明度、彩度、およびぼかし度のうち少なくても1つのパラメータを変更するエフェクトであってもよい。 In the image processing apparatus of the present invention, the effect may be an effect that changes at least one parameter among resolution, brightness, saturation, and blur.
なお、前記エフェクトは上記の例に限定されない。徐々に元の画像に近づいてゆく複数の画像を構成できるエフェクトであれば、どのようなものであってもよい。 The effect is not limited to the above example. Any effect may be used as long as it can form a plurality of images that gradually approach the original image.
本発明の受信装置は、上記の画像処理装置と、ユーザの指示に基づいてデジタルコンテンツデータを受信し、受信した当該デジタルコンテンツデータを前記入力手段に入力する受信手段を備えたこと特徴としている。 A receiving apparatus according to the present invention includes the above-described image processing apparatus and receiving means for receiving digital content data based on a user instruction and inputting the received digital content data to the input means.
さらに、上記の受信装置と、当該受信装置へデジタルコンテンツデータを送信する送信装置とを備えることによって放送システムを構成することができる。 Furthermore, a broadcasting system can be configured by including the above-described receiving device and a transmitting device that transmits digital content data to the receiving device.
上記の構成を用いれば、上記と略同様の効果を奏する受信装置および放送システムを実現することができる。 If the above configuration is used, it is possible to realize a receiving apparatus and a broadcasting system that have substantially the same effects as described above.
本発明の画像処理方法は、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法において、デコードした時点ですぐに出力しない再生画像を先行画像として抽出するステップと、前記先行画像にエフェクトを付加して付加画像を生成するステップと、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備え、前記入力するステップに入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴としている。 An image processing method according to the present invention includes a step of inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and reproducing the inputted digital content data In an image processing method comprising a step of decoding into an image and a step of rearranging the plurality of decoded reproduced images and outputting as a video, a step of extracting a reproduced image that is not output immediately when decoded as a preceding image; A step of generating an additional image by adding an effect to the preceding image; and when the digital content data is input, the decoded images are rearranged after the preceding image is decoded and output as a video. Controlling to output the additional image during a period until Further comprising the input to the step of the input if the digital content data has been changed, it is characterized by extracting the first decoded reproduction image as the preceding image.
上記の構成によれば、デジタルコンテンツデータをデコードし、再生画像を並び替えて、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、最初に得られる再生画像に対してエフェクトを付加した付加画像を生成し、映像として最初に出力するべき再生画像のデコード完了までの待ち時間に出力する。 According to the above configuration, the first reproduction image obtained as a result of decoding the digital content during the time required for decoding the digital content data, rearranging the reproduction images, and outputting the video. An additional image to which an effect is added is generated, and is output in a waiting time until the decoding of the reproduced image to be output first as a video is completed.
これによって、再生画像が出力されるより前に、付加画像が出力されるように制御される。ここで、抽出するステップに抽出され、一時的に記憶される先行画像、すなわち、上記映像での順序が前の映像として最初に出力すべき再生画像が未だデコードされておらず、遅延して出力される再生画像である先行画像に対して映像効果を付加している。 Thus, the additional image is controlled to be output before the reproduced image is output. Here, the preceding image extracted and temporarily stored in the extracting step, that is, the reproduced image to be output first as the previous image in the order in the above video has not been decoded yet and is output with delay. A video effect is added to the preceding image that is the reproduced image to be reproduced.
したがって、付加画像を生成するステップでは、先行画像がデコードされた時点より後であれば、映像として最初に出力すべき再生画像がデコードされる時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。よって、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記デコードするステップで映像として最初に出力すべき再生画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。 Therefore, in the step of generating the additional image, if it is after the time point when the preceding image is decoded, the time point when the reproduction image to be output first as a video is decoded, and the time point when the preceding image is set thereafter It is possible to apply a video effect to the preceding image at an earlier time. Therefore, when the preceding image is arranged at the beginning of the digital content data instructed to be output, at a time earlier than the time when the reproduced image to be output first as a video is decoded and output in the decoding step, A signal indicating an image obtained by adding a video effect to a preceding image obtained by decoding the image data in the digital content data instructed to be output can be output.
また、付加画像を生成するステップで出力する先行画像は、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力すべき再生画像により類似しているので、ユーザに与える違和感を軽減することができる。 Further, the preceding image output in the step of generating the additional image is a reproduced image to be output after the time when the reproducing means decodes and outputs the first reproduced image to be output as the video. Is an image obtained by adding a video effect to an image generated by decoding image data in the digital content data instructed. Therefore, compared with an image that has been instructed to be output before the output of the digital content data is instructed, in many cases it is more similar to a reproduced image that should be output first as a video. The feeling of incongruity given can be reduced.
さらに、付加画像を生成するステップでエフェクトを付加する先行画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、違和感の少ない画像を出力可能な画像処理方法を実現できる。 Further, since the preceding image to which the effect is added in the step of generating the additional image has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user notices the difference. hard. As a result, it is possible to realize an image processing method capable of outputting an image with less sense of incongruity between the time when the output of digital content data is instructed and the time when the image is actually output.
本発明の画像処理方法は、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツデータを入力するためのステップと、入力された前記デジタルコンテンツデータを再生画像にデコードするステップと、デコードした複数の前記再生画像を並び替えて映像として出力するステップとを備える画像処理方法であって、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出するステップと、前記先行画像にエフェクトを付加して付加画像を生成するステップと、前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備えることを特徴としている。 The image processing method of the present invention includes a step for inputting digital content data composed of a plurality of image data, which is created by encoding a video composed of a plurality of images, and the input digital content data An image processing method comprising: a step of decoding a reproduced image; and a step of rearranging the plurality of decoded reproduced images and outputting the image as a video, wherein when the input digital content data is changed, Extracting an incomplete reproduced image as a preceding image from image data that cannot be decoded but can decode a part of a complete image, and adding an effect to the preceding image to generate an additional image And when the digital content data is input, the preceding image is decoded. It is characterized period until the output rearranges a plurality of the reproduced image obtained by decoding the video, further comprising the step of controlling to output the additional image from.
上記の構成によれば、デジタルコンテンツデータをデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出し、先行画像に対してエフェクトを付加した付加画像を生成し、再生画像を並び替えて映像として出力するまでの期間、出力する。 According to the above configuration, when the digital content data to be input is changed as a result of performing the decoding process on the digital content in the time required for the processing to be performed when decoding the digital content data and outputting the video, Incomplete playback image is extracted as a preceding image from image data that cannot decode a complete video but can decode a part of a complete video, and an additional image with an effect added to the previous image is generated. Then, it is output during the period until the playback images are rearranged and output as video.
これによって、並び替えられた映像が出力されるより前に、付加画像が出力されるように制御される。ここで、映像効果は抽出される先行画像、すなわち、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データからデコードした不完全な再生画像に対して付加している。 Accordingly, the additional image is controlled to be output before the rearranged video is output. Here, the video effect is added to the preceding image to be extracted, that is, the incomplete reproduced image decoded from the image data which cannot decode the complete video but can decode a part of the complete video. is doing.
よって、上記再生するステップで映像として出力する画像をデコードし、並び替えて出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードした先行画像に映像効果を付加した画像を示す信号を出力できる。 Therefore, the video effect is applied to the preceding image obtained by decoding the image data in the digital content data instructed to be output at a time earlier than the time when the image output as the video is decoded and rearranged and output in the step of reproducing. A signal indicating the added image can be output.
さらに、エフェクトを付加するステップにおいて、先行画像には映像効果が付されているので、先行画像が映像として不完全であったとしても、ユーザはその相違に気付き難いようにすることができる。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が出力されるまでの間に、不完全ではあるが違和感の少ない画像を出力可能な画像再生方法を実現できる。 Furthermore, in the step of adding an effect, since the video effect is added to the preceding image, even if the preceding image is incomplete as a video, the user can hardly notice the difference. As a result, it is possible to realize an image reproduction method capable of outputting an incomplete but less uncomfortable image from the time when the output of digital content data is instructed until the image is actually output.
なお、上記画像処理装置における各手段を、プログラムによりコンピュータ上で実行させることができる。さらに、上記画像処理プログラムをコンピュータ読み取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記プログラムを実行させることができる。 Each unit in the image processing apparatus can be executed on a computer by a program. Furthermore, by storing the image processing program in a computer-readable recording medium, the program can be executed on any computer.
本発明の処理装置は、デジタルコンテンツデータを出力する際に行う処理に要する時間に、デジタルコンテンツに対するデコード処理を行った結果、最初に得られる画像データに対して、画像データを出力する際のエフェクトを付加した画像を生成し、エフェクトが付加された画像データを時系列に沿った画像データのデコード完了までの待ち時間に出力する。 The processing apparatus according to the present invention provides an effect of outputting image data with respect to image data obtained first as a result of performing decoding processing on digital content during the time required for processing performed when outputting digital content data. Is generated, and the image data to which the effect is added is output in a waiting time until the decoding of the image data along the time series is completed.
これによって、デコード終了後に出力する画像になだらかに繋がる、違和感の少ない画像を生成して出力するので、チャンネル切り替えなどの際に生じるデジタルコンテンツデータのデコードなどの処理に要する時間にユーザが感じる心理的負担を軽減することができる処理装置を実現することができる。 As a result, an image with a little sense of incongruity that is smoothly connected to the image to be output after the decoding is completed is generated and output. A processing apparatus that can reduce the burden can be realized.
すなわち、ユーザはチャンネル切り替え後の映像を鑑賞するまでの間、エフェクトが付加された画像データを鑑賞することができるので、チャンネル切り替え時間の長さにより生じるユーザの心理的負担を軽減することができる処理装置を実現することができる。 That is, since the user can view the image data with the effect added until the user views the video after the channel switching, the user's psychological burden caused by the length of the channel switching time can be reduced. A processing device can be realized.
〔実施形態1〕
本発明の一実施形態について図1〜図10に基づいて説明すると以下の通りである。以下、図面を参照しつつ本発明の一実施の形態について説明する。なお、以下の説明に用いる図面では、同一の部品に同一の符号を付してある。それらの名称および機能も同一である。従って、それらについての詳細な説明は繰り返さない。
One embodiment of the present invention is described below with reference to FIGS. Hereinafter, an embodiment of the present invention will be described with reference to the drawings. In the drawings used for the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
図1は、本実施形態に係る放送システム1の要部構成を示す概略図である。図2は、当該放送システム1の受信装置10に設けられた画像処理装置20の要部構成を示すブロック図である。図3は、上記画像処理装置20に設けられた効果付加処理部(付加手段)30の要部構成を示すブロック図であって、当該効果付加処理部30は、デコードした画像に対して効果(エフェクト)を付加できる。以下、各機能ブロックについて、詳細を説明する。
FIG. 1 is a schematic diagram showing a main configuration of a
図1に示すように、本実施形態に係る放送システム1は、ユーザ48の操作に応じたデジタルコンテンツをユーザに提供するものであって、受信装置10、デジタルコンテンツ提供サーバ(送信装置)42、外部機器44、表示装置46を備えている。
As shown in FIG. 1, the
上記受信装置10は、ユーザ48からの操作指示に従ってデジタルコンテンツ提供サーバ42からデジタルコンテンツ50を受信し、外部機器44および表示装置46に画像処理を行った映像を出力するものであって、当該受信装置10は、コンテンツ受信部(受信手段)12、チャンネル切り替え部14、コンテンツ表示処理部(出力手段)16、および画像処理装置20を備えている。
The receiving
上記コンテンツ受信部12は、チャンネル切り替え部14からの指示に従ってデジタルコンテンツ50を受信し、画像処理装置20に送信できる。一方、チャンネル切り替え部14は、ユーザからの操作を入力するためのインタフェースを含んでおり、ユーザ48によるチャンネル切り替え指示を受け付け、受信すべきデジタルコンテンツ50をコンテンツ受信部12へ指定できる。上記インタフェースとしては、例えば、リモートコントローラ(以下、リモコン)からの信号を受信する回路などが挙げられる。この場合、ユーザ48がリモコンを操作して現在鑑賞しているコンテンツのチャンネルを切り替えると、ユーザ48が行ったチャンネル切り替えの指示を示す信号がリモコンからチャンネル切り替え部14に入力され、チャンネル切り替え指示がコンテンツ受信部12に送られる。
The
上記画像処理装置20は、上記コンテンツ受信部12がチャンネル切り替え部14からの指示に基づいて受信したデジタルコンテンツ50をデコードし、デコードにより得られた画像データを外部機器44に出力したり、コンテンツ表示処理部16を介して表示装置46に出力したりできる。また、画像処理装置20は、デコードにより得られた画像データを出力するだけではなく、デコードにより得られた画像データに映像効果を付加した画像データも、外部機器44に出力したり、コンテンツ表示処理部16を介して表示装置46に出力したりできる。なお、コンテンツ表示処理部16は、画像処理装置20から出力された画像データを表示装置46へ出力するための処理(表示装置46に合った信号への変換など)を行っている。
The
上記外部機器44は、例えば、ハードディスクレコーダやビデオ録画装置などの記録装置であり、図示しない表示装置を備えていてもよい。一方、表示装置46は、例えば、ディスプレイ装置などである。当該外部機器44および表示装置46は、受信装置10に含まれていてもよいし、それぞれが別体に設けられていてもよい。また、両者の一方のみが受信装置10に含まれていてもよい。なお、図1では、放送システム1に外部機器44および表示装置46の双方が含まれている場合を例示しているが、一方のみが含まれていてもよい。
The
また、デジタルコンテンツ50は、例えば、デジタル放送などで配信されているようなMPEG2などの動画像データをさす。デジタルコンテンツ50はネットワークを通じてストリーミングで配信されていてもよいし、各放送局から配信されチャンネル切り替えによって受信を行うものでもよい。以下では、デジタルコンテンツ提供サーバ42からデジタルコンテンツ50が配信される場合を例に説明する。
The digital content 50 refers to moving image data such as MPEG2 distributed by digital broadcasting, for example. The digital content 50 may be distributed by streaming through a network, or may be distributed from each broadcasting station and received by channel switching. Hereinafter, a case where the digital content 50 is distributed from the digital
なお、放送システム1は、外部のデジタルコンテンツ提供サーバ42から配信される形態に限らず、ホームサーバなどの記録装置に蓄積されたデジタルコンテンツ50を各部屋に設置されたディスプレイ、再生装置、PC、携帯電話機などに配信するものであってもよい。デジタルコンテンツ提供サーバ42は、再生装置の内部の記録装置または外部から挿入された記録媒体からデジタルコンテンツを読み出すものであってもよい。画像処理装置20に入力されるデジタルコンテンツ50が、画像データをデコードして画像を出力する順序と、エンコードされた画像データが入力される順序とが異なる画像データを含むデジタルコンテンツデータであればよい。
The
次に、画像処理装置20の各処理部について、図2を参照して説明する。図2に示すように、画像処理装置20は、入力部(入力手段)22、コンテンツ蓄積部24、デコード処理部(再生手段)26、画像データ保管部28、効果付加処理部(付加手段)30、および画像データ出力処理部(出力制御手段)40を備えている。なお、図2では、説明の便宜上、画像データ出力処理部40から外部機器44への信号経路のみを図示しているが、画像データ出力処理部40の出力信号は、コンテンツ表示処理部16を介し、図1に示す表示装置46にも出力されている。
Next, each processing unit of the
入力部22は、情報を入力するためのインタフェースである。入力部22は、外部から入力されたデジタルコンテンツ50を、コンテンツ蓄積部24に出力する。コンテンツ蓄積部24は、入力部22を介して入力されたデジタルコンテンツ50を蓄積する。コンテンツ蓄積部24は、ハードディスクなどの記録媒体でもよいし、フラッシュROMなどの半導体メモリでもよい。コンテンツ蓄積部24は、デジタルコンテンツ50を記録し蓄積できれば、どのような記録媒体であってもよい。
The
デコード処理部26は、入力部22を介して入力され、コンテンツ蓄積部24に蓄積されているデジタルコンテンツを画像データにデコードする。デコード処理部26は、デコードした画像データを画像データ保管部28に出力する。画像データ保管部28は、デコード処理部26におけるデコード処理により得られた画像データを保管する。デコード処理部26に保管された画像データは、効果付加処理部30および画像データ出力処理部40によって、任意のタイミングで参照される。
The
効果付加処理部30は、画像データ保管部28にて保管された画像データを外部機器44に出力する際の効果を付加する処理を行う。効果付加処理部30で行う処理について、詳細は後述する。画像データ出力処理部40は、画像データ保管部28にて保管されている画像データを外部機器44に出力する。また、画像データ出力処理部40は効果付加処理部30にて効果が付加された画像データを外部機器44および表示装置46に出力できる。したがって、画像データ出力処理部40が効果付加処理部30にて効果が付加された画像データを出力した場合、ユーザ48は、表示装置46、および、外部機器44に表示装置が設けられているときは当該表示装置において、効果が付加された画像データを鑑賞できる。
The effect
次に、効果付加処理部30の機能的構成について、図3を参照して説明する。図3に示すように、効果付加処理部30は、解像度調整処理部31、明度調整処理部33、彩度調整処理部35、ぼかし度調整処理部37、画像データ処理部32・34・36・38、および画像データ結合処理部39を備えている。なお、効果付加処理部30は、必ずしもこれら全てを備えている必要はないし、ここに記載されている以外の機能を備えていても構わない。効果付加処理部30は、入力された画像データ60に対して、出力する際の効果を付加することができる機能が備わっていればどのような機能を持っていてもよい。
Next, the functional configuration of the effect
解像度調整処理部31は、入力された画像データ60に対して解像度を調整する処理を行い、画像データ処理部32は、解像度を調整した画像データを作成する。ここで、解像度を調整する方法としては、例えば入力された画像データを間引くことで解像度を落とす方法などが挙げられるが、必ずしもこれに限定されない。
The resolution
なお、解像度調整処理部31および画像データ処理部32は、それぞれ解像度の異なる1または複数の画像データを作成できる。また、解像度調整処理部31および画像データ処理部32は、入力された画像データ60よりも解像度の低い画像データを作成できる。
The resolution
明度調整処理部33は、入力された画像データ60に対して明度を調整する処理を行い、画像データ処理部34は明度を調整した画像データを作成する。ここで、明度を調整する方法としては、RGBの階調を調整して明度を調整する方法、または、ガンマ補正をかけて明度を調整する方法などが挙げられるが、必ずしもこれらに限定されない。
The brightness
なお、明度調整処理部33および画像データ処理部34は、それぞれ明度の異なる1または複数の画像データを作成できる。また、明度調整処理部33および画像データ処理部34は、入力された画像データ60の明度よりも明度の低い画像データを作成するものであっても構わないし、入力された画像データ60の明度よりも明度の高い画像データを作成するものであっても構わない。
The brightness
彩度調整処理部35は、入力された画像データ60に対して彩度を調整する処理を行い、画像データ処理部36は、彩度を調整した画像データを作成する。ここで、彩度を調整する方法としては、RGBの階調を調整して彩度を調整する方法などが挙げられるが、必ずしもこれに限定されない。
The saturation
なお、彩度調整処理部35および画像データ処理部36は、それぞれ彩度の異なる1または複数の画像データを作成できる。また、彩度調整処理部35および画像データ処理部36は、入力された画像データ60の彩度よりも彩度の低い画像データを作成するものであっても構わないし、入力された画像データ60の彩度よりも彩度の高い画像データを作成するものであっても構わない。
Note that the saturation
ぼかし度調整処理部37は、入力された画像データ60に対してぼかし度を調整する処理を行い、画像データ処理部38は、ぼかし度を調整した画像データを作成する。ここで、ぼかし度を調整する方法としては、フィルタ処理を行う方法があるが、必ずしもこれに限定されない。
The blur
なお、ぼかし度調整処理部37および画像データ処理部38は、それぞれぼかし具合の異なる1または複数の画像データを作成できる。
Note that the blur
画像データ処理部32、34、36および38において、複数の画像データが作成された場合、画像データ結合処理部39は、それぞれの複数データの画像を結合して一つの動画像データを作成できる。
When a plurality of pieces of image data are created in the image
例えば、解像度調整処理部31および画像データ処理部32が解像度の異なる複数の画像データを作成した場合、画像データ結合処理部39は、解像度の低い画像データから解像度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、解像度の低い画像から徐々に解像度の高い画像が出力されているように見える。すなわち、ユーザ48は、画像の解像度が、低い解像度から、徐々に入力された画像データの解像度に近づいていくように感じる。
For example, when the resolution
同様に、明度調整処理部33および画像データ処理部34が入力された画像データ60の明度よりも明度の低い複数の画像データを作成した場合、画像データ結合処理部39は、明度の低い画像データから明度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、明度の低い画像から徐々に明度が高い画像が出力されているように見える。すなわち、ユーザ48は、画像の明度が、低い明度からから徐々に入力された画像データの明度に近づいていくように感じる。
Similarly, when the brightness
逆に、明度調整処理部33および画像データ処理部34が入力された画像データ60の明度よりも明度の高い複数の画像データを作成した場合、画像データ結合処理部39は明度の高い画像データから明度の低い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、明度の高い画像から徐々に明度が低い画像が出力されているように見える。すなわち、ユーザ48は、画像の明度が、高い明度から徐々に入力された画像データの明度に近づいていくように感じる。
Conversely, when the brightness
また、彩度調整処理部35および画像データ処理部36が入力された画像データ60の彩度よりも彩度の低い複数の画像データを作成した場合、画像データ結合処理部39は、彩度の低い画像データから彩度の高い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、彩度の低い画像から徐々に彩度が高い画像が出力されているように見える。すなわち、ユーザ48は、画像の彩度が、低い彩度から徐々に入力された画像データの彩度に近づいていくように感じる。
In addition, when the saturation
逆に、彩度調整処理部35および画像データ処理部36が入力された画像データ60の彩度よりも彩度の高い複数の画像データを作成した場合、画像データ結合処理部39は、彩度の高い画像データから彩度の低い画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、彩度の高い画像から徐々に彩度が低い画像が出力されているように見える。すなわち、ユーザ48は、画像の彩度が、高い彩度から徐々に入力された画像データの彩度に近づいていくように感じる。
Conversely, when the saturation
さらに、ぼかし度調整処理部37および画像データ処理部38がぼかし度の異なる複数の画像データを作成した場合、画像データ結合処理部39は、ぼかし度の大きい画像データからぼかし度の小さい画像データへの順になるように、複数の当該画像データを結合して一つの動画像データを作成する。これにより、ユーザ48が画像データ結合処理部39にて作成された一つの動画像データを例えば表示装置46で鑑賞すると、ぼかし度の大きい画像データから徐々にぼかし度が小さい画像データが出力されているように見える。すなわち、ユーザ48はぼかし度の大きい画像データから徐々に入力された画像データに近づいていくように感じる。
Further, when the blur
次に、映像効果を付加した画像を出力するタイミングについて、図4を参照して説明する。図4は、各実施形態におけるデジタルコンテンツ50をエンコードおよびデコードする際の各画像データの様子を示す概略図である。図4では、上から順に、時間、受信画像、復号画像、実施形態1の画面出力を、時系列にそって左から右に示している。また、時間は、左から右に順に、時刻T1〜T26までの各時刻を示している。なお、図4では、実施形態2の画面出力も併記しているが、これについては、実施形態2において説明する。 Next, the timing for outputting an image with an added video effect will be described with reference to FIG. FIG. 4 is a schematic diagram showing the state of each image data when encoding and decoding the digital content 50 in each embodiment. In FIG. 4, the time, the received image, the decoded image, and the screen output of the first embodiment are shown from left to right along the time series in order from the top. The time indicates each time from time T1 to time T26 in order from left to right. In FIG. 4, the screen output of the second embodiment is also shown. This will be described in the second embodiment.
上述したように、本実施形態に係るデジタルコンテンツ50は、映像を構成する各画像をそれぞれエンコードした画像データから構成されている。各画像データは、Iピクチャ、PピクチャまたはBピクチャのいずれかである。画像データがIピクチャである場合、デコード処理部26は、当該画像データのみから、その画像データをデコードしたデータを生成できる。一方、画像データがPまたはBピクチャである場合、デコード処理部26は、その画像データをエンコードする際に参照した他の画像データを参照して、その画像データをデコードする。
As described above, the digital content 50 according to the present embodiment is composed of image data obtained by encoding each image constituting a video. Each image data is either an I picture, a P picture, or a B picture. When the image data is an I picture, the
ここで、仮に、デジタルコンテンツ50における各画像データが、それぞれに対応する画像の上記映像での時系列順に並べられており、これらの各画像データを含むデジタルコンテンツ50が送信されたとすると、PまたはBピクチャの画像データを受信した時点では、その画像データをデコードする際に必要な他の画像データが受信されていない場合がある。この場合、受信した画像データをデコード処理部26がデコードできないため、デコード処理部26がいずれの画像データをも処理できない期間が生じる虞がある。
Here, if each image data in the digital content 50 is arranged in time series in the video of the corresponding image, and the digital content 50 including each image data is transmitted, P or When the image data of the B picture is received, other image data necessary for decoding the image data may not be received. In this case, since the
これに対して、本施形態に係るデジタルコンテンツ50では、PまたはBピクチャの画像データは、その画像データをデコードする際に必要な他の画像データよりも後になるように並べられており、受信装置10は、受信したデジタルコンテンツに含まれる各画像データをデコードした後、デコードされた画像データの順序を並べ替え、当該各画像データを、それぞれに対応する画像の、上記映像における時系列順に出力している。これにより、デコード処理部26を効率良く動作させている。
On the other hand, in the digital content 50 according to the present embodiment, the image data of the P or B picture is arranged so as to be behind the other image data necessary for decoding the image data. The
一例として、図4の例では、デジタルコンテンツ50において、各画像データが、I2、B0、B1、P5、B3…の順で並べられている。なお、各画像データには、Iピクチャ、PピクチャまたはBピクチャのいずれであるかを示す英文字(I、PまたはB)に、映像における時系列順を示す数値を連結した参照符号が付されている。また、以下では、説明の便宜上、画像データに対応する画像も、当該画像データと同じ参照符号を付して参照する。なお、本実施形態に係るデジタルコンテンツ50は、複数のGOP(Group of Pictures)から構成されているが、図4では、1つのGOPのみを例示している。図4の例では、当該GOPがB0〜P11の12フレームから構成されている。 As an example, in the example of FIG. 4, in the digital content 50, each image data is arranged in the order of I2, B0, B1, P5, B3. Note that each image data is provided with a reference code obtained by concatenating an English character (I, P, or B) indicating whether it is an I picture, a P picture, or a B picture with a numerical value indicating a time-series order in the video. ing. In the following, for convenience of explanation, an image corresponding to image data is also referred to with the same reference numeral as that of the image data. The digital content 50 according to the present embodiment is composed of a plurality of GOPs (Group of Pictures), but FIG. 4 illustrates only one GOP. In the example of FIG. 4, the GOP is composed of 12 frames B0 to P11.
ここで、映像効果が付された画像の出力タイミングについて説明する前に、特に映像効果を付さない画像の出力タイミングと、その画像を示す画像データの処理とについて説明する。 Before describing the output timing of an image with a video effect, the output timing of an image without a video effect and the processing of image data indicating the image will be described.
時刻T1〜T2において、受信装置10は、画像データI2を受信しデコードする。画像データI2は、イントラ符号化された画像データであり、画像データI2のみを用いて画面全体をデコードすることが可能なデータである。しかしながら、画面I2の出力タイミングは、画面B0・B1の出力の後である。したがって、受信装置10(より詳細には、受信装置10のデコード処理部26)は、当該デコードした画像データI2を、一時記憶用のメモリとしての画像データ保管部28に保存する。
At times T1 to T2, the receiving
また、時刻T3〜T4において、受信装置10は、画像データB0を受信し、デコード処理部26は、画像データI2のデコード結果および画像データB0に基づいて、画像データB0をデコードする。さらに、受信装置10は、当該デコードされた画像データB0を表示装置46などの表示装置(以下では、単に表示装置と称する)に出力し、表示装置は、画像データB0の示す画像B0を出力する。
Further, at time T3 to T4, the receiving
ここで、画像B0は、デジタルコンテンツ50の最初の画像であり、例えば、チャンネル切り替えなど、デジタルコンテンツ50の出力指示を受けた場合、即座に出力することが望まれる。ただし、上述したように、画像データB0は、画像データI2のデコード結果および画像データB0に基づいてデコードされるデータであって、デジタルコンテンツ50では、画像データI2の次に並べられている。したがって、受信装置10は、デジタルコンテンツ50の出力指示を受けた場合、画像B0を即座に出力することができず、少なくとも時刻T1〜T2における1フレーム分の遅延の後に、表示装置に出力する。
Here, the image B0 is the first image of the digital content 50. For example, when receiving an output instruction of the digital content 50 such as channel switching, it is desired to output the image B0 immediately. However, as described above, the image data B0 is data decoded based on the decoding result of the image data I2 and the image data B0, and is arranged next to the image data I2 in the digital content 50. Therefore, when receiving an instruction to output the digital content 50, the receiving
同様に、時刻T5〜T6において、受信装置10は、画像データB1を受信し、デコード処理部26は、画像データI2および画像データB1のデータに基づいて、画面データB1をデコードする。それにより、画面データB1の示す画面B1が表示装置から出力される。
Similarly, at time T5 to T6, the receiving
一方、画像データ保管部28に保存しておいた画面データI2の出力タイミング、すなわち、時刻T7〜T8になると、デコード処理部26は、画像データ保管部28に保存しておいた画面データI2を、表示装置に出力する。また、時刻T7〜T8では、受信装置10は、画像データP5を受信し、デコードする。ただし、画面P5の出力タイミングは、画面B3・B4の後であるため、デコード処理部26は、画像データP5をデコードした後、画像データ保管部28に保存する。
On the other hand, at the output timing of the screen data I2 stored in the image
時刻T9〜T10において、受信装置10は、画像データB3を受信し、デコード処理部26は、画像データP5のデコード結果および画像データB3に基づいて、画像データB3をデコードする。その後、画像データB3の示す画面B3が表示装置に出力される。時刻T11〜T12において、受信装置10は、画像データB4を受信し、デコード処理部26は、画像データP5のデコード結果および画像データB4に基づいて、画面データB4をデコードする。その後、画像データB4の示す画面B4が表示装置に出力される。
At times T9 to T10, the receiving
また、上記画面データP5の出力タイミング、すなわち、時刻T13〜T14になると、デコード処理部26は、画像データ保管部28に保存しておいた画面データP5を表示装置に出力する。また、時刻T13〜T14において、受信装置10は、画像データP8を受信しデコードする。ただし、画面P8の出力タイミングは、画面B6・B7の後であるため、デコード処理部26は、画像データP8をデコードした後、画像データ保管部28に保存する。
At the output timing of the screen data P5, that is, times T13 to T14, the
同様に、時刻T15〜T16において、画像データB6は受信装置10に受信され、画像データP8および画像データB6のデータに基づいて、デコード処理部26は画面B6のデコードを行う。その後、画面B6が表示装置に出力される。時刻T17〜T18において、画像データB7は受信装置10に受信され、画像データP8および画像データB6のデータに基づいて、デコード処理部26は画面B7のデコードを行う。その後、画面B7が表示装置に出力される。
Similarly, at time T15 to T16, the image data B6 is received by the receiving
時刻T19〜T20において、画面P8が表示装置に出力される。そして、画像データP11が受信装置10に受信されるが、画面P11の出力タイミングは画面B9・B10の後であるため、画像データP11はデコードされた後、画像データ保管部28に保存される。
From time T19 to T20, the screen P8 is output to the display device. Then, the image data P11 is received by the receiving
時刻T21〜T22において、画像データB9は受信装置10に受信され、画像データP11および画像データB9のデータに基づいて、デコード処理部26は画面B9のデコードを行う。その後、画面B9が表示装置に出力される。時刻T23〜T24において、画像データB10は受信装置10に受信され、画像データP11および画像データB9のデータに基づいて、デコード処理部26は画面B9のデコードを行う。その後、画面B9が表示装置に出力される。
At times T21 to T22, the image data B9 is received by the receiving
時刻T25〜T26において、画像データ保管部28に一時保存しておいた画面P11が表示装置に出力される。以降、次のGOPについても、同様に出力を繰り返す。
At times T25 to T26, the screen P11 temporarily stored in the image
ところで、受信装置10がI2を受信し、デコード処理部26が画像データI2をデコードした時点では、画像データI2のデコードが終了しているにも拘わらず、未だ画像データB0がデコードされていないため、当該画像データI2は、画像データ保管部28に記憶される。そして、当該画像データI2の示す画像I2は、デジタルコンテンツ50の示す映像において最初の画像B0、および、その次の画像B1が出力された後で出力される。
By the way, when the receiving
ここで、従来では、画像B0を出力する前の時刻T1〜T2において、空白画像やブランクの黒い画面、または過去の画面などを表示装置に出力していた。 Conventionally, a blank image, a blank black screen, a past screen, or the like is output to the display device at times T1 to T2 before the image B0 is output.
これに対して、本実施形態に係る受信装置10は、画像データI2をデコードしてから画像B0を出力するまでの期間(時刻T1〜T2)において、これから出力する画面I2の画像データI2に映像効果を付加して出力する。
On the other hand, the receiving
具体的には、効果付加処理部30は、画像データI2に基づいて、近似度が低い画面I2a、および画面I2aよりも近似度が高くかつ画面I2よりも近似度が低い画面I2bを生成し、時刻T1において画面I2aを、時刻T2において画面I2bを出力する。これにより、画面I2a→画面I2b→画面B0と徐々に画面I2と同一の画像に近づいてゆくように画像が出力される。
Specifically, the effect
ここで、画面I2aおよび画面I2bは、画面B0よりも未来の画像であるが、画面B0は画像データI2に基づいてデコードされる画像であり、画面B0および画面I2は似た画像である可能性が高いため、ユーザが感じる違和感は少ない。そのため、従来1フレーム分の遅延が生じる時刻T1〜T2において、時刻T3に出力される画面B0に自然に繋がる画像を出力することができるので、ユーザに与える心理的負担を軽減することができる。 Here, the screen I2a and the screen I2b are future images than the screen B0, but the screen B0 is an image decoded based on the image data I2, and the screen B0 and the screen I2 may be similar images. Therefore, the user feels uncomfortable. Therefore, at time T1 to T2 when a delay of one frame is conventionally generated, an image that is naturally connected to the screen B0 output at time T3 can be output, so that the psychological burden on the user can be reduced.
また、画面B0の前に挿入される画面I2a…は、画面I2に映像効果を付加して生成された画面であり、画面I2を含む本来のデジタルコンテンツ50よりも近似度が低く設定されている。したがって、画面I2が画面B0と若干相違していたとしても、ユーザは、その相違に気付きにくい。この結果、ユーザに与える違和感を抑制でき、ユーザに与える心理的負担を軽減できる。 Further, the screen I2a... Inserted before the screen B0 is a screen generated by adding a video effect to the screen I2, and has a lower degree of approximation than the original digital content 50 including the screen I2. . Therefore, even if the screen I2 is slightly different from the screen B0, the user hardly notices the difference. As a result, the uncomfortable feeling given to the user can be suppressed, and the psychological burden given to the user can be reduced.
〔実施形態2〕
次に、実施形態2における別の画面出力方法について、説明する。なお、実施形態2に係る受信装置10は、実施形態1に係る受信装置10と比較して、効果付加処理部30および画像データ出力処理部の動作タイミングおよび効果の付加方法が異なっているが、動作タイミングおよび効果の付加方法を除けば、両受信装置10は、互いに同じ構造である。したがって、実施形態2では、受信装置、および、それを構成する各部材を、実施形態1と同じ参照符号を付して参照する。
[Embodiment 2]
Next, another screen output method according to the second embodiment will be described. The receiving
実施形態2では、受信装置10がI2を受信し、デコード処理部26がI2をデコードし、従来では外部機器44には何も出力されない時刻T1〜T2および画面B0・B1が出力される時刻T3〜T6において、これから出力する画面I2の画像を用いて効果を付加した画像を作成し、出力する。すなわち、画面I2が出力される時刻T7〜T8まで、効果を付加した画面を出力する。
In the second embodiment, the receiving
具体的には、効果付加処理部30は、画像データI2に基づいて、近似度が順に高くなっていくように、画面I2a・I2b・I2c・I2d・I2e・I2fを生成し、時刻T1・T2・T3・T4・T5・T6において、それぞれ画面I2a・I2b・I2c・I2d・I2e・I2fを出力する。これにより、画面I2a→画面I2b→画面I2c→画面I2d→画面I2e→画面I2f→画面I2と徐々に画面が近似し、画面I2と同一の画面に近づいてゆくように画像が出力される。
Specifically, the effect
実施形態1の画面の出力方法と比較して、時系列に沿わない画像を出力することがなくなるため、より自然に繋がる画像を順に出力することができるので、ユーザに与える心理的負担をより軽減することができる。 Compared with the screen output method of the first embodiment, images that do not follow the time series are not output, and thus images that are more naturally connected can be output in order, thereby further reducing the psychological burden on the user. can do.
次に、画像処理装置20で実際に行われる画像処理について、図5〜図9を参照して説明する。図5は、画像処理装置20の主要動作S101〜S107の概要を示すフロー図である。図6は、図5に示すS103で実行される解像度調整処理を示すフロー図である。図7は、図5に示すS104で実行される明度調整処理を示すフロー図である。図8は、図5に示すS105で実行される彩度調整処理を示すフロー図である。図9は、図5に示すS106で実行されるぼかし度調整処理を示すフロー図である。
Next, image processing actually performed by the
図5を参照して、主要動作の処理の流れについて説明を行う。画像処理装置20の電源が入れられると、画像処理が開始され、処理はS101へ進む。
With reference to FIG. 5, the flow of the main operation process will be described. When the
S101において、画像処理装置20は入力されたデジタルコンテンツ50に対して効果を付加する指示があるか否かの判断を行う。効果を付加する指示がある場合(S101でYES)S102へ進み、効果を付加する指示がない場合(S101でNO)、処理を終了する。なお、効果を付加するか否かの情報は、予め画像処理装置20が保持しているものであっても構わないし、ユーザ48が画像処理装置20に対して適宜指示または設定するものであっても構わない。
In step S <b> 101, the
S102において、効果付加処理部30は、画像データ60に対して付加する効果を決定する。画像データ60に対して解像度を調整することで効果を付加する場合(S102で解像度調整)、処理はS103へ進む。画像データ60に対して明度を調整することで効果を付加する場合(S102で明度調整)、処理はS104へ進む。画像データ60に対して彩度を調整することで効果を付加する場合(S102で彩度調整)、処理はS105へ進む。画像データ60に対してぼかし度を調整することで効果を付加する場合(S102でぼかし度調整)、処理はS106へ進む。
In S <b> 102, the effect
なお、画像データ60に対してどの効果を付加するかの情報は、予め効果付加処理部30が保持しているものであっても構わないし、ユーザ48が画像処理装置20に対して適宜指示または設定するものであっても構わない。
The information about which effect is added to the image data 60 may be stored in advance by the effect
S103において、解像度調整処理部31および画像データ処理部32は、画像データ60に対して解像度を調整することで解像度の異なる1つ以上の画像データを作成し、処理はS107へ進む。解像度調整処理の詳細については、後述する。S104において、明度調整処理部33および画像データ処理部34は、画像データ60に対して明度を調整することで明度の異なる1つ以上の画像データを作成し、処理はS107へ進む。明度調整処理の詳細については、後述する。
In S103, the resolution
S105において、彩度調整処理部35および画像データ処理部36は、画像データ60に対して彩度を調整することで彩度の異なる1つ以上の画像データを作成し、処理はS107へ進む。なお、彩度調整処理の詳細については後述する。S106において、ぼかし度調整処理部37および画像データ処理部38は、画像データ60に対してぼかし度を調整することでぼかし度の異なる1または複数の画像データを作成してS107へ進む。なお、ぼかし度調整処理の詳細については後述する。
In S105, the saturation
S107において、画像データ出力処理部40はS103、S104、S105およびS106において効果が付加された画像データを出力して処理を終了する。
In S107, the image data
次に、図6を参照して、解像度調整処理について説明する。解像度調整処理が開始されると、S201において、解像度調整処理部31はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも解像度を落とした画像データを作成するか否かの判定を行う。解像度を落とした画像データを作成する場合はS202へ進み、解像度を落とした画像データを作成しない場合はS203へ進む。なお、解像度調整処理部31が解像度を落とした画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。
Next, the resolution adjustment process will be described with reference to FIG. When the resolution adjustment processing is started, in S201, the resolution
具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S205において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。 Specifically, the number of image data to be created may be determined in advance, and in S205, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.
S202において、画像データ処理部32は、デコード処理部26におけるデコード処理により得られた画像データ60の解像度よりも解像度を落とした画像データを作成する。ただし、S201およびS202において繰り返しの処理が行われており、かつS202における処理が複数回行われている場合、S202において画像データ処理部32が作成する画像データの解像度は全て異なるように制御される。
In S <b> 202, the image
具体的には、解像度調整処理部31が、S202において作成された画像データの解像度を全て管理しておくことで、S202において画像データ処理部32による画像データの作成処理が行われるたびに、解像度調整処理部31が当該画像データの解像度を決定すればよい。なお、解像度調整処理部31が解像度を決定する方法は限定しないが、例えば一つ前に作成した画像データの解像度から一定量または一定割合ずつ減じていくことで、解像度を決定するものであっても構わない。
Specifically, the resolution
なお、画像データ処理部32が行う解像度を落とす方法としては、例えば入力された画像データ60を間引くことで実現することができるが、必ずしもこれに限定されない。入力された画像データ60よりも解像度を落とすことができるものであれば、何でも構わない。
Note that the method of reducing the resolution performed by the image
S203において、画像データ結合処理部39はS202において作成された解像度を落とした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS204へ進み、複数の画像データが存在しない場合は処理を終了する。
In S203, the image data
S204において、画像データ結合処理部39はS202において作成された複数の画像データを解像度が低い画像データから解像度が高い画像データの順になるようにソートして、S205へ進む。
In step S204, the image data
S205において、画像データ結合処理部39はS204においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、解像度が低い画像データから徐々に解像度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも解像度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In S205, the image data
次に、図7を参照して、明度調整処理について説明する。明度調整処理が開始されると、S301において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも明度を高くした画像データを作成するか、あるいは当該画像データ60よりも明度を低くした画像データを作成するかどうかを判定する。明度を高くした画像データを作成する場合はS302へ進み、明度を低くした画像データを作成する場合はS307へ進む。
Next, the brightness adjustment process will be described with reference to FIG. When the brightness adjustment processing is started, in S301, the brightness
なお、明度調整処理部33が明度を高くした画像データを作成するか、あるいは明度を低くした画像データを作成するかどうかを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。
Note that the criterion for determining whether the brightness
S302において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を高くした画像データを作成するか否かの判定を行う。明度を高くした画像データを作成する場合はS303へ進み、明度を高くした画像データを作成しない場合はS304へ進む。
In S <b> 302, the brightness
なお、明度調整処理部33が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S306において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。
Note that the criterion for determining whether or not the brightness
S303において、画像データ処理部34は、デコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を高くした画像データを作成する。ただし、S302およびS303において繰り返しの処理が行われており、かつS303における処理が複数回行われている場合、S303において画像データ処理部34が作成する画像データの明度は全て異なるように制御される。
In step S <b> 303, the image
具体的には、明度調整処理部33が、S303において作成された画像データの明度を全て管理しておくことで、S303において画像データ処理部34による画像データの作成処理が行われるたびに、明度調整処理部33が当該画像データの明度を決定すればよい。なお、明度調整処理部33が明度を決定する方法は限定しないが、例えば一つ前に作成した画像データの明度から一定量または一定割合ずつ高くしていくことで、明度を決定するものであっても構わない。
Specifically, the lightness
なお、画像データ処理部34が行う明度を高くする方法としては、例えばRGBの階調を徐々に上げていくことで、明度を高くすることができる。例えば、シアン(R=0、G=255、B=255)から緑(Gの値)と青(Bの値)を減らさずに、赤(Rの値)だけを徐々に増やすと、光の量が増えていき、最後は白(R=255、G=255、B=255)となる。このように、RGBの階調を調整することで、明度を調整することができる。なお、明度を調整する方法は必ずしもこれに限定されない。例えば、ガンマ補正をかけることで、明度をあげることができる。
As a method of increasing the brightness performed by the image
S304において、画像データ結合処理部39はS303において作成された明度を高くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS305へ進み、複数の画像データが存在しない場合は処理を終了する。S305において、画像データ結合処理部39はS303において作成された複数の画像データを明度が高い画像データから明度が低い画像データの順になるようにソートして、S306へ進む。
In S304, the image data
S306において、画像データ結合処理部39はS305においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、明度が高い画像データから徐々に明度が低い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも明度が非常に高い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In S306, the image data
S307において、明度調整処理部33はデコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を低くした画像データを作成するか否かの判定を行う。明度を低くした画像データを作成する場合はS308へ進み、明度を低くした画像データを作成しない場合はS309へ進む。なお、明度調整処理部33が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。
In step S <b> 307, the brightness
具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S311において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。 Specifically, the number of image data to be created may be determined in advance, and in S311, a plurality of created image data are combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.
S308において、画像データ処理部34は、デコード処理部26におけるデコード処理により得られた画像データ60の明度よりも明度を低くした画像データを作成する。ただし、S307およびS308において繰り返しの処理が行われており、かつS308における処理が複数回行われている場合、S308において画像データ処理部34が作成する画像データの明度は全て異なるように制御される。
In S <b> 308, the image
具体的には、明度調整処理部33が、S308において作成された画像データの明度を全て管理しておくことで、S308において画像データ処理部34による画像データの作成処理が行われるたびに、明度調整処理部33が当該画像データの明度を決定すればよい。なお、明度調整処理部33が明度を決定する方法は限定しないが、例えば一つ前に作成した画像データの明度から一定量または一定割合ずつ低くしていくことで、明度を決定するものであっても構わない。
Specifically, the lightness
なお、画像データ処理部34が行う明度を低くする方法としては、上記にあげた明度を高くする方法の逆を行えばよい。すなわち、RGBの階調を徐々に下げていくことで、明度を低くすることができる。
As a method for reducing the brightness performed by the image
S309において、画像データ結合処理部39はS308において作成された明度を低くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS310へ進み、複数の画像データが存在しない場合は処理を終了する。
In step S309, the image data
S310において、画像データ結合処理部39はS308において作成された複数の画像データを明度が低い画像データから明度が高い画像データの順になるようにソートして、S311へ進む。
In step S310, the image data
S311において、画像データ結合処理部39はS310においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、明度が低い画像データから徐々に明度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも明度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In S311, the image data
次に、図8を参照して、彩度調整処理について説明する。彩度調整処理が開始されると、S401において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60に対して、当該画像データ60よりも彩度を高くした画像データを作成するか、あるいは当該画像データ60よりも彩度を低くした画像データを作成するかどうかを判定する。彩度を高くした画像データを作成する場合はS402へ進み、彩度を低くした画像データを作成する場合はS407へ進む。
Next, the saturation adjustment process will be described with reference to FIG. When the saturation adjustment processing is started, in S401, the saturation
なお、彩度調整処理部35が彩度を高くした画像データを作成するか、あるいは彩度を低くした画像データを作成するかどうかを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。
Note that the
S402において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を高くした画像データを作成するか否かの判定を行う。彩度を高くした画像データを作成する場合はS403へ進み、彩度を高くした画像データを作成しない場合はS404へ進む。なお、彩度調整処理部35が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。
In step S <b> 402, the saturation
具体的には、作成する画像データの枚数が予め決められているものであっても構わないし、S406において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。 Specifically, the number of image data to be created may be determined in advance, and in S406, a plurality of created image data is combined to create one moving image data. The number of image data to be created may be determined according to the time of moving image data to be created. The image data may be created if the number is within the number, and the image data may not be created when the number is reached.
S403において、画像データ処理部36は、デコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を高くした画像データを作成する。ただし、S402およびS403において繰り返しの処理が行われており、かつS403における処理が複数回行われている場合、S403において画像データ処理部36が作成する画像データの彩度は全て異なるように制御される。
In step S <b> 403, the image
具体的には、彩度調整処理部35が、S403において作成された画像データの彩度を全て管理しておくことで、S403において画像データ処理部36による画像データの作成処理が行われるたびに、彩度調整処理部35が当該画像データの彩度を決定すればよい。なお、彩度調整処理部35が彩度を決定する方法は限定しないが、例えば一つ前に作成した画像データの彩度から一定量または一定割合ずつ高くしていくことで、彩度を決定するものであっても構わない。
Specifically, the saturation
なお、画像データ処理部36が行う彩度を高くする方法としては、例えばRGBの階調を調整することで彩度を高くすることができる。例えば、グレー(R=39、G=39、B=39)から青(Bの値)を徐々に増していき、増やした分だけ赤(Rの値)と緑(Gの値)を減らしていくと、色は鮮やかになり、シアン(R=0、G=255、B=255)に近づいていく。この結果、彩度を高くすることができる。
As a method of increasing the saturation performed by the image
S404において、画像データ結合処理部39はS403において作成された彩度を高くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS405へ進み、複数の画像データが存在しない場合は処理を終了する。
In step S404, the image data
S405において、画像データ結合処理部39はS403において作成された複数の画像データを彩度が高い画像データから彩度が低い画像データの順になるようにソートして、S406へ進む。
In step S405, the image data
S406において、画像データ結合処理部39はS405においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、彩度が高い画像データから徐々に彩度が低い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも彩度が非常に高い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In S406, the image data
S407において、彩度調整処理部35はデコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を低くした画像データを作成するか否かの判定を行う。彩度を低くした画像データを作成する場合はS408へ進み、彩度を低くした画像データを作成しない場合はS409へ進む。
In step S <b> 407, the saturation
なお、彩度調整処理部35が画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。例えば、作成する画像データの枚数が予め決められているものであっても構わないし、S411において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する当該動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。
Note that the criterion for determining whether or not the saturation
S408において、画像データ処理部36は、デコード処理部26におけるデコード処理により得られた画像データ60の彩度よりも彩度を低くした画像データを作成する。ただし、S407およびS408において繰り返しの処理が行われており、かつS408における処理が複数回行われている場合、S408において画像データ処理部36が作成する画像データの彩度は全て異なるように制御される。
In step S <b> 408, the image
具体的には、彩度調整処理部35が、S408において作成された画像データの彩度を全て管理しておくことで、S408において画像データ処理部36による画像データの作成処理が行われるたびに、彩度調整処理部35が当該画像データの彩度を決定すればよい。なお、彩度調整処理部35が彩度を決定する方法は限定しないが、例えば、一つ前に作成した画像データの彩度から一定量または一定割合ずつ低くしていくことで、彩度を決定するものであっても構わない。
Specifically, the saturation
なお、画像データ処理部36が行う彩度を低くする方法としては、例えばRGBの階調を調整することで彩度を低くすることができる。例えば、シアン(R=0、G=255、B=255)から赤(Rの値)を徐々に増やしていき、増やした分だけ緑(Gの値)と青(Bの値)を減らしていくと、色は鮮やかさを失い、グレー(R=39、G=39、B=39)に近づいていく。この結果、彩度を低くすることができる。
As a method for reducing the saturation performed by the image
S409において、画像データ結合処理部39はS408において作成された彩度を低くした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はS410へ進み、複数の画像データが存在しない場合は処理を終了する。
In step S409, the image data
S410において、画像データ結合処理部39はS408において作成された複数の画像データを彩度が低い画像データから彩度が高い画像データの順になるようにソートして、S411へ進む。
In step S410, the image data
S411において、画像データ結合処理部39はS410においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、彩度が低い画像データから徐々に彩度が高い画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データよりも彩度が非常に低い画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In S411, the image data
次に、図9を参照して、ぼかし度調整処理について説明する。ステップS501において、ぼかし度調整処理部37はデコード処理部26におけるデコード処理により得られた画像データ60に対して、ぼかした画像データを作成するか否かの判定を行う。ぼかした画像データを作成する場合はステップS502へ進み、ぼかした画像データを作成しない場合はステップS503へ進む。
Next, the blurring degree adjustment process will be described with reference to FIG. In step S <b> 501, the blurring degree
なお、ぼかし度調整処理部37がぼかした画像データを作成するか否かを判定する基準は、予め画像処理装置20が保持しているものであっても構わない。例えば、作成する画像データの枚数が予め決められているものであっても構わないし、ステップS505において、作成された複数の画像データを結合して一つの動画像データを作成するが、作成する動画像データの時間に応じて、作成する画像データの枚数が決定されるものであっても構わない。そして、当該枚数以内であれば画像データを作成し、当該枚数に達した場合は画像データを作成しないものであっても構わない。
Note that the criterion for determining whether or not to create the blurred image data by the blurring degree
ステップS502において、画像データ処理部38は、デコード処理部26におけるデコード処理により得られた画像データ60に対してぼかした画像データを作成する。ただし、ステップS501およびステップS502において繰り返しの処理が行われており、かつステップS502における処理が複数回行われている場合、ステップS502において画像データ処理部38が作成する画像データのぼかし具合は全て異なるように制御される。
In step S502, the image
例えば、ぼかし度調整処理部37が、ステップS502において作成された画像データのぼかし度を全て管理しておくことで、ステップS502において画像データ処理部38による画像データの作成処理が行われるたびに、ぼかし度調整処理部37が当該画像データのぼかし度を決定すればよい。
For example, the blur
なお、ぼかし度調整処理部37がぼかし度を決定する方法は限定しないが、例えば一つ前に作成した画像データのぼかし度から一定量または一定割合ずつ大きくしていくことで、ぼかし度を決定するものであっても構わない。また、画像データ処理部38が行うぼかした画像データを作成する方法としては、例えばフィルタ処理を行う方法がある。例えば、フィルタ処理後の注目画素濃度値を隣接する画素の平均値とするようなフィルタをかけることで当該画像データをぼかすことができる。
The method of determining the blur level by the blur level
ステップS503において、画像データ結合処理部39はステップS502において作成されたぼかした画像データが複数枚存在するか否かを判定する。複数の画像データが存在する場合はステップS504へ進み、複数の画像データが存在しない場合は処理を終了する。
In step S503, the image data
ステップS504において、画像データ結合処理部39はステップS502において作成された複数の画像データをぼかし度が大きい画像データからぼかし度が小さい画像データの順になるようにソートして、ステップS505へ進む。
In step S504, the image data
ステップS505において、画像データ結合処理部39はステップS504においてソートされた順に画像データを結合し、一つの動画像データを作成して処理を終了する。これは、この動画像データは、ぼかし度が大きい画像データから徐々にぼかし度が小さい画像データになるように作成されている。すなわち、この動画像データは、デコード処理により得られた画像データにぼかしが入った画像データから徐々にデコード処理により得られた画像データに近づくように作成されている。
In step S505, the image data
次に、画像処理装置20の具体的な動作として、実施例1から実施例4を例示する。
Next, as a specific operation of the
以下に示す実施例1において、デコード処理により得られた画像データに対して、解像度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。
In the first embodiment shown below, a plurality of pieces of image data with adjusted resolution are created for the image data obtained by the decoding process, and one piece of moving image data is created by combining the plurality of pieces of created image data. The operation of the
例えば、a×bの解像度の画像データA0が入力された場合について、図6に示すフロー図に従って説明する。S201およびS202において、解像度調整処理部31は入力された画像データA0に対して、a×bの解像度よりも低い解像度の画像データを作成する。ここで、解像度調整処理部31が解像度を落とした画像データを作成する方法として、例えば入力された画像データA0を間引くことで、解像度を落とした画像データを作成するものであっても構わない。水平方向および垂直方向の解像度を半分にする場合、水平方向成分において偶数ラインを間引き、かつ垂直方向成分において偶数ラインを間引くことで、a/2×b/2の解像度の画像データを作成することができる。
For example, a case where image data A0 having an a × b resolution is input will be described with reference to the flowchart shown in FIG. In S201 and S202, the resolution
ここで、S201およびS202において、画像データA0の解像度よりも解像度を落とした画像データを5枚作成するものとする。この場合、水平方向および垂直方向の解像度がそれぞれ5/6、4/6、3/6、2/6および1/6となる画像データを作成する。なお、上記のような解像度にする理由は、5枚の画像データを結合して一つの動画像データを作成してそれをユーザ48が鑑賞した際に、違和感を与えないようにするためである。すなわち、解像度の変化を規則的に行うことで、そこから作成された動画像データを鑑賞したユーザ48に違和感を与えないようにするためである。
Here, in S201 and S202, five pieces of image data having a resolution lower than that of the image data A0 are created. In this case, image data is created in which the horizontal and vertical resolutions are 5/6, 4/6, 3/6, 2/6, and 1/6, respectively. The reason why the resolution is as described above is to prevent the
S202において、画像データ処理部32は、5a/6×5b/6の解像度からなる画像データA1、4a/6×4b/6の解像度からなる画像データA2、3a/6×3b/6の解像度からなる画像データA3、2a/6×2b/6の解像度からなる画像データA4、および1a/6×1b/6の解像度からなる画像データA5の5枚の画像データを作成する。
In S202, the image
S203、S204およびS205において、5枚の画像データが存在するため、5枚の画像データを結合して、一つの動画像データを作成する。ここで、画像データ結合処理部39は、A1からA5の5枚の画像データを解像度が低い画像データから解像度が高い画像データの順になるようにソートするため、A5−A4−A3−A2−A1の順にソートされる。
In S203, S204, and S205, since there are five pieces of image data, the five pieces of image data are combined to create one moving image data. Here, the image data
S205において、画像データ結合処理部39はソートされた順に5枚の画像データを結合して、一つの動画像データA10を作成する。
In S205, the image data
そして、図5に示すS107において、画像データ出力処理部40は動画像データA10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データA10が出力され、ユーザ48は動画像データA10を鑑賞することができる。動画像データA10は解像度の低い画像データから徐々に解像度が高い画像データになるように構成されているため、ユーザ48は解像度の低い画像データから始まり徐々に元の画像データA0に近づいていくように感じることができる。
5, the image data
次に、上記のような入力された画像データに対して解像度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツA100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツA200を鑑賞しようとした場合について説明する。
Next, the operation of the receiving
チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツA200を受信する。なお、デジタルコンテンツA200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツA200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。
The
そこで、効果付加処理部30を構成する解像度調整処理部31および画像データ処理部32は、最初にデコード処理されたI2に対して、解像度を調整した画像データを作成して、解像度の低い画像データから解像度の高い画像データの順に結合して一つの動画像データA201を作成する。なお、これら一連の処理は上述で説明した通りである。
Therefore, the resolution
そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データA201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データA201を出力する。
Then, the content
または、動画像データA201を作成する際に使用したI2が再生処理されるまでの間、動画像データA201を出力するものであっても構わない。この場合、B0およびB1は出力されない。これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データA201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。
Alternatively, the moving image data A201 may be output until I2 used when creating the moving image data A201 is reproduced. In this case, B0 and B1 are not output. Thus, the
さらに、動画像データA201は解像度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データA201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。
Furthermore, since the moving image data A201 is created so as to gradually approach the original image data from the low-resolution image data, the moving image data A201 can be smoothly switched to the video after channel switching, The
なお、解像度を落とした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが表示される。 Note that it is not always necessary to create a plurality of image data with a reduced resolution, and one image data may be used. In this case, since the moving image data is not created, the image data is displayed until the video after the channel switching is output.
以上のように、本実施例1の構成において、デコード処理により得られた画像データに対して、元の画像データよりも解像度を落とした画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。
As described above, in the configuration of the first embodiment, image data having a resolution lower than that of the original image data is created for the image data obtained by the decoding process, and the created image data is combined. Create two video data. Then, by outputting the created moving image data until the video after the channel switching by the
以下に示す実施例2において、デコード処理により得られた画像データに対して、明度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。
In Example 2 shown below, a plurality of pieces of image data with adjusted brightness are created for the image data obtained by the decoding process, and one piece of moving image data is created by combining the plurality of pieces of created image data. The operation of the
例えば、画像データC0が入力された場合について説明する。S301において、明度調整処理部33はデコード処理により得られた画像データに対して、明度を高くした画像データを作成するのか、あるいは明度を低くした画像データを作成するのかを判定する。ここにおいて、明度を高くした画像データを作成するものとする。
For example, a case where image data C0 is input will be described. In S301, the brightness
このとき、S302およびS303において、明度調整処理部33は入力された画像データC0に対して、画像データC0よりも明度の高い画像データを作成する。ここで、明度調整処理部33が明度を高くした画像データを作成する方法として、例えばRGBの階調を徐々に上げていくことで、明度の高い画像データを作成するものであっても構わない。また、ガンマ補正をかけることで、明度の高い画像データを作成するものであっても構わない。なお、明度の高い画像データを複数枚作成する場合、明度の変化が徐々になるように画像データを作成する。
At this time, in S302 and S303, the brightness
S305において、画像データ結合処理部39は、作成された画像データを明度が高い画像データから明度の低い画像データの順になるようにソートし、S306にて、ソートされた順に画像データを結合して、一つの動画像データC10を作成する。
In step S305, the image data
そして、図5に示すS107において、画像データ出力処理部40は動画像データC10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データC10が出力され、ユーザ48は動画像データC10を鑑賞することができる。動画像データC10は明度の高い画像データから徐々に明度の低い画像データになるように構成されているため、ユーザ48は明度の高い画像データから始まり徐々に元の画像データC0に近づいていくように感じることができる。
5, the image data
次に、上記のように入力された画像データに対して明度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツC100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツC200を鑑賞しようとした場合について説明する。
Next, the operation of the receiving
チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツC200を受信する。なお、デジタルコンテンツC200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツC200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。
The
そこで、効果付加処理部30を構成する明度調整処理部33および画像データ処理部34は、最初にデコード処理されたI2に対して、明度を調整した画像データを作成して、明度の高い画像データから明度の低い画像データの順に結合して一つの動画像データC201を作成する。なお、これら一連の処理は上述で説明した通りである。
Therefore, the lightness
そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データC201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データC201を出力する。または、動画像データC201を作成する際に使用したI2が再生処理されるまでの間、動画像データC201を出力するものであっても構わない。この場合、B0およびB1は出力されない。これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データC201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データC201は明度の高い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データC201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。
Then, the content
なお、明度を高くした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。 Note that it is not always necessary to create a plurality of image data with high brightness, and one image data may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.
また、上記において、入力された画像データよりも明度を高くした画像データを作成した場合について説明したが、入力された画像データよりも明度を低くした画像データを作成するものであっても構わない。この場合、S310において、画像データ結合処理部39は、作成された画像データを明度が低い画像データから明度の高い画像データの順になるようにソートし、S311にて、ソートされた順に画像データを結合して、一つの動画像データを作成する。
In the above description, the case where image data having a higher brightness than input image data has been described. However, image data having a brightness lower than that of input image data may be generated. . In this case, in S310, the image data
そして、この動画像データをユーザ48がチャンネル切り替え指示を出して切り替え後の映像が映し出されるまでの間に出力することで、ユーザ48はそれを鑑賞することができ、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データは明度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データからチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。
Then, by outputting this moving image data between the time when the
以上のように、本実施例2の構成において、デコード処理により得られた画像データに対して、明度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。
As described above, in the configuration of the second embodiment, image data with adjusted brightness is created for the image data obtained by the decoding process, and one moving image data is created by combining the created image data. To do. Then, by outputting the created moving image data until the video after the channel switching by the
以下に示す実施例3において、デコード処理により得られた画像データに対して、彩度を調整した複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。
In Example 3 shown below, a plurality of pieces of image data with adjusted saturation are created for the image data obtained by the decoding process, and one piece of moving image data is combined by combining the plurality of pieces of created image data. The operation of the
例えば、画像データD0が入力された場合について説明する。S401において、彩度調整処理部35はデコード処理により得られた画像データに対して、彩度を高くした画像データを作成するのか、あるいは彩度を低くした画像データを作成するのかを判定する。ここにおいて、彩度を高くした画像データを作成するものとする。
For example, a case where image data D0 is input will be described. In step S <b> 401, the saturation
このとき、S402およびS403において、彩度調整処理部35は入力された画像データD0に対して、画像データD0よりも彩度の高い画像データを作成する。ここで、彩度調整処理部35が彩度を高くした画像データを作成する方法として、例えばRGBの階調を調整し、画像データに入る光の量を増やすことで、彩度の高い画像データを作成するものであっても構わない。なお、彩度の高い画像データを複数枚作成する場合、彩度の変化が徐々になるように、画像データを作成する。
At this time, in S402 and S403, the saturation
S405において、画像データ結合処理部39は、作成された画像データを彩度が高い画像データから彩度の低い画像データの順になるようにソートし、S406にて、ソートされた順に画像データを結合して、一つの動画像データD10を作成する。
In step S405, the image data
そして、図5に示すS107において、画像データ出力処理部40は動画像データD10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データD10が出力され、ユーザ48は動画像データD10を鑑賞することができる。動画像データD10は彩度の高い画像データから徐々に彩度の低い画像データになるように構成されているため、ユーザ48は彩度の高い画像データから始まり徐々に元の画像データD0に近づいていくように感じることができる。
In step S <b> 107 illustrated in FIG. 5, the image data
次に、上記のように入力された画像データに対して彩度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツD100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツD200を鑑賞しようとした場合について説明する。
Next, the operation of the receiving
チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツD200を受信する。なお、デジタルコンテンツD200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツD200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。
The
そこで、効果付加処理部30を構成する彩度調整処理部35および画像データ処理部36は、最初にデコード処理されたI2に対して、彩度を調整した画像データを作成して、彩度の高い画像データから彩度の低い画像データの順に結合して一つの動画像データD201を作成する。なお、これら一連の処理は上述で説明した通りである。
Therefore, the saturation
そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データD201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データD201を出力する。または、動画像データD201を作成する際に使用したI2が再生処理されるまでの間、動画像データD201を出力するものであっても構わない。この場合、B0およびB1は出力されない。
Then, the content
これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データD201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データD201は彩度の高い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データD201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。
Thus, the
なお、彩度を高くした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。 Note that it is not always necessary to create a plurality of image data with high saturation, and one image data may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.
また、上記において、入力された画像データよりも彩度を高くした画像データを作成した場合について説明したが、入力された画像データよりも彩度を低くした画像データを作成するものであっても構わない。 In the above description, the case where the image data with higher saturation than the input image data is created has been described. However, the image data with lower saturation than the input image data may be created. I do not care.
この場合、S410において、画像データ結合処理部39は、作成された画像データを彩度が低い画像データから彩度の高い画像データの順になるようにソートし、S411にて、ソートされた順に画像データを結合して、一つの動画像データを作成する。そして、この動画像データをユーザ48がチャンネル切り替え指示を出して切り替え後の映像が映し出されるまでの間に出力することで、ユーザ48はそれを鑑賞することができ、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。
In this case, in S410, the image data
さらに、動画像データは彩度の低い画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データからチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。 Furthermore, since the moving image data is created so as to gradually approach the original image data from the low-saturation image data, it is possible to smoothly switch from the moving image data to the video after the channel switching. 48 does not give a sense of incongruity.
以上のように、本実施例3の構成において、デコード処理により得られた画像データに対して、彩度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。
As described above, in the configuration of the third embodiment, image data with adjusted saturation is created for the image data obtained by the decoding process, and one moving image data is combined by combining the created image data. create. Then, by outputting the created moving image data until the video after the channel switching by the
以下に示す実施例4において、デコード処理により得られた画像データに対して、ぼかした複数の画像データを作成し、作成した複数の画像データを結合することで一つの動画像データを作成して出力する際の画像処理装置20の動作を例示する。
In Example 4 shown below, a plurality of blurred image data is created for the image data obtained by the decoding process, and one moving image data is created by combining the created plurality of image data. The operation of the
例えば、画像データE0が入力された場合について説明する。ステップS501およびステップS502において、ぼかし度調整処理部37は入力された画像データE0に対して、画像データE0をぼかした画像データを作成する。ここで、ぼかし度調整処理部37がぼかした画像データを作成する方法として、例えばフィルタ処理を行うものであっても構わない。
For example, a case where image data E0 is input will be described. In step S501 and step S502, the blurring degree
この場合に使用するフィルタとしては、フィルタ処理後の注目画素の濃度値を、注目画素の、周りの画素の平均値とするようなものであっても構わない。例えば、フィルタの「縦×横」が3×3画素とした場合、全9個のフィルタの数値を1/9とすればよい。ただし、フィルタは必ずしもこれに限定されない。さらに大きなフィルタを用いても構わない。なお、大きなフィルタを用いるほど、ぼかし度の大きい画像データを作成することができる。 The filter used in this case may be such that the density value of the target pixel after the filter processing is set to the average value of the surrounding pixels of the target pixel. For example, if the “vertical × horizontal” of the filter is 3 × 3 pixels, the numerical values of all nine filters may be 1/9. However, the filter is not necessarily limited to this. A larger filter may be used. Note that the larger the filter is used, the more the image data with a higher degree of blur can be created.
また、ぼかした画像データを作成する方法として、モザイク処理であっても構わない。モザイク処理をする方法としては、例えばある矩形範囲のうち、1点の画素の濃度値をその矩形全体の濃度値にすることで、モザイク処理された画像データを作成することができる。なお、ぼかした画像データを複数枚作成する場合、ぼかし度の変化が徐々になるように画像データを作成する。 Further, mosaic processing may be used as a method of creating blurred image data. As a method of performing the mosaic processing, for example, by setting the density value of one pixel in a certain rectangular range to the density value of the entire rectangle, it is possible to create mosaic-processed image data. Note that when creating a plurality of pieces of blurred image data, the image data is created so that the change in the blurring degree is gradually increased.
ステップS504において、画像データ結合処理部39は、作成された画像データをぼかし度が大きい画像データからぼかし度の小さい画像データの順になるようにソートし、ステップS505にて、ソートされた順に画像データを結合して、一つの動画像データE10を作成する。
In step S504, the image data
そして、図5に示すS107において、画像データ出力処理部40は動画像データE10を外部機器44に出力する。なお、外部機器44に表示装置が備わっているような場合は、動画像データE10が出力され、ユーザ48は動画像データE10を鑑賞することができる。動画像データE10はぼかし度の大きい画像データから徐々にぼかし度の小さい画像データになるように構成されているため、ユーザ48はぼかし度の大きい画像データから始まり徐々に元の画像データE0に近づいていくように感じることができる。
In step S <b> 107 illustrated in FIG. 5, the image data
次に、上記のように入力された画像データに対してぼかし度を調整した画像データを作成することができる画像処理装置20を備えた受信装置10の動作を例示する。例えば、ユーザ48がデジタル放送のデジタルコンテンツE100を鑑賞している際に、チャンネルを切り替えてデジタルコンテンツE200を鑑賞しようとした場合について説明する。
Next, the operation of the receiving
チャンネル切り替え部14は、ユーザ48からのチャンネル切り替え指示を受け取り、コンテンツ受信部12はユーザ48から指示されたチャンネル切り替え後のコンテンツであるデジタルコンテンツE200を受信する。
The
なお、デジタルコンテンツE200は図11に示すような形でエンコード処理およびデコード処理されるものとする。すなわち、I2、B0、B1、P5、B3、B4・・・という順にエンコードされたデジタルコンテンツE200がコンテンツ受信部12を介して入力され、デコード処理部26はI2、B0、B1、P5、B3、B4・・・という順にデコード処理を行う。
The digital content E200 is encoded and decoded in the form shown in FIG. That is, digital content E200 encoded in the order of I2, B0, B1, P5, B3, B4... Is input via the
そこで、効果付加処理部30を構成するぼかし度調整処理部37および画像データ処理部38は、最初にデコード処理されたI2に対して、ぼかし度を調整した画像データを作成して、ぼかし度の大きい画像データからぼかし度の小さい画像データの順に結合して一つの動画像データE201を作成する。なお、これら一連の処理は上述で説明した通りである。
Therefore, the blurring degree
そして、コンテンツ表示処理部16は、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、動画像データE201を出力する。すなわち、図11に示すように、I2の次のB0がデコードされて再生処理されるまでの間、動画像データE201を出力する。または、動画像データE201を作成する際に使用したI2が再生処理されるまでの間、動画像データE201を出力するものであっても構わない。この場合、B0およびB1は出力されない。
Then, the content
これにより、ユーザ48はチャンネル切り替え後の映像が出力されるまで待っている必要はなく、チャンネル切り替え後の映像が出力されるまで動画像データE201を鑑賞することができるため、映像が出力されるまで待っているというユーザ48の心理的負担を軽減することができる。さらに、動画像データE201はぼかし度の大きい画像データから徐々に元の画像データに近づいていくように作成されているため、動画像データE201からチャンネル切り替え後の映像へもスムーズに切り替わることができ、ユーザ48に違和感を与えることはない。
As a result, the
なお、ぼかした画像データは必ずしも複数枚作成する必要はなく、1枚であっても構わない。この場合、動画像データは作成されないため、チャンネル切り替え後の映像が出力されるまで当該画像データが出力される。 Note that it is not always necessary to create a plurality of blurred image data, and a single image may be used. In this case, since the moving image data is not created, the image data is output until the video after the channel switching is output.
以上のように、本実施例4の構成では、デコード処理により得られた画像データに対して、ぼかし度を調整した画像データを作成し、作成した画像データを結合して一つの動画像データを作成する。そして、ユーザ48によるチャンネル切り替え後の映像が映し出されるまでの間、作成した動画像データを出力することで、ユーザ48は当該動画像データを鑑賞することができる。これにより、チャンネル切り替え後の映像が映し出されるまで待っているというユーザ48の心理的負担を軽減することができる。
As described above, in the configuration of the fourth embodiment, image data obtained by adjusting the blurring degree is created for the image data obtained by the decoding process, and the created image data is combined to generate one moving image data. create. Then, by outputting the created moving image data until the video after the channel switching by the
このように、本実施形態に係る画像処理装置は、複数の画像から構成された映像を示すデジタルコンテンツデータをデコードする再生手段を備え、上記デジタルコンテンツデータでは、映像における画像の順序とは異なる順序で、各画像をエンコードした画像データが並べられており、上記再生手段は、上記デジタルコンテンツデータに含まれる画像データをデコードして再生画像を生成した後、当該処理対象の再生画像に対応する画像と比較して、上記映像における順序が前の画像に対応する再生画像が未だデコードされていなければ、上記処理対象の再生画像を一時的に記憶し、上記未だデコードされていない再生画像をデコードした後に出力する画像再生装置において、上記一時的に記憶される再生画像に対して映像効果を付加する画像処理を施して出力する付加手段と、上記デジタルコンテンツデータの出力が指示された場合、上記付加手段からの出力を付加した後に上記再生手段からの出力を出力する出力制御手段とを備えている。 As described above, the image processing apparatus according to the present embodiment includes a reproducing unit that decodes digital content data indicating a video composed of a plurality of images, and the digital content data has an order different from the order of the images in the video. The image data obtained by encoding each image is arranged, and the reproduction means decodes the image data included in the digital content data to generate a reproduction image, and then generates an image corresponding to the reproduction image to be processed. If the playback image corresponding to the previous image in the video is not yet decoded, the playback image to be processed is temporarily stored, and the playback image that has not been decoded is decoded. In an image playback device to be output later, an image for adding a video effect to the temporarily stored playback image And adding means for outputting subjected to a treatment, when the output of the digital content data is instructed, and an output control means for outputting an output from said reproducing means after adding the output from said adding means.
上記の構成によれば、上記再生手段からの出力が出力されるようにも前に、付加手段からの出力が出力される。ここで、付加手段は、一時的に記録される先行画像、すなわち、上記映像での順序が前の画像の映像として最初に出力すべき再生画像が未だデコードされておらず、遅延して出力される再生画像に対して映像効果を付加している。したがって、付加手段は先行画像がデコードされた時点よりも後であれば、映像として最初に出力すべき再生画像がデコードされる時点、および、その後に設定される先行画像の出力時点よりも早い時点で、当該先行画像に映像効果を付加する処理を施すことができる。 According to the above configuration, the output from the adding unit is output before the output from the reproducing unit is output. Here, the adding means does not yet decode the preceding image that is temporarily recorded, that is, the reproduction image that should be output first as the image of the previous image in the above order, and is output with a delay. A video effect is added to the playback image. Therefore, if the adding means is later than the time point when the preceding image is decoded, the time point when the reproduced image to be output first as a video is decoded, and the time point earlier than the output time point of the preceding image set thereafter Thus, a process for adding a video effect to the preceding image can be performed.
したがって、映像再生装置は、出力を指示されたデジタルコンテンツデータの最初に先行画像が配されていた場合に、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも早い時点で、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した画像に映像効果を付加した再生画像を示す信号を出力できる。 Therefore, when the preceding image is arranged at the beginning of the digital content data that is instructed to be output, the video playback device is more than the time when the playback means decodes and outputs the playback image to be output first as video. At an early point, a signal indicating a reproduced image obtained by adding a video effect to an image generated by decoding image data in the digital content data instructed to be output can be output.
また、付加手段が出力する画像は、上記再生手段が映像として最初に出力すべき再生画像をデコードして出力する時点よりも後で出力すべき再生画像であるが、上記出力が指示されたデジタルコンテンツデータ中の画像データをデコードして生成した再生画像に映像効果を付加した画像である。したがって、当該デジタルコンテンツデータの出力が指示されるよりも前に出力が指示されていた画像と比較すると、多くの場合は、映像として最初に出力すべき再生画像に、より類似しているので、ユーザに与える違和感を軽減できる。 Further, the image output by the adding means is a reproduced image that should be output later than the time point when the reproducing means decodes and outputs the first reproduced image to be output as a video. This is an image obtained by adding a video effect to a reproduced image generated by decoding image data in content data. Therefore, in many cases, it is more similar to a reproduced image to be output first as a video, compared to an image instructed to be output before the output of the digital content data is instructed. The user feels uncomfortable.
さらに、付加手段が出力する画像には映像効果が付されているので、映像として最初に出力すべき再生画像と若干相違していたとしてもユーザは、その相違に気付き難い。これらの結果、デジタルコンテンツデータの出力を指示してから実際に画像が表示されるまでの間に、違和感の少ない画像を出力可能な画像再生装置を実現できる。 Furthermore, since the image output by the adding means has a video effect, even if it is slightly different from the reproduced image to be output first as a video, the user hardly notices the difference. As a result, it is possible to realize an image reproducing apparatus capable of outputting an image with less sense of incongruity between the time when the digital content data is output and the time when the image is actually displayed.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
なお、上記の実施形態では、イントラ符号化するイントラ符号化画像データ、すなわちIピクチャを用い、当該Iピクチャに対して、効果を付加した画像データを作成したが、必ずしもこれに限定されない。例えば、PピクチャおよびBピクチャを使用するものであっても構わない。PピクチャおよびBピクチャはそれ単体では完全に復号することはできないが、Pピクチャ及びBピクチャを使用することで、最初に出力するべき完全な画像に段階的に近似してゆく画像データを得ることができ、それらの画像をチャンネル切り替え時間の間に出力することで、上述と同様の効果を奏することが可能である。 In the above-described embodiment, intra-encoded image data to be intra-encoded, that is, an I picture is used, and image data in which an effect is added to the I picture is created. However, the present invention is not limited to this. For example, a P picture and a B picture may be used. P picture and B picture cannot be completely decoded by themselves, but by using P picture and B picture, it is possible to obtain image data that gradually approximates a complete picture to be output first. By outputting these images during the channel switching time, it is possible to achieve the same effects as described above.
さらにPピクチャやBピクチャを用いる場合には、前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされたPピクチャまたはBピクチャから不完全な再生画像を抽出し、前記先行画像として出力してもよい。PピクチャやBピクチャ単体から完全な映像のデコードは不可能であるが、完全な映像の一部をデコードすることができる。このような不完全な再生画像を抽出し、エフェクトを付加することで前記先行画像として用いることが可能である。 Further, in the case of using a P picture or a B picture, if the digital content data input to the input means is changed, an incomplete reproduced image is extracted from the P picture or B picture decoded first, It may be output as a preceding image. Although it is impossible to decode a complete picture from a single P picture or B picture, it is possible to decode a part of a complete picture. By extracting such an incomplete reproduced image and adding an effect, it can be used as the preceding image.
具体的には、デコード処理部26において、入力されたデータから不完全にデコードされた再生画像を画像データ保管部28に出力して保管する。デコード処理部26に保管された画像データは、上述の実施形態と同様に、効果付加処理部30および画像データ出力処理部40によって、任意のタイミングで参照される。効果付加処理部30は、画像データ保管部28にて保管された画像データを外部機器44に出力する際の効果を付加する処理を行う。
Specifically, in the
上記の構成によれば、上述の実施形態よりもさらに早く先行画像を出力することができ、かつ、不完全な再生画像に対してエフェクトを付加することによる違和感を軽減した映像を出力する画像処理装置20および受信装置10を実現することができる。
According to the above configuration, image processing that can output a preceding image earlier than the above-described embodiment, and that outputs a video with reduced discomfort by adding an effect to an incomplete reproduced image The
より詳細には、複数の画像から構成された映像をエンコードして作成された、複数の画像データから構成されたデジタルコンテンツ50を入力するための入力部22と、入力部22から受け取ったデジタルコンテンツ50を再生画像にデコードするデコード処理部26と、デコードした複数の再生画像を並び替えて映像として出力する画像データ出力処理部40とを備える画像処理装置20において、入力部22に入力されるデジタルコンテンツ50が変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する画像データ保管部28と、先行画像にエフェクトを付加して付加画像を生成する効果付加処理部30と、デジタルコンテンツ50が入力された際、先行画像がデコードされてからデコードした複数の再生画像を並び替えて映像として出力するまでの期間、付加画像を出力するように前記出力手段を制御するコンテンツ表示処理部16とをさらに備えている。
More specifically, an
上記の構成によれば、デジタルコンテンツ50をデコードし、映像を出力する際に行う処理に要する時間に、デジタルコンテンツ50に対するデコード処理を行った結果、入力される前記デジタルコンテンツ50が変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像に対してエフェクトを付加した付加画像を生成し、並べ替えを行った再生画像のデコードが完了するまでの待ち時間に出力する。これによって、並べ替えを行った再生画像が画像データ出力処理部40から出力されるより前に、効果付加処理部30からの付加画像が出力されるように制御される。
According to the above configuration, when the input digital content 50 is changed as a result of performing the decoding process on the digital content 50 during the time required for the processing performed when the digital content 50 is decoded and the video is output. , Playback that has been rearranged by generating an additional image with effects added to the incomplete playback image from image data that cannot be decoded completely, but can decode a part of the complete video Output during waiting time until image decoding is complete. Accordingly, the additional image from the effect
最後に、受信装置10の各ブロック、特に画像処理装置20に含まれるデコード処理部26、画像データ保管部28、効果付加処理部30、および画像データ出力処理部40は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
Finally, each block of the receiving
すなわち、本実施の形態に係る画像処理装置20は、実質的には、コンピュータハードウェアと、そのコンピュータハードウェアにより実行されるプログラムと、コンピュータハードウェアに格納されるデータとにより実現される。図10は、このコンピュータシステム200の内部構成を示すブロック図である。
That is, the
図10を参照して、このコンピュータシステム200は、光ディスクドライブ201および磁気ディスクドライブ202を有するコンピュータ220と、モニタ203と、リモートコントローラ(以下、「リモコン」と呼ぶ)204とを含む。
Referring to FIG. 10, a
コンピュータ220は、光ディスクドライブ201および磁気ディスクドライブ202に加えて、リモコン204からの信号を受信するリモコンインタフェース(I/F)205と、CPU(中央処理装置)206と、リモコンインタフェース205、CPU206、光ディスクドライブ201および磁気ディスクドライブ202に接続されたバス207と、バス207に接続され、ブートアッププログラム等を記憶する読出専用メモリ(ROM)208と、同じくバス207に接続され、プログラム命令、システムプログラム、および作業データ等を記憶するランダムアクセスメモリ(RAM)209とを含む。
In addition to the
ここでは示さないが、コンピュータ220はさらにローカルエリアネットワーク(LAN)への接続を提供するネットワークアダプタボードを含んでいてもよい。
Although not shown here, the
コンピュータシステム200に画像処理装置20の機能を実現させるためのプログラム、デジタルコンテンツ50、および画像データ60はいずれも、光ディスクドライブ201又は磁気ディスクドライブ202に挿入される光ディスク210又は磁気ディスク211に記憶され、さらにハードディスク212に転送される。又は、プログラム、デジタルコンテンツ50、および画像データ60は図示しないネットワークを通じてコンピュータ220に送信されハードディスク212に記憶されてもよい。プログラムは実行の際にRAM209にロードされる。光ディスク210から、磁気ディスク211から、又はネットワークを介して、直接にRAM209にプログラムをロードしてもよい。
A program for causing the
このプログラムは、コンピュータ220に本実施の形態に係る画像処理装置20の機能を実現させる複数の命令を含む。これら機能を実現させるのに必要な基本的機能のいくつかはコンピュータ220上で動作するオペレーティングシステム(OS)又はサードパーティのプログラム、若しくはコンピュータ220にインストールされる各種ツールキットのモジュールにより提供される。したがって、このプログラムはこの実施の形態に係る画像処理装置20の機能を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又は「ツール」を呼出すことにより、上記した画像処理装置20の制御を実行する命令のみを含んでいればよい。コンピュータシステム200の動作は周知であるので、ここでは繰り返さない。
This program includes a plurality of instructions for causing the
なお、画像処理装置20の機能を実現するためのプログラム、デジタルコンテンツ50、および画像データ60が記録される記録媒体は、CD−ROM(Compact Disc Read Only Memory)、MO(Magneto Optical Disk)、MD(Mini Disc)、およびDVD(Digital Versatile Disk)等の光ディスク210、FD(Floppy(登録商標) Disk)およびハードディスク等の磁気ディスク211に限らない。
A recording medium on which the program for realizing the functions of the
あるいは、磁気テープおよびカセットテープ等のテープ、ICカードおよび光カード等のカード型記録媒体、並びにマスクROM、EPROM(Erasable Programable Read Only Memory)、EEPROM(Electrically Erasable Programable Read Only Memory)、およびフラッシュROM等の半導体メモリのいずれかでもよい。ただし、コンピュータシステム200は、これら記録媒体からの読出を行うための読出装置が必要となる。
Alternatively, tapes such as magnetic tapes and cassette tapes, card-type recording media such as IC cards and optical cards, mask ROM, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read Only Memory), flash ROM, etc. Any of these semiconductor memories may be used. However, the
なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。 The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
なお、上記外部機器と表示装置とに出力する映像データが異なっていてもよい。 Note that the video data output to the external device and the display device may be different.
本発明は、デコード終了後に出力する画像になだらかに繋がる、違和感の少ない画像を生成して出力するので、チャンネル切り替えなどの際に生じる、デジタルコンテンツデータのデコードなどの処理に要する時間に、ユーザが感じる心理的負担を軽減することができるので、デジタルコンテンツをデコードするデコード装置、およびデジタル放送を鑑賞するためのデジタル放送受信端末装置などの用途にも適用することができる。 Since the present invention generates and outputs an image that is smoothly connected to an image to be output after the completion of decoding and has a less uncomfortable feeling, the user can reduce the time required for processing such as decoding of digital content data that occurs at the time of channel switching or the like. Since the psychological burden to be felt can be reduced, the present invention can be applied to uses such as a decoding device for decoding digital contents and a digital broadcast receiving terminal device for watching digital broadcasting.
1 放送システム
10 受信装置
12 コンテンツ受信部(受信手段)
14 チャンネル切り替え部
16 コンテンツ表示処理部(出力手段)
20 画像処理装置
22 入力部(入力手段)
24 コンテンツ蓄積部
26 デコード処理部(再生手段)
28 画像データ保管部(抽出手段)
30 効果付加処理部(付加手段)
31 解像度調整処理部
32 画像データ処理部
33 明度調整処理部
34 画像データ処理部
35 彩度調整処理部
36 画像データ処理部
37 ぼかし度調整処理部
38 画像データ処理部
39 画像データ結合処理部
40 画像データ出力処理部(出力制御手段)
42 デジタルコンテンツ提供サーバ(送信装置)
44 外部機器
46 表示装置
48 ユーザ
50 デジタルコンテンツ
60 画像データ
200 コンピュータシステム
201 光ディスクドライブ
202 磁気ディスクドライブ
203 モニタ
204 リモートコントローラ
204 リモコン
205 リモコンインタフェース
206 CPU
207 バス
208 読出専用メモリ
209 RAM
209 ランダムアクセスメモリ
210 光ディスク
211 磁気ディスク
212 ハードディスク
220 コンピュータ
DESCRIPTION OF
14
20
24
28 Image data storage (extraction means)
30 Effect addition processing part (addition means)
31 Resolution
42 Digital content providing server (transmitting device)
44
207
209
Claims (14)
デコードした時点ですぐに出力しない再生画像を先行画像として抽出する抽出手段と、
前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備え、
前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴とする画像処理装置。 An input means for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and the digital content data received from the input means are decoded into reproduced images. In an image processing apparatus comprising: a reproducing unit that outputs; and an output unit that rearranges the plurality of decoded reproduced images and outputs the rearranged images.
Extraction means for extracting a reproduced image that is not output immediately upon decoding as a preceding image;
An adding means for generating an additional image by adding an effect to the preceding image;
When the digital content data is input, the output means is controlled to output the additional image during a period from when the preceding image is decoded to when the decoded plurality of reproduced images are rearranged and output as video. And an output control means for
An image processing apparatus, wherein when the digital content data input to the input means is changed, a reproduced image that is decoded first is extracted as the preceding image.
前記入力手段に入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出する抽出手段と、
前記先行画像にエフェクトを付加して付加画像を生成する付加手段と、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように前記出力手段を制御する出力制御手段とをさらに備えることを特徴とする画像処理装置。 An input means for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and the digital content data received from the input means are decoded into reproduced images. In an image processing apparatus comprising: a reproducing unit that outputs; and an output unit that rearranges the plurality of decoded reproduced images and outputs the rearranged images.
When the digital content data input to the input means is changed, an incomplete reproduced image is converted from an image data that cannot be completely decoded but can be partially decoded. Extraction means for extracting as:
An adding means for generating an additional image by adding an effect to the preceding image;
When the digital content data is input, the output means is controlled to output the additional image during a period from when the preceding image is decoded to when the decoded plurality of reproduced images are rearranged and output as video. And an output control means.
前記出力制御手段は、前記先行画像との近似度が高くなって行く順序で前記付加画像を出力するように制御することを特徴とする請求項1または4に記載の画像処理装置。 The adding means generates one or more additional images by adding an effect of changing a parameter of the preceding image,
The image processing apparatus according to claim 1, wherein the output control unit performs control so that the additional image is output in an order in which the degree of approximation with the preceding image increases.
デコードした時点ですぐに出力しない再生画像を先行画像として抽出するステップと、
前記先行画像にエフェクトを付加して付加画像を生成するステップと、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備え、
前記入力するステップに入力される前記デジタルコンテンツデータが変更された場合、最初にデコードされた再生画像を前記先行画像として抽出することを特徴とする画像処理方法。 A step of inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images; a step of decoding the input digital content data into a reproduced image; and a decoding An image processing method comprising: rearranging a plurality of the reproduced images and outputting as a video image,
Extracting a reproduced image that is not output immediately upon decoding as a preceding image;
Adding an effect to the preceding image to generate an additional image;
When the digital content data is input, controlling to output the additional image during a period from when the preceding image is decoded until a plurality of decoded playback images are rearranged and output as video. In addition,
An image processing method, wherein when the digital content data input in the input step is changed, a reproduced image that is decoded first is extracted as the preceding image.
入力される前記デジタルコンテンツデータが変更された場合、完全な映像のデコードは不可能だが完全な映像の一部をデコードすることが可能な画像データから不完全な再生画像を先行画像として抽出するステップと、
前記先行画像にエフェクトを付加して付加画像を生成するステップと、
前記デジタルコンテンツデータが入力された際、前記先行画像がデコードされてからデコードした複数の前記再生画像を並び替えて映像として出力するまでの期間、前記付加画像を出力するように制御するステップとをさらに備えることを特徴とする画像処理方法。 A step for inputting digital content data composed of a plurality of image data created by encoding a video composed of a plurality of images, and a step of decoding the input digital content data into a reproduced image; An image processing method comprising a step of rearranging a plurality of decoded reproduced images and outputting as a video,
A step of extracting an incomplete reproduced image as a preceding image from image data in which complete video cannot be decoded but part of the complete video can be decoded when the input digital content data is changed When,
Adding an effect to the preceding image to generate an additional image;
When the digital content data is input, controlling to output the additional image during a period from when the preceding image is decoded until a plurality of decoded playback images are rearranged and output as video. An image processing method further comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006018144A JP4672561B2 (en) | 2006-01-26 | 2006-01-26 | Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006018144A JP4672561B2 (en) | 2006-01-26 | 2006-01-26 | Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2007201831A JP2007201831A (en) | 2007-08-09 |
| JP4672561B2 true JP4672561B2 (en) | 2011-04-20 |
Family
ID=38455966
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006018144A Expired - Fee Related JP4672561B2 (en) | 2006-01-26 | 2006-01-26 | Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4672561B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5521690B2 (en) * | 2010-03-26 | 2014-06-18 | 日本電気株式会社 | Screen data distribution system, server, screen data distribution method, and program |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3469705B2 (en) * | 1996-03-12 | 2003-11-25 | 三洋電機株式会社 | Decoding circuit for multiplexed video signal |
| JP4337244B2 (en) * | 2000-07-25 | 2009-09-30 | ソニー株式会社 | MPEG image stream decoding apparatus and decoding method |
| JP3631123B2 (en) * | 2000-10-03 | 2005-03-23 | 三洋電機株式会社 | Digital broadcast receiver |
| JP4043406B2 (en) * | 2002-06-07 | 2008-02-06 | 三洋電機株式会社 | Image decoding method and apparatus, and television receiver capable of using them |
-
2006
- 2006-01-26 JP JP2006018144A patent/JP4672561B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2007201831A (en) | 2007-08-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3157242B1 (en) | Display system, display method, and display device | |
| US9554132B2 (en) | Video compression implementing resolution tradeoffs and optimization | |
| US6493036B1 (en) | System and method for scaling real time video | |
| US9516311B2 (en) | Chroma information signaling for video streams | |
| JP4564613B2 (en) | Image processing apparatus, television receiver, and image processing method | |
| US8731285B1 (en) | Systems and methods for identifying a video aspect-ratio frame attribute | |
| US10244215B2 (en) | Re-projecting flat projections of pictures of panoramic video for rendering by application | |
| US6996838B2 (en) | System and method for media processing with adaptive resource access priority assignment | |
| US8139081B1 (en) | Method for conversion between YUV 4:4:4 and YUV 4:2:0 | |
| CN109640167B (en) | Video processing method, device, electronic device and storage medium | |
| US8665372B2 (en) | Method and system for key aware scaling | |
| JP2011175085A (en) | Display driving circuit | |
| JP2018191269A (en) | Method and apparatus for reconstructing image data from decoded image data | |
| US9161030B1 (en) | Graphics overlay system for multiple displays using compressed video | |
| CN102714028B (en) | A digital video signal, a method for encoding of a digital video signal and a digital video signal encoder | |
| JPH1079941A (en) | Image processing device | |
| US8817881B1 (en) | Video processing apparatus and video processing method | |
| US20190172416A1 (en) | Image processing apparatus and image processing method | |
| US9053752B1 (en) | Architecture for multiple graphics planes | |
| US20250106437A1 (en) | Sei message for film grain synthesis | |
| JPWO2009093557A1 (en) | Multi-screen display device | |
| JP4672561B2 (en) | Image processing apparatus, receiving apparatus, broadcast system, image processing method, image processing program, and recording medium | |
| JP2002218472A (en) | Device and method for decoding variable image rate | |
| US20120051426A1 (en) | Code amount reducing apparatus, encoder and decoder | |
| CN1914902A (en) | Changing the aspect ratio of images to be displayed on a screen |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080220 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110111 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110119 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140128 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |