[go: up one dir, main page]

WO2005101819A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2005101819A1
WO2005101819A1 PCT/JP2004/005218 JP2004005218W WO2005101819A1 WO 2005101819 A1 WO2005101819 A1 WO 2005101819A1 JP 2004005218 W JP2004005218 W JP 2004005218W WO 2005101819 A1 WO2005101819 A1 WO 2005101819A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
frame
correction
video
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/005218
Other languages
English (en)
French (fr)
Inventor
Yuka Fujita
Toshiyuki Takahashi
Atsushi Hori
Koichi Hiramatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to CNB2004800427285A priority Critical patent/CN100531340C/zh
Priority to JP2006512214A priority patent/JPWO2005101819A1/ja
Priority to EP04726899A priority patent/EP1715681A4/en
Priority to US10/589,903 priority patent/US7830400B2/en
Priority to PCT/JP2004/005218 priority patent/WO2005101819A1/ja
Publication of WO2005101819A1 publication Critical patent/WO2005101819A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44012Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Definitions

  • the present invention relates to a display device for displaying a composite image obtained by combining monomedia such as moving images, characters / graphics, and still images.
  • a conventional display device that displays a composite image obtained by combining monomedia such as moving images, characters / graphics, and still images, for example, as disclosed in JP-A-2001-175239
  • the display attributes of non-attention windows are changed, such as lowering the luminance / frame rate of non-attention windows, reducing the window size, etc., to provide a composite video display that is easy for viewers to see. .
  • the present invention has been made in order to solve the above-described problem.
  • An area having a difference between frames is set as a window of interest, and high-quality image processing is performed on the window of interest.
  • An object of the present invention is to provide a display device that realizes high-quality display according to the intention of a person who has performed a window presentation instruction on the entire screen by implementing the present invention. Disclosure of the invention
  • a display device is a scaling device for inputting a plurality of mono-media data and presentation style data describing a presentation style of a frame of each of the mono-media data, and synthesizing the mono-media data.
  • Video presentation means for generating composite control information and composing each of the above-mentioned mono-media data to produce a composite video frame, and predetermined mono-media data in the composite video frame based on the scaling / composition control information.
  • the correction target area is obtained, the frame ⁇ ⁇ difference in this correction target area is obtained, correction data is generated, and the above-described complementary IE target area is subjected to high image quality processing using the generated correction data to generate a display video frame. It is provided with a high-quality image processing unit and an image display means for displaying the generated display image frame.
  • FIG. 1 is a block diagram showing a configuration of a display device according to Embodiment 1 of the present invention.
  • FIG. 2 is a block diagram showing the internal configuration of the image presentation means of the display device according to Embodiment 1 of the present invention.
  • FIG. 3 is a block diagram showing the internal configuration of the high-quality image display means of the display device according to Embodiment 1 of the present invention.
  • FIG. 4 is a diagram showing an example of a synthesized video frame synthesized by the video presentation means of the display device according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing the image display means of the display device according to Embodiment 1 of the present invention.
  • FIG. 14 is a diagram illustrating an example of an output frame. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram showing a configuration of a display device according to Embodiment 1 of the present invention.
  • the display device 1 includes a video presenting unit 10, an image quality improving unit 20, and a video display unit 30.
  • the video presenting means 10 receives video data 101 and data broadcasting service data 102 from a digital broadcasting service center to receive moving image data, character / graphic data, still image data, and the like. Input the presentation style data that describes the presentation style of multiple D mono-media data and the frame of each mono-media data, generate scaling / synthesis control information for combining the mono-media data, and generate each mono-media data. Are combined to generate a combined video frame 103. Based on the scaling Z synthesis control information 111, the image quality improving unit 20 determines the correction target area of the predetermined monomedia data in the composite video frame 103, and calculates the (inter-frame difference in the O correction target area).
  • the video display means 30 displays O from the high-quality improvement means 20. Display video frame 104 on a video display panel or the like.
  • FIG. 2 is a block diagram showing the internal configuration of the video presenting means 10.
  • the O-video presenting means 10 includes a data broadcasting browser 11, a moving picture plane buffer factory 14, a character Z figure plane buffer 15, a still picture plane buffer 16 and a scaling / synthesizing means 17.
  • data broadcasting The user 11 has a graphic title reproducing means 12 and a style analyzing means 13.
  • the data broadcast browser 11 is a presentation style data that describes the presentation style of mono-media and frames, such as characters, graphic data, still image data, etc., contained in the input data broadcast service data 102. Separate the media and play the separated mono-media, analyze the separated presentation style data, and scale each of the mono-media data such as video data, text / graphic data, and still image data / compositing method Generates scaling / synthesis control information 1 1 1 1 1
  • the graphics reproducing means 12 is built in the data broadcasting browser 11, and reproduces mono-media data such as character / graphic data and still image data contained in the data broadcasting service data 102.
  • the style analysis means 13 is provided in the data broadcasting browser 11 and analyzes presentation style data describing the presentation style of the frame included in the data broadcasting service data 102. Scaling for each piece of mono-media data such as data and still image data ⁇ Scaling synthesis control information indicating the synthesis method 1 11 1.
  • the video plane buffer 14 is inputted video data 10 0 which is input video data.
  • FIG. 3 is a block diagram showing the internal configuration of the image quality improving means 20.
  • the high image quality improving means 20 includes correction area management means 21, encoding means 22, delayed month frame buffer 23, previous frame decoding means 24, current frame decoding means 25, and correction data generating means. 26 and image correction means 27.
  • the capturing area management means 21 receives the scaling Z synthesis control information 111 for each monomedia from the video presenting means 10, and outputs the information of the total video frame 103.
  • the correction target area of the predetermined monomedia data is obtained, and the necessary minimum compression ratio in the correction target area is obtained to generate the correction target area Z compression rate information 112.
  • the encoding means 22 inputs the total video frame 103, and the compression target area indicated by the correction target area specified by the correction pair component area / compression ratio information 112 from the correction area management means 21. Encode by rate.
  • the delay frame buffer 23 stores the encoded data from the encoding means 22 and delays it by one frame. It is assumed that the memory capacity of the delay frame buffer 23 is 1 frame or less of the composite video frame 103 and, for example, has a capacity of only 1/4 frame of the composite video frame 103. This is because the amount of data for one frame of the composite video frame 103 is very large, and a huge memory capacity is required to store one frame.
  • the previous frame decoding means 24 stores the 1 frame stored in the delay frame buffer 23 at the compression rate indicated by the correction rate information 1 12 from the correction area management means 21. And decodes the encoded data delayed by the time.
  • the current frame decoding means 25 decodes the encoded data from the encoding means 22 at the compression rate specified by the correction target area / compression rate information 112 from the normal area management means 21.
  • the data generation means 26 receives the decoded data from the previous frame decoding means 24 and the current frame decoding means for the correction target area designated by the correction target area / compression ratio information 112 from the correction area management means 21. 25. Compare the decoded data from 5 to determine the difference between frames, and generate correction data corresponding to the calculated difference between frames.
  • the image correction unit 27 converts the correction target region in the composite video frame 103 specified by the correction target region Z compression ratio information 112 from the correction region management unit 21 from the correction data generation unit 26. Then, the image data is corrected by the correction data, the image quality is enhanced, and a display video frame 104 is generated and output to the video display means 30.
  • the previous frame decoding means 24 and the current frame decoding means 25 are equipped with the same processing functions.
  • the video data 101 for one frame transmitted from the digital broadcasting service center is stored in the video plane buffer 14 of the video presenting means 10.
  • the data broadcasting browser 11 of the video presenting means 10 inputs the data broadcasting service data 102 transmitted from the digital broadcasting service center, and transmits mono data such as character / graphic data and still image data.
  • the presentation style data that describes the presentation style of the frame is separated.
  • scale information, arrangement information, text information such as character colors and fonts, and superimposition information of a still image, etc., for presenting each monomedia data in a frame are described in text. I have.
  • the graphics reproducing means 12 reproduces the separated character Z graphic data and the mono-media data of the still image data, and stores them in the character / graphic plane buffer 15 and the still image plane buffer 16 respectively.
  • the style analysis means 13 analyzes the presentation style data in the data broadcasting service data 102 and obtains each model such as video data, character / graphic data, and still image data. Scaling for no-media z Scaling / synthesis control information 1 1 1 for each mono-medium data indicating the synthesis method is generated. In the scaling / synthesis control information 111, scale information, arrangement information, synthesis information, and the like for presenting each piece of monomedia data are described in the data structure of the display device 1.
  • the scaling / synthesizing means 17 is based on the style analysis means 13 based on the scaling Z synthesis control information 111, and is based on the video plane buffer 14, character character figure plane buffer 15 and still image plane.
  • Puffer 16 Scales and combines moving image data, character Z figure data, and still image data stored in each of them to generate composite video frame 103.
  • FIG. 4 is a diagram showing an example of a synthesized video frame 103 synthesized by the scaling synthesizing means 17 of the video presenting means 10.
  • the video presenting means 10 repeatedly performs the above processing for each frame of the input video data 101 to generate a composite video frame 103.
  • the correction area management means 21 sets in advance which mono-media data area of the composite video frame 103 input to the high image quality improvement means 20 is to be targeted as an E target. Shall be. For example, it is assumed that an area such as moving image data which is monomedia data in which there is a difference between frames between all frames is set as a correction target. Then, the correction area management means 21 inputs the scaling / synthesis control information 111 for each mono-media data from the video presenting means 10 and scales the mono-media data set as the correction target. When the input of the tuning / synthesis control information 1 1 1 is input, the correction target area of the set correction target is obtained, and it is necessary from the obtained correction target area and the memory capacity of the delay frame buffer 23. Calculate the minimum compression ratio and generate the correction target area Z compression ratio information 1 1 2 The encoding means 22, the previous frame decoding means 24, the current frame decoding means 25, the correction data generation means 26 and the video correction means 27 are notified.
  • the calculation of the compression ratio will be specifically described using an example in which the memory capacity of the delay frame buffer 23 has a capacity of 1/4 of one frame of the composite video frame 103. I do.
  • the area to be corrected is one frame in its entirety, the compression ratio for that frame is 1/4.
  • two pixels vertically and two pixels horizontally hereinafter referred to as 2 x 2 pixels, etc.
  • the area is compressed and coded to a capacity of 1 X 1 pixel.
  • the area to be corrected is an area that is 1/4 of one frame, the compression ratio for this is 1, which means that it can be treated as non-compressed.
  • the encoding means 22 of the high image quality improving means 20 receives the first synthesized video frame 103 from the video presenting means 10 and cuts it out, for example, every 8 ⁇ 8 bits, and corrects it. 2 Correction area from 1 Z fixed rate encoding is performed on the correction area indicated by the compression rate information 1 1 2 at the specified compression rate, and the first encoded data is transferred to the delay frame buffer 2 3 Store in.
  • the encoding means 22 repeatedly executes, for example, fixed-length encoding of, for example, 8 ⁇ 8 bits, and obtains first encoded data in the correction target area for one frame of the first synthesized video frame 103. Is stored in the delay frame buffer 23.
  • the first synthesized video frame 103 from the video presentation means 10 is also input to the video correction means 27.
  • the video correction means 27 converts the input first synthesized video frame 103 into the display video frame 104 as it is. Then, the image is output to the video display means 30, and the video display means 30 displays the uncorrected display video frame 104.
  • the second composite image frame as the second frame from the video presenting means 10 is input will be described.
  • the previous frame decoding means 24 takes out, for example, the first coded data stored in the delay frame buffer 23 and corrects the correction target area / compression rate information 1 from the minor area management means 21. Fixed-length decoding is performed at the compression ratio specified by 12 and the first decoded data of 8 ⁇ 8 bits is output to the complementary IE data generating means 26.
  • the encoding means 22 inputs the second composite video frame 103 which is the second frame from the video presentation means 10, and cuts out, for example, every 8 ⁇ 8 bits,
  • the correction target area specified by the sugar correction target area Z compression rate information 112 from the correction area management means 21 is fixed-length coded at the specified compression rate, and the second encoded data is The data is stored in the empty area of the delay frame buffer 23, and the second encoded data is output to the preview frame decoding means 25.
  • the current frame decoding means 25 decodes, for example, the second encoded data at a fixed length at the compression rate indicated by the correction target area ⁇ compression rate information 112 from the correction area management means 21.
  • the 8 ⁇ 8-bit second decoded data is output to the correction data generating means 26.
  • the correction data generating means 26 includes, for example, the 8 ⁇ 8-bit first decoded data output from the previous frame decoding means 24 and the 8 ⁇ 8-bit first decoded data output from the current frame decoding means 25.
  • the inter-frame difference is obtained by comparing the second decoded data, and optimal complement IE data is generated from the obtained inter-frame difference.
  • the correction data generation means 26 is configured to generate correction data specialized for gradation
  • the correction target In order to optimize the gradation value of the target pixel in accordance with the calculated frame difference, Generate.
  • the correction data generating means 26 generates correction data relating to values of display attributes such as gradation and luminance obtained from the inter-frame difference of the correction target area.
  • Decoding processing of the first encoded data stored in the delay frame buffer 23 by the previous frame decoding means 24, and the current frame for the second encoded data encoded by the encoding means 22 The decoding processing by the decoding means 25 and the correction data generation processing by the correction data generation stage 26 for every 8 ⁇ 8 bits are repeatedly executed, and the correction data generation means 26 outputs the correction data for one frame. It is generated and output to the image correction means 27.
  • the image correction means 27 converts the correction target area in the second composite image frame designated by the correction target area / compression rate information 112 from the correction area management means 21 from the correction data generation means 26.
  • the image data is corrected with the captured data and the image quality is enhanced, and a display video frame 104 is generated and output to the video display means 30.
  • the image display means 30 displays the corrected display image frame 104 output from the high-quality image enhancement means 20 to realize high-quality image display. Can be.
  • digital broadcasting data broadcasting services for example, as shown in Fig. 4, video presentation, video broadcasting, still picture, text / graphic areas, etc. are broadcast, received, and played back as digital information, and the data broadcasting browser 11 is included. By means 10, they are arranged on one screen and synthesized to improve the broadcasting service.
  • digital broadcasting instead of synthesizing and broadcasting frames at a broadcasting station as in analog broadcasting, monomedia data individually broadcasted from a digital broadcasting service center is decoded into individual S on the receiving side. And It is composed on a single screen by Kaliningno synthesis.
  • moving image data is set as a correction target in the correction area management means 21.
  • the character Z graphic data may be set as a correction target.
  • the presentation style data when the presentation style data is included in the content, such as a digital broadcasting data broadcasting service, or when the presentation style of the frame is determined by the instruction of a user such as a personal computer, etc.
  • the display style data may be generated in the display device 1 or the personal computer and provided to the style analysis means 13.
  • the presentation style of the frame is changed.
  • the style analysis means 13 of the data broadcast browser 11 changes the scaling Z synthesis control information 111.
  • the user gives instructions to the style analysis means 13 by operating a personal computer or the like to change the scaling Z synthesis control information 1 1 1.
  • the style analysis means 13 of the video presentation means 10 analyzes the presentation style data when the changed presentation style data is acquired, and changes the changed scaling Z composition control information for each mono media data. Raw 1 1 1 To achieve. Further, the correction area management means 21 of the high image quality improvement means 20 receives the changed scaling / synthesis control information 111 and generates the changed correction target area / compression ratio information 112. The image quality improving means 20 performs the image quality improving process on the composite video frame 103 in the same manner as described above, so that the image quality improving process corresponding to the change of the presentation style can be performed.
  • the frame may transition to a full-screen video display frame.
  • FIG. 5 is a diagram showing an example of a frame output from the scaling synthesizing unit 17 of the video presenting unit 10, which is a frame of a data broadcast display OF F Z full-screen moving image display.
  • the display is significantly changed in this way, it is necessary to execute the high-quality image processing on the entire screen according to the concept of the high-quality image processing described above. It is not possible to recognize a slight increase in image quality, etc.
  • the correction area management means 21 regenerates the correction target area Z compression ratio information 112 when the changed scaling Z synthesis control information 111 is inputted, and Comparing the correction target area Z compression rate information 1 1 2 before the change and the correction target area / compression rate information 1 1 2 after the change to the newly generated current frame, when there is a significant change, For each component in the image quality improving means 20, new correction target area Z compression ratio information 112 is output. Then, the correction data generation circuit 26 significantly changes the presentation style of the frame based on the correction target area / compression ratio information 112 before the change and the correction target region compression ratio information 112 after the change. If it is detected that there is a change in the correction target area, the frame corresponding to the Z compression ratio information 112 In this case, the frame difference detection process from the previous frame and the generation process of the correction data are not performed.
  • the correction data generation unit 26 does not perform the frame difference detection processing and the correction data generation processing.
  • the high image quality Any configuration may be used as long as the configuration does not implement the above. For example, if there is no previous frame such as the beginning of a table, the encoded data stored in the delay frame buffer 23 cannot be used, so a signal indicating that this is the first input frame may be prepared. However, by using this signal, the scaling / synthesis control information 1 1
  • the video presenting means 10 receives a plurality of mono-media data and presentation style data describing the presentation style of the frame of each mono-media data, and inputs each mono-media data.
  • a scaling Z composition control for composing media data is generated, a composite video frame is produced by composing each piece of mono-media data, and the image quality enhancement means 20 is used for scaling Z composition control information 11
  • a skirt correction target area of predetermined mono-media data in the composite video frame 103 is obtained, a difference between frames in the correction target area is obtained, and correction data is generated.
  • generating a display video frame 104 by processing the correction target area to high image quality, the intention of the person who gave the window presentation instruction to the entire screen was followed. The effect is obtained that it is possible to image quality display realized.
  • the surface quality enhancement means 20 only needs to perform encoding / decoding processing on only the correction target area having a difference between frames, so that the processing can be performed at a high speed and the correction target area Depending on the size, note the delay frame buffer 23 in the image quality improvement means 20! ; Lower compression ratio without changing capacity As a result, image quality deterioration due to encoding / decoding can be reduced, and an effect that higher-quality image display can be performed on the image display means 30 can be obtained.
  • the style analyzing means 13 of the video presenting means 10 when the presentation style is changed, the style analyzing means 13 of the video presenting means 10 generates the changed scaling information synthesis control information 11 1, and the image quality improving means 20
  • the correction area management means 21 generates the corrected correction target area / compression ratio information 1 12, and the high-quality means 20 performs the high-quality processing, thereby providing a presentation style. Even when the display is changed, it is possible to achieve a high-quality display according to the intention of the person who has performed the window presentation instruction on the entire screen.
  • the image quality improving means 20 when the presentation style is largely changed, the image quality improving means 20 does not execute the image quality improving process with little visual effect. This has the effect of increasing the efficiency of the processing.
  • the display device corrects the correction target area having the inter-frame difference and performs the high image quality processing, thereby performing the window presentation instruction for the entire screen. It is suitable for realizing high-quality display according to.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Digital Computer Display Output (AREA)

Abstract

 複数のモノメディアデータと各モノメディアデータのフレームの提示スタイルを記述した提示スタイルデータを入力し、各モノメディアデータを合成するためのスケーリング/合成制御情報111を生成し、各モノメディアデータを合成して合成映像フレーム103を生成する映像提示手段10と、スケーリング/合成制御情報111に基づき、合成映像フレーム103における所定のモノメディアデータの補正対象領域を求め、この補正対象領域におけるフレーム間差分を求めて補正データを生成し、生成した補正データにより補正対象領域を高画質化処理して表示用映像フレーム104を生成する高画質化手段20と、表示用映像フレーム104を表示する映像表示手段30とを備えた表示装置。

Description

明 細 書 表示装置 技術分野
この発明 fま動画、 文字/図形、 静止画等のモノメディアを合成した合 成画像を表;^する表示装置に関するものである。 背景技術
動画、 文字/図形、 静止画等のモノメディアを合成した合成画像を表 示する従来の表示装置では、 例えば特開 2 0 0 1 - 1 7 5 2 3 9号公報 に示すように、 眼球疲労等の低減のため、 非注目ウィンドウの輝度ゃフ レーム レー卜 を下げたり、 ウィンドウサイズを小さくする等、 非注目 ゥ ィンドウの表示属性を変えて、 視聴者に見やすい合成映像表示を提供し ている。
従来の表^:装置は以上のよ うに構成されているので、 輝度ゃフレーム レー トを下げ、たり、 ウィンドウサイズを小さくするといつた非注目 ウイ ンドウの表 属性を変えているために、 画面全体に対してウイ ンドウ提 示指示を行ったコンテンッの制作者ゃパソコンのユーザの意図に従わな い低画質な表示を行ってしま う という課題があった。
この発明 fま上記のような課題を解決するためになされたもの で、 フ レ ーム間差分のある領域を注目 ウイ ドウと して、 該注目ウィン ドウに対 して高画質ィ匕処理を実施することにより、 画面全体に対してゥ インドウ 提示指示を行った人の意図に従った高画質な表示を実現する表示装置を 得ることを目 的とする。 発明の開示
この発明に係る表示装置は、 複数のモノメディァデータと上記各モノ メディアデータのフ レームの提示スタイルを記述した提示スタ イルデー タを入力し、 上記各モノメディァデータを合成するためのスケ一リ ング z合成制御情報を生成し、 上記各モノメディァデータを合成して合成映 像フレームを生成する映像提示手段と、 上記スケーリング / ^成制御情 報に基づき、 上記合成映像フ レームにおける所定のモノメディ ァデータ の補正対象領域を求め、 この補正対象領域におけるフ レーム閬差分を求 めて補正データを生成し、 生成した補正データにより上記補 IE対象領域 を高画質化処理して表示用映像フレームを生成する高画質化^段と、 生 成された上記表示用映像フ レームを表示する映像表示手段とを備えたも のである。
この発明により、 画面全体に対してウインドウ提示指示を忭つた人の 意図に従った高画質な表示を実現することができるという効^ が得られ る。 図面の簡単な説明
第 1図はこの発明の実施の形態 1による表示装置の構成を^すブロッ ク図である。
第 2図はこの発明の実施の形態 1による表示装置の映像提^手段の内 部構成を示すブロック図である。
第 3図はこの発明の実施の形態 1による表示装置の高画質ィ匕手段の内 部構成を示すプロック図である。
第 4図はこの発明の実施の形態 1による表示装置の映像提^手段によ り合成された合成映像フ レームの例を示す図である。
第 5図はこの発明の実施の形態 1 による表示装置の映像提^手段から 出力されたフ レームの例を示す図である。 発明を実施するための最良の形態
以下、 この発明をより詳細に説明するために、 この発明を実施する こ めの最良の形態について、 添付の図面に従って説明する。
実施の形態 1 .
第 1図はこの発明の実施の形態 1による表示装置の構成を示すプロ ク図である。 この表示装置 1は、 映像提示手段 1 0、 高画質化手段 2 O 及び映像表示手段 3 0を備えている。
第 1図において、 映像提示手段 1 0はデジタル放送サービスセンタカ らのビデオデータ 1 0 1 とデータ放送サービスデータ 1 0 2を入力す ことにより、 動画データ、 文字/図形データ、 静止画データ等の複数 D モノメディアデータと各モノメディアデータのフレームの提示スタイノレ を記述した提示スタィルデータを入力し、 各モノ メディァデータを合 するためのスケーリ ング/合成制御情報 1 1 1を生成し、 各モノメデ ァデータを合成して合成映像フレーム 1 0 3を生成する。 高画質化手 2 0はスケーリ ング Z合成制御情報 1 1 1に基づき、 合成映像フレー 1 0 3における所定のモノメディァデータの補正対象領域を求め、 こ (O 補正対象領域におけるフレーム間差分を求めて捕正データを生成し、 成した補正データにより補正対象領域を高画質化処理して表示用映像ァ レーム 1 0 4を生成する。 映像表示手段 3 0は高画質化手段 2 0から O 表示用映像フ レーム 1 0 4を映像表示パネル等によ り表示する。
第 2図は映像提示手段 1 0の内部構成を示すプロック図である。 こ O 映像提示手段 1 0は、 データ放送ブラゥザ 1 1、 動画プレーンバッフ厂 1 4、 文字 Z図形プレーンバッファ 1 5、 静止画プレーンバッファ 1 6 及びスケーリ ング /合成手段 1 7を備えている。 また、 データ放送ブテ ゥザ 1 1はグラフイ ツタス再生手段 1 2及ぴスタイル解析手段 1 3を えている。
第 2図において、 データ放送ブラウザ 1 1は入力されるデータ放送サ 一ビスデータ 1 0 2に含まれている文字 Ζ図形データ、 静止画データ等 のモノメディアとフレームの提示スタィルを記述した提示スタィルデー タを分離し、 分離したモノメディアを再生すると共に、 分離した提示ス タイルデータを解析して、 動画データ、 文字 Ζ図形データ、 静止画デー タ等のモノメディアデータそれぞれについてのスケーリ ング Ζ合成方法 を示すスケーリング /合成制御情報 1 1 1 を生成する。 グラフィックス 再生手段 1 2は、 データ放送ブラゥザ 1 1 に内蔵され、 データ放送サー ビスデータ 1 0 2に含まれている文字/図形データ、 静止画データ等 モノメディァデータを再生する。 スタイル解析手段 1 3は、 データ放 ブラウザ 1 1に内蔵され、 データ放送サービスデータ 1 0 2に含まれ" C いるフ レームの提示スタイルを記述した提示スタイルデータを解析し 、 動画データ、 文字/図形データ、 静止画データ等のモノメディアデー タそれぞれについてのスケーリ ング ζ合成方法を示すスケーリ ングノ^ 成制御情報 1 1 1を生成する。 動画プレーンバッファ 1 4は入力され 動画データであるビデオデータ 1 0 1 をスケーリ ング /合成手段 1 7 ^ スケーリ ング /合成処理するまで格納する。 文字/図形プレーンバッフ ァ 1 5はグラフイ ツクス再生手段 1 2から出力される文字/図形デー^ をスケーリ ング /合成手段 1 7がスケーリ ング Ζ合成処理するまで格 内 する。 静止画プレーンバッファ 1 6はグラフィ ックス再生手段 1 2 1)、 ら 出力される静止画データをスケーリ ング /合成手段 1 7がスケーリ ンク、 ノ合成処理するまで格納する。 スケーリ ング Z合成手段 1 7は、 スタイ ル解析手段 1 3 からのスケーリ ング Z合成制御情報 1 1 1に基づいて、 動画プレーンパッファ 1 4、 文字/図形プレーンバッファ 1 5、 静止面 プレーンバッファ l 6それぞれに格納されている動画データ、 文字ノ図 形データ、 静止画データをスケーリ ングして合成し合成映像フ レーム 1 0 3を生成する。
第 3図は高画質化手段 2 0 の内部構成を示すプロック図である。 こ の 高画質化手段 2 0は、 補正領域管理手段 2 1、 符号化手段 2 2、 遅延月 フ レームバッファ 2 3、 前フ レーム復号手段 2 4、 現フレーム復号手 2 5、 補正データ生成手段 2 6及び映像補正手段 2 7を備えている。 第 3図において、 捕正領域管理手段 2 1は、 映像提示手段 1 0からの 各モノメディア毎のスケーリ ング Z合成制御情報 1 1 1を入力し、 合减 映像フ レーム 1 0 3 の う ちの所定のモノメディァデータの捕正対象領城 を求めると共に、 この補正対象領域における必要最小限の圧縮率を求め て補正対象領域 Z圧縮率情報 1 1 2を生成する。 符号化手段 2 2は合减 映像フレーム 1 0 3を入力し、 補正領域管理手段 2 1からの補正対彖 頁 域/圧縮率情報 1 1 2により指示された補正対象領域を指示された圧蒲 率で符号化する。 遅延用フレームバッファ 2 3は符号化手段 2 2からの 符号化データを格納して 1 フ レーム分遅延させる。 なお、 遅延用フレー ムバッファ 2 3 のメモリ容量は合成映像フレーム 1 0 3 の 1 フ レーム 以下であり、 例えば合成映像フ レーム 1 0 3の 1 / 4 フレーム分の容量 しか備えていないものとする。 これは合成映像フ レーム 1 0 3の 1 フ レ ーム分のデータ量が非常に大きく、 1 フレーム分を格納しょう とする と 膨大なメモリ容量を必要とするためである。 前フレーム復号手段 2 4 は 補正領域管理手段 2 1からの補正対象領域ノ圧縮率情報 1 1 2によりま旨 示された圧縮率で遅延用フ レームバッファ 2 3に格納されている 1 フ レ ーム分遅延した符号化データを復号する。 現フレーム復号手段 2 5は 正領域管理手段 2 1からの補正対象領域/圧縮率情報 1 1 2により指;^ された圧縮率で符号化手段 2 2からの符号化データを復号する。 補正ザ、 ータ生成手段 2 6は補正領域管理手段 2 1からの補正対象領域/圧縮率 情報 1 1 2により指示された補正対象領域について、 前フレーム復号手 段 2 4からの復号データと現フレーム復号手段 2 5からの復号データを 比較してフ レーム間差分を求め、 求めたフ レーム間差分に対応した補正 データを生成する。 映像補正手段 2 7は、 補正領域管理手段 2 1からの 補正対象領域 Z圧縮率情報 1 1 2により指示された合成映像フ レーム 1 0 3における補正対象領域を、 捕正データ生成手段 2 6からの補正デー タにより補正して高画質化処理を行い表示用映像フ レーム 1 0 4を生成 して映像表示手段 3 0に出力する。 ここで、 前フ レーム復号手段 2 4 と 現フレーム復号手段 2 5は同等の処理機能が実装されている。
次に動作について説明する。
まず映像提示手段 1 0 の動作について説明する。
デジタル放送サービスセンタから送信された 1 フレーム分のビデオデ ータ 1 0 1は映像提示手段 1 0の動画プレーンバッファ 1 4に格納され る。 また、 映像提示手段 1 0 のデータ放送ブラウザ 1 1は、 デジタル放 送サービスセンタから送信されたデータ放送サービスデータ 1 0 2を入 力し、 文字ノ図形データ及び静止画データ等のモノメディアデータとフ レームの提示スタイルを記述した提示スタイルデータを分離する。 こ こ で、 提示スタイルデータには、 各モノメディアデータをフレームに提示 するためのスケール情報、 配置情報、 文字色や書体等のテキス ト情報、 静止画の重畳情報等がテキス トで記述されている。
グラフィ ックス再生手段 1 2は分離された文字 Z図形データ及ぴ静止 画データのモノメディァデータを再生して、 それぞれ文字/図形プレー ンパッファ 1 5及び静止画プレーンバッファ 1 6 に格納する。 スタイル 解析手段 1 3はデータ放送サービスデータ 1 0 2内の提示スタィルデー タを解析して、 動画データ、 文字/図形データ、 静止画データ等の各モ ノメディアについてのスケーリ ング z合成方法を示すモノメ ディアデ一 タ毎のスケーリ ング/合成制御情報 1 1 1 を生成する。 スケ ーリ ング/ 合成制御情報 1 1 1には、 各モノメディァデータを提示する ためのスケ ール情報、 配置情報、 合成情報等が表示装置 1 のデータ構造で記述され ている。
スケーリ ング /合成手段 1 7は、 スタイル解析手段 1 3力 らのスケー リ ング Z合成制御情報 1 1 1に基づき、 動画プレーンバッフ ァ 1 4、 文 字ノ図形プレーンパッファ 1 5及ぴ静止画プレーンパッファ 1 6それぞ れに格納されている動画データ、 文字 Z図形データ及び静止画データを スケーリ ングして合成し合成映像フレーム 1 0 3を生成する。
第 4図は映像提示手段 1 0のスケーリ ング 合成手段 1 7 により合成 された合成映像フレーム 1 0 3の例を示す図である。
映像提示手段 1 0は以上の処理を入力されるビデオデータ 1 0 1 のフ レーム毎に繰り返し実施して合成映像フレーム 1 0 3 を生成する。
次に高画質化手段 2 0の動作について説明する。
補正領域管理手段 2 1では、 高画質化手段 2 0に入力され る合成映像 フレーム 1 0 3のう ち、 どのモノメディアデータの領域を補: E対象とす るかについて、 あらかじめ設定しているものとする。 例えぱ、 全フレー ム間にフレーム間差分があり得るモノメディアデータである動画データ 等の領域を補正対象と して設定しているものとする。 そして、 補正領域 管理手段 2 1は、 映像提示手段 1 0からモノメディァデータ毎のスケー リ ング /合成制御情報 1 1 1 を入力し、 補正対象と して設定 しているモ ノメディァデータのスケーリ ング/合成制御情報 1 1 1が入力された場 合に、 設定している補正対象の補正対象領域を求めると共に、 求めた補 正対象領域と遅延用フレームバッファ 2 3のメモリ容量から必要となる 最小限の圧縮率を算出し、 補正対象領域 Z圧縮率情報 1 1 2を生成して 、 符号化手段 2 2、 前フレーム復号手段 2 4、 現フ レーム復号手段 2 5 、 補正データ生成手段 2 6及ぴ映像補正手段 2 7に通知する。
ここで、 圧縮率の算出について、 遅延用フレームバッファ 2 3のメモ リ容量が合成映像フレーム 1 0 3の 1 フレーム分の 1 / 4の容量を有す る場合を例にと り具体的に説明する。 この場合、 補正対象領竑が 1 フ レ 一ム全部であれば、 それに対する圧縮率は 1 / 4 となり、 例え ば縦 2画 素 X横 2画素 (以下 2 X 2画素等と記載する) の領域を 1 X 1 画素分の 容量に圧縮符号化することとなる。 また、 補正対象領域が 1 フ レーム分 の 1 / 4 の領域であれば、 これに対する圧縮率は 1 となり、 つ ま り非圧 縮と して扱う ことが可能となる。
次に、 映像提示手段 1 0からの先頭フ レームである第 1の合成映像フ レーム 1 0 3が入力された場合について説明する。
高画質化手段 2 0の符号化手段 2 2は、 映像提示手段 1 0か らの第 1 の合成映像フレーム 1 0 3を入力し、 例えば 8 X 8 ビッ ト毎に切り出し て、 補正領域管理手段 2 1からの補正対象領域 Z圧縮率情報 1 1 2によ り指示された補正対象領域を指示された圧縮率で固定長符号化 を行い、 第 1 の符号化データを遅延用フレームバッファ 2 3に格納する 。 符号化 手段 2 2は、 例えば 8 X 8 ビッ ト毎の固定長符号化を繰り返し実行し、 第 1の合成映像フ レーム 1 0 3の 1 フ レーム分の補正対象領域における 第 1 の符号化データを遅延用フ レームバッファ 2 3に格納する 。
また、 映像提示手段 1 0からの第 1の合成映像フ レーム 1 0 3は映像 補正手段 2 7にも入力される。 このとき、 まだ補正データ生成手段 2 6 にて捕正データを生成していないため、 映像補正手段 2 7は入力した第 1の合成映像フレーム 1 0 3を、 そのまま表示用映像フ レーム 1 0 4 と して映像表示手段 3 0に出力し、 映像表示手段 3 0は補正されていない 表示用映像フレーム 1 0 4を表示する。 次に、 映像提示手段 1 0からの 2枚目のフ レームで る第 2の合成画 像フレームが入力された場合について説明する。
まず、 前フレーム復号手段 2 4は、 遅延用フレームノ ッファ 2 3に格 納されている例えば第 1の符号化データを取り出し、 搶正領域管理手段 2 1からの補正対象領域/圧縮率情報 1 1 2によ り指示された圧縮率で 固定長復号して 8 X 8 ビッ トの第 1の復号データを補 IEデータ生成手段 2 6に出力する。
これと同時に、 符号化手段 2 2は、 映像提示手段 1 0 からの 2枚目の フレームである第 2 の合成映像フ レーム 1 0 3を入力し、 例えば 8 X 8 ビッ ト毎に切り出して、 補正領域管理手段 2 1からの糖正対象領域 Z圧 縮率情報 1 1 2により指示された補正対象領域を指示さ れた圧縮率で固 定長符号化を行い、 第 2の符号化データを遅延用フ レームバッファ 2 3 の空き領域に格納すると共に、 第 2の符号化データを ί見フ レーム復号手 段 2 5に出力する。
現フレーム復号手段 2 5は例えば第 2の符号化データ を、 補正領域管 理手段 2 1からの補正対象領域 Ζ圧縮率情報 1 1 2によ り指示された圧 縮率で固定長復号して 8 X 8 ビッ トの第 2の復号データ を補正データ生 成手段 2 6に出力する。
補正データ生成手段 2 6は、 前フレーム復号手段 2 4 から出力された 例えば 8 X 8 ビッ トの第 1の復号データと、 現フレーム復号手段 2 5か ら出力された例えば 8 X 8 ビッ トの第 2の復号データを比較してフ レー ム間差分を求め、 求めたフレーム間差分から最適な補 IEデータを生成す る。 このとき、 補正データ生成手段 2 6は、 例えば階調に特化して補正 データを生成するよう構成した場合には、 求めたフ レーム間差分の階調 値が変化すると、 補正対象領域を高画質化するために、 求めたフ レーム 間差分に対応して対象の画素の階調値を最適化するた >の補正データを 生成する。 このよ う に、 補正データ生成手段 2 6 ίま、 捕正対象領域のフ レーム間差分から得られる階調や輝度等の表示属 '性の値に関する補正デ ータを生成する。
遅延用フ レームバッファ 2 3に格納されている第 1 の符号化データに 対する前フレーム復号手段 2 4による復号処理、 符号化手段 2 2より符 号化された第 2の符号化データに対する現フレーム復号手段 2 5による 復号処理、 及ぴ 8 X 8 ビッ ト毎の補正データ生成 段 2 6による補正デ ータ生成処理が繰り返し実行され、 補正データ生成手段 2 6は 1 フレー ム分の補正データを生成して映像補正手段 2 7に出力する。
映像補正手段 2 7は、 補正領域管理手段 2 1からの補正対象領域/圧 縮率情報 1 1 2により指示された第 2 の合成画像フ レームにおける補正 対象領域を、 補正データ生成手段 2 6からの捕正データで補正して高画 質化処理を行い表示用映像フ レーム 1 0 4を生成して映像表示手段 3 0 に出力する。
最後に、 映像表示手段 3 0が高画質化手段 2 0 ゝら出力される補正済 みの表示用映像フ レーム 1 0 4を表示することによ り、 高画質な映像表 示を実現することができる。
ここで、 フ レーム間差分のあり得るモノメディァデータのみを補正対 象と して扱う理由について説明する。
デジタル放送のデータ放送サービスでは、 例えば第 4図に示すよ うに 動画領域、 静止画領域、 文字 Ζ図形領域等をデジタル情報と して放送、 受信、 再生され、 データ放送ブラゥザ 1 1を含む映像提示手段 1 0によ り 1つの画面に配置し合成して、 放送サービスをよ り良いものにしてい る。 つまり、 デジタル放送では、 アナログ放送のよ うに放送局でフ レー ムを合成して放送するのではなく、 デジタル放送サービスセンタから個 別に放送されたモノメディアデータを受信側で個 Sリにデコードして、 ス ケーリ ングノ合成して 1つの画面に構成している。
このため、 データ放送ブラゥザ 1 1 を含む映像提示手段 1 0が映像表 示手段 3 0 と一体化している等、 映像提示から映像表示までをデジタル 化された機器の場合、 文字/図形データや静止画データのようにフ レー ム間差分のないモノメディアデータの領域について f 、 画面上の 1 ピク セル分の誤差もない不動のものと して取扱い可能で feる。 よって、 例え ば動画データのように、 フレーム間差分のあり得るモノメディアデータ のみを補正対象として扱うことができる。
なお、 この例では、 補正領域管理手段 2 1に動画データを補正対象と して設定しているが、 他のモノメディアデータ、 例免ば文字/図形デー タであっても、 アニメーショ ン等のようにフレーム間差分が頻繁にあり 得る場合には、 文字 Z図形データを補正対象として設定してもよい。
また、 上記の例では、 デジタル放送のデータ放送サービスのよ うに、 コンテンツ内に提示スタイルデータが含まれている s、 パソコン等のュ 一ザの指示によって、 フレームの提示スタィルが決定される場合には、 その提示スタィルデータをこの表示装置 1又はパソコ ンの中で生成し、 スタイル解析手段 1 3に与えるようにしてもよい。
次にフレームの提示スタイルが変更された場合について説明する。 提示スタィルの変更には、 デジタル放送サービスセンタから送信され た提示スタイルデータに変更があり、 データ放送ブラウザ 1 1 のスタイ ル解析手段 1 3 がスケーリ ング Z合成制御情報 1 1 1 を変更する場合や 、 ユーザがパソコン操作等によりスタイル解析手段 1 3に指示を与えて スケーリ ング Z合成制御情報 1 1 1 を変更する場合がある。
映像提示手段 1 0 のスタイル解析手段 1 3は、 変更された提示スタィ ルデータを取得したときに、 この提示スタイルデータを解析して、 モノ メディアデータ毎の変更されたスケーリ ング Z合成制」御情報 1 1 1 を生 成する。 また、 高画質化手段 2 0の補正領域管理手段 2 1は、 変更され たスケーリ ング /合成制御情報 1 1 1を入力して、 変更された補正対象 領域/圧縮率情報 1 1 2を生成し、 高画質化手段 2 0が上記と同様に合 成映像フレーム 1 0 3に対して高画質化処理を実施することにより、 提 示スタイルの変更時に対応した高画質化処理を実施可能となる。
また、 フレームの提示スタイルの変更に は、 例えば第 4図に示すよ う なデータ放送表示が O Nになっているフレームから、 ユーザがパソコ ン 操作等によりデータ放送ブラゥザ 1 1 のス タイル解析手段 1 3に指示を 与えてスケーリ ング Z合成制御情報 1 1 1 を変更することにより全画面 動画表示のフ レームに遷移する場合がある 。
第 5図は映像提示手段 1 0 のスケーリ ン グ合成手段 1 7から出力され たフレームの例を示す図であり、 データ放送表示 O F F Z全画面動画表 示のフレームになっている。 このよ うに表示が大幅に変更される場合に は、 上記の高画質化処理の考え方に従えば、 全画面に対して高画質化処 理を実施する必要があるが、 人間の視覚では大きな変更に気をと られて しまい多少の高画質化等を認識することはできない。
そこで、 捕正領域管理手段 2 1が、 変更 されたスケーリ ング Z合成制 御情報 1 1 1を入力したときに、 補正対象領域 Z圧縮率情報 1 1 2を生 成し直し、 前フ レームに対する変更前の捕正対象領域 Z圧縮率情報 1 1 2 と、 新規生成した現フレームに対する変更後の補正対象領域/圧縮率 情報 1 1 2 とを比較して、 大幅な変更があ つた際に、 高画質化手段 2 0 内の各構成要素に対して、 新たな補正対象領域 Z圧縮率情報 1 1 2を出 力する。 そして、 補正データ生成回路 2 6 は、 変更前の補正対象領域/ 圧縮率情報 1 1 2 と変更後の補正対象領域ノ圧縮率情報 1 1 2によ り、 フレームの提示スタィルが大幅に変更されていることを検知した場合に は、 変更後の捕正対象領域 Z圧縮率情報 1 1 2に対応したフレームに対 しては、 前フ レームとのフレーム差分検 処理及ぴ補正データの生成処 理を行わないようにする。
以上の例では、 補正データ生成手段 2 6がフレーム差分検出処理及び 補正データ生成処理を行わないものを示したが、 フ レームの提示スタイ ルに大きな変更があった場合に、 高画質ィ匕処理を実施しない構成であれ ばどのような構成でもよい。 例えば、 表 開始等の前フ レームがないよ うな場合には、 遅延用フレームパッファ 2 3に格納される符号化データ は使用できないため、 先頭の入カフレームであるという信号を用意する 場合があるが、 この信号を利用して、 スゲーリ ング/合成制御情報 1 1
1 の変更を通知するようなものでもよい。
以上のよ うに、 この実施の形態 1 によれば、 映像提示手段 1 0が、 複 数のモノメディアデータと各モノメディ データのフレームの提示スタ ィルを記述した提示スタィルデータを入 し、 各モノメディァデータを 合成するためのスケーリング Z合成制御'膚報 i l l を生成し、 各モノメ ディアデータを合成して合成映像フ レームを生成し、 高画質化手段 2 0 がスケーリ ング Z合成制御情報 1 1 1に基づき、 合成映像フレーム 1 0 3における所定のモノメディアデ一タの裙正対象領域を求め、 この補正 対象領域におけるフ レーム間差分を求めて補正データを生成し、 生成し た補正データにより補正対象領域を高画質化処理して表示用映像フ レー ム 1 0 4を生成することにより、 画面全 ί に対してゥィンドウ提示指示 を行った人の意図に従った高画質な表示 実現することができるという 効果が得られる。
また、 この実施の形態 1によれば、 高面質化手段 2 0がフレーム間差 分のある補正対象領域だけを符号化ノ復号処理すればよく、 処理を高速 かできると共に、 補正対象領域の大きさに対応して、 高画質化手段 2 0 内の遅延用フ レームバッファ 2 3のメモ!; 容量を変更せずに圧縮率を下 げることができ、 これによつて符号化 /復号による画質劣化を減らすこ とができ、 映像表示手段 3 0において、 よ り高画質な映像表示を行う こ とができるという効果が得られる。
さらに、 この実施の形態 1によれば、 提示スタイルの変更時に、 映像 提示手段 1 0 のスタイル解析手段 1 3が、 変更されたスケーリ ングノ合 成制御情報 1 1 1を生成し、 高画質化手段 2 0の補正領域管理手段 2 1 が変更された補正対象領域/圧縮率情報 1 1 2を生成して、 高画質化手 段 2 0が高画質化処理を実施することによ り、 提示スタイルの変更時に も、 画面全体に対してウインドウ提示指示を行った人の意図に従った高 画質な表示を実現することができるという効果が得られる。
さらに、 この実施の形態 1によれば、 提示スタイルの大幅な変更時に は、 高画質化手段 2 0が視覚的に効果の少ない高画質化処理を実施しな いことにより、 表示装置 1の全体の処理を効率化できるという効果が得 られる。 産業上の利用可能性
以上のよ うに、 この発明に係る表示装置は、 フ レーム間差分のある補 正対象領域を補正して高画質化処理を行う ことにより、 画面全体に対し てウィンドウ提示指示を行った人の意図に従った高画質な表示を実現す るのに適してレヽる。

Claims

請 求 の 範 囲
1 . 複数のモノメディァデータ と上記各モノメディァデータのフ レー ムの提示スタィルを記述した提 スタィルデータを入力し、 上記各モノ メディァデータを合成するためのスケーリ ング Z合成制御情報を生成し 、 上記各モノメディアデータを合成して合成映像フ レームを生成する映 像提示手段と、
上記スケーリング/合成制御情報に基づき、 上記合成映像フレームに おける所定のモノメディアデータの補正対象領域を求め、 この補正対象 領域におけるフ レーム間差分を求めて補正データを生成し、 生成した補 正データにより上記補正対象領域を高画質化処理して表示用映像フ レー ムを生成する高画質化手段と、
生成された上記表示用映像フ レームを表示する映像表示手段とを備え た表示装置。
2 . 高画質化手段は補正対象鎮域における表示属性の値を補正するこ とにより高画質化処理を行う ことを特徴とする請求の範囲第 1項記載の 表示装置。
3 . 高画質化手段は、
スケーリ ングノ合成制御情報に基づき、 合成映像フ レームにおける所 定のモノメディァデータの補正対象領域とこの補正対象領域における圧 縮率を求める補正領域管理手段と、
上記合成映像フ レームにおける上記補正対象領域を上記圧縮率で符号 化する符号化手段と、
上記符号化手段からの符号化データを格納して 1 フ レーム分遅延させ る遅延用フレームバッファと、
上記遅延用フレームバッフ ァ に格納されている 1 フ レーム分遅延し广こ 符号化データを上記圧縮率で復号する前フレーム復号手段と、
上記符号化手段からの符号ィ匕データを上記圧縮率で復号する現フレー ム復号手段と、
上記前フレーム復号手段と _b記現フレーム復号手段からの上記補正対 象領域における復号データを]:匕較してフレーム間差分を求め、 求めたフ レーム間差分に対応した補正データを生成する補正データ生成手段と、 上記合成映像フレームにおける上記補正対象領域を上記補正データで 補正して高画質化処理を行い麦示用映像フ レームを生成する映像補正 段とを備えたことを特徴とする請求の範囲第 1項記載の表示装置。
4 . フ レームの提示スタイノレが変更されたときに、
映像提示手段は変更されたスケーリ ング Z合成制御情報を生成し、 高画質化手段は上記変更されたスケーリ ング /合成制御情報に基づき 補正対象領域を高画質化処理して表示用映像フレームを生成することを 特徴とする請求の範囲第 1項曾己載の表示装置。
5 . 高画質化手段は、 変更 tfTと変更後のスケーリ ング Z合成制御情報 により フレームの提示スタイノレが大幅に変更されていることを検知し广こ 場合に、 高画質化処理を実施しないことを特徴とする請求の範囲第 4項 記載の表示装置。
PCT/JP2004/005218 2004-04-12 2004-04-12 表示装置 Ceased WO2005101819A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CNB2004800427285A CN100531340C (zh) 2004-04-12 2004-04-12 显示装置
JP2006512214A JPWO2005101819A1 (ja) 2004-04-12 2004-04-12 表示装置
EP04726899A EP1715681A4 (en) 2004-04-12 2004-04-12 DISPLAY
US10/589,903 US7830400B2 (en) 2004-04-12 2004-04-12 Display unit
PCT/JP2004/005218 WO2005101819A1 (ja) 2004-04-12 2004-04-12 表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2004/005218 WO2005101819A1 (ja) 2004-04-12 2004-04-12 表示装置

Publications (1)

Publication Number Publication Date
WO2005101819A1 true WO2005101819A1 (ja) 2005-10-27

Family

ID=35150349

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005218 Ceased WO2005101819A1 (ja) 2004-04-12 2004-04-12 表示装置

Country Status (5)

Country Link
US (1) US7830400B2 (ja)
EP (1) EP1715681A4 (ja)
JP (1) JPWO2005101819A1 (ja)
CN (1) CN100531340C (ja)
WO (1) WO2005101819A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013294A (ja) * 2009-06-30 2011-01-20 Toshiba Corp 情報処理装置および輝度制御方法
JP2016154314A (ja) * 2015-02-20 2016-08-25 シャープ株式会社 画像処理装置、テレビジョン受像機、制御方法、プログラム、および記録媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1895466A1 (en) * 2006-08-30 2008-03-05 BRITISH TELECOMMUNICATIONS public limited company Providing an image for display
CN102959947B (zh) * 2010-07-06 2016-03-23 松下电器(美国)知识产权公司 画面合成装置及画面合成方法
MX358934B (es) * 2014-06-26 2018-09-10 Panasonic Ip Man Co Ltd Dispositivo de salida de datos, metodo de salida de datos y metodo de generacion de datos.
US10212428B2 (en) * 2017-01-11 2019-02-19 Microsoft Technology Licensing, Llc Reprojecting holographic video to enhance streaming bandwidth/quality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000005899A1 (fr) * 1998-07-22 2000-02-03 Mitsubishi Denki Kabushiki Kaisha Systeme de codage d'images
JP2002323876A (ja) * 2001-04-24 2002-11-08 Nec Corp 液晶表示装置における画像表示方法及び液晶表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100223171B1 (ko) * 1996-07-30 1999-10-15 윤종용 감마보정장치
US6097757A (en) * 1998-01-16 2000-08-01 International Business Machines Corporation Real-time variable bit rate encoding of video sequence employing statistics
JP3466951B2 (ja) * 1999-03-30 2003-11-17 株式会社東芝 液晶表示装置
JP4081934B2 (ja) 1999-09-17 2008-04-30 ソニー株式会社 データ配信方法及び装置、並びに、データ受信方法及び装置
JP2001175239A (ja) 1999-12-21 2001-06-29 Canon Inc マルチ画面表示装置、マルチ画面表示システム、マルチ画面表示方法、及び記憶媒体
CA2336577A1 (en) 2000-02-16 2001-08-16 Siemens Corporate Research, Inc. Systems and methods for generating and playback of annotated multimedia presentation
JP4691812B2 (ja) * 2001-03-29 2011-06-01 ソニー株式会社 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法
JP3617516B2 (ja) 2001-10-31 2005-02-09 三菱電機株式会社 液晶駆動回路、液晶駆動方法、及び液晶ディスプレイ装置
EP1328114A1 (en) * 2002-01-10 2003-07-16 Canal+ Technologies Société Anonyme Image resolution management in a receiver/decoder
JP3673257B2 (ja) 2002-06-14 2005-07-20 三菱電機株式会社 画像データ処理装置、画像データ処理方法、及び液晶ディスプレイ装置
US20040019582A1 (en) * 2002-07-29 2004-01-29 Merlyn Brown Electronic interactive community directory and portable player unit

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000005899A1 (fr) * 1998-07-22 2000-02-03 Mitsubishi Denki Kabushiki Kaisha Systeme de codage d'images
JP2002323876A (ja) * 2001-04-24 2002-11-08 Nec Corp 液晶表示装置における画像表示方法及び液晶表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1715681A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013294A (ja) * 2009-06-30 2011-01-20 Toshiba Corp 情報処理装置および輝度制御方法
JP2016154314A (ja) * 2015-02-20 2016-08-25 シャープ株式会社 画像処理装置、テレビジョン受像機、制御方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
EP1715681A1 (en) 2006-10-25
CN1939052A (zh) 2007-03-28
US20070171235A1 (en) 2007-07-26
US7830400B2 (en) 2010-11-09
CN100531340C (zh) 2009-08-19
JPWO2005101819A1 (ja) 2008-03-06
EP1715681A4 (en) 2008-11-05

Similar Documents

Publication Publication Date Title
US7006156B2 (en) Image data output device and receiving device
CN108235055B (zh) Ar场景中透明视频实现方法及设备
TWI354981B (en) Method and related device of increasing efficiency
US20110129156A1 (en) Block-Edge Detecting Method and Associated Device
JP2003338991A (ja) 画像表示装置及び画像表示方法
US8154654B2 (en) Frame interpolation device, frame interpolation method and image display device
US20090189912A1 (en) Animation judder compensation
WO2005101819A1 (ja) 表示装置
JP6045405B2 (ja) 映像処理装置、表示装置、テレビジョン受信機及び映像処理方法
JP2002199277A (ja) 画像データ出力装置
US8063916B2 (en) Graphics layer reduction for video composition
US20070008348A1 (en) Video signal processing apparatus and video signal processing method
JP3115176U (ja) プラズマテレビジョンおよび画像表示装置
JP2006295746A (ja) 映像信号出力装置、および映像信号出力方法
JP2010055001A (ja) 映像信号処理装置及び映像信号処理方法
KR20060135736A (ko) 스크린상에 디스플레이될 영상들의 종횡비의 변경
CN100375509C (zh) 缩放子画面数据呈现大小的方法、视讯处理电路以及数字激光视盘播放系统
JP4677755B2 (ja) 画像フィルタ回路及び補間処理方法
EP1848203B2 (en) Method and system for video image aspect ratio conversion
JP4640587B2 (ja) 映像表示装置、映像処理装置並びに映像処理方法
JP2011040974A (ja) 表示制御装置及びその制御方法
JP4534975B2 (ja) 再生装置、再生方法、記録方法、映像表示装置及び記録媒体
CN101521768A (zh) 一种调整手机电视图像的方法及移动终端
JP2003102006A (ja) 動画圧縮装置および動画圧縮方法
US7148931B2 (en) Apparatus and method for signal processing in digital video system

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480042728.5

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006512214

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007171235

Country of ref document: US

Ref document number: 10589903

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004726899

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004726899

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10589903

Country of ref document: US