JP2010288052A - Television receiver - Google Patents
Television receiver Download PDFInfo
- Publication number
- JP2010288052A JP2010288052A JP2009139990A JP2009139990A JP2010288052A JP 2010288052 A JP2010288052 A JP 2010288052A JP 2009139990 A JP2009139990 A JP 2009139990A JP 2009139990 A JP2009139990 A JP 2009139990A JP 2010288052 A JP2010288052 A JP 2010288052A
- Authority
- JP
- Japan
- Prior art keywords
- video
- motion blur
- signal
- blur correction
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- Liquid Crystal (AREA)
- Liquid Crystal Display Device Control (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は,所定のソース映像信号に信号処理を施して得られる映像信号に基づく映像を映像表示手段により表示するテレビジョン受像機に関するものである。 The present invention relates to a television receiver that displays video based on a video signal obtained by subjecting a predetermined source video signal to signal processing by video display means.
テレビジョン受像機は,チューナによって放送信号から抽出された映像信号や,外部入力インターフェースを通じて入力された映像信号などのソース映像信号に対して各種の信号処理を施し,その信号処理後の映像信号に基づく映像を映像表示手段により表示する。
また,昨今のテレビジョン受像機は,画質向上のため,映像表示手段の画像表示特性を改善する様々な対策が講じられている。例えば,液晶テレビジョン受像機においては,フレームごとの前記ソース映像信号の間に補間映像信号を加えて液晶パネルの倍速駆動を行う機能や,映像フレームごとの映像輝度に応じてバックライト調光を行うアクティブバックライト調光機能等の採用により画質向上が図られている。また,テレビジョン受像機は,前記ソース映像信号に対して信号レベルの調節処理を施すことによって高コントラスト化を図る機能も備えている。
A television receiver performs various types of signal processing on a source video signal such as a video signal extracted from a broadcast signal by a tuner or a video signal input through an external input interface, and the resulting video signal is processed. The image based on the image is displayed by the image display means.
In recent television receivers, various measures are taken to improve the image display characteristics of the image display means in order to improve the image quality. For example, in a liquid crystal television receiver, an interpolated video signal is added between the source video signals for each frame to drive the liquid crystal panel at double speed, and backlight dimming is performed according to the video luminance for each video frame. Image quality is improved by adopting an active backlight dimming function and the like. The television receiver also has a function of increasing the contrast by performing signal level adjustment processing on the source video signal.
ところで,カメラでの撮影により得られた映像信号の映像が,いわゆるボケを有している場合がある。例えば,動くカメラにより得られる映像信号は,カメラが動いた方向に残像が現れる動画の動きボケを含むことが多い。また,カメラが固定されていても,被写体が移動する場合には,得られる映像信号に,被写体が動いた方向と反対の方向へ残像が現れる動画の動きボケが含まれることが多い。このように,カメラによる撮像によって得られた映像信号には,その撮像時に生じる動きボケが含まれる場合がある。
前記動きボケは,比較的小さなサイズで映像表示が行われる場合には,観者に与える影響が小さい。しかしながら,画面サイズの大きな昨今のテレビジョン受像機においては,観者は,前記動きボケによる画質劣化をより顕著に感じこととなる。
一方,特許文献1には,入力機器を通じて得られる動画像に対し,撮像時のカメラの動きによって生じる前記動きボケを改善する手ぶれ補正機能を備えた動画表示装置について示されている。さらに,特許文献1には,前記手ぶれ補正機能として,動画像から動きベクトルを検出し,その動きベクトルに基づいて動画像を補正する機能が示されている。
By the way, there are cases where the video of the video signal obtained by photographing with the camera has so-called blur. For example, a video signal obtained by a moving camera often includes motion blur of a moving image in which an afterimage appears in the direction in which the camera moves. Even when the camera is fixed, when the subject moves, the obtained video signal often includes motion blur of a moving image in which an afterimage appears in a direction opposite to the direction in which the subject moves. As described above, the video signal obtained by the imaging by the camera may include motion blur that occurs during the imaging.
The motion blur has a small effect on the viewer when video is displayed in a relatively small size. However, in recent television receivers with a large screen size, the viewer will notice image quality deterioration due to the motion blur more prominently.
On the other hand, Patent Document 1 discloses a moving image display device provided with a camera shake correction function for improving the motion blur caused by the movement of a camera at the time of capturing a moving image obtained through an input device. Furthermore, Patent Document 1 discloses a function for detecting a motion vector from a moving image and correcting the moving image based on the motion vector as the camera shake correction function.
しかしながら,テレビジョン受像機は,カメラワークや被写体の動きが比較的激しい状況下で得られるために動きボケが顕著なスポーツ実況の映像信号や,動きボケが全く生じないアニメ映像やパソコンの出力映像の信号など,多様なソース映像信号が表示対象となる。そのように多様なソース映像信号に対し,一律に動画の動きボケを改善する動きボケ補正処理を施すと,補正が弱すぎて動きボケの改善が不十分となったり,補正が強すぎて像の輪郭部分が白っぽく表示される等の画質悪化を招いたりすることがあるという問題点があった。
従って,本発明は上記事情に鑑みてなされたものであり,その目的とするところは,テレビジョン受像機において表示対象となる多様なソース映像信号に対し,カメラによる撮像時に生じた動画の動きボケの補正処理を行うにあたり,その補正の強さの過不足を回避して高画質の映像表示を行うことができるテレビジョン受像機を提供することにある。
However, television receivers can be obtained under conditions where camerawork and subject movement are relatively intense, so sports video images with noticeable motion blur, animation video with no motion blur, and computer output video. A variety of source video signals such as these signals are displayed. If motion blur correction processing that uniformly improves the motion blur of a movie is applied to such various source video signals, the correction is too weak and the motion blur is not sufficiently improved, or the correction is too strong and the image is too strong. There is a problem in that the image quality may be deteriorated such that the outline portion of the image is displayed as whitish.
Accordingly, the present invention has been made in view of the above circumstances, and an object of the present invention is to provide motion blurring of moving images generated during imaging by a camera with respect to various source video signals to be displayed in a television receiver. It is an object of the present invention to provide a television receiver capable of displaying high-quality video images while avoiding excessive and insufficient correction strength.
上記目的を達成するために本発明に係るテレビジョン受像機は,所定のソース映像信号に信号処理を施して得られる映像信号に基づく映像を映像表示手段により表示する装置であり,次の(1)及び(2)に示される構成要素を備えている。
(1)前記ソース映像信号に対して動画の動きボケを改善する動きボケ補正処理を施す動きボケ補正手段。
(2)所定の参照情報に応じて前記動きボケ補正処理の強弱又は実行有無を変更する動きボケ補正制御手段。
前記参照情報としては,例えば,放送コンテンツのメタデータにおける前記ソース映像信号に対応する情報,前記ソース映像信号から判別される映像の精細度の情報,前記ソース映像信号に基づく映像表示の画質の情報及び前記ソース映像信号から検出されるノイズ量の情報のうちの一つ又は複数を含む情報であることが考えられる。
また,前記放送コンテンツのメタデータにおける前記ソース映像信号に対応する情報が,映像のジャンルの情報,映像の精細度の情報,複数画面の組み合わせの映像であることを示す情報のうちの一つ以上を含む情報であることが考えられる。
前記放送コンテンツのメタデータは,例えば,EPG(Electronic Program Guide)データのように,放送番組やその番組中の個々のシーンに関する基本情報や著作権情報,視聴条件の情報等を含むデータである。また,前記放送コンテンツのメタデータは,放送信号における空きチャンネルに含められたデータや,インターネット上の所定のサーバに登録されたデータ等であり,テレビジョン受像機が,チューナやネットワークの通信インターフェースを通じて取得するデータである。
なお,前記ソース映像信号は,チューナによって放送信号から抽出された映像信号や,外部入力インターフェースを通じて入力された映像信号等であり,マルチ画面表示やOSD(On-Screen Display)表示等のためにテレビジョン受像機において映像の合成がなされた映像信号は含まれない。
In order to achieve the above object, a television receiver according to the present invention is an apparatus for displaying a video based on a video signal obtained by subjecting a predetermined source video signal to signal processing by video display means. ) And (2).
(1) Motion blur correction means for performing motion blur correction processing for improving motion blur of a moving image with respect to the source video signal.
(2) Motion blur correction control means for changing the intensity of the motion blur correction process or the presence / absence of execution according to predetermined reference information.
Examples of the reference information include information corresponding to the source video signal in the metadata of the broadcast content, information on video definition determined from the source video signal, and information on image quality of video display based on the source video signal. And information including one or a plurality of pieces of noise amount information detected from the source video signal.
Further, one or more of information indicating that the information corresponding to the source video signal in the metadata of the broadcast content is video genre information, video definition information, and a video of a combination of a plurality of screens. It is considered that the information includes.
The metadata of the broadcast content is data including basic information, copyright information, viewing condition information, etc. regarding a broadcast program and individual scenes in the program, such as EPG (Electronic Program Guide) data. The metadata of the broadcast content is data included in a vacant channel in the broadcast signal, data registered in a predetermined server on the Internet, and the like, and the television receiver is connected via a tuner or a network communication interface. The data to be acquired.
The source video signal is a video signal extracted from a broadcast signal by a tuner, a video signal input through an external input interface, or the like, and is used for a multi-screen display, an OSD (On-Screen Display) display, or the like. The video signal synthesized by the John receiver is not included.
本発明に係るテレビジョン受像機は,多様なソース映像信号の内容を所定の参照情報に基づいて判別し,その内容に適した前記動きボケ補正処理の強弱又は実行有無を設定できる。例えば,前記ソース映像信号が,前記動きボケが顕著となるスポーツ実況の放送番組やスポーツ映画の映像信号である場合に,前記動きボケの補正を強めるように前記動きボケ補正処理の補正パラメータを設定することが考えられる。また,前記ソース映像信号が,前記動きボケが生じないアニメーションの映像やパーソナルコンピュータの出力映像の映像信号である場合に,前記動きボケ補正処理を行わないように制御することも考えられる。これにより,カメラによる撮像時に生じた前記動きボケの補正処理(動きボケ補正処理)を行うにあたり,その動きボケ補正処理の強さの過不足を回避して高画質の映像表示を行うことができる。 The television receiver according to the present invention can discriminate the contents of various source video signals based on predetermined reference information, and can set the intensity or execution of the motion blur correction process suitable for the contents. For example, when the source video signal is a video signal of a sports live broadcast program or sports movie in which the motion blur is noticeable, the correction parameter of the motion blur correction process is set so as to increase the correction of the motion blur It is possible to do. In addition, when the source video signal is a video image of an animation in which the motion blur does not occur or a video signal of an output video of a personal computer, it may be controlled not to perform the motion blur correction process. As a result, when performing the motion blur correction process (motion blur correction process) that occurred during imaging by the camera, it is possible to display a high-quality image while avoiding excessive or insufficient strength of the motion blur correction process. .
ところで,いわゆるピクチャー・イン・ピクチャーの映像信号ように,複数画面の組み合わせの映像を表す映像信号に対して前記動きボケ補正処理を施すと,複数画面の境界線の部分が白っぽく強調された不自然な出力映像が得られてしまう。
そこで,前記ボケ補正制御手段が,前記放送コンテンツのメタデータにおける前記ソース映像信号に対応する情報により,前記ソース映像信号の映像が複数画面の組み合わせの映像であると判別した場合に,組み合わされた複数画面の境界線を含む一部の映像領域について他の映像領域よりも前記動きボケ補正処理を弱める又は前記動きボケ補正処理を実行しないよう制御することも考えられる。これにより,過剰な前記動きボケ補正処理による画質劣化を回避できる。
By the way, when the motion blur correction process is performed on a video signal representing a combination of a plurality of screens such as a so-called picture-in-picture video signal, the boundary portion of the plurality of screens is emphasized whitish. An output video is obtained.
Therefore, when the blur correction control means determines that the video of the source video signal is a video of a combination of multiple screens based on information corresponding to the source video signal in the metadata of the broadcast content, It is also conceivable to perform control so that the motion blur correction process is weaker than other video areas or the motion blur correction process is not executed for a part of video areas including boundary lines of a plurality of screens. Thereby, it is possible to avoid image quality deterioration due to excessive motion blur correction processing.
本発明によれば,テレビジョン受像機において表示対象となる多様なソース映像信号に対し,カメラによる撮像時に生じた動画の動きボケの補正処理を行うにあたり,その補正の強さの過不足を回避して高画質の映像表示を行うことができる。 According to the present invention, when performing correction processing of motion blur of a moving image generated during imaging by a camera on various source video signals to be displayed in a television receiver, excessive or insufficient correction strength is avoided. Thus, high-quality video display can be performed.
以下添付図面を参照しながら,本発明の実施の形態について説明し,本発明の理解に供する。尚,以下の実施の形態は,本発明を具体化した一例であって,本発明の技術的範囲を限定する性格のものではない。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings so that the present invention can be understood. The following embodiment is an example embodying the present invention, and does not limit the technical scope of the present invention.
本発明の実施形態に係るテレビジョン受像機Xは,表示対象となる多様なソース映像信号に対し,カメラによる撮像時に生じた動画の動きボケの補正処理を過不足なく行う機能を備えることを特徴とする。
まず,図1に示されるブロック図を参照しつつ,前記テレビジョン受像機Xの構成について説明する。
図1に示されるように,前記テレビジョン受像機Xは,チューナ1,マルチコアCPU2,液晶駆動回路3,液晶パネル4,調光回路5,バックライト6及び外部信号入力インターフェース7等を備えている。
前記チューナ1は,テレビジョン放送信号から指定されたチャンネルの放送番組の映像信号及び音響信号を抽出する電子部品である。さらに,前記チューナ1は,デジタル方式の前記テレビジョン放送信号から,映像信号及び音響信号以外の放送コンテンツやそのコンテンツ中の個々のシーンに関するメタデータも抽出する。前記メタデータには,例えば,EPG(Electronic Program Guide)データや放送コンテンツごと或いは放送中のシーンごとに提供されるその他の情報等が含まれる。
前記外部信号入力インターフェース7は,外部装置と接続されることにより,その外部装置から映像信号及び音響信号を入力するインターフェースである。
前記マルチコアCPU2は,複数のコアプロセッサが集積されたCPU(Central Processing Unit)であり,当該テレビジョン受像機Xにおける映像信号や音響信号に関する信号処理や制御を実行する。
例えば,前記マルチコアCPU2は,前記チューナ1及び前記外部信号入力インターフェース7を通じて得られる映像信号に基づいて,動画における1コマの画像を構成する各画素の3原色(R,G,B)それぞれの階調レベルを表すフレーム信号を順次生成し,そのフレーム信号を前記液晶駆動回路3に伝送する映像信号処理を行う。なお,前記フレーム信号は,各画素の階調のレベルを表す描画用信号である。
さらに,前記マルチコアCPU2は,前記チューナ1及び前記外部信号入力インターフェース7を通じて得られる音響信号に対し,イコライズ処理等の音響信号処理を実行する。処理後の音響信号は,不図示の音響アンプ及びスピーカを通じて出力される。
前記マルチコアCPU2には,前記チューナ1から出力される映像信号及び音響信号と,前記外部信号入力インターフェース7を通じて外部装置から入力される映像信号及び音響信号とが入力される。以下,前記チューナ1から出力される映像信号,及び外部装置から前記外部信号入力インターフェース7を通じて入力される映像信号をソース映像信号と称する。
前記マルチコアCPU2において,複数の前記コアプロセッサは,それぞれが所定のプログラムを実行することによって画像処理,制御及びその他の演算処理を実行する。例えば,複数の前記マルチコアCPU2は,それぞれ後述する制御部21,ソース映像画面生成部22,データ放送画面生成部23,OSD画面生成部24,画面合成部26及びガンマ補正部27として機能する。なお,図1には示されていないが,前記マルチコアCPU2には,音響信号に関する処理を行う前記コアプロセッサも含まれている。
The television receiver X according to the embodiment of the present invention is provided with a function of performing a correction process of motion blur of a moving image generated at the time of image pickup by a camera without any deficiency with respect to various source video signals to be displayed. And
First, the configuration of the television receiver X will be described with reference to the block diagram shown in FIG.
As shown in FIG. 1, the television receiver X includes a tuner 1, a multi-core CPU 2, a liquid crystal drive circuit 3, a liquid crystal panel 4, a dimming circuit 5, a backlight 6, an external signal input interface 7, and the like. .
The tuner 1 is an electronic component that extracts a video signal and an audio signal of a broadcast program of a designated channel from a television broadcast signal. Furthermore, the tuner 1 also extracts metadata about broadcast contents other than video signals and audio signals and individual scenes in the contents from the digital television broadcast signal. The metadata includes, for example, EPG (Electronic Program Guide) data, other information provided for each broadcast content or each scene being broadcast, and the like.
The external signal input interface 7 is an interface for inputting a video signal and an audio signal from the external device by being connected to the external device.
The multi-core CPU 2 is a CPU (Central Processing Unit) in which a plurality of core processors are integrated, and executes signal processing and control related to video signals and audio signals in the television receiver X.
For example, the multi-core CPU 2 determines the levels of the three primary colors (R, G, B) of each pixel constituting one frame image in the moving image based on the video signal obtained through the tuner 1 and the external signal input interface 7. A frame signal representing a tone level is sequentially generated, and video signal processing for transmitting the frame signal to the liquid crystal driving circuit 3 is performed. The frame signal is a drawing signal that represents the level of gradation of each pixel.
Further, the multi-core CPU 2 executes acoustic signal processing such as equalization processing on the acoustic signal obtained through the tuner 1 and the external signal input interface 7. The processed acoustic signal is output through an acoustic amplifier and a speaker (not shown).
The multi-core CPU 2 receives a video signal and an audio signal output from the tuner 1 and a video signal and an audio signal input from an external device through the external signal input interface 7. Hereinafter, the video signal output from the tuner 1 and the video signal input from the external device through the external signal input interface 7 are referred to as a source video signal.
In the multi-core CPU 2, each of the plurality of core processors executes image processing, control, and other arithmetic processing by executing a predetermined program. For example, the plurality of multi-core CPUs 2 function as a control unit 21, a source video screen generation unit 22, a data broadcast screen generation unit 23, an OSD screen generation unit 24, a screen synthesis unit 26, and a gamma correction unit 27, which will be described later. Although not shown in FIG. 1, the multi-core CPU 2 includes the core processor that performs processing related to an acoustic signal.
前記液晶駆動回路3は,前記マルチコアCPU2から所定周期で順次伝送されてくる前記フレーム信号に基づいて,そのフレーム信号に対応する1フレーム分の映像(1コマの画像)を前記液晶パネル4に順次表示させる回路である。
より具体的には,前記液晶駆動回路3は,液晶表示パネルに設けられた各画素の液晶素子に対し,R,G,B3原色それぞれの階調レベル(映像輝度のレベルといってもよい)に応じた電圧の階調信号を供給する。これにより,前記液晶パネル4は,前記フレーム信号に応じた映像を表示する。
即ち,前記液晶駆動回路3及び前記液晶パネル4は,映像を表示する映像表示手段の一例である。
前記調光回路5は,前記マルチコアCPU2における前記制御部21からの制御指令に従って,前記バックライト6の光源に対する供給電力,即ち,前記バックライト6の輝度を,例えばPWM制御によって調節する回路である。
なお,前記調光回路5は,例えばFPGAやASIC等により具現化されている。
前記バックライト6は,映像を表示する前記液晶パネル4の背面側に配置され,複数のLED又は複数の蛍光管などを光源として前記液晶パネル4を照明する照明手段である。
The liquid crystal driving circuit 3 sequentially transfers one frame of video (one frame image) corresponding to the frame signal to the liquid crystal panel 4 based on the frame signal sequentially transmitted from the multi-core CPU 2 in a predetermined cycle. This is a circuit to be displayed.
More specifically, the liquid crystal driving circuit 3 has the gradation levels of R, G, and B3 primary colors (also referred to as image luminance levels) for the liquid crystal elements of the respective pixels provided in the liquid crystal display panel. A gradation signal having a voltage corresponding to the voltage is supplied. Thereby, the liquid crystal panel 4 displays an image corresponding to the frame signal.
That is, the liquid crystal driving circuit 3 and the liquid crystal panel 4 are examples of video display means for displaying video.
The dimming circuit 5 is a circuit that adjusts the power supplied to the light source of the backlight 6, that is, the luminance of the backlight 6 by, for example, PWM control in accordance with a control command from the control unit 21 in the multi-core CPU 2. .
The dimming circuit 5 is embodied by, for example, an FPGA or an ASIC.
The backlight 6 is an illuminating unit that is disposed on the back side of the liquid crystal panel 4 that displays an image, and illuminates the liquid crystal panel 4 using a plurality of LEDs or a plurality of fluorescent tubes as light sources.
また,前記外部信号入力インターフェース7は,PC端子71及びHDMI回路72(High Definition Multimedia Interface)を備えている。
前記PC端子71は,パーソナルコンピュータ等の計算機から出力される映像信号であるRGB信号の入力端子である。
前記HDMI回路72は,デジタルの映像信号及び音声信号を同時に,ベースバンド方式で外部装置から自装置へ伝送する信号伝送インターフェースである。映像信号及び音声信号の伝送は,TMDS(Transition Minimized Differential Signaling)ラインを通じて行われる。
また,前記HDMI回路72は,前記TMDSラインとは別のCEC(Consumer Electronics Control)ラインを通じて,映像信号及び音響信号以外の制御情報を伝送する機能も備えている。前記CECラインを通じた情報伝送は双方向で可能である。
以下,便宜上,前記PC端子71又は前記HDMI回路72に接続される装置を外部接続装置と称する。
The external signal input interface 7 includes a PC terminal 71 and an HDMI circuit 72 (High Definition Multimedia Interface).
The PC terminal 71 is an input terminal for RGB signals that are video signals output from a computer such as a personal computer.
The HDMI circuit 72 is a signal transmission interface for simultaneously transmitting a digital video signal and an audio signal from an external device to the own device by a baseband method. Transmission of video signals and audio signals is performed through a TMDS (Transition Minimized Differential Signaling) line.
The HDMI circuit 72 also has a function of transmitting control information other than the video signal and the audio signal through a CEC (Consumer Electronics Control) line different from the TMDS line. Information transmission through the CEC line is possible in both directions.
Hereinafter, for convenience, a device connected to the PC terminal 71 or the HDMI circuit 72 is referred to as an external connection device.
次に,前記マルチコアCPU2における各構成要素の処理について説明する。
前記制御部21は,当該テレビジョン受像機Xが備える各構成要素の制御処理を実行するものである。
例えば,前記制御部21は,不図示のリモート操作器の操作キーを通じた操作入力を検知し,その操作入力の内容に応じた各種の処理を実行する。
より具体的には,前記制御部21は,前記リモート操作器におけるチャンネル指定の操作入力に応じて,指定されたチャンネルの放送番組の信号がテレビジョン放送信号から抽出されるよう,前記チューナ1を制御する。また,前記制御部21は,前記リモート操作器における音量調節の操作入力に応じて不図示の音響アンプを制御することにより,放送番組の出力音響の音量を調節する。
Next, processing of each component in the multi-core CPU 2 will be described.
The control unit 21 executes control processing of each component included in the television receiver X.
For example, the control unit 21 detects an operation input through an operation key of a remote controller (not shown), and executes various processes according to the content of the operation input.
More specifically, the control unit 21 controls the tuner 1 so that a broadcast program signal of a designated channel is extracted from a television broadcast signal in response to an operation input for channel designation in the remote controller. Control. In addition, the control unit 21 adjusts the volume of the output sound of the broadcast program by controlling a sound amplifier (not shown) according to an operation input for volume adjustment in the remote controller.
また,前記データ放送画面生成部23は,前記チューナ1により抽出された前記メタデータに含まれる情報を前記液晶パネル4により映像として表示するための描画用信号であるデータ放送画面信号を生成する。前記データ放送画面信号は,例えば,前記EPGの情報に基づく番組表の画面を描画するための信号等である。
また,前記OSD画面生成部24は,当該テレビジョン受像機Xの内部パラメータをユーザの操作に応じて設定するためにその内部パラメータを前記液晶パネル4に表示するための描画用信号であるOSD画面信号を生成する。前記内部パラメータには,例えば,映像の表示画質モードや,前記バックライト6の基準となる輝度を調整するパラメータ,表示色の色合いやコントラストを調整するパラメータ,放送チャンネルの設定に関するパラメータ等が含まれる。
例えば,前記表示画質モードは,ダイナミックモードと標準モードとシネマモードとの3つの動作モードの中から選択される。前記ダイナミックモードは,前記ソース映像信号に対し,コントラストを最も高める処理を施した上で映像表示を行う動作モードである。前記標準モードは,前記ソース映像信号に対し,前記ダイナミックモードよりもやや弱めの自動コントラスト調節を行う動作モードである。また,前記シネマモードは,前記ソース映像信号に対して自動コントラスト調節を映画向けに調整する動作モードである。
前記データ放送画面生成部23は,前記制御部21からの制御指令に従って,必要な場合にのみ前記データ放送画面信号を生成する。同様に,前記OSD画面生成部24も,前記制御部21からの制御指令に従って,必要な場合にのみ前記OSD画面信号を生成する。
The data broadcast screen generation unit 23 generates a data broadcast screen signal that is a drawing signal for displaying information included in the metadata extracted by the tuner 1 as an image on the liquid crystal panel 4. The data broadcast screen signal is, for example, a signal for drawing a screen of a program guide based on the information of the EPG.
The OSD screen generation unit 24 is an OSD screen which is a drawing signal for displaying the internal parameters on the liquid crystal panel 4 in order to set the internal parameters of the television receiver X in accordance with a user operation. Generate a signal. The internal parameters include, for example, a video display image quality mode, a parameter for adjusting the reference luminance of the backlight 6, a parameter for adjusting the color and contrast of the display color, and a parameter for setting a broadcast channel. .
For example, the display image quality mode is selected from three operation modes: a dynamic mode, a standard mode, and a cinema mode. The dynamic mode is an operation mode in which video display is performed after processing for increasing the contrast is performed on the source video signal. The standard mode is an operation mode in which automatic contrast adjustment is slightly weaker than the dynamic mode for the source video signal. The cinema mode is an operation mode in which automatic contrast adjustment is adjusted for a movie with respect to the source video signal.
The data broadcast screen generation unit 23 generates the data broadcast screen signal only when necessary in accordance with a control command from the control unit 21. Similarly, the OSD screen generation unit 24 also generates the OSD screen signal only when necessary in accordance with a control command from the control unit 21.
また,前記ソース映像画面生成部22,前記画面合成部26及び前記ガンマ補正部27は,前記ソース映像信号を描画用の前記フレーム信号へ変換する処理を実行する。
即ち,前記ソース映像画面生成部22は,前記制御部21から指定される1つ又は複数の前記ソース映像信号を,そのソース映像信号に対応した描画用信号であるソース映像用フレーム信号へ変換する。その際,前記ソース映像画面生成部22は,前記ソース映像信号に対し,撮影時に生じた動画の動きボケを改善する動きボケ補正処理を施す(動きボケ補正手段の一例)。
図5は,動きボケ補正前後の映像の模式図である。
図5(a)に示されるように,カメラを動かしつつ得られる映像信号は,カメラが動いた方向(図5(a)に向かって左方向)に本来の像Gtに対する残像Geが現れる動画の動きボケを含むことが多い。
前記ソース映像画面生成部22は,前記ソース映像信号に対し,撮影時に生じた動画の動きボケを改善する動き前記ボケ補正処理を施すことにより前記残像Ge(動きボケ)を除去し,図5(b)に示されるよう鮮鋭化された映像を表示するフレーム信号を生成する。その詳細については後述する。
Further, the source video screen generation unit 22, the screen synthesis unit 26, and the gamma correction unit 27 execute a process of converting the source video signal into the drawing frame signal.
That is, the source video screen generation unit 22 converts one or a plurality of the source video signals designated by the control unit 21 into source video frame signals that are drawing signals corresponding to the source video signals. . At that time, the source video screen generation unit 22 performs motion blur correction processing for improving motion blur of a moving image generated at the time of shooting on the source video signal (an example of motion blur correction means).
FIG. 5 is a schematic diagram of an image before and after motion blur correction.
As shown in FIG. 5 (a), the video signal obtained while moving the camera is a moving image in which an afterimage Ge with respect to the original image Gt appears in the direction in which the camera moves (leftward toward FIG. 5 (a)). Often includes motion blur.
The source video screen generation unit 22 removes the afterimage Ge (motion blur) by performing motion blur correction processing for improving motion blur of a moving image generated at the time of shooting on the source video signal. Generate a frame signal to display the sharpened video as shown in b). Details thereof will be described later.
また,前記画面合成部26は,必要に応じて,前記ソース映像用フレーム信号に対し,前記データ放送画面生成部23及び前記OSD画面生成部24により生成される他の描画用信号を合成する処理を実行する。前記他の描画用信号には,前記データ放送画面信号と前記OSD画面信号とが含まれる。
即ち,前記画面合成部26は,前記データ放送画面生成部23及び前記OSD画面生成部24各々により生成される他の描画用信号が存在しない場合には,前記ソース映像用フレーム信号をそのまま後段の前記ガンマ補正部27へ伝送する。一方,前記データ放送画面生成部23及び前記OSD画面生成部24各々により生成される他の描画用信号が存在する場合には,前記ソース映像用フレーム信号の一部を前記他の描画用信号に置き換えた信号である合成フレーム信号を生成し,それを前記ガンマ補正部27へ伝送する。
以下,前記ガンマ補正部27に入力される前記ソース映像用フレーム信号又は前記合成フレーム信号のことを一次フレーム信号と称する。また,前記ガンマ補正部27から前記液晶駆動回路3へ伝送される前記フレーム信号のことを二次フレーム信号と称する。
Further, the screen synthesis unit 26 synthesizes other drawing signals generated by the data broadcast screen generation unit 23 and the OSD screen generation unit 24 with the source video frame signal as necessary. Execute. The other drawing signals include the data broadcast screen signal and the OSD screen signal.
That is, the screen composition unit 26, when there is no other drawing signal generated by each of the data broadcast screen generation unit 23 and the OSD screen generation unit 24, outputs the source video frame signal as it is. The data is transmitted to the gamma correction unit 27. On the other hand, when there are other drawing signals generated by the data broadcast screen generation unit 23 and the OSD screen generation unit 24, a part of the source video frame signal is used as the other drawing signal. A synthesized frame signal, which is the replaced signal, is generated and transmitted to the gamma correction unit 27.
Hereinafter, the source video frame signal or the synthesized frame signal input to the gamma correction unit 27 is referred to as a primary frame signal. The frame signal transmitted from the gamma correction unit 27 to the liquid crystal driving circuit 3 is referred to as a secondary frame signal.
前記ガンマ補正部27は,前記画面合成部26を通じて入力される前記一次フレーム信号に対してガンマ補正を施し,補正後の前記二次フレーム信号を出力する。前記ガンマ補正は,前記二次フレーム信号に基づく前記液晶パネル4の表示色が,前記二次フレーム信号の基礎となる前記放送番組映像信号や前記ソース映像信号の本来の表示色に近づくように前記一次フレーム信号を補正する処理である。
また,前記ガンマ補正部27は,前記表示画質モードに応じてガンマ補正係数,即ち,ガンマ補正カーブを切り替えることにより,設定された前記表示画質モードに対応したコントラストの前記二次フレーム信号を生成する。
The gamma correction unit 27 performs gamma correction on the primary frame signal input through the screen synthesis unit 26 and outputs the corrected secondary frame signal. The gamma correction is performed so that the display color of the liquid crystal panel 4 based on the secondary frame signal approaches the original display color of the broadcast program video signal or the source video signal that is the basis of the secondary frame signal. This is a process for correcting the primary frame signal.
The gamma correction unit 27 generates the secondary frame signal having a contrast corresponding to the set display image quality mode by switching a gamma correction coefficient, that is, a gamma correction curve, according to the display image quality mode. .
以下,前記ソース映像画面生成部22による前記ソース映像信号から前記ソース映像用フレーム信号への変換処理及び前記動きボケ補正処理についてさらに詳説する。
図1に示されるように,前記ソース映像画面生成部22は,フレーム信号生成部22aと,信号バッファ22bと,ヒストグラム演算部22cと,動きボケ補正部22dとを備えている。
前記フレーム信号生成部22aは,逐次入力される前記ソース映像信号から一画面ごとのフレーム信号を逐次生成し,そのフレーム信号各々を前記信号バッファ22bに出力する。以下,前記フレーム信号生成部22aにより生成される前記ソース映像信号に基づくフレーム信号のことをソースフレーム信号と称する。前記ソースフレーム信号における3原色各々の階調レベルは,前記ソース映像信号における3原色各々の輝度レベルに相当するレベルとなる。
前記信号バッファ22bは,常に最新の2フレーム分の前記ソースフレーム信号を蓄積する一時記憶手段である。
前記ヒストグラム演算部22cは,前記信号バッファ22bに一時蓄積された前記ソースフレーム信号各々について輝度(階調)のヒストグラムを算出する。
さらに,前記ヒストグラム演算部22cは,前記ソースフレーム信号それぞれの輝度(階調)のヒストグラムを逐次比較する。
図2は,前記ヒストグラム演算部22cにより算出及び比較される前記ソースフレーム信号ごとの輝度ヒストグラムの模式図である。
例えば,前記ヒストグラム演算部22cは,新たな前記ソースフレーム信号が入力されるごとに,その新たな前記ソースフレーム信号における前記輝度のヒストグラムとその1回前の前記ソースフレーム信号における前記輝度のヒストグラムとの間の変化量を算出する。その輝度ヒストグラムの変化量は,例えば,前記輝度のヒストグラムにおける輝度レベル(階調レベル)ごとの度数の差の合計値や平均値などが考えられる。
Hereinafter, the conversion process from the source video signal to the source video frame signal and the motion blur correction process by the source video screen generation unit 22 will be described in more detail.
As shown in FIG. 1, the source video screen generation unit 22 includes a frame signal generation unit 22a, a signal buffer 22b, a histogram calculation unit 22c, and a motion blur correction unit 22d.
The frame signal generation unit 22a sequentially generates frame signals for each screen from the source video signals that are sequentially input, and outputs each of the frame signals to the signal buffer 22b. Hereinafter, a frame signal based on the source video signal generated by the frame signal generation unit 22a is referred to as a source frame signal. The gradation level of each of the three primary colors in the source frame signal is a level corresponding to the luminance level of each of the three primary colors in the source video signal.
The signal buffer 22b is temporary storage means for always accumulating the latest two frames of the source frame signal.
The histogram calculator 22c calculates a histogram of luminance (gradation) for each of the source frame signals temporarily stored in the signal buffer 22b.
Further, the histogram calculation unit 22c sequentially compares the luminance (gradation) histograms of the source frame signals.
FIG. 2 is a schematic diagram of a luminance histogram for each source frame signal calculated and compared by the histogram calculation unit 22c.
For example, each time a new source frame signal is input, the histogram calculation unit 22c includes the luminance histogram in the new source frame signal and the luminance histogram in the previous source frame signal. The amount of change between is calculated. As the amount of change in the luminance histogram, for example, the total value or the average value of the frequency differences for each luminance level (gradation level) in the luminance histogram can be considered.
前記動きボケ補正部22dは,一連の撮影場面(シーン)の動画の1コマを表す前記ソースフレーム信号に対して動画の動きボケを改善する前記動きボケ補正処理を行う。その際,前記動きボケ補正部22dは,前記制御部21からの制御指令に従って,前記動きボケ補正処理の補正係数を切り替えたり,前記動きボケ補正処理を行うか否かを切り替えたりする。以下,前記制御部21による前記動きボケ補正処理の制御の具体例について説明する。
前記制御部21は,予め定められた参照情報に応じて前記動きボケ補正処理の強弱及び実行有無を変更する動きボケ補正制御を行う。ここで,前記参照情報は,例えば,放送コンテンツの前記メタデータにおける前記ソース映像信号に対応する情報及び前記表示画質モードの設定内容である。また,前記メタデータにおける前記ソース映像信号に対応する情報としては,映像のジャンルの情報及び映像の精細度の情報が考えられる。また,前記映像のジャンルの情報としては,例えば,「アクション」,「スポーツ」,「コメディ」,「音楽・ミュージカル」,「ロマンス(恋愛)」等が考えられる。
The motion blur correction unit 22d performs the motion blur correction process for improving motion blur of the moving image with respect to the source frame signal representing one frame of the moving image of a series of shooting scenes. At this time, the motion blur correction unit 22d switches a correction coefficient of the motion blur correction process or switches whether to perform the motion blur correction process according to a control command from the control unit 21. Hereinafter, a specific example of control of the motion blur correction process by the control unit 21 will be described.
The control unit 21 performs motion blur correction control for changing the intensity and execution presence / absence of the motion blur correction processing according to predetermined reference information. Here, the reference information is, for example, information corresponding to the source video signal in the metadata of the broadcast content and setting contents of the display image quality mode. The information corresponding to the source video signal in the metadata may be video genre information and video definition information. Further, as information on the genre of the video, for example, “action”, “sports”, “comedy”, “music / musical”, “romance”, etc. can be considered.
図4は,前記テレビジョン受像機Xにおける前記参照情報に基づく動きボケ補正制御のルールの一例を表す図である。
前記制御部21は,前記動きボケ補正処理の強弱及び有無を0〜4の5段階のランクにより区分する。以下,そのランクのことを動きボケ補正ランクd0と称する。
前記動きボケ補正ランクd0は,「0」が前記動きボケ補正処理を行わないことを表し,「1」〜「4」は,数字が大きいほど強い前記動きボケ補正処理を施すことを表す。
図4に示される例では,前記制御部21は,前記ソース映像信号に対応する映像のジャンルの情報d1と,前記ソース映像信号の映像の種類情報d2と,前記表示画質モードの情報d3との組合せに応じて前記動きボケ補正ランクd0を判別する。ここで,前記映像のジャンルの情報d1及び前記映像の種類情報d2は,例えば,前記メタデータに含まれる情報や前記ソース映像信号の入力元の情報によって判別される情報である。例えば,前記ソース映像信号が,テレビジョン放送信号から抽出された映像信号である場合,前記メタデータに含まれる映像の精細度の情報に応じて,前記映像の種類情報d2が高精細度映像であるか標準精細度映像であるかが判別される。ここで,高精細度映像とは,デジタル放送における有効走査線1080本,アスペクト比16:9の映像のことである。また,前記ソース映像信号が,前記PC端子71を通じて入力された計算機の出力映像信号である場合,前記映像の種類情報d2が計算機出力映像であると判別される。その判別は,前記制御部21により行われる。
また,前記表示画質モードの情報d3は,前述したように,前記リモート操作器に対するユーザの操作に従って設定される情報である。
FIG. 4 is a diagram illustrating an example of a motion blur correction control rule based on the reference information in the television receiver X.
The controller 21 classifies the strength and absence and presence / absence of the motion blur correction process according to a rank of 5 levels from 0 to 4. Hereinafter, this rank is referred to as a motion blur correction rank d0.
The motion blur correction rank d0 indicates that “0” does not perform the motion blur correction processing, and “1” to “4” indicate that the motion blur correction processing is stronger as the number is larger.
In the example shown in FIG. 4, the control unit 21 includes the video genre information d1 corresponding to the source video signal, the video type information d2 of the source video signal, and the display image quality mode information d3. The motion blur correction rank d0 is determined according to the combination. Here, the video genre information d1 and the video type information d2 are information determined based on, for example, information included in the metadata or input source information of the source video signal. For example, when the source video signal is a video signal extracted from a television broadcast signal, the video type information d2 is a high-definition video according to the video definition information included in the metadata. Whether it is a standard definition image or not is determined. Here, the high-definition image is an image having 1080 effective scanning lines and an aspect ratio of 16: 9 in digital broadcasting. When the source video signal is a computer output video signal input through the PC terminal 71, it is determined that the video type information d2 is a computer output video. The determination is performed by the control unit 21.
Further, as described above, the display image quality mode information d3 is information set in accordance with a user operation on the remote controller.
前記ソース映像信号の映像が,カメラワークや被写体の動きの激しい「スポーツ」や「アクション」のジャンルの映像である場合,その映像における動きボケが顕著となる。一方,前記ソース映像信号の映像が,カメラワークや被写体の動きが比較的少ない「ニュース」,「バラエティ」又は「ドキュメンタリー」のジャンルの映像である場合,その映像に動きボケが生じ得るがそのボケの程度は比較的小さい。また,前記ソース映像信号の映像が,「アニメーション」のジャンルの映像である場合,その映像には動きボケは生じ得ない。
また,前記ソース映像信号の映像が高精細度映像である場合,前記動きボケ補正処理による映像の鮮鋭化効果がより顕著に現れる。同様に,前記ソース映像信号に基づく映像が前記ダイナミックモードで表示される場合,前記動きボケ補正処理による映像の鮮鋭化効果がより顕著に現れる。
また,前記ソース映像信号の映像が,前記計算機出力映像である場合,その映像には動きボケは生じ得ない。
When the video of the source video signal is a video of a “sport” or “action” genre in which camera work or subject movement is intense, motion blur in the video becomes noticeable. On the other hand, if the video of the source video signal is a video of the “news”, “variety”, or “documentary” genre with relatively little camera work or subject movement, motion blur may occur in the video. The degree of is relatively small. Further, when the video of the source video signal is a video of the “animation” genre, motion blur cannot occur in the video.
In addition, when the source video signal is a high-definition video, the sharpening effect of the video by the motion blur correction process appears more prominently. Similarly, when the video based on the source video signal is displayed in the dynamic mode, the sharpening effect of the video by the motion blur correction process appears more remarkably.
Further, when the video of the source video signal is the computer output video, motion blur cannot occur in the video.
そこで,前記制御部21は,前記映像のジャンルの情報d1が「スポーツ」又は「アクション」のジャンルを表し,前記映像の種類情報d2が高精細度映像を表し,前記表示画質モードd3がダイナミックモードである場合に,前記動きボケ補正ランクd0を最大の「4」と判別する。
また,前記制御部21は,前記映像のジャンルの情報d1が「スポーツ」又は「アクション」のジャンルを表す場合であって,前記映像の種類情報d2が高精細度映像もしくは前記計算機出力映像以外を表す,又は前記表示画質モードd3がダイナミックモード以外である場合に,前記動きボケ補正ランクd0を2番目に大きい「3」と判別する。
また,前記映像のジャンルの情報d1が「ニュース」,「バラエティ」又は「ドキュメンタリー」のジャンルを表し,前記映像の種類情報d2が高精細度映像を表し,前記表示画質モードd3がダイナミックモードである場合に,前記動きボケ補正ランクd0を標準的な「2」と判別する。
また,前記制御部21は,前記映像のジャンルの情報d1が「ニュース」,「バラエティ」又は「ドキュメンタリー」のジャンルを表す場合であって,前記映像の種類情報d2が高精細度映像もしくは前記計算機出力映像以外を表す,又は前記表示画質モードd3がダイナミックモード以外である場合に,前記動きボケ補正ランクd0を標準よりも補正の程度の弱い「1」と判別する。
また,前記制御部21は,以上に示した以外の場合に,前記動きボケ補正ランクd0を「0」と判別する。前記動きボケ補正ランクd0が「0」と判別される条件は,例えば,前記ソース映像信号に対応する前記映像のジャンルの情報d1が「アニメーション」を表す場合や,前記ソース映像の種類情報d2が前記計算機出力映像を表す場合などである。
そして,前記制御部21は,前記動きボケ補正ランクd0の判別結果を前記動きボケ補正部22dに対して制御指令として出力する。
Therefore, the control unit 21 indicates that the genre information d1 of the video represents a genre of “sports” or “action”, the video type information d2 represents a high-definition video, and the display image quality mode d3 is a dynamic mode. In this case, the motion blur correction rank d0 is determined as the maximum “4”.
Further, the control unit 21 is a case where the genre information d1 of the video indicates a genre of “sports” or “action”, and the video type information d2 is other than a high definition video or the computer output video. If the display image quality mode d3 is other than the dynamic mode, the motion blur correction rank d0 is determined to be the second largest “3”.
Further, the video genre information d1 represents a "news", "variety", or "documentary" genre, the video type information d2 represents a high-definition video, and the display image quality mode d3 is a dynamic mode. In this case, the motion blur correction rank d0 is determined as a standard “2”.
In addition, the control unit 21 may be configured such that the video genre information d1 indicates a “news”, “variety”, or “documentary” genre, and the video type information d2 is a high-definition video or the computer. When the image other than the output video is represented, or when the display image quality mode d3 is other than the dynamic mode, the motion blur correction rank d0 is determined as “1”, which is weaker than the standard.
The control unit 21 determines that the motion blur correction rank d0 is “0” in cases other than those described above. The condition for determining that the motion blur correction rank d0 is “0” is, for example, when the information d1 of the video genre corresponding to the source video signal represents “animation” or the type information d2 of the source video is For example, it represents the computer output video.
Then, the control unit 21 outputs the determination result of the motion blur correction rank d0 as a control command to the motion blur correction unit 22d.
一方,前記動きボケ補正部22dは,前記制御部21による前記動きボケ補正ランクd0の判別結果が「1」〜「4」のいずれかである場合,そのランクに応じた補正係数を用いて前記ソースフレーム信号に対する前記動きボケ補正処理を行う。
また,前記動きボケ補正部22dは,前記制御部21による前記動きボケ補正ランクd0の判別結果が「0」である場合,前記動きボケ補正処理を行わずに,最新の前記ソースフレーム信号をそのまま前記ソース映像用フレーム信号として前記画面合成部26へ出力する。
前記制御部21による前記動きボケ補正制御により,当該テレビジョン受像機Xにおいて表示対象となる多様な前記ソース映像信号に対し,カメラによる撮像時に生じた前記動きボケの補正処理を行うにあたり,その補正の強さの過不足を回避して高画質の映像表示を行うことができる。
On the other hand, when the determination result of the motion blur correction rank d0 by the control unit 21 is any one of “1” to “4”, the motion blur correction unit 22d uses the correction coefficient corresponding to the rank. The motion blur correction process is performed on the source frame signal.
In addition, when the determination result of the motion blur correction rank d0 by the control unit 21 is “0”, the motion blur correction unit 22d does not perform the motion blur correction process and uses the latest source frame signal as it is. The source video frame signal is output to the screen synthesis unit 26.
When the motion blur correction control generated by the camera 21 is performed on the various source video signals to be displayed on the television receiver X by the motion blur correction control by the control unit 21, the correction is performed. Therefore, it is possible to display a high-quality video by avoiding excessive or insufficient strength.
以下,図3を参照しつつ,前記動きボケ補正部22dによる前記動きボケ補正処理の概要について説明する。なお,前記動きボケ補正処理は,例えば,周知の手ぶれ補正処理が採用されればよい。
まず,前記動きボケ補正部22dは,最新の前記ソースフレーム信号の映像とその1つ前の前記ソースフレーム信号の映像との相関値計算を行うことにより,動きベクトルVmを算出する。
図3において,A0は,前記ソースフレーム信号における映像領域全体の中で予め設定された一部の映像領域である参照映像領域を表す。また,G0は,最新の前記ソースフレーム信号における前記参照映像領域A0内の映像である参照映像を表す。また,Axは,前記参照映像領域A0を基準に予め定められた範囲だけ拡張した映像領域である拡張映像領域を表す。また,A1は,前記拡張映像領域Ax内で順次移動させつつ設定される前記参照映像領域A0と同じ形状及び大きさの映像領域である探索映像領域A1を表す。また,G1は,最新よりも1つ前の前記フレーム信号における前記探索映像領域A0内の映像である探索映像を表す。ここで,前記参照映像領域A0は,1つ又は複数設定されることが考えられる。例えば,前記参照映像領域A0が1つである場合,その参照映像領域A0は,映像領域全体のうち縁部のごく一部のみを除いた残り全体とすることが考えられる。また,前記参照映像領域A0が複数である場合,映像領域全体を多数の小領域に区分し,その小領域各々を前記参照映像領域A0として設定することが考えられる。なお,前記拡張映像領域Axは,前記参照領域A0ごとに設定される。
前記動きボケ補正部22dは,前記探索映像領域A1を前記拡張映像領域Ax内で順次移動させて設定しつつ,最新の前記ソースフレーム信号における前記参照映像領域A0内の前記参照映像G0と,その1つ前の前記フレーム信号における前記探索映像領域A1内の前記探索映像G1との相関値を順次算出する。
そして,最も高い相関値が得られるときの前記探索映像領域A1から前記参照映像領域A0までの移動ベクトルを前記動きベクトルVmとして算出する。
Hereinafter, the outline of the motion blur correction process by the motion blur correction unit 22d will be described with reference to FIG. The motion blur correction process may be, for example, a known camera shake correction process.
First, the motion blur correction unit 22d calculates a motion vector Vm by calculating a correlation value between the latest video of the source frame signal and the video of the previous source frame signal.
In FIG. 3, A0 represents a reference video area that is a part of the video area set in advance in the entire video area in the source frame signal. G0 represents a reference video that is a video in the reference video area A0 in the latest source frame signal. Ax represents an extended video area which is a video area expanded by a predetermined range based on the reference video area A0. A1 represents a search video area A1, which is a video area having the same shape and size as the reference video area A0 set while being sequentially moved in the extended video area Ax. G1 represents a search video that is a video in the search video area A0 in the previous frame signal from the latest. Here, one or a plurality of reference video areas A0 may be set. For example, when there is one reference video area A0, the reference video area A0 may be the entire remaining area except for a very small part of the edge of the entire video area. When there are a plurality of reference video areas A0, it is conceivable to divide the entire video area into a number of small areas and set each of the small areas as the reference video area A0. The extended video area Ax is set for each reference area A0.
The motion blur correction unit 22d sequentially sets the search video area A1 in the extended video area Ax, and sets the reference video G0 in the reference video area A0 in the latest source frame signal, A correlation value with the search video G1 in the search video area A1 in the previous frame signal is sequentially calculated.
Then, the movement vector from the search video area A1 to the reference video area A0 when the highest correlation value is obtained is calculated as the motion vector Vm.
次に,前記動きボケ補正部22dは,算出した前記動きベクトルVmに基づいて,最新の前記ソースフレーム信号に対して前記動きボケ補正処理を行う。以下,その具体例について説明する。
前記動きベクトルVmの大きな場所は,カメラによる撮像時にブレにより生じた前記動きボケが大きいと推定され,前記動きベクトルVmの小さな場所は,カメラによる撮像時にブレにより生じた前記動きボケが小さいと推定される。なお,前記動きボケが大きいとは,映像の高周波成分(変化が細かく激しい部分)が低周波成分(変化が小さい部分)に比べて低下している状態である。
そこで,前記動きボケ補正部22dは,前記動きボケ補正処理において,前記動きベクトルVmの大小に応じて強弱の異なるハイパスフィルタを最新の前記ソースフレーム信号に施す。前記動きベクトルVmの大小と前記ハイパスフィルタの強弱との関係は予め設定される。なお,前記ハイパスフィルタの強弱とは,低周波成分の減衰率の高低と同義であり,該ハイパスフィルタが強いほど,低周波成分の減衰量が大きく高周波成分が強調されることとなる。
具体的に,前記動きボケ補正部22dは,前記動きベクトルVmが大きくフレーム間の動きが大きい領域に対応する前記ソースフレーム信号に対しては,強くハイパスフィルタを掛けることにより,低下した高周波成分を補正する。これにより,見た目では,エッジが強調され,鮮鋭度が増すことになり,前記動きボケが少なくなったように見える。
一方,前記動きボケが小さい部分にハイパスフィルターを強くかけてしまうと,映像の高周波成分が低周波成分に比べて極端に増加した映像となり,見た目では,エッジが非現実的に強調されて映像の違和感として感じられ,また,必要以上にノイズが強調された映像になってしまう。
そこで,前記動きボケ補正部22dは,前記動きベクトルVmが小さくフレーム間の動きが小さい領域に対応する前記ソースフレーム信号に対しては,弱くハイパスフィルタを掛ける。これにより,映像の高周波成分と低周波成分のバランスの取れた映像を実現することができる。
このように,当該テレビジョン受像機Xでは,前記動きボケ補正部22dによって前記動きボケ補正処理が実行されることにより,画面の各部分について,前記動きベクトルVmの大小に応じてハイパスフィルターの強弱が適宜変更されるため,画面全体として,ブレを低減しつつ違和感のない映像表示を実現することができる。
Next, the motion blur correction unit 22d performs the motion blur correction process on the latest source frame signal based on the calculated motion vector Vm. Specific examples will be described below.
A place where the motion vector Vm is large is estimated to have a large amount of motion blur caused by blurring during imaging by the camera, and a place where the motion vector Vm is small is estimated to be a small amount of motion blur caused by blurring during imaging by the camera. Is done. Note that the motion blur is large is a state in which the high-frequency component (a portion where the change is fine and intense) is lower than the low-frequency component (a portion where the change is small).
Therefore, the motion blur correction unit 22d applies, to the latest source frame signal, a high-pass filter having different strengths according to the magnitude of the motion vector Vm in the motion blur correction process. The relationship between the magnitude of the motion vector Vm and the strength of the high-pass filter is preset. The strength of the high-pass filter is synonymous with the level of the attenuation rate of the low-frequency component. The stronger the high-pass filter, the greater the attenuation amount of the low-frequency component, and the higher-frequency component is emphasized.
Specifically, the motion blur correction unit 22d applies a high-pass filter to the source frame signal corresponding to the region where the motion vector Vm is large and the motion between frames is large, thereby reducing the high-frequency component that has been reduced. to correct. As a result, the edge is emphasized, the sharpness is increased, and the motion blur appears to be reduced.
On the other hand, if a high-pass filter is applied to the part where the motion blur is small, the high-frequency component of the image is extremely increased compared to the low-frequency component, and the edge is unrealistically emphasized in appearance. It feels uncomfortable, and the image is emphasized with noise more than necessary.
Therefore, the motion blur correction unit 22d weakly applies a high-pass filter to the source frame signal corresponding to the region where the motion vector Vm is small and the motion between frames is small. As a result, it is possible to realize an image in which the high frequency component and the low frequency component of the image are balanced.
Thus, in the television receiver X, the motion blur correction process is executed by the motion blur correction unit 22d, so that the high-pass filter strength of each part of the screen depends on the magnitude of the motion vector Vm. Therefore, it is possible to realize a video display without any sense of incongruity while reducing blurring on the entire screen.
また,前記動きボケ補正部22dは,前記輝度ヒストグラムの変化量に基づいて,前記ソース映像信号に基づく前記ソースフレーム信号各々について,その映像が一連の撮影場面の動画の1コマを表す映像であるか否かを判別する。
例えば,前記動きボケ補正部22dは,前記輝度ヒストグラムの変化量が,予め設定された下限値から上限値までの範囲内である場合に,その変化量に対応する前記ソースフレーム信号の映像が一連の撮影場面の動画の1コマを表す映像であると判別する。前記輝度ヒストグラムの変化量が非常に小さい場合,前記ソースフレーム信号の映像は,一連の撮影場面の映像であるが,静止画又はほぼ静止画とみなせる映像であると考えられる。また,前記輝度ヒストグラムの変化量が非常に大きい場合,前記ソースフレーム信号の映像は,撮影場面の切り替わり時の映像であると考えられる。
前記ソース映像信号は,その映像が静止画又はほぼ静止画とみなせる映像である場合や,撮影場面の切り替わり時の映像である場合には,動画の動きボケの問題が生じていない可能性が高く,通常,前記動きボケ補正を必要としない。そのようなソース映像信号におけるフレーム信号に対して前記動きボケ補正を行うと,ノイズ映像や静止した像のエッジ部等に過剰な(不要な)エッジ強調がなされてかえって画質が劣化する。
そこで,前記動きボケ補正部22dは,前記ソースフレーム信号各々について,その映像が一連の撮影場面の動画の1コマを表す映像であると判別した場合にのみ前記動きボケ補正処理を施し,そうでない場合には前記動きボケ補正処理をスキップする。
そして,前記動きボケ補正部22dは,最新の前記ソースフレーム信号に対し前記動きボケ補正処理を行った場合,補正後の前記ソースフレーム信号を前記ソース映像用フレーム信号として前記画面合成部26へ出力する。一方,前記動きボケ補正部22dは,前記動きボケ補正処理をスキップする場合,前記信号バッファ22bに蓄積された最新の前記ソースフレーム信号をそのまま前記ソース映像用フレーム信号として前記画面合成部26へ出力する。
In addition, the motion blur correction unit 22d is a video that represents one frame of a moving image of a series of shooting scenes for each of the source frame signals based on the source video signal based on the change amount of the luminance histogram. It is determined whether or not.
For example, when the change amount of the luminance histogram is in a range from a preset lower limit value to an upper limit value, the motion blur correction unit 22d generates a series of images of the source frame signal corresponding to the change amount. It is determined that the image represents one frame of the moving image of the shooting scene. When the change amount of the luminance histogram is very small, the video of the source frame signal is a video of a series of shooting scenes, but is considered to be a video that can be regarded as a still image or almost a still image. In addition, when the change amount of the luminance histogram is very large, the video of the source frame signal is considered to be a video at the time of shooting scene switching.
If the source video signal is a video that can be regarded as a still image or almost a still image, or a video at the time of switching of the shooting scene, there is a high possibility that the problem of motion blur of the video has not occurred. Normally, the motion blur correction is not required. When the motion blur correction is performed on the frame signal in such a source video signal, excessive (unnecessary) edge enhancement is performed on the edge portion of a noise video or a still image, and the image quality deteriorates.
Therefore, the motion blur correction unit 22d performs the motion blur correction processing only when it is determined that each of the source frame signals is a video representing one frame of a moving image of a series of shooting scenes. In this case, the motion blur correction process is skipped.
When the motion blur correction unit 22d performs the motion blur correction process on the latest source frame signal, the motion blur correction unit 22d outputs the corrected source frame signal to the screen synthesis unit 26 as the source video frame signal. To do. On the other hand, when the motion blur correction unit 22d skips the motion blur correction process, the latest source frame signal stored in the signal buffer 22b is directly output to the screen synthesis unit 26 as the source video frame signal. To do.
以上に示した実施形態では,図4に示したように,前記制御部21が,前記メタデータに含まれる前記映像のジャンルの情報d1及び前記映像の種類情報d2と,前記表示画質モードの情報d3とからなる3つの情報d1〜d3の組合せに応じて前記動きボケ補正ランクd0を判別する例について示した。
その他,前記制御部21が,前記3つの情報d1〜d3のうちの1つ又は2つに基づいて,前記動きボケ補正ランクd0を判別することも考えられる。
また,前記ソース映像信号の映像の精細度が前記高精細度映像であるか前記標準精細度映像であるかについては,例えば,前記フレーム信号生成部22a等が,前記ソース映像信号に基づいて,走査線本数のカウント等によって判別することも考えられる。
また,前記制御部21が,前記参照情報の他の例として,前記ソース映像信号から検出されるノイズ量の情報を前記動きボケ補正制御に用いることも考えられる。例えば,前記制御部21が,前記ソース映像信号から検出されるノイズ量が多いほど,前記動きボケ補正ランクd0の値を下げることが考えられる。前記ソース映像信号に含まれるノイズ量が多い場合,前記動きボケ補正処理が,そのノイズに反応した処理を行うことによりかえって画像劣化を招くからである。このノイズ量に基づく前記動きボケ補正ランクd0の変更処理は,それ単独で,或いは前記3つの情報d1〜d3のうちの1つ以上との組合せに応じて行うことが考えられる。
前記ノイズ量の検出は,例えば,前記フレーム信号生成部22aが,前記ソース映像信号から予め定められた高周波帯域の信号成分の量を検出することによって行われる。
In the embodiment described above, as shown in FIG. 4, the control unit 21 performs the video genre information d1 and the video type information d2 included in the metadata, and the display image quality mode information. An example in which the motion blur correction rank d0 is determined according to a combination of three pieces of information d1 to d3 including d3 is shown.
In addition, it is conceivable that the control unit 21 determines the motion blur correction rank d0 based on one or two of the three pieces of information d1 to d3.
Further, as to whether the definition of the video of the source video signal is the high-definition video or the standard definition video, for example, the frame signal generation unit 22a or the like, based on the source video signal, It is also conceivable to make a determination by counting the number of scanning lines.
Further, as another example of the reference information, the control unit 21 may use information on the amount of noise detected from the source video signal for the motion blur correction control. For example, it is conceivable that the controller 21 lowers the value of the motion blur correction rank d0 as the amount of noise detected from the source video signal increases. This is because when the amount of noise included in the source video signal is large, the motion blur correction process causes image degradation by performing a process in response to the noise. The change processing of the motion blur correction rank d0 based on the noise amount can be performed alone or in accordance with a combination with one or more of the three pieces of information d1 to d3.
The detection of the amount of noise is performed, for example, by the frame signal generation unit 22a detecting the amount of a signal component in a predetermined high frequency band from the source video signal.
また,前記メタデータに,前記ソース映像信号の映像が,いわゆるピクチャー・イン・ピクチャーの映像のように複数画面の組み合わせの映像であることを示す情報が含まれる場合も考えられる。そのような前記ソース映像信号に対して前記動きボケ補正処理を施すと,複数画面の境界線の部分が白っぽく強調された不自然な出力映像が得られてしまう。
そこで,前記制御部21が,前記メタデータにおける前記ソース映像信号に対応する情報により,前記ソース映像信号の映像が複数画面の組み合わせの映像であるか否かを判別し,その判別結果に応じて前記動きボケ補正制御を行うことも考えられる。
例えば,前記制御部21が,前記ソース映像信号の映像が複数画面の組み合わせの映像であると判別した場合に,前記動きボケ補正ランクd0を「0」に設定して前記動きボケ補正処理を実行しないよう制御することが考えられる。
また,前記メタデータに,前記ソース映像信号の映像における複数画面のレイアウト情報が含まれている場合が考えられる。その場合,前記動きボケ補正部22dが,そのレイアウト情報に基づいて,組み合わされた複数画面の境界線を含む一部の映像領域について,他の映像領域よりも前記動きボケ補正処理を弱める処理を行うことや,前記動きボケ補正処理を実行しないよう制御することも考えられる。
また,例えば前記フレーム信号生成部22aが,前記ソース映像信号の映像が複数画面の組み合わせの映像であるか否かの判別や,それら複数画面のレイアウト情報の検出を行い,その判別及び検出の結果に基づいて,前記動きボケ補正部22dが前記動きボケ補正処理の強弱もしくは実行有無の制御を行うことも考えられる。
In addition, the metadata may include information indicating that the video of the source video signal is a video of a combination of a plurality of screens such as a so-called picture-in-picture video. When the motion blur correction process is performed on such a source video signal, an unnatural output video in which boundary portions of a plurality of screens are emphasized in white is obtained.
Therefore, the control unit 21 determines whether or not the video of the source video signal is a video of a combination of a plurality of screens based on information corresponding to the source video signal in the metadata, and according to the determination result. It is also conceivable to perform the motion blur correction control.
For example, when the control unit 21 determines that the video of the source video signal is a video of a combination of a plurality of screens, the motion blur correction rank d0 is set to “0” and the motion blur correction process is executed. It is conceivable to control such that it does not.
Further, there may be a case where the metadata includes layout information of a plurality of screens in the video of the source video signal. In this case, the motion blur correction unit 22d performs a process of weakening the motion blur correction process over a part of the video areas including the boundary lines of the combined multiple screens based on the layout information as compared with the other video areas. It is also conceivable to perform the control or not to execute the motion blur correction process.
Further, for example, the frame signal generation unit 22a determines whether or not the video of the source video signal is a video of a combination of a plurality of screens, detects the layout information of the plurality of screens, and results of the determination and detection Based on the above, it is also conceivable that the motion blur correction unit 22d performs control of the strength of the motion blur correction process or the execution / non-execution thereof.
本発明は,テレビジョン受像機への利用が可能である。 The present invention can be used for a television receiver.
X :テレビジョン受像機
1 :チューナ
2 :マルチコアCPU
3 :液晶駆動回路
4 :液晶パネル
5 :調光回路
6 :バックライト
7 :外部信号入力インターフェース
21 :制御部
22 :ソース映像画面生成部
22a:フレーム信号生成部
22b:信号バッファ
22c:ヒストグラム演算部
22d:動きボケ補正部
23 :データ放送画面生成部
24 :OSD画面生成部
26 :画面合成部
27 :ガンマ補正部
71 :PC端子
72 :HDMI回路
X: Television receiver 1: Tuner 2: Multi-core CPU
3: Liquid crystal drive circuit 4: Liquid crystal panel 5: Light control circuit 6: Backlight 7: External signal input interface 21: Control unit 22: Source video screen generation unit 22a: Frame signal generation unit 22b: Signal buffer 22c: Histogram calculation unit 22d: Motion blur correction unit 23: Data broadcast screen generation unit 24: OSD screen generation unit 26: Screen composition unit 27: Gamma correction unit 71: PC terminal 72: HDMI circuit
Claims (4)
前記ソース映像信号に対して動画の動きボケを改善する動きボケ補正処理を施す動きボケ補正手段と,
所定の参照情報に応じて前記動きボケ補正処理の強弱又は実行有無を変更する動きボケ補正制御手段と,
を具備してなることを特徴とするテレビジョン受像機。 A television receiver for displaying a video based on a video signal obtained by subjecting a predetermined source video signal to signal processing by a video display means,
Motion blur correction means for performing motion blur correction processing for improving motion blur of a moving image with respect to the source video signal;
Motion blur correction control means for changing the intensity or execution of the motion blur correction process according to predetermined reference information;
A television receiver, comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009139990A JP2010288052A (en) | 2009-06-11 | 2009-06-11 | Television receiver |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009139990A JP2010288052A (en) | 2009-06-11 | 2009-06-11 | Television receiver |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010288052A true JP2010288052A (en) | 2010-12-24 |
Family
ID=43543442
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009139990A Pending JP2010288052A (en) | 2009-06-11 | 2009-06-11 | Television receiver |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010288052A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013161083A (en) * | 2012-09-04 | 2013-08-19 | Sharp Corp | Video display device and television receiver |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007129504A (en) * | 2005-11-04 | 2007-05-24 | Sharp Corp | Image display device |
| JP2008079288A (en) * | 2007-07-10 | 2008-04-03 | Sharp Corp | Image display apparatus and method |
| JP2008295022A (en) * | 2007-04-27 | 2008-12-04 | Sharp Corp | Image processing apparatus and method, image display apparatus and method |
-
2009
- 2009-06-11 JP JP2009139990A patent/JP2010288052A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007129504A (en) * | 2005-11-04 | 2007-05-24 | Sharp Corp | Image display device |
| JP2008295022A (en) * | 2007-04-27 | 2008-12-04 | Sharp Corp | Image processing apparatus and method, image display apparatus and method |
| JP2008295023A (en) * | 2007-04-27 | 2008-12-04 | Sharp Corp | Image processing apparatus and method, image display apparatus and method |
| JP2008079288A (en) * | 2007-07-10 | 2008-04-03 | Sharp Corp | Image display apparatus and method |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013161083A (en) * | 2012-09-04 | 2013-08-19 | Sharp Corp | Video display device and television receiver |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4011122B2 (en) | Image quality correction circuit for video signals | |
| JP6921886B2 (en) | Information processing device and information processing method | |
| JP5436020B2 (en) | Image processing apparatus and image processing method | |
| JP5577333B2 (en) | Video signal processing apparatus and video signal processing method | |
| JP2006146178A (en) | Generation method of transfer curve for adaptive contrast improvement | |
| JP5089783B2 (en) | Image processing apparatus and control method thereof | |
| JP4221434B2 (en) | Outline correction method, image processing apparatus, and display apparatus | |
| JP4417780B2 (en) | Noise removal apparatus and image display apparatus | |
| US8014623B2 (en) | System and method for efficiently enhancing videos and images | |
| KR20090127690A (en) | Display device and control method | |
| JP6190482B1 (en) | Display control device, display device, television receiver, display control device control method, control program, and recording medium | |
| JP2013258683A (en) | Display device, display device control method, television receiver, control program, and recording medium | |
| JP6226186B2 (en) | Video display control device | |
| US20120008050A1 (en) | Video processing apparatus and video processing method | |
| JP6640353B2 (en) | Video display device, television receiver, transmission device, control program, and recording medium | |
| TWI389576B (en) | Image processing device and image processing method | |
| JP2008258925A (en) | Gamma correction circuit and gamma correction method | |
| JP2010288052A (en) | Television receiver | |
| JP2014032301A (en) | Liquid crystal display device | |
| JP2010220030A (en) | Video correction circuit, and video display device | |
| JP2013213847A (en) | Image display device | |
| JP7499067B2 (en) | Display device | |
| JP2009271401A (en) | Image display apparatus | |
| JP2020030262A (en) | Image display device and control method thereof | |
| JP2010192948A (en) | Television receiver |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110307 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20110314 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110824 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121025 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121106 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130312 |