[go: up one dir, main page]

JP2013120204A - Image processing device and control method for the same - Google Patents

Image processing device and control method for the same Download PDF

Info

Publication number
JP2013120204A
JP2013120204A JP2011266622A JP2011266622A JP2013120204A JP 2013120204 A JP2013120204 A JP 2013120204A JP 2011266622 A JP2011266622 A JP 2011266622A JP 2011266622 A JP2011266622 A JP 2011266622A JP 2013120204 A JP2013120204 A JP 2013120204A
Authority
JP
Japan
Prior art keywords
image
image signal
divided
display
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011266622A
Other languages
Japanese (ja)
Inventor
Kensaku Misumada
健作 三角田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011266622A priority Critical patent/JP2013120204A/en
Publication of JP2013120204A publication Critical patent/JP2013120204A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that automatically discriminates video signals differing in resolution from one another without needing any display adjusting pattern or display adjustment using a dedicated camera, and a control method for the device.SOLUTION: An image displaying device 100 has a plurality of split image receivers 101 to 104 that receive signals of split-frame images resulting from splitting of high resolution frame images or signals of frame images of standard resolution. An edge detector 114 extracts and detects edge part regarding continuity among the frame images, and transmits edge information to a standard/split-frame image determining unit 115. If the inputted frame images are the split-frame images having continuity among images, an image integration processor 105 outputs data resulting from integration of the split-frame images to an image area adjuster 107. Or if the inputted frame images are the standard resolution frame images having no continuity among the images, the image area adjuster 107 outputs data resulting from expansion of the frame images to a display unit 108.

Description

本発明は、画像信号を判別して表示させる映像処理装置およびその制御方法に関する。   The present invention relates to a video processing apparatus that discriminates and displays an image signal and a control method thereof.

1枚の高解像度フレーム画像を複数の領域に分割した後、個別のケーブルで各々伝送し、受信装置側で元の高解像フレーム画像への再合成を行うことによって、高解像度映像信号の送受信を実現する送信機器と映像表示装置が実用化されている。この種の装置では、複数本のケーブルを用いた高解像度フレーム画像の伝送に加えて、単一ケーブルを用いた伝送で1つのコンテンツを送信可能である。後者の場合、標準解像度のフレーム画像の表示機能が実現される。
図1(A)は、送信機器にて1枚の高解像度フレーム画像を4つの領域に分割し、各ケーブルでそれぞれ映像表示装置に伝送する例を示す。また図1(B)は、標準解像度のフレーム画像を1本のケーブルで送信機器から映像表示装置に伝送する例を示す。
After a single high-resolution frame image is divided into a plurality of areas, each is transmitted through individual cables, and the receiver unit re-synthesizes the original high-resolution frame image to transmit and receive high-resolution video signals. Transmitting devices and video display devices that realize the above have been put into practical use. In this type of apparatus, in addition to transmission of a high-resolution frame image using a plurality of cables, one content can be transmitted by transmission using a single cable. In the latter case, a standard resolution frame image display function is realized.
FIG. 1A illustrates an example in which one high-resolution frame image is divided into four regions by a transmission device and transmitted to a video display device using each cable. FIG. 1B shows an example in which a standard-resolution frame image is transmitted from a transmission device to a video display device using a single cable.

従来の映像表示装置では、入力映像信号に係るフォーマットについて予め映像表示装置でユーザが設定操作を行う必要がある。つまり高解像度フレーム画像を映像表示装置で表示する場合、領域分割したフレーム画像の信号を複数本のケーブル伝送で受信するようにユーザの設定を要する。また、標準解像度フレーム画像を表示する場合には、1本のケーブル伝送で受信するようにユーザは再度、映像表示装置に設定する必要がある。
特許文献1に開示の装置では、カメラを用いて表示調整用パターンを撮影し、カメラで得た画像を解析する。表示調整用パターンが最適に表示可能な設定となるように調整することにより、異なる解像度をもつ画像信号の入力に対応できる。
In the conventional video display device, it is necessary for the user to perform a setting operation in advance on the video display device for the format related to the input video signal. That is, when a high-resolution frame image is displayed on a video display device, it is necessary for the user to receive a signal of a frame image divided into regions through a plurality of cable transmissions. Further, when displaying a standard resolution frame image, the user needs to set the video display device again so as to receive it by one cable transmission.
In the apparatus disclosed in Patent Document 1, a display adjustment pattern is photographed using a camera, and an image obtained by the camera is analyzed. By adjusting the display adjustment pattern so that it can be optimally displayed, it is possible to cope with input of image signals having different resolutions.

特開2002−365718号公報JP 2002-365718 A

しかしながら、従来の技術では、画像解析によって高解像度フレーム画像と標準解像度フレーム画像を自動で判別して表示させるための設備が大掛かりであった。前記特許文献1に開示の技術では、画面上の表示調整用パターンを専用カメラで撮影して表示調整を行う必要がある。すなわち、表示調整用パターンや専用カメラの使用が必要であるため、ユーザにとって負担が大きく、完全な自動化には至っていなかった。
そこで本発明は、表示調整用パターンや専用カメラを用いた表示調整を必要とせずに、解像度の異なる画像信号を自動で判別して表示制御を行う映像処理装置およびその制御方法の提供を目的とする。
However, the conventional technology requires a large amount of equipment for automatically discriminating and displaying a high resolution frame image and a standard resolution frame image by image analysis. In the technique disclosed in Patent Document 1, it is necessary to perform display adjustment by photographing a display adjustment pattern on a screen with a dedicated camera. That is, since it is necessary to use a display adjustment pattern or a dedicated camera, the burden on the user is great, and complete automation has not been achieved.
Therefore, the present invention has an object to provide a video processing apparatus that automatically discriminates image signals having different resolutions and performs display control without requiring display adjustment using a display adjustment pattern or a dedicated camera, and a control method thereof. To do.

上記課題を解決するために本発明に係る装置は、1枚の表示画像を構成する複数の分割画像に係る分割画像信号と、1枚の表示画像を単独で構成する画像に係る単独画像信号を受信し、受信した画像信号を判別して表示手段に表示させる処理を行う映像処理装置であって、前記分割画像信号および前記単独画像信号を受信する受信手段と、前記受信手段が受信する信号に係る第1画像と、受信済みの画像信号に係る第2画像の間の繋ぎ目となる境界部にて画像の連続性の有無を検出する画像連続性検出手段と、前記画像連続性検出手段によって前記第1画像と第2画像との境界部に連続性があることが検出された場合、前記第1画像に係る画像信号を前記分割画像信号と判断し、前記画像連続性検出手段によって前記第1画像と第2画像との境界部に連続性がないことが検出された場合、前記第1画像に係る画像信号を前記単独画像信号と判断する画像信号判断手段と、前記画像信号判断手段が判断した前記複数の分割画像信号から前記分割画像を結合した前記表示画像のデータを生成する画像統合手段と、前記画像信号判断手段が判断した前記単独画像信号から画像データを生成する画像処理手段を備える。   In order to solve the above-described problem, an apparatus according to the present invention includes a divided image signal related to a plurality of divided images constituting one display image and a single image signal related to an image constituting one display image alone. A video processing apparatus that performs a process of receiving and determining a received image signal and displaying the received image signal on a display unit, the receiving unit receiving the divided image signal and the single image signal, and a signal received by the receiving unit Image continuity detecting means for detecting the presence or absence of image continuity at a boundary portion that becomes a joint between the first image and the second image related to the received image signal, and the image continuity detecting means When it is detected that there is continuity at the boundary between the first image and the second image, the image signal related to the first image is determined to be the divided image signal, and the image continuity detecting means detects the first signal. 1 image and 2nd image When it is detected that there is no continuity in the boundary portion, an image signal determination unit that determines an image signal related to the first image as the single image signal, and the plurality of divided image signals determined by the image signal determination unit Image display means for generating data of the display image obtained by combining the divided images, and image processing means for generating image data from the single image signal determined by the image signal determination means.

本発明によれば、表示調整用パターンや専用カメラを用いた表示調整を必要とせずに、解像度の異なる画像信号を自動で判別して表示制御を行える。   According to the present invention, display control can be performed by automatically discriminating image signals having different resolutions without requiring display adjustment using a display adjustment pattern or a dedicated camera.

分割画像信号および単独画像信号の入力形態を例示する説明図である。It is explanatory drawing which illustrates the input form of a division | segmentation image signal and a single image signal. 図3乃至6と併せて本発明の第1実施形態を説明するために、映像表示装置の概略構成を例示するブロック図である。FIG. 7 is a block diagram illustrating a schematic configuration of a video display device for explaining the first embodiment of the present invention in conjunction with FIGS. 境界領域抽出処理と映像統合処理を説明する図である。It is a figure explaining a boundary region extraction process and a video integration process. フレーム画像の表示領域を示す図(A)および境界領域を示す図(B)である。It is a figure (A) which shows a display field of a frame image, and a figure (B) which shows a boundary field. エッジ情報に基づくタイプ類別の説明図である。It is explanatory drawing of the type classification based on edge information. 映像表示装置における処理例を示すフローチャートである。It is a flowchart which shows the process example in a video display apparatus. 本発明の第2実施形態に係る映像表示装置の概略構成を例示するブロック図である。It is a block diagram which illustrates schematic structure of the video display apparatus concerning 2nd Embodiment of this invention. 本発明の第2実施形態における、統合画像の表示位置制御を説明する図である。It is a figure explaining the display position control of an integrated image in 2nd Embodiment of this invention. 本発明の第3実施形態に係る映像表示装置の概略構成を例示するブロック図である。It is a block diagram which illustrates schematic structure of the video display apparatus concerning 3rd Embodiment of this invention.

以下に図面を参照しつつ、本発明を実施するための好適な形態を説明する。
まず、用語の定義と前提事項について説明する。1枚の表示画像(元画像ともいう)を構成する複数の分割画像を分割フレーム画像と呼び、個々の領域の分割画像信号同士の間に遅延量は発生しないものとする。仮に1フレーム以内の遅延が発生したとしても、それぞれの分割フレーム画像とともに送信される垂直同期信号等を用いて同期化処理が可能であるため、遅延量は発生しないものと扱っても問題はない。また、mおよびnを自然数変数とし、表示画面にて縦方向の分割数をmとし、横方向の分割数をnとするとき、最大でm×n個の分割フレーム画像の伝送が可能であるとする。図1(A)に示す例ではm=2、n=2であり、送信機器から伝送される高解像度のフレーム画像10は4つの領域10A乃至Dに分割して送信される。つまり、映像表示装置は4つの入力端子を持ち、分割伝送された左上領域分割フレーム画像10A、右上分割領域フレーム画像10B、左下領域分割フレーム画像10C、右下領域分割フレーム画像10Dの信号を各端子にてそれぞれ受信する。以下では説明の簡素化のため、[左|右][上|下]領域分割フレーム画像を、単に[左|右][上|下]画像と呼び([x|y]は正規表現を表す)、これらの画像を区別する必要がない場合、単に分割フレーム画像と呼ぶ。なお、分割数mやnの値は任意であり、以下に説明する処理は6分割等でも同様に適用可能である。分割方法については、短冊状に分割する方法等でも構わない。
DESCRIPTION OF EMBODIMENTS Preferred embodiments for carrying out the present invention will be described below with reference to the drawings.
First, definitions of terms and assumptions are explained. A plurality of divided images constituting one display image (also referred to as an original image) are referred to as divided frame images, and no delay amount is generated between the divided image signals of individual regions. Even if a delay within one frame occurs, it is possible to perform synchronization processing using a vertical synchronization signal or the like transmitted together with each divided frame image. . Further, when m and n are natural number variables, the number of vertical divisions on the display screen is m, and the number of horizontal divisions is n, it is possible to transmit a maximum of m × n divided frame images. And In the example shown in FIG. 1A, m = 2 and n = 2, and the high-resolution frame image 10 transmitted from the transmitting device is divided into four regions 10A to 10D and transmitted. That is, the video display device has four input terminals, and the divided and transmitted signals of the upper left area divided frame image 10A, the upper right divided area frame image 10B, the lower left area divided frame image 10C, and the lower right area divided frame image 10D are connected to each terminal. Respectively. In the following, for simplification of description, the [left | right] [up | bottom] region-divided frame image is simply referred to as a [left | right] [up | bottom] image ([x | y] represents a regular expression. ), When these images do not need to be distinguished, they are simply called divided frame images. Note that the values of the division numbers m and n are arbitrary, and the processing described below can be similarly applied to 6 divisions and the like. The dividing method may be a method of dividing into strips.

また、図1(B)に示すように、標準解像度フレーム画像11については1本のケーブルで送信機器から映像表示装置に送信されるものとする。以下では、1枚の表示画像を単独で構成する単独画像信号に関して、複数の分割フレーム画像で構成される高解像度画像に比べて解像度の低い標準解像度のフレーム画像を標準フレーム画像と呼ぶ。また分割フレーム画像と標準フレーム画像を総称して、フレーム画像と呼ぶことにする。
また、本発明における「解像度」とは、例えば1インチ当りに含まれる画素の数といった、定められた領域における画素密度を示す意味に限定されるものではない。本発明における「解像度」とは画像信号が本来有する画素の数という意味をも含む表現である。従って、解像度変換とは、画素の密度を変換するだけでなく、画素の数を変化させる処理をも含む。解像度の低減とは画像信号から画素の数を減らす処理である。また、解像度の向上とは画像信号に含まれる画素の数を増加させる処理である。本発明の特許請求の範囲、明細書及び図面で用いられる「解像度」は、上述した定義で利用されていることに留意されたい。
なお、本発明は、表示パネル等を用いた表示手段を含む映像表示装置に限らず、映像出力信号を外部表示手段に送信して画像表示を行う映像処理装置にも適用可能である。
Further, as shown in FIG. 1B, the standard resolution frame image 11 is transmitted from the transmission device to the video display device with a single cable. Hereinafter, a standard resolution frame image having a lower resolution than a high resolution image composed of a plurality of divided frame images is referred to as a standard frame image for a single image signal that constitutes a single display image. The divided frame image and the standard frame image are collectively referred to as a frame image.
Further, the “resolution” in the present invention is not limited to the meaning indicating the pixel density in a predetermined area, such as the number of pixels included per inch. “Resolution” in the present invention is an expression including the meaning of the number of pixels originally included in an image signal. Therefore, resolution conversion includes not only conversion of pixel density but also processing for changing the number of pixels. Resolution reduction is a process of reducing the number of pixels from an image signal. The resolution improvement is a process for increasing the number of pixels included in the image signal. It should be noted that “resolution” as used in the claims, specification and drawings of the present invention is utilized in the above definition.
Note that the present invention is not limited to a video display device including display means using a display panel or the like, but can also be applied to a video processing device that displays an image by transmitting a video output signal to an external display means.

[第1実施形態]
以下、図面を参照して、本発明の第1実施形態を詳細に説明する。第1実施形態ではフレーム画像を異なる入力端子から複数入力することが可能である。この場合、いずれかの入力端子から最後に入力されたフレーム画像を全画面で表示するようにフレーム画像の表示制御が行われる。この制御により、ユーザが最も注目したいフレーム画像を常に画面に表示可能となる。
図2は、第1実施形態に係る映像表示装置100の機能構成について概要を示すブロック図である。映像表示装置100は図示しない送信機器からフレーム画像の信号を受信する。送信機器から高解像度フレーム画像を受信する場合、4つの分割映像受信部101乃至104は領域分割された各フレーム画像の信号をそれぞれ受信する。また、標準フレーム画像を受信する場合には、1つの受信部にて1つのフレーム画像の信号を受信する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, it is possible to input a plurality of frame images from different input terminals. In this case, display control of the frame image is performed so that the frame image last input from one of the input terminals is displayed on the full screen. This control makes it possible to always display the frame image that the user wants to pay attention to on the screen.
FIG. 2 is a block diagram showing an outline of a functional configuration of the video display apparatus 100 according to the first embodiment. The video display apparatus 100 receives a frame image signal from a transmission device (not shown). When a high-resolution frame image is received from a transmission device, the four divided video reception units 101 to 104 each receive a signal of each frame image divided into regions. Further, when receiving a standard frame image, one receiving unit receives a signal of one frame image.

第1の分割映像受信部101は、例えば図1(A)に示す左上画像10Aの信号または標準フレーム画像の信号を、第1の伝送ケーブル118から受信する。第1の分割映像受信部101は、受信したフレーム画像信号を映像統合処理部105と第1の境界領域抽出部109に送信する。第2乃至4の分割映像受信部102乃至104についても、第1の分割映像受信部101の場合と同様に、第2乃至4の伝送ケーブル119乃至121をそれぞれ介してフレーム画像の信号を受信する。例えば、第2の分割映像受信部102は、図1(A)の右上画像10Bの信号を受信し、第3の分割映像受信部103は左下画像10Cの信号を受信し、第4の分割映像受信部104は右下画像10Dの信号を受信する。その後、第2乃至4の分割映像受信部102乃至104は、受信した分割フレーム画像の各信号を、映像統合処理部105と第2乃至4の境界領域抽出部110乃至112にそれぞれ伝送する。また、送信機器から標準フレーム画像の信号を受信する場合に分割映像受信部102乃至104は、受信した標準フレーム画像の信号を、映像統合処理部105と境界領域抽出部110乃至112にそれぞれ送信する。各分割映像受信部101乃至104では、個々の分割フレーム画像の間に遅延がなく、同期した分割フレーム画像を受信するので、分割フレーム画像を順次に統合すれば、同期のとれた元の高解像度フレーム画像を再現できる。   The first divided video receiving unit 101 receives, for example, the signal of the upper left image 10A or the signal of the standard frame image shown in FIG. 1A from the first transmission cable 118. The first divided video reception unit 101 transmits the received frame image signal to the video integration processing unit 105 and the first boundary region extraction unit 109. Similarly to the case of the first divided video receiving unit 101, the second to fourth divided video receiving units 102 to 104 receive frame image signals via the second to fourth transmission cables 119 to 121, respectively. . For example, the second divided video receiving unit 102 receives the signal of the upper right image 10B in FIG. 1A, the third divided video receiving unit 103 receives the signal of the lower left image 10C, and the fourth divided video. The receiving unit 104 receives a signal of the lower right image 10D. Thereafter, the second to fourth divided video receiving units 102 to 104 transmit the signals of the received divided frame images to the video integration processing unit 105 and the second to fourth boundary region extraction units 110 to 112, respectively. Further, when receiving a standard frame image signal from the transmission device, the divided video reception units 102 to 104 transmit the received standard frame image signal to the video integration processing unit 105 and the boundary region extraction units 110 to 112, respectively. . Each of the divided video receiving units 101 to 104 receives the synchronized divided frame images without delay between the individual divided frame images. Therefore, if the divided frame images are sequentially integrated, the synchronized original high resolution can be obtained. Frame images can be reproduced.

映像統合処理部105は、高解像度フレーム画像の伝送の場合に、各分割映像受信部101乃至104から分割フレーム画像の各データを受信し、これらを統合して1枚の高解像度統合フレーム画像を生成する処理を行う。映像統合処理部105は、生成した画像データを画像領域調整部107に送信する。すべての分割映像受信部ではなく、一部の分割映像受信部で分割フレーム画像の信号を受信する場合には、単色のフレーム画像の挿入処理が行われる。本実施形態では黒色のフレーム画像(黒フレーム画像という)を使用する。例えば、第1および第2の分割映像受信部101、102がそれぞれ左上画像10A、右上画像10Bの各信号を受信し、第3および第4の分割映像受信部103、104は信号を受信しない場合を想定する。左下画像10Cおよび右下画像10Dに相当する位置には黒フレーム画像が挿入される。この処理により、1枚の高解像度統合フレーム画像が生成される。後述するように映像統合処理部105は、標準分割フレーム画像判断部115から指定されたフレーム画像を黒フレーム画像に置き換える機能を有する。   In the case of transmission of a high-resolution frame image, the video integration processing unit 105 receives each data of the divided frame images from each of the divided video receiving units 101 to 104, and integrates them to form one high-resolution integrated frame image. Generate the process. The video integration processing unit 105 transmits the generated image data to the image area adjustment unit 107. When a divided frame image signal is received by some divided video reception units instead of all the divided video reception units, a monochrome frame image insertion process is performed. In this embodiment, a black frame image (referred to as a black frame image) is used. For example, the first and second divided video receiving units 101 and 102 receive the signals of the upper left image 10A and the upper right image 10B, respectively, and the third and fourth divided video receiving units 103 and 104 do not receive the signals. Is assumed. Black frame images are inserted at positions corresponding to the lower left image 10C and the lower right image 10D. With this process, one high-resolution integrated frame image is generated. As will be described later, the video integration processing unit 105 has a function of replacing the frame image specified by the standard divided frame image determination unit 115 with a black frame image.

標準フレーム画像選択部106は、高解像度フレーム画像の場合、各分割映像受信部101乃至104からそれぞれ分割フレーム画像のデータを受信する。標準フレーム画像選択部106は、後述の標準分割フレーム画像判断部115から制御情報を受けて、送信すべき標準フレーム画像を決定する。この制御情報は、複数のフレーム画像のうちのどれを標準フレーム画像として後段の画像領域調整部107に送信するかを示す。但し、不図示の送信機器が高解像度フレーム画像を伝送する場合、標準フレーム画像選択部106は特に処理を行わない。   In the case of a high-resolution frame image, the standard frame image selection unit 106 receives the divided frame image data from each of the divided video reception units 101 to 104. The standard frame image selection unit 106 receives control information from a standard divided frame image determination unit 115 described later, and determines a standard frame image to be transmitted. This control information indicates which of the plurality of frame images is to be transmitted to the subsequent image area adjustment unit 107 as a standard frame image. However, when a transmission device (not shown) transmits a high-resolution frame image, the standard frame image selection unit 106 does not perform any particular processing.

画像領域調整部107は、映像統合処理部105および標準フレーム画像選択部106からそれぞれフレーム画像を受信し、標準分割フレーム画像判断部115からの制御情報に従って、どちらのフレーム画像を出力するかを選択する。映像統合処理部105から受信した分割フレーム画像を出力する場合には、受信したフレーム画像信号がそのまま表示部108に出力される。また標準フレーム画像選択部106から受信したフレーム画像信号を出力する場合には、表示部108にて全画面表示になるよう解像度変換が行われた後、変換後の信号が表示部108に出力される。高解像度画像を表示可能な表示部108には、電子放出素子を有する表示パネル、液晶ディスプレイパネル、プラズマディスプレイパネル、有機EL(Electro-Luminescence)ディスプレイパネル等が適用可能である。   The image area adjustment unit 107 receives frame images from the video integration processing unit 105 and the standard frame image selection unit 106, and selects which frame image to output according to control information from the standard divided frame image determination unit 115. To do. When the divided frame image received from the video integration processing unit 105 is output, the received frame image signal is output to the display unit 108 as it is. Further, when outputting the frame image signal received from the standard frame image selection unit 106, after the resolution conversion is performed so that the display unit 108 displays a full screen, the converted signal is output to the display unit 108. The As the display unit 108 capable of displaying a high-resolution image, a display panel having an electron-emitting device, a liquid crystal display panel, a plasma display panel, an organic EL (Electro-Luminescence) display panel, or the like is applicable.

第1乃至4の境界領域抽出部109乃至112は、受信したフレーム画像の境界部を抽出する。高解像度フレーム画像の場合、図3に示すように、第1の境界領域抽出部109は、第1の分割映像受信部101から左上画像10Aの信号を受信し、その境界部12Aを抽出する。第1の境界領域抽出部109は、分割フレーム画像にて元の高解像度フレーム画像の繋ぎ目である境界部付近の部分画像(境界領域フレーム画像という)のデータを抽出する。このように、ある限られた範囲の、境界付近の部分画像のデータを抽出することにより、エッジ検出処理を行う際の演算量を低減できる。抽出範囲としては、エッジ検出が可能な領域あればよく、例えば繋ぎ目から数十ピクセル程度の範囲に設定すればよい。第1の境界領域抽出部109は、境界領域フレーム画像のデータを抽出して境界領域フレーム画像統合処理部113に送信する。また、第1の分割映像受信部101から標準フレーム画像の信号を出力する場合も、同様の処理が行われる。   The first to fourth boundary area extraction units 109 to 112 extract the boundary part of the received frame image. In the case of a high-resolution frame image, as shown in FIG. 3, the first boundary region extraction unit 109 receives the signal of the upper left image 10A from the first divided video reception unit 101, and extracts the boundary portion 12A. The first boundary region extraction unit 109 extracts data of a partial image (referred to as a boundary region frame image) near the boundary that is a joint of the original high resolution frame images in the divided frame image. In this way, by extracting partial image data in the vicinity of the boundary within a limited range, it is possible to reduce the amount of computation when performing edge detection processing. The extraction range may be a region where edge detection is possible, and may be set to a range of about several tens of pixels from the joint, for example. The first boundary region extraction unit 109 extracts boundary region frame image data and transmits the data to the boundary region frame image integration processing unit 113. The same processing is performed when a standard frame image signal is output from the first divided video reception unit 101.

第2乃至4の境界領域抽出部110乃至112でも第1の境界領域抽出部109と同様の処理が実行される。高解像度フレーム画像の場合、第2乃至4の分割映像受信部102乃至104からそれぞれ分割フレーム画像の信号を受信すると、各抽出部は図3に示す担当領域について境界部12B乃至Dのフレーム画像を抽出する。抽出された境界領域フレーム画像の各データは、境界領域フレーム画像統合処理部113に送信される。また、標準フレーム画像の場合にも同様の処理が行われる。   The second to fourth boundary region extraction units 110 to 112 execute the same processing as that of the first boundary region extraction unit 109. In the case of a high-resolution frame image, when each of the divided frame image signals is received from the second to fourth divided video receiving units 102 to 104, each extracting unit obtains the frame images of the boundary portions 12B to 12D for the assigned region shown in FIG. Extract. Each data of the extracted boundary region frame image is transmitted to the boundary region frame image integration processing unit 113. A similar process is performed for a standard frame image.

境界領域フレーム画像統合処理部113は、図3に画像13で示すように、入力された複数のフレーム画像から1枚の境界領域統合フレーム画像を生成し、エッジ検出部114にデータを送信する。エッジ検出部114は、境界領域フレーム画像統合処理部113で統合処理された境界領域統合フレーム画像を受信してエッジ検出処理を行う。エッジ検出部114は、複数のフレーム画像の繋ぎ目となる境界部にて画像連続性検出を行う。つまり、エッジ検出部114は境界領域統合フレーム画像内の領域に対してエッジ部が連続しているか、エッジ部が不連続であるかについて判定を行い、エッジ情報を作成する(その詳細については後述する)。エッジ検出部114は作成したエッジ情報を標準分割フレーム画像判断部115に送信する。   The boundary region frame image integration processing unit 113 generates a single boundary region integrated frame image from a plurality of input frame images and transmits the data to the edge detection unit 114, as indicated by an image 13 in FIG. The edge detection unit 114 receives the boundary region integrated frame image integrated by the boundary region frame image integration processing unit 113 and performs edge detection processing. The edge detection unit 114 performs image continuity detection at a boundary portion that becomes a joint between a plurality of frame images. That is, the edge detection unit 114 determines whether the edge portion is continuous or discontinuous with respect to the region in the boundary region integrated frame image, and creates edge information (details will be described later). To do). The edge detection unit 114 transmits the created edge information to the standard divided frame image determination unit 115.

標準分割フレーム画像判断部115は、エッジ検出部114からエッジ情報を受信し、後述する類別処理によってタイプを判断する。標準分割フレーム画像判断部115は、この類別判定に従い、表示部108に表示させるフレーム画像を決定する画像信号判断処理を行う。標準分割フレーム画像判断部115は類別判定後、最後に入力されたフレーム画像の境界領域において、エッジ部の連続している領域が存在するか否かを調べる。その結果、エッジ部が連続している領域が1つ以上存在した場合、入力されたフレーム画像は分割フレーム画像であると判断される。標準分割フレーム画像判断部115は、画像領域調整部107に対して、映像統合処理部105から受信した高解像度統合フレーム画像を出力するように制御を行う。他方、エッジ部が連続している領域がなかった場合には、入力されたフレーム画像は標準フレーム画像であると判断される。標準分割フレーム画像判断部115は、画像領域調整部107に対して標準フレーム画像選択部106から受信したフレーム画像を出力するように制御を行う。このとき、標準フレーム画像選択部106に対して、最後に入力された標準フレーム画像は、画像領域調整部107が全画面表示を行うために拡大処理を行ってから表示部108に出力する。
図2に示すシステム制御部116は共通バス117に接続されており、本実施形態に係る各種の処理について制御を行う。共通バス117は各機能ブロックの間で各種データやコマンド(制御情報を含む)を送受信するためのバスである。
The standard divided frame image determination unit 115 receives the edge information from the edge detection unit 114 and determines the type by a classification process described later. The standard divided frame image determination unit 115 performs image signal determination processing for determining a frame image to be displayed on the display unit 108 in accordance with the classification determination. After the classification determination, the standard divided frame image determination unit 115 checks whether there is a region where the edge portion is continuous in the boundary region of the frame image input last. As a result, when one or more regions having continuous edge portions exist, it is determined that the input frame image is a divided frame image. The standard divided frame image determination unit 115 controls the image region adjustment unit 107 to output the high-resolution integrated frame image received from the video integration processing unit 105. On the other hand, if there is no region where the edge portions are continuous, it is determined that the input frame image is a standard frame image. The standard divided frame image determination unit 115 controls the image area adjustment unit 107 to output the frame image received from the standard frame image selection unit 106. At this time, the standard frame image last input to the standard frame image selection unit 106 is output to the display unit 108 after the image area adjustment unit 107 performs an enlargement process for full screen display.
A system control unit 116 shown in FIG. 2 is connected to the common bus 117 and controls various processes according to the present embodiment. The common bus 117 is a bus for transmitting and receiving various data and commands (including control information) between the functional blocks.

次に、映像表示装置100にて予め伝送本数や解像度等の受信フォーマットの情報を設定することなく、高解像度フレーム画像または標準フレーム画像を表示させるための処理について、図6のフローチャートを参照して説明する。
先ず、処理開始のトリガについて説明する。このトリガは、映像表示装置100に新規のフレーム画像の信号が入力されたと検出されたことである。つまり、第1乃至4の分割映像受信部101乃至104のいずれかが、新たにフレーム画像の信号を受信した場合、処理が開始する(S100)。
Next, a process for displaying a high-resolution frame image or a standard frame image without setting reception format information such as the transmission number and resolution in advance in the video display device 100 will be described with reference to the flowchart of FIG. explain.
First, the processing start trigger will be described. This trigger is detected when a new frame image signal is input to the video display device 100. That is, when any of the first to fourth divided video receiving units 101 to 104 newly receives a frame image signal, the process starts (S100).

標準分割フレーム画像判断部115は、エッジ検出部114からエッジ情報を受信し、類別判断を行う(S101)。以下、タイプ判別方法について説明する。まず、送信機器から高解像度フレーム画像を受信する場合、各分割映像受信部101乃至104が受信した各フレーム画像は、表示画面上で最終的に図4(A)のように配置されて表示される。以下では左上領域を第1の領域130、右上領域を第2の領域131、左下領域を第3の領域132、右下領域を第4の領域133と呼ぶ。   The standard divided frame image determination unit 115 receives the edge information from the edge detection unit 114 and makes a classification determination (S101). Hereinafter, the type discrimination method will be described. First, when receiving a high-resolution frame image from a transmitting device, each frame image received by each divided video receiving unit 101 to 104 is finally arranged and displayed on the display screen as shown in FIG. The Hereinafter, the upper left area is referred to as a first area 130, the upper right area is referred to as a second area 131, the lower left area is referred to as a third area 132, and the lower right area is referred to as a fourth area 133.

また境界領域抽出部109乃至112が抽出する境界部を図4(B)に示す。
・第1の境界領域134(第1の領域130と第2の領域131の境界部、つまり、十字状部分の上側領域)。
・第2の境界領域135(第2の領域131と第4の領域133の境界部、つまり、十字状部分の右側領域)。
・第3の境界領域136(第1の領域130と第3の領域132の境界部、つまり、十字状部分の左側領域)。
・第4の境界領域137(第3の領域132と第4の領域133の境界部、つまり、十字状部分の下側領域)。
境界領域統合フレーム画像に対して、エッジ検出部114はエッジ検出を行い、上記の各境界領域においてエッジが連続しているか、または不連続であるかを判定する。この判定結果を示すエッジ情報は、標準分割フレーム画像判断部115に送信される。標準分割フレーム画像判断部115は、エッジ情報を参照することで、以下に示す7つのタイプに区分する(図5参照)。
FIG. 4B shows the boundary portion extracted by the boundary region extraction units 109 to 112.
First boundary region 134 (the boundary between the first region 130 and the second region 131, that is, the upper region of the cross-shaped portion).
A second boundary area 135 (the boundary between the second area 131 and the fourth area 133, that is, the right area of the cross-shaped portion).
Third boundary region 136 (the boundary between the first region 130 and the third region 132, that is, the left region of the cross-shaped portion).
A fourth boundary region 137 (the boundary between the third region 132 and the fourth region 133, that is, the lower region of the cross-shaped portion).
The edge detection unit 114 performs edge detection on the boundary region integrated frame image, and determines whether the edge is continuous or discontinuous in each of the boundary regions. Edge information indicating the determination result is transmitted to the standard divided frame image determination unit 115. The standard divided frame image determination unit 115 classifies into the following seven types by referring to the edge information (see FIG. 5).

(1)タイプ1:画面横方向の境界領域においてのみ、エッジの連続した領域(以下、エッジ連続領域という)が1つ存在する類型。
図5(1)はタイプ1の例を示しており、第3の境界領域136にエッジ連続領域が存在し、それ以外の境界領域ではエッジが不連続である。タイプ1では、表示画面の縦方向に分割フレーム画像を結合する処理が行われ、1つの縦長結合画像が生成される。
(1) Type 1: A type in which one edge continuous area (hereinafter referred to as edge continuous area) exists only in the boundary area in the horizontal direction of the screen.
FIG. 5A shows an example of type 1, in which an edge continuous region exists in the third boundary region 136, and edges are discontinuous in other boundary regions. In Type 1, processing for combining the divided frame images in the vertical direction of the display screen is performed, and one vertically long combined image is generated.

(2)タイプ2:画面縦方向の境界領域においてのみ、エッジ連続領域が1つ存在する類型。
図5(2)はタイプ2の例を示しており、第1の境界領域134にエッジ連続領域が存在し、それ以外の境界領域ではエッジが不連続である。タイプ2では表示画面の横方向に分割フレーム画像を結合する処理が行われ、1つの横長結合画像が生成される。
(2) Type 2: A type in which one edge continuous region exists only in the boundary region in the vertical direction of the screen.
FIG. 5B shows an example of type 2, in which an edge continuous region exists in the first boundary region 134, and edges are discontinuous in other boundary regions. In Type 2, processing for combining the divided frame images in the horizontal direction of the display screen is performed, and one horizontally long combined image is generated.

(3)タイプ3:画面横方向の境界領域にてエッジ連続領域が2つ存在し、画面縦方向の境界領域にはエッジ連続領域が存在しない類型。
図5(3)はタイプ3の例を示しており、境界領域135および136にエッジ連続領域が存在し、境界領域134および137ではエッジが不連続である。タイプ3では表示画面の縦方向に分割フレーム画像を結合する処理が行われ、2つの縦長結合画像が生成される。
(3) Type 3: A type in which two edge continuous regions exist in the boundary region in the horizontal direction of the screen, and no edge continuous region exists in the boundary region in the vertical direction of the screen.
FIG. 5 (3) shows an example of type 3, where edge continuous regions exist in the boundary regions 135 and 136, and edges are discontinuous in the boundary regions 134 and 137. In Type 3, processing for combining the divided frame images in the vertical direction of the display screen is performed, and two vertically long combined images are generated.

(4)タイプ4:画面縦方向の境界領域にエッジ連続領域が2つ存在し、画面横方向の境界領域にはエッジ連続領域が存在しない類型。
図5(4)はタイプ4の例を示しており、境界領域134および137にエッジ連続領域が存在し、境界領域135および136ではエッジが不連続である。タイプ4では表示画面の横方向に分割フレーム画像を結合する処理が行われ、2つの横長結合画像が生成される。
(4) Type 4: A type in which two edge continuous areas exist in the boundary area in the vertical direction of the screen and no edge continuous area exists in the boundary area in the horizontal direction of the screen.
FIG. 5 (4) shows an example of type 4, in which boundary continuous regions exist in the boundary regions 134 and 137, and edges are discontinuous in the boundary regions 135 and 136. In Type 4, processing for combining the divided frame images in the horizontal direction of the display screen is performed, and two horizontally long combined images are generated.

(5)タイプ5:画面縦方向および横方向の境界領域にそれぞれエッジ連続領域が1つずつ存在する類型。
図5(5)はタイプ5の例を示しており、境界領域134および136にエッジ連続領域が存在し、境界領域135および137ではエッジが不連続である。タイプ5では表示画面の縦方向および横方向に分割フレーム画像を結合する処理が行われ、1つのL字形の結合画像が生成される。
(5) Type 5: A type in which one edge continuous region exists in each of the boundary regions in the vertical and horizontal directions of the screen.
FIG. 5 (5) shows an example of type 5, where edge continuous regions exist in the boundary regions 134 and 136, and edges are discontinuous in the boundary regions 135 and 137. In type 5, processing for combining the divided frame images in the vertical direction and the horizontal direction of the display screen is performed, and one L-shaped combined image is generated.

(6)タイプ6:全ての境界領域にエッジ連続領域が存在する類型。
図5(6)はタイプ6の例を示しており、境界領域134乃至137にそれぞれエッジ連続領域が存在する。タイプ6では表示画面の縦方向および横方向に分割フレーム画像を結合する処理が行われ、1つの矩形状の結合画像が生成される。
(6) Type 6: A type in which edge continuous regions exist in all boundary regions.
FIG. 5 (6) shows an example of type 6, and there are edge continuous regions in the boundary regions 134 to 137, respectively. In type 6, processing for combining the divided frame images in the vertical direction and the horizontal direction of the display screen is performed, and one rectangular combined image is generated.

(7)タイプ7:各境界領域にエッジ連続領域がない類型。
図5(7)はタイプ7の例を示しており、境界領域134乃至137のいずれにもエッジ連続領域は存在しない。タイプ7の場合、結合処理は行われず、標準フレーム画像が表示される。
(7) Type 7: A type in which there is no edge continuous area in each boundary area.
FIG. 5 (7) shows an example of type 7, and there is no edge continuous region in any of the boundary regions 134 to 137. In the case of type 7, the combination process is not performed and the standard frame image is displayed.

なお、標準分割フレーム画像判断部115はエッジの連続性に着目してタイプを判別するが、例えば境界部における各画像の画素データの相関度に基づいて判別してもよい。つまり、境界領域にて画像信号の垂直相関演算又は水平相関演算の結果から画像の連続領域の有無を判断することができ、画素データ同士の相関度が閾値を超える場合に連続性があると判定される。   Note that the standard divided frame image determination unit 115 determines the type by paying attention to the continuity of the edge, but may be determined based on, for example, the degree of correlation of the pixel data of each image at the boundary. In other words, it is possible to determine the presence or absence of a continuous area of the image from the result of the vertical correlation calculation or horizontal correlation calculation of the image signal in the boundary area, and to determine that there is continuity when the degree of correlation between pixel data exceeds a threshold value Is done.

図6のS101では、入力されたフレーム画像に対してタイプ1乃至7の判定が行われる。つまり、エッジ検出結果に基づいてタイプ判別処理が実行され、判別結果がタイプ7の場合、S102に処理を進める。タイプ7では、新たな入力フレーム画像が標準フレーム画像であると判断され、拡大処理が実行されて画像データが表示部108に送信される。表示部108は受信した画像データに従って全画面表示を行う。その後、処理を終了する(S105)。   In S101 of FIG. 6, types 1 to 7 are determined for the input frame image. That is, the type determination process is executed based on the edge detection result. If the determination result is type 7, the process proceeds to S102. In type 7, it is determined that the new input frame image is a standard frame image, enlargement processing is executed, and image data is transmitted to the display unit 108. The display unit 108 performs full screen display according to the received image data. Thereafter, the process is terminated (S105).

一方、S101にて、判定結果がタイプ1から6の何れかである場合、S103に処理を進める。標準分割フレーム画像判断部115は、新規に入力された第1画像(以下、新規入力画像という)の領域を含む境界領域に係るエッジ情報から、当該画像の境界の2領域がともに不連続であるか否かを調べる。新規入力画像の境界にて2領域ともにエッジが不連続であると判定された場合、新規入力画像は標準フレーム画像であると判断され、S102へ進む。例えば、タイプ1にて新規入力画像の左端縁および上端縁に位置する境界領域がいずれもエッジ連続領域でないと判定された場合、新規入力画像は受信済みの第2画像(フレーム画像)とともに元画像を構成する分割フレーム画像でないと判定される。また、新規入力画像の境界にて1領域以下でエッジの不連続が判断された場合、新規入力画像は受信済みの第2画像とともに元画像を構成する分割フレーム画像であると判断され、S104へ処理を進める。なお、エッジが不連続となる領域が存在しない場合(タイプ6)には、新規入力画像は他の複数の第2画像とともに元画像を構成するので、S104に進む。   On the other hand, if the determination result is any one of types 1 to 6 in S101, the process proceeds to S103. The standard divided frame image determination unit 115 uses the edge information relating to the boundary area including the area of the first input first image (hereinafter referred to as a new input image), so that both of the boundary areas of the image are discontinuous. Check whether or not. If it is determined that the edges of both areas are discontinuous at the boundary of the new input image, the new input image is determined to be a standard frame image, and the process proceeds to S102. For example, when it is determined in Type 1 that both of the boundary regions located at the left edge and the upper edge of the new input image are not edge continuous regions, the new input image is the original image together with the received second image (frame image). Is determined not to be a divided frame image. If it is determined that the edge discontinuity is less than or equal to one region at the boundary of the new input image, the new input image is determined to be a divided frame image constituting the original image together with the received second image, and the process proceeds to S104. Proceed with the process. If there is no region where the edges are discontinuous (type 6), the new input image forms the original image together with a plurality of other second images, and the process proceeds to S104.

S104で映像統合処理部105は、標準分割フレーム画像判断部115からの判定結果情報に基づき、タイプ1乃至5に応じて黒フレーム画像を挿入し、複数の分割フレーム画像を統合して1つの画像に合成する。つまり、新規入力画像を含めた、元画像に関連する分割フレーム画像と、当該画像以外のフレーム画像に対して挿入された黒フレーム画像から1つの結合画像が生成される(図8(A)参照)。   In S104, the video integration processing unit 105 inserts a black frame image according to the types 1 to 5 based on the determination result information from the standard divided frame image determination unit 115, and integrates the plurality of divided frame images into one image. To synthesize. That is, one combined image is generated from the divided frame image related to the original image including the new input image and the black frame image inserted to the frame image other than the image (see FIG. 8A). ).

ここで一例として、S101にてタイプ5と判断された場合、つまり、新規入力画像がタイプ5に類別される分割フレーム画像の1つであった場合について説明する。映像統合処理部105は、分割映像受信部101乃至104のいずれかに対して画像データ入力がなされなかった領域について黒画像データを挿入する処理を行い、高解像度の統合されたフレーム画像のデータを生成する。さらに画像領域調整部107は、映像統合処理部105からフレーム画像データを受信して処理を行い、表示部108に送信する。表示部108は受信したデータに従って統合された1つの画像を表示し、処理を終了する(S105)。なお、エッジが不連続となる領域が存在しない場合(タイプ6)には、黒画像データの挿入は不要であり、エッジ連続領域が検出された複数の分割フレーム画像から統合された画像のデータが生成される。   Here, as an example, a case will be described in which the type 5 is determined in S101, that is, the case where the new input image is one of the divided frame images classified into type 5. The video integration processing unit 105 performs a process of inserting black image data into an area in which no image data is input to any of the divided video reception units 101 to 104, and acquires high-resolution integrated frame image data. Generate. Further, the image area adjustment unit 107 receives and processes the frame image data from the video integration processing unit 105 and transmits the frame image data to the display unit 108. The display unit 108 displays one image integrated according to the received data, and ends the process (S105). When there is no region where edges are discontinuous (type 6), it is not necessary to insert black image data, and image data integrated from a plurality of divided frame images in which edge continuous regions are detected. Generated.

他方、新規入力画像が、元画像を構成する分割フレーム画像の1つではなく、標準フレーム画像であった場合、当該フレーム画像は拡大処理が施されて表示される。つまり、標準フレーム画像選択部106は、標準分割フレーム画像判断部115の判定結果に従って、分割映像受信部101乃至104から標準フレーム画像と判定された画像データを選択して画像領域調整部107に出力する。画像領域調整部107は、標準フレーム画像選択部106から受信したフレーム画像に対して全画面表示になるよう解像度変換を行い、画像処理後の信号を表示部108に出力する。   On the other hand, when the new input image is a standard frame image instead of one of the divided frame images constituting the original image, the frame image is displayed after being enlarged. That is, the standard frame image selection unit 106 selects the image data determined as the standard frame image from the divided video reception units 101 to 104 according to the determination result of the standard divided frame image determination unit 115 and outputs the selected image data to the image area adjustment unit 107. To do. The image area adjustment unit 107 performs resolution conversion so that the frame image received from the standard frame image selection unit 106 is displayed on the full screen, and outputs a signal after image processing to the display unit 108.

一例として、S101にてタイプ3と判断された場合について説明する。タイプ3の状態は、表示画面の縦方向において2つの分割フレーム画像で1枚の画像を構成する高解像度画像(統合画像)が2組入力されている場合に相当する。新規入力画像が縦長の統合画像を構成する分割フレーム画像の1つでない場合、エッジ情報により、表示画面の縦方向における境界領域にてエッジ連続領域が存在しないことが分かる。新規入力画像は標準フレーム画像と判断され、全画面表示のために拡大処理が実行される。なお、画像領域調整部107は、新規入力画像が含まれる高解像度の統合画像の組み合わせ方について表示部108に表示させる制御を行う。ユーザはこの表示を見ることにより、元画像の再現に関連する分割フレーム画像以外のフレーム画像に対して黒画像のデータが挿入されていることを把握できる。   As an example, the case where it is determined as type 3 in S101 will be described. The type 3 state corresponds to a case where two sets of high-resolution images (integrated images) that form one image with two divided frame images in the vertical direction of the display screen are input. If the new input image is not one of the divided frame images constituting the vertically integrated image, the edge information indicates that there is no edge continuous region in the boundary region in the vertical direction of the display screen. The new input image is determined as a standard frame image, and enlargement processing is executed for full screen display. Note that the image area adjustment unit 107 performs control to display on the display unit 108 how to combine the high-resolution integrated image including the new input image. By viewing this display, the user can grasp that the black image data is inserted into the frame image other than the divided frame image related to the reproduction of the original image.

以上の事項をまとめると、フレーム画像の組み合わせについて、どのようなタイプに類別されるか、および新規入力画像が既に入力されているフレーム画像に対して分割フレーム画像であるか否かの2条件について判定処理が実行される。これらの判定結果に基づいて、表示フレーム画像の配置が決定される。新規入力画像が標準フレーム画像の場合、当該画像は拡大されて表示部108に全画面表示される。また、新規入力画像が分割フレーム画像の場合、当該画像を含む高解像度の統合画像が表示される。よって、ユーザは予め、映像表示装置100に対して、伝送ケーブルの本数や解像度等の受信フォーマットに関する設定操作を行う必要がない。すなわち、入力されたフレーム画像の連続性検出結果に基づいてフレーム画像の表示制御の内容が変更されるので、複数の分割フレーム画像を統合した高解像度画像、または標準フレーム画像が自動的に切り替わって表示部108に表示される。   To summarize the above matters, the two types of combinations of frame images are classified into what type and whether or not a new input image is a divided frame image with respect to a frame image that has already been input. Judgment processing is executed. Based on these determination results, the arrangement of the display frame images is determined. When the new input image is a standard frame image, the image is enlarged and displayed on the display unit 108 on the full screen. When the new input image is a divided frame image, a high-resolution integrated image including the image is displayed. Therefore, the user does not need to perform a setting operation related to the reception format such as the number of transmission cables and the resolution on the video display apparatus 100 in advance. That is, since the content of the display control of the frame image is changed based on the continuity detection result of the input frame image, the high resolution image obtained by integrating a plurality of divided frame images or the standard frame image is automatically switched. It is displayed on the display unit 108.

第1実施形態によれば、高解像度画像を構成する分割フレーム画像および標準フレーム画像について画像連続性検出により自動で判別して表示させることができる。
なお、前記第1実施形態では、送信機器からそれぞれの分割映像受信部への同期信号について確認を行っていない。しかし、同期信号を予め確認しておくことで、同期信号が異なると判断される場合には、エッジ検出を行う前に新規入力画像が標準フレーム画像であると判断できる。この場合も、新規入力画像が拡大処理されて全画面表示が行われる。
According to the first embodiment, it is possible to automatically determine and display the divided frame image and the standard frame image constituting the high resolution image by the image continuity detection.
In the first embodiment, the synchronization signal from the transmission device to each divided video reception unit is not confirmed. However, by checking the synchronization signal in advance, if it is determined that the synchronization signals are different, it can be determined that the new input image is a standard frame image before performing edge detection. Also in this case, the new input image is enlarged and displayed on the full screen.

[第2実施形態]
次に本発明の第2実施形態を説明する。
第2実施形態では、k(1≦k<n)、およびj(1≦j<m)を自然数変数とするとき、表示画面の横方向にてk分割され、または縦方向にてj分割された分割フレーム画像に係る分割画像信号を受信可能である。例えば、mおよびnの値をそれぞれ2とするとき、k=1、j=2の場合、2つの分割フレーム画像にて1枚の縦長の高解像度画像を構成する処理が可能である。これは、第1実施形態にてタイプ3として例示したように、縦方向に2分割した高解像度画像の場合に相当する。第1実施形態では、表示画面の右半分または左半分の領域のみに表示が行われるため(図8(A)参照)、画面の表示面積を有効に利用していない。そこで第2実施形態ではこのような入力時でも画面領域を有効に使用する手段について説明する。なお、第1実施形態の場合と同様の構成要素については既に使用した符号に100を加算した符号を用いることによって、それらの詳細な説明を省略し、以下では、主として第1実施形態との相違点を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
In the second embodiment, when k (1 ≦ k <n) and j (1 ≦ j <m) are natural number variables, the display screen is divided into k in the horizontal direction or j in the vertical direction. The divided image signal related to the divided frame image can be received. For example, when the values of m and n are 2, respectively, and k = 1 and j = 2, it is possible to process one vertically long high-resolution image with two divided frame images. This corresponds to the case of a high-resolution image divided into two in the vertical direction as exemplified as type 3 in the first embodiment. In the first embodiment, since display is performed only in the right half or left half of the display screen (see FIG. 8A), the display area of the screen is not effectively used. Therefore, in the second embodiment, a means for effectively using the screen area even during such input will be described. In addition, about the component similar to the case of 1st Embodiment, the detailed description is abbreviate | omitted by using the code | symbol which added already used code | symbol 100, and it is mainly different from 1st Embodiment below. Explain the point.

図7は、第2実施形態に係る映像表示装置200の機能構成について概要を示すブロック図である。
映像統合処理部205は、第1実施形態で説明した処理以外に、分割フレーム画像領域調整部222から表示位置調整情報を受信し、表示位置を変更する機能も併せ持つ。図8(B)は、上下に2分割された分割フレーム画像が分割映像受信部201、202に入力された場合、それらを統合した画像が表示画面の中央に表示された例を示す。本例では、分割フレーム画像20Aが表示画面の上半部にて中央に表示され、分割フレーム画像20Bが表示画面の下半部にて中央に表示されて、1つの統合画像を構成する。
FIG. 7 is a block diagram showing an outline of a functional configuration of the video display apparatus 200 according to the second embodiment.
In addition to the processing described in the first embodiment, the video integration processing unit 205 also has a function of receiving display position adjustment information from the divided frame image region adjustment unit 222 and changing the display position. FIG. 8B shows an example in which when a divided frame image divided into two parts in the vertical direction is input to the divided video receiving units 201 and 202, an image obtained by integrating them is displayed in the center of the display screen. In this example, the divided frame image 20A is displayed in the center in the upper half part of the display screen, and the divided frame image 20B is displayed in the center in the lower half part of the display screen to constitute one integrated image.

分割フレーム画像領域調整部222は、分割映像受信部201乃至204からフレーム画像信号を受信する。受信したフレーム画像が2つの場合、分割フレーム画像領域調整部222は元画像に係る上側画像と下側画像の各信号を受信していることを認識し、映像統合処理部205に対して統合画像が図8(B)に示す位置で表示されるように表示位置情報を送信する。   The divided frame image region adjustment unit 222 receives frame image signals from the divided video reception units 201 to 204. When there are two received frame images, the divided frame image region adjustment unit 222 recognizes that the signals of the upper image and the lower image related to the original image have been received, and the integrated image is output to the video integration processing unit 205. Is displayed at the position shown in FIG. 8B.

基本的な処理の流れは、第1実施形態の場合と同様であるが、統合画像の生成時にて表示位置をシフトさせて画面の中央へ寄せる位置変更制御が図6のS104に追加される。
第2実施形態では、複数の入力端子を全て使用しないフレーム画像の入力に対しても、ユーザが予め映像表示装置200に伝送本数や解像度等の受信フォーマットに関する設定操作を行う必要はない。すなわち、高解像度フレーム画像または標準フレーム画像を自動判別して表示部208に表示可能である。さらには、表示の際、前記した表示位置の変更処理により、統合画像を画面中央に表示できるので、表示領域を有効に利用できる。
The basic processing flow is the same as in the first embodiment, but position change control for shifting the display position to the center of the screen when generating an integrated image is added to S104 in FIG.
In the second embodiment, it is not necessary for the user to perform a setting operation related to the reception format such as the number of transmissions and the resolution in advance on the video display device 200 even for input of a frame image that does not use all of the plurality of input terminals. That is, a high-resolution frame image or a standard frame image can be automatically determined and displayed on the display unit 208. Furthermore, since the integrated image can be displayed at the center of the screen by the above-described display position changing process during display, the display area can be used effectively.

[第3実施形態]
次に本発明の第3実施形態を説明する。
第1実施形態および第2実施形態では、4つの入力端子にそれぞれ入力されるフレーム画像に対して、どのフレーム画像がどの入力端子に対応しているかについては、固定しているものとして扱っていた。第3実施形態では、フレーム画像信号と併せて各フレーム画像の配置情報(以下、フレーム画像ID情報という)を伝送する形態にて、第1実施形態と同様に処理可能な構成を説明する。フレーム画像ID情報は、それぞれの分割フレーム画像をどの位置に配置させるかを示す情報(相対位置情報)を含むものとする。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
In the first embodiment and the second embodiment, which frame image corresponds to which input terminal for each frame image input to each of the four input terminals is handled as being fixed. . In the third embodiment, a configuration that can be processed in the same manner as in the first embodiment will be described in the form of transmitting arrangement information of each frame image (hereinafter referred to as frame image ID information) together with the frame image signal. The frame image ID information includes information (relative position information) indicating where each divided frame image is to be arranged.

図9は、第3実施形態に係る映像表示装置300の機能構成について概要を示すブロック図である。なお、第1実施形態の場合と同様の構成要素については既に使用した符号に200を加算した符号を用いることによって、それらの詳細な説明を省略し、以下では、主として第1実施形態との相違点を説明する。   FIG. 9 is a block diagram showing an outline of a functional configuration of the video display apparatus 300 according to the third embodiment. In addition, about the component similar to the case of 1st Embodiment, the detailed description is abbreviate | omitted by using the code | symbol which added 200 to the code | symbol already used, and is mainly different from 1st Embodiment below. Explain the point.

フレーム画像IDデコード部322乃至325は、分割映像受信部301乃至304にそれぞれ入力する信号を取得して、各フレーム画像に付加して伝送されるフレーム画像ID情報を抽出し、標準分割フレーム画像判断部315へ送信する。フレーム画像ID情報を使用することにより、標準分割フレーム画像判断部315は高解像度フレーム画像の伝送か、標準フレーム画像の伝送かの判断処理を直ちに行える。第1実施形態ではエッジ検出部114によるエッジ情報から類別判断処理を行ったが、第3実施形態ではフレーム画像ID情報から判断できる。標準分割フレーム画像判断部315はフレーム画像ID情報を確認し、新規入力画像が分割フレーム画像であると判断した場合、画像領域調整部307に対して、映像統合処理部305から受信した分割フレーム画像の信号を表示部308へ出力するように制御する。また、フレーム画像ID情報から、新規入力画像が標準フレーム画像であると判断した場合、標準分割フレーム画像判断部315は画像領域調整部307に対して、標準フレーム画像の拡大表示を行うように指示する。この場合、画像領域調整部307は、標準フレーム画像選択部306から受信したフレーム画像を全画面表示用に拡大した信号を、表示部308へ出力する。   The frame image ID decoding units 322 to 325 obtain signals input to the divided video reception units 301 to 304, extract frame image ID information transmitted by adding to each frame image, and determine the standard divided frame image determination. To the unit 315. By using the frame image ID information, the standard divided frame image determination unit 315 can immediately determine whether to transmit a high-resolution frame image or a standard frame image. In the first embodiment, the classification determination process is performed from the edge information by the edge detection unit 114, but in the third embodiment, the determination can be made from the frame image ID information. When the standard divided frame image determination unit 315 confirms the frame image ID information and determines that the new input image is a divided frame image, the divided frame image received from the video integration processing unit 305 is sent to the image area adjustment unit 307. Is controlled to be output to the display unit 308. In addition, when it is determined from the frame image ID information that the new input image is a standard frame image, the standard divided frame image determination unit 315 instructs the image area adjustment unit 307 to enlarge the standard frame image. To do. In this case, the image area adjustment unit 307 outputs a signal obtained by enlarging the frame image received from the standard frame image selection unit 306 for full screen display to the display unit 308.

第3実施形態によれば、画像情報に付帯したフレーム画像ID情報を調べることによって、高解像度フレーム画像または標準フレーム画像の判別を行い、形態別に画像表示することができる。
なお、各実施形態では縦横2×2の4分割フレーム画像を説明したが、画像の分割数は限定されるものでない。例えば3×3の9分割を前提とし、それよりも一回り小サイズの2×2の画像、あるいは1×3の横長画像等の信号を受信して、表示部108に描画させる場合でも、前記処理を適用可能である。
According to the third embodiment, it is possible to discriminate a high-resolution frame image or a standard frame image by examining the frame image ID information attached to the image information, and display the image according to the form.
In each embodiment, a vertical and horizontal 2 × 2 quadrant frame image has been described, but the number of image divisions is not limited. For example, on the premise of 9 × 3 × 3, even when receiving a signal such as a 2 × 2 image having a size slightly smaller than that, or a 1 × 3 horizontally long image and causing the display unit 108 to draw the signal, Processing is applicable.

100,200,300 映像表示装置
101乃至104,201乃至204,301乃至304 分割映像受信部
105,205,305 映像統合処理部
106,206,306 標準フレーム画像選択部
107,207,307 画像領域調整部
108,208,308 表示部
114,214 エッジ検出部
115,215,315 標準分割フレーム画像判断部
222 分割フレーム画像領域調整部
322乃至325 フレーム画像IDデコード部
100, 200, 300 Video display devices 101 to 104, 201 to 204, 301 to 304 Divided video reception units 105, 205, 305 Video integration processing units 106, 206, 306 Standard frame image selection units 107, 207, 307 Image area adjustment Unit 108, 208, 308 display unit 114, 214 edge detection unit 115, 215, 315 standard division frame image determination unit 222 division frame image region adjustment unit 322 to 325 frame image ID decoding unit

Claims (9)

1枚の表示画像を構成する複数の分割画像に係る分割画像信号と、1枚の表示画像を単独で構成する画像に係る単独画像信号を受信し、受信した画像信号を判別して表示手段に表示させる処理を行う映像処理装置であって、
前記分割画像信号および前記単独画像信号を受信する受信手段と、
前記受信手段が受信する信号に係る第1画像と、受信済みの画像信号に係る第2画像の間の繋ぎ目となる境界部にて画像の連続性の有無を検出する画像連続性検出手段と、
前記画像連続性検出手段によって前記第1画像と第2画像との境界部に連続性があることが検出された場合、前記第1画像に係る画像信号を前記分割画像信号と判断し、前記画像連続性検出手段によって前記第1画像と第2画像との境界部に連続性がないことが検出された場合、前記第1画像に係る画像信号を前記単独画像信号と判断する画像信号判断手段と、
前記画像信号判断手段が判断した前記複数の分割画像信号から前記分割画像を結合した前記表示画像のデータを生成する画像統合手段と、
前記画像信号判断手段が判断した前記単独画像信号から画像データを生成する画像処理手段を備えることを特徴とする映像処理装置。
A divided image signal relating to a plurality of divided images constituting one display image and a single image signal relating to an image constituting one display image alone are received, and the received image signal is discriminated to display means. A video processing apparatus for performing processing to be displayed,
Receiving means for receiving the divided image signal and the single image signal;
Image continuity detecting means for detecting the presence or absence of image continuity at a boundary portion that becomes a joint between the first image related to the signal received by the receiving means and the second image related to the received image signal; ,
When it is detected by the image continuity detection means that there is continuity at the boundary between the first image and the second image, the image signal related to the first image is determined as the divided image signal, and the image Image signal determining means for determining that an image signal related to the first image is the single image signal when the continuity detecting means detects that there is no continuity at the boundary between the first image and the second image; ,
Image integration means for generating display image data obtained by combining the divided images from the plurality of divided image signals determined by the image signal determination means;
An image processing apparatus comprising image processing means for generating image data from the single image signal determined by the image signal determination means.
前記受信手段の受信した画像信号が、前記画像信号判断手段によって前記単独画像信号であると判断された場合、前記画像処理手段は前記単独画像信号に係る画像の拡大処理を行うことを特徴とする請求項1記載の映像処理装置。   When the image signal received by the receiving means is determined to be the single image signal by the image signal determining means, the image processing means performs an enlargement process of an image related to the single image signal. The video processing apparatus according to claim 1. 前記受信手段は、前記表示画像を表示画面にて横方向および縦方向に分割した複数の領域の画像ごとに伝送される前記分割画像信号、または前記分割画像により構成される前記表示画像に比べて解像度の低い画像について伝送される前記単独画像信号を受信することを特徴とする請求項1または2記載の映像処理装置。   The receiving means is configured to compare the divided image signal transmitted for each of the images of a plurality of regions obtained by dividing the display image in the horizontal direction and the vertical direction on the display screen, or the display image configured by the divided image. The video processing apparatus according to claim 1, wherein the single image signal transmitted for an image having a low resolution is received. m、n、k(1≦k<n)、およびj(1≦j<m)を自然数変数とし、表示画面にて縦方向の分割数をmとし、横方向の分割数をnとするとき、前記受信手段は最大でm×n個の分割画像に係る分割画像信号を受信し、
前記画像統合手段は、前記横方向にてk分割されるか、または前記縦方向にてj分割された分割画像に係る前記分割画像信号を前記受信手段が受信した場合、複数の分割画像を結合した前記表示画像を前記表示手段の中央に表示させるために位置変更制御を行うことを特徴とする請求項3記載の映像処理装置。
When m, n, k (1 ≦ k <n), and j (1 ≦ j <m) are natural number variables, the vertical division number is m and the horizontal division number is n on the display screen. The receiving means receives a divided image signal related to a maximum of m × n divided images,
The image integration unit is configured to combine a plurality of divided images when the reception unit receives the divided image signal related to the divided image divided into k in the horizontal direction or j-divided in the vertical direction. 4. The video processing apparatus according to claim 3, wherein position change control is performed to display the displayed image at the center of the display means.
前記画像連続性検出手段は、前記境界部において各画像のエッジ部を抽出し、該エッジ部に連続性がある場合に画像の連続性があると判定することを特徴とする請求項1乃至4のいずれか1項記載の映像処理装置。   5. The image continuity detecting unit extracts an edge portion of each image at the boundary portion, and determines that the image has continuity when the edge portion has continuity. The video processing device according to claim 1. 画像連続性検出手段は、前記境界部において各画像の画素データの相関度が閾値を超える場合に画像の連続性があると判定することを特徴とする請求項1乃至4のいずれか1項記載の映像処理装置。   5. The image continuity detecting unit determines that there is image continuity when the degree of correlation of pixel data of each image exceeds a threshold value in the boundary portion. 6. Video processing equipment. 1枚の表示画像を構成する複数の分割画像に係る画像情報およびそれぞれの分割画像をどの位置に配置させるかを示す配置情報を含む分割画像信号と、1枚の表示画像を単独で構成する単独画像信号を受信し、受信した画像信号を判別して表示手段に表示させる処理を行う映像処理装置であって、
前記分割画像信号および前記単独画像信号を受信する受信手段と、
前記受信手段が受信する画像信号に係る第1画像と、受信済みの画像信号に係る第2画像との連続性について、前記第1画像の配置情報と前記第2画像の配置情報から、前記第1画像および第2画像が前記表示画像を構成する場合には前記第1画像に係る画像信号を前記分割画像信号と判断し、前記第1画像および第2画像が前記表示画像を構成しない場合には前記第1画像に係る画像信号を前記単独画像信号と判断する画像信号判断手段と、
前記画像信号判断手段が判断した前記複数の分割画像信号から前記分割画像を結合した前記表示画像のデータを生成する画像統合手段と、
前記画像信号判断手段が判断した前記単独画像信号から画像データを生成する画像処理手段を備えることを特徴とする映像処理装置。
A divided image signal including image information relating to a plurality of divided images constituting one display image, and arrangement information indicating where each divided image is arranged, and a single constituting a single display image A video processing device that receives an image signal, performs processing for determining the received image signal and displaying the image signal on a display unit,
Receiving means for receiving the divided image signal and the single image signal;
The continuity between the first image related to the image signal received by the receiving means and the second image related to the received image signal is determined based on the first image arrangement information and the second image arrangement information. When one image and a second image constitute the display image, an image signal related to the first image is determined as the divided image signal, and when the first image and the second image do not constitute the display image Image signal determining means for determining the image signal related to the first image as the single image signal;
Image integration means for generating display image data obtained by combining the divided images from the plurality of divided image signals determined by the image signal determination means;
An image processing apparatus comprising image processing means for generating image data from the single image signal determined by the image signal determination means.
1枚の表示画像を構成する複数の分割画像に係る分割画像信号と、1枚の表示画像を単独で構成する画像に係る単独画像信号を受信し、受信した画像信号を判別して表示手段に表示させる処理を行う映像処理装置にて実行される制御方法であって、
前記分割画像信号および前記単独画像信号を受信する受信ステップと、
前記受信ステップで受信する信号に係る第1画像と、受信済みの画像信号に係る第2画像の間の繋ぎ目となる境界部にて画像の連続性の有無を検出する検出ステップと、
前記検出ステップにて前記第1画像と第2画像との境界部に連続性があることが検出された場合、前記第1画像に係る画像信号を前記分割画像信号と判断し、前記検出ステップにて前記第1画像と第2画像との境界部に連続性がないことが検出された場合、前記第1画像に係る画像信号を前記単独画像信号と判断する画像信号判断ステップと、
前記画像信号判断ステップにて前記分割画像信号と判断された複数の画像信号から前記分割画像を結合した前記表示画像のデータを生成する画像統合ステップと、
前記画像信号判断ステップにて前記単独画像信号と判断された画像信号から画像データを生成する画像処理ステップを有することを特徴とする映像処理装置の制御方法。
A divided image signal relating to a plurality of divided images constituting one display image and a single image signal relating to an image constituting one display image alone are received, and the received image signal is discriminated to display means. A control method executed by a video processing device that performs processing to be displayed,
A receiving step of receiving the divided image signal and the single image signal;
A detection step of detecting the presence or absence of continuity of the image at a boundary portion serving as a joint between the first image related to the signal received in the reception step and the second image related to the received image signal;
When it is detected in the detection step that the boundary portion between the first image and the second image is continuous, the image signal related to the first image is determined as the divided image signal, and the detection step When it is detected that there is no continuity at the boundary between the first image and the second image, an image signal determination step of determining an image signal related to the first image as the single image signal;
An image integration step of generating data of the display image obtained by combining the divided images from a plurality of image signals determined as the divided image signals in the image signal determining step;
A control method for a video processing apparatus, comprising: an image processing step of generating image data from the image signal determined as the single image signal in the image signal determination step.
1枚の表示画像を構成する複数の分割画像に係る画像情報およびそれぞれの分割画像をどの位置に配置させるかを示す配置情報を含む分割画像信号と、1枚の表示画像を単独で構成する単独画像信号を受信し、受信した画像信号を判別して表示手段に表示させる処理を行う映像処理装置にて実行される制御方法であって、
前記分割画像信号および前記単独画像信号を受信する受信ステップと、
前記受信ステップで受信する画像信号に係る第1画像と、受信済みの画像信号に係る第2画像との連続性について、前記第1画像の配置情報と前記第2画像の配置情報から、前記第1画像および第2画像が前記表示画像を構成する場合には前記第1画像に係る画像信号を前記分割画像信号と判断し、前記第1画像および第2画像が前記表示画像を構成しない場合には前記第1画像に係る画像信号を前記単独画像信号と判断する画像信号判断ステップと、
前記画像信号判断ステップにて前記分割画像信号と判断された複数の画像信号から前記分割画像を結合した前記表示画像のデータを生成する画像統合ステップと、
前記画像信号判断ステップにて前記単独画像信号と判断された画像信号から画像データを生成する画像処理ステップを有することを特徴とする映像処理装置の制御方法。
A divided image signal including image information relating to a plurality of divided images constituting one display image, and arrangement information indicating where each divided image is arranged, and a single constituting a single display image A control method executed by a video processing device that receives an image signal, performs processing for determining the received image signal and displaying the image signal on a display unit,
A receiving step of receiving the divided image signal and the single image signal;
The continuity between the first image related to the image signal received in the receiving step and the second image related to the received image signal is determined based on the first image arrangement information and the second image arrangement information. When one image and a second image constitute the display image, an image signal related to the first image is determined as the divided image signal, and when the first image and the second image do not constitute the display image Is an image signal determination step of determining an image signal related to the first image as the single image signal;
An image integration step of generating data of the display image obtained by combining the divided images from a plurality of image signals determined as the divided image signals in the image signal determining step;
A control method for a video processing apparatus, comprising: an image processing step of generating image data from the image signal determined as the single image signal in the image signal determination step.
JP2011266622A 2011-12-06 2011-12-06 Image processing device and control method for the same Pending JP2013120204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011266622A JP2013120204A (en) 2011-12-06 2011-12-06 Image processing device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011266622A JP2013120204A (en) 2011-12-06 2011-12-06 Image processing device and control method for the same

Publications (1)

Publication Number Publication Date
JP2013120204A true JP2013120204A (en) 2013-06-17

Family

ID=48772877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011266622A Pending JP2013120204A (en) 2011-12-06 2011-12-06 Image processing device and control method for the same

Country Status (1)

Country Link
JP (1) JP2013120204A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017038249A1 (en) * 2015-08-31 2017-03-09 シャープ株式会社 Display control device, display device, method for controlling display control device, and control program
US9848164B2 (en) 2013-11-29 2017-12-19 Kabushiki Kaisha Toshiba Signal transmission method and electronic device
WO2019049535A1 (en) * 2017-09-08 2019-03-14 シャープ株式会社 Image signal supply device, display device, television receiver, image rearrangement method, control program, and recording medium
CN110998703A (en) * 2017-08-24 2020-04-10 株式会社半导体能源研究所 Image processing method
CN113015007A (en) * 2021-01-28 2021-06-22 维沃移动通信有限公司 Video frame insertion method and device and electronic equipment
WO2022254798A1 (en) * 2021-06-03 2022-12-08 ソニーグループ株式会社 Signal processing system and signal processing method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848164B2 (en) 2013-11-29 2017-12-19 Kabushiki Kaisha Toshiba Signal transmission method and electronic device
WO2017038249A1 (en) * 2015-08-31 2017-03-09 シャープ株式会社 Display control device, display device, method for controlling display control device, and control program
JPWO2017038249A1 (en) * 2015-08-31 2018-02-22 シャープ株式会社 Display control device, display device, display control device control method, and control program
CN107924666A (en) * 2015-08-31 2018-04-17 夏普株式会社 Display control unit, display device, the control method of display control unit and control program
US10319317B2 (en) 2015-08-31 2019-06-11 Sharp Kabushiki Kaisha Display control device, display device, method for controlling display control device, and storage medium
CN110998703A (en) * 2017-08-24 2020-04-10 株式会社半导体能源研究所 Image processing method
WO2019049535A1 (en) * 2017-09-08 2019-03-14 シャープ株式会社 Image signal supply device, display device, television receiver, image rearrangement method, control program, and recording medium
JP2019050494A (en) * 2017-09-08 2019-03-28 シャープ株式会社 Image signal supply device, display unit, television receiver, image rearrangement method, control program and recording medium
CN113015007A (en) * 2021-01-28 2021-06-22 维沃移动通信有限公司 Video frame insertion method and device and electronic equipment
US12388952B2 (en) 2021-01-28 2025-08-12 Vivo Mobile Communication Co., Ltd. Video frame insertion method and apparatus, and electronic device
WO2022254798A1 (en) * 2021-06-03 2022-12-08 ソニーグループ株式会社 Signal processing system and signal processing method

Similar Documents

Publication Publication Date Title
US8305448B2 (en) Selective privacy protection for imaged matter
JP2013120204A (en) Image processing device and control method for the same
KR100860174B1 (en) Video display device and its operation method
CN101815197A (en) The control method of image display system, image display and image display
JP2017072644A (en) Display control device
US20090167941A1 (en) Video data reception apparatus and video data transmission and reception system
JP2018093305A (en) Display device, control method for the same, program, and storage medium
US20130314444A1 (en) Image data transmitting device, image data receiving device, image data transmitting system, image data transmitting method, image data receiving method, transmission image data, and computer product
CN106899620A (en) A kind of data-sharing systems
JP2012173424A (en) Image display apparatus and control method thereof
US20160269709A1 (en) Image process apparatus and image process method
US9542777B2 (en) Image processing apparatus, image processing method, and storage medium
CN111445427B (en) Video image processing method and display device
CN111263095B (en) Split-screen display system and method based on domestic platform and storage medium
CN106201385B (en) Control method and device and electronic equipment
CN114820295A (en) Image processing method, device, electronic device, and storage medium
CN110519530B (en) Hardware-based picture-in-picture display method and device
KR101139680B1 (en) Image dispaly apparatus for changing resolution of image data and thereof method
US20160203617A1 (en) Image generation device and display device
CN107992256B (en) Window control method, device and system
JP3872295B2 (en) Data display method, recording medium, and processor-based system
JP2015060021A (en) Display device, control method and program
US20140104457A1 (en) Video processing device
CN117255164A (en) Data processing method, device, electronic equipment and readable storage medium
JP2011239172A (en) Video processing apparatus