[go: up one dir, main page]

JP2013115644A - Display device and display method - Google Patents

Display device and display method Download PDF

Info

Publication number
JP2013115644A
JP2013115644A JP2011260591A JP2011260591A JP2013115644A JP 2013115644 A JP2013115644 A JP 2013115644A JP 2011260591 A JP2011260591 A JP 2011260591A JP 2011260591 A JP2011260591 A JP 2011260591A JP 2013115644 A JP2013115644 A JP 2013115644A
Authority
JP
Japan
Prior art keywords
user
priority
display
video content
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011260591A
Other languages
Japanese (ja)
Inventor
Shinichi Sunakawa
伸一 砂川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011260591A priority Critical patent/JP2013115644A/en
Publication of JP2013115644A publication Critical patent/JP2013115644A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To display contents in accordance with positions of users, thereby minimizing a hindrance to viewing.SOLUTION: A display device comprises: means for receiving input of plural video contents; means for identifying plural users; detection means for detecting the positions of the users; means for associating each of the users with each of the video contents to be viewed; means for determining priorities in accordance with the positions of the users; creation means for creating a display screen by doing layout of the video contents in accordance with the priorities; and means for displaying the display screen. The display device detects the positional relation among the plural users and displays the video contents superposed on one another so as to give the highest priority to the content of a user nearest to the screen.

Description

本発明は表示装置及び表示方法に関し、特に、複数のユーザが視聴する表示装置に用いて好適な技術に関する。   The present invention relates to a display device and a display method, and more particularly to a technique suitable for use in a display device viewed by a plurality of users.

従来、液晶ディスプレイや投射型ディスプレイに代表される、大画面ディスプレイが普及している。一台又は複数台のディスプレイを組合せて、壁面全体に表示するような表示システムも実用化されている。   Conventionally, a large screen display represented by a liquid crystal display or a projection display has been widely used. A display system that displays on the entire wall surface by combining one or a plurality of displays has been put into practical use.

壁面の表示システムにおいて、複数のユーザがそれぞれ異なるコンテンツを視聴するための方法として、リモコンを操作する毎にユーザの位置を検出し、その最寄りの位置に画面を表示する方法が考案されている。これによれば、複数のユーザがいた場合は人数割りしたサイズで表示を行なうようにしている(例えば、特許文献1参照)。   In the wall surface display system, as a method for a plurality of users to view different contents, a method of detecting the user's position each time the remote controller is operated and displaying a screen at the nearest position has been devised. According to this, when there are a plurality of users, display is performed in a size divided by the number of people (see, for example, Patent Document 1).

特開2001−94900号公報JP 2001-94900 A 特開平08−153187号公報JP 08-153187 A 特開2001−250121号公報JP 2001-250121 A 特開2005−100366号公報Japanese Patent Laid-Open No. 2005-100366

しかしながら、前述した従来例においては、複数のユーザの位置が近付いた場合に、他のユーザのコンテンツに上書きされて視聴が妨げられてしまう場合があった。例えば、他のユーザが横切る場合に、他のユーザのコンテンツ画面によって自分の視聴するコンテンツ画面が隠されてしまう問題点があった。
本発明は前述の問題点に鑑み、ユーザの位置に追随してコンテンツが表示されるようにして、視聴が邪魔されるのを最小限に抑えることができるようにすることを目的とする。
However, in the above-described conventional example, when the positions of a plurality of users approach, there are cases where viewing is hindered by being overwritten with the contents of other users. For example, when another user crosses, there is a problem that the content screen that the user views is hidden by the content screen of the other user.
In view of the above-described problems, an object of the present invention is to enable content to be displayed following a user's position so that viewing is prevented from being hindered.

本発明の表示装置は、複数の映像コンテンツを入力する手段と、複数のユーザを識別する手段と、ユーザの位置を検出する検出手段と、ユーザと視聴する映像コンテンツを関連付ける手段と、ユーザの位置に応じて優先度を決定する手段と、前記優先度に応じて映像コンテンツをレイアウトして表示画面を作成する作成手段と、前記表示画面を表示する手段とを備えたことを特徴とする。   The display device of the present invention includes a means for inputting a plurality of video contents, a means for identifying a plurality of users, a detecting means for detecting the user's position, a means for associating the video content to be viewed with the user, and the position of the user And a means for deciding the priority according to the priority, a creation means for laying out video content according to the priority and creating a display screen, and a means for displaying the display screen.

本発明によれば、最も近くで視聴するユーザのコンテンツを最も高い優先度で表示することが可能となり、視聴の邪魔を最小限に抑えることができるという効果がある。   According to the present invention, it is possible to display the content of the user viewing the closest location with the highest priority, and there is an effect that it is possible to minimize the disturbing viewing.

第1の実施形態の表示装置の特徴的な構成例を示すブロック図である。It is a block diagram which shows the example of a characteristic structure of the display apparatus of 1st Embodiment. ウインドウ間の干渉がない場合の表示例を示す図である。It is a figure which shows the example of a display when there is no interference between windows. ユーザが移動した場合の表示例を示す図である。It is a figure which shows the example of a display when a user moves. ユーザが後ろを横切った場合の表示例を示す図である。It is a figure which shows the example of a display when a user crosses back. ユーザが前を横切った場合の表示例を示す図である。It is a figure which shows the example of a display when a user crosses the front. 表示装置の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a display apparatus. ユーザ位置検出の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of user position detection. ユーザリストの構成例を示す図である。It is a figure which shows the structural example of a user list. ユーザとウインドウの関連付け処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an association process of a user and a window. ウインドウリストの構成例を示す図である。It is a figure which shows the structural example of a window list. 映像表示の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of an image | video display. ユーザが後ろを横切った場合の表示例を示す図である。It is a figure which shows the example of a display when a user crosses back. ユーザが後ろを横切った場合の表示例を示す図である。It is a figure which shows the example of a display when a user crosses back. 第2の実施形態の表示装置の特徴的な構成例を示すブロック図である。It is a block diagram which shows the example of a characteristic structure of the display apparatus of 2nd Embodiment. 第2の実施形態の表示装置の詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of the display apparatus of 2nd Embodiment. ユーザ位置検出の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of user position detection. 第2の実施形態のユーザリストの構成例を示す図である。It is a figure which shows the structural example of the user list of 2nd Embodiment. 第2の実施形態の映像表示の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the video display of 2nd Embodiment.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例であり、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
本実施形態では、大型のディスプレイを複数のユーザが視聴する場合に、ユーザの移動に追随してコンテンツ画面の表示位置が移動する例を説明する。本実施形態においては、コンテンツ画面の表示位置が干渉する場合には、ユーザの位置を検出し、最も画面に近いユーザの視聴コンテンツを優先して表示する、という特徴的な動作を行なう。
Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. In addition, the structure shown in the following embodiment is an example, and this invention is not limited to the structure shown in figure.
(First embodiment)
In the present embodiment, an example will be described in which when a plurality of users view a large display, the display position of the content screen moves following the movement of the users. In the present embodiment, when the display position of the content screen interferes, a characteristic operation is performed in which the user's position is detected and the viewing content of the user closest to the screen is displayed with priority.

<コンテンツウインドウ表示の動作画面例(図2〜図5)>
以下、図2〜5の動作画面例を表す図面を用い、本実施形態の表示制御の動作例を説明する。本実施形態では、ウインドウ間の表示位置が干渉した場合に、ディスプレイに最も近いユーザの視聴ウインドウが最も前面になるように重ね合わせて表示する。
<Example of operation window display (FIGS. 2 to 5)>
Hereinafter, an example of display control operation according to the present embodiment will be described with reference to FIGS. In the present embodiment, when the display position between the windows interferes, the viewing window of the user closest to the display is displayed so as to be the forefront.

図2は、ウインドウ間の干渉がない場合の表示例を示す図である。表示ディスプレイを2人のユーザが視聴している。
まず、表示ディスプレイの構成に関し、1は表示ディスプレイ本体であり、31は表示パネルである。表示ディスプレイ1の上辺には、水平方向にリモコン位置検出部21が複数個設置されている。22はカメラであり、表示ディスプレイ1が設置された部屋の上部に設置されており、表示ディスプレイ1の周囲の映像を撮影する。なお、ユーザの位置を表す座標系として、表示面の水平方向をX軸、垂直方向をY軸、表示面と鉛直の方向をZ軸と定義する。
FIG. 2 is a diagram illustrating a display example when there is no interference between windows. Two users are viewing the display.
First, regarding the configuration of the display display, 1 is a display display body, and 31 is a display panel. A plurality of remote control position detectors 21 are installed on the upper side of the display 1 in the horizontal direction. Reference numeral 22 denotes a camera, which is installed in the upper part of the room where the display display 1 is installed, and captures images around the display display 1. As a coordinate system representing the position of the user, the horizontal direction of the display surface is defined as the X axis, the vertical direction is defined as the Y axis, and the direction perpendicular to the display surface is defined as the Z axis.

表示ディスプレイ1の周囲には2名のユーザがおり、50はユーザA、51はユーザBである。表示パネル31上には、視聴するユーザの最寄りの位置にコンテンツウインドウが表示されている。ユーザAが視聴するウインドウA(52)は、ユーザAの最寄りの位置に表示される。ユーザBが視聴するウインドウB(53)は、ユーザBの最寄りの位置に表示される。   There are two users around the display 1, 50 is user A, and 51 is user B. On the display panel 31, a content window is displayed at a position closest to the viewing user. The window A (52) viewed by the user A is displayed at a position closest to the user A. A window B (53) viewed by the user B is displayed at a position closest to the user B.

図3は、ユーザが移動した場合の表示例を示す。図3は、ユーザB(51)が表示ディスプレイ1に向かって右方向に移動した様子を示す。ユーザの移動に追随してウインドウB(53)の表示位置も右方向に移動し、ユーザB(51)の新たな位置の最寄りに表示される。   FIG. 3 shows a display example when the user moves. FIG. 3 shows a state where the user B (51) moves rightward toward the display 1. Following the movement of the user, the display position of the window B (53) is also moved to the right and displayed near the new position of the user B (51).

図4は、ユーザが他のユーザの後ろを横切った場合の表示例を示す。ユーザA(50)とユーザB(51)の位置が近接した結果、ウインドウAとウインドウBの表示位置が干渉している。ユーザAの身体が邪魔になって、ユーザBの視聴が妨げられている。本実施形態では、ウインドウA(52)を最前面に表示することで、ユーザA(50)の視聴を継続できるようにした。   FIG. 4 shows a display example when the user crosses behind another user. As a result of the proximity of user A (50) and user B (51), the display positions of window A and window B interfere. User A's body is in the way, preventing user B from viewing. In the present embodiment, the viewing of the user A (50) can be continued by displaying the window A (52) in the foreground.

図5は、ユーザが他のユーザの前を横切った場合の表示例を示す。この場合も、ウインドウA(52)とウインドウB(53)の表示位置が干渉する。ユーザB(51)の身体が邪魔になって、ユーザAの視聴が妨げられている。この場合には、ウインドウB(53)を最前面に表示することで、最も画面近くにいるユーザBの視聴を継続できるようにした。
以上のように、本実施形態では、最も近いユーザの視聴するコンテンツ画面が最も前面になるように表示する動作を行なう。
FIG. 5 shows a display example when a user crosses in front of another user. Also in this case, the display positions of the window A (52) and the window B (53) interfere with each other. User B (51) 's body is in the way, preventing user A from viewing. In this case, the window B (53) is displayed in the foreground so that the viewing of the user B closest to the screen can be continued.
As described above, in the present embodiment, an operation for displaying the content screen viewed by the nearest user so that it is the foremost is performed.

<表示装置の構成(図1、図6)>
図1は、本実施形態の表示装置の特徴的な構成例を示すブロック図であり、図1を用いて表示装置の構成を説明する。
図1において、1は表示装置の本体であり、大型の表示面を持ち、複数の映像コンテンツの画面を表示できる表示ディスプレイである。2はユーザ位置検出部であり、表示ディスプレイ1の周囲にいるユーザの位置を検出する。また、コンテンツの操作を行なったユーザがどの位置のユーザであるかを検出する。
<Configuration of Display Device (FIGS. 1 and 6)>
FIG. 1 is a block diagram illustrating a characteristic configuration example of the display device according to the present embodiment. The configuration of the display device will be described with reference to FIG.
In FIG. 1, reference numeral 1 denotes a main body of a display device, which is a display display having a large display surface and capable of displaying a plurality of video content screens. Reference numeral 2 denotes a user position detection unit that detects the position of the user around the display 1. Further, it is detected at which position the user who has operated the content is.

3はユーザ識別部であり、検出されたユーザにIDを振って、それぞれのユーザを識別する。4はウインドウ関連付け部であり、コンテンツウインドウとユーザとを関連付けする。コンテンツウインドウの生成や操作を行なったユーザを当該ウインドウのオーナーであるとして、関連付けを行なう。   A user identification unit 3 assigns an ID to the detected user to identify each user. A window association unit 4 associates the content window with the user. Associating the user who has generated and operated the content window as the owner of the window.

5は優先度判定部であり、各ウインドウの表示優先度を判定する。ウインドウに関連付けられたユーザの距離を判定基準に用い、距離が近いウインドウに高い優先度を割当てる。6は映像入力部であり、放送波やビデオ信号等、外部から映像コンテンツのデータを入力する。7は表示画面作成部であり、決定された優先度に従ってコンテンツウインドウのレイアウトを行なって、表示画面データを作成する。   Reference numeral 5 denotes a priority determination unit that determines the display priority of each window. The distance of the user associated with the window is used as a criterion, and a high priority is assigned to a window with a short distance. Reference numeral 6 denotes a video input unit for inputting video content data such as broadcast waves and video signals from the outside. A display screen creation unit 7 lays out the content window according to the determined priority and creates display screen data.

本実施形態では、各ウインドウの表示位置が干渉した場合に、最も優先度の高いウインドウが最も前面になるように重ね合わせを行なう。8は表示部であり、表示画面データを表示パネル32に表示する。   In the present embodiment, when the display positions of the windows interfere with each other, the overlapping is performed so that the window with the highest priority comes to the forefront. A display unit 8 displays display screen data on the display panel 32.

図6は、本実施形態の表示装置の詳細な構成例を示すブロック図である。図1と共通の要素には同一番号を付し、説明を省略する。
本実施形態では、RFIDで検出したリモコン20の位置と画像認識で検出した人物の位置をマッチングさせることで、コンテンツを視聴するユーザの位置を特定する。
図6において、20はリモコンであり、ユーザに指示されたコマンドを赤外光に変調したデータ形式で出力する。また、リモコン20はRFIDを内蔵しており、ディスプレイ側にリモコン20のIDを検出させることができる。
FIG. 6 is a block diagram illustrating a detailed configuration example of the display device according to the present embodiment. Elements that are the same as those in FIG.
In the present embodiment, the position of the user viewing the content is specified by matching the position of the remote controller 20 detected by RFID with the position of the person detected by image recognition.
In FIG. 6, reference numeral 20 denotes a remote controller that outputs a command instructed by the user in a data format modulated into infrared light. Further, the remote controller 20 has a built-in RFID, and the ID of the remote controller 20 can be detected on the display side.

33はリモコン受光部であり、リモコン20から送信される赤外光を受信して電気信号に変換する。21はリモコン位置検出部であり、複数のRFID受信部で構成され、リモコン20の位置を検出する。図2で説明したように、表示ディスプレイ1の上辺に複数個が設置されている。最も受信感度が高かったRFID受信部の位置がリモコン20の位置として検出される。リモコン位置検出は、複数の赤外受光部を配置して検出するようにしてもよい。   A remote control light receiving unit 33 receives infrared light transmitted from the remote control 20 and converts it into an electrical signal. Reference numeral 21 denotes a remote control position detector, which is composed of a plurality of RFID receivers and detects the position of the remote controller 20. As described with reference to FIG. 2, a plurality are installed on the upper side of the display 1. The position of the RFID receiver having the highest reception sensitivity is detected as the position of the remote controller 20. The remote controller position detection may be performed by arranging a plurality of infrared light receiving units.

22はカメラであり、ディスプレイ周囲の光景を撮影する。23は画像認識部であり、撮影された画像の認識を行って、人物の位置を検出する。画像認識の方法は、任意の公知のアルゴリズムを使用することができる。例えば、特許文献2に示されるように、背景画像との差分から人物のシルエット関数を作成し、人体各部の寸法の閾値と比較することで、複数の人物を分離して抽出することができる。   Reference numeral 22 denotes a camera that captures a scene around the display. An image recognizing unit 23 recognizes a captured image and detects the position of a person. Any known algorithm can be used as the image recognition method. For example, as shown in Patent Document 2, it is possible to separate and extract a plurality of persons by creating a silhouette function of a person from the difference from the background image and comparing it with a threshold value of the dimensions of each part of the human body.

これに加えて、位置が既知である床上の物体と各人物の足位置を比較することで、人物の位置を特定することができる。24はユーザリストであり、認識された各ユーザの位置を記録する。25はウインドウリストであり、ウインドウに関連付けられたユーザのIDやウインドウを表示するための情報を記録する。両リストの詳細は後述する。   In addition to this, the position of the person can be specified by comparing the foot position of each person with an object on the floor whose position is known. Reference numeral 24 denotes a user list, which records the position of each recognized user. Reference numeral 25 denotes a window list, which records the user ID associated with the window and information for displaying the window. Details of both lists will be described later.

次に、映像コンテンツの表示に関わる要素を説明する。
26は映像入力部6を構成するビデオ入力インタフェースであり、外部からの映像コンテンツを入力する。例えば、アナログコンポジット信号やアナログコンポーネント信号、HDMIやDVI等のデジタルビデオ信号規格のインタフェースで構成され、各種の映像コンテンツを入力する。
Next, elements related to display of video content will be described.
Reference numeral 26 denotes a video input interface constituting the video input unit 6, which inputs video content from the outside. For example, an analog composite signal, an analog component signal, an interface of a digital video signal standard such as HDMI or DVI, and various video contents are input.

27は放送チューナであり、アンテナから入力された放送波から選択されたチャンネルの信号を抽出し、復調する。また、復調されたストリームデータのデコードを行なって、ビデオデータを出力する。   A broadcast tuner 27 extracts a signal of a selected channel from a broadcast wave input from an antenna and demodulates it. Further, the demodulated stream data is decoded to output video data.

28は高画質化処理部であり、入力された画像データに対して拡大縮小や輪郭補正、色補正等の画像処理を施す。29は重ね合せ制御部であり、視聴中のコンテンツウインドウを重ね合わせて描画することにより、表示パネル32に表示する画面データを作成する。30はOSD合成部であり、ビデオポート番号や音量設定など各種の操作情報を表示画面データにさらに重ね合わせる。   Reference numeral 28 denotes a high image quality processing unit which performs image processing such as enlargement / reduction, contour correction, and color correction on the input image data. An overlay control unit 29 creates screen data to be displayed on the display panel 32 by superimposing and drawing the content window being viewed. Reference numeral 30 denotes an OSD composition unit that further superimposes various operation information such as a video port number and volume setting on the display screen data.

31は表示パネル制御部であり、表示パネル32に画面を表示するための制御を行なう。表示パネル32の特性に合わせたタイミングの同期信号を生成し、同期信号に合わせて表示画面データを読み出して出力する。また、信号電圧レベルの変換や補助信号の作成も行なう。32は表示パネルであり、液晶やプラズマ、プロジェクション、CRT、有機EL、SED等の任意の表示方式で構成される。   A display panel control unit 31 performs control for displaying a screen on the display panel 32. A synchronization signal having a timing according to the characteristics of the display panel 32 is generated, and display screen data is read and output according to the synchronization signal. It also converts signal voltage levels and creates auxiliary signals. Reference numeral 32 denotes a display panel, which is configured by an arbitrary display method such as liquid crystal, plasma, projection, CRT, organic EL, or SED.

34は全体制御部であり、ユーザ位置検出や関連付け、映像表示制御を含め、表示ディスプレイ1の装置全体の制御を行なう。全体制御部34は、CPUと周辺回路、メモリ等から構成される。また、図示されていないが、表示ディスプレイ1は、音声データを再生するための音声処理部、アンプ、スピーカ、通信インタフェース、ユーザインタフェース、電源等を含む。   An overall control unit 34 controls the entire apparatus of the display 1 including user position detection and association, and video display control. The overall control unit 34 includes a CPU, peripheral circuits, memory, and the like. Although not shown, the display 1 includes an audio processing unit for reproducing audio data, an amplifier, a speaker, a communication interface, a user interface, a power source, and the like.

<ユーザ位置検出の処理の流れ(図7、図8)>
図7のフローチャートを用いて、ユーザ位置検出の処理の流れを説明する。ユーザ位置検出においては、ディスプレイ周囲の画像を画像認識して人物を抽出し、人物の位置を算出してユーザリストに登録する。なお、図7のフローチャートの各ステップの処理は、本実施形態の全体制御部34内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読み出されるプログラムにより実行される。
図7中、S701では、カメラ22を駆動してディスプレイ周囲の画像を撮影する。S702では、画像認識部23を駆動して人物を抽出する。S703では、ユーザ位置抽出部35を駆動して、人物の位置を算出する。S704では、算出した位置座標をユーザリスト24に登録し、S701へ戻る。前記の処理を、一定周期毎に繰り返すことで、ディスプレイ周囲にいるユーザの位置を追尾することができる。
<User position detection processing flow (FIGS. 7 and 8)>
A flow of user position detection processing will be described with reference to the flowchart of FIG. In user position detection, a person is extracted by recognizing an image around the display, and the position of the person is calculated and registered in the user list. The processing of each step in the flowchart of FIG. 7 is executed by a program stored in a memory such as a RAM or a ROM (not shown) in the overall control unit 34 of the present embodiment and read by a CPU or the like (not shown). .
In FIG. 7, in S701, the camera 22 is driven to capture an image around the display. In S702, the image recognition unit 23 is driven to extract a person. In step S703, the user position extraction unit 35 is driven to calculate the position of the person. In S704, the calculated position coordinates are registered in the user list 24, and the process returns to S701. By repeating the above process at regular intervals, the position of the user around the display can be tracked.

図8は、ユーザリストの構成例を示す図である。リストには人物毎の位置座標が記録されている。81はユーザIDであり、人物を識別するユニークな識別名が割当てられる。82はX座標であり、ディスプレイ左端から水平方向の距離が記録される。83はY座標であり、ディスプレイ上端から垂直方向の距離が記録される。84はZ座標であり、ディスプレイ面から鉛直方向の距離が記録される。図8の例では、ユーザAはX座標が1000、Y座標が500、Z座標が1700の場所にいることが記録されている。   FIG. 8 is a diagram illustrating a configuration example of a user list. The position coordinates for each person are recorded in the list. A user ID 81 is assigned a unique identification name for identifying a person. 82 is an X coordinate, and the distance in the horizontal direction from the left end of the display is recorded. Reference numeral 83 denotes a Y coordinate, in which a vertical distance from the upper end of the display is recorded. Reference numeral 84 denotes a Z coordinate, which records the distance in the vertical direction from the display surface. In the example of FIG. 8, it is recorded that the user A is at a place where the X coordinate is 1000, the Y coordinate is 500, and the Z coordinate is 1700.

<コンテンツウインドウ関連付けの処理の流れ(図9、図10)>
図9のフローチャートを用いて、ユーザとウインドウの関連付け処理の流れを説明する。図9のフローチャートの各ステップの処理は、本実施形態の全体制御部34内の、不図示のRAMやROMなどのメモリに格納され、不図示のCPUなどにより読み出されるプログラムにより実行される。
リモコン20が操作された時にリモコン位置を検出し、操作したユーザとユーザリスト中のユーザをマッチングする。リモコン20によって生成・操作されたウインドウをユーザに関連付け、ウインドウリストに登録する。
<Flow of Content Window Association Processing (FIGS. 9 and 10)>
The flow of the association process between the user and the window will be described with reference to the flowchart of FIG. The processing of each step of the flowchart of FIG. 9 is executed by a program stored in a memory such as a RAM or a ROM (not shown) in the overall control unit 34 of the present embodiment and read by a CPU or the like (not shown).
When the remote controller 20 is operated, the position of the remote controller is detected, and the operated user is matched with the user in the user list. The window generated and operated by the remote controller 20 is associated with the user and registered in the window list.

S901では、リモコン受信があったかを判定し、肯定であればS902へ進み、否定であればS901の実行を繰返す(待機状態)。
S902では、リモコン受光部33を用いて、リモコン20のコマンドを受信する。
S903では、リモコン位置検出部21を用いて、リモコン20の位置を検出する。
S904では、リモコン位置の最も近傍にいるユーザをユーザリスト24から検索する。
S905では、検索されたユーザをウインドウリスト25に追加する。
S906では、リモコン20で指示されたコマンドをウインドウに対して実行し、S901へ戻る。
In S901, it is determined whether there has been remote control reception. If affirmative, the process proceeds to S902, and if negative, the execution of S901 is repeated (standby state).
In S902, the remote control light receiving unit 33 is used to receive a command from the remote control 20.
In S903, the position of the remote controller 20 is detected using the remote controller position detector 21.
In S904, a user who is closest to the remote control position is searched from the user list 24.
In step S905, the searched user is added to the window list 25.
In S906, the command instructed by the remote controller 20 is executed for the window, and the process returns to S901.

図10は、ウインドウリスト25の構成例を示す図である。ウインドウリスト25には、関連付けられたユーザID、表示コンテンツ名、表示座標、優先順位が記録される。
図10において、1001はウインドウIDであり、ウインドウを識別するID番号が割当てられる。1002はユーザIDであり、ウインドウに関連付けられたユーザIDが記録される。1003はコンテンツ名であり、ウインドウで表示する入力ソース名やチャンネル名が記録される。
FIG. 10 is a diagram illustrating a configuration example of the window list 25. In the window list 25, the associated user ID, display content name, display coordinates, and priority are recorded.
In FIG. 10, reference numeral 1001 denotes a window ID, which is assigned an ID number for identifying a window. Reference numeral 1002 denotes a user ID, which records a user ID associated with the window. Reference numeral 1003 denotes a content name in which an input source name and a channel name displayed in the window are recorded.

1004はX座標、1005はY座標であり、表示画面上でウインドウがレイアウトされる領域の座標が記録される。1006は優先順位であり、後述の映像表示処理で決定された優先順位が記録される。図10の例では、ウインドウ1は、ユーザAに関連付けられており、VIDEO3のソースを表示する。また、表示位置はX座標が700、Y座標が400であり、優先順位は1である。
以上の処理により、ユーザとユーザが操作指示したコンテンツを関連付けることができる。
Reference numeral 1004 denotes an X coordinate, and reference numeral 1005 denotes a Y coordinate. The coordinates of an area where a window is laid out on the display screen are recorded. Reference numeral 1006 denotes a priority order, which records the priority order determined in the video display process described later. In the example of FIG. 10, window 1 is associated with user A and displays the source of VIDEO 3. The display position is 700 for the X coordinate and 400 for the Y coordinate, and the priority is 1.
Through the above processing, the user and the content instructed by the user can be associated with each other.

<映像表示の処理の流れ(図11)>
図11のフローチャートを用いて映像表示の処理の流れを説明する。この映像表示処理は、ディスプレイが1フレームを表示する毎に実行される。各ウインドウの表示位置と優先順位を決定した後に、優先順位の順にコンテンツを描画して表示出力する。
<Flow of video display processing (FIG. 11)>
The flow of video display processing will be described with reference to the flowchart of FIG. This video display process is executed every time the display displays one frame. After determining the display position and priority of each window, the contents are drawn and displayed in the order of priority.

S1101では、ウインドウリスト25からウインドウIDを順に取り出す。当該ウインドウに関連付けられたユーザIDを取り出す。
S1102では、ユーザリスト24からユーザIDを検索し、当該ユーザの位置座標を取り出す。
S1103では、ユーザの位置が中心となるように、ウインドウの表示位置を決定する。
S1104では、関連付けられたユーザの距離が近い順にウインドウの優先順位を並べ替える。ユーザの距離はユーザリストのZ座標フィールド84の値を用い、並べ替えられた優先順位はウインドウリスト25の優先順位フィールド1006に記録される。
In step S1101, window IDs are sequentially extracted from the window list 25. The user ID associated with the window is extracted.
In S1102, the user ID is searched from the user list 24, and the position coordinates of the user are extracted.
In S1103, the display position of the window is determined so that the position of the user is the center.
In step S <b> 1104, the window priorities are rearranged in order of increasing distance between the associated users. The distance of the user uses the value in the Z coordinate field 84 of the user list, and the sorted priority is recorded in the priority field 1006 of the window list 25.

S1105では、優先度判定したウインドウが最後のウインドウか判定し、肯定であればS1106へ、否定であればS1101へ進む。
S1106では、優先順位が低いウインドウから順に、コンテンツ画面を表示用メモリに描画する。優先順位が低いウインドウほど背面に描画される。
S1107では、描画されたウインドウが最後のウインドウか判定し、肯定であればS1108へ、否定であればS1106へ進む。
S1108では、全てのコンテンツ画面が描画された1フレーム分の画面データを表示パネルに出力し、ディスプレイ画面に表示させる。
In S1105, it is determined whether the priority-determined window is the last window. If the result is affirmative, the process proceeds to S1106. If the result is negative, the process proceeds to S1101.
In S1106, the content screens are drawn in the display memory in order from the window with the lowest priority. Windows with lower priority are drawn on the back.
In S1107, it is determined whether the drawn window is the last window. If the result is affirmative, the process proceeds to S1108. If the result is negative, the process proceeds to S1106.
In step S1108, screen data for one frame in which all content screens are drawn is output to the display panel and displayed on the display screen.

以上の処理により、ユーザの最寄りの位置に追随してコンテンツ画面を表示することができる。ウインドウ位置が干渉した場合は、最も近いユーザが視聴するウインドウを最前面に重ね合わせて表示することができる。
以上説明したように、本実施形態によれば、最も近くで視聴するユーザのコンテンツを優先して表示するので、視聴の邪魔を最小限に抑えることができる。
Through the above processing, the content screen can be displayed following the position closest to the user. When the window position interferes, the window viewed by the nearest user can be displayed superimposed on the foreground.
As described above, according to the present embodiment, the content of the user who is viewed closest is displayed preferentially, so that it is possible to minimize the disturbing viewing.

本発明は、前述の実施形態に限定されるものではなく、幅広く応用することが可能である。
優先されたウインドウの表示レイアウトは、以下のようにしてもよい。図12に示すように、高優先度のウインドウ(52)を迂回する位置に低優先度のウインドウ(53)をレイアウトしてもよい。図13に示すように、低優先度のウインドウ(53)を縮小表示してもよい。低優先度のウインドウの表示を薄くして表示してもよい。
The present invention is not limited to the above-described embodiments, and can be widely applied.
The display layout of the prioritized window may be as follows. As shown in FIG. 12, the low-priority window (53) may be laid out at a position that bypasses the high-priority window (52). As shown in FIG. 13, the low priority window (53) may be reduced. The display of the low priority window may be made thinner.

3次元映像を表示可能なディスプレイにおいて、低優先度の3次元コンテンツを3次元的に遠方にレイアウトしてもよい。ユーザは遠方よりも近くのオブジェクトを注視する可能性が高いから、低優先度の3次元コンテンツを遠方にレイアウトすることで、視聴の妨げを減らすことができる。また、ウインドウ自体を遠方にレイアウトするのではなく、主要な被写体が遠方に配置されるようにコンテンツ画像をブレンド表示するようにしてもよい。
また、前述した表示レイアウト方法を組み合わせてもよい。例えば、低優先度のウインドウを縮小した上で迂回するようにレイアウトしてもよい。
In a display capable of displaying 3D video, low priority 3D content may be laid out 3D far away. Since the user has a high possibility of gazing at an object closer to the distance, it is possible to reduce the obstacle to viewing by laying out the low-priority three-dimensional content in the distance. Further, the content image may be blended and displayed so that the main subject is arranged far away, instead of laying out the window itself far away.
Further, the display layout methods described above may be combined. For example, it may be laid out so that a low priority window is reduced and then bypassed.

本実施形態でのユーザ位置検出はリモコンの位置検出と画像認識を併用して行なったが、画像認識だけで行なうようにしてもよい。リモコンの形状をマッチングさせ、撮影画像のどこに位置するかを検出すればよい。また、CMOSエリアセンサや超音波センサ等の距離センサを併用して位置検出するようにしてもよい。   Although the user position detection in this embodiment is performed by using both the position detection of the remote controller and the image recognition, it may be performed only by the image recognition. It is only necessary to match the shape of the remote control and detect where in the captured image. Further, the position may be detected by using a distance sensor such as a CMOS area sensor or an ultrasonic sensor together.

本実施形態でのユーザの関連付けはリモコン位置の検出と画像認識を併用して行なったが、リモコンのRFIDだけで行なうようにしてもよい。ユニークなIDを持つ複数のリモコンが存在して一人一台持っていた場合には、操作が行なわれたリモコンのRFIDで関連付けを行なうことができる。
さらに、本発明の各工程は、ネットワーク又は各種記憶媒体を介して取得したソフトウエア(プログラム)をパソコン等の処理装置(CPU、プロセッサ)にて実行することでも実現できる。
In the present embodiment, the user association is performed using both the remote control position detection and the image recognition. However, the user association may be performed using only the RFID of the remote control. When there are a plurality of remote controllers with unique IDs and each one has one, the association can be made with the RFID of the remote controller that has been operated.
Furthermore, each process of the present invention can also be realized by executing software (program) acquired via a network or various storage media by a processing device (CPU, processor) such as a personal computer.

(第2の実施形態)
本実施形態では、ウインドウが視聴中か否かを検出し、見られていないウインドウを優先制御の対象から外す例を説明する。撮影画像を画像認識してユーザの顔の向きを検出し、ユーザがウインドウを向いている場合を視聴中と判定する。
(Second Embodiment)
In the present embodiment, an example will be described in which it is detected whether or not a window is being viewed and a window that is not viewed is excluded from the priority control targets. The captured image is recognized to detect the orientation of the user's face, and when the user is facing the window, it is determined that the user is viewing.

<表示装置の構成(図14、図15)>
図14は、本実施形態の表示装置の特徴的な構成例を示すブロック図である。図1と共通の要素には同一番号を付し、説明を省略する。図14では、ユーザ視聴検出部9が追加されている。ユーザ視聴検出部9は、各ユーザがウインドウを見ているか否かを検出し、検出結果をユーザ識別部3に通知する。
<Configuration of Display Device (FIGS. 14 and 15)>
FIG. 14 is a block diagram illustrating a characteristic configuration example of the display device of the present embodiment. Elements that are the same as those in FIG. In FIG. 14, a user viewing detection unit 9 is added. The user viewing detection unit 9 detects whether each user is looking at the window and notifies the user identification unit 3 of the detection result.

図15は、本実施形態の表示装置の詳細な構成例を示すブロック図である。図15では、図6の構成にユーザ視聴検出部9が追加されている。ユーザ視聴検出部9は、ユーザ顔方向抽出部36で構成される。ユーザ顔方向抽出部36は、画像認識部23の認識結果からユーザの顔の方向を検出する。顔方向の検出は、任意の公知のアルゴリズムを使用してよい。例えば、特許文献3に示されるように、顔の向きごとに算出した平均特徴ベクトルと、認識対象の画像データから抽出した特徴データを使用してマッチングを行なうことで、顔の向きを検出できる。   FIG. 15 is a block diagram illustrating a detailed configuration example of the display device according to the present embodiment. In FIG. 15, a user viewing detection unit 9 is added to the configuration of FIG. The user viewing detection unit 9 includes a user face direction extraction unit 36. The user face direction extraction unit 36 detects the direction of the user's face from the recognition result of the image recognition unit 23. Any known algorithm may be used to detect the face direction. For example, as shown in Patent Document 3, the face orientation can be detected by performing matching using an average feature vector calculated for each face orientation and feature data extracted from image data to be recognized.

<ユーザ位置検出の処理の流れ(図16、図17)>
図16は、ユーザ位置検出の処理の流れを示すフローチャートである。図16のフローチャートは、図7のフローチャートにS1601を追加した。S1601では、画像認識部23の結果を用いて、ユーザの顔の方向を判定する。続くS704では、従前のフィールドに加えて、ユーザの顔方向の判定結果を視聴有無のフィールドに登録する。
図17は、本実施形態におけるユーザリストの構成例を示す図である。図17は、図8のユーザリストに視聴有無フィールド85を追加した。視聴有無フィールド85は、ユーザ視聴検出部9の結果を記録する。図17の例では、ユーザAはウインドウを見ており、ユーザBは見ていないことを示す。
<User position detection processing flow (FIGS. 16 and 17)>
FIG. 16 is a flowchart showing a flow of user position detection processing. In the flowchart of FIG. 16, S1601 is added to the flowchart of FIG. In step S1601, the result of the image recognition unit 23 is used to determine the direction of the user's face. In subsequent S704, in addition to the previous field, the determination result of the user's face direction is registered in the viewing / non-viewing field.
FIG. 17 is a diagram illustrating a configuration example of a user list in the present embodiment. In FIG. 17, a viewing / non-viewing field 85 is added to the user list of FIG. The viewing presence / absence field 85 records the result of the user viewing detection unit 9. In the example of FIG. 17, the user A is looking at the window and the user B is not looking.

<映像表示の処理の流れ(図18)>
図18は、映像表示の処理の流れを示すフローチャートである。図18は、図11のフローチャートにS1801及びS1802を追加した。S1801では、関連付けられているユーザが当該ウインドウを見ているかを判定し、肯定であればS1104へ、否定であればS1802へ進む。
<Flow of video display processing (FIG. 18)>
FIG. 18 is a flowchart showing a flow of video display processing. In FIG. 18, S1801 and S1802 are added to the flowchart of FIG. In S1801, it is determined whether the associated user is looking at the window. If the result is affirmative, the process proceeds to S1104. If the result is negative, the process proceeds to S1802.

S1104では、前述の実施形態と同様にウインドウの優先度の並べ替えを行ない、S1105へ進む。S1802では、優先度制御の対象から外れた場合の処理であり、当該ウインドウを優先度を最も低く設定し、S1105へ進む。これにより、優先度制御の対象から外れたウインドウは、背面にレイアウトされる。以上の処理により、ユーザがウインドウを見ているか判定して、見られていないウインドウを優先度制御の対象から外して背面にレイアウトすることができる。   In step S1104, the window priorities are rearranged in the same manner as in the above-described embodiment, and the process advances to step S1105. In S1802, the process is performed when the priority control is not performed, and the priority of the window is set to the lowest, and the process proceeds to S1105. As a result, the windows that are not subject to priority control are laid out on the back side. With the above processing, it is possible to determine whether the user is looking at the window and to remove the window that is not seen from the priority control target and lay it out on the back side.

以上説明したように、本実施形態によれば前述の実施形態と同様な効果を得ることができる。さらに、画面を見ていないユーザを優先度制御の対象から外せるので、本当に視聴しているユーザの視聴の邪魔をさらに低減することが可能になる。   As described above, according to this embodiment, the same effect as that of the above-described embodiment can be obtained. Furthermore, since the user who is not viewing the screen can be excluded from the priority control target, it is possible to further reduce the obstruction of viewing of the user who is actually viewing.

本発明は、前述の実施形態に限定されるものではなく、幅広く応用することが可能である。
本実施形態では視聴しているか否かの判定を顔の向きで行なったが、視線の方向で行なってもよい。この場合、ユーザ視聴検出部9は、撮影された画像の画像認識結果から視線方向を検出する。視線方向の検出は、任意の公知のアルゴリズムを使用してよい。例えば、特許文献4に示されるように、被験者の目の開閉画像でキャリブレーションを行い、目と眉のテンプレートと入力画像を比較することで、視線方向を検出できる。
The present invention is not limited to the above-described embodiments, and can be widely applied.
In this embodiment, whether or not the user is viewing is determined based on the face direction, but may be determined based on the line of sight. In this case, the user viewing detection unit 9 detects the line-of-sight direction from the image recognition result of the captured image. Any known algorithm may be used to detect the gaze direction. For example, as shown in Patent Document 4, the line-of-sight direction can be detected by performing calibration with the open / closed image of the subject's eyes and comparing the input image with the eye and eyebrow template.

また、画像認識によらず、角度センサなど各種センサを使用して視聴検出するようにしてもよい。ユーザの頭部に眼球の動きを検出するようなセンサを装着して、視線を検出するようにしてもよい。   Further, viewing detection may be performed by using various sensors such as an angle sensor regardless of image recognition. A sensor that detects the movement of the eyeball may be attached to the user's head to detect the line of sight.

また、見られていないウインドウを一旦、表示画面から消去するようにしてもよい。一定時間以上、見られていないことを検出して、ウインドウリストに記録する。映像表示の処理では、見られていないウインドウの描画をスキップする。再びユーザが表示画面を見た場合には、その最寄りの位置にコンテンツ画面を改めて描画するようにしてもよい。また、再度のリモコン処理でウインドウの表示を再開するようにしてもよい。   In addition, a window that is not seen may be temporarily deleted from the display screen. It detects that it has not been seen for a certain period of time and records it in the window list. In the video display process, drawing of a window that has not been seen is skipped. When the user views the display screen again, the content screen may be redrawn at the nearest position. Further, the window display may be resumed by the remote control process again.

本実施形態では、ユーザが見ていない場合に優先度を下げる処理を行なったが、ユーザが移動速度に応じて優先度を下げるようにしてもよい。移動中は前方の光景を注視する可能性が高いから、優先度を下げても視聴への影響度合いは少ない。ユーザ位置抽出部35は、前回のユーザ位置との差分からユーザの移動速度を検出し、ユーザリスト24に記録する。映像表示処理では、ユーザの移動速度が一定以上の場合は、優先度並べ替えの対象から外して背面にレイアウトする。以上のようにすることで、ユーザの移動速度を考慮した優先度制御を行なうことができる。   In the present embodiment, the process of lowering the priority is performed when the user is not watching, but the user may lower the priority according to the moving speed. Since there is a high possibility of gazing at the scene in front while moving, the degree of influence on viewing is small even if the priority is lowered. The user position extraction unit 35 detects the moving speed of the user from the difference from the previous user position and records it in the user list 24. In the video display process, when the moving speed of the user is equal to or higher than a certain level, the user is excluded from the priority rearrangement target and laid out on the back side. As described above, priority control can be performed in consideration of the moving speed of the user.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (computer program) that implements the functions of the above-described embodiments is supplied to a system or apparatus via a network or various computer-readable storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program.

1 表示装置、2 ユーザ位置検出部、3 ユーザ識別部、4 ウインドウ関連付け部、5 優先度判定部、6 映像入力部、7 表示画面作成部、8 表示部、9 ユーザ視聴検出部、20 リモコン、21 リモコン位置検出部、22 カメラ、23 画像認識部、24 ユーザリスト、25 ウインドウリスト、26 ビデオ入力インタフェース、27 放送チューナ、28 高画質化処理部、29 重ね合せ制御部、30 OSD合成部、31 表示パネル制御部、32 表示パネル、33 リモコン受光部、34 全体制御部、35 ユーザ位置抽出部、36 ユーザ顔方向抽出部、50 ユーザA、51 ユーザB、52 ウインドウA、53 ウインドウB DESCRIPTION OF SYMBOLS 1 Display apparatus, 2 User position detection part, 3 User identification part, 4 Window correlation part, 5 Priority determination part, 6 Video input part, 7 Display screen creation part, 8 Display part, 9 User viewing detection part, 20 Remote control, 21 Remote control position detection unit, 22 Camera, 23 Image recognition unit, 24 User list, 25 Window list, 26 Video input interface, 27 Broadcast tuner, 28 High image quality processing unit, 29 Overlay control unit, 30 OSD composition unit, 31 Display panel control unit, 32 Display panel, 33 Remote control light receiving unit, 34 Overall control unit, 35 User position extraction unit, 36 User face direction extraction unit, 50 User A, 51 User B, 52 Window A, 53 Window B

Claims (24)

複数の映像コンテンツを入力する手段と、
複数のユーザを識別する手段と、
ユーザの位置を検出する検出手段と、
ユーザと視聴する映像コンテンツを関連付ける手段と、
ユーザの位置に応じて優先度を決定する手段と、
前記優先度に応じて映像コンテンツをレイアウトして表示画面を作成する作成手段と、
前記表示画面を表示する手段と、
を備えたことを特徴とする表示装置。
Means for inputting a plurality of video contents;
Means for identifying a plurality of users;
Detecting means for detecting the position of the user;
Means for associating a user with video content for viewing;
Means for determining priority according to the position of the user;
Creating means for laying out video content according to the priority and creating a display screen;
Means for displaying the display screen;
A display device comprising:
前記作成手段は、関連付けられたコンテンツをユーザの最寄りの位置に表示することを特徴とする請求項1に記載の表示装置。   The display device according to claim 1, wherein the creating unit displays the associated content at a position closest to the user. 前記優先度を決定する手段は、装置とユーザとの距離が近いほど、関連付けられたコンテンツに高い優先度を与えるように制御することを特徴とする請求項1または2に記載の表示装置。   3. The display device according to claim 1, wherein the priority determining unit performs control so as to give a higher priority to the associated content as the distance between the device and the user is shorter. ユーザが移動しているかを判定する判定手段をさらに設け、
前記優先度を決定する手段は、前記判定手段による判定の結果に応じて、移動の速度が低いユーザほど高い優先度を与えることを特徴とする請求項1〜3の何れか1項に記載の表示装置。
A determination unit for determining whether the user is moving;
The means for determining the priority gives a higher priority to a user whose movement speed is lower in accordance with a result of determination by the determination means. Display device.
ユーザの映像コンテンツを見ているかを検出する手段をさらに設け、
前記優先度を決定する手段は、前記検出手段の検出結果に応じて、映像コンテンツを見ているユーザのみを優先度の制御の対象とすることを特徴とする請求項1〜4の何れか1項に記載の表示装置。
A means for detecting whether the user is viewing video content;
5. The priority determination unit according to claim 1, wherein only the user who is viewing the video content is subject to priority control according to a detection result of the detection unit. The display device according to item.
前記映像コンテンツを見ているかを検出する手段は、撮影手段と画像認識手段とを含み、ユーザの顔が映像コンテンツの表示画面の方向を向いているかを検出することを特徴とする請求項5に記載の表示装置。   The means for detecting whether or not the video content is viewed includes a photographing means and an image recognition means, and detects whether a user's face is facing a display screen of the video content. The display device described. 前記映像コンテンツを見ているかを検出する手段は、撮影手段と画像認識手段とを含み、ユーザの視線が映像コンテンツの表示画面の方向を向いているかを検出することを特徴とする請求項5に記載の表示装置。   6. The means for detecting whether or not the video content is viewed includes a photographing means and an image recognition means, and detects whether the user's line of sight is directed toward the display screen of the video content. The display device described. 前記作成手段は、優先度の低い映像コンテンツが背面になるようにコンテンツ画面を重ね合わせることを特徴とする請求項1〜7の何れか1項に記載の表示装置。   The display device according to claim 1, wherein the creation unit superimposes content screens such that video content with low priority is on the back. 前記作成手段は、優先度の低い映像コンテンツを縮小してレイアウトすることを特徴とする請求項1〜7の何れか1項に記載の表示装置。   The display device according to any one of claims 1 to 7, wherein the creation unit reduces and lays out a video content having a low priority. 前記作成手段は、優先度の低い映像コンテンツの色を薄くしてレイアウトすることを特徴とする請求項1〜7の何れか1項に記載の表示装置。   The display device according to claim 1, wherein the creating unit lays out the video content having a low priority with a lighter color. 前記作成手段は、3次元の表示画面を作成するものであって、優先度の低い映像コンテンツが遠方に位置するようにレイアウトすることを特徴とする請求項1〜7の何れか1項に記載の表示装置。   8. The creation unit according to claim 1, wherein the creation unit creates a three-dimensional display screen, and performs layout so that video content having a low priority is located far away. Display device. 複数の映像コンテンツを入力するステップと、
複数のユーザを識別するステップと、
ユーザの位置を検出する検出ステップと、
ユーザと視聴する映像コンテンツを関連付けるステップと、
ユーザの位置に応じて優先度を決定するステップと、
前記優先度に応じて映像コンテンツをレイアウトして表示画面を作成する作成ステップと、
前記表示画面を表示するステップと、
を備えたことを特徴とする表示方法。
Inputting a plurality of video contents;
Identifying a plurality of users;
A detecting step for detecting the position of the user;
Associating a user with video content for viewing;
Determining priority according to the user's location;
A creation step of laying out video content according to the priority and creating a display screen;
Displaying the display screen;
A display method characterized by comprising:
前記作成ステップは、関連付けられたコンテンツをユーザの最寄りの位置に表示することを特徴とする請求項12に記載の表示方法。   The display method according to claim 12, wherein the creating step displays the associated content at a position closest to the user. 前記優先度を決定するステップは、装置とユーザとの距離が近いほど、関連付けられたコンテンツに高い優先度を与えるように制御することを特徴とする請求項12または13に記載の表示方法。   The display method according to claim 12 or 13, wherein the step of determining the priority performs control so that the closer the distance between the device and the user is, the higher the priority is given to the associated content. ユーザが移動しているかを判定する判定ステップをさらに設け、
前記優先度を決定するステップは、前記判定ステップによる判定の結果に応じて、移動の速度が低いユーザほど高い優先度を与えることを特徴とする請求項12〜14の何れか1項に記載の表示方法。
A determination step for determining whether the user is moving;
15. The method according to claim 12, wherein the step of determining the priority gives a higher priority to a user whose movement speed is lower according to a result of the determination in the determination step. Display method.
ユーザの映像コンテンツを見ているかを検出するステップをさらに設け、
前記優先度を決定するステップは、前記検出ステップの検出結果に応じて、映像コンテンツを見ているユーザのみを優先度の制御の対象とすることを特徴とする請求項12〜15の何れか1項に記載の表示方法。
Further comprising detecting whether the user is viewing video content;
The step of determining the priority includes only a user who is viewing video content as a target of priority control according to a detection result of the detection step. The display method according to the item.
前記映像コンテンツを見ているかを検出するステップは、撮影ステップと画像認識ステップとを含み、ユーザの顔が映像コンテンツの表示画面の方向を向いているかを検出することを特徴とする請求項16に記載の表示方法。   The step of detecting whether the video content is being viewed includes a shooting step and an image recognition step, and detecting whether the user's face is facing a display screen of the video content. Display method of description. 前記映像コンテンツを見ているかを検出するステップは、撮影ステップと画像認識ステップとを含み、ユーザの視線が映像コンテンツの表示画面の方向を向いているかを検出することを特徴とする請求項16に記載の表示方法。   The step of detecting whether or not the video content is viewed includes a shooting step and an image recognition step, and detecting whether or not the user's line of sight is directed toward the display screen of the video content. Display method of description. 前記作成ステップは、優先度の低い映像コンテンツが背面になるようにコンテンツ画面を重ね合わせることを特徴とする請求項12〜18の何れか1項に記載の表示方法。   The display method according to any one of claims 12 to 18, wherein in the creating step, the content screens are overlapped so that video content with low priority is on the back. 前記作成ステップは、優先度の低い映像コンテンツを縮小してレイアウトすることを特徴とする請求項12〜18の何れか1項に記載の表示方法。   The display method according to any one of claims 12 to 18, wherein in the creation step, video content having a low priority is reduced and laid out. 前記作成ステップは、優先度の低い映像コンテンツの色を薄くしてレイアウトすることを特徴とする請求項12〜18の何れか1項に記載の表示方法。   The display method according to any one of claims 12 to 18, wherein, in the creating step, the video content having a low priority is laid out with a light color. 前記作成ステップは、3次元の表示画面を作成するものであって、優先度の低い映像コンテンツが遠方に位置するようにレイアウトすることを特徴とする請求項12〜18の何れか1項に記載の表示方法。   19. The creation step is for creating a three-dimensional display screen, and laying out such that video content with a low priority is located far away. How to display. 複数の映像コンテンツを入力するステップと、
複数のユーザを識別するステップと、
ユーザの位置を検出する検出ステップと、
ユーザと視聴する映像コンテンツを関連付けるステップと、
ユーザの位置に応じて優先度を決定するステップと、
前記優先度に応じて映像コンテンツをレイアウトして表示画面を作成する作成ステップと、
前記表示画面を表示するステップとをコンピュータに実行させることを特徴とするプログラム。
Inputting a plurality of video contents;
Identifying a plurality of users;
A detecting step for detecting the position of the user;
Associating a user with video content for viewing;
Determining priority according to the user's location;
A creation step of laying out video content according to the priority and creating a display screen;
A program causing a computer to execute the step of displaying the display screen.
請求項23に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 23.
JP2011260591A 2011-11-29 2011-11-29 Display device and display method Pending JP2013115644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011260591A JP2013115644A (en) 2011-11-29 2011-11-29 Display device and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011260591A JP2013115644A (en) 2011-11-29 2011-11-29 Display device and display method

Publications (1)

Publication Number Publication Date
JP2013115644A true JP2013115644A (en) 2013-06-10

Family

ID=48710805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011260591A Pending JP2013115644A (en) 2011-11-29 2011-11-29 Display device and display method

Country Status (1)

Country Link
JP (1) JP2013115644A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016122182A (en) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 Projection device
WO2016117194A1 (en) * 2015-01-21 2016-07-28 ソニー株式会社 Information processing apparatus, communication system, information processing method and program
JP2016151786A (en) * 2015-02-16 2016-08-22 三菱電機株式会社 Guidance system
JP2017028379A (en) * 2015-07-17 2017-02-02 ヤフー株式会社 Information display program, information display method, information display device, distribution device and distribution method
JP2017092518A (en) * 2015-11-02 2017-05-25 コニカミノルタ株式会社 Compound machine
JPWO2016072128A1 (en) * 2014-11-04 2017-08-10 ソニー株式会社 Information processing apparatus, communication system, information processing method, and program
JP2018502531A (en) * 2015-10-08 2018-01-25 小米科技有限責任公司Xiaomi Inc. Display image adjustment method and apparatus, program and recording medium
US10073262B2 (en) 2014-06-16 2018-09-11 Seiko Epson Corporation Information distribution system, head mounted display, method for controlling head mounted display, and computer program
WO2019044100A1 (en) * 2017-08-31 2019-03-07 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2019210082A (en) * 2018-06-01 2019-12-12 三菱電機ビルテクノサービス株式会社 Elevator display system and program
JP2019219514A (en) * 2018-06-20 2019-12-26 Zホールディングス株式会社 Display controller, and method and program for controlling display
JP2020101892A (en) * 2018-12-20 2020-07-02 シャープ株式会社 Information processing equipment
JP2021026204A (en) * 2019-08-07 2021-02-22 伊藤組土建株式会社 Person destined information display device, person destined information display system and person destined information display program
JP2022021544A (en) * 2020-07-22 2022-02-03 キヤノン株式会社 Projection device, method for controlling projection device, and program

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10073262B2 (en) 2014-06-16 2018-09-11 Seiko Epson Corporation Information distribution system, head mounted display, method for controlling head mounted display, and computer program
JPWO2016072128A1 (en) * 2014-11-04 2017-08-10 ソニー株式会社 Information processing apparatus, communication system, information processing method, and program
JP2016122182A (en) * 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 Projection device
EP3249934A4 (en) * 2015-01-21 2018-12-05 Sony Corporation Information processing apparatus, communication system, information processing method and program
WO2016117194A1 (en) * 2015-01-21 2016-07-28 ソニー株式会社 Information processing apparatus, communication system, information processing method and program
JPWO2016117194A1 (en) * 2015-01-21 2017-12-07 ソニー株式会社 Information processing apparatus, communication system, information processing method, and program
US20180004684A1 (en) * 2015-01-21 2018-01-04 Sony Corporation Information processing device, communication system, information processing method, and program
US10795831B2 (en) 2015-01-21 2020-10-06 Sony Corporation Information processing device, communication system, information processing method
JP2016151786A (en) * 2015-02-16 2016-08-22 三菱電機株式会社 Guidance system
JP2017028379A (en) * 2015-07-17 2017-02-02 ヤフー株式会社 Information display program, information display method, information display device, distribution device and distribution method
JP2018502531A (en) * 2015-10-08 2018-01-25 小米科技有限責任公司Xiaomi Inc. Display image adjustment method and apparatus, program and recording medium
US10026381B2 (en) 2015-10-08 2018-07-17 Xiaomi Inc. Method and device for adjusting and displaying image
JP2017092518A (en) * 2015-11-02 2017-05-25 コニカミノルタ株式会社 Compound machine
WO2019044100A1 (en) * 2017-08-31 2019-03-07 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2019210082A (en) * 2018-06-01 2019-12-12 三菱電機ビルテクノサービス株式会社 Elevator display system and program
JP2019219514A (en) * 2018-06-20 2019-12-26 Zホールディングス株式会社 Display controller, and method and program for controlling display
JP2020101892A (en) * 2018-12-20 2020-07-02 シャープ株式会社 Information processing equipment
JP7141327B2 (en) 2018-12-20 2022-09-22 シャープ株式会社 Information processing equipment
JP2021026204A (en) * 2019-08-07 2021-02-22 伊藤組土建株式会社 Person destined information display device, person destined information display system and person destined information display program
JP2022021544A (en) * 2020-07-22 2022-02-03 キヤノン株式会社 Projection device, method for controlling projection device, and program

Similar Documents

Publication Publication Date Title
JP2013115644A (en) Display device and display method
US11470377B2 (en) Display apparatus and remote operation control apparatus
US9667952B2 (en) Calibration for directional display device
JP5641970B2 (en) Operating device, playback device, and television receiver
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
KR101585466B1 (en) Method for Controlling Operation of Electronic Appliance Using Motion Detection and Electronic Appliance Employing the Same
CN105763917B (en) A kind of control method and system of terminal booting
US9442561B2 (en) Display direction control for directional display device
US20120287246A1 (en) Image processing apparatus capable of displaying image indicative of face area, method of controlling the image processing apparatus, and storage medium
US9791934B2 (en) Priority control for directional display device
US20130093670A1 (en) Image generation device, method, and integrated circuit
JP5598232B2 (en) Information processing apparatus, information processing system, and information processing method
CN107533366A (en) Information display device and method for information display
KR20110066901A (en) A user interface device, a user interface method, and a recording medium
JP2003316510A (en) A display device and a display program for displaying a designated point on a display screen.
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2011059528A (en) Display device and control method
KR20120033723A (en) 3d glasses and method for controlling thereof
JP6946684B2 (en) Electronic information board systems, image processing equipment, and programs
JP2012173683A (en) Display control device, information display apparatus, and display control method
JP2016213674A (en) Display control system, display control apparatus, display control method, and program
JP5599063B2 (en) Display control apparatus, display control method, and program
EP3561570A1 (en) Head-mounted display apparatus, and visual-aid providing method thereof
JP2008182321A (en) Image display system
EP2831702B1 (en) Information processing device, information processing method and program