[go: up one dir, main page]

JP2010015076A - Display system, display control device, and display control method - Google Patents

Display system, display control device, and display control method Download PDF

Info

Publication number
JP2010015076A
JP2010015076A JP2008176584A JP2008176584A JP2010015076A JP 2010015076 A JP2010015076 A JP 2010015076A JP 2008176584 A JP2008176584 A JP 2008176584A JP 2008176584 A JP2008176584 A JP 2008176584A JP 2010015076 A JP2010015076 A JP 2010015076A
Authority
JP
Japan
Prior art keywords
display
person
sound
image
data storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008176584A
Other languages
Japanese (ja)
Inventor
Yasutada Yokozawa
泰忠 横沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008176584A priority Critical patent/JP2010015076A/en
Publication of JP2010015076A publication Critical patent/JP2010015076A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数の表示装置を並べて構成される表示領域を効果的に使用して画像等を表示する表示システム、表示制御装置、及び表示制御方法を提供する。
【解決手段】複数の表示装置20を並べて構成される表示ユニット2において、表示ユニット2の近傍における人の位置を検出し、表示ユニット2の一部に相当する表示装置20によって表示される表示オブジェクトの表示位置を、検出した人の位置に基づいて決定し、決定した表示位置に表示オブジェクトを表示させ、新たに人の位置を検出した場合には、この新たな人の位置に基づいて新たな表示位置を決定し、この新たな表示位置に表示オブジェクトを表示する。
【選択図】図1
A display system, a display control apparatus, and a display control method for displaying an image or the like by effectively using a display area configured by arranging a plurality of display apparatuses are provided.
In a display unit configured by arranging a plurality of display devices, a display object that detects the position of a person in the vicinity of the display unit and is displayed by the display device corresponding to a part of the display unit. The display position is determined based on the detected position of the person, the display object is displayed at the determined display position, and when a new position of the person is detected, a new position is determined based on the position of the new person. The display position is determined, and the display object is displayed at the new display position.
[Selection] Figure 1

Description

本発明は、複数の表示装置により表示を行う表示システム、この表示システムにおける表示状態を制御する表示制御装置、および、表示制御方法に関する。   The present invention relates to a display system that performs display using a plurality of display devices, a display control device that controls a display state in the display system, and a display control method.

従来、複数の表示装置を並べて一つの大型の画面を構成する手法が知られている(例えば、特許文献1参照)。特許文献1には、複数の画像表示部を並べて配設することで、大型の画面として機能するマルチディスプレイ装置を構成する場合に、各々の画像表示部に対し、表示データをそれぞれ入力するものが開示されている。このように複数の表示装置を並べて全体として一つの画面のように表示をさせることは、一般に、タイリング表示と呼ばれる。このようなマルチディスプレイ装置は、例えば、広告表示を目的として壁面等に設置される。
特開2001−275137号公報
Conventionally, a method of arranging a plurality of display devices to form one large screen is known (see, for example, Patent Document 1). In Patent Document 1, when a multi-display device that functions as a large screen is configured by arranging a plurality of image display units side by side, display data is input to each image display unit. It is disclosed. Such display of a plurality of display devices arranged as a whole on one screen is generally referred to as tiling display. Such a multi-display device is installed on, for example, a wall surface for the purpose of displaying an advertisement.
JP 2001-275137 A

ところで、マルチディスプレイ装置を用いて広告等を表示する場合は、通常の表示装置に表示される映像を拡大して表示することが多く、マルチディスプレイ装置に合わせた特有の表示方法は無かった。このため、マルチディスプレイ装置の特性を生かした表示の方法の開発が望まれていた。
そこで、本発明は、複数の表示装置を並べて構成される表示領域を効果的に使用して画像等を表示する表示システム、表示制御装置、及び表示制御方法を提供することを目的とする。
By the way, when an advertisement or the like is displayed using a multi-display device, an image displayed on a normal display device is often enlarged and displayed, and there is no specific display method suited to the multi-display device. Therefore, it has been desired to develop a display method that takes advantage of the characteristics of the multi-display device.
SUMMARY An advantage of some aspects of the invention is that it provides a display system, a display control device, and a display control method that display an image or the like by effectively using a display area configured by arranging a plurality of display devices.

上記課題を解決するため、本発明は、複数の表示装置を並べて構成される表示ユニットと、前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトを予め記憶した表示データ記憶手段と、前記表示ユニットの近傍における人の位置を検出する人位置検出手段と、前記人位置検出手段により検出された人の位置に基づいて、前記表示データ記憶手段に記憶された表示オブジェクトの表示位置を決定する位置決定手段と、前記表示データ記憶手段に記憶された表示オブジェクトを読み出して、前記位置決定手段により決定された表示位置に表示させる表示制御手段と、を備え、前記表示制御手段は、前記人位置検出手段により新たに人の位置が検出され、この新たな人の位置に基づいて前記位置決定手段により新たな表示位置が決定された場合は、前記表示オブジェクトの表示位置を変更して表示を更新すること、を特徴とする表示システムを提供する。
この構成によれば、複数の表示装置を並べて構成される表示ユニットの近傍における人の位置を検出して、この位置に基づいて表示オブジェクトの表示位置を決定して、表示を行うので、表示ユニットの近くにいる人の位置に合わせて、表示オブジェクトとして広告映像や各種画像等を表示できる。例えば、表示ユニットの近くにいる人に対し、その人のすぐ近くに表示オブジェクトを表示できる。また、新たに人の位置を検出した場合は新たな位置に基づいて表示オブジェクトの表示位置を変更して表示を更新するので、人が移動した場合や、別の人の位置を検出した場合に、この新たな人の位置に合わせて表示オブジェクトを表示できる。このため、例えば、移動する人に追従するように表示オブジェクトの表示位置を変化させることが可能となる。
このように、本発明によれば、複数の表示装置からなる表示領域を効果的に使用して、表示ユニットの近くにいる人に、通常の表示画面ではできない迫力や親密感等を感じさせる新しい表示方法を提供できる。これにより、大画面化が容易であるという、複数の表示装置を並べて構成される表示ユニットの特性を生かして、興趣性とインパクトに富む表示を行うことができ、例えば広告表示に適用すれば、優れた広告効果が期待できる。
In order to solve the above-described problems, the present invention includes a display unit configured by arranging a plurality of display devices, and display data storage means for storing in advance a display object displayed by the display device corresponding to a part of the display unit. The display position of the display object stored in the display data storage means based on the person position detection means for detecting the position of the person in the vicinity of the display unit and the person position detected by the person position detection means Position determining means for determining, and display control means for reading out the display object stored in the display data storage means and displaying it at the display position determined by the position determining means, wherein the display control means comprises: The position of the person is newly detected by the person position detecting means, and the position determining means determines a new position based on the position of the new person. If Do display position has been determined, to update the display by changing the display position of the display object, to provide a display system characterized.
According to this configuration, since the position of a person in the vicinity of a display unit configured by arranging a plurality of display devices is detected, the display position of the display object is determined based on this position, and display is performed. An advertisement video, various images, etc. can be displayed as a display object in accordance with the position of a person near. For example, for a person near the display unit, a display object can be displayed in the immediate vicinity of the person. In addition, when a person's position is newly detected, the display position of the display object is changed based on the new position and the display is updated, so when a person moves or when the position of another person is detected. The display object can be displayed in accordance with the position of the new person. Therefore, for example, the display position of the display object can be changed so as to follow the moving person.
As described above, according to the present invention, a display area composed of a plurality of display devices is effectively used to make a person near the display unit feel a force or intimacy that cannot be achieved with a normal display screen. A display method can be provided. Thereby, taking advantage of the characteristics of a display unit configured by arranging a plurality of display devices, which is easy to enlarge, it is possible to perform a display rich in interest and impact, for example, when applied to advertising display, Excellent advertising effect can be expected.

上記構成において、前記位置決定手段は、前記表示ユニットを構成する複数の前記表示装置から前記表示オブジェクトの表示サイズに適合する数の前記表示装置を選択して、前記表示オブジェクトの表示位置として決定するものとしてもよい。
この場合、表示オブジェクトの表示サイズに適合する数の表示装置が表示位置として決定されるので、表示オブジェクトを表示する際に、表示サイズの変換や画像合成等の処理を必要としない。これにより、表示に係る処理負荷が軽くて済むので、表示処理および表示を更新する処理を高速に実行でき、例えば表示位置を高速に変えられる。
In the above configuration, the position determining means selects a number of the display devices suitable for the display size of the display object from the plurality of display devices constituting the display unit, and determines the display position as the display position of the display object. It may be a thing.
In this case, since the number of display devices suitable for the display size of the display object is determined as the display position, processing such as display size conversion and image composition is not required when displaying the display object. As a result, the processing load related to the display can be reduced, so that the display process and the process of updating the display can be executed at high speed, for example, the display position can be changed at high speed.

また、上記構成において、前記人位置検出手段は、前記表示ユニットに表示される表示オブジェクトを視認可能な範囲で撮影するカメラと、前記カメラの撮影画像に含まれる人物画像を認識することで人の位置を検出するとともに、認識した人物画像から人物の属性を判定する画像認識手段と、を備えて構成され、前記表示データ記憶手段は、それぞれ人の属性に対応づけられた複数の表示オブジェクトを記憶しており、前記表示制御手段は、前記画像認識手段により判定された属性に対応する前記表示オブジェクトを前記表示データ記憶手段から読み出して表示させるものとしてもよい。
この場合、カメラの撮影画像から人物画像を認識することで人の位置を検出し、さらに、人物画像から人の属性を判定し、この属性に対応する表示オブジェクトを表示するので、人の位置を容易にかつ速やかに検出でき、さらに、その人の属性に合った表示オブジェクトを表示して、より強い親密感や興趣性を生み出すことができる。さらに、例えば本構成を広告表示に適用した場合、その人の属性に合った表示オブジェクトを用いることで広告への注目度を高めることができ、優れた広告効果が期待できる。
In the above configuration, the human position detecting means recognizes a human image included in a captured image of the camera that captures a display object displayed on the display unit within a visible range and a human image. Image recognition means for detecting a position and determining a person attribute from the recognized person image, and the display data storage means stores a plurality of display objects respectively associated with the person attribute. The display control means may read out the display object corresponding to the attribute determined by the image recognition means from the display data storage means and display the display object.
In this case, the position of the person is detected by recognizing the person image from the photographed image of the camera, and further, the attribute of the person is determined from the person image and the display object corresponding to this attribute is displayed. It can be detected easily and quickly, and a display object that matches the attribute of the person can be displayed to create a stronger sense of intimacy and interest. Furthermore, for example, when the present configuration is applied to advertisement display, the degree of attention to the advertisement can be increased by using a display object that matches the attribute of the person, and an excellent advertisement effect can be expected.

さらに、上記構成において、前記表示ユニットに表示される表示オブジェクトを視認可能な範囲に向けて音声を出力する複数の音声出力装置と、音声出力用のデータを予め記憶した音声データ記憶手段と、前記位置決定手段により決定された表示位置に基づいて、使用する前記音声出力装置を選択し、選択した前記音声出力装置から、前記音声データ記憶手段に記憶されたデータに基づいて音声を出力させる音声出力制御手段と、を備えるものとしてもよい。
この場合、表示オブジェクトの表示位置に基づいて選択された音声出力装置から音声が出力されるので、表示ユニットの近くにいる人の位置に合わせて、表示と音声とを合わせて出力できる。これにより、より高いレベルの迫力や親密感、興趣性を与えることが可能となり、例えば本構成を広告表示に適用した場合には優れた広告効果が期待できる。
Further, in the above configuration, a plurality of audio output devices that output audio toward a range where the display object displayed on the display unit can be visually recognized, audio data storage means that stores audio output data in advance, and Audio output for selecting the audio output device to be used based on the display position determined by the position determining means, and outputting audio from the selected audio output device based on the data stored in the audio data storage means And a control means.
In this case, since the sound is output from the sound output device selected based on the display position of the display object, the display and the sound can be output in accordance with the position of the person near the display unit. Thereby, it becomes possible to give a higher level of power, intimacy, and interest, and for example, when this configuration is applied to advertisement display, an excellent advertising effect can be expected.

さらにまた、上記構成において、前記表示ユニットの近傍における音声を検出するマイクと、前記マイクにより検出された音声の内容を識別する音声識別手段と、を備え、前記音声データ記憶手段は、前記音声識別手段により識別可能な音声の内容に対応する複数の音声出力用のデータを記憶しており、前記音声出力制御手段は、前記マイクにより検出された音声の内容に対応するデータに基づいて、前記音声出力装置から音声を出力させるものとしてもよい。
この場合、表示ユニットの近傍にいる人の位置に基づいて決定される表示位置に表示オブジェクトを表示するとともに、その人が発した音声の内容を識別し、その音声の内容に対応する音声を出力するので、その人の要望に応じた音声を出力する等の双方向的な音声出力が可能となる。これにより、より高い親密感や興趣性を与えることが可能となり、例えば本構成を広告表示に適用した場合には優れた広告効果が期待できる。
Furthermore, in the above configuration, the microphone further includes a microphone that detects a voice in the vicinity of the display unit, and a voice identification unit that identifies a content of the voice detected by the microphone, and the voice data storage unit includes the voice identification unit. A plurality of data for voice output corresponding to the contents of the voice identifiable by the means, and the voice output control means based on the data corresponding to the contents of the voice detected by the microphone Sound may be output from the output device.
In this case, the display object is displayed at the display position determined based on the position of the person in the vicinity of the display unit, the content of the sound emitted by the person is identified, and the sound corresponding to the content of the sound is output. Therefore, bidirectional sound output such as outputting sound according to the request of the person becomes possible. Thereby, it becomes possible to give a higher intimacy and interest. For example, when this configuration is applied to advertisement display, an excellent advertisement effect can be expected.

また、上記課題を解決するため、本発明は、複数の表示装置を並べて構成される表示ユニットに接続され、前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトを予め記憶した表示データ記憶手段と、前記表示ユニットの近傍における人の位置を検出する人位置検出手段と、前記人位置検出手段により検出された人の位置に基づいて、前記表示データ記憶手段に記憶された表示オブジェクトの表示位置を決定する位置決定手段と、前記表示データ記憶手段に記憶された表示オブジェクトを読み出して、前記位置決定手段により決定された表示位置に表示させる表示制御手段と、を備え、前記表示制御手段は、前記人位置検出手段により新たに人の位置が検出され、この新たな人の位置に基づいて前記位置決定手段により新たな表示位置が決定された場合は、前記表示オブジェクトの表示位置を変更して表示を更新すること、を特徴とする表示制御装置を提供する。
この構成によれば、複数の表示装置を並べて構成される表示ユニットの近傍における人の位置を検出して、この位置に基づいて決定した位置に表示オブジェクトを表示し、新たに人の位置を検出した場合は、検出した位置に基づいて表示オブジェクトの表示位置を変更して表示を更新するので、表示ユニットの近くにいる人の位置に合わせて広告映像や各種画像等の表示オブジェクトを表示でき、人が移動した場合や、別の人の位置を検出した場合には、この新たな位置に合わせて表示オブジェクトを表示できる。従って、複数の表示装置からなる表示領域を効果的に使用して、表示ユニットの近くにいる人に、通常の表示画面ではできない迫力や親密感等を感じさせる新しい表示方法を提供できる。これにより、大画面化が容易であるという、複数の表示装置を並べて構成される表示ユニットの特性を生かして、興趣性とインパクトに富む表示を行うことができ、例えば広告表示に適用すれば、優れた広告効果が期待できる。
In order to solve the above-described problem, the present invention is a display that is connected to a display unit configured by arranging a plurality of display devices and stores a display object that is displayed by the display device corresponding to a part of the display unit in advance. Data storage means, human position detection means for detecting the position of a person in the vicinity of the display unit, and a display object stored in the display data storage means based on the position of the person detected by the human position detection means Position display means for determining the display position of the display, and display control means for reading out the display object stored in the display data storage means and displaying it at the display position determined by the position determination means, the display control The means detects the position of the person newly by the person position detecting means, and determines the position based on the position of the new person. If a new display position has been determined by means updating the display to change the display position of the display object to provide a display control apparatus according to claim.
According to this configuration, the position of a person in the vicinity of a display unit configured by arranging a plurality of display devices is detected, the display object is displayed at a position determined based on this position, and the position of the person is newly detected. If so, the display object is changed based on the detected position and the display is updated, so display objects such as advertisement images and various images can be displayed according to the position of the person near the display unit, When a person moves or when the position of another person is detected, the display object can be displayed in accordance with the new position. Accordingly, it is possible to provide a new display method that makes it possible for a person in the vicinity of the display unit to feel the force, intimacy, and the like that cannot be achieved with a normal display screen by effectively using a display area including a plurality of display devices. Thereby, taking advantage of the characteristics of a display unit configured by arranging a plurality of display devices, which is easy to enlarge, it is possible to perform a display rich in interest and impact, for example, when applied to advertising display, Excellent advertising effect can be expected.

また、上記課題を解決するため、本発明は、複数の表示装置を並べて構成される表示ユニットの近傍における人の位置を検出し、前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトの表示位置を、検出した人の位置に基づいて決定し、決定した表示位置に表示オブジェクトを表示させるとともに、新たに人の位置を検出した場合には、この新たな人の位置に基づいて新たな表示位置を決定し、この新たな表示位置に前記表示オブジェクトを表示すること、を特徴とする表示制御方法を提供する。
この方法によれば、複数の表示装置を並べて構成される表示ユニットの近傍における人の位置を検出して、この位置に基づいて決定した位置に表示オブジェクトを表示し、新たに人の位置を検出した場合は、検出した位置に基づいて表示オブジェクトの表示位置を変更するので、表示ユニットの近くにいる人の位置に合わせて広告映像や各種画像等の表示オブジェクトを表示でき、人が移動した場合や、別の人の位置を検出した場合には、この新たな位置に合わせて表示オブジェクトを表示できる。従って、複数の表示装置からなる表示領域を効果的に使用して、表示ユニットの近くにいる人に、通常の表示画面ではできない迫力や親密感等を感じさせる新しい表示方法を提供できる。これにより、大画面化が容易であるという、複数の表示装置を並べて構成される表示ユニットの特性を生かして、興趣性とインパクトに富む表示を行うことができ、例えば広告表示に適用すれば、優れた広告効果が期待できる。
In order to solve the above problem, the present invention detects a position of a person in the vicinity of a display unit configured by arranging a plurality of display devices, and displays the display unit corresponding to a part of the display unit. The display position of the object is determined based on the detected position of the person, and the display object is displayed at the determined display position. When a new position of the person is detected, the display position of the object is determined based on the position of the new person. Provided is a display control method characterized by determining a new display position and displaying the display object at the new display position.
According to this method, the position of a person in the vicinity of a display unit configured by arranging a plurality of display devices is detected, a display object is displayed at a position determined based on the position, and a position of the person is newly detected. If this happens, the display position of the display object is changed based on the detected position, so display objects such as advertisement images and various images can be displayed according to the position of the person near the display unit. Alternatively, when the position of another person is detected, the display object can be displayed in accordance with the new position. Accordingly, it is possible to provide a new display method that makes it possible for a person in the vicinity of the display unit to feel the force, intimacy, and the like that cannot be achieved with a normal display screen by effectively using a display area including a plurality of display devices. Thereby, taking advantage of the characteristics of a display unit configured by arranging a plurality of display devices, which is easy to enlarge, it is possible to perform a display rich in interest and impact, for example, when applied to advertising display, Excellent advertising effect can be expected.

本発明によれば、複数の表示装置を並べて構成される表示ユニットの近傍にいる人の位置に基づいて、表示オブジェクトを表示することにより、複数の表示装置からなる表示領域を効果的に使用して、親密感、興趣性及びインパクトに富む表示を行うことができる。   According to the present invention, it is possible to effectively use a display area including a plurality of display devices by displaying a display object based on the position of a person in the vicinity of a display unit configured by arranging a plurality of display devices. Thus, it is possible to provide a display that is rich in intimacy, interest and impact.

以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係る表示システム1の概略構成を示す図である。
この図1に示す表示システム1は、表示パネルを備えた表示装置20を縦横に多数並べて構成される表示ユニット2を備えている。各々の表示装置20は、信号線11を介して個々に表示制御装置5に接続されており、表示システム1は表示制御装置5の制御によって、表示ユニット2に画像を表示するシステムである。さらに、表示装置20は音声を出力する機能を有しており、表示制御装置5の制御によって、各々の表示装置20から音声を出力できる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a schematic configuration of a display system 1 according to an embodiment to which the present invention is applied.
The display system 1 shown in FIG. 1 includes a display unit 2 configured by arranging a large number of display devices 20 each having a display panel vertically and horizontally. Each display device 20 is individually connected to the display control device 5 via the signal line 11, and the display system 1 is a system that displays an image on the display unit 2 under the control of the display control device 5. Further, the display device 20 has a function of outputting sound, and the sound can be output from each display device 20 under the control of the display control device 5.

また、表示ユニット2には複数のカメラ30及びマイク40が取り付けられており、表示制御装置5は、カメラ30により撮影された画像およびマイク40により検出された音声に基づいて、表示装置20に表示させる画像や表示装置20により出力する音声を制御する。
カメラ30は、例えばデジタルビデオカメラにより構成され、表示制御装置5の制御に従って撮影を開始し、撮影しながら、或いは所定時間毎に、撮影した動画のデータを表示制御装置5へ出力する。カメラ30をデジタルスチルカメラで構成することも可能であり、この場合、カメラ30は、表示制御装置5の制御に従って撮影を行い、撮影した静止画像のデータを表示制御装置5へ出力する。
A plurality of cameras 30 and microphones 40 are attached to the display unit 2, and the display control device 5 displays on the display device 20 based on the images captured by the cameras 30 and the sounds detected by the microphones 40. The image to be output and the sound output by the display device 20 are controlled.
The camera 30 is configured by, for example, a digital video camera, and starts shooting under the control of the display control device 5, and outputs captured moving image data to the display control device 5 while shooting or at predetermined time intervals. It is also possible to configure the camera 30 with a digital still camera. In this case, the camera 30 captures images according to the control of the display control device 5 and outputs captured still image data to the display control device 5.

カメラ30が撮影する範囲(領域)は、表示ユニット2の前方で、表示ユニット2に表示される画像を見ることが可能な領域である。つまり、カメラ30は、表示ユニット2を見ることが可能な場所にいる人の姿を撮影する。
表示制御装置5は、カメラ30が撮影した撮影画像から人物画像(人の姿の画像)を認識及び抽出する機能を有する。この機能により、表示制御装置5は、カメラ30の撮影画像中の人物画像を認識し、その人の年齢や性別等の属性を、人物画像に基づいて判定することも可能である。その人の顔の向きを識別することで表示ユニット2を見ているか否かを判別する処理を行うこともできる。
なお、表示ユニット2が多数の表示装置20で構成され、広い表示領域を有するものである場合、表示ユニット2は相当遠方からも視認可能であるが、このような場合のカメラ30の焦点距離は、例えば表示ユニット2の近くに居る人を鮮明に撮影できるよう設定される。これは、上述した表示装置20による音声出力機能と表示装置20における表示とを連動させる場合に、表示ユニット2に近い人を対象にすれば、より効果的であるためである。
表示システム1は、全てのカメラ30を用いることで、表示ユニット2に表示される画像を良好に視認可能な範囲として、表示ユニット2の前方、及び、表示ユニット2の斜め前に広がる領域を撮影する。ここで必要なカメラ30の数は各カメラ30の画角等によって適宜決定され、例えば焦点距離が35〜24mmの広角レンズや、21mm以下の超広角レンズ(焦点距離はいずれも35mmフィルム換算)、或いは魚眼レンズを用いて、カメラ30の設置台数を少なくすることも可能である。
A range (area) captured by the camera 30 is an area in which an image displayed on the display unit 2 can be viewed in front of the display unit 2. That is, the camera 30 takes a picture of a person in a place where the display unit 2 can be seen.
The display control device 5 has a function of recognizing and extracting a person image (an image of a human figure) from a photographed image photographed by the camera 30. With this function, the display control device 5 can also recognize a person image in a photographed image of the camera 30 and determine attributes such as the age and sex of the person based on the person image. It is also possible to determine whether or not the display unit 2 is viewed by identifying the face direction of the person.
In addition, when the display unit 2 includes a large number of display devices 20 and has a wide display area, the display unit 2 can be viewed from a considerable distance, but the focal length of the camera 30 in such a case is as follows. For example, it is set so that a person near the display unit 2 can be photographed clearly. This is because it is more effective to target a person close to the display unit 2 when the voice output function by the display device 20 and the display on the display device 20 are linked.
The display system 1 uses all the cameras 30 to capture an area extending in front of the display unit 2 and obliquely in front of the display unit 2 in a range in which an image displayed on the display unit 2 can be satisfactorily viewed. To do. The number of cameras 30 required here is appropriately determined depending on the angle of view of each camera 30, for example, a wide-angle lens with a focal length of 35 to 24 mm, an ultra-wide-angle lens with a focal length of 21 mm or less (both focal lengths are all converted to 35 mm film), Alternatively, the number of cameras 30 can be reduced by using a fisheye lens.

マイク40は、表示ユニット2の前方からの音声を集音してアナログ電気信号に変換するマイクであり、このアナログ電気信号は表示制御装置5に入力される。   The microphone 40 is a microphone that collects sound from the front of the display unit 2 and converts it into an analog electric signal. The analog electric signal is input to the display control device 5.

図2は表示装置20の構成を示し、図2Aは正面図、図2Bは縦断面図である。
図2A及び図2Bに示すように、表示装置20は、所定の奥行きを有する直方体の枠21に各部を収容して構成され、枠21には透明な前面パネル22が嵌め込まれている。前面パネル22の奥には、画像を表示する表示パネル23、表示パネル23を照明するバックライト24、制御基板25が収容されている。
表示パネル23は、例えば、カラーフィルタや偏光板等を備え、後述する駆動回路213(図3)により駆動されて画像(静止画像及び動画像を含む)を表示する透過型の液晶表示パネルである。バックライト24は、表示パネル23の背面から光を照射して、表示パネル23に表示された画像を視認可能とする照明装置であり、冷陰極管やLED等の光源と、表示パネル23の全体に均等に光を照射するための拡散板とを備えている。
2 shows the configuration of the display device 20, FIG. 2A is a front view, and FIG. 2B is a longitudinal sectional view.
As shown in FIGS. 2A and 2B, the display device 20 is configured by housing each part in a rectangular parallelepiped frame 21 having a predetermined depth, and a transparent front panel 22 is fitted in the frame 21. In the back of the front panel 22, a display panel 23 for displaying an image, a backlight 24 for illuminating the display panel 23, and a control board 25 are accommodated.
The display panel 23 is, for example, a transmissive liquid crystal display panel that includes a color filter, a polarizing plate, and the like and is driven by a drive circuit 213 (FIG. 3) described later to display images (including still images and moving images). . The backlight 24 is a lighting device that irradiates light from the back surface of the display panel 23 so that an image displayed on the display panel 23 can be visually recognized. And a diffusion plate for irradiating light evenly.

制御基板25は、表示装置20の動作を制御する制御部200(図3)が実装された基板である。
また、前面パネル22の裏面には複数の振動子26が貼付されている。振動子26は、音声信号に従って振動を発生することで、前面パネル22を振動させる素子である。振動子26によって前面パネル22を振動させることにより、前面パネル22は、スピーカの振動板と同様に機能して、音声を出力する。すなわち、前面パネル22と振動子26とは協働して、音声出力装置として機能する。
The control board 25 is a board on which a control unit 200 (FIG. 3) that controls the operation of the display device 20 is mounted.
A plurality of vibrators 26 are attached to the back surface of the front panel 22. The vibrator 26 is an element that vibrates the front panel 22 by generating vibration according to an audio signal. By vibrating the front panel 22 with the vibrator 26, the front panel 22 functions in the same manner as a diaphragm of a speaker and outputs sound. That is, the front panel 22 and the vibrator 26 cooperate to function as an audio output device.

図3は、表示システム1の各部の構成を示す機能ブロック図である。
表示装置20は、制御基板25(図2B)に実装される制御部200を備え、この制御部200は、各種プログラムを実行して表示装置20の各種機能を実現するCPU201、CPU201により実行されるプログラム及び当該プログラムに係るデータを記憶したROM202、プログラムやデータ等を一時的に記憶するRAM203、表示装置20に固有のIDや表示装置20の動作に関する設定情報等を記憶した不揮発性メモリ204、及び、信号線11を介して表示制御装置5に接続されるインタフェース(I/F)部205を備え、これらの各部はバス206を介して相互に接続されている。
不揮発性メモリ204に記憶されるIDは、表示ユニット2を構成する各々の表示装置20に固有の情報であり、表示ユニット2における各表示装置20の位置を示す情報を含んでいてもよい。
FIG. 3 is a functional block diagram showing the configuration of each part of the display system 1.
The display device 20 includes a control unit 200 mounted on the control board 25 (FIG. 2B). The control unit 200 is executed by the CPU 201 and the CPU 201 that execute various programs to realize various functions of the display device 20. ROM 202 that stores the program and data related to the program, RAM 203 that temporarily stores the program and data, etc., non-volatile memory 204 that stores ID unique to the display device 20, setting information related to the operation of the display device 20, and the like, The interface (I / F) unit 205 is connected to the display control device 5 through the signal line 11, and these units are connected to each other through a bus 206.
The ID stored in the non-volatile memory 204 is information unique to each display device 20 constituting the display unit 2, and may include information indicating the position of each display device 20 in the display unit 2.

また、制御部200は、バス206に接続され、CPU201の制御に従って表示パネル23に表示する画像を描画する画像処理部211と、画像処理部211に描画された画像を保持する描画メモリ212と、画像処理部211により描画された画像を表示パネル23に表示させる駆動回路213とを備え、駆動回路213は表示パネル23に接続されている。
制御部200は、さらに、バス206に接続され、CPU201の制御に従って音声信号を生成して振動子26に出力する音声処理部221を備えている。振動子26は、音声処理部221から入力される音声信号に基づいて振動を生成し、この音声信号に基づく音声を前面パネル22から出力させる。
In addition, the control unit 200 is connected to the bus 206 and draws an image to be displayed on the display panel 23 according to the control of the CPU 201, a drawing memory 212 that holds an image drawn on the image processing unit 211, A drive circuit 213 for displaying an image drawn by the image processing unit 211 on the display panel 23, and the drive circuit 213 is connected to the display panel 23.
The control unit 200 further includes an audio processing unit 221 that is connected to the bus 206 and generates an audio signal under the control of the CPU 201 and outputs the audio signal to the vibrator 26. The vibrator 26 generates vibration based on the audio signal input from the audio processing unit 221, and outputs audio based on the audio signal from the front panel 22.

表示装置20は、信号線11を介して接続された表示制御装置5から画像データが入力されると、この画像データに基づいて画像処理部211によって描画を行い、表示パネル23に画像を表示する。この画像は、動画像であっても静止画像であってもよい。また、表示装置20は、表示制御装置5から音声データが入力されると、入力されたデータに基づいて音声処理部221によって音声信号を生成して、振動子26によって前面パネル22を振動させることにより、スピーカとして前面パネル22から音声を出力する。   When image data is input from the display control device 5 connected via the signal line 11, the display device 20 performs drawing by the image processing unit 211 based on the image data, and displays an image on the display panel 23. . This image may be a moving image or a still image. Further, when audio data is input from the display control device 5, the display device 20 generates an audio signal by the audio processing unit 221 based on the input data, and vibrates the front panel 22 by the vibrator 26. Thus, sound is output from the front panel 22 as a speaker.

一方、表示制御装置5は、各種プログラムを実行して表示制御装置5の各種機能を実現するCPU51、CPU51により実行されるプログラム及び当該プログラムに係るデータを記憶したROM52、プログラムやデータ等を一時的に記憶するRAM53、キーボードやマウス等の入力デバイスにおける入力操作を検出して、入力操作に応じた操作信号をCPU51に出力する入力部54、及び、CPU51による処理結果等を表示画面(図示略)に表示させる表示部55を備え、これらの各部はバス50を介して相互に接続されている。   On the other hand, the display control device 5 temporarily executes various programs to realize various functions of the display control device 5, a program executed by the CPU 51, a ROM 52 storing data related to the programs, programs and data, etc. The RAM 53, the input unit 54 for detecting an input operation in an input device such as a keyboard and a mouse, and outputting an operation signal corresponding to the input operation to the CPU 51, and the processing result by the CPU 51 are displayed on a display screen (not shown). The display unit 55 is connected to each other via a bus 50.

また、表示制御装置5は、外部装置に接続されるインタフェースとして、インタフェース部56、画像入力部57、音声入力部58、及び通信インタフェース部59を備えている。これらのインタフェースは、バス50に接続され、CPU51に相互接続される。
インタフェース部56には複数の表示装置20が各々接続されており、インタフェース部56は、CPU51の制御に従って各表示装置20に対する各種データの送受信を行う。
画像入力部57には、表示ユニット2に取り付けられた複数のカメラ30が各々接続され、これらのカメラ30により撮影された撮影画像のデータ(以下、撮影画像データ)の入力を受けて、入力された撮影画像データをCPU51に出力する。また、画像入力部57は、CPU51の制御に従って、カメラ30の動作開始/停止等を制御する。
音声入力部58は、表示ユニット2に取り付けられた複数のマイク40の各々に接続され、マイク40から入力されるアナログ電気信号をデジタルデータに変換してCPU51に出力する。
通信インタフェース部59は、外部の通信回線を介して、インターネット等のネットワーク12に接続されており、CPU51の制御に従って、ネットワーク12を介して外部のサーバ装置(図示略)から各種情報を受信する。
Further, the display control device 5 includes an interface unit 56, an image input unit 57, an audio input unit 58, and a communication interface unit 59 as interfaces connected to external devices. These interfaces are connected to the bus 50 and interconnected to the CPU 51.
A plurality of display devices 20 are connected to the interface unit 56, and the interface unit 56 transmits and receives various data to and from each display device 20 under the control of the CPU 51.
A plurality of cameras 30 attached to the display unit 2 are respectively connected to the image input unit 57, and data of captured images (hereinafter referred to as “captured image data”) captured by these cameras 30 is input and input. The captured image data is output to the CPU 51. The image input unit 57 controls the start / stop of the operation of the camera 30 according to the control of the CPU 51.
The audio input unit 58 is connected to each of the plurality of microphones 40 attached to the display unit 2, converts an analog electric signal input from the microphone 40 into digital data, and outputs the digital data to the CPU 51.
The communication interface unit 59 is connected to a network 12 such as the Internet via an external communication line, and receives various types of information from an external server device (not shown) via the network 12 under the control of the CPU 51.

表示制御装置5は、磁気的記録媒体または半導体メモリ素子等により構成される記憶部6を有し、この記憶部6に、表示システム1を制御するためのプログラム及びデータを記憶している。
記憶部6は、CPU51により実行されるプログラムとして、表示システム1を制御するための初期設定を行う初期設定プログラム61、表示ユニット2における表示装置20の配置状態を示す配置情報62、及び、表示ユニット2における画像表示及び音声出力を制御するための表示制御プログラム63を記憶している。
また、記憶部6は、表示装置20に表示される画像データを記憶する表示データ記憶領域64(表示データ記憶手段)、及び、表示装置20から音声を出力するためのデータを記憶する音声データ記憶領域65(音声データ記憶手段)を有する。
さらに、記憶部6は、表示装置20に表示する画像データを決定するための属性対応テーブル66、及び、表示装置20から出力する音声データを決定するための音声対応テーブル67を記憶している。
The display control device 5 includes a storage unit 6 configured by a magnetic recording medium, a semiconductor memory element, or the like, and stores a program and data for controlling the display system 1 in the storage unit 6.
The storage unit 6 includes, as programs executed by the CPU 51, an initial setting program 61 for performing initial settings for controlling the display system 1, arrangement information 62 indicating the arrangement state of the display device 20 in the display unit 2, and the display unit 2 stores a display control program 63 for controlling image display and audio output.
The storage unit 6 also includes a display data storage area 64 (display data storage means) for storing image data displayed on the display device 20 and an audio data storage for storing data for outputting audio from the display device 20. It has area 65 (voice data storage means).
Further, the storage unit 6 stores an attribute correspondence table 66 for determining image data to be displayed on the display device 20 and an audio correspondence table 67 for determining audio data output from the display device 20.

CPU51は、初期設定プログラム61を実行することにより、表示ユニット2を構成する各々の表示装置20の動作状態や表示装置20の数、カメラ30及びマイク40の数及び動作状態等を検出し、表示システム1を制御するための情報を取得する。また、CPU51は、初期設定プログラム61を実行することで、各々の表示装置20、カメラ30及びマイク40の動作状態を初期化する。
この初期設定プログラム61の実行時に、CPU51は、表示ユニット2を構成する全ての表示装置20から各々の表示装置20に固有のIDを取得するとともに、表示ユニット2における表示装置20の配置状態を検出し、各表示装置20のIDを用いて各表示装置20の位置を特定する配置情報62を生成して、記憶する。
The CPU 51 executes the initial setting program 61 to detect the operation state of each display device 20 constituting the display unit 2, the number of display devices 20, the number and operation states of the camera 30 and the microphone 40, and the like. Information for controlling the system 1 is acquired. Further, the CPU 51 initializes the operation states of the display device 20, the camera 30, and the microphone 40 by executing the initial setting program 61.
When the initial setting program 61 is executed, the CPU 51 acquires a unique ID for each display device 20 from all the display devices 20 constituting the display unit 2 and detects the arrangement state of the display device 20 in the display unit 2. Then, using the ID of each display device 20, the arrangement information 62 that specifies the position of each display device 20 is generated and stored.

配置情報62は、後述するように、CPU51が各々の表示装置20における表示及び音声出力を制御すべく、個々の表示装置20とその位置とを識別するために用いられる。
CPU51は、配置情報62に基づいて表示ユニット2を構成する個々の表示装置20を識別し、各表示装置20に表示させる画像の表示データを各表示装置20の位置に基づいて生成し、生成した表示データを、配置情報62に含まれるIDに基づいて特定される表示装置20に対して信号線11を介して送出する。また、音声についても同様であり、特定の表示装置20により音声を出力させる場合には、その表示装置20に出力させる音声データを、配置情報62に含まれるIDに基づいて、信号線11を介して送出する。
As will be described later, the arrangement information 62 is used for the CPU 51 to identify each display device 20 and its position so as to control display and sound output on each display device 20.
The CPU 51 identifies each display device 20 constituting the display unit 2 based on the arrangement information 62, generates display data of an image to be displayed on each display device 20 based on the position of each display device 20, and generates The display data is sent to the display device 20 specified based on the ID included in the arrangement information 62 via the signal line 11. The same applies to audio. When audio is output by a specific display device 20, audio data to be output to the display device 20 is transmitted via the signal line 11 based on the ID included in the arrangement information 62. And send it out.

その後、CPU51は、表示制御プログラム63を実行して、表示制御処理を行う。
この表示制御処理において、CPU51は、カメラ30から入力される撮影画像のデータを取得し、撮影画像において人物の画像を認識し、認識した人物に対して出力する画像及び音声を決定する。さらに、CPU51は、認識した人物の位置に近い位置から画像及び音声を出力するため、表示ユニット2を構成する表示装置20の中から、出力を行う表示装置20を決定する。そして、CPU51は、決定した表示装置20によって、撮影画像において認識した人物に対応する画像及び音声を出力する。この画像及び音声の出力中に、マイク40によって、対象となっている人物の声が検出された場合、CPU51は、検出された音声の内容を特定し、特定した内容に対応する音声を、出力中の音声に代えて出力する。
Thereafter, the CPU 51 executes the display control program 63 to perform display control processing.
In this display control process, the CPU 51 acquires captured image data input from the camera 30, recognizes a person image in the captured image, and determines an image and sound to be output to the recognized person. Further, the CPU 51 determines the display device 20 to be output from the display devices 20 constituting the display unit 2 in order to output an image and sound from a position close to the position of the recognized person. And CPU51 outputs the image and audio | voice corresponding to the person recognized in the picked-up image by the determined display apparatus 20. FIG. When the voice of the target person is detected by the microphone 40 during the output of the image and the sound, the CPU 51 specifies the content of the detected sound and outputs the sound corresponding to the specified content. Output instead of the voice inside.

図4は、記憶部6が有する記憶領域の構成を模式的に示す図であり、図4Aは表示データ記憶領域64の構成を示し、図4Bは音声データ記憶領域65の構成を示す。
表示データ記憶領域64には、複数の表示オブジェクトが、その表示サイズに対応づけて記憶される。これらの表示オブジェクトは、表示ユニット2の一部分を構成する1または複数の表示装置20によって表示可能な画像(動画像または静止画像)であり、例えば、ほぼ等身大の人物の画像等である。表示制御装置5は、表示ユニット2を構成する多数の表示装置20のうち、一部の表示装置20を用いて、表示オブジェクトを表示する。また、一つの表示ユニット2において、同時に複数の表示オブジェクトを表示することも可能であり、この場合、各々の表示オブジェクトが重ならないよう制御を行えばよい。
各表示オブジェクトに対応づけられる表示サイズは、その表示オブジェクトを表示するために必要な表示装置20の数を示す情報であり、例えば、縦3枚×横2枚の6枚の表示装置20に跨って表示される表示オブジェクトの表示サイズは、「3×2」と表現される。
また、音声データ記憶領域65には複数の音声オブジェクトが記憶される。各々の音声オブジェクトは、表示装置20から出力される音声の音声データであり、再生時間の長さは音声オブジェクト毎に異なっていてもよいし、同一であってもよい。表示制御装置5は、一つの音声オブジェクトに基づく音声を複数の表示装置20から同時に出力することも可能である。
FIG. 4 is a diagram schematically showing the configuration of the storage area of the storage unit 6, FIG. 4A shows the configuration of the display data storage area 64, and FIG. 4B shows the configuration of the audio data storage area 65.
In the display data storage area 64, a plurality of display objects are stored in association with their display sizes. These display objects are images (moving images or still images) that can be displayed by one or a plurality of display devices 20 constituting a part of the display unit 2, and are, for example, images of a substantially life-size person. The display control device 5 displays a display object using a part of the display devices 20 among the many display devices 20 constituting the display unit 2. In addition, it is possible to display a plurality of display objects at the same time on one display unit 2, and in this case, control may be performed so that the display objects do not overlap each other.
The display size associated with each display object is information indicating the number of display devices 20 necessary to display the display object. For example, the display size spans six display devices 20 of 3 vertical × 2 horizontal. The display size of the display object displayed is expressed as “3 × 2”.
In the audio data storage area 65, a plurality of audio objects are stored. Each sound object is sound data of sound output from the display device 20, and the length of the reproduction time may be different for each sound object, or may be the same. The display control device 5 can also simultaneously output sound based on one sound object from the plurality of display devices 20.

ここで、表示データ記憶領域64に記憶される表示オブジェクトのデータフォーマットや、音声データ記憶領域65に記憶される音声オブジェクトのデータフォーマット等は任意である。
また、音声データ記憶領域65に記憶する音声オブジェクトは、音声をデジタル化した音声データそのものであってもよいが、音声データをCPU51が合成するための情報であってもよい。すなわち、CPU51が表示装置20により出力する音声を、その都度合成して、合成した音声データを表示装置20に出力する構成とし、音声データ記憶領域65には、音声データを合成するための波形データや辞書ファイル等を記憶しておいてもよい。
Here, the data format of the display object stored in the display data storage area 64, the data format of the audio object stored in the audio data storage area 65, and the like are arbitrary.
The sound object stored in the sound data storage area 65 may be sound data itself obtained by digitizing sound, or may be information for the CPU 51 to synthesize the sound data. That is, the voice output from the display device 20 by the CPU 51 is synthesized each time, and the synthesized voice data is output to the display device 20. The voice data storage area 65 has waveform data for synthesizing the voice data. Or a dictionary file or the like may be stored.

さらに、表示データ記憶領域64に記憶される表示オブジェクト、及び、音声データ記憶領域65に記憶される音声オブジェクトは、予め表示制御装置5が記憶しているデータに限らず、例えば、CPU51の制御により、通信インタフェース部59からネットワーク12を介して、外部のサーバ装置(図示略)からダウンロードされるものであってもよい。この場合、表示オブジェクト及び音声オブジェクトを更新し、新しい表示オブジェクトや音声オブジェクトを取得して出力できるので、より興趣性に富む表示を行うことができる。また、表示システム1により広告を出力する場合には、最新の商品やサービスに関する広告を行うための情報を、表示制御装置5が速やかに取得できるという利点がある。また、例えば、音声オブジェクトとして、後述するように天気予報の音声を出力する場合など、常に最新の情報が要求される場合には、CPU51の制御により、ネットワーク12を介して最新の情報を取得して音声データ記憶領域65に記憶するようにしてもよい。   Furthermore, the display object stored in the display data storage area 64 and the audio object stored in the audio data storage area 65 are not limited to data stored in advance in the display control device 5, for example, under the control of the CPU 51. It may be downloaded from an external server device (not shown) from the communication interface unit 59 via the network 12. In this case, the display object and the sound object can be updated, and a new display object and sound object can be acquired and output. Therefore, a more interesting display can be performed. Further, when an advertisement is output by the display system 1, there is an advantage that the display control device 5 can quickly acquire information for performing an advertisement related to the latest product or service. In addition, for example, when the latest information is always requested as a sound object such as when outputting a weather forecast sound as described later, the latest information is acquired via the network 12 under the control of the CPU 51. Then, it may be stored in the audio data storage area 65.

図5は、記憶部6に記憶されるテーブルの構成を模式的に示す図であり、図5Aは属性対応テーブル66の構成を示し、図5Bは音声対応テーブル67の構成を示す。
図5Aに示す属性対応テーブル66には、カメラ30により撮影された人の外見上の属性と、その人を対象として表示される表示オブジェクト、及び、その人を対象として出力される音声オブジェクトとの対応が設定されている。
外見上の属性とは、表示制御装置5が、カメラ30により撮影された撮影画像を解析して識別可能な属性であり、本実施形態では、外見に基づき判定される世代(年齢)及び性別である。
表示制御装置5は、カメラ30の撮影画像に写っている人物の画像を認識し、その人物の画像の特徴と、予め記憶部6に記憶している世代別及び性別毎の人物画像の特徴(図示略)とを照合することにより、その人物の年齢及び性別を判定する。そして、属性対応テーブル66に基づいて、その人物に向けて出力する表示オブジェクト及び音声オブジェクトを決定する。
FIG. 5 is a diagram schematically showing the configuration of the table stored in the storage unit 6, FIG. 5A shows the configuration of the attribute correspondence table 66, and FIG. 5B shows the configuration of the audio correspondence table 67.
In the attribute correspondence table 66 shown in FIG. 5A, the appearance attributes of a person photographed by the camera 30, display objects displayed for the person, and sound objects output for the person are displayed. Correspondence is set.
The appearance attribute is an attribute that can be identified by the display control device 5 by analyzing the captured image captured by the camera 30. In the present embodiment, the attribute is determined by the generation (age) and gender determined based on the appearance. is there.
The display control device 5 recognizes the image of the person shown in the photographed image of the camera 30, the characteristics of the person's image, and the characteristics of the person image for each generation and sex (stored in the storage unit 6 in advance) ( The age and gender of the person is determined by collating with (not shown). Based on the attribute correspondence table 66, a display object and a sound object to be output to the person are determined.

また、図5Bに示す音声対応テーブル67には、マイク40により検出された音声の内容と、音声オブジェクトとの対応が設定されている。例えば、「天気予報」を要求する音声には音声オブジェクトIが対応し、「広告商品の詳細」を要求する音声には音声オブジェクトJが対応する。
表示制御装置5は、表示ユニット2に取り付けられたマイク40によって検出された音声を解析し、カメラ30の撮影画像において認識し、属性対応テーブル66に設定された画像を表示する対象となった人物の方向からの音声を抽出する。そして、表示制御装置5は、抽出した音声の内容が、音声対応テーブル67に設定された内容のいずれかに該当する場合には、音声対応テーブル67に設定された音声オブジェクトを読み出して、既に上記人物に向けて出力中の音声に代えて、表示装置20から出力する。
Also, in the audio correspondence table 67 shown in FIG. 5B, the correspondence between the audio content detected by the microphone 40 and the audio object is set. For example, the sound object I corresponds to the sound requesting “weather forecast”, and the sound object J corresponds to the sound requesting “details of the advertisement product”.
The display control device 5 analyzes the audio detected by the microphone 40 attached to the display unit 2, recognizes it in the captured image of the camera 30, and displays the image set in the attribute correspondence table 66. Extract sound from the direction. When the extracted audio content corresponds to any of the contents set in the audio correspondence table 67, the display control device 5 reads out the audio object set in the audio correspondence table 67 and has already described the above. Instead of the sound being output to the person, the sound is output from the display device 20.

図6は、表示システム1の動作を示すフローチャートであり、特に、表示制御装置5の動作を示す。
この図6に示す動作の実行時、表示制御装置5のCPU51は、位置決定手段、表示制御手段、画像認識手段、音声出力制御手段、及び、音声識別手段として機能する。
表示制御装置5は、表示システム1の動作開始に伴って初期設定プログラム61に基づく初期設定を行った後、カメラ30による撮影、マイク40による音声検出、及び、表示制御プログラム63に基づく表示制御処理を開始する(ステップS11)。
続いて、表示制御装置5は、カメラ30から入力される撮影画像において人物画像を認識する処理を行い、撮影画像中の人物画像を検出する(ステップS12)。このステップS12の処理において、表示制御装置5は、複数のカメラ30の各々から入力される撮影画像を個々に解析して人物画像を検出するとともに、各カメラ30の撮影画像の重複部分を特定することによって、同一の人物画像を重複して検出しないよう処理を行う。
FIG. 6 is a flowchart showing the operation of the display system 1, and particularly shows the operation of the display control device 5.
When the operation shown in FIG. 6 is executed, the CPU 51 of the display control device 5 functions as a position determination unit, a display control unit, an image recognition unit, a voice output control unit, and a voice identification unit.
The display control device 5 performs initial setting based on the initial setting program 61 with the start of the operation of the display system 1, and then performs shooting by the camera 30, voice detection by the microphone 40, and display control processing based on the display control program 63. Is started (step S11).
Subsequently, the display control device 5 performs a process of recognizing a person image in the photographed image input from the camera 30 and detects a person image in the photographed image (step S12). In the process of step S12, the display control device 5 individually analyzes the captured images input from each of the plurality of cameras 30 to detect a person image and specifies an overlapping portion of the captured images of each camera 30. Thus, processing is performed so as not to detect the same person image repeatedly.

表示制御装置5は、撮影画像から人物画像が検出されたか否かを判別し(ステップS13)、人物画像を検出しなかった場合は(ステップS13;No)、ステップS12に戻り、人物画像を検出した場合は(ステップS13;Yes)、その人物画像が、既に検出済みの人物の画像であるか否かを判別する(ステップS14)。
ステップS12で検出された人物画像が、その時点で既に検出済みではなかった場合(ステップS14;No)、表示制御装置5は検出された人物画像に基づいて、その人物の属性を判定し(ステップS15)、属性対応テーブル66(図5A)を参照して判定した属性に対応する表示オブジェクト及び音声オブジェクトを特定し、決定した表示オブジェクトを表示データ記憶領域64から読み出し(ステップS16)、ステップS17に移行する。
The display control device 5 determines whether or not a person image is detected from the captured image (step S13). If no person image is detected (step S13; No), the process returns to step S12 to detect the person image. If so (step S13; Yes), it is determined whether or not the person image is an image of a person that has already been detected (step S14).
If the person image detected in step S12 has not been detected at that time (step S14; No), the display control device 5 determines the attribute of the person based on the detected person image (step S14). S15), the display object and the sound object corresponding to the attribute determined with reference to the attribute correspondence table 66 (FIG. 5A) are specified, and the determined display object is read from the display data storage area 64 (step S16), and the process proceeds to step S17. Transition.

一方、ステップS12で検出された人物画像が、それ以前にステップS12の処理を行った際に検出された画像である場合(ステップS14;Yes)、表示制御装置5は、そのままステップS17に移行する。この場合、表示制御装置5は、人物画像から判定される属性に対応する表示オブジェクトを、表示データ記憶領域64から読み出し済みであるから、引き続き、この表示オブジェクトを表示することになる。
また、表示制御処理を開始してから最初にステップS14の判別を行う時点では、検出済みの人物の画像には該当しないので、ステップS15及びステップS16の処理を行ってからステップS17に移行する。
On the other hand, when the person image detected in step S12 is an image detected when the process of step S12 was performed before (step S14; Yes), the display control device 5 directly proceeds to step S17. . In this case, since the display control device 5 has already read the display object corresponding to the attribute determined from the person image from the display data storage area 64, the display control device 5 continues to display this display object.
Further, at the time when the determination of step S14 is first performed after the start of the display control process, it does not correspond to the detected person image, so that the process proceeds to step S17 after performing the processes of step S15 and step S16.

ステップS17において、表示制御装置5は、検出した人物画像に対応する表示オブジェクトを、その人物画像に近い位置に表示するため、表示オブジェクトの表示サイズに基づいて表示位置を決定する。
このステップS17で、表示制御装置5は、表示オブジェクトの表示サイズに適合する数の表示装置20を選択する。例えば、表示オブジェクトの表示サイズが「3×2」(縦3枚×横2枚)である場合、ステップS12で人物画像を検出した位置の最も近くに、縦3列×横2列の6枚の表示装置20を選択して、表示位置として決定する。ここで選択される表示装置20の数は表示オブジェクトの表示サイズに適合していればよく、表示サイズと同数であってもよいし、表示サイズを所定倍率で拡大または縮小したサイズと同数であってもよい。この場合、表示オブジェクトの縦横比が保持されるよう拡大または縮小したサイズであることが好ましく、例えば、上記の例で表示サイズが「3×2」の表示オブジェクトに対して縦6枚×横4枚の表示装置20を選択することが可能である。
続いて、表示制御装置5は、表示位置として決定した表示装置20に対して表示オブジェクトを表示するための画像を送信し、表示オブジェクトを表示させる(ステップS18)。
In step S <b> 17, the display control device 5 determines the display position based on the display size of the display object in order to display the display object corresponding to the detected person image at a position close to the person image.
In step S17, the display control device 5 selects the number of display devices 20 that matches the display size of the display object. For example, when the display size of the display object is “3 × 2” (vertical 3 × horizontal 2), the closest to the position where the person image is detected in step S12, 6 × 3 × 2 Display device 20 is selected and determined as the display position. The number of display devices 20 selected here may be the same as the display size as long as it matches the display size of the display object, or the same number as the display size enlarged or reduced at a predetermined magnification. May be. In this case, the size is preferably enlarged or reduced so that the aspect ratio of the display object is maintained. For example, in the above example, the display object whose display size is “3 × 2” is 6 × 4 It is possible to select one display device 20.
Subsequently, the display control device 5 transmits an image for displaying the display object to the display device 20 determined as the display position, and displays the display object (step S18).

次に、表示制御装置5は、マイク40により、ステップS12で検出した人物画像の位置からの人の音声を検出したか否かを判別する(ステップS19)。このステップS19では、人物画像の人物が音声によって指示等を入力した場合に、この音声を検出する。
ここで、該当する音声を検出していない場合は(ステップS19;No)、ステップS16で特定した音声オブジェクトを音声データ記憶領域65から読み出し(ステップS20)、ステップS23に移行する。また、人物画像の位置またはその近傍からの音声を検出した場合(ステップS19;Yes)、表示制御装置5は、その音声の内容を識別し(ステップS21)、音声対応テーブル67(図5B)に基づいて識別した音声の内容に対応する音声オブジェクトを特定して、この音声オブジェクトを音声データ記憶領域65から読み出し(ステップS22)、ステップS23に移行する。
ステップS23で、表示制御装置5は、音声オブジェクトを再生するための音声データを生成し、生成した音声データを、ステップS18で表示オブジェクトを表示させた表示装置20へ送信して、これらの表示装置20から音声を出力させる。
その後、表示制御装置5は、本表示制御処理の終了が指示されたか否かを判別し(ステップS24)、終了が指示されていない場合はステップS12に戻り、終了が指示された場合は、この指示に従って本処理を終了する。
Next, the display control device 5 determines whether or not a voice of a person from the position of the person image detected in step S12 is detected by the microphone 40 (step S19). In this step S19, when the person of the person image inputs an instruction or the like by voice, this voice is detected.
If no corresponding sound is detected (step S19; No), the sound object specified in step S16 is read from the sound data storage area 65 (step S20), and the process proceeds to step S23. When the voice from the position of the person image or the vicinity thereof is detected (step S19; Yes), the display control device 5 identifies the contents of the voice (step S21), and the voice correspondence table 67 (FIG. 5B). An audio object corresponding to the audio content identified based on the audio content is identified, and the audio object is read from the audio data storage area 65 (step S22), and the process proceeds to step S23.
In step S23, the display control device 5 generates audio data for reproducing the audio object, and transmits the generated audio data to the display device 20 that displayed the display object in step S18. Audio is output from 20.
Thereafter, the display control device 5 determines whether or not the end of the display control process has been instructed (step S24). If the end has not been instructed, the process returns to step S12. The process ends according to the instruction.

この図6に示す処理によれば、表示ユニット2の前方にいる人物の姿がカメラ30により撮影されると、この人物の画像が検出され(ステップS12)、検出された画像に基づいて、その人物の属性が判定される(ステップS15)。ここで判定される属性は、画像から判断し得る外見上の属性である。そして、表示制御装置5によって、その人物の属性に対応する表示オブジェクトが読み出され(ステップS16)、その人の位置に最も近い表示装置20によって、表示オブジェクトが表示される(ステップS17〜S18)。
図6のステップS12〜S24の処理が繰り返し実行される間、表示ユニット2の前の人物はカメラ30によって何度か撮影され、そのたびに人物画像が検出されるが(ステップS12)、既に検出された人物の画像であると判別され(ステップS14;Yes)、新たな属性判定は行われない。この場合、以前にその人物の属性に基づいて読み出された表示オブジェクトが、今回撮影されたその人物の位置に近い表示装置20に表示される。従って、その人物が表示ユニット2の前を移動した場合には、カメラ30によって撮影されたときの人物の位置の近くの表示装置20が表示位置として決定され、この表示装置20に表示オブジェクトが表示される。
つまり、人物が表示ユニット2の前を移動すると、その人物の位置に合わせて表示オブジェクトの表示位置が変更されるので、表示オブジェクトの表示位置を、人物の移動に追従して移動するように変えることができる。これにより、表示オブジェクトが人物に合わせて移動するような表示を行える。
According to the process shown in FIG. 6, when the figure of the person in front of the display unit 2 is photographed by the camera 30, an image of this person is detected (step S12), and based on the detected image, The attribute of the person is determined (step S15). The attribute determined here is an apparent attribute that can be determined from the image. Then, the display control device 5 reads the display object corresponding to the attribute of the person (step S16), and the display device 20 closest to the position of the person displays the display object (steps S17 to S18). .
While the processes in steps S12 to S24 in FIG. 6 are repeatedly executed, the person in front of the display unit 2 is photographed several times by the camera 30, and a person image is detected each time (step S12). It is determined that the image of the person has been selected (step S14; Yes), and no new attribute determination is performed. In this case, the display object previously read based on the attribute of the person is displayed on the display device 20 close to the position of the person photographed this time. Accordingly, when the person moves in front of the display unit 2, the display device 20 near the position of the person when photographed by the camera 30 is determined as the display position, and a display object is displayed on the display device 20. Is done.
That is, when the person moves in front of the display unit 2, the display position of the display object is changed according to the position of the person, so the display position of the display object is changed so as to follow the movement of the person. be able to. Thereby, it is possible to perform display such that the display object moves according to the person.

このように、本発明を適用した実施形態に係る表示システム1によれば、複数の表示装置20を並べて構成される表示ユニット2の近傍における人の位置を検出して、この人の位置に基づいて表示オブジェクトの表示位置を決定し、表示オブジェクトとして広告映像や各種画像等を表示できる。また、新たに人の位置を検出した場合は新たな位置に基づいて表示オブジェクトの表示位置を変更して表示を更新するので、人が移動した場合や、別の人の位置を検出した場合に、この新たな人の位置に合わせて表示オブジェクトを表示する。このため、例えば、移動する人に追従するように表示オブジェクトの表示位置を変化させることが可能となる。従って、大画面化が容易であるという表示ユニット2の表示領域を効果的に使用して、表示ユニット2の近くにいる人に、通常の表示画面ではできない迫力や親密感等を感じさせ、興趣性とインパクトに富む新しい表示方法を提供でき、例えば広告表示に適用すれば優れた広告効果が期待できる。   As described above, according to the display system 1 according to the embodiment to which the present invention is applied, the position of a person in the vicinity of the display unit 2 configured by arranging a plurality of display devices 20 is detected, and based on the position of the person. Thus, the display position of the display object can be determined, and an advertisement video or various images can be displayed as the display object. In addition, when a person's position is newly detected, the display position of the display object is changed based on the new position and the display is updated, so when a person moves or when the position of another person is detected. The display object is displayed in accordance with the position of the new person. Therefore, for example, the display position of the display object can be changed so as to follow the moving person. Therefore, by effectively using the display area of the display unit 2 that it is easy to enlarge the screen, a person near the display unit 2 feels a force or intimacy that cannot be achieved with a normal display screen. A new display method that is rich in performance and impact can be provided. For example, if it is applied to advertisement display, an excellent advertisement effect can be expected.

ここで、表示オブジェクトの表示サイズに適合する数の表示装置20が表示位置として選択されるので、表示オブジェクトを表示する際に、表示サイズの変換や画像合成等の処理を必要としない。これにより、表示に係る処理負荷が軽くて済むので、表示処理および表示を更新する処理を高速に実行でき、例えば表示位置を高速に変化させることができる。
そして、カメラ30の撮影画像から人物画像を認識することで人の位置を検出し、さらに、人物画像から人の属性として年齢層や性別を判定し、この年齢層や性別に対応する表示オブジェクトを表示するので、人の位置を容易にかつ速やかに検出でき、さらに、その人の属性に対応づけられた表示オブジェクトを表示するとともに、同じくその人の属性に対応づけられた音声オブジェクトに基づいて音声を出力する。これにより強い親密感や興趣性を生み出すことができる。さらに、例えば本構成を広告表示に適用した場合、その人の属性に合った商品やサービスの広告を行ったり、特定の年齢層や性別に向けた表示オブジェクト及び音声オブジェクトを用いて広告を行ったりすることで、広告への注目度を高めることができ、優れた広告効果が期待できる。
また、図6の動作においては、人物の属性に対応する音声オブジェクトが読み出され、この音声オブジェクトの音声が、表示オブジェクトの表示位置として特定された表示装置20から出力される。従って、表示と音声とを連動させて出力することが可能になる上、人物が表示ユニット2の前を移動した場合、その人物の移動に追従するように音声の出力位置を変えられる。
Here, since the number of display devices 20 suitable for the display size of the display object is selected as the display position, processing such as display size conversion and image composition is not required when displaying the display object. As a result, the processing load related to the display can be reduced, so that the display process and the process of updating the display can be executed at high speed. For example, the display position can be changed at high speed.
Then, the position of the person is detected by recognizing the person image from the photographed image of the camera 30, and further, the age group and gender are determined as the person attribute from the person image, and the display object corresponding to this age group and gender is displayed. Since it is displayed, the position of the person can be detected easily and quickly, and furthermore, a display object associated with the attribute of the person is displayed, and sound is also generated based on the sound object associated with the attribute of the person. Is output. This creates a strong sense of intimacy and interest. Furthermore, for example, when this configuration is applied to advertisement display, advertisements for products and services that match the person's attributes, advertisements using display objects and audio objects for specific age groups and genders, etc. By doing so, the degree of attention to the advertisement can be increased, and an excellent advertising effect can be expected.
In the operation of FIG. 6, a sound object corresponding to the attribute of the person is read, and the sound of the sound object is output from the display device 20 specified as the display position of the display object. Accordingly, it is possible to output the display and sound in conjunction with each other, and when the person moves in front of the display unit 2, the sound output position can be changed so as to follow the movement of the person.

さらに、マイク40により検出した音声の内容に基づいて、その音声の内容に対応する音声オブジェクトを選択し、この音声オブジェクトの音声を出力するので、例えば、音声によって天気予報が求められた場合は、天気予報の音声を出力し、広告が要らないとの意思が音声によって示された場合は、音声の出力を無音とすることもできる。このように、表示ユニット2の前にいる人の音声に対応して音声出力を行うことで、より高い親密感や興趣性を与えることが可能となり、例えば本構成を広告表示に適用した場合には優れた広告効果が期待できる。   Furthermore, based on the audio content detected by the microphone 40, the audio object corresponding to the audio content is selected and the audio object audio is output. For example, when the weather forecast is obtained by audio, If the weather forecast voice is output and the voice indicates that no advertisement is required, the voice output can be silenced. As described above, by outputting sound corresponding to the sound of the person in front of the display unit 2, it becomes possible to give a higher intimacy and interest, for example, when this configuration is applied to advertisement display Can expect excellent advertising effect.

図7は、表示システム1の使用例を示す図である。
この図7の使用例は、例えば通路や建物室内の壁面に、縦6列×横10列の表示装置20を並べて構成される表示ユニット2を設置した例である。この例では、表示ユニット2の一部を構成する表示装置20に表示オブジェクトとして人の画像を表示させ、この人が、表示ユニット2の前にいる人に話しかけるような表示形態を実現する。表示ユニット2は、その下端が、人が歩行する通路や居室の床から所定高さ以下となるよう設置され、その設置場所において人の全身に近く、人の目線と重なる高さ位置で、表示を行うように配設されている。
この図7の例では、表示ユニット2の前に立っている人(符号P)がいた場合に、人Pに近い表示装置20に、表示オブジェクトQが表示される。この例の表示オブジェクトQは、縦4列×横2列からなる8枚の表示装置20に表示される人型の画像である。
FIG. 7 is a diagram illustrating a usage example of the display system 1.
The usage example of FIG. 7 is an example in which the display unit 2 configured by arranging the display devices 20 of 6 rows × 10 rows is arranged on a wall surface of a passage or a building room, for example. In this example, an image of a person is displayed as a display object on the display device 20 constituting a part of the display unit 2, and a display form in which this person talks to a person in front of the display unit 2 is realized. The display unit 2 is installed so that the lower end of the display unit 2 is below a predetermined height from the passage where a person walks and the floor of a living room. It is arranged to perform.
In the example of FIG. 7, when there is a person (symbol P) standing in front of the display unit 2, the display object Q is displayed on the display device 20 close to the person P. The display object Q in this example is a human-type image displayed on eight display devices 20 having 4 columns × 2 columns.

ここで、人Pが、図中矢印Mで示す方向に移動した場合には、この人Pの移動中、或いは移動後に検出される人Pの位置に合わせて、表示オブジェクトQの表示位置も矢印Mの方向に移動する。このため、人の姿の表示オブジェクトQが人Pに寄り添って移動するような表示を行うことができる。
そして、表示ユニット2において表示オブジェクトQを表示している表示装置20からは、表示オブジェクトQに対応する音声オブジェクトの音声が出力され、表示オブジェクトQの表示位置が移動した場合には、移動後の表示位置となる表示装置20から音声が出力されるようになる。つまり、表示ユニット2は、音声を出力する表示装置20を切り換えることによって、人Pの移動に追従してスピーカを移動させることと同様の作用を実現できる。
Here, when the person P moves in the direction indicated by the arrow M in the figure, the display position of the display object Q is also indicated by the arrow in accordance with the position of the person P detected during or after the movement of the person P. Move in the direction of M. For this reason, it is possible to display such that the display object Q of the person's figure moves close to the person P.
Then, the sound of the sound object corresponding to the display object Q is output from the display device 20 displaying the display object Q in the display unit 2, and when the display position of the display object Q moves, Sound is output from the display device 20 that is the display position. That is, the display unit 2 can realize the same action as moving the speaker following the movement of the person P by switching the display device 20 that outputs sound.

表示システム1による表示は、例えば、商品の広告に利用できる。例えば、表示オブジェクトQとして、人型のキャラクタの静止画像ではなく、人Pに話しかけて商品の説明をする姿の動画像を用い、表示オブジェクトQを表示中の表示装置20から、商品の説明の音声からなる音声オブジェクトを用いることが考えられる。この場合、表示オブジェクトの表示位置及び音声の出力位置が人Pの位置に合わせて移動しながら広告を行うので、従来の広告とは全く異なり、広告を見る人に対する距離が近く、親近感を抱かせ、広告の内容に強く注目させることができ、興趣性に富む広告を行うことができる。   The display by the display system 1 can be used, for example, for advertisement of products. For example, instead of a still image of a humanoid character as a display object Q, a moving image in which a product is explained by talking to a person P is used to explain the product from the display device 20 displaying the display object Q. It is conceivable to use an audio object consisting of audio. In this case, the advertisement is performed while the display position of the display object and the output position of the sound are moved according to the position of the person P. Therefore, unlike the conventional advertisement, the distance to the person who sees the advertisement is close and a sense of familiarity is achieved. It is possible to pay attention to the content of the advertisement, and to make an advertisement rich in interest.

また、表示システム1においては、カメラ30の撮影画像から表示ユニット2の近傍にいる人の人物画像を検出した場合に、この人物画像すなわち外見から属性を判定し、その属性に対応する表示オブジェクト及び音声オブジェクトを出力する。具体的な適用例としては、例えば、人物画像から若年男性と判定された人に対しては若年の女性の画像からなる表示オブジェクトを表示し、この女性の声を音声オブジェクトとして出力し、高齢の女性と判定された人に対しては高齢の男性の画像および音声を出力する例が挙げられる。
さらに、表示システム1を広告に適用する場合、図5Aに例示したように、人物画像から属性として年齢層および性別を判定し、年齢層及び性別に応じた商品やサービスの広告を、表示オブジェクト及び音声オブジェクトとして出力すれば、広告を見聞きする人が、広告する商品やサービスの対象性別・対象年齢層に合致するので、優れた広告効果が期待できる。また、表示システム1により広告を見聞きする人にとっては、無関係な広告が見せられることによる違和感や不快感がなく、自分の年代や性別に関係のある商品やサービスを知ることで、知的好奇心の満足を得て、楽しむことができる。
In the display system 1, when a person image of a person in the vicinity of the display unit 2 is detected from a captured image of the camera 30, an attribute is determined from the person image, that is, the appearance, and a display object corresponding to the attribute Output an audio object. As a specific application example, for example, a display object consisting of an image of a young woman is displayed for a person determined to be a young man from a person image, and the voice of this woman is output as an audio object. An example of outputting an image and sound of an elderly man is given to a person determined to be a woman.
Furthermore, when the display system 1 is applied to an advertisement, as illustrated in FIG. 5A, an age group and a gender are determined as attributes from a person image, and an advertisement for a product or service corresponding to the age group and gender is displayed as a display object and If it is output as a sound object, the person who sees and listens to the advertisement matches the target sex and target age group of the advertised product or service, so that an excellent advertising effect can be expected. In addition, for those who see and listen to advertisements using the display system 1, there is no sense of discomfort or discomfort due to the display of irrelevant advertisements. Knowing the products and services related to their age and gender is an intellectual curiosity. Can be satisfied and enjoyed.

さらに、図6の動作においては、人物画像が検出された位置からの音声をマイク40により取得し、この音声を解析して内容を識別し、この音声が何らかの指示をなすものであれば、その内容に応じた音声オブジェクトが出力される。例えば、図5Bに示す音声対応テーブル67によれば、表示ユニット2の前にいる人Pが、天気予報を求める音声を発した場合には音声オブジェクトIが選択され、人Pが広告商品の詳細を求める音声を発した場合は音声オブジェクトJが選択され、人Pが別の商品の広告を求める音声を発した場合は音声オブジェクトKが選択される。
ここで、音声データ記憶領域65に、音声オブジェクトIとして天気予報の音声(天気概況、当日または翌日の天気、降水確率等を説明する音声)を記憶しておけば、要求に応じて天気予報の音声を出力できる。また、音声オブジェクトJとして、商品に関するより詳細な情報を説明する音声を記憶しておけば、人Pの求めに応じて商品の詳細を説明することができ、より優れた広告効果が期待できる。
Further, in the operation of FIG. 6, the sound from the position where the person image is detected is acquired by the microphone 40, the content is analyzed by analyzing the sound, and if this sound gives some instruction, A sound object corresponding to the content is output. For example, according to the voice correspondence table 67 shown in FIG. 5B, when the person P in front of the display unit 2 utters a voice requesting a weather forecast, the voice object I is selected, and the person P details the advertising product. The voice object J is selected when the voice requesting the voice is issued, and the voice object K is selected when the voice of the person P calling for the advertisement of another product is issued.
Here, if the voice data storage area 65 stores the sound of the weather forecast as the sound object I (sound explaining the weather overview, the weather of the current day or the next day, the probability of precipitation, etc.), Audio can be output. Moreover, if the audio | voice object J memorize | stores the audio | voice explaining the detailed information regarding goods, the detail of goods can be demonstrated according to the request | requirement of the person P, and the more excellent advertising effect can be anticipated.

また、音声オブジェクトKが選択された場合に、音声データ記憶領域65に記憶される広告の音声オブジェクトK自体が出力される構成としてもよいが、実際には音声オブジェクトKという音声オブジェクトを用意しないで、音声オブジェクトKを一種のコマンドとして処理してもよい。この場合、音声オブジェクトKが選択された場合に、表示制御装置5は、他の音声オブジェクトA〜Hの中から、現在出力中の音声オブジェクト以外のものを選択する。
さらに、図5Bの例では、人Pの音声として、広告が要らないと表明する音声を検出した場合には、出力する音声オブジェクトとして、無音の音声データが選択され、表示装置20からの音声出力が停止される。この場合には、広告を嫌う人に不快感を与えず、広告の内容に興味を持つ人にのみ商品やサービスの情報を提供できるという利点がある。
Further, when the sound object K is selected, the advertisement sound object K itself stored in the sound data storage area 65 may be output. However, in reality, a sound object called the sound object K is not prepared. The audio object K may be processed as a kind of command. In this case, when the sound object K is selected, the display control device 5 selects a sound object other than the sound object currently being output from the other sound objects A to H.
Further, in the example of FIG. 5B, when a voice expressing that no advertisement is required is detected as the voice of the person P, silent voice data is selected as the voice object to be output, and the voice output from the display device 20 is performed. Is stopped. In this case, there is an advantage that information on products and services can be provided only to those who are interested in the content of the advertisement without giving discomfort to those who dislike the advertisement.

このように、表示システム1は、表示ユニット2の近傍にいる人に向けて、表示オブジェクト及び音声オブジェクトを出力するとともに、この人の音声をマイク40によって検出して、その音声の内容に基づいて、音声オブジェクトを変更したり、音声出力を停止させたりすることができる。これにより、表示システム1は、表示ユニット2の近傍にいる人と双方向的な情報提供を行うことができるので、利便性の高い情報提供媒体としての機能を果たすことができるとともに、商品やサービスの広告をする場合は、優れた広告効果が期待できる。
なお、マイク40により検出した音声の内容に基づいて、音声オブジェクトだけでなく、表示オブジェクトを新たに選択し、表示中の表示オブジェクトから変更してもよい。この場合、より多くの情報を、より興趣性の高い方法で、双方向的に提供できる。
As described above, the display system 1 outputs the display object and the sound object toward the person in the vicinity of the display unit 2, detects the sound of the person with the microphone 40, and based on the content of the sound. The audio object can be changed or the audio output can be stopped. As a result, the display system 1 can provide information interactively with a person in the vicinity of the display unit 2, so that it can function as a highly convenient information providing medium, as well as a product or service. If you advertise, you can expect an excellent advertising effect.
In addition, based on the content of the sound detected by the microphone 40, not only the sound object but also a display object may be newly selected and changed from the displayed display object. In this case, more information can be provided interactively in a more interesting manner.

また、図6の動作は一人の人物のみに限定されるものではなく、複数の人物の各々に対応するように複数の表示オブジェクトを表示ユニット2に表示させることも可能である。
すなわち、カメラ30が撮影した画像から複数の人物の人物画像が検出された場合(ステップS12)、表示制御装置5によって各々の人物画像について、独立して、検出済みか否かを判別し(ステップS14)、属性を判定し(ステップS15)、判定した属性に対応する表示オブジェクトを読み出し(ステップS16)、表示位置を決定して(ステップS17)、表示オブジェクトを表示(ステップS18)すればよい。この場合、複数の人物に対して、各人物の属性に対応する表示オブジェクトが、各人物の位置に合わせた表示位置に表示される。
Further, the operation of FIG. 6 is not limited to only one person, and a plurality of display objects can be displayed on the display unit 2 so as to correspond to each of the plurality of persons.
That is, when human images of a plurality of persons are detected from images taken by the camera 30 (step S12), the display control device 5 determines whether or not each person image has been detected independently (step S12). S14) The attribute is determined (step S15), the display object corresponding to the determined attribute is read (step S16), the display position is determined (step S17), and the display object is displayed (step S18). In this case, for a plurality of persons, display objects corresponding to the attributes of the persons are displayed at display positions corresponding to the positions of the persons.

例えば、図7の使用例では一人の人Pに対して一つの表示オブジェクトQが表示されているが、他に別の人がいれば、その人に近い表示装置20に、別の表示オブジェクトを表示できる。そして、複数の表示オブジェクトが表示ユニット2に表示されている状態では、各々の表示オブジェクトの位置が、それぞれ独立して、その対象となっている人の移動に追従するように変更される。このとき、複数の表示オブジェクトが各々の人の位置の近くに表示され、音声も各々の人の近くの表示装置20から出力されるので、他の人に向けた表示オブジェクトや音声が邪魔になることがない。これにより、複数の表示装置20を並べて構成される表示ユニット2の広い表示領域を活用して、複数の人に対し、インパクトの強い形態で情報を提供できる。   For example, in the usage example of FIG. 7, one display object Q is displayed for one person P. However, if there is another person, another display object is displayed on the display device 20 close to that person. Can be displayed. In a state where a plurality of display objects are displayed on the display unit 2, the positions of the respective display objects are independently changed so as to follow the movement of the target person. At this time, a plurality of display objects are displayed near each person's position, and sound is also output from the display device 20 near each person. Therefore, display objects and sounds directed to other persons are in the way. There is nothing. Thereby, information can be provided to a plurality of people in a form having a strong impact by utilizing a wide display area of the display unit 2 configured by arranging a plurality of display devices 20 side by side.

ここで、CPU51は、表示データ記憶領域64に記憶された表示オブジェクトを読み出して、その表示オブジェクトの表示サイズに等しい数の表示装置20を表示位置として選択し、選択した表示装置20に表示オブジェクトを表示する。このため、表示データ記憶領域64から読み出した表示オブジェクトの表示サイズの変換や画像合成等の処理を必要としないので、表示に係る処理負荷が軽くて済む。従って、表示オブジェクトの表示および表示位置の変更に伴う表示更新の処理を高速に行うことができ、例えば人の移動に速やかに追従して表示位置を変えられる。また、複数の人に対応して複数の表示オブジェクトを表示する場合も、処理の遅延や画質の低下等を招くことなくスムーズに表示を行える。なお、表示位置として選択される表示装置20の数が、表示オブジェクトの表示サイズを、例えば表示オブジェクトの縦横の比率を保ったまま拡大または縮小した場合の数であっても、上記と同様に軽い負荷で表示および表示の更新を実行可能である。   Here, the CPU 51 reads out the display object stored in the display data storage area 64, selects the number of display devices 20 equal to the display size of the display object as the display position, and displays the display object on the selected display device 20. indicate. For this reason, since processing such as conversion of the display size of the display object read from the display data storage area 64 and image composition are not required, the processing load related to display can be reduced. Therefore, the display update process associated with the display of the display object and the change of the display position can be performed at high speed. For example, the display position can be changed quickly following the movement of a person. In addition, when a plurality of display objects are displayed corresponding to a plurality of people, the display can be smoothly performed without causing a delay in processing or a reduction in image quality. Even if the number of display devices 20 selected as the display position is the number when the display size of the display object is enlarged or reduced while maintaining the aspect ratio of the display object, for example, it is light as described above. Display and display updates can be performed under load.

上記実施形態においては、表示ユニット2の上端にカメラ30及びマイク40を配置した構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、一部または全部の表示装置20の枠21内に、それぞれカメラ30及びマイク40を配設した構成としてもよい。この場合、さらに、この構成において、表示装置20が備えるカメラ30の撮影画像データやマイク40により検出された音声の音声信号等が信号線11を介して表示制御装置5に入力される構成としてもよく、この場合には、表示ユニット2と表示制御装置5との間をつなぐケーブルの数を減らすことができる、配置情報62に基づいて各々のカメラ30やマイク40を識別できる等の利点がある。
さらに、上記実施形態では、表示装置20が備える前面パネル22を振動子26によって振動させることによって音声を出力する構成について説明したが、本発明はこれに限定されるものではなく、振動子26に代えて、音声を出力する通常のスピーカを枠21内に備えた構成としてもよい。また、指向性の強いスピーカを表示ユニット2の上部に複数設け、このスピーカの向きを変える駆動機構を設けて、人がいる位置に向けて音声を出力してもよく、この場合、表示制御装置5は、音声を出力するスピーカを選択するとともに、当該スピーカの向きを制御する処理を行う。
また、上述したカメラ30、マイク40及びスピーカは、表示ユニット2に限らず、表示ユニット2が設置された空間内において、表示ユニット2から離れた場所に設置することも勿論可能である。
さらに、表示ユニット2が備える表示パネル23として、有機EL素子を用いた表示パネルやプラズマ表示パネル等を用いることも可能であり、これらのように自発光型の表示パネルを用いた場合にはバックライト24を廃した構成としてもよく、その他、表示システム1の具体的な細部構成についても任意に変更可能である。
In the above embodiment, the configuration in which the camera 30 and the microphone 40 are arranged at the upper end of the display unit 2 has been described as an example. However, the present invention is not limited to this, and a part or all of the display devices 20 are arranged. The camera 30 and the microphone 40 may be arranged in the frame 21. In this case, furthermore, in this configuration, the captured image data of the camera 30 included in the display device 20, the audio signal of the sound detected by the microphone 40, and the like may be input to the display control device 5 through the signal line 11. In this case, there are advantages that the number of cables connecting between the display unit 2 and the display control device 5 can be reduced, and that each camera 30 and microphone 40 can be identified based on the arrangement information 62. .
Furthermore, in the above-described embodiment, the configuration in which sound is output by vibrating the front panel 22 included in the display device 20 by the vibrator 26 has been described. However, the present invention is not limited to this, and the vibrator 26 includes Instead, a normal speaker that outputs sound may be provided in the frame 21. In addition, a plurality of loudspeakers with high directivity may be provided on the upper portion of the display unit 2 and a drive mechanism for changing the direction of the loudspeakers may be provided to output sound toward a position where a person is present. 5 selects a speaker that outputs sound and performs processing for controlling the direction of the speaker.
Of course, the camera 30, the microphone 40, and the speaker described above are not limited to the display unit 2, and can be installed at a location away from the display unit 2 in the space where the display unit 2 is installed.
Furthermore, as the display panel 23 included in the display unit 2, a display panel using an organic EL element, a plasma display panel, or the like can be used. When a self-luminous display panel is used as described above, a back panel is used. A configuration in which the light 24 is eliminated may be employed, and other specific detailed configurations of the display system 1 may be arbitrarily changed.

実施形態に係る表示システムの概略構成を示す図である。It is a figure which shows schematic structure of the display system which concerns on embodiment. 表示装置の構成を示す図である。It is a figure which shows the structure of a display apparatus. 表示システムの各部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of each part of a display system. 表示制御装置の記憶部が有する記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of the storage area which the memory | storage part of a display control apparatus has. 記憶部に記憶されたテーブルの構成を模式的に示す図である。It is a figure which shows typically the structure of the table memorize | stored in the memory | storage part. 表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a display system. 表示システムの使用例を示す図である。It is a figure which shows the usage example of a display system.

符号の説明Explanation of symbols

1…表示システム、2…表示ユニット、5…表示制御装置、6…記憶部、20…表示装置、22…前面パネル(音声出力装置)、23…表示パネル、25…制御基板、26…振動子(音声出力装置)、30…カメラ、40…マイク、51…CPU(位置決定手段、表示制御手段、画像認識手段、音声出力制御手段、音声識別手段)、57…画像入力部、58…音声入力部、64…表示データ記憶領域(表示データ記憶手段)、65…音声データ記憶領域(音声データ記憶手段)、200…制御部、201…CPU、211…画像処理部、212…描画メモリ、213…駆動回路、221…音声処理部。   DESCRIPTION OF SYMBOLS 1 ... Display system, 2 ... Display unit, 5 ... Display control apparatus, 6 ... Memory | storage part, 20 ... Display apparatus, 22 ... Front panel (audio | voice output device), 23 ... Display panel, 25 ... Control board, 26 ... Vibrator (Voice output device), 30 ... camera, 40 ... microphone, 51 ... CPU (position determining means, display control means, image recognition means, voice output control means, voice identification means), 57 ... image input unit, 58 ... voice input 64: Display data storage area (display data storage means), 65 ... Audio data storage area (audio data storage means), 200 ... Control section, 201 ... CPU, 211 ... Image processing section, 212 ... Drawing memory, 213 ... Drive circuit, 221... Audio processing unit.

Claims (7)

複数の表示装置を並べて構成される表示ユニットと、
前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトを予め記憶した表示データ記憶手段と、
前記表示ユニットの近傍における人の位置を検出する人位置検出手段と、
前記人位置検出手段により検出された人の位置に基づいて、前記表示データ記憶手段に記憶された表示オブジェクトの表示位置を決定する位置決定手段と、
前記表示データ記憶手段に記憶された表示オブジェクトを読み出して、前記位置決定手段により決定された表示位置に表示させる表示制御手段と、を備え、
前記表示制御手段は、前記人位置検出手段により新たに人の位置が検出され、この新たな人の位置に基づいて前記位置決定手段により新たな表示位置が決定された場合は、前記表示オブジェクトの表示位置を変更して表示を更新すること、
を特徴とする表示システム。
A display unit configured by arranging a plurality of display devices;
Display data storage means for storing in advance a display object displayed by the display device corresponding to a part of the display unit;
Human position detecting means for detecting the position of a person in the vicinity of the display unit;
Position determining means for determining the display position of the display object stored in the display data storage means based on the position of the person detected by the person position detecting means;
Display control means for reading the display object stored in the display data storage means and displaying the display object at the display position determined by the position determination means,
When the position of the person is newly detected by the person position detecting means and a new display position is determined by the position determining means based on the position of the new person, the display control means Changing the display position to update the display,
A display system characterized by
前記位置決定手段は、前記表示ユニットを構成する複数の前記表示装置から前記表示オブジェクトの表示サイズに適合する数の前記表示装置を選択して、前記表示オブジェクトの表示位置として決定すること、
を特徴とする請求項1記載の表示システム。
The position determining means selects a number of the display devices suitable for the display size of the display object from the plurality of display devices constituting the display unit, and determines the display position as the display object;
The display system according to claim 1.
前記人位置検出手段は、前記表示ユニットに表示される表示オブジェクトを視認可能な範囲で撮影するカメラと、
前記カメラの撮影画像に含まれる人物画像を認識することで人の位置を検出するとともに、認識した人物画像から人物の属性を判定する画像認識手段と、を備えて構成され、
前記表示データ記憶手段は、それぞれ人の属性に対応づけられた複数の表示オブジェクトを記憶しており、
前記表示制御手段は、前記画像認識手段により判定された属性に対応する前記表示オブジェクトを前記表示データ記憶手段から読み出して表示させること、
を特徴とする請求項1または2記載の表示システム。
The human position detection means, a camera for photographing a display object displayed on the display unit in a visible range;
Image recognition means for detecting a person's position by recognizing a person image included in a photographed image of the camera and determining a person's attribute from the recognized person image;
The display data storage means stores a plurality of display objects each associated with an attribute of a person,
The display control means reads out the display object corresponding to the attribute determined by the image recognition means from the display data storage means and displays the display object;
The display system according to claim 1, wherein:
前記表示ユニットに表示される表示オブジェクトを視認可能な範囲に向けて音声を出力する複数の音声出力装置と、
音声出力用のデータを予め記憶した音声データ記憶手段と、
前記位置決定手段により決定された表示位置に基づいて、使用する前記音声出力装置を選択し、選択した前記音声出力装置から、前記音声データ記憶手段に記憶されたデータに基づいて音声を出力させる音声出力制御手段と、
を備えることを特徴とする請求項1から3のいずれかに記載の表示システム。
A plurality of sound output devices that output sound toward a visible range of a display object displayed on the display unit;
Audio data storage means for storing audio output data in advance;
A sound for selecting the sound output device to be used based on the display position determined by the position determining means and outputting sound based on the data stored in the sound data storage means from the selected sound output device. Output control means;
The display system according to claim 1, further comprising:
前記表示ユニットの近傍における音声を検出するマイクと、前記マイクにより検出された音声の内容を識別する音声識別手段と、を備え、
前記音声データ記憶手段は、前記音声識別手段により識別可能な音声の内容に対応する複数の音声出力用のデータを記憶しており、
前記音声出力制御手段は、前記マイクにより検出された音声の内容に対応するデータに基づいて、前記音声出力装置から音声を出力させること、
を特徴とする請求項4記載の表示システム。
A microphone for detecting voice in the vicinity of the display unit; and voice identification means for identifying the content of the voice detected by the microphone,
The voice data storage means stores a plurality of data for voice output corresponding to the contents of voice identifiable by the voice identification means,
The audio output control means, based on data corresponding to the content of audio detected by the microphone, to output audio from the audio output device;
The display system according to claim 4.
複数の表示装置を並べて構成される表示ユニットに接続され、
前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトを予め記憶した表示データ記憶手段と、
前記表示ユニットの近傍における人の位置を検出する人位置検出手段と、
前記人位置検出手段により検出された人の位置に基づいて、前記表示データ記憶手段に記憶された表示オブジェクトの表示位置を決定する位置決定手段と、
前記表示データ記憶手段に記憶された表示オブジェクトを読み出して、前記位置決定手段により決定された表示位置に表示させる表示制御手段と、を備え、
前記表示制御手段は、前記人位置検出手段により新たに人の位置が検出され、この新たな人の位置に基づいて前記位置決定手段により新たな表示位置が決定された場合は、前記表示オブジェクトの表示位置を変更して表示を更新すること、
を特徴とする表示制御装置。
It is connected to a display unit configured by arranging a plurality of display devices,
Display data storage means for storing in advance a display object displayed by the display device corresponding to a part of the display unit;
Human position detecting means for detecting the position of a person in the vicinity of the display unit;
Position determining means for determining the display position of the display object stored in the display data storage means based on the position of the person detected by the person position detecting means;
Display control means for reading the display object stored in the display data storage means and displaying the display object at the display position determined by the position determination means,
When the position of the person is newly detected by the person position detecting means and a new display position is determined by the position determining means based on the position of the new person, the display control means Changing the display position to update the display,
A display control device.
複数の表示装置を並べて構成される表示ユニットの近傍における人の位置を検出し、
前記表示ユニットの一部分に相当する前記表示装置によって表示される表示オブジェクトの表示位置を、検出した人の位置に基づいて決定し、
決定した表示位置に表示オブジェクトを表示させるとともに、
新たに人の位置を検出した場合には、この新たな人の位置に基づいて新たな表示位置を決定し、この新たな表示位置に前記表示オブジェクトを表示すること、
を特徴とする表示制御方法。
Detecting the position of a person in the vicinity of a display unit configured by arranging a plurality of display devices,
Determining a display position of a display object displayed by the display device corresponding to a part of the display unit based on the position of the detected person;
While displaying the display object at the determined display position,
When a new person position is detected, a new display position is determined based on the new person position, and the display object is displayed at the new display position.
A display control method characterized by the above.
JP2008176584A 2008-07-07 2008-07-07 Display system, display control device, and display control method Withdrawn JP2010015076A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008176584A JP2010015076A (en) 2008-07-07 2008-07-07 Display system, display control device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008176584A JP2010015076A (en) 2008-07-07 2008-07-07 Display system, display control device, and display control method

Publications (1)

Publication Number Publication Date
JP2010015076A true JP2010015076A (en) 2010-01-21

Family

ID=41701224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008176584A Withdrawn JP2010015076A (en) 2008-07-07 2008-07-07 Display system, display control device, and display control method

Country Status (1)

Country Link
JP (1) JP2010015076A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402971A (en) * 2010-09-08 2012-04-04 夏普株式会社 Multi-display apparatus
JP2012141965A (en) * 2011-01-05 2012-07-26 Primesense Ltd Scene profiles for non-tactile user interfaces
JP2014030897A (en) * 2012-08-03 2014-02-20 Toyota Motor Engineering & Manufacturing North America Inc Robot including projector for projecting image on identified projection surface
KR20150072481A (en) * 2013-12-19 2015-06-30 주식회사 에이텍 Apparatus for image display controlling in image display unit and method thereof
JP2015531130A (en) * 2012-08-16 2015-10-29 アルカテル−ルーセント A method for supplying information associated with an event to a person
JP2016212174A (en) * 2015-05-01 2016-12-15 パラマウントベッド株式会社 Image display control device, image display system, and program
WO2020241299A1 (en) * 2019-05-29 2020-12-03 ソニー株式会社 Control device, control method, control program, and control system
JP2022044087A (en) * 2020-09-07 2022-03-17 株式会社ビラハウジング Display device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402971A (en) * 2010-09-08 2012-04-04 夏普株式会社 Multi-display apparatus
JP2012141965A (en) * 2011-01-05 2012-07-26 Primesense Ltd Scene profiles for non-tactile user interfaces
JP2014030897A (en) * 2012-08-03 2014-02-20 Toyota Motor Engineering & Manufacturing North America Inc Robot including projector for projecting image on identified projection surface
JP2017061034A (en) * 2012-08-03 2017-03-30 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Robots comprising projectors for projecting images on identified projection surfaces
US9943965B2 (en) 2012-08-03 2018-04-17 Toyota Motor Engineering & Manufacturing North America, Inc. Robots comprising projectors for projecting images on identified projection surfaces
JP2015531130A (en) * 2012-08-16 2015-10-29 アルカテル−ルーセント A method for supplying information associated with an event to a person
JP2017126355A (en) * 2012-08-16 2017-07-20 アルカテル−ルーセント Method for provisioning person with information associated with event
KR20150072481A (en) * 2013-12-19 2015-06-30 주식회사 에이텍 Apparatus for image display controlling in image display unit and method thereof
KR101587250B1 (en) 2013-12-19 2016-01-21 (주)에이텍티앤 Apparatus for image display controlling in image display unit and method thereof
JP2016212174A (en) * 2015-05-01 2016-12-15 パラマウントベッド株式会社 Image display control device, image display system, and program
WO2020241299A1 (en) * 2019-05-29 2020-12-03 ソニー株式会社 Control device, control method, control program, and control system
JP2022044087A (en) * 2020-09-07 2022-03-17 株式会社ビラハウジング Display device

Similar Documents

Publication Publication Date Title
JP2010015076A (en) Display system, display control device, and display control method
JP5396769B2 (en) Audio output control device, audio output device, audio output control method, and program
JP2010020053A (en) Display system, display control device, and display control method
US9491401B2 (en) Video call method and electronic device supporting the method
JP2010041167A (en) Voice output controller, sound output device, voice output control method, and program
JP2010039333A (en) Advertising device, and control method and control program for advertising device
JP2012023595A (en) Conference system
JP2002150317A (en) Image display device
JP2009289039A (en) Portable terminal, application selection method, program, and recording medium
JP4775066B2 (en) Image processing device
WO2014061931A1 (en) Device and method for playing sound
JP2017123505A (en) Content playback device, content playback method, and program
JP6907721B2 (en) Display control device, display control method and program
JP4789227B2 (en) Video display device with built-in voice recognition function
KR20150026645A (en) Voice Recognition Application Program By Pattern Recognition Technology
CN115865875A (en) Display method, display device and display system
CN118890497B (en) Live broadcast method, equipment and storage medium
JP2017147512A (en) Content reproduction apparatus, content reproduction method, and program
KR20120058947A (en) Method and apparatus for displaying contents using eye tracking
JP5310682B2 (en) Karaoke equipment
JP2011053276A (en) Karaoke system including background image variable display function
JP2004112511A (en) Display controller and method therefor
JP3770374B2 (en) Image display device
JP5554110B2 (en) Document processing method and document processing system
JP7685660B1 (en) Information processing device, display device, television receiver, and information processing system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004