[go: up one dir, main page]

JP2018205628A - Display controller, display control method and computer program - Google Patents

Display controller, display control method and computer program Download PDF

Info

Publication number
JP2018205628A
JP2018205628A JP2017113384A JP2017113384A JP2018205628A JP 2018205628 A JP2018205628 A JP 2018205628A JP 2017113384 A JP2017113384 A JP 2017113384A JP 2017113384 A JP2017113384 A JP 2017113384A JP 2018205628 A JP2018205628 A JP 2018205628A
Authority
JP
Japan
Prior art keywords
display
display device
unit
display control
connection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017113384A
Other languages
Japanese (ja)
Inventor
正一 衣川
Shoichi Kinugawa
正一 衣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kinugawa Co Ltd
Original Assignee
Kinugawa Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kinugawa Co Ltd filed Critical Kinugawa Co Ltd
Priority to JP2017113384A priority Critical patent/JP2018205628A/en
Publication of JP2018205628A publication Critical patent/JP2018205628A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display controller capable of easily performing display control responding to a person's operation paying attention to a display device, a display control method, and a computer program.SOLUTION: A display controller which has a connection part and controls display in a display device connected via the connection part includes: a storage part storing an image or a moving image; an output part outputting the image or moving image to the display device via the connection part when connected to the display device via the connection part; a detection part which detects specific speech from a person present in a range where the image or moving image displayed on the display device is visible or specific operation by the person; and a display change part which changes display in the display device as a response to the specific speech or operation when the detection part detects the specific speech or operation.SELECTED DRAWING: Figure 1

Description

本開示は、デジタルサイネージを手軽に実現する表示制御装置、表示制御方法及びコンピュータプログラムに関する。   The present disclosure relates to a display control device, a display control method, and a computer program that easily realize digital signage.

ポスター、看板等による広告掲示のみならず、不特定多数の公衆が通行する場所に設置された表示装置に広告宣伝用の動画像を表示させる電子看板(デジタルサイネージ)システムが普及している。このようなシステムでは、電子看板即ち表示装置を制御する制御装置に予め動画像を記憶しておき、記憶された動画像を単純に巡回的に表示させるか、又は表示装置と通信接続しているコンテンツ配信サーバによって表示内容が制御されるようにしてある(特許文献1等)。その他、表示装置にセットトップボックスと呼ばれるコンテンツのクライアント装置を接続し、このクライアント装置が配信サーバ装置からネットワーク経由でコンテンツデータを受信して、表示装置に表示させるシステムも存在している(特許文献2等)。   Electronic signage (digital signage) systems that display moving images for advertisement on a display device installed in a place where an unspecified number of publics pass, as well as advertisements such as posters and signboards, are widespread. In such a system, a moving image is stored in advance in a control device that controls an electronic signboard, that is, a display device, and the stored moving image is simply displayed in a cyclic manner, or is connected in communication with the display device. The display contents are controlled by the content distribution server (Patent Document 1, etc.). In addition, there is a system in which a content client device called a set-top box is connected to a display device, and the client device receives content data from a distribution server device via a network and displays the content data on the display device (Patent Document). 2 etc.).

昨今のデジタルサイネージでは、単にスケジュール通りに動画像を表示させるのみならず、表示装置前に存在する人物が興味を持つようなコンテンツへ表示内容を変更するなどの処理が提案されている(特許文献3、4等)。   In recent digital signage, not only a moving image is displayed according to a schedule, but also processing such as changing the display content to a content that interests a person existing in front of the display device has been proposed (Patent Literature). 3, 4 etc.).

特開2015−095004号公報Japanese Patent Laying-Open No. 2015-095004 特開2017−033441号公報JP 2017-033441 A 特開2016−177265号公報JP, 2006-177265, A 特開2017−009652号公報JP 2017-009652 A

特許文献1−4に開示されているデジタルサイネージシステムにてコンテンツ配信サーバからコンテンツデータを提供する場合の多くは、実際に広告宣伝又は公共標識等を表示する表示装置と、コンテンツ配信サーバとは遠隔した状態で配置されている。したがって、表示装置又は該表示装置に接続されるクライアント装置が、通信によりコンテンツ配信サーバと接続して双方向に情報を送受信することが前提としてある。   In many cases in which content data is provided from a content distribution server in the digital signage system disclosed in Patent Documents 1-4, a display device that actually displays advertisements or public signs and the content distribution server are remote from each other. It is arranged in the state. Therefore, it is assumed that the display device or the client device connected to the display device is connected to the content distribution server by communication to transmit and receive information bidirectionally.

また、表示装置前に存在する特定の人物が興味を持つような特定のコンテンツへ表示を変更させる技術を実現するためには、特許文献3又は特許文献4に開示されているように、その特定の人物が所持する携帯端末装置との通信を行なうことができるようにしてある。   Further, in order to realize a technique for changing the display to a specific content in which a specific person existing in front of the display device is interested, as disclosed in Patent Document 3 or Patent Document 4, the specific It is possible to communicate with a portable terminal device possessed by a person.

このようにデジタルサイネージシステムでは、表示装置を通信によりコンテンツ配信サーバと安全に接続できるようにするなどの大掛かりなシステムが必要になる。また表示装置に注目する特定の人物に応じた表示制御を行なうためには、表示装置の制御プログラムを置き換える等、大掛かりな作業及びコストを要する。   As described above, in the digital signage system, a large-scale system is required such that the display device can be securely connected to the content distribution server by communication. Further, in order to perform display control according to a specific person who pays attention to the display device, a large-scale work and cost such as replacement of a control program for the display device are required.

本開示は斯かる事情に鑑みてなされたものであり、表示装置に注目する人物の動作に応答する表示制御を手軽に実現させることが可能な表示制御装置、表示制御方法及びコンピュータプログラムを提供することを目的とする。   The present disclosure has been made in view of such circumstances, and provides a display control device, a display control method, and a computer program capable of easily realizing display control in response to an action of a person who pays attention to the display device. For the purpose.

本開示の表示制御装置は、接続部を有し、該接続部を介して接続される表示装置における表示を制御する表示制御装置であって、画像又は動画像を記憶してある記憶部と、前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力する出力部と、前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出する検出部と、該検出部が特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる表示変更部とを備える。   The display control device of the present disclosure is a display control device that has a connection unit and controls display on a display device connected via the connection unit, and stores a storage unit that stores an image or a moving image; An output unit that outputs an image or a moving image stored in the storage unit to the display device via the connection unit when connected to the display device via the connection unit; When a specific sound from a person existing in a range where a displayed image or moving image is visible, or a specific action by the person, and when the detection part detects a specific sound or action And a display changing unit for changing the display on the display device as a response to the specific sound or operation.

本開示の表示制御方法は、接続部及び記憶部を有するコンピュータが、前記接続部を介して接続される表示装置における表示を制御する表示制御方法であって、前記コンピュータは、前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力し、前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出し、特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる処理を実行する。   A display control method according to the present disclosure is a display control method in which a computer having a connection unit and a storage unit controls display on a display device connected via the connection unit, and the computer is configured via the connection unit. The image or moving image stored in the storage unit is output to the display device via the connecting unit, and the image or moving image displayed on the display device is output. When a specific sound from a person existing in a viewable range or a specific action by the person is detected and a specific sound or action is detected, a response to the specific sound or action is detected in the display device. Execute processing to change the display.

本開示のコンピュータプログラムは、接続部を有するコンピュータに、該接続部を介して接続される表示装置における表示を制御させるコンピュータプログラムであって、前記コンピュータに、前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力し、前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出し、特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる処理を実行させる。   A computer program according to the present disclosure is a computer program that causes a computer having a connection unit to control display on a display device connected via the connection unit, the computer program including the display device via the connection unit. When connected, the image or moving image stored in the storage unit is output to the display device via the connecting unit, and the image or moving image displayed on the display device is within a visible range. A process of detecting a specific voice from an existing person or a specific action by the person and changing the display on the display device as a response to the specific voice or action when a specific voice or action is detected Is executed.

本開示の表示制御装置では、表示装置に接続された場合に表示制御装置に記憶されている画像又は動画像が表示装置にて表示されるように出力され、画像又は動画像が表示される。その間に、表示装置前に存在する人物が特定の音声を発するか、又は特定の動作を行なった場合、表示制御装置は、その特定の音声又は特定の動作を検出し、検出した内容に応じて表示装置における表示内容を変更させる。   In the display control device of the present disclosure, when connected to the display device, an image or moving image stored in the display control device is output so as to be displayed on the display device, and the image or moving image is displayed. In the meantime, when a person existing in front of the display device emits a specific sound or performs a specific operation, the display control device detects the specific sound or specific operation, and according to the detected content The display content on the display device is changed.

本開示の表示制御装置は、前記接続部は、表示装置との間で画像又は動画像の信号及び制御用の信号を授受する端子を内蔵するコネクタであり、該コネクタを突出させた外装筐体を備える。   In the display control device according to the present disclosure, the connection unit is a connector having a terminal for transmitting / receiving an image or moving image signal and a control signal to / from the display device, and the exterior casing from which the connector protrudes Is provided.

本開示の表示制御装置では、コネクタを突出させた外装筐体を有する構成とすることにより、そのコネクタのレセプタクルを備える表示装置に表示制御装置を装着させるという容易な構成で、表示制御装置による表示制御を実現する。   In the display control device according to the present disclosure, the display control device has a configuration in which the display control device is attached to the display device including the receptacle of the connector by the configuration having the exterior housing from which the connector protrudes. Realize control.

本開示の表示制御装置により、手軽に表示装置に注目する人物の動作に応じて表示を制御するデジタルサイネージ又は公共標識の掲示が実現可能になる。したがって既設のデジタルサイネージ用の表示装置を入れ替えることなく利用することができ、コストも抑制して、表示装置毎に多様なコンテンツを表示させることも可能になる。   With the display control device of the present disclosure, it is possible to easily display digital signage or public signs that control display according to the action of a person who focuses on the display device. Therefore, the existing digital signage display device can be used without being replaced, and the cost can be suppressed, and various contents can be displayed for each display device.

実施の形態1における表示システムの概要を示す説明図である。1 is an explanatory diagram illustrating an overview of a display system in Embodiment 1. FIG. 実施の形態1の表示システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of a display system according to a first embodiment. 実施の形態1の表示システムで実行される処理手順の一例を示すフローチャートである。4 is a flowchart illustrating an example of a processing procedure executed in the display system according to the first embodiment. 実施の形態2の表示システムの構成を示すブロック図である。6 is a block diagram illustrating a configuration of a display system according to Embodiment 2. FIG. 実施の形態2における表示制御装置による処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure performed by the display control apparatus according to Embodiment 2. 実施の形態3の表示システムの構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of a display system according to a third embodiment. 実施の形態3における表示制御装置による処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure performed by a display control apparatus according to Embodiment 3.

(実施の形態1)
図1は、実施の形態1における表示システムの概要を示す説明図である。本開示の表示システムは、表示装置2と該表示装置2に接続される表示制御装置1とを含む。表示制御装置1は、図1に示す例ではドングルの形態をなしており、HDMI(High-Definition Multimedia Interface、登録商標)端子である接続部11を露出させてある細長の筐体12内に各構成部を収納してある。筐体12はオペレータが掌に収めることができる程度にコンパクトである。この表示制御装置1を表示装置2が備える入力インタフェース(図2参照の入力部)に接続するという簡易な構成で、表示装置2に表示させる映像コンテンツの制御が可能になる。なお表示制御装置1が容易に取り外されないように、表示装置2の表示部以外は例えば図1であれば柱を囲むようにしてカバーをかけつつ、表示制御装置1に設けられるマイクロフォン(図2の音声入力部14)にて集音ができるようにしてあるとよい。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing an overview of a display system according to the first embodiment. The display system of the present disclosure includes a display device 2 and a display control device 1 connected to the display device 2. In the example shown in FIG. 1, the display control device 1 is in the form of a dongle. Each display control device 1 is provided in an elongated casing 12 in which a connection portion 11 that is an HDMI (High-Definition Multimedia Interface, registered trademark) terminal is exposed. Contains the components. The housing 12 is compact enough to fit in the palm of the operator. The video content displayed on the display device 2 can be controlled with a simple configuration in which the display control device 1 is connected to an input interface (an input unit shown in FIG. 2) provided in the display device 2. In order to prevent the display control device 1 from being easily removed, the microphones provided in the display control device 1 while covering the pillars other than the display unit of the display device 2 in FIG. It is preferable that sound can be collected by the input unit 14).

なお図1に示す概要では、表示装置2には公共標識として周辺案内を表示するケースについて図示されている。図1に示す例では、建造物の柱に備えつけられている表示装置2に周辺の地図を示す画像を表示させている。不特定多数の公衆の内、表示装置に表示されている映像コンテンツ(地図)に興味を示して足を止めた人物が特定の動作を行なった場合に、表示制御装置1によってその動作に応じた表示内容の変更、例えば「行き先はどこですか?」などと表示させている地図に関する呼びかけ文を表示又は音声で出力し、これに対して更に音声又は動作による操作を受け付けることを可能である。以下、表示制御装置1により上述したような表示制御を容易に実現するための構成について詳細を説明する。   In the outline shown in FIG. 1, the display device 2 shows a case of displaying the surrounding guidance as a public sign. In the example shown in FIG. 1, an image showing a map of the periphery is displayed on the display device 2 provided for a pillar of a building. When a person who is interested in the video content (map) displayed on the display device and stops his / her foot performs a specific action among the unspecified number of publics, the display control apparatus 1 responds to the action. It is possible to display or audibly output a call statement relating to a map displayed as a change in display content, for example, “Where is the destination?”, And further accept an operation by voice or action. Hereinafter, the configuration for easily realizing the display control as described above by the display control device 1 will be described in detail.

図2は、実施の形態1の表示システムの構成を示すブロック図である。表示システムは、表示制御装置1及び表示装置2を含む。表示制御装置10は、制御部10、接続部11、記憶部13、音声入力部14、及びセンサ15を備える。制御部10は、1若しくは複数のCPU(Central Processing Unit)又はマルチコアCPUを用い、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力インタフェース、タイマ等を有するマイクロコントローラである。制御部10は内蔵ROM又は記憶部13に記憶されている制御プログラムを実行することにより、後述するように表示装置2における表示内容を制御する。   FIG. 2 is a block diagram illustrating a configuration of the display system according to the first embodiment. The display system includes a display control device 1 and a display device 2. The display control device 10 includes a control unit 10, a connection unit 11, a storage unit 13, a voice input unit 14, and a sensor 15. The control unit 10 is a microcontroller that uses one or a plurality of CPUs (Central Processing Units) or a multi-core CPU and includes a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output interface, a timer, and the like. The control unit 10 executes the control program stored in the built-in ROM or the storage unit 13 to control display contents on the display device 2 as will be described later.

接続部11は、上述したようにHDMI端子である。制御部10は、接続部11を介して表示装置2との間で映像信号、音声信号及び制御信号を入出力する。接続部11は、制御部10が送受信する制御信号及び映像信号の入出力を実現するものであればHDMI端子に限らない。   The connection unit 11 is an HDMI terminal as described above. The control unit 10 inputs and outputs video signals, audio signals, and control signals to and from the display device 2 via the connection unit 11. The connection unit 11 is not limited to an HDMI terminal as long as it can input and output control signals and video signals transmitted and received by the control unit 10.

記憶部13は、フラッシュメモリ又はEEPROM(Electrically Erasable Programmable Read-Only Memory )等の不揮発性メモリである。記憶部13には、制御プログラム11P及び音声認識プログラム12Pが記憶されている他、表示装置2に表示させる映像のコンテンツ1Dが予め記憶されている。   The storage unit 13 is a nonvolatile memory such as a flash memory or an EEPROM (Electrically Erasable Programmable Read-Only Memory). In addition to storing the control program 11P and the voice recognition program 12P, the storage unit 13 stores in advance video content 1D to be displayed on the display device 2.

音声入力部14はマイクロフォンであり、例えば表示制御装置1の筐体12表面に設けられている。マイクロフォンの指向性は、表示装置2前の特定の範囲に人物が立った場合に、当該人物から発せられる音声(発話、又は動作による音)を入力できるようにしてあればよい。なお音声入力部14は、表示装置2の既設のマイクロフォンを利用してもよく、制御部10はこのマイクロフォンから音声信号を接続部11経由で入力すればよい。表示制御装置1の制御部10は、上述した音声認識プログラム12Pに基づき、音声入力部14で入力した音声を認識することができる。具体的には制御部10は、音声認識プログラム12Pに基づき音声入力部14で入力した音声から特定の単語(サービス名、企業名等)を認識する。あるいは制御部10は、音声認識プログラム12Pに基づき音声入力部14で入力した音声から、表示装置2前の人物の特定の動作による音、例えば指スナップ音、拍手音を認識する。なお制御部10は、音声認識プログラム12Pに基づきソフトウェア的に音声認識処理を行なうこととしているが、代替として音声認識用IC(Integrated Circuit)を用いて実現してもよい。   The voice input unit 14 is a microphone, and is provided on the surface of the housing 12 of the display control device 1, for example. The directivity of the microphone may be such that when a person stands in a specific range in front of the display device 2, sound (speech or sound due to action) emitted from the person can be input. Note that the voice input unit 14 may use an existing microphone of the display device 2, and the control unit 10 may input a voice signal from the microphone via the connection unit 11. The control unit 10 of the display control device 1 can recognize the voice input by the voice input unit 14 based on the voice recognition program 12P described above. Specifically, the control unit 10 recognizes a specific word (service name, company name, etc.) from the voice input by the voice input unit 14 based on the voice recognition program 12P. Or the control part 10 recognizes the sound by the specific operation | movement of the person in front of the display apparatus 2, for example, a finger snap sound, a clap sound from the audio | voice input with the audio | voice input part 14 based on the audio | voice recognition program 12P. The control unit 10 performs voice recognition processing by software based on the voice recognition program 12P, but may be realized by using a voice recognition IC (Integrated Circuit) instead.

センサ15は、赤外線の出力部と受光部とを含むセンサである。センサ15は、表示制御装置1の筐体に設けられたセンサ15の受光部の受光範囲内であって所定の距離以内に存在する物体との距離に応じた信号レベルを出力する。受光部は表示制御装置1の筐体とは別途異なる筐体に設けられてもよく、この筐体が表示装置10の縁部付近に取り付けられてもよい。制御部10は、センサ15により出力される信号レベルから物体への距離を検知し、信号パターンから表示装置2前の人物の特定の動作、例えば手をかざす動作を検出することが可能である。なおセンサ15は必須ではなくまた、可視光カメラ等で代替可能である。   The sensor 15 is a sensor including an infrared output unit and a light receiving unit. The sensor 15 outputs a signal level corresponding to the distance to an object that is within a light receiving range of the light receiving unit of the sensor 15 provided in the casing of the display control device 1 and is within a predetermined distance. The light receiving unit may be provided in a case different from the case of the display control device 1, and this case may be attached near the edge of the display device 10. The control unit 10 can detect the distance to the object from the signal level output from the sensor 15, and can detect a specific operation of the person in front of the display device 2, such as an operation of holding a hand, from the signal pattern. The sensor 15 is not essential and can be replaced with a visible light camera or the like.

また音声入力部14及びセンサ15は、別途センサ体として表示制御装置1の筐体12とは異なる部品として設けられてもよい。例えば表示装置2の上縁に設けたセンサ体でこれを実現し、センサ体と制御部10とを無線又は有線により接続して構成してもよい。   In addition, the voice input unit 14 and the sensor 15 may be provided as separate components from the housing 12 of the display control device 1 as a sensor body. For example, this may be realized by a sensor body provided on the upper edge of the display device 2, and the sensor body and the control unit 10 may be connected wirelessly or by wire.

表示装置2は、制御部20、記憶部21、パネル22、駆動部23、入力部24及びスピーカ25を備える。制御部20は、CPU又はマイクロプロセッサを用いて各構成部の動作を制御する。記憶部21は、フラッシュメモリ又はEEPROM(Electrically Erasable Programmable Read-Only Memory )等の不揮発性メモリである。記憶部21には、表示制御装置1における制御プログラム11Pに基づく制御部10の処理に対応する動作を制御部20側で実現するためのプログラムが記憶されている。該プログラムとは、表示制御装置1が接続された場合に、当該表示制御装置1を自動的に認識し、パネル22に表示させる映像を表示制御装置1からの映像信号へ切り替える動作を実現する既存のプログラムである。その他記憶部21には、制御部20が参照するデータが記憶されている。   The display device 2 includes a control unit 20, a storage unit 21, a panel 22, a drive unit 23, an input unit 24, and a speaker 25. The control unit 20 controls the operation of each component using a CPU or a microprocessor. The storage unit 21 is a nonvolatile memory such as a flash memory or an EEPROM (Electrically Erasable Programmable Read-Only Memory). The storage unit 21 stores a program for realizing the operation corresponding to the processing of the control unit 10 based on the control program 11P in the display control device 1 on the control unit 20 side. The program is an existing program for automatically recognizing the display control device 1 when the display control device 1 is connected and switching an image to be displayed on the panel 22 to a video signal from the display control device 1. It is a program. In addition, the storage unit 21 stores data referred to by the control unit 20.

パネル22は、液晶パネル、有機EL(Electroluminescence )等を用いる。駆動部23は、入力する映像信号に基づきパネル22の各素子を駆動し、画像の表示を実現する。入力部24は、HDMI端子である。制御部20は入力部24を介してパネル22に表示させる映像信号を入力すると、これを駆動部23へ与える。スピーカ25は、制御部20により与えられる音声信号に基づき音声を出力する。   The panel 22 uses a liquid crystal panel, an organic EL (Electroluminescence), or the like. The drive unit 23 drives each element of the panel 22 based on the input video signal to realize image display. The input unit 24 is an HDMI terminal. When the control unit 20 inputs a video signal to be displayed on the panel 22 via the input unit 24, the control unit 20 gives this to the drive unit 23. The speaker 25 outputs sound based on the sound signal given by the control unit 20.

図3は、実施の形態1の表示システムで実行される処理手順の一例を示すフローチャートである。表示制御装置1の制御部10は起動するとまず、接続部11により表示装置2と接続しているか否かを判断する(ステップS1)。接続していないと判断された場合(S1:NO)、制御部10は処理をステップS1へ戻し、接続していると判断されるまで待機する。接続していると判断された場合(S1:YES)、制御部10は表示装置2の制御部20と制御信号の送受信のための接続を確立する(ステップS2)。   FIG. 3 is a flowchart illustrating an example of a processing procedure executed in the display system according to the first embodiment. When the control unit 10 of the display control device 1 is activated, it first determines whether or not the connection unit 11 is connected to the display device 2 (step S1). When it is determined that it is not connected (S1: NO), the control unit 10 returns the process to step S1 and waits until it is determined that it is connected. When it is determined that they are connected (S1: YES), the control unit 10 establishes a connection for transmission / reception of control signals with the control unit 20 of the display device 2 (step S2).

ステップS1において制御部10は、パワーオン状態の表示装置2と接続部11により接続されたことを契機に起動し、制御信号の送受信のための接続を確立するようにしてもよい(S2)。なお筐体12にパワースイッチを設け、パワースイッチの押下により表示制御装置1が起動及び休止状態となるようにし、表示制御装置1が接続部11によって表示装置2と接続した状態で起動した場合には、制御信号が表示装置2へ出力されて表示装置2が起動するようにしてある。また、表示制御装置1が接続部11によって表示装置2と接続した状態で休止状態となった場合には、表示装置2も休止状態となる。   In step S1, the control unit 10 may be activated when connected to the display device 2 in the power-on state by the connection unit 11 and establish a connection for transmission and reception of control signals (S2). In addition, when a power switch is provided in the housing 12 so that the display control device 1 is activated and deactivated by pressing the power switch, and the display control device 1 is activated while being connected to the display device 2 by the connection unit 11. The control signal is output to the display device 2 so that the display device 2 is activated. Further, when the display control device 1 is in a dormant state when connected to the display device 2 by the connection unit 11, the display device 2 is also in a dormant state.

次に制御部10は、記憶部13に記憶してあるコンテンツ1Dを読み出し(ステップS3)、読み出したコンテンツ1Dに含まれる映像信号を接続部11から出力する(ステップS4)。ステップS4において制御部10はコンテンツ1Dに含まれる映像信号を順次出力してもよいし、別途記憶部13にスケジュールを記憶しておき、このスケジュールに基づいて映像信号をコンテンツ1Dから選択して出力してもよい。   Next, the control part 10 reads the content 1D memorize | stored in the memory | storage part 13 (step S3), and outputs the video signal contained in the read content 1D from the connection part 11 (step S4). In step S4, the control unit 10 may sequentially output the video signal included in the content 1D, or separately store a schedule in the storage unit 13, and select and output the video signal from the content 1D based on this schedule. May be.

コンテンツ1Dから映像信号を出力中に制御部10は、音声入力部14及び音声認識プログラム12Pに基づいて特定の音若しくは音声を認識したか、又は、センサ15により所定の距離以内の特定の動作を検出したか否かを判断する(ステップS5)。ステップS5で制御部10は、表示装置2前の人物の特定の動作(指スナップ、拍手)による音、特定の動作(手かざし、手振り)そのものを検出したか否かを判断する。   While outputting the video signal from the content 1D, the control unit 10 recognizes a specific sound or voice based on the voice input unit 14 and the voice recognition program 12P, or performs a specific operation within a predetermined distance by the sensor 15. It is determined whether or not it has been detected (step S5). In step S <b> 5, the control unit 10 determines whether a sound by a specific action (finger snapping, applause) of the person in front of the display device 2 or a specific action (hand holding, hand shaking) is detected.

特定の動作を検出したと判断された場合(S5:YES)、制御部10は検出した動作の内容に応じて表示装置2で表示される映像の内容を変更すべく映像信号を出力する(ステップS6)。   If it is determined that a specific operation has been detected (S5: YES), the control unit 10 outputs a video signal to change the content of the video displayed on the display device 2 in accordance with the content of the detected operation (step S6).

ステップS6にて制御部10は例えば、出力中の映像信号に基づく映像の内容に対応する詳細情報の映像を表示させるように映像信号を変更してもよいし、出力中の映像信号に基づく映像に重畳させて文字、他のイラストを表示させてもよい。文字、他のイラストは例えば図1に示すように、吹き出しと、吹き出しの中に表示させる案内文とである。案内文は例えば「行き先はどこですか?」「御用はなんですか?」などの指示を対話で受け付けるための呼びかけ、表示されている広告コンテンツについて「10m先左手の11番の販売店で販売中です」など、個別の詳細情報の説明文であってもよい。表示制御装置1は、接続される表示装置2と1対1で接続される装置であるから、接続される表示装置2の設置場所固有の情報を記憶させておき、その固有の情報に基づく案内を表示させることも容易に可能である。なおステップS6では制御部10は、制御信号を出力して表示装置2に設けられているスピーカ25から案内音声を出力させるように制御させてもよい。   In step S6, for example, the control unit 10 may change the video signal to display a video with detailed information corresponding to the content of the video based on the video signal being output, or the video based on the video signal being output. Characters and other illustrations may be displayed in a superimposed manner. The characters and other illustrations are, for example, a balloon and a guide sentence displayed in the balloon as shown in FIG. For example, the guidance text is a call to accept instructions such as “Where is your destination?” Or “What is your business?”, And the displayed advertising content is being sold at the 11th dealership on the left hand side 10m away. ”Or the like. Since the display control device 1 is connected to the connected display device 2 on a one-to-one basis, information unique to the installation location of the connected display device 2 is stored, and guidance based on the unique information is stored. Can be displayed easily. In step S <b> 6, the control unit 10 may output the control signal so as to output the guidance voice from the speaker 25 provided in the display device 2.

その後制御部10は、音声入力部14及び音声認識プログラム12Pに基づき、特定の人物からの問いかけ音声を受け付けるか、又はセンサ15により特定の動作を受け付けたか否かを判断する(ステップS7)。問いかけ音声又は特定の動作を受け付けたと判断された場合(S7:YES)、制御部10は、受け付けた音声又は動作に対して映像信号を変更するか、スピーカ25から音声を出力させて応答し(ステップS8)、処理をステップS7へ戻して受け付けを継続し、その都度応答する。特定の動作とは例えば手を上下に振るアクションをしたか否かなどでよい。   Thereafter, the control unit 10 determines whether or not an inquiry voice from a specific person is received or a specific operation is received by the sensor 15 based on the voice input unit 14 and the voice recognition program 12P (step S7). When it is determined that the inquiry voice or the specific operation is received (S7: YES), the control unit 10 responds by changing the video signal or outputting the audio from the speaker 25 in response to the received voice or operation ( In step S8), the process returns to step S7 to continue acceptance, and responds each time. The specific action may be, for example, whether or not an action of shaking the hand up and down is performed.

特定の動作を検出しないと判断された場合(S5:NO)、又は、問いかけ音声又は特定の動作を受け付けないと判断したまま所定時間が経過した場合(S7:NO)、制御部10は、接続部11を介した表示装置2との接続が解除されたか否かを判断する(ステップS9)。ステップS9は、接続部11が表示装置2の入力部24から取り外されたか、又は表示装置2と接続されたままであっても表示装置2が休止状態となって確立されていた制御信号を送受信するための接続が切断された場合に、接続が解除されたと判断する。その他制御部10は、自装置のパワースイッチが押下されて休止状態となる場合も接続が解除されたと判断する。   When it is determined that a specific operation is not detected (S5: NO), or when it is determined that the inquiry voice or the specific operation is not accepted (S7: NO), the control unit 10 connects It is determined whether or not the connection with the display device 2 via the unit 11 has been released (step S9). Step S9 transmits / receives a control signal established when the connection unit 11 is removed from the input unit 24 of the display device 2 or remains connected to the display device 2 and the display device 2 is in a dormant state. It is determined that the connection is released when the connection for the connection is disconnected. In addition, the control unit 10 determines that the connection has been released even when the power switch of the own device is pressed to enter a dormant state.

ステップS9にて接続が解除されていないと判断された場合(S9:NO)、制御部10は処理をステップS4へ戻して映像信号の出力を継続する。一方、接続が解除されたと判断された場合(S9:YES)、制御部10は処理を終了し、休止状態となる。   If it is determined in step S9 that the connection has not been released (S9: NO), the control unit 10 returns the process to step S4 and continues outputting the video signal. On the other hand, when it is determined that the connection has been released (S9: YES), the control unit 10 ends the process and enters a dormant state.

このように構成される表示制御装置1を用い、表示対象の表示装置2が持つ入力部24(HDMI端子)に表示制御装置1を取り付けるという簡易な構成で、広告宣伝用のコンテンツを既設の表示装置2に表示させることができる。新たなコンテンツを表示させる場合には、表示制御装置1を取り替えるか、表示制御装置1を取り外して記憶部13に記憶されているコンテンツ1Dの内容を書き換えればよい。   Using the display control device 1 configured as described above, the display control device 1 is attached to the input unit 24 (HDMI terminal) of the display device 2 to be displayed. It can be displayed on the device 2. When displaying new content, the display control device 1 may be replaced, or the display control device 1 may be removed and the content 1D stored in the storage unit 13 may be rewritten.

実施の形態1に示した表示システムにより、コンテンツ配信サーバと接続させること、又は公衆の内のいずれか表示装置2で表示されているコンテンツを注視する人物が所持する携帯端末装置と特定の情報交換等を行なうことなしに簡易な構成で、その特定の人物の動作に応じた表示制御が可能になる。   A specific information exchange with a portable terminal device possessed by a person who watches the content displayed on any of the public display devices 2 by connecting to the content distribution server by the display system shown in the first embodiment It is possible to perform display control according to the operation of the specific person with a simple configuration without performing the above.

(実施の形態2)
図4は、実施の形態2の表示システムの構成を示すブロック図である。実施の形態2では、表示制御装置1は、制御部10、接続部11、記憶部13、音声入力部14、及びセンサ15に加え、通信部16を備え、表示装置2は更にカメラ26を備える。なおカメラ26は、表示制御装置1側に備えられていてもよい。また実施の形態2では、実施の形態2における表示制御装置1の通信部16及び表示装置2のカメラ26以外の構成部は、実施の形態1における構成と同様であるから、共通する構成について同一の符号を付して詳細な説明を省略する。
(Embodiment 2)
FIG. 4 is a block diagram illustrating a configuration of the display system according to the second embodiment. In the second embodiment, the display control device 1 includes a communication unit 16 in addition to the control unit 10, the connection unit 11, the storage unit 13, the voice input unit 14, and the sensor 15, and the display device 2 further includes a camera 26. . The camera 26 may be provided on the display control device 1 side. In the second embodiment, the components other than the communication unit 16 of the display control device 1 and the camera 26 of the display device 2 in the second embodiment are the same as those in the first embodiment. Detailed description will be omitted.

表示制御装置1の通信部16は、無線通信モジュールである。通信部16は、1対1の関係で接続する通信規格に準じたモジュールであることが好ましく、例えばBLE( Bluetooth(登録商標) Low Energy )を用いる。制御部10は、通信部16を介し、表示装置2前の人物が所持する携帯端末装置3と通信接続が可能である。   The communication unit 16 of the display control device 1 is a wireless communication module. The communication unit 16 is preferably a module conforming to a communication standard that is connected in a one-to-one relationship. For example, BLE (Bluetooth (registered trademark) Low Energy) is used. The control unit 10 can communicate with the mobile terminal device 3 possessed by the person in front of the display device 2 via the communication unit 16.

表示装置2のカメラ26は、例えばCCD(Charge Coupled Device )カメラであり、表示装置2前に立つ人物を撮影するように設けられてある。表示装置2の記憶部21には、画像認識プログラム21Pが記憶されている。制御部20は、画像認識プログラム21Pに基づき、カメラ26から出力される映像信号のフレーム画像から、マッチング等によって人物領域を抽出する処理を行ない、抽出した人物領域に対応する人物の特定の動作を検出することが可能である。制御部20は、特定の動作を検出すると表示制御装置1へ通知する。なおカメラ26は表示制御装置1側に備えられてもよい。また表示制御装置1は、カメラ26から映像信号を入力して制御部10にて人物領域抽出処理を行なうようにしてもよい。   The camera 26 of the display device 2 is, for example, a CCD (Charge Coupled Device) camera, and is provided so as to photograph a person standing in front of the display device 2. The storage unit 21 of the display device 2 stores an image recognition program 21P. Based on the image recognition program 21P, the control unit 20 performs a process of extracting a person area by matching or the like from the frame image of the video signal output from the camera 26, and performs a specific operation of the person corresponding to the extracted person area. It is possible to detect. When detecting a specific operation, the control unit 20 notifies the display control device 1. The camera 26 may be provided on the display control device 1 side. In addition, the display control apparatus 1 may input a video signal from the camera 26 and perform a person area extraction process in the control unit 10.

携帯端末装置3は、表示制御装置1に対するユーザインタフェースとして動作する。携帯端末装置3は所謂スマートフォンなどの汎用のコンピュータであり、制御部30、記憶部31、通信部32、表示部33、操作部34及び音声入力部35を備える。制御部30はCPUを用いて各構成部の動作を制御する。記憶部31はフラッシュメモリ等の不揮発性メモリであり、携帯端末装置3が表示制御装置1のユーザインタフェースとして動作するための案内アプリ31Pを記憶している。通信部32は、複数の通信モジュールを含み、その内の1つは表示制御装置1の通信部16に対応する通信規格に準じたモジュール、即ち実施の形態2ではBLEにより表示制御装置1と通信接続が可能である。また表示部33は、液晶パネル又は有機EL等を用い、制御部30は案内アプリ31Pに基づき、表示部33に文字入力画面あるいは音声入力案内画面を表示させる。操作部34は、表示部33のパネル内蔵のタッチパネル、携帯端末装置3の筐体に備えられるボタンであり、制御部30は操作部34を介して英数字を含む文字入力等を受け付ける。音声入力部35はマイクロフォンであり、制御部30は音声入力部35で入力した音声に対して音声認識処理を実行してテキストに変換することで文字入力を受け付けることも可能である。   The mobile terminal device 3 operates as a user interface for the display control device 1. The mobile terminal device 3 is a general-purpose computer such as a so-called smartphone, and includes a control unit 30, a storage unit 31, a communication unit 32, a display unit 33, an operation unit 34, and a voice input unit 35. The controller 30 controls the operation of each component using a CPU. The storage unit 31 is a non-volatile memory such as a flash memory, and stores a guide application 31 </ b> P for the mobile terminal device 3 to operate as a user interface of the display control device 1. The communication unit 32 includes a plurality of communication modules, and one of them communicates with the display control device 1 by BLE according to the communication standard corresponding to the communication unit 16 of the display control device 1, that is, in the second embodiment. Connection is possible. The display unit 33 uses a liquid crystal panel, an organic EL, or the like, and the control unit 30 displays a character input screen or a voice input guidance screen on the display unit 33 based on the guidance application 31P. The operation unit 34 is a touch panel with a built-in panel of the display unit 33 and buttons provided on the housing of the mobile terminal device 3. The control unit 30 receives character input including alphanumeric characters via the operation unit 34. The voice input unit 35 is a microphone, and the control unit 30 can accept a character input by executing a voice recognition process on the voice input by the voice input unit 35 and converting the voice into a text.

図5は、実施の形態2における表示制御装置1による処理手順の一例を示すフローチャートである。なお図5のフローチャートに示す処理手順の内、実施の形態1の図3に示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。   FIG. 5 is a flowchart illustrating an example of a processing procedure performed by the display control device 1 according to the second embodiment. Of the processing procedures shown in the flowchart of FIG. 5, the steps common to the processing procedure shown in FIG. 3 of the first embodiment are denoted by the same step numbers and detailed description thereof is omitted.

実施の形態2では、制御部10はコンテンツ1Dから映像信号を出力中に、案内アプリ31Pを起動している携帯端末装置3と通信部16によって通信可能か否かを判断する(ステップS15)。通信可能でないと判断された場合(S15:NO)、制御部10は処理をステップS5へ進める。   In the second embodiment, the control unit 10 determines whether or not the communication unit 16 can communicate with the mobile terminal device 3 in which the guidance application 31P is activated while outputting a video signal from the content 1D (step S15). When it is determined that communication is not possible (S15: NO), the control unit 10 advances the process to step S5.

通信可能であると判断された場合(S15:YES)、制御部10は、携帯端末装置3へ案内文、文字入力画面、又は音声入力案内を表示させる画面情報を通信部16から送信する(ステップS16)。制御部10は、携帯端末装置3から入力された文字又は音声入力からテキストへ変換された結果である操作情報を受信し(ステップS17)、操作情報に基づく処理を行なって応答を出力し(ステップS18)、処理をステップS15へ戻す。   When it is determined that communication is possible (S15: YES), the control unit 10 transmits screen information for displaying a guidance sentence, a character input screen, or a voice input guide to the mobile terminal device 3 from the communication unit 16 (step S1). S16). The control unit 10 receives operation information that is a result of conversion from text or voice input input from the mobile terminal device 3 to text (step S17), performs processing based on the operation information, and outputs a response (step S17). S18), the process returns to step S15.

通信不可であると判断された場合(S15:NO)、制御部10は処理をステップS5へ進める。なお実施の形態2ではステップS5の特定の動作の検出に、カメラ26からの映像信号に基づくフレーム画像から抽出される人物領域を用いる。制御部10は、表示装置2の制御部20から人物の特定の動作を検出したことによる通知を受けると、特定の動作を検出したと判断する(S5:YES)。   When it is determined that communication is not possible (S15: NO), the control unit 10 advances the process to step S5. In the second embodiment, the person region extracted from the frame image based on the video signal from the camera 26 is used for detecting the specific operation in step S5. Upon receiving notification from the control unit 20 of the display device 2 that a specific action of a person has been detected, the control unit 10 determines that a specific action has been detected (S5: YES).

実施の形態2で示したように、BLE等の1対1での近距離無線通信が可能な無線通信モジュールを備える表示制御装置1を使用することで、音声入力又は特定の動作のみでは困難な入力操作を、表示装置2前に存在する人物が普段使用している携帯端末装置3で実行することが可能である。コンテンツ配信サーバと接続させることなく表示制御装置1を表示装置2に接続するという簡易な構成で、表示装置2の前に存在する特定の人物にとって利便性の高い方法で個別の表示制御を行なうことが可能になる。   As shown in the second embodiment, by using the display control device 1 including a wireless communication module capable of short-range wireless communication in one-to-one such as BLE, it is difficult only by voice input or a specific operation. The input operation can be performed on the mobile terminal device 3 that is normally used by a person existing in front of the display device 2. Individual display control is performed with a simple configuration in which the display control device 1 is connected to the display device 2 without being connected to the content distribution server, in a manner convenient for a specific person existing in front of the display device 2. Is possible.

(実施の形態3)
図6は、実施の形態3の表示システムの構成を示すブロック図である。実施の形態3では、表示装置2が複数(図6では3台)設置されており、各々に表示制御装置1が接続されたときに1つの表示制御装置1がマスタとなって同一の映像コンテンツを同期させて表示させつつ、各々の表示装置2でユーザの動作に応じた表示制御を行なう。なおマスタとなる表示制御装置1とスレーブとなる表示制御装置1とでは、記憶部13に記憶されている制御プログラム11Pがマスタ用とスレーブ用とのいずれであるかで区別される。
(Embodiment 3)
FIG. 6 is a block diagram illustrating a configuration of the display system according to the third embodiment. In the third embodiment, a plurality of display devices 2 (three in FIG. 6) are installed, and when the display control device 1 is connected to each, one display control device 1 becomes the master and the same video content Are displayed in synchronization with each other, and each display device 2 performs display control according to the user's operation. Note that the display control device 1 serving as a master and the display control device 1 serving as a slave are distinguished depending on whether the control program 11P stored in the storage unit 13 is for a master or a slave.

実施の形態3における表示制御装置1の構成は、通信部16を備えている点を除いて実施の形態1における表示制御装置1の構成と同一である。また通信部16は、実施の形態2で示した通り、例えばBLEの規格に準じた通信モジュールである。なおマスタとなる表示制御装置1に対し、スレーブとなる表示制御装置1ではコンテンツ1Dは記憶されていなくともよい。表示装置2は実施の形態1における表示装置2と同一の構成を有する。実施の形態3では、接続構成及び全体的な処理が異なる以外は実施の形態1又は2と同様であるから、共通する構成部については同一の符号を付して各々の詳細な説明を省略する。   The configuration of the display control device 1 in the third embodiment is the same as the configuration of the display control device 1 in the first embodiment except that the communication unit 16 is provided. The communication unit 16 is a communication module that conforms to the BLE standard, for example, as described in the second embodiment. Note that the content control 1D may not be stored in the display control device 1 serving as a slave in contrast to the display control device 1 serving as a master. Display device 2 has the same configuration as display device 2 in the first embodiment. Since the third embodiment is the same as the first or second embodiment except that the connection configuration and the overall processing are different, common components are denoted by the same reference numerals, and detailed descriptions thereof are omitted. .

なお実施の形態3では表示制御装置1の通信部16は例えばBLE等の1対1の通信を行ないつつマルチホップ、メッシュ等と呼ばれる1対多の接続を可能とするモジュールを用いる。制御部10は、通信部16を介し、他の表示制御装置1の通信部16と相互に識別して接続が可能である。   In the third embodiment, the communication unit 16 of the display control device 1 uses a module that enables one-to-many connection called multi-hop, mesh or the like while performing one-to-one communication such as BLE. The control unit 10 can be identified and connected to the communication unit 16 of another display control device 1 via the communication unit 16.

図7は、実施の形態3における表示制御装置1による処理手順の一例を示すフローチャートである。図7のフローチャートに示す処理手順の内、実施の形態1の図3に示した処理手順と共通する手順については同一のステップ番号を付して詳細な説明を省略する。   FIG. 7 is a flowchart illustrating an example of a processing procedure performed by the display control device 1 according to the third embodiment. Among the processing procedures shown in the flowchart of FIG. 7, the steps common to the processing procedure shown in FIG. 3 of the first embodiment are denoted by the same step numbers, and detailed description thereof is omitted.

図7に示す通り、マスタとなる表示制御装置1とスレーブである表示制御装置1とでは、映像信号の出力タイミングを同期させるための出力開始指示を送信するか(ステップS23)、その出力開始指示を受信するか(ステップS24)の処理の違いを除き、同一の処理手順を実行する。   As shown in FIG. 7, the display control apparatus 1 as a master and the display control apparatus 1 as a slave transmit an output start instruction for synchronizing the output timing of the video signal (step S23), or the output start instruction The same processing procedure is executed except for the difference in the processing of whether to receive (step S24).

マスタである表示制御装置1では、コンテンツ1Dを読み出した後(S3)、制御部10は読み出したコンテンツ1Dから映像信号を表示装置2へ出力する前に、通信部16により送受信が可能な他の表示制御装置1の通信部16に向けて出力開始指示を送信する(S23)。出力開始指示は、受信したタイミング(又はそのタイミングから所定時間後)に出力を開始させるものであってもよいし、マルチホップによる出力開始指示の送信遅延を考慮して、各制御部10が内蔵するタイマに基づく開始時刻(タイムスタンプ)を指示するものであってもよい。マスタの表示制御装置1は、出力開始指示を送信後に間もなく、又は指示した開始時刻に、映像信号を表示装置2へ出力する(S4)。その後の処理は、表示制御装置1個別の処理手順になるが、制御部10は、定期的にステップS3又はステップS23へ処理を戻して表示される映像を同期させるとよい。   In the display control device 1 that is the master, after the content 1D is read (S3), the control unit 10 transmits other video signals from the read content 1D to the display device 2 before transmitting / receiving by the communication unit 16 An output start instruction is transmitted to the communication unit 16 of the display control device 1 (S23). The output start instruction may start output at a received timing (or a predetermined time after that timing), and each control unit 10 is built in consideration of a transmission delay of an output start instruction by multi-hop. The start time (time stamp) based on the timer to be used may be indicated. The master display control device 1 outputs the video signal to the display device 2 shortly after transmitting the output start instruction or at the instructed start time (S4). Subsequent processing is an individual processing procedure of the display control device 1, but the control unit 10 may periodically return the processing to step S3 or step S23 to synchronize the displayed video.

スレーブである表示制御装置1では、コンテンツ1Dを読み出した後(S3)、制御部10は読み出したコンテンツ1Dから映像信号を表示装置2へ出力する前に、通信部16から出力開始指示を他の表示制御装置1から受信する(S24)。制御部10は、出力開始指示を受信するまで待機し、出力開始指示を受信してから、受信したタイミングから直ぐに、又は出力開始指示が示す時刻に、読み出してあるコンテンツ1Dの映像信号を表示装置2へ出力する(S4)。スレーブの表示制御装置1でも、その後の処理は個別に表示装置2前の人物の動作に応じた表示制御を行なうが、定期的にステップS3又はステップS24へ処理を戻す。   In the display control device 1 that is a slave, after reading the content 1D (S3), the control unit 10 outputs another output start instruction from the communication unit 16 before outputting the video signal from the read content 1D to the display device 2. Received from the display control device 1 (S24). The control unit 10 waits until an output start instruction is received, and after receiving the output start instruction, immediately after the received timing or at the time indicated by the output start instruction, the read video signal of the content 1D is displayed on the display device. 2 (S4). Even in the slave display control device 1, the subsequent processing individually performs display control in accordance with the operation of the person in front of the display device 2, but the processing is periodically returned to step S3 or step S24.

実施の形態3に示した表示システムの構成により、複数の表示装置2に夫々表示制御装置1を装着させるという簡易な構成で、複数の表示装置2で表示される映像を同期させつつ、個別に表示装置2前に存在する人物の動作に応じた表示内容の変更が可能となる。例えば図1に示した例であれば、建造物の柱の四方四面夫々に表示装置2を1つずつ備え付け、それらに夫々表示制御装置1を接続させる。複数の表示装置2には周辺の地図を示す画像を表示させつつ、定期的に4つの表示装置2で、周辺の施設の宣伝コンセプトを示すための動画像を同期させて表示させる。そしていずれか1つの表示装置2の前に、人物が立って例えばスナップ音を発し場合に、その1つの表示装置2のみは、「行き先はどこですか?」などと表示させている地図に関する情報検索を受け付けることを可能である。このような表示制御を実現するために従来では、大掛かりなシステムが必要となったが、本開示の表示制御装置1を利用することで、容易に実現が可能である。   According to the configuration of the display system shown in the third embodiment, the display control device 1 is attached to each of the plurality of display devices 2, and the images displayed on the plurality of display devices 2 are synchronized individually while being synchronized. The display content can be changed according to the action of the person existing in front of the display device 2. For example, in the example shown in FIG. 1, one display device 2 is provided on each of the four sides of the pillar of the building, and the display control device 1 is connected to each of them. The plurality of display devices 2 display images showing the map of the surroundings, and periodically display the moving images for showing the advertising concept of the surrounding facilities on the four display devices 2. When a person stands in front of any one display device 2 and emits a snap sound, for example, only that one display device 2 displays information about a map that displays “Where is the destination?” Can be accepted. Conventionally, in order to realize such display control, a large-scale system has been required, but can be easily realized by using the display control device 1 of the present disclosure.

なお、上述のように開示された本実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiment disclosed above is illustrative in all respects and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 表示制御装置
10 制御部
11 接続部
12 筐体
13 記憶部
14 音声入力部
15 センサ
16 通信部
11P 制御プログラム
12P 音声認識プログラム
1D コンテンツ
2 表示装置
DESCRIPTION OF SYMBOLS 1 Display control apparatus 10 Control part 11 Connection part 12 Case 13 Storage part 14 Voice input part 15 Sensor 16 Communication part 11P Control program 12P Voice recognition program 1D Content 2 Display apparatus

Claims (4)

接続部を有し、該接続部を介して接続される表示装置における表示を制御する表示制御装置であって、
画像又は動画像を記憶してある記憶部と、
前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力する出力部と、
前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出する検出部と、
該検出部が特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる表示変更部と
を備えることを特徴とする表示制御装置。
A display control device that has a connection unit and controls display in a display device connected via the connection unit,
A storage unit storing images or moving images;
An output unit that outputs an image or a moving image stored in the storage unit to the display device via the connection unit when connected to the display device via the connection unit;
A detection unit that detects a specific sound from a person existing in a range in which an image or a moving image displayed on the display device is visible, or a specific action by the person;
A display control device comprising: a display changing unit that changes a display on the display device as a response to the specific sound or action when the detecting unit detects the specific sound or action.
前記接続部は、表示装置との間で画像又は動画像の信号及び制御用の信号を授受する端子を内蔵するコネクタであり、該コネクタを突出させた外装筐体を備える
ことを特徴とする請求項1に記載の表示制御装置。
The connection unit is a connector with a built-in terminal for transmitting / receiving an image or moving image signal and a control signal to / from a display device, and includes an exterior housing projecting the connector. Item 4. The display control device according to Item 1.
接続部及び記憶部を有するコンピュータが、前記接続部を介して接続される表示装置における表示を制御する表示制御方法であって、
前記コンピュータは、
前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力し、
前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出し、
特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる
処理を実行することを特徴とする表示制御方法。
A computer having a connection unit and a storage unit is a display control method for controlling display in a display device connected via the connection unit,
The computer
When connected to the display device via the connection unit, an image or a moving image stored in the storage unit is output to the display device via the connection unit,
Detecting a specific sound from a person existing in a range in which an image or a moving image displayed on the display device is visible, or a specific action by the person,
A display control method, comprising: executing a process of changing a display on the display device as a response to a specific sound or action when a specific sound or action is detected.
接続部を有するコンピュータに、該接続部を介して接続される表示装置における表示を制御させるコンピュータプログラムであって、
前記コンピュータに、
前記接続部を介して前記表示装置と接続された場合に、前記記憶部に記憶してある画像又は動画像を前記表示装置へ前記接続部を介して出力し、
前記表示装置にて表示される画像又は動画像を視認可能な範囲に存在する人物からの特定の音声、又は該人物による特定の動作を検出し、
特定の音声又は動作を検出した場合に、該特定の音声又は動作への応答として前記表示装置における表示を変更させる
処理を実行させることを特徴とするコンピュータプログラム。
A computer program for causing a computer having a connection unit to control display on a display device connected via the connection unit,
In the computer,
When connected to the display device via the connection unit, an image or a moving image stored in the storage unit is output to the display device via the connection unit,
Detecting a specific sound from a person existing in a range in which an image or a moving image displayed on the display device is visible, or a specific action by the person,
A computer program for executing a process of changing display on the display device as a response to a specific voice or action when a specific voice or action is detected.
JP2017113384A 2017-06-08 2017-06-08 Display controller, display control method and computer program Pending JP2018205628A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113384A JP2018205628A (en) 2017-06-08 2017-06-08 Display controller, display control method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113384A JP2018205628A (en) 2017-06-08 2017-06-08 Display controller, display control method and computer program

Publications (1)

Publication Number Publication Date
JP2018205628A true JP2018205628A (en) 2018-12-27

Family

ID=64957728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113384A Pending JP2018205628A (en) 2017-06-08 2017-06-08 Display controller, display control method and computer program

Country Status (1)

Country Link
JP (1) JP2018205628A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090305A1 (en) 2018-10-31 2020-05-07 日本精工株式会社 Cylindrical roller bearing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090305A1 (en) 2018-10-31 2020-05-07 日本精工株式会社 Cylindrical roller bearing

Similar Documents

Publication Publication Date Title
US20210081749A1 (en) Artificial intelligence assisted wearable
EP3674881A1 (en) Electronic device and screen sharing method using same
US20160364788A1 (en) User equipment for recognizing object and displaying database matching result, control method thereof and non-transitory computer readable storage medium having computer program recorded thereon
CN105700803B (en) Information output control device
US9607094B2 (en) Information communication method and information communication apparatus
KR101760898B1 (en) Context awareness based interactive guidance system and control method thereof
US20160373165A1 (en) Method for communication between electronic devices through interaction of users with objects
KR102651524B1 (en) Electronic Device and the Method for Displaying Payment Information thereof
CN111611812A (en) Translating into braille
EP3553734B1 (en) Collection system, program for terminal, and collection method
JP2023182745A (en) Route guidance system and mobile information terminal used therein
JP4964833B2 (en) Information presentation control apparatus and information presentation control method
JP2018205628A (en) Display controller, display control method and computer program
TW201501030A (en) System and method for obtaining information displaying on an digital signage
JP2017211851A (en) Content distribution system, content distribution apparatus, content distribution method, and program
US9342318B2 (en) Communication device to be used as a digital sign and a method of configuring the communication device to be used as a digital sign
KR102142455B1 (en) Method for managing getting on/off the vehicle and device embodying the method
CN117056544A (en) Dial recommending method, electronic equipment and readable storage medium
KR20190128516A (en) Electronic device and operating method for the same
KR101337041B1 (en) Control system for KIOSK
US20170031586A1 (en) Terminal device, system, method of information presentation, and program
KR20180031105A (en) The system of the advertisement serving in the portable device
KR20210076573A (en) Method for providing tag and electronic device for supporting the same
JP2018092659A (en) Display device and display device control method
KR20130113170A (en) Guide information providing system