[go: up one dir, main page]

JP2017173497A - Display system, display device, terminal device, and display system control method - Google Patents

Display system, display device, terminal device, and display system control method Download PDF

Info

Publication number
JP2017173497A
JP2017173497A JP2016058249A JP2016058249A JP2017173497A JP 2017173497 A JP2017173497 A JP 2017173497A JP 2016058249 A JP2016058249 A JP 2016058249A JP 2016058249 A JP2016058249 A JP 2016058249A JP 2017173497 A JP2017173497 A JP 2017173497A
Authority
JP
Japan
Prior art keywords
unit
image
data
input
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016058249A
Other languages
Japanese (ja)
Inventor
俊樹 藤森
Toshiki Fujimori
俊樹 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016058249A priority Critical patent/JP2017173497A/en
Publication of JP2017173497A publication Critical patent/JP2017173497A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Digital Computer Display Output (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

【課題】接続態様によらずに端末装置及び表示装置を連動して動作させることを目的とする。【解決手段】出力インターフェース部106を有する端末装置100と、入力インターフェース部251を有するプロジェクター200とを備え、出力インターフェース部106と入力インターフェース部251とが接続され、端末装置100は、予め設定された音声パターンの音声データを出力インターフェース部106に出力し、プロジェクター200は、入力インターフェース部251から入力される音声データの音声パターンが予め設定された音声パターンに該当する場合に、音声パターンに対応した動作を実行することを特徴とする表示システム1。【選択図】図3An object of the present invention is to operate a terminal device and a display device in conjunction with each other regardless of the connection mode. A terminal device (100) having an output interface (106) and a projector (200) having an input interface (251) are provided, the output interface (106) and the input interface (251) are connected, and the terminal device (100) has a preset The audio data of the audio pattern is output to the output interface unit 106, and when the audio pattern of the audio data input from the input interface unit 251 corresponds to a preset audio pattern, the projector 200 performs an operation corresponding to the audio pattern. A display system 1 characterized by executing [Selection drawing] Fig. 3

Description

本発明は、表示システム、表示装置、端末装置、及び、表示システムの制御方法に関する。   The present invention relates to a display system, a display device, a terminal device, and a display system control method.

従来、端末装置と表示装置とを接続して、端末装置から送信される画像等の情報を表示装置により表示する表示システムが知られている。このシステムにおいて、表示装置が表示した画像に対する操作を検出して、検出した操作に対応した画像を描画する技術が知られている(例えば、特許文献1参照)。
特許文献1の双方向表示方法は、外部機器から入力される表示信号に基づく画像を画面に表示し、画面に対する操作を検出して操作に対応したオブジェクトを、表示信号に基づく画像に合成して表示する。また、双方向表示方法は、外部機器に対する操作、及びオブジェクトに対する操作である連動操作を検出し、検出した連動操作に対応した機器操作信号を生成して外部機器に出力し、機器操作信号に応じた画像の変化に対応するようにオブジェクトを編集する。
2. Description of the Related Art Conventionally, a display system that connects a terminal device and a display device and displays information such as an image transmitted from the terminal device on the display device is known. In this system, a technique for detecting an operation on an image displayed by a display device and drawing an image corresponding to the detected operation is known (for example, see Patent Document 1).
The bidirectional display method of Patent Document 1 displays an image based on a display signal input from an external device on a screen, detects an operation on the screen, and combines an object corresponding to the operation with an image based on the display signal. indicate. In addition, the bidirectional display method detects an operation on an external device and an interlock operation that is an operation on an object, generates a device operation signal corresponding to the detected interlock operation, outputs it to the external device, and responds to the device operation signal. Edit the object to accommodate changes in the image.

特開2015−197586号公報Japanese Patent Laying-Open No. 2015-197586

しかしながら、端末装置と表示装置とを制御データの送受信ができないような態様で接続した場合、端末装置と表示装置との動作を連動させることが難しい場合があった。
本発明は、上記事情に鑑みてなされたものであり、接続態様によらずに端末装置及び表示装置を連動して動作させることを目的とする。
However, when the terminal device and the display device are connected in such a manner that control data cannot be transmitted and received, it may be difficult to link the operations of the terminal device and the display device.
The present invention has been made in view of the above circumstances, and an object thereof is to operate a terminal device and a display device in conjunction with each other regardless of a connection mode.

上記目的を達成するために本発明の表示システムは、端末装置と、表示装置とを備える表示システムであって、前記端末装置は、画像データ及び音声データを出力する出力部と、所定の音声パターンの前記音声データを前記出力部から出力させる第1の制御部と、を備え、前記表示装置は、前記出力部から出力された前記画像データ及び前記音声データが入力される入力部と、前記所定の音声パターンと、所定の動作との対応関係を記憶する記憶部と、前記入力部に入力される前記音声データが前記所定の音声パターンに該当する場合に、前記所定の動作を実行する第2の制御部と、を備える表示システム。
本発明によれば、端末装置が所定の音声パターンの音声データを表示装置に送信することで、表示装置に、所定の音声パターンに対応して設定された所定の動作を実行させることができる。従って、接続態様によらずに端末装置及び表示装置を連動して動作させることができる。
In order to achieve the above object, a display system of the present invention is a display system including a terminal device and a display device, the terminal device including an output unit that outputs image data and audio data, and a predetermined audio pattern. A first control unit that outputs the audio data from the output unit, and the display device includes an input unit to which the image data and the audio data output from the output unit are input, and the predetermined unit A storage unit that stores a correspondence relationship between the voice pattern and a predetermined operation; and a second unit that executes the predetermined operation when the voice data input to the input unit corresponds to the predetermined voice pattern. A display system.
According to the present invention, the terminal device transmits the audio data of the predetermined audio pattern to the display device, so that the display device can execute the predetermined operation set corresponding to the predetermined audio pattern. Therefore, the terminal device and the display device can be operated in conjunction regardless of the connection mode.

また、本発明は、上記表示システムにおいて、前記出力部は、前記画像データ及び前記音声データを出力する出力インターフェースを備え、前記入力部は、前記画像データ及び前記音声データを入力する入力インターフェースを備えることを特徴とする。
本発明によれば、画像データ及び音声データを1つのインターフェースで端末装置から表示装置に送信することができる。
In the display system according to the present invention, the output unit includes an output interface that outputs the image data and the audio data, and the input unit includes an input interface that inputs the image data and the audio data. It is characterized by that.
According to the present invention, image data and audio data can be transmitted from a terminal device to a display device through a single interface.

また、本発明は、上記表記システムにおいて、前記出力部は、前記画像データを出力するインターフェースと、前記音声データを出力するインターフェースとを含む出力インターフェースを備え、前記入力部は、前記画像データを入力するインターフェースと、前記音声データを入力するインターフェースとを含む入力インターフェースを備えることを特徴とする。
本発明によれば、画像データと、音声データとをそれぞれ別々のインターフェースにより端末装置から表示装置に送信することができる。
In the above notation system, the output unit includes an output interface including an interface for outputting the image data and an interface for outputting the audio data, and the input unit inputs the image data. And an input interface including an interface for inputting the audio data.
According to the present invention, image data and audio data can be transmitted from a terminal device to a display device through separate interfaces.

また、本発明は、上記表示システムにおいて、前記第1の制御部は、前記出力インターフェースから出力する前記画像データが予め設定された変化をする場合に、前記所定の音声パターンの前記音声データを前記出力インターフェースから出力することを特徴とする。
本発明によれば、端末装置において、出力インターフェースから出力される画像データの変化を検出して、所定の音声パターンの音声データを出力することができる。従って、表示装置に、画像データの変化に対応して、所定の動作を行わせることができる。
In the display system according to the present invention, when the image data output from the output interface changes in advance, the first control unit converts the audio data of the predetermined audio pattern into the audio data. Output from the output interface.
According to the present invention, the terminal device can detect the change of the image data output from the output interface and output the audio data of the predetermined audio pattern. Accordingly, it is possible to cause the display device to perform a predetermined operation in response to a change in image data.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、指示体の操作を検出する検出部と、前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記表示部における前記第2の画像の表示を消去することを特徴とする。
本発明によれば、端末装置から表示装置に送信される所定の音声パターンの音声データにより、表示部に表示される第2の画像を消去させることができる。
In the display system according to the present invention, the display device includes a display unit that displays a first image based on the image data input to the input interface, a detection unit that detects an operation of a pointer, A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit, wherein the drawing unit receives the audio data input to the input interface The display of the second image on the display unit is erased when the sound pattern is true.
According to the present invention, the second image displayed on the display unit can be erased by the sound data of the predetermined sound pattern transmitted from the terminal device to the display device.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、指示体の操作を検出する検出部と、前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、画像データを記憶する記憶部と、を備え、前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記表示部に表示した前記第1の画像及び前記第2の画像の少なくとも一方の画像データを前記記憶部に記憶させることを特徴とする。
本発明によれば、端末装置から表示装置に送信される所定の音声パターンの音声データにより、第1の画像及び第2の画像の少なくとも一方を記憶部に記憶させることができる。
In the display system according to the present invention, the display device includes a display unit that displays a first image based on the image data input to the input interface, a detection unit that detects an operation of a pointer, A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit; and a storage unit that stores image data. The drawing unit is connected to the input interface. Storing the at least one image data of the first image and the second image displayed on the display unit in the storage unit when the input audio data corresponds to the predetermined audio pattern; Features.
According to the present invention, at least one of the first image and the second image can be stored in the storage unit based on audio data of a predetermined audio pattern transmitted from the terminal device to the display device.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、指示体の操作を検出する検出部と、前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記第2の画像を前記表示部に表示させない状態に移行することを特徴とする。
本発明によれば、端末装置から表示装置に送信される所定の音声パターンの音声データにより、指示体の操作に対応した第2の画像を表示部に表示させないようにすることができる。
In the display system according to the present invention, the display device includes a display unit that displays a first image based on the image data input to the input interface, a detection unit that detects an operation of a pointer, A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit, wherein the drawing unit receives the audio data input to the input interface When the sound pattern corresponds to the above, the second image is shifted to a state where it is not displayed on the display unit.
According to the present invention, the second image corresponding to the operation of the indicator can be prevented from being displayed on the display unit by the sound data of the predetermined sound pattern transmitted from the terminal device to the display device.

また、本発明は、上記表示システムにおいて、前記第1の制御部は、前記画像データの出力を開始してから、予め設定された時間が経過した場合に、前記所定の音声パターンの前記音声データを前記出力インターフェースから出力することを特徴とする。
本発明によれば、画像データを出力してから設定時間が経過した場合に、所定の音声パターンの音声データが出力される。従って、画像データに基づく画像が表示部に表示されてから設定時間が経過した場合に、指示体の操作に対応した第2の画像が表示部に表示されないようにすることができる。
In the display system according to the aspect of the invention, the first control unit may output the audio data of the predetermined audio pattern when a preset time has elapsed since the output of the image data was started. Is output from the output interface.
According to the present invention, audio data having a predetermined audio pattern is output when a set time has elapsed since image data was output. Therefore, when the set time has elapsed since the image based on the image data is displayed on the display unit, the second image corresponding to the operation of the indicator can be prevented from being displayed on the display unit.

また、本発明は、上記表示システムにおいて、前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、指示体の操作を検出する検出部と、前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、予め設定された時間、前記第2の画像を前記表示部に表示させ、前記時間の経過後に、前記第2の画像を前記表示部に表示させない状態に移行することを特徴とする。
本発明によれば、端末装置から表示装置に送信される所定の音声パターンの音声データにより、予め設定された設定時間の間、指示体の操作に対応した第2の画像が表示部に表示され、予め設定された設定時間を経過すると、指示体の操作に対応した第2の画像が表示されないようにすることができる。
In the display system according to the present invention, the display device includes a display unit that displays a first image based on the image data input to the input interface, a detection unit that detects an operation of a pointer, A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit, wherein the drawing unit receives the audio data input to the input interface When the sound pattern falls under the above pattern, the second image is displayed on the display unit for a preset time, and after the time has elapsed, the second image is not displayed on the display unit. It is characterized by that.
According to the present invention, the second image corresponding to the operation of the indicator is displayed on the display unit for a preset time by the sound data of the predetermined sound pattern transmitted from the terminal device to the display device. When the preset time has elapsed, the second image corresponding to the operation of the indicator can be prevented from being displayed.

本発明の表示装置は、画像データ及び音声データを入力する入力インターフェース、又は画像データを入力するインターフェース及び音声データを入力するインターフェースを含む入力インターフェースを備え、前記入力インターフェースに入力される所定の音声データの前記音声パターンと、前記所定の音声パターンの前記音声データが前記入力インターフェースに入力された場合に実行する動作とが設定され、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記所定の音声パターンに対応して設定された前記動作を実行することを特徴とする。
本発明によれば、表示装置に、所定の音声パターンの音声データに対応して設定された動作を実行させることができる。
The display device of the present invention includes an input interface for inputting image data and audio data, or an input interface including an interface for inputting image data and an interface for inputting audio data, and predetermined audio data input to the input interface. And the operation to be executed when the audio data of the predetermined audio pattern is input to the input interface, and the audio data input to the input interface is changed to the predetermined audio pattern. If applicable, the operation set in correspondence with the predetermined voice pattern is executed.
According to the present invention, it is possible to cause the display device to execute an operation set corresponding to audio data of a predetermined audio pattern.

本発明の端末装置は、画像データ及び音声データを出力する出力インターフェース、又は画像データを出力するインターフェース及び音声データを出力するインターフェースを含む出力インターフェースと、前記出力インターフェースから出力する前記画像データの変化を検出して、所定の音声パターンの前記音声データを前記出力インターフェースから出力する第1の制御部とを備えることを特徴とする。
本発明によれば、出力インターフェースに出力される画像データの変化を検出して、所定の音声パターンの音声データを出力インターフェースに出力することができる。
The terminal device according to the present invention includes an output interface that outputs image data and audio data, or an output interface that includes an interface that outputs image data and an interface that outputs audio data, and changes in the image data output from the output interface. And a first control unit that detects and outputs the audio data of a predetermined audio pattern from the output interface.
According to the present invention, it is possible to detect a change in image data output to the output interface and output audio data of a predetermined audio pattern to the output interface.

本発明の表示システムの制御方法は、端末装置と、前記端末装置に接続される表示装置とを有する表示システムの制御方法であって、前記端末装置により、画像データ及び音声データを出力する出力部から、所定の音声パターンの前記音声データを出力し、前記表示装置により、前記端末装置の前記出力部に接続される入力部に入力される前記音声データが、前記所定の音声パターンに該当する場合に、前記所定の音声パターンに対応して設定された所定の動作を実行することを特徴とする。
本発明によれば、端末装置が所定の音声パターンを表示装置に送信することで、表示装置に、音声パターンに対応した動作を実行させることができる。従って、接続態様によらずに端末装置及び表示装置を連動して動作させることができる。
The display system control method of the present invention is a display system control method including a terminal device and a display device connected to the terminal device, and an output unit that outputs image data and audio data by the terminal device. The audio data of a predetermined audio pattern is output, and the audio data input to the input unit connected to the output unit of the terminal device by the display device corresponds to the predetermined audio pattern In addition, a predetermined operation set corresponding to the predetermined voice pattern is executed.
According to the present invention, when the terminal device transmits a predetermined sound pattern to the display device, it is possible to cause the display device to perform an operation corresponding to the sound pattern. Therefore, the terminal device and the display device can be operated in conjunction regardless of the connection mode.

システム構成を示す図。The figure which shows a system structure. 端末装置の構成図。The block diagram of a terminal device. プロジェクターの構成図。The block diagram of a projector. 端末装置の動作を示すフローチャート。The flowchart which shows operation | movement of a terminal device. プロジェクターの動作を示すフローチャート。The flowchart which shows operation | movement of a projector.

以下、添付図面を参照して本発明の実施形態について説明する。
図1は、本実施形態の表示システム1のシステム構成を示す図である。
表示システム1は、端末装置100と、プロジェクター200とを備える。端末装置100とプロジェクター200とは、画像データの送受信が可能なケーブル30により接続される。プロジェクター200は、端末装置100から供給される画像データに基づく画像を投射対象に投射する。プロジェクター200は、本発明の「表示装置」に相当する。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
FIG. 1 is a diagram showing a system configuration of a display system 1 according to the present embodiment.
The display system 1 includes a terminal device 100 and a projector 200. The terminal device 100 and the projector 200 are connected by a cable 30 that can transmit and receive image data. The projector 200 projects an image based on the image data supplied from the terminal device 100 onto a projection target. The projector 200 corresponds to the “display device” of the present invention.

端末装置100は、例えばノート型PC(Personal Computer)などのパーソナルコンピューターであるが、デスクトップ型PCやタブレット端末、スマートフォン、PDA(Personal Digital Assistant)、電子書籍端末であってもよい。また、端末装置100として、ビデオ再生装置、DVD(Digital Versatile Disk)プレーヤー、ブルーレイディスクプレーヤー、テレビチューナー装置、CATV(Cable television)のセットトップボックス、ビデオゲーム機等の映像出力装置を用いることも可能である。   The terminal device 100 is a personal computer such as a notebook PC (Personal Computer), but may be a desktop PC, a tablet terminal, a smartphone, a PDA (Personal Digital Assistant), or an electronic book terminal. The terminal device 100 may be a video output device such as a video playback device, a DVD (Digital Versatile Disk) player, a Blu-ray disc player, a TV tuner device, a CATV (Cable television) set-top box, or a video game machine. It is.

端末装置100がプロジェクター200に供給する画像データには、例えば、映像等の動画や、写真等の静止画のデータ、ワープロソフトや表計算ソフトにより作成した文書ファイル、プレゼンテーションソフトウェアにより作成したスライド画像等のデータが含まれる。   Examples of the image data that the terminal device 100 supplies to the projector 200 include, for example, moving images such as videos, still image data such as photographs, document files created using word processing software or spreadsheet software, slide images created using presentation software, and the like. Data is included.

プロジェクター200は、端末装置100から供給される画像データに基づく画像を投射対象に投射する。本実施形態は、投射対象がスクリーンSCである場合を例示するが、投射対象は、建物の内壁等の平らな面を有するものであればよい。また、投射対象は、建物の外壁や、物体等の一様に平らではない物体であってもよい。
プロジェクター200は、投射対象としてのスクリーンSCの上方に設置され、下方に配置されたスクリーンSCに向けて画像を投射する。
The projector 200 projects an image based on the image data supplied from the terminal device 100 onto a projection target. This embodiment illustrates the case where the projection target is the screen SC, but the projection target may be any one having a flat surface such as the inner wall of a building. The projection target may be an outer wall of a building or an object that is not uniformly flat, such as an object.
The projector 200 is installed above the screen SC as a projection target, and projects an image toward the screen SC disposed below.

また、プロジェクター200は、端末装置100から供給される画像データに基づく画像の他に、ユーザーが種々の操作を指定可能なメニュー画面50を投射して、ユーザーによるメニュー画面50の操作を検出する。メニュー画面50に対する操作には、指示体70が用いられる。本実施形態では、指示体70が電子ペンである場合について説明するが、指示体70は、ユーザーの指であってもよい。
なお、プロジェクター200が、指示体70のスクリーンSCに対する操作を検出する方法については後述する。
In addition to the image based on the image data supplied from the terminal device 100, the projector 200 projects a menu screen 50 on which the user can specify various operations, and detects the operation of the menu screen 50 by the user. An indicator 70 is used for operations on the menu screen 50. In this embodiment, the case where the indicator 70 is an electronic pen will be described. However, the indicator 70 may be a user's finger.
A method in which the projector 200 detects an operation of the indicator 70 on the screen SC will be described later.

図2は、端末装置100の構成図である。端末装置100は、記憶部101、制御部102、ドライブ装置103、表示部104、操作部105、出力インターフェース部106を備える。出力インターフェース部106は、本発明の「出力部」に相当する。   FIG. 2 is a configuration diagram of the terminal device 100. The terminal device 100 includes a storage unit 101, a control unit 102, a drive device 103, a display unit 104, an operation unit 105, and an output interface unit 106. The output interface unit 106 corresponds to the “output unit” of the present invention.

記憶部101は、例えば、ハードディスク装置等の補助記憶装置である。記憶部101は、大容量の情報の記憶が可能なフラッシュメモリー又はCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)等の光ディスクで代替されてもよい。記憶部101は、制御部102が実行するアプリケーションプログラムや各種データを記憶する。
また、記憶部101は、予め設定された音声パターンの音声データ1011を記憶する。音声データ1011の音声パターンは、例えば、1の音又は連続する複数の音で構成され、音の高さ(周波数)、音量、及び/又はこれらの変化、それぞれの音の長さ等を規定するパターンである。音声パターンは、特定の変化をする音声パターンだけでなく、複数の音声パターンを含むように幅を有する値で構成されてもよい。
音声データ1011には、例えば、指示体70を用いてスクリーンSCに描画された描画データを消去させる音声パターン(以下、第1の音声パターンという)の音声データや、スクリーンSCに描画された描画データ及び画像データをプロジェクター200に記憶させる音声パターン(以下、第2の音声パターンという)の音声データ等を記憶する。描画データの詳細については後述する。描画データによって表される画像が、本発明の「第2の画像」に相当する。
また、記憶部101は、対応表1012を記憶する。対応表1012には、操作部105で受け付ける操作と、当該操作を受け付けた場合にプロジェクター200に出力する音声データの音声パターンとが対応付けて登録されている。
また、端末装置100により受け付けた1の操作により、プロジェクター200に複数の動作を実行させる場合、対応表1012に、1の操作に対応付けて複数の音声パターンを登録してもよい。
The storage unit 101 is an auxiliary storage device such as a hard disk device, for example. The storage unit 101 may be replaced with a flash memory capable of storing a large amount of information or an optical disc such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a BD (Blu-ray (registered trademark) Disc). . The storage unit 101 stores application programs executed by the control unit 102 and various data.
The storage unit 101 stores audio data 1011 having a preset audio pattern. The sound pattern of the sound data 1011 is composed of, for example, one sound or a plurality of continuous sounds, and specifies the sound pitch (frequency), volume, and / or changes thereof, the length of each sound, and the like. It is a pattern. The voice pattern may be configured with a value having a width so as to include a plurality of voice patterns as well as a voice pattern having a specific change.
The audio data 1011 includes, for example, audio data of an audio pattern (hereinafter referred to as a first audio pattern) that erases drawing data drawn on the screen SC using the indicator 70, and drawing data drawn on the screen SC. And audio data of an audio pattern (hereinafter referred to as a second audio pattern) that causes the projector 200 to store the image data. Details of the drawing data will be described later. The image represented by the drawing data corresponds to the “second image” of the present invention.
In addition, the storage unit 101 stores a correspondence table 1012. In the correspondence table 1012, an operation received by the operation unit 105 and an audio pattern of audio data output to the projector 200 when the operation is received are registered in association with each other.
Further, when the projector 200 executes a plurality of operations by one operation received by the terminal device 100, a plurality of sound patterns may be registered in the correspondence table 1012 in association with the one operation.

制御部102は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。制御部102のCPUは、ROMの記憶するファームウェアや記憶部101に記憶されたアプリケーションプログラムをRAMに読み出し実行する。   The control unit 102 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The CPU of the control unit 102 reads the firmware stored in the ROM or the application program stored in the storage unit 101 into the RAM and executes it.

制御部102は、アプリケーションプログラムを実行して、実行したアプリケーションプログラムに対応した画像を表示部104に表示させる。
例えば、制御部102は、アプリケーションプログラムとしてワープロソフトや表計算ソフト、プレゼンテーションソフトを実行し、文書や表のファイルや、スライド画像を表示部104に表示させる。また、制御部102が表示部104に表示させる画像には、ドライブ装置103がCD、DVD、BD等の光ディスクから読み取った画像データやファイル、記憶部101に予め記憶された画像データやファイル等が含まれる。
また、制御部102は、表示部104に表示させた画像に対応する画像データをプロジェクター200に送信するモードが設定されると、表示部104に表示させた画像に対応する画像データを出力インターフェース部106に出力する。
The control unit 102 executes the application program and causes the display unit 104 to display an image corresponding to the executed application program.
For example, the control unit 102 executes word processing software, spreadsheet software, and presentation software as application programs, and causes the display unit 104 to display a document, a table file, and a slide image. The image displayed on the display unit 104 by the control unit 102 includes image data and files read by the drive device 103 from an optical disk such as a CD, DVD, and BD, and image data and files stored in the storage unit 101 in advance. included.
Further, when a mode for transmitting image data corresponding to the image displayed on the display unit 104 to the projector 200 is set, the control unit 102 outputs image data corresponding to the image displayed on the display unit 104 to the output interface unit. It outputs to 106.

また、制御部102は、操作部105の操作を検出して、表示部104の表示態様の変化を検出し、予め設定された音声パターンの音声データを出力インターフェース部106によりプロジェクター200に送信する。
制御部102は、例えば、アプリケーションプログラムとして、ワープロソフトや表計算ソフト、プレゼンテーションソフトを実行する場合に、操作部105の入力を監視し、表示部104に表示されたファイルのページや、シートを切り替える操作を検出する。制御部102は、表示部104に表示されたファイルのページや、シートの切り替え操作を検出すると、対応表1012を参照して、検出した操作に対応した音声パターンの音声データを取得する。例えば、制御部102は、指示体70を用いてスクリーンSCに描画された描画データを消去させる音声パターンの音声データを取得する。制御部102は、取得した音声データを出力インターフェース部106に出力する。
また、制御部102は、ドライブ装置103が光ディスクから読み取る画像データや、記憶部101に予め記憶された画像データの終了を検出した場合に、予め設定された音声パターンの音声データを出力インターフェース部106に出力してもよい。
また、制御部102は、表示部104に表示される画像の変化を検出して、表示部104の表示態様の変化を検出してもよい。例えば、表示部104に表示される画像が所定時間ごとに切り替えられるスライド画像である場合に、制御部102が画像の変化を検出して、予め設定された音声パターンの音声データを出力インターフェース部106に出力してもよい。
Further, the control unit 102 detects an operation of the operation unit 105, detects a change in the display mode of the display unit 104, and transmits audio data of a preset audio pattern to the projector 200 through the output interface unit 106.
For example, when executing word processing software, spreadsheet software, or presentation software as an application program, the control unit 102 monitors the input of the operation unit 105 and switches the page or sheet of the file displayed on the display unit 104. Detect operations. When the control unit 102 detects a switching operation of the page or sheet of the file displayed on the display unit 104, the control unit 102 refers to the correspondence table 1012 and acquires audio data of an audio pattern corresponding to the detected operation. For example, the control unit 102 acquires audio data of an audio pattern that deletes the drawing data drawn on the screen SC using the indicator 70. The control unit 102 outputs the acquired audio data to the output interface unit 106.
In addition, when the control unit 102 detects image data read from the optical disk by the drive device 103 or the end of the image data stored in advance in the storage unit 101, the output unit 106 outputs audio data of a preset audio pattern. May be output.
Further, the control unit 102 may detect a change in the display mode of the display unit 104 by detecting a change in the image displayed on the display unit 104. For example, when the image displayed on the display unit 104 is a slide image that is switched every predetermined time, the control unit 102 detects a change in the image, and outputs the audio data of a preset audio pattern to the output interface unit 106. May be output.

ドライブ装置103は、外部の記憶媒体であるCD、DVD、BD等の光ディスクから情報を読み出す。また、ドライブ装置103は、制御部102の制御により光ディスクに情報を記録する。   The drive device 103 reads information from an optical disk such as a CD, DVD, or BD that is an external storage medium. The drive device 103 records information on the optical disc under the control of the control unit 102.

表示部104は、画像を表示する表示面を備える表示装置である。表示部104は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)等の表示面を有し、制御部102からの指示に従って、各種情報を表示面に表示する。   The display unit 104 is a display device that includes a display surface that displays an image. The display unit 104 has a display surface such as a liquid crystal display, an organic EL (Electro Luminescence) display, or a CRT (Cathode Ray Tube), and displays various types of information on the display surface in accordance with instructions from the control unit 102.

操作部105は、ユーザーからの操作を受け付けるキーボード、マウス、タッチパネル等の入力デバイスである。操作部105は、受け付けた操作に対応した操作信号を生成し、制御部102に出力する。   The operation unit 105 is an input device such as a keyboard, a mouse, or a touch panel that receives an operation from the user. The operation unit 105 generates an operation signal corresponding to the received operation and outputs the operation signal to the control unit 102.

出力インターフェース部106は、ケーブル30を接続するコネクターや、インターフェース回路を備え、画像データ及び音声データをパケットデータに変換してケーブル30に出力する。
端末装置100が備える画像データ及び音声データの送信が可能なインターフェースとして、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)や、DisplayPortが挙げられる。また、端末装置100が、タブレット端末やスマートフォンである場合、インターフェースとしてMHL(Mobile High-definition Link)を備える構成であってもよい。
The output interface unit 106 includes a connector for connecting the cable 30 and an interface circuit, converts image data and audio data into packet data, and outputs the packet data to the cable 30.
As an interface with which the terminal device 100 can transmit image data and audio data, for example, HDMI (registered trademark) (High-Definition Multimedia Interface) and DisplayPort are cited. Moreover, when the terminal device 100 is a tablet terminal or a smartphone, a configuration including an MHL (Mobile High-definition Link) as an interface may be used.

また、出力インターフェース部106は、画像データを出力するインターフェースと、音声データを出力するインターフェースとをそれぞれ別々に備える構成とすることもできる。例えば、端末装置100は、画像データの送信用のコネクターとしてD−Subコネクター等のVGA端子やDVI(Digital Visual Interface)端子を備える構成とすることができる。また、端末装置100は、音声データの送信用のコネクターとして、コンポジット端子を備える構成とすることができる。   In addition, the output interface unit 106 may be configured to include an interface that outputs image data and an interface that outputs audio data. For example, the terminal device 100 can be configured to include a VGA terminal such as a D-Sub connector or a DVI (Digital Visual Interface) terminal as a connector for transmitting image data. Further, the terminal device 100 can be configured to include a composite terminal as a connector for transmitting audio data.

本実施形態は、端末装置100とプロジェクター200とをケーブル30により接続した構成を示すが、無線により接続する構成であってもよい。この場合のインターフェースとして、例えば、Miracast(登録商標)や、WirelessHD(登録商標)、Widi(Wireless Display)、AirPlay(登録商標)、WHDI(Wireless Home Digital Interface)等を用いることができる。   Although the present embodiment shows a configuration in which the terminal device 100 and the projector 200 are connected by the cable 30, a configuration in which the terminal device 100 and the projector 200 are connected wirelessly may be used. As the interface in this case, for example, Miracast (registered trademark), WirelessHD (registered trademark), Widi (Wireless Display), AirPlay (registered trademark), WHDI (Wireless Home Digital Interface), or the like can be used.

図3は、プロジェクター200の構成図である。
プロジェクター200は、入力インターフェース部251を備える。入力インターフェース部251は、本発明の「入力部」に相当する。
入力インターフェース部251は、ケーブル30を接続するコネクターや、インターフェース回路を備え、画像データ及び音声データを入力する。プロジェクター200が備える画像データ及び音声データの受信が可能なインターフェースとして、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)や、DisplayPortが挙げられる。また、端末装置100が、タブレット端末やスマートフォンである場合、インターフェースとしてMHL(Mobile High-definition Link)を備える構成であってもよい。
FIG. 3 is a configuration diagram of the projector 200.
The projector 200 includes an input interface unit 251. The input interface unit 251 corresponds to the “input unit” of the present invention.
The input interface unit 251 includes a connector for connecting the cable 30 and an interface circuit, and inputs image data and audio data. Examples of the interface capable of receiving image data and audio data included in the projector 200 include HDMI (registered trademark) (High-Definition Multimedia Interface) and DisplayPort. Moreover, when the terminal device 100 is a tablet terminal or a smartphone, a configuration including an MHL (Mobile High-definition Link) as an interface may be used.

入力インターフェース部251は、ケーブル30を介して送信されるパケットデータを受信し、受信したパケットデータから画像データ及び音声データを取り出す。入力インターフェース部251は、取り出した画像データ及び音声データを、画像データと音声データとに分離する。入力インターフェース部251は、分離した画像データを画像処理部255に出力し、音声データを音声処理部252及び制御部270に出力する。   The input interface unit 251 receives packet data transmitted via the cable 30 and extracts image data and audio data from the received packet data. The input interface unit 251 separates the extracted image data and audio data into image data and audio data. The input interface unit 251 outputs the separated image data to the image processing unit 255 and outputs audio data to the audio processing unit 252 and the control unit 270.

また、入力インターフェース部251は、画像データを入力するインターフェースと、音声データを入力するインターフェースとをそれぞれ別々に備える構成とすることもできる。例えば、プロジェクター200は、画像データの受信用のコネクターとしてD−Subコネクター等のVGA端子やDVI(Digital Visual Interface)端子を備える構成とすることができる。また、プロジェクター200は、音声データの受信用のコネクターとして、コンポジット端子を備える構成とすることができる。
また、プロジェクター200は、無線により端末装置100と接続する構成であってもよい。
Further, the input interface unit 251 may be configured to include an interface for inputting image data and an interface for inputting audio data separately. For example, the projector 200 may be configured to include a VGA terminal such as a D-Sub connector or a DVI (Digital Visual Interface) terminal as a connector for receiving image data. Further, the projector 200 can be configured to include a composite terminal as a connector for receiving audio data.
Further, the projector 200 may be configured to be connected to the terminal device 100 wirelessly.

プロジェクター200は、光学的な画像の形成を行い、スクリーンSCに画像を投射させる表示部210を備える。
表示部210は、光源部211、光変調装置212及び投射光学系213を備える。光源部211は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)又はレーザー光源等からなる光源を備える。また、光源部211は、光源が発した光を光変調装置212に導くリフレクター及び補助リフレクターを備えていてもよい。さらに、光源部211は、投射光の光学特性を高めるためのレンズ群、偏光板、又は光源が発した光の光量を光変調装置212に至る経路上で低減させる調光素子等(いずれも図示略)を備えていてもよい。
The projector 200 includes a display unit 210 that forms an optical image and projects the image onto the screen SC.
The display unit 210 includes a light source unit 211, a light modulation device 212, and a projection optical system 213. The light source unit 211 includes a light source including a xenon lamp, an ultra-high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like. Further, the light source unit 211 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light modulation device 212. Further, the light source unit 211 includes a lens group for increasing the optical characteristics of the projection light, a polarizing plate, a light control element that reduces the amount of light emitted from the light source on the path to the light modulation device 212, and the like (both shown) Abbreviation) may be provided.

光源部211は、光源駆動部221により駆動される。光源駆動部221は、内部バス280に接続される。光源駆動部221は、制御部270の制御により光源部211の光源を点灯及び消灯させる。   The light source unit 211 is driven by the light source driving unit 221. The light source driving unit 221 is connected to the internal bus 280. The light source driving unit 221 turns on and off the light source of the light source unit 211 under the control of the control unit 270.

光変調装置212は、例えばRGBの三原色に対応した3枚の液晶パネルを備える。光源部211が発する光はRGBの3色の色光に分離され、それぞれ対応する液晶パネルに入射される。3枚の液晶パネルは、透過型の液晶パネルであり、透過する光を変調して画像光を生成する。各液晶パネルを通過して変調された画像光は、クロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系213に射出される。   The light modulation device 212 includes, for example, three liquid crystal panels corresponding to the three primary colors RGB. The light emitted from the light source unit 211 is separated into three color lights of RGB and each enters the corresponding liquid crystal panel. The three liquid crystal panels are transmissive liquid crystal panels, and modulate the transmitted light to generate image light. The image light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 213.

光変調装置212は、光変調装置駆動部222により駆動される。光変調装置駆動部222は、内部バス280に接続される。
光変調装置駆動部222は、後述する画像合成部257から入力される合成画像データに基づいてR,G,Bの画像信号を生成する。光変調装置駆動部222は、生成したRの画像信号、Gの画像信号、Bの画像信号に基づいて対応する液晶パネルを駆動し、各液晶パネルに画像を描画する。
The light modulation device 212 is driven by the light modulation device driving unit 222. The light modulator driving unit 222 is connected to the internal bus 280.
The light modulator driving unit 222 generates R, G, and B image signals based on synthesized image data input from an image synthesizing unit 257 described later. The light modulator driving unit 222 drives the corresponding liquid crystal panel based on the generated R image signal, G image signal, and B image signal, and draws an image on each liquid crystal panel.

投射光学系213は、光変調装置212により変調された画像光をスクリーンSC方向へ投射して、スクリーンSC上に結像させるレンズ群を備える。また、投射光学系213は、スクリーンSCに投射される投射画像を拡大又は縮小させるズーム機構や、フォーカスの調整を行うフォーカス調整機構を備えていてもよい。   The projection optical system 213 includes a lens group that projects the image light modulated by the light modulation device 212 toward the screen SC and forms an image on the screen SC. Further, the projection optical system 213 may include a zoom mechanism for enlarging or reducing a projection image projected on the screen SC and a focus adjustment mechanism for adjusting the focus.

プロジェクター200は、操作パネル231及び入力処理部233を備える。入力処理部233は、内部バス280に接続される。
ユーザーインターフェースとして機能する操作パネル231には、各種の操作キーや、液晶パネルにて構成された表示画面が設けられる。
入力処理部233は、操作パネル231の操作キーが操作されると、操作されたキーに対応した操作信号を制御部270に出力する。また、操作パネル231には、操作パネル231への接触を検出するタッチセンサーが重ね合わされて一体形成される。入力処理部233は、ユーザーの指等が接触した操作パネル231の位置を入力位置として検出し、検出した入力位置に対応した操作信号を制御部270に出力する。さらに、入力処理部233は、制御部270から入力される制御信号に基づいて、操作パネル231に各種画面を表示させる。
The projector 200 includes an operation panel 231 and an input processing unit 233. The input processing unit 233 is connected to the internal bus 280.
The operation panel 231 that functions as a user interface is provided with various operation keys and a display screen constituted by a liquid crystal panel.
When the operation key on the operation panel 231 is operated, the input processing unit 233 outputs an operation signal corresponding to the operated key to the control unit 270. Further, the operation panel 231 is integrally formed with a touch sensor that detects contact with the operation panel 231. The input processing unit 233 detects the position of the operation panel 231 touched by the user's finger or the like as an input position, and outputs an operation signal corresponding to the detected input position to the control unit 270. Further, the input processing unit 233 displays various screens on the operation panel 231 based on the control signal input from the control unit 270.

また、プロジェクター200は、ユーザーが使用するリモコン5を有する。リモコン5は各種のボタンを備えており、これらのボタンの操作に対応して赤外線信号を送信する。プロジェクター200の本体には、リモコン5が発する赤外線信号を受光するリモコン受光部232が配置されている。リモコン受光部232は、リモコン5から送信される赤外線信号を受光する。入力処理部233は、リモコン受光部232が受光した赤外線信号をデコードして、リモコン5における操作内容を示す操作信号を生成し、制御部270に出力する。   Further, the projector 200 has a remote controller 5 used by the user. The remote controller 5 includes various buttons, and transmits an infrared signal corresponding to the operation of these buttons. The main body of the projector 200 is provided with a remote control light receiving unit 232 that receives an infrared signal emitted from the remote control 5. The remote control light receiving unit 232 receives an infrared signal transmitted from the remote control 5. The input processing unit 233 decodes the infrared signal received by the remote control light receiving unit 232, generates an operation signal indicating the operation content in the remote control 5, and outputs the operation signal to the control unit 270.

プロジェクター200は、ペン型の指示体70による操作、及び操作により指示される操作位置を検出する指示体検出部240を備える。指示体検出部240は、撮像部241及び位置検出部242を備える。指示体検出部240は、内部バス280に接続される。
撮像部241は、デジタルカメラを備え、スクリーンSCを撮像して撮像画像を生成する。撮像部241の撮像範囲、すなわち画角は、スクリーンSCの全体又はスクリーンSCを含む範囲であることが好ましい。
撮像部241に搭載されるカメラは、可視光による撮像を行うものに限定されず、赤外光を撮像するカメラであってもよい。例えば、指示体70に、赤外光を発光する発光部を設けて、発光部の発光を撮像部241により撮像し、指示体70の操作位置を検出する構成であってもよい。
The projector 200 includes an indicator detection unit 240 that detects an operation by the pen-type indicator 70 and an operation position indicated by the operation. The indicator detection unit 240 includes an imaging unit 241 and a position detection unit 242. The indicator detection unit 240 is connected to the internal bus 280.
The imaging unit 241 includes a digital camera and images the screen SC to generate a captured image. The imaging range of the imaging unit 241, that is, the angle of view is preferably a range including the entire screen SC or the screen SC.
The camera mounted on the imaging unit 241 is not limited to a camera that performs imaging with visible light, and may be a camera that captures infrared light. For example, the indicator 70 may be provided with a light emitting unit that emits infrared light, and the light emission of the light emitting unit is captured by the imaging unit 241 to detect the operation position of the indicator 70.

位置検出部242は、指示体70の操作位置を検出する。位置検出部242は、撮像部241の撮像画像を解析して、撮像画像から指示体70の画像を検出する。位置検出部242は、撮像画像から指示体70の画像を検出すると、指示体70の先端の位置を検出して、検出した操作位置の座標を特定する。位置検出部242が特定する座標は、撮像画像における指示体70の操作位置の座標である。位置検出部242は、検出した操作位置の座標を制御部270に出力する。   The position detection unit 242 detects the operation position of the indicator 70. The position detection unit 242 analyzes the captured image of the imaging unit 241 and detects the image of the indicator 70 from the captured image. When detecting the image of the indicator 70 from the captured image, the position detector 242 detects the position of the tip of the indicator 70 and specifies the coordinates of the detected operation position. The coordinates specified by the position detection unit 242 are the coordinates of the operation position of the indicator 70 in the captured image. The position detection unit 242 outputs the coordinates of the detected operation position to the control unit 270.

プロジェクター200は、音声データに対しデコード処理等の所定の処理を行う音声処理部252及び音声出力部253を備える。音声処理部252は、入力インターフェース部251から入力される音声データに対して各種の音声処理を行い、処理後の音声データを音声出力部253に出力する。音声出力部253は、入力される音声データによる音声を出力する。   The projector 200 includes an audio processing unit 252 and an audio output unit 253 that perform predetermined processing such as decoding processing on audio data. The audio processing unit 252 performs various types of audio processing on the audio data input from the input interface unit 251, and outputs the processed audio data to the audio output unit 253. The sound output unit 253 outputs sound based on input sound data.

プロジェクター200は、画像処理系を備える。この画像処理系は、プロジェクター200の全体を統合的に制御する制御部270を中心に構成され、この他に、記憶部260、画像処理部255、画像合成部257及びフレームメモリー256を備える。画像処理系を構成する各部は、内部バス280によりデータ通信可能に相互に接続される。   The projector 200 includes an image processing system. This image processing system is configured around a control unit 270 that controls the entire projector 200 in an integrated manner, and further includes a storage unit 260, an image processing unit 255, an image composition unit 257, and a frame memory 256. Each unit constituting the image processing system is connected to each other via an internal bus 280 so that data communication is possible.

画像処理部255は、制御部270の制御に従って、入力インターフェース部251から入力される画像データを処理し、処理した画像データを表示画像データ(第1の画像)として画像合成部257に出力する。画像処理部255が実行する処理には、例えば、解像度変換(スケーリング)処理又はリサイズ処理、歪み補正等の形状補正処理、デジタルズーム処理、色調補正処理、輝度補正処理等である。画像処理部255は、制御部270により指定された処理を実行し、必要に応じて、制御部270から入力されるパラメーターを使用して処理を行う。また、画像処理部255は、上記のうち複数の処理を組み合わせて実行することも勿論可能である。
なお、外部から供給された画像データには、端末装置100から供給され、記憶部260に保存された画像データも含まれる。すなわち、プロジェクター200の電源がオンされた際に、記憶部260に保存されていた画像データも含まれる。
The image processing unit 255 processes the image data input from the input interface unit 251 under the control of the control unit 270, and outputs the processed image data to the image composition unit 257 as display image data (first image). The processing executed by the image processing unit 255 includes, for example, resolution conversion (scaling) processing or resizing processing, shape correction processing such as distortion correction, digital zoom processing, color tone correction processing, and luminance correction processing. The image processing unit 255 executes processing designated by the control unit 270, and performs processing using parameters input from the control unit 270 as necessary. Of course, the image processing unit 255 can also execute a combination of a plurality of processes.
Note that image data supplied from the outside includes image data supplied from the terminal device 100 and stored in the storage unit 260. In other words, the image data stored in the storage unit 260 when the power of the projector 200 is turned on is also included.

画像合成部257は、画像処理部255から入力される表示画像データをフレームメモリー256に展開する。また、画像合成部257は、制御部270により生成された画像データ(描画データ)を取得し、フレームメモリー256に展開する。ここで、画像合成部257は、画像処理部255から入力される表示画像データと、制御部270により生成された描画データとをフレームメモリー256で合成する。画像合成部257は、合成した画像データ(以下、合成画像データという)をフレームメモリー256から読み出し、光変調装置駆動部222に出力する。   The image composition unit 257 expands the display image data input from the image processing unit 255 in the frame memory 256. Further, the image composition unit 257 acquires the image data (drawing data) generated by the control unit 270 and develops it in the frame memory 256. Here, the image synthesis unit 257 synthesizes the display image data input from the image processing unit 255 and the drawing data generated by the control unit 270 in the frame memory 256. The image synthesizing unit 257 reads the synthesized image data (hereinafter referred to as synthesized image data) from the frame memory 256 and outputs it to the light modulation device driving unit 222.

記憶部260は、例えば、ハードディスク装置等の補助記憶装置である。記憶部260は、大容量の情報の記憶が可能なフラッシュメモリー又はCD(Compact Disc)、DVD(Digital Versatile Disc)、BD(Blu-ray(登録商標) Disc)等の光ディスクで代替されてもよい。記憶部260は、制御部270が実行するアプリケーションプログラムや各種データを記憶する。
また、記憶部260は、予め設定された音声パターンの音声データ2601を記憶する。音声データ2601の音声パターンは、例えば、1の音又は連続する複数の音で構成され、音の高さ(周波数)、音量、及び/又はこれらの変化、それぞれの音の長さ等を規定するパターンである。音声パターンは、特定の変化をする音声パターンだけでなく、複数の音声パターンを含むように幅を有する値で構成されてもよい。
音声データ2601には、例えば、指示体70を用いてスクリーンSCに描画された描画データを消去させる音声パターンの音声データや、スクリーンSCに描画された描画データ及び画像データをプロジェクター200に記憶させる音声パターンの音声データ等を記憶する。また、記憶部260は、各音声データに付与された識別情報と、プロジェクター200に実行させる動作とを対応付けた対応表2602を記憶する。対応表2602は、音声データの音声パターンと、音声パターンに該当する音声データが入力された場合に実行する動作とを対応付けた表である。対応表2602には、複数の音声パターンに対応付けて1つの動作を設定してもよいし、1つの音声パターンに1つの動作を対応付けてもよい。
The storage unit 260 is an auxiliary storage device such as a hard disk device, for example. The storage unit 260 may be replaced with a flash memory capable of storing a large amount of information or an optical disc such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a BD (Blu-ray (registered trademark) Disc). . The storage unit 260 stores application programs executed by the control unit 270 and various data.
The storage unit 260 also stores audio data 2601 of a preset audio pattern. The sound pattern of the sound data 2601 is composed of, for example, one sound or a plurality of continuous sounds, and specifies the sound pitch (frequency), volume, and / or changes thereof, the length of each sound, and the like. It is a pattern. The voice pattern may be configured with a value having a width so as to include a plurality of voice patterns as well as a voice pattern having a specific change.
In the audio data 2601, for example, audio data of an audio pattern that deletes drawing data drawn on the screen SC using the indicator 70, and audio that causes the projector 200 to store drawing data and image data drawn on the screen SC. The voice data of the pattern is stored. In addition, the storage unit 260 stores a correspondence table 2602 in which identification information given to each audio data is associated with an operation to be executed by the projector 200. The correspondence table 2602 is a table in which a voice pattern of voice data is associated with an operation to be executed when voice data corresponding to the voice pattern is input. In the correspondence table 2602, one operation may be set in association with a plurality of sound patterns, or one operation may be associated with one sound pattern.

制御部270は、ハードウェアとしてCPU、ROM及びRAM(いずれも図示略)を備える。ROMは、フラッシュROM等の不揮発性の記憶装置であり、制御プログラム及びデータを記憶する。RAMは、CPUのワークエリアを構成する。CPUは、ROMから読み出した制御プログラムをRAMに展開し、展開された制御プログラムを実行してプロジェクター200の各部を制御する。   The control unit 270 includes a CPU, a ROM, and a RAM (all not shown) as hardware. The ROM is a non-volatile storage device such as a flash ROM, and stores a control program and data. The RAM constitutes a work area of the CPU. The CPU expands the control program read from the ROM to the RAM, and executes the expanded control program to control each unit of the projector 200.

制御部270は、機能ブロックとして、投射制御部271、操作取得部272、描画処理部273、データ保存部274、音声パターン解析部275を備える。これらの機能ブロックは、RAMに展開された制御プログラムを実行することで実現される。   The control unit 270 includes a projection control unit 271, an operation acquisition unit 272, a drawing processing unit 273, a data storage unit 274, and an audio pattern analysis unit 275 as functional blocks. These functional blocks are realized by executing a control program expanded in the RAM.

投射制御部271は、プロジェクター200の各部を制御して、スクリーンSCへの画像の投射を制御する。
具体的には、投射制御部271は、画像処理部255を制御して、端末装置100から供給される画像データに対する画像処理を実施させる。この際、投射制御部271は、画像処理部255が処理に必要なパラメーターを記憶部260から読み出し、画像処理部255に出力してもよい。また、投射制御部271は、画像合成部257を制御して、画像合成部257に、表示画像データと描画データとを合成する処理を実行させる。また、投射制御部271は、光変調装置駆動部222を制御して光変調装置212の液晶パネルに画像を描画させる。さらに、投射制御部271は、光源駆動部221を制御して光源部211の光源を点灯させ、光源の輝度を調整させる。これにより、光源が発光して光変調装置212が変調する画像光が投射光学系213によりスクリーンSCに投射される。
The projection control unit 271 controls each unit of the projector 200 to control the projection of the image onto the screen SC.
Specifically, the projection control unit 271 controls the image processing unit 255 to perform image processing on image data supplied from the terminal device 100. At this time, the projection control unit 271 may read out parameters necessary for processing by the image processing unit 255 from the storage unit 260 and output them to the image processing unit 255. In addition, the projection control unit 271 controls the image composition unit 257 to cause the image composition unit 257 to execute processing for combining display image data and drawing data. In addition, the projection control unit 271 controls the light modulation device driving unit 222 to draw an image on the liquid crystal panel of the light modulation device 212. Further, the projection control unit 271 controls the light source driving unit 221 to turn on the light source of the light source unit 211 and adjust the luminance of the light source. As a result, image light that is emitted from the light source and modulated by the light modulation device 212 is projected onto the screen SC by the projection optical system 213.

操作取得部272は、指示体検出部240から入力される操作位置の座標を座標変換する。指示体検出部240は、指示体70の操作位置を、撮像画像における座標で特定し、特定した操作位置の座標を制御部270に出力する。操作取得部272は、指示体検出部240から入力される操作位置の座標を、描画処理部273がフレームメモリー256に描画を行うための座標である、フレームメモリー256の座標に変換する。   The operation acquisition unit 272 performs coordinate conversion on the coordinates of the operation position input from the indicator detection unit 240. The indicator detection unit 240 specifies the operation position of the indicator 70 by coordinates in the captured image, and outputs the coordinates of the specified operation position to the control unit 270. The operation acquisition unit 272 converts the coordinates of the operation position input from the indicator detection unit 240 into coordinates in the frame memory 256 that are coordinates for the drawing processing unit 273 to draw in the frame memory 256.

描画処理部273は、指示体検出部240が検出した操作位置、又は操作位置の軌跡に合わせて、文字や記号、図形を描画する処理を行う。描画処理部273は、フレームメモリー256に展開される表示画像データのサイズに合わせて、漢字、平仮名、カタカナ、アルファベット、数字等の文字や、記号、図形のデータである描画データを生成する。描画処理部273が生成する描画データは、画像合成部257に出力される。画像合成部257は、画像処理部255により処理された表示画像データに基づく画像が展開されたフレームメモリー256に、描画処理部273により生成された描画データに基づく画像を重畳し、合成画像データを生成する。   The drawing processing unit 273 performs processing for drawing characters, symbols, and graphics in accordance with the operation position detected by the indicator detection unit 240 or the locus of the operation position. The drawing processing unit 273 generates drawing data that is data of characters, symbols, and figures such as kanji, hiragana, katakana, alphabets, and numbers in accordance with the size of the display image data developed in the frame memory 256. The drawing data generated by the drawing processing unit 273 is output to the image composition unit 257. The image compositing unit 257 superimposes the image based on the drawing data generated by the drawing processing unit 273 on the frame memory 256 in which the image based on the display image data processed by the image processing unit 255 is developed, and outputs the composite image data. Generate.

データ保存部274は、音声パターン解析部275によりデータの保存が指示されると、画像データを保存するファイルが記憶部260に生成されていない場合に、ファイルを生成する。
データ保存部274がファイルを作成するタイミングは、例えば、直近に作成したファイルの作成日付が、現在の日付と異なる場合や、直近に作成したファイルの作成時刻から予め設定された時間を経過していた場合等が挙げられる。また、ユーザーによりファイルの作成を指示された場合や、プロジェクター200に、別の端末装置100が接続された場合、端末装置100からプロジェクター200への画像データの送信が終了した場合、端末装置100からプロジェクター200に送信される画像データの種類が変更された場合等が挙げられる。
また、ファイルには、ファイルを特定するためのファイル名が付加される。ファイル名には、ファイルを生成した日付や、シリアル番号(ファイルの生成順に付された番号)等が用いられるが、ユーザーが操作パネル231やリモコン5を操作して入力したファイル名を用いることもできる。
次に、データ保存部274は、ファイルに、描画処理部273により生成された描画データや、フレームメモリー256に展開された表示画像データ、描画データと表示画像データとを合成した合成画像データを保存する。
データ保存部274は、画像合成部257により合成画像データが生成され、フレームメモリー256に展開されている場合には、画像合成部257から合成画像データを取得してファイルに保存する。また、データ保存部274は、表示画像データを画像処理部255から取得すると共に、描画データを描画処理部273から取得し、表示画像データと描画データとを別々にファイルに保存してもよい。また、データ保存部274は、フレームメモリー256に描画データが展開されておらず、表示画像データだけが展開されている場合、画像合成部257から表示画像データだけを取得してファイルに保存する。
さらに、データ保存部274は、描画データや、表示画像データ、合成画像データをファイルに保存する際に、これらのデータの保存時刻を対応付ける。データ保存部274は、同一の保存時刻に設定される描画データや、表示画像データ、合成画像データを対応付けてファイルに保存する。
When the audio pattern analysis unit 275 instructs the data storage unit 274 to store data, the data storage unit 274 generates a file when the file for storing the image data is not generated in the storage unit 260.
The timing at which the data storage unit 274 creates a file is, for example, when the creation date of the most recently created file is different from the current date, or when a preset time has elapsed from the creation time of the most recently created file. And the like. Further, when the user gives an instruction to create a file, when another terminal device 100 is connected to the projector 200, when transmission of image data from the terminal device 100 to the projector 200 is completed, from the terminal device 100, For example, the type of image data transmitted to the projector 200 is changed.
A file name for identifying the file is added to the file. As the file name, a date when the file is generated, a serial number (number given in the order of file generation), or the like is used. Alternatively, a file name input by the user operating the operation panel 231 or the remote controller 5 may be used. it can.
Next, the data storage unit 274 stores, in the file, the drawing data generated by the drawing processing unit 273, the display image data developed in the frame memory 256, and the composite image data obtained by combining the drawing data and the display image data. To do.
When the composite image data is generated by the image composition unit 257 and developed in the frame memory 256, the data storage unit 274 acquires the composite image data from the image composition unit 257 and stores it in a file. The data storage unit 274 may acquire the display image data from the image processing unit 255 and the drawing data from the drawing processing unit 273, and may store the display image data and the drawing data separately in a file. Further, when the drawing data is not expanded in the frame memory 256 and only the display image data is expanded, the data storage unit 274 acquires only the display image data from the image composition unit 257 and stores it in the file.
Furthermore, the data storage unit 274 associates the storage times of these data when storing drawing data, display image data, and composite image data in a file. The data storage unit 274 stores drawing data, display image data, and composite image data set at the same storage time in a file in association with each other.

音声パターン解析部275は、音声処理部252から入力される音声データの音声パターンを解析する。この解析には、既存の音声認識技術を用いることができる。音声パターン解析部275は、入力された音声データを解析し、予め設定された音声パターン(例えば、第1の音声パターンや第2の音声パターン)が含まれるか否かを判定する。音声パターン解析部275は、記憶部260に記憶された音声データ2601を参照して、予め設定された音声パターンが含まれるか否かを判定する。また、音声パターン解析部275は、予め設定された音声パターンを検出した場合、記憶部260の対応表2602を参照して、検出した音声パターンに対応付けられた処理を取得する。音声パターン解析部275は、取得した処理の実行を描画処理部273や、データ保存部274に指示する。音声パターンに対応付けられる処理には、指示体70によりスクリーンSCに描画された描画データを消去する消去処理や、表示画像データ及び描画データを対応付けて記憶部260に保存する保存処理等が含まれる。   The voice pattern analysis unit 275 analyzes the voice pattern of the voice data input from the voice processing unit 252. For this analysis, an existing speech recognition technique can be used. The voice pattern analysis unit 275 analyzes the input voice data and determines whether or not a preset voice pattern (for example, a first voice pattern or a second voice pattern) is included. The voice pattern analysis unit 275 refers to the voice data 2601 stored in the storage unit 260 and determines whether or not a preset voice pattern is included. In addition, when the voice pattern analysis unit 275 detects a preset voice pattern, the voice pattern analysis unit 275 refers to the correspondence table 2602 of the storage unit 260 and acquires a process associated with the detected voice pattern. The voice pattern analysis unit 275 instructs the drawing processing unit 273 and the data storage unit 274 to execute the acquired processing. The process associated with the sound pattern includes an erasing process for erasing the drawing data drawn on the screen SC by the indicator 70, a saving process for saving the display image data and the drawing data in association with each other in the storage unit 260, and the like. It is.

図4は、端末装置100の制御部102の動作を示すフローチャートである。このフローチャートでは、表示部104に表示されたシートを切り替える操作部105の操作を検出して、対応する音声データとしての第1の音声パターンをプロジェクター200に送信する動作を説明する。
まず、制御部102は、アプリケーションプログラムが実行され、このアプリケーションプログラムが生成する画像データ(データファイル)に基づく画像が表示部104に表示されたか否かを判定する(ステップS1)。否定判定の場合(ステップ1/NO)、制御部102は、画像データに基づく画像が表示部104に表示されるまで待機する。また、肯定判定の場合(ステップS1/YES)、制御部102は、アプリケーションプログラムが生成した画像データの外部の装置への出力が開始されたか否かを判定する(ステップS2)。
FIG. 4 is a flowchart showing the operation of the control unit 102 of the terminal device 100. In this flowchart, an operation of detecting an operation of the operation unit 105 for switching sheets displayed on the display unit 104 and transmitting a first sound pattern as corresponding sound data to the projector 200 will be described.
First, the control unit 102 determines whether an application program is executed and an image based on image data (data file) generated by the application program is displayed on the display unit 104 (step S1). In the case of negative determination (step 1 / NO), the control unit 102 stands by until an image based on the image data is displayed on the display unit 104. If the determination is affirmative (step S1 / YES), the control unit 102 determines whether output of image data generated by the application program to an external device has been started (step S2).

ステップS2の判定が否定判定の場合(ステップS2/NO)、制御部102は、表示部104に表示させた画像データに基づく画像の表示が終了したか否かを判定する(ステップS7)。肯定判定の場合(ステップS7/YES)、制御部102は、この処理フローを終了させる。また、否定判定の場合(ステップS7/NO)、制御部102は、ステップS2の判定に戻り、画像データの外部の装置への出力が開始されたか否かを判定する(ステップS2)。
また、ステップS2の判定が肯定判定の場合(ステップS2/YES)、制御部102は、操作部105によりシートを切り替える操作を受け付けたか否かを判定する(ステップS3)。否定判定の場合(ステップS3/NO)、制御部102は、外部の装置への画像データの出力が終了したか否かを判定する(ステップS6)。肯定判定の場合(ステップS6/YES)、制御部102は、上述したステップS7の判定を行う。また、否定判定の場合(ステップS6/NO)、制御部102は、ステップS3の判定に戻り、操作部105によりシートを切り替える操作を受け付けたか否かを判定する。
When the determination in step S2 is negative (step S2 / NO), the control unit 102 determines whether or not the display of the image based on the image data displayed on the display unit 104 has ended (step S7). If the determination is affirmative (step S7 / YES), the control unit 102 ends this processing flow. In the case of a negative determination (step S7 / NO), the control unit 102 returns to the determination in step S2 and determines whether output of image data to an external device is started (step S2).
When the determination in step S2 is affirmative (step S2 / YES), the control unit 102 determines whether or not an operation for switching sheets by the operation unit 105 has been received (step S3). In the case of a negative determination (step S3 / NO), the control unit 102 determines whether or not the output of the image data to the external device has ended (step S6). In the case of a positive determination (step S6 / YES), the control unit 102 performs the above-described determination of step S7. In the case of a negative determination (step S6 / NO), the control unit 102 returns to the determination in step S3 and determines whether or not an operation for switching sheets by the operation unit 105 has been received.

また、ステップS3の判定が肯定判定の場合(ステップS3/YES)、制御部102は、記憶部101に記憶した対応表1012を参照して、受け付けた操作に対応した予め設定された音声パターンを含む音声データを取得する(ステップS4)。例えば、制御部102は、シートを切り替える操作を受け付けた場合、スクリーンSCに描画された描画データを消去させる第1の音声パターンの音声データを記憶部101から取得する。制御部102は、取得した第1の音声パターンの音声データを出力インターフェース部106に出力する。出力インターフェース部106は、入力された第1の音声パターンの音声データをパケットデータに変換し、変換したパケットデータを、ケーブル30を介してプロジェクター200に送信する(ステップS5)。
ステップS5の処理の後、制御部102は、画像データに基づく画像の表示が終了したか否かを判定する(ステップS6)。否定判定の場合(ステップS6/NO)、制御部102は、ステップS3の判定に戻り、操作部105によりシートを切り替える操作を受け付けたか否かを判定する。また、肯定判定の場合(ステップS6/YES)、制御部102は、上述したステップS7の判定を行う。ステップS7の判定が否定判定の場合(ステップS7/NO)、制御部102は、ステップS2の判定に戻り、肯定判定の場合(ステップS7/YES)、制御部102は、この処理フローを終了させる。
If the determination in step S3 is affirmative (step S3 / YES), the control unit 102 refers to the correspondence table 1012 stored in the storage unit 101, and sets a preset voice pattern corresponding to the accepted operation. The included voice data is acquired (step S4). For example, when receiving an operation of switching sheets, the control unit 102 acquires, from the storage unit 101, audio data of a first audio pattern that deletes drawing data drawn on the screen SC. The control unit 102 outputs the acquired audio data of the first audio pattern to the output interface unit 106. The output interface unit 106 converts the input audio data of the first audio pattern into packet data, and transmits the converted packet data to the projector 200 via the cable 30 (step S5).
After the process of step S5, the control unit 102 determines whether or not the display of the image based on the image data is finished (step S6). In the case of a negative determination (step S6 / NO), the control unit 102 returns to the determination in step S3 and determines whether or not an operation for switching sheets by the operation unit 105 has been received. In the case of a positive determination (step S6 / YES), the control unit 102 performs the above-described determination of step S7. If the determination in step S7 is negative (step S7 / NO), the control unit 102 returns to the determination in step S2. If the determination is affirmative (step S7 / YES), the control unit 102 ends this processing flow. .

上述のフローチャートでは、制御部102は、操作部105がシートを切り替える操作を受け付けたか否かを判定して、所定の音声パターンの音声データをプロジェクター200に送信する例を説明した。これ以外の動作として、制御部102は、プロジェクター200に画像データの供給を開始してから、予め設定された設定時間が経過した場合に、予め設定された音声パターンの音声データをプロジェクター200に出力するようにしてもよい。制御部102がこのように動作することで、スクリーンSCに画像が表示されてから所定時間が経過した後に、プロジェクター200に所定の動作を実行させることができる。例えば、端末装置100がプロジェクター200に画像データの供給を開始して、画像データに基づく画像がスクリーンSCに画像が表示され、この画像の表示から所定時間の間だけ、指示体70によるスクリーンSCへの画像の描画が許可される。端末装置100の制御部102は、所定時間が経過すると、指示体70によるスクリーンSCへの画像の描画を禁止する音声パターンの音声データをプロジェクター200に送信する。プロジェクター200の制御部270は、端末装置100から指示体70によるスクリーンSCへの画像の描画を禁止する音声パターンの音声データを受信すると、例えば、指示体検出部240に、撮像画像の生成を停止させ、指示体70による操作の検出を停止させる。
これにより、画像データに基づく画像がスクリーンSCに表示されてから所定時間の間だけ、指示体70を用いた画像の描画が許可され、所定時間が経過した後は、指示体70を用いた画像の描画ができないようにすることができる。
In the above-described flowchart, an example has been described in which the control unit 102 determines whether the operation unit 105 has received an operation for switching sheets, and transmits audio data of a predetermined audio pattern to the projector 200. As an operation other than this, the control unit 102 outputs audio data of a preset audio pattern to the projector 200 when a preset setting time has elapsed after starting to supply image data to the projector 200. You may make it do. By operating the control unit 102 in this way, the projector 200 can execute a predetermined operation after a predetermined time has elapsed since the image was displayed on the screen SC. For example, the terminal device 100 starts supplying image data to the projector 200, and an image based on the image data is displayed on the screen SC. The display device 70 displays the image on the screen SC only for a predetermined time from the display of the image. Drawing of the image is allowed. When a predetermined time elapses, the control unit 102 of the terminal device 100 transmits audio data of an audio pattern that prohibits drawing of an image on the screen SC by the indicator 70 to the projector 200. When the control unit 270 of the projector 200 receives audio data of an audio pattern that prohibits drawing of an image on the screen SC by the indicator 70 from the terminal device 100, for example, the indicator detection unit 240 stops the generation of the captured image. The detection of the operation by the indicator 70 is stopped.
Thereby, drawing of the image using the indicator 70 is permitted only for a predetermined time after the image based on the image data is displayed on the screen SC, and after the predetermined time has passed, the image using the indicator 70 is displayed. It is possible to prevent drawing.

図5は、プロジェクター200の動作を示すフローチャートである。
プロジェクター200の制御部270は、端末装置100から画像データが供給され、供給された画像データに基づく画像を表示部110によりスクリーンSCに投射しているか否かを判定する(ステップS11)。否定判定の場合(ステップS11/NO)、制御部270は、この処理フローを終了させる。
また、肯定判定の場合(ステップS11/YES)、制御部270は、入力インターフェース部251から音声データを入力したか否かを判定する(ステップS12)。否定判定の場合(ステップS12/NO)、制御部270は、ステップS12の判定に戻る。
FIG. 5 is a flowchart showing the operation of the projector 200.
The control unit 270 of the projector 200 determines whether image data is supplied from the terminal device 100 and an image based on the supplied image data is projected on the screen SC by the display unit 110 (step S11). In the case of a negative determination (step S11 / NO), the control unit 270 ends this processing flow.
If the determination is affirmative (step S11 / YES), the control unit 270 determines whether audio data is input from the input interface unit 251 (step S12). In a negative determination (step S12 / NO), the control unit 270 returns to the determination in step S12.

また、ステップS12の判定が肯定判定の場合(ステップS12/YES)、制御部270は、入力された音声データを音声処理部252にデコード処理させ(ステップS13)、処理された音声データを入力する。   If the determination in step S12 is affirmative (step S12 / YES), the control unit 270 causes the audio processing unit 252 to decode the input audio data (step S13), and inputs the processed audio data. .

制御部270の音声パターン解析部275は、入力された音声データを解析して(ステップS14)、音声データに、予め設定された音声パターンが含まれるか否かを判定する(ステップS15)。否定判定の場合(ステップS15/NO)、音声パターン解析部275は、音声処理部252に、音声データを音声出力部253に出力するように指示する(ステップS16)。この後、音声パターン解析部275は、ステップS12の判定に戻り、入力インターフェース部251から音声データを入力したか否かを判定する。   The voice pattern analysis unit 275 of the control unit 270 analyzes the input voice data (step S14), and determines whether the voice data includes a preset voice pattern (step S15). If the determination is negative (step S15 / NO), the voice pattern analysis unit 275 instructs the voice processing unit 252 to output the voice data to the voice output unit 253 (step S16). Thereafter, the sound pattern analysis unit 275 returns to the determination in step S12 and determines whether sound data is input from the input interface unit 251 or not.

また、ステップS15の判定が肯定判定の場合(ステップS15/YES)、音声パターン解析部275は、音声処理部252を制御して、音声出力部253からの音声の出力を停止させ(ステップS17)、描画処理部273に、描画データの消去を指示する。
描画処理部273は、画像合成部257に、フレームメモリー256に展開された描画データを消去させ、スクリーンSCに描画された描画データを消去させる(ステップS18)。
If the determination in step S15 is affirmative (step S15 / YES), the voice pattern analysis unit 275 controls the voice processing unit 252 to stop the voice output from the voice output unit 253 (step S17). Then, the drawing processing unit 273 is instructed to erase the drawing data.
The drawing processing unit 273 causes the image composition unit 257 to delete the drawing data developed in the frame memory 256 and delete the drawing data drawn on the screen SC (step S18).

描画データが消去されると、音声パターン解析部275は、音声処理部252に、音声データを音声出力部253に出力させ、音声の出力を再開させる(ステップS19)。   When the drawing data is erased, the voice pattern analysis unit 275 causes the voice processing unit 252 to output the voice data to the voice output unit 253 and restarts the voice output (step S19).

上述したフローチャートでは、スクリーンSCに描画された描画データを消去する場合を説明したが、プロジェクター200が予め設定された音声パターンの音声データを入力して実行する処理は、描画データの消去だけに限定されるものではない。   In the above-described flowchart, the case where the drawing data drawn on the screen SC is erased has been described. However, the processing executed by the projector 200 by inputting the audio data of the preset audio pattern is limited to the deletion of the drawing data. Is not to be done.

例えば、音声パターン解析部275は、入力された音声データが予め設定された音声パターンの音声データ(第2の音声パターンの音声データ)であると判定した場合に、データ保存部274に、描画データ及び表示画像データの少なくとも一方を保存するように指示する。データ保存部274は、描画処理部273が描画した描画データや、画像処理部255が処理した表示画像データ、フレームメモリー256に展開された合成画像データの少なくとも1つを記憶部260に記憶させる。   For example, if the voice pattern analysis unit 275 determines that the input voice data is voice data of a preset voice pattern (voice data of the second voice pattern), the data storage unit 274 stores the drawing data And instructing to store at least one of the display image data. The data storage unit 274 causes the storage unit 260 to store at least one of drawing data drawn by the drawing processing unit 273, display image data processed by the image processing unit 255, and composite image data developed in the frame memory 256.

また、音声パターン解析部275は、入力された音声データが予め設定された音声パターンの音声データであると判定した場合には、描画処理部273に、描画データの生成を停止させる。描画処理部273は、指示体検出部240が指示体70の操作を検出しても、検出された操作に対応した描画データを生成しない。また、音声パターン解析部275は、指示体検出部240に、撮像画像の生成を停止させ、指示体70による操作の検出を停止させてもよい。
さらに、音声パターン解析部275は、入力された音声データが予め設定された音声パターンの音声データであると判定した場合には、画像合成部257に、描画データを表示画像データに合成しないように指示してもよい。画像合成部257は、描画処理部273により生成された描画データが入力されても、フレームメモリー256に展開された表示画像データに描画データを描画しないようにする。
これによって、端末装置100からプロジェクター200に送信される予め設定された音声パターンの音声データにより、指示体70の操作に対応した描画データに基づく画像がスクリーンSCに投射されないようにすることができる。
例えば、学校等において、本実施形態の表示システム1を利用する場合に、先生が端末装置100を操作して、生徒のスクリーンSCへの書き込みができないようにすることができる。
If the voice pattern analysis unit 275 determines that the input voice data is voice data of a preset voice pattern, the voice pattern analysis unit 275 causes the drawing processing unit 273 to stop generating drawing data. The drawing processing unit 273 does not generate drawing data corresponding to the detected operation even if the indicator detection unit 240 detects the operation of the indicator 70. In addition, the voice pattern analysis unit 275 may cause the indicator detection unit 240 to stop generating the captured image and stop detecting the operation by the indicator 70.
Further, when the sound pattern analysis unit 275 determines that the input sound data is sound data of a preset sound pattern, the sound pattern analysis unit 275 does not cause the image composition unit 257 to synthesize the drawing data with the display image data. You may instruct. Even if the drawing data generated by the drawing processing unit 273 is input, the image composition unit 257 does not draw the drawing data on the display image data developed in the frame memory 256.
Accordingly, it is possible to prevent an image based on the drawing data corresponding to the operation of the indicator 70 from being projected onto the screen SC by the audio data of the preset audio pattern transmitted from the terminal device 100 to the projector 200.
For example, when the display system 1 of this embodiment is used in a school or the like, the teacher can operate the terminal device 100 so that the student cannot write on the screen SC.

また、音声パターン解析部275は、予め設定された音声パターンの音声データが入力されたと判定してから予め設定された設定時間の間、指示体検出部240に指示体70の操作を検出させ、描画処理部273に、描画データを生成させてもよい。音声パターン解析部275は、予め設定された設定時間を経過した場合、指示体検出部240に指示体70の検出を停止させ、描画処理部273に、描画データの生成を停止させる。
例えば、学校等において、本実施形態の表示システム1を利用する場合に、生徒が、予め設定された設定時間の間だけ、指示体70を用いてスクリーンSCに描画を行うことができるようにすることができる。
Further, the voice pattern analysis unit 275 causes the pointer detection unit 240 to detect the operation of the pointer 70 for a preset time after determining that voice data of a preset voice pattern has been input, The drawing processing unit 273 may generate drawing data. When the preset time has elapsed, the voice pattern analysis unit 275 causes the pointer detection unit 240 to stop detecting the pointer 70 and causes the drawing processing unit 273 to stop generating drawing data.
For example, when the display system 1 of the present embodiment is used at a school or the like, the student can draw on the screen SC using the indicator 70 only for a preset time. be able to.

以上説明したように本発明を適用した実施形態は、端末装置100と、プロジェクター200とを備える。
端末装置100は、予め設定された音声パターンの音声データを出力インターフェース部106から出力する。プロジェクター200は、予め設定された音声パターンと、音声パターンに該当する音声データが入力インターフェース部251に入力された場合に実行する動作とが設定される。プロジェクター200は、入力インターフェース部251に入力される音声データが音声パターンに該当する場合に、音声パターンに対応して設定された動作を実行する。従って、接続態様によらずに端末装置100及びプロジェクター200を連動して動作させることができる。
As described above, the embodiment to which the present invention is applied includes the terminal device 100 and the projector 200.
The terminal device 100 outputs audio data of a preset audio pattern from the output interface unit 106. The projector 200 is set with a sound pattern set in advance and an operation to be executed when sound data corresponding to the sound pattern is input to the input interface unit 251. When the audio data input to the input interface unit 251 corresponds to an audio pattern, the projector 200 executes an operation set in accordance with the audio pattern. Accordingly, the terminal device 100 and the projector 200 can be operated in conjunction with each other regardless of the connection mode.

また、端末装置100が備える出力インターフェース部106は、画像データ及び音声データを出力する出力インターフェースを備える。プロジェクター200が備える入力インターフェース部251は、画像データ及び音声データを入力する入力インターフェースを備える。従って、画像データ及び音声データを1つのインターフェースで端末装置100からプロジェクター200に送信することができる。   The output interface unit 106 included in the terminal device 100 includes an output interface that outputs image data and audio data. The input interface unit 251 provided in the projector 200 includes an input interface for inputting image data and audio data. Therefore, image data and audio data can be transmitted from the terminal device 100 to the projector 200 through one interface.

端末装置100が備える出力インターフェース部106は、画像データを出力するインターフェースと、音声データを出力するインターフェースとを含む出力インターフェースを備える。また、プロジェクター200が備える入力インターフェース部251は、画像データを入力するインターフェースと、音声データを入力するインターフェースとを含む入力インターフェースを備える。従って、画像データと、音声データとをそれぞれ別々のインターフェースにより端末装置から表示装置に送信することができる。   The output interface unit 106 included in the terminal device 100 includes an output interface including an interface that outputs image data and an interface that outputs audio data. The input interface unit 251 included in the projector 200 includes an input interface including an interface for inputting image data and an interface for inputting audio data. Therefore, image data and audio data can be transmitted from the terminal device to the display device through separate interfaces.

また、端末装置100は、出力インターフェース部106から出力する画像データが予め設定された変化をする場合に、予め設定された音声パターンの音声データを出力インターフェース部106から出力する制御部102を備える。
従って、出力インターフェース部106から出力される画像データの変化を検出して、予め設定された音声パターンの音声データをプロジェクター200に出力することができ、プロジェクター200に、画像データの変化に対応して、所定の動作を行わせることができる。
Further, the terminal device 100 includes a control unit 102 that outputs audio data of a preset audio pattern from the output interface unit 106 when image data output from the output interface unit 106 changes in advance.
Accordingly, it is possible to detect a change in image data output from the output interface unit 106 and output audio data having a preset audio pattern to the projector 200. The projector 200 can respond to the change in image data. A predetermined operation can be performed.

また、プロジェクター200は、入力インターフェース部251に入力される画像データに基づく第1の画像を表示する表示部210と、指示体の操作を検出する指示体検出部240と、指示体検出部240が検出する操作に対応する第2の画像を描画して、表示部210に表示させる描画処理部273とを備える。音声パターン解析部275は、入力インターフェース部251に入力される音声データが予め設定された音声パターンに該当する場合に、表示部210がスクリーンSCに投射する第2の画像の表示を消去する。
従って、端末装置100からプロジェクター200に送信される予め設定された音声パターンの音声データにより、スクリーンSCに投射された第2の画像を消去することができる。
The projector 200 includes a display unit 210 that displays a first image based on image data input to the input interface unit 251, an indicator detection unit 240 that detects an operation of the indicator, and an indicator detection unit 240. A drawing processing unit 273 that draws a second image corresponding to the operation to be detected and displays the second image on the display unit 210 is provided. The voice pattern analysis unit 275 erases the display of the second image that the display unit 210 projects on the screen SC when the voice data input to the input interface unit 251 corresponds to a preset voice pattern.
Therefore, the second image projected on the screen SC can be erased by the sound data of the preset sound pattern transmitted from the terminal device 100 to the projector 200.

また、音声パターン解析部275は、入力インターフェース部251に入力される音声データが予め設定された音声パターンに該当する場合に、データ保存部274に、スクリーンSCに投射された第1の画像及び第2の画像の少なくとも一方の画像データを記憶部260に記憶させる。
従って、端末装置100からプロジェクター200に送信される予め設定された音声パターンの音声データにより、スクリーンSCに投射された第1の画像と、第2の画像との少なくとも一方を記憶部260に記憶させることができる。
In addition, when the audio data input to the input interface unit 251 corresponds to a preset audio pattern, the audio pattern analysis unit 275 causes the data storage unit 274 to display the first image and the first image projected on the screen SC. The image data of at least one of the two images is stored in the storage unit 260.
Therefore, at least one of the first image and the second image projected on the screen SC is stored in the storage unit 260 based on the sound data of the preset sound pattern transmitted from the terminal device 100 to the projector 200. be able to.

また、音声パターン解析部275は、入力インターフェース部251に入力される音声データが予め設定された音声パターンに該当する場合に、画像合成部257に、描画処理部273が生成した描画データを、表示画像データに合成させないように指示する。また、音声パターン解析部275は、音声データが予め設定された音声パターンに該当する場合に、描画処理部273に、描画データの生成を停止させる。
これにより、端末装置100からプロジェクター200に送信される予め設定された音声パターンの音声データにより、指示体70の操作に対応した描画データに基づく画像がスクリーンSCに投射されないようにすることができる。
The voice pattern analysis unit 275 displays the drawing data generated by the drawing processing unit 273 on the image synthesis unit 257 when the voice data input to the input interface unit 251 corresponds to a preset voice pattern. Instructs not to combine with image data. Also, the audio pattern analysis unit 275 causes the drawing processing unit 273 to stop generating drawing data when the audio data corresponds to a preset audio pattern.
Thereby, it is possible to prevent the image based on the drawing data corresponding to the operation of the indicator 70 from being projected on the screen SC by the audio data of the preset audio pattern transmitted from the terminal device 100 to the projector 200.

また、端末装置100の制御部102は、画像データの出力を開始してから、予め設定された時間が経過した場合に、音声パターンの音声データを出力インターフェース部106から出力する。
従って、画像データに基づく画像がスクリーンSCに表示されてから設定時間が経過した場合に、指示体70の操作に対応した第2の画像がスクリーンSCに表示されないようにすることができる。
In addition, the control unit 102 of the terminal device 100 outputs the audio data of the audio pattern from the output interface unit 106 when a preset time has elapsed after starting the output of the image data.
Therefore, when the set time has elapsed since the image based on the image data is displayed on the screen SC, the second image corresponding to the operation of the indicator 70 can be prevented from being displayed on the screen SC.

また、描画処理部273は、入力インターフェース部251に入力される音声データが予め設定された音声パターンに該当する場合に、予め設定された時間、第2の画像をスクリーンSCに表示させ、時間の経過後に、第2の画像をスクリーンSCに表示させない状態に移行する。
従って、端末装置100からプロジェクター200に送信される予め設定された音声パターンの音声データにより、予め設定された設定時間の間、指示体70の操作に対応した第2の画像をスクリーンSCに表示することができる。また、予め設定された設定時間を経過すると、指示体70の操作に対応した第2の画像が表示されないようにすることができる。
In addition, when the audio data input to the input interface unit 251 corresponds to a preset audio pattern, the drawing processing unit 273 causes the second image to be displayed on the screen SC for a preset time. After the elapse, the second image is shifted to a state where it is not displayed on the screen SC.
Therefore, the second image corresponding to the operation of the indicator 70 is displayed on the screen SC for a preset time by the voice data of the preset voice pattern transmitted from the terminal device 100 to the projector 200. be able to. In addition, it is possible to prevent the second image corresponding to the operation of the indicator 70 from being displayed after a preset set time has elapsed.

上述した実施形態は、本発明の好適な実施形態を示すものであり、本発明を限定するものではなく、本発明の要旨を逸脱しない範囲内において種々の変形実施が可能である。
例えば、上述した実施形態では、プロジェクター200を、透過型液晶パネルを用いた液晶プロジェクターとして説明したが、反射型の液晶パネルやデジタルミラーデバイスを用いたプロジェクターであってもよい。また、スクリーンSCに画像を投射するプロジェクターに限定されず、液晶表示パネルに画像を表示する液晶モニター又は液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像を表示するモニター装置又はテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像を表示するモニター装置又はテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の表示装置に含まれる。
The above-described embodiment shows a preferred embodiment of the present invention, does not limit the present invention, and various modifications can be made without departing from the gist of the present invention.
For example, in the above-described embodiment, the projector 200 has been described as a liquid crystal projector using a transmissive liquid crystal panel, but may be a projector using a reflective liquid crystal panel or a digital mirror device. Further, the projector is not limited to a projector that projects an image on the screen SC, but a liquid crystal monitor or liquid crystal television that displays an image on a liquid crystal display panel, or a monitor device or television receiver that displays an image on a plasma display panel (PDP), OLED Various display devices such as a monitor device that displays an image on an organic EL display panel called (Organic light-emitting diode), OEL (Organic Electro-Luminescence), or a self-luminous display device such as a television receiver are also included in the present invention. It is included in the display device.

また、図2に示す端末装置100の各機能部、及び図3に示すプロジェクター200の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。   Further, each functional unit of the terminal device 100 illustrated in FIG. 2 and each functional unit of the projector 200 illustrated in FIG. 3 indicate a functional configuration realized by cooperation of hardware and software. The specific implementation is not particularly limited. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software.

5 リモコン、30…ケーブル、50…メニュー画面、70…指示体、100…端末装置、101…記憶部、102…制御部、103…ドライブ装置、104…表示部、105…操作部、106…出力インターフェース部、200…プロジェクター(表示装置)、210…表示部、211…光源部、212…光変調装置、213…投射光学系、221…光源駆動部、222…光変調装置駆動部、231…操作パネル、232…リモコン受光部、233…入力処理部、240…指示体検出部、241…撮像部、242…位置検出部、251…入力インターフェース部、252…音声処理部、253…音声出力部、255…画像処理部、256…フレームメモリー、257…画像合成部、260…記憶部、270…制御部、271…投射制御部、272…操作取得部、273…描画処理部、274…データ保存部、275…音声パターン解析部、SC…スクリーン。
5. Remote control, 30 ... cable, 50 ... menu screen, 70 ... indicator, 100 ... terminal device, 101 ... storage unit, 102 ... control unit, 103 ... drive device, 104 ... display unit, 105 ... operation unit, 106 ... output Interface unit 200 ... Projector (display device) 210 ... Display unit 211 ... Light source unit 212 ... Light modulation device 213 ... Projection optical system 221 ... Light source drive unit 222 ... Light modulation device drive unit 231 ... Operation Panel, 232 ... Remote control light receiving unit, 233 ... Input processing unit, 240 ... Indicator detection unit, 241 ... Imaging unit, 242 ... Position detection unit, 251 ... Input interface unit, 252 ... Audio processing unit, 253 ... Audio output unit, 255: Image processing unit, 256: Frame memory, 257 ... Image composition unit, 260 ... Storage unit, 270 ... Control unit, 271 ... Projection control unit, 2 72 ... Operation acquisition unit, 273 ... Drawing processing unit, 274 ... Data storage unit, 275 ... Audio pattern analysis unit, SC ... Screen.

Claims (12)

端末装置と、表示装置とを備える表示システムであって、
前記端末装置は、
画像データ及び音声データを出力する出力部と、
所定の音声パターンの前記音声データを前記出力部から出力させる第1の制御部と、を備え、
前記表示装置は、
前記出力部から出力された前記画像データ及び前記音声データが入力される入力部と、
前記所定の音声パターンと、所定の動作との対応関係を記憶する記憶部と、
前記入力部に入力される前記音声データが前記所定の音声パターンに該当する場合に、前記所定の動作を実行する第2の制御部と、を備える表示システム。
A display system comprising a terminal device and a display device,
The terminal device
An output unit for outputting image data and audio data;
A first control unit that outputs the audio data of a predetermined audio pattern from the output unit,
The display device
An input unit to which the image data and the audio data output from the output unit are input;
A storage unit for storing a correspondence relationship between the predetermined sound pattern and a predetermined operation;
And a second control unit that executes the predetermined operation when the audio data input to the input unit corresponds to the predetermined audio pattern.
前記出力部は、前記画像データ及び前記音声データを出力する出力インターフェースを備え、
前記入力部は、前記画像データ及び前記音声データを入力する入力インターフェースを備える、ことを特徴とする請求項1記載の表示システム。
The output unit includes an output interface that outputs the image data and the audio data.
The display system according to claim 1, wherein the input unit includes an input interface for inputting the image data and the audio data.
前記出力部は、前記画像データを出力するインターフェースと、前記音声データを出力するインターフェースとを含む出力インターフェースを備え、
前記入力部は、前記画像データを入力するインターフェースと、前記音声データを入力するインターフェースとを含む入力インターフェースを備える、ことを特徴とする請求項1記載の表示システム。
The output unit includes an output interface including an interface that outputs the image data and an interface that outputs the audio data.
The display system according to claim 1, wherein the input unit includes an input interface including an interface for inputting the image data and an interface for inputting the audio data.
前記第1の制御部は、前記出力インターフェースから出力する前記画像データが予め設定された変化をする場合に、前記所定の音声パターンの前記音声データを前記出力インターフェースから出力する、ことを特徴とする請求項2又は3記載の表示システム。   The first control unit outputs the audio data of the predetermined audio pattern from the output interface when the image data output from the output interface changes in a preset manner. The display system according to claim 2 or 3. 前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、
指示体の操作を検出する検出部と、
前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、
前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記表示部における前記第2の画像の表示を消去する、ことを特徴とする請求項2から4のいずれかに記載の表示システム。
The display device displays a first image based on the image data input to the input interface;
A detection unit for detecting the operation of the indicator;
A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit;
3. The drawing unit, when the audio data input to the input interface corresponds to the predetermined audio pattern, erases the display of the second image on the display unit. 5. The display system according to any one of 4 to 4.
前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、
指示体の操作を検出する検出部と、
前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、
画像データを記憶する記憶部と、を備え、
前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記表示部に表示した前記第1の画像及び前記第2の画像の少なくとも一方の画像データを前記記憶部に記憶させる、ことを特徴とする請求項2から4のいずれかに記載の表示システム。
The display device displays a first image based on the image data input to the input interface;
A detection unit for detecting the operation of the indicator;
A drawing unit for drawing a second image corresponding to the operation detected by the detection unit and displaying the second image on the display unit;
A storage unit for storing image data,
The drawing unit is configured to display at least one of the first image and the second image displayed on the display unit when the audio data input to the input interface corresponds to the predetermined audio pattern. 5 is stored in the storage unit. The display system according to claim 2.
前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、
指示体の操作を検出する検出部と、
前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、
前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記第2の画像を前記表示部に表示させない状態に移行する、ことを特徴とする請求項2から4のいずれかに記載の表示システム。
The display device displays a first image based on the image data input to the input interface;
A detection unit for detecting the operation of the indicator;
A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit;
The drawing unit shifts to a state where the second image is not displayed on the display unit when the audio data input to the input interface corresponds to the predetermined audio pattern. Item 5. The display system according to any one of Items 2 to 4.
前記第1の制御部は、前記画像データの出力を開始してから、予め設定された時間が経過した場合に、前記所定の音声パターンの前記音声データを前記出力インターフェースから出力する、ことを特徴とする請求項2又は3記載の表示システム。   The first control unit outputs the audio data of the predetermined audio pattern from the output interface when a preset time has elapsed after starting the output of the image data. The display system according to claim 2 or 3. 前記表示装置は、前記入力インターフェースに入力される前記画像データに基づく第1の画像を表示する表示部と、
指示体の操作を検出する検出部と、
前記検出部が検出する操作に対応する第2の画像を描画して、前記表示部に表示させる描画部と、を備え、
前記描画部は、前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、予め設定された時間、前記第2の画像を前記表示部に表示させ、前記時間の経過後に、前記第2の画像を前記表示部に表示させない状態に移行する、ことを特徴とする請求項2から4のいずれかに記載の表示システム。
The display device displays a first image based on the image data input to the input interface;
A detection unit for detecting the operation of the indicator;
A drawing unit that draws a second image corresponding to the operation detected by the detection unit and displays the second image on the display unit;
The drawing unit displays the second image on the display unit for a preset time when the audio data input to the input interface corresponds to the predetermined audio pattern, and the elapsed time The display system according to any one of claims 2 to 4, wherein the second image is later shifted to a state in which the second image is not displayed on the display unit.
画像データ及び音声データを入力する入力インターフェース、又は画像データを入力するインターフェース及び音声データを入力するインターフェースを含む入力インターフェースを備え、
前記入力インターフェースに入力される所定の音声データの前記音声パターンと、前記所定の音声パターンの前記音声データが前記入力インターフェースに入力された場合に実行する動作とが設定され、
前記入力インターフェースに入力される前記音声データが前記所定の音声パターンに該当する場合に、前記所定の音声パターンに対応して設定された前記動作を実行する、ことを特徴とする表示装置。
An input interface for inputting image data and audio data, or an input interface including an interface for inputting image data and an interface for inputting audio data;
The voice pattern of the predetermined voice data input to the input interface and the operation to be executed when the voice data of the predetermined voice pattern is input to the input interface are set.
The display device, wherein when the audio data input to the input interface corresponds to the predetermined audio pattern, the operation set corresponding to the predetermined audio pattern is executed.
画像データ及び音声データを出力する出力インターフェース、又は画像データを出力するインターフェース及び音声データを出力するインターフェースを含む出力インターフェースと、
前記出力インターフェースから出力する前記画像データの変化を検出して、所定の音声パターンの前記音声データを前記出力インターフェースから出力する第1の制御部と、
を備えることを特徴とする端末装置。
An output interface that outputs image data and audio data, or an output interface that includes an interface that outputs image data and an interface that outputs audio data;
A first control unit that detects a change in the image data output from the output interface and outputs the audio data of a predetermined audio pattern from the output interface;
A terminal device comprising:
端末装置と、前記端末装置に接続される表示装置とを有する表示システムの制御方法であって、
前記端末装置により、画像データ及び音声データを出力する出力部から、所定の音声パターンの前記音声データを出力し、
前記表示装置により、前記端末装置の前記出力部に接続される入力部に入力される前記音声データが、前記所定の音声パターンに該当する場合に、前記所定の音声パターンに対応して設定された所定の動作を実行する、ことを特徴とする表示システムの制御方法。
A control method of a display system having a terminal device and a display device connected to the terminal device,
The terminal device outputs the audio data of a predetermined audio pattern from an output unit that outputs image data and audio data,
When the audio data input to the input unit connected to the output unit of the terminal device corresponds to the predetermined audio pattern, the display device is set corresponding to the predetermined audio pattern A control method of a display system, characterized by executing a predetermined operation.
JP2016058249A 2016-03-23 2016-03-23 Display system, display device, terminal device, and display system control method Pending JP2017173497A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016058249A JP2017173497A (en) 2016-03-23 2016-03-23 Display system, display device, terminal device, and display system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016058249A JP2017173497A (en) 2016-03-23 2016-03-23 Display system, display device, terminal device, and display system control method

Publications (1)

Publication Number Publication Date
JP2017173497A true JP2017173497A (en) 2017-09-28

Family

ID=59971101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016058249A Pending JP2017173497A (en) 2016-03-23 2016-03-23 Display system, display device, terminal device, and display system control method

Country Status (1)

Country Link
JP (1) JP2017173497A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190056745A (en) * 2017-11-17 2019-05-27 엘지디스플레이 주식회사 Input Processing Circuit and Display Device having the Same
CN114125356A (en) * 2020-08-27 2022-03-01 精工爱普生株式会社 Display device control method and display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190056745A (en) * 2017-11-17 2019-05-27 엘지디스플레이 주식회사 Input Processing Circuit and Display Device having the Same
KR102387345B1 (en) * 2017-11-17 2022-04-15 엘지디스플레이 주식회사 Input Processing Circuit and Display Device having the Same
CN114125356A (en) * 2020-08-27 2022-03-01 精工爱普生株式会社 Display device control method and display device

Similar Documents

Publication Publication Date Title
US11625876B2 (en) Presentation system and display device for use in the presentation system
JP5585505B2 (en) Image supply apparatus, image display system, image supply apparatus control method, image display apparatus, and program
JP5996602B2 (en) Projection system and projection method thereof
CN103197778B (en) Display device, projector, display system, and device switching method
JP2014052930A (en) Display device and control method of display device
JP6953692B2 (en) Display device and control method of display device
JP2011197758A (en) Information recognition system and control method for the same
JP6834258B2 (en) Display device, display system and control method of display device
JP2010054550A (en) Image display device, projector, program, and information storage medium
JP2011164878A (en) Projector, control method of projector, and image display system
US9307210B2 (en) Image output apparatus, method, and medium
US8917291B2 (en) Projector and control method
JP2017173497A (en) Display system, display device, terminal device, and display system control method
CN107688412A (en) The control method of display device, display system and display device
US10847121B2 (en) Display apparatus and method for controlling display apparatus displaying image with superimposed mask
JP6409312B2 (en) Display system, display device, and display control method
JP6323035B2 (en) Display device and display method
JP7559618B2 (en) Display device control method and display device
JP2010145596A (en) Projector, program, and information storage medium
JP2008020775A (en) Video display system, video display device and remote control transmitter
CN110099258B (en) Display device and control method of display device
JP5272829B2 (en) Display device, projector, display system, and interrupt display method
JP2006202107A (en) Image display device and image display method
KR20180119022A (en) Remote control apparatus and method for controlling thereof
JP2016146021A (en) Display system, display device, and position detection device