JP2018185414A - Projector and projector control method - Google Patents
Projector and projector control method Download PDFInfo
- Publication number
- JP2018185414A JP2018185414A JP2017086942A JP2017086942A JP2018185414A JP 2018185414 A JP2018185414 A JP 2018185414A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2018185414 A JP2018185414 A JP 2018185414A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- dish
- menu
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 6
- 238000009966 trimming Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 abstract description 7
- 230000002194 synthesizing effect Effects 0.000 abstract description 2
- 238000003860 storage Methods 0.000 description 36
- 235000013305 food Nutrition 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 239000004973 liquid crystal related substance Substances 0.000 description 16
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 238000010411 cooking Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 6
- 235000021186 dishes Nutrition 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 241000238557 Decapoda Species 0.000 description 3
- 240000004160 Capsicum annuum Species 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供する。【解決手段】プロジェクターは、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に投射画像を投射する投射部と、第1投射対象の位置と第2投射対象の位置とを検出する検出部と、を含む。生成部は、第1投射対象の位置に第1画像が投射され第2投射対象の位置に第2画像が投射されるように投射画像を生成する。第1画像は、画像を選択するための選択画像である。第2画像は、選択画像を用いて選択された画像である。【選択図】図3A technique is provided that allows a viewer to change one of the images displayed on each of a plurality of objects as a projection image. A projector includes a generation unit that generates a projection image by synthesizing a first image and a second image, and a projection unit that projects the projection image onto a projection area including a first projection target and a second projection target. and a detector that detects the position of the first projection target and the position of the second projection target. The generator generates a projection image such that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target. The first image is a selection image for selecting images. The second image is the image selected using the selection image. [Selection drawing] Fig. 3
Description
本発明は、プロジェクターおよびプロジェクターの制御方法に関する。 The present invention relates to a projector and a projector control method.
特許文献1には、複数の物体の各々に予め対応づけられた画像を合成して投射画像を生成するプロジェクターが記載されている。特許文献1に記載のプロジェクターは、生成した投射画像を投射することによって、複数の物体の各々に対して、当該物体に予め対応づけられた画像を投射して表示する。
特許文献1に記載のプロジェクターは、複数の物体の各々に、当該物体に予め対応づけられた画像を投射して表示する。このため、これらの画像を含む投射画像を見る者は、ある物体に投射される画像を変更できなかった。
The projector described in
本発明は上述した事情に鑑みてなされたものであり、投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供することを解決課題とする。 The present invention has been made in view of the circumstances described above, and it is a solution to provide a technique that allows a person who views the image to change any one of images displayed on each of a plurality of objects as a projection image. To do.
本発明に係るプロジェクターの一態様は、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択して変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
In one aspect of the projector according to the present invention, the projection image is generated in a projection area including a generation unit that generates a projection image by combining the first image and the second image, and a first projection target and a second projection target. A projection unit that projects, and a detection unit that detects a position of the first projection target and a position of the second projection target, and the generation unit includes the first image at the position of the first projection target. The projection image is generated so that the second image is projected and projected to the position of the second projection target, the first image is a selection image for selecting an image, and the second image is It is an image selected using the selected image.
According to this aspect, the person viewing the projection image selects and changes the second image projected on the second projection target using the selection screen (first image) projected on the first projection target. Is possible. It is also possible to provide a relationship between the first image and the second image.
上述したプロジェクターの一態様において、前記検出部は、前記第2投射対象の大きさも検出し、前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2投射対象の大きさに応じて第2画像の大きさを変更することが可能になる。
In one aspect of the projector described above, the detection unit also detects the size of the second projection target, and the generation unit adjusts the size of the second image according to the size of the second projection target. It is desirable to do.
According to this aspect, it is possible to change the size of the second image according to the size of the second projection target.
上述したプロジェクターの一態様において、前記生成部は、前記第2画像にトリミング処理を施すことによって前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2画像にトリミング処理を施すことによって第2画像の大きさを調整するので、第2画像の大きさを第2画像の拡大または縮小で調整する場合に比べて、第2画像が示す物体の大きさの変化を抑制することが可能になる。
In one aspect of the projector described above, it is preferable that the generation unit adjusts the size of the second image by performing a trimming process on the second image.
According to this aspect, since the size of the second image is adjusted by performing the trimming process on the second image, the second image is compared with the case where the size of the second image is adjusted by enlargement or reduction of the second image. It becomes possible to suppress a change in the size of the object indicated by the two images.
上述したプロジェクターの一態様において、前記選択画像は、複数の画像の中から1つの画像を選択するための画像であることが望ましい。
この態様によれば、第2画像を、複数の画像の中から選択することが可能になる。
In one aspect of the projector described above, it is preferable that the selection image is an image for selecting one image from a plurality of images.
According to this aspect, the second image can be selected from a plurality of images.
本発明に係るプロジェクターの制御方法の一態様は、第1画像と第2画像とを合成して投射画像を生成するステップと、第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択することで変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
One aspect of the projector control method according to the present invention includes: a step of generating a projection image by combining the first image and the second image; and a projection area including the first projection target and the second projection target. A step of projecting a projection image; and a step of detecting a position of the first projection target and a position of the second projection target. In the step of generating the projection image, the position of the first projection target is The projection image is generated so that the first image is projected and the second image is projected to the position of the second projection target, and the first image is a selection image for selecting an image, The second image is an image selected using the selected image.
According to this aspect, the person who views the projection image changes the second image projected on the second projection target by selecting the second image projected on the first projection target using the selection screen (first image). It becomes possible. It is also possible to provide a relationship between the first image and the second image.
以下、図面を参照しながら本発明に係る実施の形態を説明する。なお、図面において各部の寸法および縮尺は実際のものと適宜異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、本実施形態には、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the size and scale of each part are appropriately different from the actual ones. The embodiments described below are preferred specific examples of the present invention. For this reason, the technically preferable various restrictions are attached | subjected to this embodiment. However, the scope of the present invention is not limited to these forms unless otherwise specified in the following description.
<第1実施形態>
図1は、第1実施形態に係るプロジェクター100を示した図である。図1では、プロジェクター100がレストランで使用される例を示している。なお、プロジェクター100は、レストラン以外で使用されてもよい。
<First Embodiment>
FIG. 1 is a diagram illustrating a
プロジェクター100は、支持装置(不図示)によってレストランの天井または壁等に固定されている。プロジェクター100は、レストランのテーブル200に設定された投射領域300に、投射画像400を投射して表示する。投射領域300には、レストランのメニュー(以下、単に「メニュー」と称する)を表示するためのメニュー表示体301と、皿302が配置されている。皿302は、レストランのお客によって選択されてもよい。メニュー表示体301は、第1投射対象の一例である。皿302は、第2投射対象の一例である。本実施形態では、メニュー表示体301の高さは、皿302の高さと異なるものとする。
The
図2は、投射画像400の一例を示した図である。投射画像400は、メニュー表示体301に投射される第1領域401と、皿302に投射される第2領域402とを有する。プロジェクター100は、メニューを表すメニュー画像500を、第1領域401に配置する。また、プロジェクター100は、メニュー画像500から選択された料理を表す料理画像600を、第2領域402に配置する。メニュー画像500は、画像を選択するための選択画像および第1画像の一例である。料理画像600は、メニュー画像500を用いて選択された画像および第2画像の一例である。
FIG. 2 is a diagram illustrating an example of the
プロジェクター100は、メニュー表示体301にメニュー画像500が投射され、かつ、皿302に料理画像600が投射されるように、投射画像400を投射領域300に投射する。
The
図3は、プロジェクター100の概略構成を示した図である。プロジェクター100は、受信部1と、記憶部2と、処理部3と、投射部4と、センサー5と、を含む。プロジェクター100は、例えば、リモートコントローラー101によって制御される。
FIG. 3 is a diagram illustrating a schematic configuration of the
リモートコントローラー101は、利用者(例えば、レストランのお客)の入力を受け付ける各種の操作ボタン、操作キー、またはタッチパネル等を備える。リモートコントローラー101は、利用者の入力に応じた情報を送信する。受信部1は、リモートコントローラー101が送信した情報を受信する。
The
記憶部2は、コンピューター読み取り可能な記録媒体である。記憶部2は、プログラム記憶部21と、画像情報記憶部22と、投射対象記憶部23と、を含む。プログラム記憶部21と画像情報記憶部22と投射対象記憶部23は、それぞれ別体であってもよい。
The
プログラム記憶部21は、プロジェクター100の動作を規定するプログラムを記憶する。
The
画像情報記憶部22は、種々の画像情報(例えば、メニュー画像500を示すメニュー画像情報と、料理画像600を示す料理画像情報)を記憶する。
画像情報記憶部22は、メニュー画像情報として、第1メニュー画像501(図4参照)を示す第1メニュー画像情報と、第2メニュー画像502(図5、図6、図7参照)を示す第2メニュー画像情報と、を記憶する。
The image
The image
図4は、第1メニュー画像501の一例を示した図である。
第1メニュー画像501は、料理のジャンル(和食、中華、イタリアン)を選択するために用いられる。第1メニュー画像501で選択可能な料理のジャンルは、和食と中華とイタリアンに限らず適宜変更可能である。第1メニュー画像501は、投射画像400の第1領域401に、メニュー画像500として配置される。
FIG. 4 is a diagram illustrating an example of the
The
第2メニュー画像502は、第1メニュー画像501で選択されたジャンルに属する料理の中から、皿302に投射される料理の画像(料理画像)を選択するために用いられる。第2メニュー画像502は、第1メニュー画像501で料理のジャンルが選択された際に、第1領域401に、第1メニュー画像501に代わって配置される。
The second menu image 502 is used to select a dish image (cooking image) projected on the
本実施形態では、第2メニュー画像502として、和食に応じたメニュー画像502aと、中華に応じたメニュー画像502bと、イタリアンに応じたメニュー画像502cが用いられる。以下、和食に応じたメニュー画像502aを「和食メニュー画像502a」と称し、中華に応じたメニュー画像502bを「中華メニュー画像502b」と称し、イタリアンに応じたメニュー画像502cを「イタリアンメニュー画像502c」と称する。第2メニュー画像502は、和食メニュー画像502a、中華メニュー画像502b、イタリアンメニュー画像502cに限らず適宜変更可能である。
In the present embodiment, as the second menu image 502, a
画像情報記憶部22は、和食メニュー画像502aを示す和食メニュー画像情報と、中華メニュー画像502bを示す中華メニュー画像情報と、イタリアンメニュー画像502cを示すイタリアンメニュー画像情報とを、それぞれ、第2メニュー画像情報として記憶する。
The image
図5は、和食メニュー画像502aの一例を示した図である。和食メニュー画像502aは、和食のジャンルに属する料理の名称(寿司、天ぷら)を表す。和食メニュー画像502aが表す料理の名称は、寿司と天ぷらに限らず適宜変更可能である。
FIG. 5 is a diagram showing an example of the Japanese
図6は、中華メニュー画像502bの一例を示した図である。中華メニュー画像502bは、中華のジャンルに属する料理の名称(エビチリ、炒飯、餃子)を表す。中華メニュー画像502bが表す料理の名称は、エビチリと炒飯と餃子に限らず適宜変更可能である。
FIG. 6 is a diagram showing an example of the
図7は、イタリアンメニュー画像502cの一例を示した図である。イタリアンメニュー画像502cは、イタリアンのジャンルに属する料理の名称を表す。
FIG. 7 is a diagram showing an example of the
図8は、料理画像600の一例(餃子を表す料理画像)を示した図である。画像情報記憶部22は、和食メニュー画像502aが表す各料理についての画像情報と、中華メニュー画像502bが表す各料理についての画像情報と、イタリアンメニュー画像502cが表す各料理についての画像情報とを、それぞれ、料理画像情報として記憶する。
FIG. 8 is a diagram illustrating an example of a dish image 600 (a dish image representing dumplings). The image
図3に戻って、投射対象記憶部23は、投射対象に関する情報を記憶する。具体的には、投射対象記憶部23は、第1投射対象であるメニュー表示体301に関するメニュー表示体情報と、第2投射対象である皿302に関する皿情報とを記憶する。
メニュー表示体情報としては、センサー5からメニュー表示体301までの距離を示す情報(センサー5が測定したメニュー表示体301までの距離を示す情報)が用いられる。皿情報としては、センサー5から皿302までの距離を示す情報(センサー5が測定した皿302までの距離を示す情報)が用いられる。
Returning to FIG. 3, the projection
As the menu display body information, information indicating the distance from the
処理部3は、CPU(Central Processing Unit)等のコンピューターである。処理部3は、プログラム記憶部21に記憶されたプログラムを読み取り実行することによって、生成部31および投射対象検出部32を実現する。なお、1つのCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよいし、複数のCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよい。
The
生成部31は、メニュー画像500と料理画像600とを合成して投射画像400(図2参照)を生成する。生成部31は、メニュー表示体301の位置にメニュー画像500(第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cのいずれか)が投射され、皿302の位置に料理画像600が投射されるように、投射画像400を生成する。
具体的には、生成部31は、第1領域401にメニュー画像500を配置しかつ第2領域402に料理画像600を配置して、投射画像400を生成する。また、生成部31は、第2領域402に料理画像600を配置することなく、第1領域401にメニュー画像500を配置することによっても、投射画像400を生成する。
生成部31は、投射画像400を示す画像信号を生成し、この画像信号を投射部4に出力する。
The
Specifically, the
The
投射部4は、生成部31から画像信号を受け取り、この画像信号に応じて、投射領域300に投射画像400を投射して表示する。投射部4は、メニュー画像500がメニュー表示体301の位置に投射され、かつ、料理画像600が皿302の位置に投射されるように、投射領域300に投射画像400を投射する。
The projection unit 4 receives the image signal from the
図9は、投射部4の一例を示した図である。投射部4は、光源11と、光変調装置の一例である3つの液晶ライトバルブ12(12R,12G,12B)と、投射光学系の一例である投射レンズ13と、ライトバルブ駆動部14等を含む。投射部4は、光源11から射出された光を液晶ライトバルブ12で変調して投射画像(画像光)を形成し、この投射画像を投射レンズ13から拡大投射する。
FIG. 9 is a diagram illustrating an example of the projection unit 4. The projection unit 4 includes a
光源11は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、またはレーザー光源等からなる光源部11aと、光源部11aが放射した光の方向のばらつきを低減するリフレクター11bとを含む。光源11から射出された光は、不図示のインテグレーター光学系によって輝度分布のばらつきが低減され、その後、不図示の色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の色光成分に分離される。R,G,Bの色光成分は、それぞれ液晶ライトバルブ12R,12G,12Bに入射する。
The
液晶ライトバルブ12は、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。液晶ライトバルブ12には、マトリクス状に配列された複数の画素12pからなる矩形の画素領域12aが形成されている。液晶ライトバルブ12では、液晶に対して画素12pごとに駆動電圧を印加することが可能である。ライトバルブ駆動部14が、生成部31から入力される画像信号に応じた駆動電圧を各画素12pに印加すると、各画素12pは、画像信号に応じた光透過率に設定される。このため、光源11から射出された光は、画素領域12aを透過することで変調され、画像信号に応じた画像が色光ごとに形成される。
The liquid crystal light valve 12 is configured by a liquid crystal panel in which liquid crystal is sealed between a pair of transparent substrates. The liquid crystal light valve 12 is formed with a
各色の画像は、図示しない色合成光学系によって画素12pごとに合成され、カラー画像光(カラー画像)である投射画像光(投射画像)が生成される。投射画像光は、投射レンズ13によって投射領域300に拡大投射される。
The images of the respective colors are synthesized for each
図3に戻って、投射対象検出部32は、検出部の一例である。投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。本実施形態では、投射対象検出部32は、センサー5の出力に基づいて、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。
Returning to FIG. 3, the projection
センサー5は、例えば、TOF(Time of Flight)方式の距離画像センサーである。センサー5は、投射領域300に存在する物体(投射対象)までの距離を測定する。
The
図10は、センサー5の一例を示した図である。
センサー5は、赤外光源部51と、赤外受光部52と、センサー制御部53と、メモリー54と、を含む。
FIG. 10 is a diagram illustrating an example of the
The
赤外光源部51は、赤外検出光が投射領域300の全域に拡散されるように、赤外検出光を投射領域300に照射する。
The infrared
赤外受光部52は、投射領域300で反射された赤外検出光(以下「反射光」とも称する)を受光する。赤外受光部52は、マトリクス状に配置された複数の赤外受光素子52a(図11参照)を有し、複数の赤外受光素子52aの各々で反射光を受光する。このため、複数の赤外受光素子52aの出力によって、投射領域300の赤外画像が構成されることになる。
マトリクス状に配置された複数の赤外受光素子52aの位置は、液晶ライトバルブ12にマトリクス状に配列された複数の画素12pの位置(図9参照)と対応づけられている。この対応関係を示す座標変換データは記憶部2に記憶されている。この座標変換データは、プロジェクター100が公知のキャリブレーション処理を実行することによって生成される。
The infrared
The positions of the plurality of infrared
センサー制御部53は、赤外光源部51および赤外受光部52を制御する。センサー制御部53は、赤外光源部51が照射した赤外検出光の位相をメモリー54に記憶する。また、センサー制御部53は、各赤外受光素子52aが受光した反射光の位相をメモリー54に記憶する。また、センサー制御部53は、赤外光源部51が照射した赤外検出光の位相と、各赤外受光素子52aが受光した反射光の位相とを、メモリー54から読み出す。
The
センサー制御部53は、赤外受光素子52aごとに、赤外光源部51が照射した赤外検出光の位相と、赤外受光素子52aが受光した反射光の位相との差を算出する。センサー制御部53は、その算出結果に基づいて、赤外受光素子52aごとに、その赤外受光素子52aにて受光された赤外光を反射した投射領域300の部分までの距離を測定する。
センサー制御部53は、これらの測定結果に基づいて、赤外受光素子52aごとの距離情報を生成する。
The
The
図11は、赤外受光素子52aごとの距離情報を説明するための図である。
赤外受光素子52aごとの距離情報では、マトリクス状に配置された複数の赤外受光素子52aの各々について、横方向の位置がX軸の値(X座標)として用いられ、縦方向の位置がY軸の値(Y座標)として用いられている。そして、複数の赤外受光素子52aの各々において、測定された距離が、Z軸の値(Z座標)として用いられている。このため、赤外受光素子52aごとの距離情報は、それぞれ、XYZの3軸の座標(X、Y、Z)で示される。
FIG. 11 is a diagram for explaining distance information for each infrared
In the distance information for each infrared
投射対象検出部32は、赤外受光素子52aごとの距離情報と、投射対象記憶部23に記憶されたメニュー表示体情報および皿情報と、を用いて、メニュー表示体301および皿302を検出する。
The projection
例えば、投射対象検出部32は、まず、赤外受光素子52aごとの距離情報の中から、メニュー表示体情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第1該当距離情報として特定する。続いて、投射対象検出部32は、第1該当距離情報のXY座標の値を用いて、メニュー表示体301の位置および大きさを検出する。
また、投射対象検出部32は、赤外受光素子52aごとの距離情報の中から、皿情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第2該当距離情報として特定する。続いて、投射対象検出部32は、第2該当距離情報のXY座標の値を用いて、皿302の位置および大きさを検出する。
For example, the projection
Moreover, the projection
生成部31は、投射対象検出部32が検出したメニュー表示体301の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第1領域401の位置および大きさを決定する。また、生成部31は、投射対象検出部32が検出した皿302の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第2領域402の位置および大きさを決定する。本実施形態では、生成部31は、第2領域402として、皿302に収まる矩形領域を決定する。
The
次に、動作を説明する。図12は、プロジェクター100の動作を説明するためのフローチャートである。
例えば、レストランのお客が、メニュー表示体301と皿302とが配置されたテーブル200に着くと、レストランの店員がリモートコントローラー101を操作して、リモートコントローラー101に表示開始指示を入力する。なお、皿302は、表示開始指示が入力される前にレストランのお客に選択されてからテーブル200に配置されてもよい。リモートコントローラー101は、表示開始指示を受け取ると、表示開始指示を受信部1に送信する。受信部1は、表示開始指示を受信すると、表示開始指示を生成部31に出力する。
Next, the operation will be described. FIG. 12 is a flowchart for explaining the operation of the
For example, when a restaurant customer arrives at the table 200 on which the
生成部31は、表示開始指示を受け取ると、センサー5に動作指示を出力する。センサー5は、動作指示を受け取ると、投射領域300までの距離を測定し、赤外受光素子52aごとの距離情報(図11参照)を投射対象検出部32に出力する。
Upon receiving the display start instruction, the
投射対象検出部32は、赤外受光素子52aごとの距離情報を受け取ると、投射対象記憶部23からメニュー表示体情報と皿情報とを読み出す。続いて、投射対象検出部32は、赤外受光素子52aごとの距離情報と、メニュー表示体情報および皿情報と、を用いて、メニュー表示体301の位置および大きさと、皿302の位置および大きさと、を検出する(ステップS1)。続いて、投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさとを、生成部31に出力する。
When receiving the distance information for each infrared
生成部31は、メニュー表示体301の位置および大きさを受け取ると、メニュー表示体301の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第1領域401を決定する。また、生成部31は、皿302の位置および大きさを受け取ると、皿302の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第2領域402を決定する(ステップS2)。
Upon receiving the position and size of the
続いて、生成部31は、画像情報記憶部22から第1メニュー画像情報を読み出す。続いて、生成部31は、第2領域402に料理画像600を配置することなく、第1メニュー画像情報を用いて第1領域401に第1メニュー画像501を配置して投射画像400を生成する(ステップS3)。ステップS3で生成された投射画像400を「ジャンル選択用投射画像」とも称する。ジャンル選択用投射画像では、第2領域402は空白となっている。
Subsequently, the
続いて、生成部31は、ジャンル選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じてジャンル選択用投射画像を投射領域300に投射する(ステップS4)。この際、第1メニュー画像501(図4参照)がメニュー表示体301に投射される。
Subsequently, the
レストランのお客は、メニュー表示体301に投射された第1メニュー画像501を見ながら、リモートコントローラー101を操作して料理のジャンル(和食、中華またはイタリアン)を選択する。リモートコントローラー101は、ジャンルの選択結果を受け取ると、ジャンルの選択結果を受信部1に送信する。受信部1は、ジャンルの選択結果を受信すると(ステップS5)、ジャンルの選択結果を生成部31に出力する。
A customer of the restaurant operates the
生成部31は、ジャンルの選択結果を受け取ると、ジャンルの選択結果に応じた第2メニュー画像502を画像情報記憶部22から読み出す。例えば、ジャンルの選択結果が和食を示す場合、生成部31は、和食メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果が中華を示す場合、生成部31は、中華メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果がイタリアンを示す場合、生成部31は、イタリアンメニュー画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、中華メニュー画像情報が画像情報記憶部22から読み出されたとする。
Upon receiving the genre selection result, the
続いて、生成部31は、第2領域402に料理画像600を配置することなく、中華メニュー画像情報を用いて第1領域401に中華メニュー画像502bを配置して投射画像400を生成する(ステップS6)。ステップS6で生成された投射画像400を「料理選択用投射画像」とも称する。料理選択用投射画像でも、ジャンル選択用投射画像と同様に、第2領域402は空白となっている。
Subsequently, the generating
続いて、生成部31は、料理選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理選択用投射画像を投射領域300に投射する(ステップS7)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射される。
Subsequently, the
レストランのお客は、メニュー表示体301に投射された中華メニュー画像502bを見ながら、リモートコントローラー101を操作して料理を選択する。リモートコントローラー101は、料理の選択結果を受け取ると、料理の選択結果を受信部1に送信する。受信部1は、料理の選択結果を受信すると(ステップS8)、料理の選択結果を生成部31に出力する。
A restaurant customer operates the
生成部31は、料理の選択結果を受け取ると、料理の選択結果に応じた料理画像600を画像情報記憶部22から読み出す。例えば、料理の選択結果が餃子を示す場合、生成部31は、餃子の料理画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、餃子の料理画像情報が画像情報記憶部22から読み出されたとする。
Upon receiving the dish selection result, the
続いて、生成部31は、第1領域401に中華メニュー画像502bを配置し、かつ、第2領域402に餃子の料理画像600を配置して投射画像400を生成する(ステップS9)。ステップS9で生成された投射画像400を「料理画像付き投射画像」とも称する。
Subsequently, the generating
続いて、生成部31は、料理画像付き投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理画像付き投射画像を投射領域300に投射する(ステップS10)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射され、かつ、餃子の料理画像(図8参照)が皿302に投射される。
Subsequently, the
本実施形態のプロジェクター100およびプロジェクター100の制御方法によれば、レストランのお客は、皿302に投射される料理画像600を、メニュー表示体301に投射されたメニュー画像500を用いて選択することで変更することが可能になる。また、メニュー画像500と料理画像600との間に関連性を持たせることも可能になる。
According to the
<変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications as described below are possible, for example. Further, one or a plurality of modifications arbitrarily selected from the modifications described below can be appropriately combined.
<変形例1>
皿302は、大きさの異なる複数の皿の中から選択されてもよい。例えば、互いに大きさの異なる「大」「中」「小」の3つの皿が用意され、レストランのお客によって、大盛りが注文されたときに「大」の皿が皿302としてテーブル200に置かれ、並盛りが注文されたときに「中」の皿が皿302としてテーブル200に置かれ、少なめを注文したときに「小」の皿が皿302としてテーブル200に置かれてもよい。
この場合、生成部31は、皿302の大きさに応じて第2領域402の大きさを調整し、第2領域402の大きさに応じて料理画像600の大きさを調整してもよい。例えば、生成部31は、皿302が大きいほど、第2領域402および料理画像600を大きくしてもよい。
<
The
In this case, the
皿302が大きいほど、第2領域402および料理画像600が大きくなる場合、料理ごとに、大きさの異なる複数の料理画像情報が、予め画像情報記憶部22に記憶されてもよい。
When the
また、複数の皿の中で一番大きな皿に対応した料理画像情報が画像情報記憶部22に記憶され、一番大きな皿よりも小さい皿が用いられた場合、生成部31が、その料理画像情報が示す料理画像にトリミング処理を施すことによって、料理画像の大きさを調整してもよい。
なお、料理画像の大きさを料理画像の拡大または縮小で調整する場合、料理画像に示される料理の大きさ(例えば、餃子の大きさ、または、エビの大きさ)が変わってしまう。このため、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなる可能性が高くなる。
これに対して、料理画像にトリミング処理を施すことによって料理画像の大きさが調整されれば、料理画像の大きさを料理画像の拡大または縮小で調整する場合に比べて、料理画像が示す物体の大きさの変化を抑制でき、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなることを抑制可能になる。
In addition, when the dish image information corresponding to the largest dish among the plurality of dishes is stored in the image
When the size of the cooking image is adjusted by enlarging or reducing the cooking image, the size of the cooking shown in the cooking image (for example, the size of dumplings or the size of shrimp) changes. For this reason, the possibility that the difference between the size of the dish displayed on the
On the other hand, if the size of the dish image is adjusted by performing the trimming process on the dish image, the object indicated by the dish image is larger than the case where the size of the dish image is adjusted by enlargement or reduction of the dish image. The change in the size of the dish can be suppressed, and an increase in the difference between the size of the dish displayed on the
<変形例2>
投射対象記憶部23は、ステップS1ではメニュー表示体301の位置および大きさのみを検出し、受信部1による料理の選択結果の受信に応じて、皿302の位置および大きさを検出してもよい。この場合、皿302は、図12に示したステップS8が実行される前にテーブル200に配置されていればよく、図12に示した動作が実行される場合に比べて、皿302をテーブル200に配置するタイミングの自由度が高くなる。
<
In step S1, the projection
<変形例3>
センサー5としてTOFセンサーが用いられたが、センサー5は、TOFセンサーに限らず適宜変更可能である。例えば、センサー5は、ステレオカメラのように視差を利用してメニュー表示体301および皿302を検出してもよい。また、センサー5は、RGBカメラでもよい。この場合、投射対象検出部32は、RGBカメラが出力する画像情報を用いて、メニュー表示体301および皿302を検出してもよい。RGBカメラを使用することにより、物体が有する色彩、または物体に記載された文字等の情報を利用して物体(投射対象)を検出することが可能になる。
<
Although the TOF sensor is used as the
<変形例4>
第1投射対象は、メニュー表示体301に限らず、投射対象物であれば適宜変更可能である。また、第2投射対象は、皿302に限らず、投射対象物であれば適宜変更可能である。
<Modification 4>
The first projection target is not limited to the
<変形例5>
第1投射対象に投射される第1画像として、第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cが択一的に用いられたが、第1画像は、1種類のメニュー画像でもよい。さらに言えば、第1画像は、料理の画像を選択する画面に限らず、第2投射対象に投射される画像を選択するための選択画像であればよい。
第2投射対象に投射される第2画像は、料理画像に限らず適宜変更可能である。
<
As the first image projected on the first projection target, the
The second image projected on the second projection target is not limited to the dish image and can be changed as appropriate.
<変形例6>
和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cの各々では、料理が、料理名(文字)ではなく料理の画像で示されてもよく、また、料理名(文字)と料理の画像とで示されてもよい。
<Modification 6>
In each of the Japanese
<変形例7>
処理部3がプログラムを実行することによって実現される要素の全部または一部は、例えばFPGA(field programmable gate array)またはASIC(Application Specific IC)等の電子回路によりハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの協働により実現されてもよい。
<Modification 7>
All or a part of the elements realized by the
<変形例8>
投射部4では、光変調装置として液晶ライトバルブが用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合には、色分離光学系や色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な構成は、光変調装置として採用できる。
<Modification 8>
In the projection unit 4, a liquid crystal light valve is used as the light modulation device, but the light modulation device is not limited to the liquid crystal light valve and can be changed as appropriate. For example, the light modulation device may have a configuration using three reflective liquid crystal panels. Further, the light modulation device may have a configuration using one liquid crystal panel, a method using three digital mirror devices (DMD), a method using one digital mirror device, and the like. When only one liquid crystal panel or DMD is used as the light modulation device, members corresponding to the color separation optical system and the color synthesis optical system are unnecessary. In addition to the liquid crystal panel and the DMD, a configuration capable of modulating the light emitted from the light source can be employed as the light modulation device.
1…受信部、2…記憶部、21…プログラム記憶部、22…画像情報記憶部、23…投射対象記憶部、3…処理部、31…生成部、32…投射対象検出部、4…投射部、5…センサー、100…プロジェクター、101…リモートコントローラー。
DESCRIPTION OF
Claims (5)
第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、
前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、
前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクター。 A generating unit that generates a projection image by combining the first image and the second image;
A projection unit that projects the projection image onto a projection area including a first projection target and a second projection target;
A detection unit that detects the position of the first projection target and the position of the second projection target;
The generation unit generates the projection image so that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target.
The first image is a selection image for selecting an image,
The second image is an image selected using the selected image.
A projector characterized by that.
前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することを特徴とする請求項1に記載のプロジェクター。 The detection unit also detects the size of the second projection target,
The projector according to claim 1, wherein the generation unit adjusts a size of the second image according to a size of the second projection target.
第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、
前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、
前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクターの制御方法。
Combining the first image and the second image to generate a projection image;
Projecting the projection image onto a projection area including a first projection target and a second projection target;
Detecting the position of the first projection target and the position of the second projection target,
In the step of generating the projection image, the projection image is generated so that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target.
The first image is a selection image for selecting an image,
The second image is an image selected using the selected image.
And a projector control method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017086942A JP2018185414A (en) | 2017-04-26 | 2017-04-26 | Projector and projector control method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017086942A JP2018185414A (en) | 2017-04-26 | 2017-04-26 | Projector and projector control method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018185414A true JP2018185414A (en) | 2018-11-22 |
Family
ID=64355766
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017086942A Pending JP2018185414A (en) | 2017-04-26 | 2017-04-26 | Projector and projector control method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018185414A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3983848A4 (en) * | 2019-09-04 | 2022-05-11 | Material Technologies Corporation | Object feature visualization apparatus and methods |
| JP2023544622A (en) * | 2020-10-09 | 2023-10-24 | マテリアル テクノロジーズ コーポレイション | Target feature visualization device and method |
| US12511669B2 (en) | 2021-09-22 | 2025-12-30 | Casio Computer Co., Ltd. | Projection processing device, storage medium, and projection method |
-
2017
- 2017-04-26 JP JP2017086942A patent/JP2018185414A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3983848A4 (en) * | 2019-09-04 | 2022-05-11 | Material Technologies Corporation | Object feature visualization apparatus and methods |
| JP2022544679A (en) * | 2019-09-04 | 2022-10-20 | マテリアル テクノロジーズ コーポレイション | Target feature visualization device and method |
| US12020353B2 (en) | 2019-09-04 | 2024-06-25 | Material Technologies Corporation | Object feature visualization apparatus and methods |
| JP2023544622A (en) * | 2020-10-09 | 2023-10-24 | マテリアル テクノロジーズ コーポレイション | Target feature visualization device and method |
| US12511669B2 (en) | 2021-09-22 | 2025-12-30 | Casio Computer Co., Ltd. | Projection processing device, storage medium, and projection method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2020005094A (en) | Projector and projector control method | |
| JPWO2014171134A1 (en) | Projection display device | |
| JP2020005095A (en) | Projector and projector control method | |
| JP2018160803A (en) | Projector and projector control method | |
| JP6897386B2 (en) | Multi-projection system, projector and projector control method | |
| JP6809292B2 (en) | Projector and projector control method | |
| JP2020174349A (en) | Projection device and image adjustment method | |
| JP2015126334A (en) | Image display device and method for controlling image display device | |
| JP2019078845A (en) | Projector and method for controlling projector | |
| JP2018185414A (en) | Projector and projector control method | |
| CN112312102B (en) | Control method of image projection system and image projection system | |
| US20230276036A1 (en) | Method of adjusting projection image, projection system, and control apparatus | |
| CN114760451B (en) | Projection image correction prompting method, projection image correction prompting device, projection equipment and storage medium | |
| US20200077060A1 (en) | Image Calibration Method and Projector System Capable of Adjusting a Distorted Image Automatically | |
| JP2019024180A (en) | Projector, multi-projection system, and method for controlling projector | |
| JPWO2018042582A1 (en) | Projection-type image display device and projection image adjustment method | |
| JP6221287B2 (en) | Projector and projector control method | |
| CN111093065B (en) | Multi-projection system, projector, and control method for projector | |
| US10863058B2 (en) | Image processing device, display device, and image processing method | |
| JP2020067638A (en) | Display system, display device and display device control method | |
| JP2019132939A (en) | Projector and method for controlling projector | |
| JP7347205B2 (en) | Projection system control method, projection system and control program | |
| US20200145628A1 (en) | Projection apparatus and correcting method of display image | |
| US20250240393A1 (en) | Calibration method, system, and non-transitory computer-readable storage medium storing program | |
| JP7726060B2 (en) | Projection method and projector |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20190322 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |