JP2018185414A - プロジェクターおよびプロジェクターの制御方法 - Google Patents
プロジェクターおよびプロジェクターの制御方法 Download PDFInfo
- Publication number
- JP2018185414A JP2018185414A JP2017086942A JP2017086942A JP2018185414A JP 2018185414 A JP2018185414 A JP 2018185414A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2018185414 A JP2018185414 A JP 2018185414A
- Authority
- JP
- Japan
- Prior art keywords
- image
- projection
- dish
- menu
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 6
- 238000009966 trimming Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 abstract description 7
- 230000002194 synthesizing effect Effects 0.000 abstract description 2
- 238000003860 storage Methods 0.000 description 36
- 235000013305 food Nutrition 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 239000004973 liquid crystal related substance Substances 0.000 description 16
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 238000010411 cooking Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 6
- 235000021186 dishes Nutrition 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 241000238557 Decapoda Species 0.000 description 3
- 240000004160 Capsicum annuum Species 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供する。【解決手段】プロジェクターは、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に投射画像を投射する投射部と、第1投射対象の位置と第2投射対象の位置とを検出する検出部と、を含む。生成部は、第1投射対象の位置に第1画像が投射され第2投射対象の位置に第2画像が投射されるように投射画像を生成する。第1画像は、画像を選択するための選択画像である。第2画像は、選択画像を用いて選択された画像である。【選択図】図3
Description
本発明は、プロジェクターおよびプロジェクターの制御方法に関する。
特許文献1には、複数の物体の各々に予め対応づけられた画像を合成して投射画像を生成するプロジェクターが記載されている。特許文献1に記載のプロジェクターは、生成した投射画像を投射することによって、複数の物体の各々に対して、当該物体に予め対応づけられた画像を投射して表示する。
特許文献1に記載のプロジェクターは、複数の物体の各々に、当該物体に予め対応づけられた画像を投射して表示する。このため、これらの画像を含む投射画像を見る者は、ある物体に投射される画像を変更できなかった。
本発明は上述した事情に鑑みてなされたものであり、投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供することを解決課題とする。
本発明に係るプロジェクターの一態様は、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択して変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択して変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
上述したプロジェクターの一態様において、前記検出部は、前記第2投射対象の大きさも検出し、前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2投射対象の大きさに応じて第2画像の大きさを変更することが可能になる。
この態様によれば、第2投射対象の大きさに応じて第2画像の大きさを変更することが可能になる。
上述したプロジェクターの一態様において、前記生成部は、前記第2画像にトリミング処理を施すことによって前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2画像にトリミング処理を施すことによって第2画像の大きさを調整するので、第2画像の大きさを第2画像の拡大または縮小で調整する場合に比べて、第2画像が示す物体の大きさの変化を抑制することが可能になる。
この態様によれば、第2画像にトリミング処理を施すことによって第2画像の大きさを調整するので、第2画像の大きさを第2画像の拡大または縮小で調整する場合に比べて、第2画像が示す物体の大きさの変化を抑制することが可能になる。
上述したプロジェクターの一態様において、前記選択画像は、複数の画像の中から1つの画像を選択するための画像であることが望ましい。
この態様によれば、第2画像を、複数の画像の中から選択することが可能になる。
この態様によれば、第2画像を、複数の画像の中から選択することが可能になる。
本発明に係るプロジェクターの制御方法の一態様は、第1画像と第2画像とを合成して投射画像を生成するステップと、第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択することで変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択することで変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
以下、図面を参照しながら本発明に係る実施の形態を説明する。なお、図面において各部の寸法および縮尺は実際のものと適宜異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、本実施形態には、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
<第1実施形態>
図1は、第1実施形態に係るプロジェクター100を示した図である。図1では、プロジェクター100がレストランで使用される例を示している。なお、プロジェクター100は、レストラン以外で使用されてもよい。
図1は、第1実施形態に係るプロジェクター100を示した図である。図1では、プロジェクター100がレストランで使用される例を示している。なお、プロジェクター100は、レストラン以外で使用されてもよい。
プロジェクター100は、支持装置(不図示)によってレストランの天井または壁等に固定されている。プロジェクター100は、レストランのテーブル200に設定された投射領域300に、投射画像400を投射して表示する。投射領域300には、レストランのメニュー(以下、単に「メニュー」と称する)を表示するためのメニュー表示体301と、皿302が配置されている。皿302は、レストランのお客によって選択されてもよい。メニュー表示体301は、第1投射対象の一例である。皿302は、第2投射対象の一例である。本実施形態では、メニュー表示体301の高さは、皿302の高さと異なるものとする。
図2は、投射画像400の一例を示した図である。投射画像400は、メニュー表示体301に投射される第1領域401と、皿302に投射される第2領域402とを有する。プロジェクター100は、メニューを表すメニュー画像500を、第1領域401に配置する。また、プロジェクター100は、メニュー画像500から選択された料理を表す料理画像600を、第2領域402に配置する。メニュー画像500は、画像を選択するための選択画像および第1画像の一例である。料理画像600は、メニュー画像500を用いて選択された画像および第2画像の一例である。
プロジェクター100は、メニュー表示体301にメニュー画像500が投射され、かつ、皿302に料理画像600が投射されるように、投射画像400を投射領域300に投射する。
図3は、プロジェクター100の概略構成を示した図である。プロジェクター100は、受信部1と、記憶部2と、処理部3と、投射部4と、センサー5と、を含む。プロジェクター100は、例えば、リモートコントローラー101によって制御される。
リモートコントローラー101は、利用者(例えば、レストランのお客)の入力を受け付ける各種の操作ボタン、操作キー、またはタッチパネル等を備える。リモートコントローラー101は、利用者の入力に応じた情報を送信する。受信部1は、リモートコントローラー101が送信した情報を受信する。
記憶部2は、コンピューター読み取り可能な記録媒体である。記憶部2は、プログラム記憶部21と、画像情報記憶部22と、投射対象記憶部23と、を含む。プログラム記憶部21と画像情報記憶部22と投射対象記憶部23は、それぞれ別体であってもよい。
プログラム記憶部21は、プロジェクター100の動作を規定するプログラムを記憶する。
画像情報記憶部22は、種々の画像情報(例えば、メニュー画像500を示すメニュー画像情報と、料理画像600を示す料理画像情報)を記憶する。
画像情報記憶部22は、メニュー画像情報として、第1メニュー画像501(図4参照)を示す第1メニュー画像情報と、第2メニュー画像502(図5、図6、図7参照)を示す第2メニュー画像情報と、を記憶する。
画像情報記憶部22は、メニュー画像情報として、第1メニュー画像501(図4参照)を示す第1メニュー画像情報と、第2メニュー画像502(図5、図6、図7参照)を示す第2メニュー画像情報と、を記憶する。
図4は、第1メニュー画像501の一例を示した図である。
第1メニュー画像501は、料理のジャンル(和食、中華、イタリアン)を選択するために用いられる。第1メニュー画像501で選択可能な料理のジャンルは、和食と中華とイタリアンに限らず適宜変更可能である。第1メニュー画像501は、投射画像400の第1領域401に、メニュー画像500として配置される。
第1メニュー画像501は、料理のジャンル(和食、中華、イタリアン)を選択するために用いられる。第1メニュー画像501で選択可能な料理のジャンルは、和食と中華とイタリアンに限らず適宜変更可能である。第1メニュー画像501は、投射画像400の第1領域401に、メニュー画像500として配置される。
第2メニュー画像502は、第1メニュー画像501で選択されたジャンルに属する料理の中から、皿302に投射される料理の画像(料理画像)を選択するために用いられる。第2メニュー画像502は、第1メニュー画像501で料理のジャンルが選択された際に、第1領域401に、第1メニュー画像501に代わって配置される。
本実施形態では、第2メニュー画像502として、和食に応じたメニュー画像502aと、中華に応じたメニュー画像502bと、イタリアンに応じたメニュー画像502cが用いられる。以下、和食に応じたメニュー画像502aを「和食メニュー画像502a」と称し、中華に応じたメニュー画像502bを「中華メニュー画像502b」と称し、イタリアンに応じたメニュー画像502cを「イタリアンメニュー画像502c」と称する。第2メニュー画像502は、和食メニュー画像502a、中華メニュー画像502b、イタリアンメニュー画像502cに限らず適宜変更可能である。
画像情報記憶部22は、和食メニュー画像502aを示す和食メニュー画像情報と、中華メニュー画像502bを示す中華メニュー画像情報と、イタリアンメニュー画像502cを示すイタリアンメニュー画像情報とを、それぞれ、第2メニュー画像情報として記憶する。
図5は、和食メニュー画像502aの一例を示した図である。和食メニュー画像502aは、和食のジャンルに属する料理の名称(寿司、天ぷら)を表す。和食メニュー画像502aが表す料理の名称は、寿司と天ぷらに限らず適宜変更可能である。
図6は、中華メニュー画像502bの一例を示した図である。中華メニュー画像502bは、中華のジャンルに属する料理の名称(エビチリ、炒飯、餃子)を表す。中華メニュー画像502bが表す料理の名称は、エビチリと炒飯と餃子に限らず適宜変更可能である。
図7は、イタリアンメニュー画像502cの一例を示した図である。イタリアンメニュー画像502cは、イタリアンのジャンルに属する料理の名称を表す。
図8は、料理画像600の一例(餃子を表す料理画像)を示した図である。画像情報記憶部22は、和食メニュー画像502aが表す各料理についての画像情報と、中華メニュー画像502bが表す各料理についての画像情報と、イタリアンメニュー画像502cが表す各料理についての画像情報とを、それぞれ、料理画像情報として記憶する。
図3に戻って、投射対象記憶部23は、投射対象に関する情報を記憶する。具体的には、投射対象記憶部23は、第1投射対象であるメニュー表示体301に関するメニュー表示体情報と、第2投射対象である皿302に関する皿情報とを記憶する。
メニュー表示体情報としては、センサー5からメニュー表示体301までの距離を示す情報(センサー5が測定したメニュー表示体301までの距離を示す情報)が用いられる。皿情報としては、センサー5から皿302までの距離を示す情報(センサー5が測定した皿302までの距離を示す情報)が用いられる。
メニュー表示体情報としては、センサー5からメニュー表示体301までの距離を示す情報(センサー5が測定したメニュー表示体301までの距離を示す情報)が用いられる。皿情報としては、センサー5から皿302までの距離を示す情報(センサー5が測定した皿302までの距離を示す情報)が用いられる。
処理部3は、CPU(Central Processing Unit)等のコンピューターである。処理部3は、プログラム記憶部21に記憶されたプログラムを読み取り実行することによって、生成部31および投射対象検出部32を実現する。なお、1つのCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよいし、複数のCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよい。
生成部31は、メニュー画像500と料理画像600とを合成して投射画像400(図2参照)を生成する。生成部31は、メニュー表示体301の位置にメニュー画像500(第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cのいずれか)が投射され、皿302の位置に料理画像600が投射されるように、投射画像400を生成する。
具体的には、生成部31は、第1領域401にメニュー画像500を配置しかつ第2領域402に料理画像600を配置して、投射画像400を生成する。また、生成部31は、第2領域402に料理画像600を配置することなく、第1領域401にメニュー画像500を配置することによっても、投射画像400を生成する。
生成部31は、投射画像400を示す画像信号を生成し、この画像信号を投射部4に出力する。
具体的には、生成部31は、第1領域401にメニュー画像500を配置しかつ第2領域402に料理画像600を配置して、投射画像400を生成する。また、生成部31は、第2領域402に料理画像600を配置することなく、第1領域401にメニュー画像500を配置することによっても、投射画像400を生成する。
生成部31は、投射画像400を示す画像信号を生成し、この画像信号を投射部4に出力する。
投射部4は、生成部31から画像信号を受け取り、この画像信号に応じて、投射領域300に投射画像400を投射して表示する。投射部4は、メニュー画像500がメニュー表示体301の位置に投射され、かつ、料理画像600が皿302の位置に投射されるように、投射領域300に投射画像400を投射する。
図9は、投射部4の一例を示した図である。投射部4は、光源11と、光変調装置の一例である3つの液晶ライトバルブ12(12R,12G,12B)と、投射光学系の一例である投射レンズ13と、ライトバルブ駆動部14等を含む。投射部4は、光源11から射出された光を液晶ライトバルブ12で変調して投射画像(画像光)を形成し、この投射画像を投射レンズ13から拡大投射する。
光源11は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、またはレーザー光源等からなる光源部11aと、光源部11aが放射した光の方向のばらつきを低減するリフレクター11bとを含む。光源11から射出された光は、不図示のインテグレーター光学系によって輝度分布のばらつきが低減され、その後、不図示の色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の色光成分に分離される。R,G,Bの色光成分は、それぞれ液晶ライトバルブ12R,12G,12Bに入射する。
液晶ライトバルブ12は、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。液晶ライトバルブ12には、マトリクス状に配列された複数の画素12pからなる矩形の画素領域12aが形成されている。液晶ライトバルブ12では、液晶に対して画素12pごとに駆動電圧を印加することが可能である。ライトバルブ駆動部14が、生成部31から入力される画像信号に応じた駆動電圧を各画素12pに印加すると、各画素12pは、画像信号に応じた光透過率に設定される。このため、光源11から射出された光は、画素領域12aを透過することで変調され、画像信号に応じた画像が色光ごとに形成される。
各色の画像は、図示しない色合成光学系によって画素12pごとに合成され、カラー画像光(カラー画像)である投射画像光(投射画像)が生成される。投射画像光は、投射レンズ13によって投射領域300に拡大投射される。
図3に戻って、投射対象検出部32は、検出部の一例である。投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。本実施形態では、投射対象検出部32は、センサー5の出力に基づいて、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。
センサー5は、例えば、TOF(Time of Flight)方式の距離画像センサーである。センサー5は、投射領域300に存在する物体(投射対象)までの距離を測定する。
図10は、センサー5の一例を示した図である。
センサー5は、赤外光源部51と、赤外受光部52と、センサー制御部53と、メモリー54と、を含む。
センサー5は、赤外光源部51と、赤外受光部52と、センサー制御部53と、メモリー54と、を含む。
赤外光源部51は、赤外検出光が投射領域300の全域に拡散されるように、赤外検出光を投射領域300に照射する。
赤外受光部52は、投射領域300で反射された赤外検出光(以下「反射光」とも称する)を受光する。赤外受光部52は、マトリクス状に配置された複数の赤外受光素子52a(図11参照)を有し、複数の赤外受光素子52aの各々で反射光を受光する。このため、複数の赤外受光素子52aの出力によって、投射領域300の赤外画像が構成されることになる。
マトリクス状に配置された複数の赤外受光素子52aの位置は、液晶ライトバルブ12にマトリクス状に配列された複数の画素12pの位置(図9参照)と対応づけられている。この対応関係を示す座標変換データは記憶部2に記憶されている。この座標変換データは、プロジェクター100が公知のキャリブレーション処理を実行することによって生成される。
マトリクス状に配置された複数の赤外受光素子52aの位置は、液晶ライトバルブ12にマトリクス状に配列された複数の画素12pの位置(図9参照)と対応づけられている。この対応関係を示す座標変換データは記憶部2に記憶されている。この座標変換データは、プロジェクター100が公知のキャリブレーション処理を実行することによって生成される。
センサー制御部53は、赤外光源部51および赤外受光部52を制御する。センサー制御部53は、赤外光源部51が照射した赤外検出光の位相をメモリー54に記憶する。また、センサー制御部53は、各赤外受光素子52aが受光した反射光の位相をメモリー54に記憶する。また、センサー制御部53は、赤外光源部51が照射した赤外検出光の位相と、各赤外受光素子52aが受光した反射光の位相とを、メモリー54から読み出す。
センサー制御部53は、赤外受光素子52aごとに、赤外光源部51が照射した赤外検出光の位相と、赤外受光素子52aが受光した反射光の位相との差を算出する。センサー制御部53は、その算出結果に基づいて、赤外受光素子52aごとに、その赤外受光素子52aにて受光された赤外光を反射した投射領域300の部分までの距離を測定する。
センサー制御部53は、これらの測定結果に基づいて、赤外受光素子52aごとの距離情報を生成する。
センサー制御部53は、これらの測定結果に基づいて、赤外受光素子52aごとの距離情報を生成する。
図11は、赤外受光素子52aごとの距離情報を説明するための図である。
赤外受光素子52aごとの距離情報では、マトリクス状に配置された複数の赤外受光素子52aの各々について、横方向の位置がX軸の値(X座標)として用いられ、縦方向の位置がY軸の値(Y座標)として用いられている。そして、複数の赤外受光素子52aの各々において、測定された距離が、Z軸の値(Z座標)として用いられている。このため、赤外受光素子52aごとの距離情報は、それぞれ、XYZの3軸の座標(X、Y、Z)で示される。
赤外受光素子52aごとの距離情報では、マトリクス状に配置された複数の赤外受光素子52aの各々について、横方向の位置がX軸の値(X座標)として用いられ、縦方向の位置がY軸の値(Y座標)として用いられている。そして、複数の赤外受光素子52aの各々において、測定された距離が、Z軸の値(Z座標)として用いられている。このため、赤外受光素子52aごとの距離情報は、それぞれ、XYZの3軸の座標(X、Y、Z)で示される。
投射対象検出部32は、赤外受光素子52aごとの距離情報と、投射対象記憶部23に記憶されたメニュー表示体情報および皿情報と、を用いて、メニュー表示体301および皿302を検出する。
例えば、投射対象検出部32は、まず、赤外受光素子52aごとの距離情報の中から、メニュー表示体情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第1該当距離情報として特定する。続いて、投射対象検出部32は、第1該当距離情報のXY座標の値を用いて、メニュー表示体301の位置および大きさを検出する。
また、投射対象検出部32は、赤外受光素子52aごとの距離情報の中から、皿情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第2該当距離情報として特定する。続いて、投射対象検出部32は、第2該当距離情報のXY座標の値を用いて、皿302の位置および大きさを検出する。
また、投射対象検出部32は、赤外受光素子52aごとの距離情報の中から、皿情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第2該当距離情報として特定する。続いて、投射対象検出部32は、第2該当距離情報のXY座標の値を用いて、皿302の位置および大きさを検出する。
生成部31は、投射対象検出部32が検出したメニュー表示体301の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第1領域401の位置および大きさを決定する。また、生成部31は、投射対象検出部32が検出した皿302の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第2領域402の位置および大きさを決定する。本実施形態では、生成部31は、第2領域402として、皿302に収まる矩形領域を決定する。
次に、動作を説明する。図12は、プロジェクター100の動作を説明するためのフローチャートである。
例えば、レストランのお客が、メニュー表示体301と皿302とが配置されたテーブル200に着くと、レストランの店員がリモートコントローラー101を操作して、リモートコントローラー101に表示開始指示を入力する。なお、皿302は、表示開始指示が入力される前にレストランのお客に選択されてからテーブル200に配置されてもよい。リモートコントローラー101は、表示開始指示を受け取ると、表示開始指示を受信部1に送信する。受信部1は、表示開始指示を受信すると、表示開始指示を生成部31に出力する。
例えば、レストランのお客が、メニュー表示体301と皿302とが配置されたテーブル200に着くと、レストランの店員がリモートコントローラー101を操作して、リモートコントローラー101に表示開始指示を入力する。なお、皿302は、表示開始指示が入力される前にレストランのお客に選択されてからテーブル200に配置されてもよい。リモートコントローラー101は、表示開始指示を受け取ると、表示開始指示を受信部1に送信する。受信部1は、表示開始指示を受信すると、表示開始指示を生成部31に出力する。
生成部31は、表示開始指示を受け取ると、センサー5に動作指示を出力する。センサー5は、動作指示を受け取ると、投射領域300までの距離を測定し、赤外受光素子52aごとの距離情報(図11参照)を投射対象検出部32に出力する。
投射対象検出部32は、赤外受光素子52aごとの距離情報を受け取ると、投射対象記憶部23からメニュー表示体情報と皿情報とを読み出す。続いて、投射対象検出部32は、赤外受光素子52aごとの距離情報と、メニュー表示体情報および皿情報と、を用いて、メニュー表示体301の位置および大きさと、皿302の位置および大きさと、を検出する(ステップS1)。続いて、投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさとを、生成部31に出力する。
生成部31は、メニュー表示体301の位置および大きさを受け取ると、メニュー表示体301の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第1領域401を決定する。また、生成部31は、皿302の位置および大きさを受け取ると、皿302の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第2領域402を決定する(ステップS2)。
続いて、生成部31は、画像情報記憶部22から第1メニュー画像情報を読み出す。続いて、生成部31は、第2領域402に料理画像600を配置することなく、第1メニュー画像情報を用いて第1領域401に第1メニュー画像501を配置して投射画像400を生成する(ステップS3)。ステップS3で生成された投射画像400を「ジャンル選択用投射画像」とも称する。ジャンル選択用投射画像では、第2領域402は空白となっている。
続いて、生成部31は、ジャンル選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じてジャンル選択用投射画像を投射領域300に投射する(ステップS4)。この際、第1メニュー画像501(図4参照)がメニュー表示体301に投射される。
レストランのお客は、メニュー表示体301に投射された第1メニュー画像501を見ながら、リモートコントローラー101を操作して料理のジャンル(和食、中華またはイタリアン)を選択する。リモートコントローラー101は、ジャンルの選択結果を受け取ると、ジャンルの選択結果を受信部1に送信する。受信部1は、ジャンルの選択結果を受信すると(ステップS5)、ジャンルの選択結果を生成部31に出力する。
生成部31は、ジャンルの選択結果を受け取ると、ジャンルの選択結果に応じた第2メニュー画像502を画像情報記憶部22から読み出す。例えば、ジャンルの選択結果が和食を示す場合、生成部31は、和食メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果が中華を示す場合、生成部31は、中華メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果がイタリアンを示す場合、生成部31は、イタリアンメニュー画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、中華メニュー画像情報が画像情報記憶部22から読み出されたとする。
続いて、生成部31は、第2領域402に料理画像600を配置することなく、中華メニュー画像情報を用いて第1領域401に中華メニュー画像502bを配置して投射画像400を生成する(ステップS6)。ステップS6で生成された投射画像400を「料理選択用投射画像」とも称する。料理選択用投射画像でも、ジャンル選択用投射画像と同様に、第2領域402は空白となっている。
続いて、生成部31は、料理選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理選択用投射画像を投射領域300に投射する(ステップS7)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射される。
レストランのお客は、メニュー表示体301に投射された中華メニュー画像502bを見ながら、リモートコントローラー101を操作して料理を選択する。リモートコントローラー101は、料理の選択結果を受け取ると、料理の選択結果を受信部1に送信する。受信部1は、料理の選択結果を受信すると(ステップS8)、料理の選択結果を生成部31に出力する。
生成部31は、料理の選択結果を受け取ると、料理の選択結果に応じた料理画像600を画像情報記憶部22から読み出す。例えば、料理の選択結果が餃子を示す場合、生成部31は、餃子の料理画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、餃子の料理画像情報が画像情報記憶部22から読み出されたとする。
続いて、生成部31は、第1領域401に中華メニュー画像502bを配置し、かつ、第2領域402に餃子の料理画像600を配置して投射画像400を生成する(ステップS9)。ステップS9で生成された投射画像400を「料理画像付き投射画像」とも称する。
続いて、生成部31は、料理画像付き投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理画像付き投射画像を投射領域300に投射する(ステップS10)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射され、かつ、餃子の料理画像(図8参照)が皿302に投射される。
本実施形態のプロジェクター100およびプロジェクター100の制御方法によれば、レストランのお客は、皿302に投射される料理画像600を、メニュー表示体301に投射されたメニュー画像500を用いて選択することで変更することが可能になる。また、メニュー画像500と料理画像600との間に関連性を持たせることも可能になる。
<変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
<変形例1>
皿302は、大きさの異なる複数の皿の中から選択されてもよい。例えば、互いに大きさの異なる「大」「中」「小」の3つの皿が用意され、レストランのお客によって、大盛りが注文されたときに「大」の皿が皿302としてテーブル200に置かれ、並盛りが注文されたときに「中」の皿が皿302としてテーブル200に置かれ、少なめを注文したときに「小」の皿が皿302としてテーブル200に置かれてもよい。
この場合、生成部31は、皿302の大きさに応じて第2領域402の大きさを調整し、第2領域402の大きさに応じて料理画像600の大きさを調整してもよい。例えば、生成部31は、皿302が大きいほど、第2領域402および料理画像600を大きくしてもよい。
皿302は、大きさの異なる複数の皿の中から選択されてもよい。例えば、互いに大きさの異なる「大」「中」「小」の3つの皿が用意され、レストランのお客によって、大盛りが注文されたときに「大」の皿が皿302としてテーブル200に置かれ、並盛りが注文されたときに「中」の皿が皿302としてテーブル200に置かれ、少なめを注文したときに「小」の皿が皿302としてテーブル200に置かれてもよい。
この場合、生成部31は、皿302の大きさに応じて第2領域402の大きさを調整し、第2領域402の大きさに応じて料理画像600の大きさを調整してもよい。例えば、生成部31は、皿302が大きいほど、第2領域402および料理画像600を大きくしてもよい。
皿302が大きいほど、第2領域402および料理画像600が大きくなる場合、料理ごとに、大きさの異なる複数の料理画像情報が、予め画像情報記憶部22に記憶されてもよい。
また、複数の皿の中で一番大きな皿に対応した料理画像情報が画像情報記憶部22に記憶され、一番大きな皿よりも小さい皿が用いられた場合、生成部31が、その料理画像情報が示す料理画像にトリミング処理を施すことによって、料理画像の大きさを調整してもよい。
なお、料理画像の大きさを料理画像の拡大または縮小で調整する場合、料理画像に示される料理の大きさ(例えば、餃子の大きさ、または、エビの大きさ)が変わってしまう。このため、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなる可能性が高くなる。
これに対して、料理画像にトリミング処理を施すことによって料理画像の大きさが調整されれば、料理画像の大きさを料理画像の拡大または縮小で調整する場合に比べて、料理画像が示す物体の大きさの変化を抑制でき、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなることを抑制可能になる。
なお、料理画像の大きさを料理画像の拡大または縮小で調整する場合、料理画像に示される料理の大きさ(例えば、餃子の大きさ、または、エビの大きさ)が変わってしまう。このため、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなる可能性が高くなる。
これに対して、料理画像にトリミング処理を施すことによって料理画像の大きさが調整されれば、料理画像の大きさを料理画像の拡大または縮小で調整する場合に比べて、料理画像が示す物体の大きさの変化を抑制でき、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなることを抑制可能になる。
<変形例2>
投射対象記憶部23は、ステップS1ではメニュー表示体301の位置および大きさのみを検出し、受信部1による料理の選択結果の受信に応じて、皿302の位置および大きさを検出してもよい。この場合、皿302は、図12に示したステップS8が実行される前にテーブル200に配置されていればよく、図12に示した動作が実行される場合に比べて、皿302をテーブル200に配置するタイミングの自由度が高くなる。
投射対象記憶部23は、ステップS1ではメニュー表示体301の位置および大きさのみを検出し、受信部1による料理の選択結果の受信に応じて、皿302の位置および大きさを検出してもよい。この場合、皿302は、図12に示したステップS8が実行される前にテーブル200に配置されていればよく、図12に示した動作が実行される場合に比べて、皿302をテーブル200に配置するタイミングの自由度が高くなる。
<変形例3>
センサー5としてTOFセンサーが用いられたが、センサー5は、TOFセンサーに限らず適宜変更可能である。例えば、センサー5は、ステレオカメラのように視差を利用してメニュー表示体301および皿302を検出してもよい。また、センサー5は、RGBカメラでもよい。この場合、投射対象検出部32は、RGBカメラが出力する画像情報を用いて、メニュー表示体301および皿302を検出してもよい。RGBカメラを使用することにより、物体が有する色彩、または物体に記載された文字等の情報を利用して物体(投射対象)を検出することが可能になる。
センサー5としてTOFセンサーが用いられたが、センサー5は、TOFセンサーに限らず適宜変更可能である。例えば、センサー5は、ステレオカメラのように視差を利用してメニュー表示体301および皿302を検出してもよい。また、センサー5は、RGBカメラでもよい。この場合、投射対象検出部32は、RGBカメラが出力する画像情報を用いて、メニュー表示体301および皿302を検出してもよい。RGBカメラを使用することにより、物体が有する色彩、または物体に記載された文字等の情報を利用して物体(投射対象)を検出することが可能になる。
<変形例4>
第1投射対象は、メニュー表示体301に限らず、投射対象物であれば適宜変更可能である。また、第2投射対象は、皿302に限らず、投射対象物であれば適宜変更可能である。
第1投射対象は、メニュー表示体301に限らず、投射対象物であれば適宜変更可能である。また、第2投射対象は、皿302に限らず、投射対象物であれば適宜変更可能である。
<変形例5>
第1投射対象に投射される第1画像として、第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cが択一的に用いられたが、第1画像は、1種類のメニュー画像でもよい。さらに言えば、第1画像は、料理の画像を選択する画面に限らず、第2投射対象に投射される画像を選択するための選択画像であればよい。
第2投射対象に投射される第2画像は、料理画像に限らず適宜変更可能である。
第1投射対象に投射される第1画像として、第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cが択一的に用いられたが、第1画像は、1種類のメニュー画像でもよい。さらに言えば、第1画像は、料理の画像を選択する画面に限らず、第2投射対象に投射される画像を選択するための選択画像であればよい。
第2投射対象に投射される第2画像は、料理画像に限らず適宜変更可能である。
<変形例6>
和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cの各々では、料理が、料理名(文字)ではなく料理の画像で示されてもよく、また、料理名(文字)と料理の画像とで示されてもよい。
和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cの各々では、料理が、料理名(文字)ではなく料理の画像で示されてもよく、また、料理名(文字)と料理の画像とで示されてもよい。
<変形例7>
処理部3がプログラムを実行することによって実現される要素の全部または一部は、例えばFPGA(field programmable gate array)またはASIC(Application Specific IC)等の電子回路によりハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの協働により実現されてもよい。
処理部3がプログラムを実行することによって実現される要素の全部または一部は、例えばFPGA(field programmable gate array)またはASIC(Application Specific IC)等の電子回路によりハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの協働により実現されてもよい。
<変形例8>
投射部4では、光変調装置として液晶ライトバルブが用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合には、色分離光学系や色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な構成は、光変調装置として採用できる。
投射部4では、光変調装置として液晶ライトバルブが用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合には、色分離光学系や色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な構成は、光変調装置として採用できる。
1…受信部、2…記憶部、21…プログラム記憶部、22…画像情報記憶部、23…投射対象記憶部、3…処理部、31…生成部、32…投射対象検出部、4…投射部、5…センサー、100…プロジェクター、101…リモートコントローラー。
Claims (5)
- 第1画像と第2画像とを合成して投射画像を生成する生成部と、
第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、
前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、
前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクター。 - 前記検出部は、前記第2投射対象の大きさも検出し、
前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することを特徴とする請求項1に記載のプロジェクター。 - 前記生成部は、前記第2画像にトリミング処理を施すことによって前記第2画像の大きさを調整することを特徴とする請求項2に記載のプロジェクター。
- 前記選択画像は、複数の画像の中から1つの画像を選択するための画像であることを特徴とする請求項1から3のいずれか1項に記載のプロジェクター。
- 第1画像と第2画像とを合成して投射画像を生成するステップと、
第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、
前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、
前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクターの制御方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017086942A JP2018185414A (ja) | 2017-04-26 | 2017-04-26 | プロジェクターおよびプロジェクターの制御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017086942A JP2018185414A (ja) | 2017-04-26 | 2017-04-26 | プロジェクターおよびプロジェクターの制御方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018185414A true JP2018185414A (ja) | 2018-11-22 |
Family
ID=64355766
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017086942A Pending JP2018185414A (ja) | 2017-04-26 | 2017-04-26 | プロジェクターおよびプロジェクターの制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018185414A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3983848A4 (en) * | 2019-09-04 | 2022-05-11 | Material Technologies Corporation | APPARATUS AND METHODS FOR VISUALIZING FEATURES OF OBJECTS |
| JP2023544622A (ja) * | 2020-10-09 | 2023-10-24 | マテリアル テクノロジーズ コーポレイション | 対象特徴可視化装置及び方法 |
| US12511669B2 (en) | 2021-09-22 | 2025-12-30 | Casio Computer Co., Ltd. | Projection processing device, storage medium, and projection method |
-
2017
- 2017-04-26 JP JP2017086942A patent/JP2018185414A/ja active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP3983848A4 (en) * | 2019-09-04 | 2022-05-11 | Material Technologies Corporation | APPARATUS AND METHODS FOR VISUALIZING FEATURES OF OBJECTS |
| JP2022544679A (ja) * | 2019-09-04 | 2022-10-20 | マテリアル テクノロジーズ コーポレイション | 対象特徴可視化装置及び方法 |
| US12020353B2 (en) | 2019-09-04 | 2024-06-25 | Material Technologies Corporation | Object feature visualization apparatus and methods |
| JP2023544622A (ja) * | 2020-10-09 | 2023-10-24 | マテリアル テクノロジーズ コーポレイション | 対象特徴可視化装置及び方法 |
| US12511669B2 (en) | 2021-09-22 | 2025-12-30 | Casio Computer Co., Ltd. | Projection processing device, storage medium, and projection method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2020005094A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JPWO2014171134A1 (ja) | 投写型映像表示装置 | |
| JP2020005095A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JP2018160803A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JP6897386B2 (ja) | マルチプロジェクションシステム、プロジェクターおよびプロジェクターの制御方法 | |
| JP6809292B2 (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JP2020174349A (ja) | 投影装置及び画像調整方法 | |
| JP2015126334A (ja) | 画像表示装置、および画像表示装置の制御方法 | |
| JP2019078845A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JP2018185414A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| CN112312102B (zh) | 图像投射系统的控制方法以及图像投射系统 | |
| US20230276036A1 (en) | Method of adjusting projection image, projection system, and control apparatus | |
| CN114760451B (zh) | 投影图像校正提示方法、装置、投影设备和存储介质 | |
| US20200077060A1 (en) | Image Calibration Method and Projector System Capable of Adjusting a Distorted Image Automatically | |
| JP2019024180A (ja) | プロジェクター、マルチプロジェクションシステムおよびプロジェクターの制御方法 | |
| JPWO2018042582A1 (ja) | 投射型映像表示装置および投射映像の調整方法 | |
| JP6221287B2 (ja) | プロジェクター及びプロジェクターの制御方法 | |
| CN111093065B (zh) | 多投影系统、投影仪以及投影仪的控制方法 | |
| US10863058B2 (en) | Image processing device, display device, and image processing method | |
| JP2020067638A (ja) | 表示システム、表示装置および表示装置の制御方法 | |
| JP2019132939A (ja) | プロジェクターおよびプロジェクターの制御方法 | |
| JP7347205B2 (ja) | 投写システムの制御方法、投写システム及び制御プログラム | |
| US20200145628A1 (en) | Projection apparatus and correcting method of display image | |
| US20250240393A1 (en) | Calibration method, system, and non-transitory computer-readable storage medium storing program | |
| JP7726060B2 (ja) | 投写方法及びプロジェクター |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20190322 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |