[go: up one dir, main page]

JP2018185414A - Projector and projector control method - Google Patents

Projector and projector control method Download PDF

Info

Publication number
JP2018185414A
JP2018185414A JP2017086942A JP2017086942A JP2018185414A JP 2018185414 A JP2018185414 A JP 2018185414A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2017086942 A JP2017086942 A JP 2017086942A JP 2018185414 A JP2018185414 A JP 2018185414A
Authority
JP
Japan
Prior art keywords
image
projection
dish
menu
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017086942A
Other languages
Japanese (ja)
Inventor
文崇 古屋
Fumitaka Furuya
文崇 古屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017086942A priority Critical patent/JP2018185414A/en
Publication of JP2018185414A publication Critical patent/JP2018185414A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供する。【解決手段】プロジェクターは、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に投射画像を投射する投射部と、第1投射対象の位置と第2投射対象の位置とを検出する検出部と、を含む。生成部は、第1投射対象の位置に第1画像が投射され第2投射対象の位置に第2画像が投射されるように投射画像を生成する。第1画像は、画像を選択するための選択画像である。第2画像は、選択画像を用いて選択された画像である。【選択図】図3A technique is provided that allows a viewer to change one of the images displayed on each of a plurality of objects as a projection image. A projector includes a generation unit that generates a projection image by synthesizing a first image and a second image, and a projection unit that projects the projection image onto a projection area including a first projection target and a second projection target. and a detector that detects the position of the first projection target and the position of the second projection target. The generator generates a projection image such that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target. The first image is a selection image for selecting images. The second image is the image selected using the selection image. [Selection drawing] Fig. 3

Description

本発明は、プロジェクターおよびプロジェクターの制御方法に関する。   The present invention relates to a projector and a projector control method.

特許文献1には、複数の物体の各々に予め対応づけられた画像を合成して投射画像を生成するプロジェクターが記載されている。特許文献1に記載のプロジェクターは、生成した投射画像を投射することによって、複数の物体の各々に対して、当該物体に予め対応づけられた画像を投射して表示する。   Patent Document 1 describes a projector that generates a projection image by synthesizing an image associated with each of a plurality of objects in advance. The projector described in Patent Document 1 projects and displays an image previously associated with each of a plurality of objects by projecting the generated projection image.

特開2016−123079号公報JP 2016-123079 A

特許文献1に記載のプロジェクターは、複数の物体の各々に、当該物体に予め対応づけられた画像を投射して表示する。このため、これらの画像を含む投射画像を見る者は、ある物体に投射される画像を変更できなかった。   The projector described in Patent Document 1 projects and displays an image associated with each of the plurality of objects in advance. For this reason, the person who sees the projection image containing these images cannot change the image projected on a certain object.

本発明は上述した事情に鑑みてなされたものであり、投射画像として複数の物体の各々に表示される画像のいずれかを、当該画像を見る者が変更できる技術を提供することを解決課題とする。   The present invention has been made in view of the circumstances described above, and it is a solution to provide a technique that allows a person who views the image to change any one of images displayed on each of a plurality of objects as a projection image. To do.

本発明に係るプロジェクターの一態様は、第1画像と第2画像とを合成して投射画像を生成する生成部と、第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択して変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
In one aspect of the projector according to the present invention, the projection image is generated in a projection area including a generation unit that generates a projection image by combining the first image and the second image, and a first projection target and a second projection target. A projection unit that projects, and a detection unit that detects a position of the first projection target and a position of the second projection target, and the generation unit includes the first image at the position of the first projection target. The projection image is generated so that the second image is projected and projected to the position of the second projection target, the first image is a selection image for selecting an image, and the second image is It is an image selected using the selected image.
According to this aspect, the person viewing the projection image selects and changes the second image projected on the second projection target using the selection screen (first image) projected on the first projection target. Is possible. It is also possible to provide a relationship between the first image and the second image.

上述したプロジェクターの一態様において、前記検出部は、前記第2投射対象の大きさも検出し、前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2投射対象の大きさに応じて第2画像の大きさを変更することが可能になる。
In one aspect of the projector described above, the detection unit also detects the size of the second projection target, and the generation unit adjusts the size of the second image according to the size of the second projection target. It is desirable to do.
According to this aspect, it is possible to change the size of the second image according to the size of the second projection target.

上述したプロジェクターの一態様において、前記生成部は、前記第2画像にトリミング処理を施すことによって前記第2画像の大きさを調整することが望ましい。
この態様によれば、第2画像にトリミング処理を施すことによって第2画像の大きさを調整するので、第2画像の大きさを第2画像の拡大または縮小で調整する場合に比べて、第2画像が示す物体の大きさの変化を抑制することが可能になる。
In one aspect of the projector described above, it is preferable that the generation unit adjusts the size of the second image by performing a trimming process on the second image.
According to this aspect, since the size of the second image is adjusted by performing the trimming process on the second image, the second image is compared with the case where the size of the second image is adjusted by enlargement or reduction of the second image. It becomes possible to suppress a change in the size of the object indicated by the two images.

上述したプロジェクターの一態様において、前記選択画像は、複数の画像の中から1つの画像を選択するための画像であることが望ましい。
この態様によれば、第2画像を、複数の画像の中から選択することが可能になる。
In one aspect of the projector described above, it is preferable that the selection image is an image for selecting one image from a plurality of images.
According to this aspect, the second image can be selected from a plurality of images.

本発明に係るプロジェクターの制御方法の一態様は、第1画像と第2画像とを合成して投射画像を生成するステップと、第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、前記第1画像は、画像を選択するための選択画像であり、前記第2画像は、前記選択画像を用いて選択された画像であることを特徴とする。
この態様によれば、投射画像を見る者は、第2投射対象に投射される第2画像を、第1投射対象に投射された選択画面(第1画像)を用いて選択することで変更することが可能になる。また、第1画像と第2画像との間に関連性を持たせることも可能になる。
One aspect of the projector control method according to the present invention includes: a step of generating a projection image by combining the first image and the second image; and a projection area including the first projection target and the second projection target. A step of projecting a projection image; and a step of detecting a position of the first projection target and a position of the second projection target. In the step of generating the projection image, the position of the first projection target is The projection image is generated so that the first image is projected and the second image is projected to the position of the second projection target, and the first image is a selection image for selecting an image, The second image is an image selected using the selected image.
According to this aspect, the person who views the projection image changes the second image projected on the second projection target by selecting the second image projected on the first projection target using the selection screen (first image). It becomes possible. It is also possible to provide a relationship between the first image and the second image.

第1実施形態に係るプロジェクター100を示した図である。1 is a diagram illustrating a projector 100 according to a first embodiment. 投射画像400の一例を示した図である。5 is a diagram showing an example of a projected image 400. FIG. プロジェクター100の概略構成を示した図である。1 is a diagram illustrating a schematic configuration of a projector 100. FIG. 第1メニュー画像501の一例を示した図である。5 is a diagram showing an example of a first menu image 501. FIG. 和食メニュー画像502aの一例を示した図である。It is the figure which showed an example of the Japanese food menu image 502a. 中華メニュー画像502bの一例を示した図である。It is the figure which showed an example of the Chinese menu image 502b. イタリアンメニュー画像502cの一例を示した図である。It is the figure which showed an example of the Italian menu image 502c. 料理画像600の一例を示した図である。It is the figure which showed an example of the cooking image. 投射部4の一例を示した図である。FIG. 4 is a diagram illustrating an example of a projection unit 4. センサー5の一例を示した図である。FIG. 6 is a diagram illustrating an example of a sensor 5. 赤外受光素子52aごとの距離情報を説明するための図である。It is a figure for demonstrating the distance information for every infrared light receiving element 52a. プロジェクター100の動作を説明するためのフローチャートである。4 is a flowchart for explaining the operation of the projector 100.

以下、図面を参照しながら本発明に係る実施の形態を説明する。なお、図面において各部の寸法および縮尺は実際のものと適宜異なる。また、以下に記載する実施の形態は、本発明の好適な具体例である。このため、本実施形態には、技術的に好ましい種々の限定が付されている。しかしながら、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the size and scale of each part are appropriately different from the actual ones. The embodiments described below are preferred specific examples of the present invention. For this reason, the technically preferable various restrictions are attached | subjected to this embodiment. However, the scope of the present invention is not limited to these forms unless otherwise specified in the following description.

<第1実施形態>
図1は、第1実施形態に係るプロジェクター100を示した図である。図1では、プロジェクター100がレストランで使用される例を示している。なお、プロジェクター100は、レストラン以外で使用されてもよい。
<First Embodiment>
FIG. 1 is a diagram illustrating a projector 100 according to the first embodiment. FIG. 1 shows an example in which the projector 100 is used in a restaurant. The projector 100 may be used outside a restaurant.

プロジェクター100は、支持装置(不図示)によってレストランの天井または壁等に固定されている。プロジェクター100は、レストランのテーブル200に設定された投射領域300に、投射画像400を投射して表示する。投射領域300には、レストランのメニュー(以下、単に「メニュー」と称する)を表示するためのメニュー表示体301と、皿302が配置されている。皿302は、レストランのお客によって選択されてもよい。メニュー表示体301は、第1投射対象の一例である。皿302は、第2投射対象の一例である。本実施形態では、メニュー表示体301の高さは、皿302の高さと異なるものとする。   The projector 100 is fixed to the ceiling or wall of the restaurant by a support device (not shown). The projector 100 projects and displays the projection image 400 on the projection area 300 set in the restaurant table 200. In the projection area 300, a menu display 301 for displaying a restaurant menu (hereinafter simply referred to as “menu”) and a plate 302 are arranged. The dish 302 may be selected by a restaurant customer. The menu display body 301 is an example of a first projection target. The dish 302 is an example of a second projection target. In the present embodiment, the height of the menu display body 301 is different from the height of the dish 302.

図2は、投射画像400の一例を示した図である。投射画像400は、メニュー表示体301に投射される第1領域401と、皿302に投射される第2領域402とを有する。プロジェクター100は、メニューを表すメニュー画像500を、第1領域401に配置する。また、プロジェクター100は、メニュー画像500から選択された料理を表す料理画像600を、第2領域402に配置する。メニュー画像500は、画像を選択するための選択画像および第1画像の一例である。料理画像600は、メニュー画像500を用いて選択された画像および第2画像の一例である。   FIG. 2 is a diagram illustrating an example of the projection image 400. The projected image 400 includes a first area 401 projected onto the menu display 301 and a second area 402 projected onto the dish 302. The projector 100 arranges a menu image 500 representing a menu in the first area 401. Further, the projector 100 arranges the dish image 600 representing the dish selected from the menu image 500 in the second area 402. Menu image 500 is an example of a selection image and a first image for selecting an image. The dish image 600 is an example of an image selected using the menu image 500 and a second image.

プロジェクター100は、メニュー表示体301にメニュー画像500が投射され、かつ、皿302に料理画像600が投射されるように、投射画像400を投射領域300に投射する。   The projector 100 projects the projection image 400 onto the projection area 300 so that the menu image 500 is projected onto the menu display body 301 and the dish image 600 is projected onto the plate 302.

図3は、プロジェクター100の概略構成を示した図である。プロジェクター100は、受信部1と、記憶部2と、処理部3と、投射部4と、センサー5と、を含む。プロジェクター100は、例えば、リモートコントローラー101によって制御される。   FIG. 3 is a diagram illustrating a schematic configuration of the projector 100. The projector 100 includes a reception unit 1, a storage unit 2, a processing unit 3, a projection unit 4, and a sensor 5. The projector 100 is controlled by a remote controller 101, for example.

リモートコントローラー101は、利用者(例えば、レストランのお客)の入力を受け付ける各種の操作ボタン、操作キー、またはタッチパネル等を備える。リモートコントローラー101は、利用者の入力に応じた情報を送信する。受信部1は、リモートコントローラー101が送信した情報を受信する。   The remote controller 101 includes various operation buttons, operation keys, a touch panel, and the like that receive input from a user (for example, a restaurant customer). The remote controller 101 transmits information corresponding to the user input. The receiving unit 1 receives information transmitted from the remote controller 101.

記憶部2は、コンピューター読み取り可能な記録媒体である。記憶部2は、プログラム記憶部21と、画像情報記憶部22と、投射対象記憶部23と、を含む。プログラム記憶部21と画像情報記憶部22と投射対象記憶部23は、それぞれ別体であってもよい。   The storage unit 2 is a computer-readable recording medium. The storage unit 2 includes a program storage unit 21, an image information storage unit 22, and a projection target storage unit 23. The program storage unit 21, the image information storage unit 22, and the projection target storage unit 23 may be separate from each other.

プログラム記憶部21は、プロジェクター100の動作を規定するプログラムを記憶する。   The program storage unit 21 stores a program that defines the operation of the projector 100.

画像情報記憶部22は、種々の画像情報(例えば、メニュー画像500を示すメニュー画像情報と、料理画像600を示す料理画像情報)を記憶する。
画像情報記憶部22は、メニュー画像情報として、第1メニュー画像501(図4参照)を示す第1メニュー画像情報と、第2メニュー画像502(図5、図6、図7参照)を示す第2メニュー画像情報と、を記憶する。
The image information storage unit 22 stores various image information (for example, menu image information indicating the menu image 500 and dish image information indicating the dish image 600).
The image information storage unit 22 includes, as menu image information, first menu image information indicating a first menu image 501 (see FIG. 4) and a second menu image 502 (see FIGS. 5, 6, and 7). 2 menu image information is stored.

図4は、第1メニュー画像501の一例を示した図である。
第1メニュー画像501は、料理のジャンル(和食、中華、イタリアン)を選択するために用いられる。第1メニュー画像501で選択可能な料理のジャンルは、和食と中華とイタリアンに限らず適宜変更可能である。第1メニュー画像501は、投射画像400の第1領域401に、メニュー画像500として配置される。
FIG. 4 is a diagram illustrating an example of the first menu image 501.
The first menu image 501 is used to select a genre of cooking (Japanese food, Chinese, Italian). The genre of food that can be selected in the first menu image 501 is not limited to Japanese food, Chinese, and Italian, and can be changed as appropriate. The first menu image 501 is arranged as the menu image 500 in the first area 401 of the projection image 400.

第2メニュー画像502は、第1メニュー画像501で選択されたジャンルに属する料理の中から、皿302に投射される料理の画像(料理画像)を選択するために用いられる。第2メニュー画像502は、第1メニュー画像501で料理のジャンルが選択された際に、第1領域401に、第1メニュー画像501に代わって配置される。   The second menu image 502 is used to select a dish image (cooking image) projected on the plate 302 from dishes belonging to the genre selected in the first menu image 501. The second menu image 502 is arranged in place of the first menu image 501 in the first area 401 when a food genre is selected in the first menu image 501.

本実施形態では、第2メニュー画像502として、和食に応じたメニュー画像502aと、中華に応じたメニュー画像502bと、イタリアンに応じたメニュー画像502cが用いられる。以下、和食に応じたメニュー画像502aを「和食メニュー画像502a」と称し、中華に応じたメニュー画像502bを「中華メニュー画像502b」と称し、イタリアンに応じたメニュー画像502cを「イタリアンメニュー画像502c」と称する。第2メニュー画像502は、和食メニュー画像502a、中華メニュー画像502b、イタリアンメニュー画像502cに限らず適宜変更可能である。   In the present embodiment, as the second menu image 502, a menu image 502a corresponding to Japanese food, a menu image 502b corresponding to Chinese, and a menu image 502c corresponding to Italian are used. Hereinafter, the menu image 502a corresponding to Japanese food is referred to as “Japanese food menu image 502a”, the menu image 502b corresponding to Chinese is referred to as “Chinese menu image 502b”, and the menu image 502c corresponding to Italian is “Italian menu image 502c”. Called. The second menu image 502 is not limited to the Japanese menu image 502a, the Chinese menu image 502b, and the Italian menu image 502c, and can be changed as appropriate.

画像情報記憶部22は、和食メニュー画像502aを示す和食メニュー画像情報と、中華メニュー画像502bを示す中華メニュー画像情報と、イタリアンメニュー画像502cを示すイタリアンメニュー画像情報とを、それぞれ、第2メニュー画像情報として記憶する。   The image information storage unit 22 includes Japanese menu image information indicating the Japanese menu image 502a, Chinese menu image information indicating the Chinese menu image 502b, and Italian menu image information indicating the Italian menu image 502c, respectively. Store as information.

図5は、和食メニュー画像502aの一例を示した図である。和食メニュー画像502aは、和食のジャンルに属する料理の名称(寿司、天ぷら)を表す。和食メニュー画像502aが表す料理の名称は、寿司と天ぷらに限らず適宜変更可能である。   FIG. 5 is a diagram showing an example of the Japanese food menu image 502a. The Japanese menu image 502a represents the names of dishes belonging to the genre of Japanese food (sushi, tempura). The name of the dish represented by the Japanese food menu image 502a is not limited to sushi and tempura and can be changed as appropriate.

図6は、中華メニュー画像502bの一例を示した図である。中華メニュー画像502bは、中華のジャンルに属する料理の名称(エビチリ、炒飯、餃子)を表す。中華メニュー画像502bが表す料理の名称は、エビチリと炒飯と餃子に限らず適宜変更可能である。   FIG. 6 is a diagram showing an example of the Chinese menu image 502b. The Chinese menu image 502b represents the names of the dishes belonging to the Chinese genre (shrimp chilli, fried rice, dumplings). The name of the dish represented by the Chinese menu image 502b is not limited to shrimp chilli, fried rice, and dumplings, and can be changed as appropriate.

図7は、イタリアンメニュー画像502cの一例を示した図である。イタリアンメニュー画像502cは、イタリアンのジャンルに属する料理の名称を表す。   FIG. 7 is a diagram showing an example of the Italian menu image 502c. The Italian menu image 502c represents the names of dishes belonging to the Italian genre.

図8は、料理画像600の一例(餃子を表す料理画像)を示した図である。画像情報記憶部22は、和食メニュー画像502aが表す各料理についての画像情報と、中華メニュー画像502bが表す各料理についての画像情報と、イタリアンメニュー画像502cが表す各料理についての画像情報とを、それぞれ、料理画像情報として記憶する。   FIG. 8 is a diagram illustrating an example of a dish image 600 (a dish image representing dumplings). The image information storage unit 22 includes image information about each dish represented by the Japanese menu image 502a, image information about each dish represented by the Chinese menu image 502b, and image information about each dish represented by the Italian menu image 502c. Each is stored as dish image information.

図3に戻って、投射対象記憶部23は、投射対象に関する情報を記憶する。具体的には、投射対象記憶部23は、第1投射対象であるメニュー表示体301に関するメニュー表示体情報と、第2投射対象である皿302に関する皿情報とを記憶する。
メニュー表示体情報としては、センサー5からメニュー表示体301までの距離を示す情報(センサー5が測定したメニュー表示体301までの距離を示す情報)が用いられる。皿情報としては、センサー5から皿302までの距離を示す情報(センサー5が測定した皿302までの距離を示す情報)が用いられる。
Returning to FIG. 3, the projection target storage unit 23 stores information related to the projection target. Specifically, the projection target storage unit 23 stores menu display body information related to the menu display body 301 that is the first projection target and dish information related to the dish 302 that is the second projection target.
As the menu display body information, information indicating the distance from the sensor 5 to the menu display body 301 (information indicating the distance to the menu display body 301 measured by the sensor 5) is used. As the dish information, information indicating the distance from the sensor 5 to the dish 302 (information indicating the distance to the dish 302 measured by the sensor 5) is used.

処理部3は、CPU(Central Processing Unit)等のコンピューターである。処理部3は、プログラム記憶部21に記憶されたプログラムを読み取り実行することによって、生成部31および投射対象検出部32を実現する。なお、1つのCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよいし、複数のCPU(または半導体チップ)によって、生成部31および投射対象検出部32が実現されてもよい。   The processing unit 3 is a computer such as a CPU (Central Processing Unit). The processing unit 3 implements the generation unit 31 and the projection target detection unit 32 by reading and executing the program stored in the program storage unit 21. The generation unit 31 and the projection target detection unit 32 may be realized by one CPU (or semiconductor chip), or the generation unit 31 and the projection target detection unit 32 are realized by a plurality of CPUs (or semiconductor chips). May be.

生成部31は、メニュー画像500と料理画像600とを合成して投射画像400(図2参照)を生成する。生成部31は、メニュー表示体301の位置にメニュー画像500(第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cのいずれか)が投射され、皿302の位置に料理画像600が投射されるように、投射画像400を生成する。
具体的には、生成部31は、第1領域401にメニュー画像500を配置しかつ第2領域402に料理画像600を配置して、投射画像400を生成する。また、生成部31は、第2領域402に料理画像600を配置することなく、第1領域401にメニュー画像500を配置することによっても、投射画像400を生成する。
生成部31は、投射画像400を示す画像信号を生成し、この画像信号を投射部4に出力する。
The generation unit 31 combines the menu image 500 and the dish image 600 to generate a projection image 400 (see FIG. 2). The generation unit 31 projects the menu image 500 (any one of the first menu image 501, the Japanese food menu image 502 a, the Chinese menu image 502 b, and the Italian menu image 502 c) at the position of the menu display body 301, and The projection image 400 is generated so that the dish image 600 is projected.
Specifically, the generation unit 31 arranges the menu image 500 in the first area 401 and arranges the dish image 600 in the second area 402 to generate the projection image 400. The generation unit 31 also generates the projection image 400 by arranging the menu image 500 in the first area 401 without arranging the dish image 600 in the second area 402.
The generation unit 31 generates an image signal indicating the projection image 400 and outputs the image signal to the projection unit 4.

投射部4は、生成部31から画像信号を受け取り、この画像信号に応じて、投射領域300に投射画像400を投射して表示する。投射部4は、メニュー画像500がメニュー表示体301の位置に投射され、かつ、料理画像600が皿302の位置に投射されるように、投射領域300に投射画像400を投射する。   The projection unit 4 receives the image signal from the generation unit 31, and projects and displays the projection image 400 on the projection region 300 according to the image signal. The projection unit 4 projects the projection image 400 onto the projection area 300 so that the menu image 500 is projected onto the position of the menu display body 301 and the dish image 600 is projected onto the position of the plate 302.

図9は、投射部4の一例を示した図である。投射部4は、光源11と、光変調装置の一例である3つの液晶ライトバルブ12(12R,12G,12B)と、投射光学系の一例である投射レンズ13と、ライトバルブ駆動部14等を含む。投射部4は、光源11から射出された光を液晶ライトバルブ12で変調して投射画像(画像光)を形成し、この投射画像を投射レンズ13から拡大投射する。   FIG. 9 is a diagram illustrating an example of the projection unit 4. The projection unit 4 includes a light source 11, three liquid crystal light valves 12 (12R, 12G, and 12B) that are examples of a light modulation device, a projection lens 13 that is an example of a projection optical system, a light valve driving unit 14, and the like. Including. The projection unit 4 modulates the light emitted from the light source 11 with the liquid crystal light valve 12 to form a projection image (image light), and enlarges and projects this projection image from the projection lens 13.

光源11は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)、またはレーザー光源等からなる光源部11aと、光源部11aが放射した光の方向のばらつきを低減するリフレクター11bとを含む。光源11から射出された光は、不図示のインテグレーター光学系によって輝度分布のばらつきが低減され、その後、不図示の色分離光学系によって光の3原色である赤色(R)、緑色(G)、青色(B)の色光成分に分離される。R,G,Bの色光成分は、それぞれ液晶ライトバルブ12R,12G,12Bに入射する。   The light source 11 includes a light source unit 11a composed of a xenon lamp, an ultra-high pressure mercury lamp, an LED (Light Emitting Diode), a laser light source, or the like, and a reflector 11b that reduces variations in the direction of light emitted from the light source unit 11a. The light emitted from the light source 11 is reduced in variation in luminance distribution by an integrator optical system (not shown), and then red (R), green (G), which are the three primary colors of light by a color separation optical system (not shown), It is separated into blue (B) color light components. The color light components of R, G, and B are incident on the liquid crystal light valves 12R, 12G, and 12B, respectively.

液晶ライトバルブ12は、一対の透明基板間に液晶が封入された液晶パネル等によって構成される。液晶ライトバルブ12には、マトリクス状に配列された複数の画素12pからなる矩形の画素領域12aが形成されている。液晶ライトバルブ12では、液晶に対して画素12pごとに駆動電圧を印加することが可能である。ライトバルブ駆動部14が、生成部31から入力される画像信号に応じた駆動電圧を各画素12pに印加すると、各画素12pは、画像信号に応じた光透過率に設定される。このため、光源11から射出された光は、画素領域12aを透過することで変調され、画像信号に応じた画像が色光ごとに形成される。   The liquid crystal light valve 12 is configured by a liquid crystal panel in which liquid crystal is sealed between a pair of transparent substrates. The liquid crystal light valve 12 is formed with a rectangular pixel region 12a composed of a plurality of pixels 12p arranged in a matrix. In the liquid crystal light valve 12, it is possible to apply a driving voltage to the liquid crystal for each pixel 12p. When the light valve driving unit 14 applies a driving voltage corresponding to the image signal input from the generating unit 31 to each pixel 12p, each pixel 12p is set to a light transmittance corresponding to the image signal. For this reason, the light emitted from the light source 11 is modulated by transmitting through the pixel region 12a, and an image corresponding to the image signal is formed for each color light.

各色の画像は、図示しない色合成光学系によって画素12pごとに合成され、カラー画像光(カラー画像)である投射画像光(投射画像)が生成される。投射画像光は、投射レンズ13によって投射領域300に拡大投射される。   The images of the respective colors are synthesized for each pixel 12p by a color synthesis optical system (not shown), and projection image light (projection image) that is color image light (color image) is generated. The projected image light is enlarged and projected onto the projection area 300 by the projection lens 13.

図3に戻って、投射対象検出部32は、検出部の一例である。投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。本実施形態では、投射対象検出部32は、センサー5の出力に基づいて、メニュー表示体301の位置および大きさと、皿302の位置および大きさを検出する。   Returning to FIG. 3, the projection target detection unit 32 is an example of a detection unit. The projection target detection unit 32 detects the position and size of the menu display body 301 and the position and size of the dish 302. In the present embodiment, the projection target detection unit 32 detects the position and size of the menu display body 301 and the position and size of the dish 302 based on the output of the sensor 5.

センサー5は、例えば、TOF(Time of Flight)方式の距離画像センサーである。センサー5は、投射領域300に存在する物体(投射対象)までの距離を測定する。   The sensor 5 is, for example, a TOF (Time of Flight) type distance image sensor. The sensor 5 measures a distance to an object (projection target) existing in the projection area 300.

図10は、センサー5の一例を示した図である。
センサー5は、赤外光源部51と、赤外受光部52と、センサー制御部53と、メモリー54と、を含む。
FIG. 10 is a diagram illustrating an example of the sensor 5.
The sensor 5 includes an infrared light source unit 51, an infrared light receiving unit 52, a sensor control unit 53, and a memory 54.

赤外光源部51は、赤外検出光が投射領域300の全域に拡散されるように、赤外検出光を投射領域300に照射する。   The infrared light source unit 51 irradiates the projection area 300 with infrared detection light so that the infrared detection light is diffused throughout the projection area 300.

赤外受光部52は、投射領域300で反射された赤外検出光(以下「反射光」とも称する)を受光する。赤外受光部52は、マトリクス状に配置された複数の赤外受光素子52a(図11参照)を有し、複数の赤外受光素子52aの各々で反射光を受光する。このため、複数の赤外受光素子52aの出力によって、投射領域300の赤外画像が構成されることになる。
マトリクス状に配置された複数の赤外受光素子52aの位置は、液晶ライトバルブ12にマトリクス状に配列された複数の画素12pの位置(図9参照)と対応づけられている。この対応関係を示す座標変換データは記憶部2に記憶されている。この座標変換データは、プロジェクター100が公知のキャリブレーション処理を実行することによって生成される。
The infrared light receiving unit 52 receives infrared detection light (hereinafter also referred to as “reflected light”) reflected by the projection region 300. The infrared light receiving unit 52 includes a plurality of infrared light receiving elements 52a (see FIG. 11) arranged in a matrix, and each of the plurality of infrared light receiving elements 52a receives reflected light. For this reason, the infrared image of the projection area | region 300 is comprised by the output of the some infrared light receiving element 52a.
The positions of the plurality of infrared light receiving elements 52a arranged in a matrix are associated with the positions of the plurality of pixels 12p arranged in a matrix on the liquid crystal light valve 12 (see FIG. 9). Coordinate conversion data indicating this correspondence is stored in the storage unit 2. The coordinate conversion data is generated when the projector 100 executes a known calibration process.

センサー制御部53は、赤外光源部51および赤外受光部52を制御する。センサー制御部53は、赤外光源部51が照射した赤外検出光の位相をメモリー54に記憶する。また、センサー制御部53は、各赤外受光素子52aが受光した反射光の位相をメモリー54に記憶する。また、センサー制御部53は、赤外光源部51が照射した赤外検出光の位相と、各赤外受光素子52aが受光した反射光の位相とを、メモリー54から読み出す。   The sensor control unit 53 controls the infrared light source unit 51 and the infrared light receiving unit 52. The sensor control unit 53 stores the phase of the infrared detection light emitted by the infrared light source unit 51 in the memory 54. Further, the sensor control unit 53 stores the phase of the reflected light received by each infrared light receiving element 52 a in the memory 54. The sensor control unit 53 also reads from the memory 54 the phase of the infrared detection light emitted by the infrared light source unit 51 and the phase of the reflected light received by each infrared light receiving element 52a.

センサー制御部53は、赤外受光素子52aごとに、赤外光源部51が照射した赤外検出光の位相と、赤外受光素子52aが受光した反射光の位相との差を算出する。センサー制御部53は、その算出結果に基づいて、赤外受光素子52aごとに、その赤外受光素子52aにて受光された赤外光を反射した投射領域300の部分までの距離を測定する。
センサー制御部53は、これらの測定結果に基づいて、赤外受光素子52aごとの距離情報を生成する。
The sensor control unit 53 calculates, for each infrared light receiving element 52a, the difference between the phase of the infrared detection light emitted by the infrared light source unit 51 and the phase of the reflected light received by the infrared light receiving element 52a. Based on the calculation result, the sensor control unit 53 measures, for each infrared light receiving element 52a, the distance to the portion of the projection area 300 that reflects the infrared light received by the infrared light receiving element 52a.
The sensor control unit 53 generates distance information for each infrared light receiving element 52a based on these measurement results.

図11は、赤外受光素子52aごとの距離情報を説明するための図である。
赤外受光素子52aごとの距離情報では、マトリクス状に配置された複数の赤外受光素子52aの各々について、横方向の位置がX軸の値(X座標)として用いられ、縦方向の位置がY軸の値(Y座標)として用いられている。そして、複数の赤外受光素子52aの各々において、測定された距離が、Z軸の値(Z座標)として用いられている。このため、赤外受光素子52aごとの距離情報は、それぞれ、XYZの3軸の座標(X、Y、Z)で示される。
FIG. 11 is a diagram for explaining distance information for each infrared light receiving element 52a.
In the distance information for each infrared light receiving element 52a, for each of the plurality of infrared light receiving elements 52a arranged in a matrix, the horizontal position is used as the X-axis value (X coordinate), and the vertical position is It is used as the Y-axis value (Y coordinate). In each of the plurality of infrared light receiving elements 52a, the measured distance is used as a Z-axis value (Z coordinate). For this reason, distance information for each infrared light receiving element 52a is indicated by three-axis coordinates (X, Y, Z) of XYZ.

投射対象検出部32は、赤外受光素子52aごとの距離情報と、投射対象記憶部23に記憶されたメニュー表示体情報および皿情報と、を用いて、メニュー表示体301および皿302を検出する。   The projection target detection unit 32 detects the menu display body 301 and the dish 302 using the distance information for each infrared light receiving element 52a and the menu display body information and dish information stored in the projection target storage unit 23. .

例えば、投射対象検出部32は、まず、赤外受光素子52aごとの距離情報の中から、メニュー表示体情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第1該当距離情報として特定する。続いて、投射対象検出部32は、第1該当距離情報のXY座標の値を用いて、メニュー表示体301の位置および大きさを検出する。
また、投射対象検出部32は、赤外受光素子52aごとの距離情報の中から、皿情報の示す距離と等しいZ座標の値(距離)を有する距離情報を、第2該当距離情報として特定する。続いて、投射対象検出部32は、第2該当距離情報のXY座標の値を用いて、皿302の位置および大きさを検出する。
For example, the projection target detection unit 32 first calculates distance information having a Z coordinate value (distance) equal to the distance indicated by the menu display body information from the distance information for each infrared light receiving element 52a. Identify as information. Subsequently, the projection target detection unit 32 detects the position and size of the menu display body 301 using the value of the XY coordinates of the first corresponding distance information.
Moreover, the projection target detection unit 32 specifies distance information having a Z coordinate value (distance) equal to the distance indicated by the dish information, as the second corresponding distance information, from the distance information for each infrared light receiving element 52a. . Subsequently, the projection target detection unit 32 detects the position and size of the dish 302 using the XY coordinate values of the second corresponding distance information.

生成部31は、投射対象検出部32が検出したメニュー表示体301の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第1領域401の位置および大きさを決定する。また、生成部31は、投射対象検出部32が検出した皿302の位置および大きさの検出結果と、記憶部2に記憶されている座標変換データと、を用いて、第2領域402の位置および大きさを決定する。本実施形態では、生成部31は、第2領域402として、皿302に収まる矩形領域を決定する。   The generation unit 31 uses the detection result of the position and size of the menu display body 301 detected by the projection target detection unit 32 and the coordinate conversion data stored in the storage unit 2 to position the first region 401. And determine the size. In addition, the generation unit 31 uses the detection result of the position and size of the dish 302 detected by the projection target detection unit 32 and the coordinate conversion data stored in the storage unit 2 to position the second region 402. And determine the size. In the present embodiment, the generation unit 31 determines a rectangular area that fits in the dish 302 as the second area 402.

次に、動作を説明する。図12は、プロジェクター100の動作を説明するためのフローチャートである。
例えば、レストランのお客が、メニュー表示体301と皿302とが配置されたテーブル200に着くと、レストランの店員がリモートコントローラー101を操作して、リモートコントローラー101に表示開始指示を入力する。なお、皿302は、表示開始指示が入力される前にレストランのお客に選択されてからテーブル200に配置されてもよい。リモートコントローラー101は、表示開始指示を受け取ると、表示開始指示を受信部1に送信する。受信部1は、表示開始指示を受信すると、表示開始指示を生成部31に出力する。
Next, the operation will be described. FIG. 12 is a flowchart for explaining the operation of the projector 100.
For example, when a restaurant customer arrives at the table 200 on which the menu display body 301 and the dish 302 are arranged, the restaurant clerk operates the remote controller 101 and inputs a display start instruction to the remote controller 101. Note that the dish 302 may be placed on the table 200 after being selected by a restaurant customer before a display start instruction is input. Upon receiving the display start instruction, the remote controller 101 transmits a display start instruction to the receiving unit 1. When receiving the display start instruction, the reception unit 1 outputs the display start instruction to the generation unit 31.

生成部31は、表示開始指示を受け取ると、センサー5に動作指示を出力する。センサー5は、動作指示を受け取ると、投射領域300までの距離を測定し、赤外受光素子52aごとの距離情報(図11参照)を投射対象検出部32に出力する。   Upon receiving the display start instruction, the generation unit 31 outputs an operation instruction to the sensor 5. Upon receiving the operation instruction, the sensor 5 measures the distance to the projection area 300 and outputs distance information (see FIG. 11) for each infrared light receiving element 52a to the projection target detection unit 32.

投射対象検出部32は、赤外受光素子52aごとの距離情報を受け取ると、投射対象記憶部23からメニュー表示体情報と皿情報とを読み出す。続いて、投射対象検出部32は、赤外受光素子52aごとの距離情報と、メニュー表示体情報および皿情報と、を用いて、メニュー表示体301の位置および大きさと、皿302の位置および大きさと、を検出する(ステップS1)。続いて、投射対象検出部32は、メニュー表示体301の位置および大きさと、皿302の位置および大きさとを、生成部31に出力する。   When receiving the distance information for each infrared light receiving element 52a, the projection target detection unit 32 reads the menu display body information and the dish information from the projection target storage unit 23. Subsequently, the projection target detection unit 32 uses the distance information for each infrared light receiving element 52a, the menu display body information, and the dish information, and the position and size of the menu display body 301 and the position and size of the dish 302. , Is detected (step S1). Subsequently, the projection target detection unit 32 outputs the position and size of the menu display body 301 and the position and size of the dish 302 to the generation unit 31.

生成部31は、メニュー表示体301の位置および大きさを受け取ると、メニュー表示体301の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第1領域401を決定する。また、生成部31は、皿302の位置および大きさを受け取ると、皿302の位置および大きさと、記憶部2に記憶されている座標変換データと、を用いて第2領域402を決定する(ステップS2)。   Upon receiving the position and size of the menu display body 301, the generation unit 31 determines the first region 401 using the position and size of the menu display body 301 and the coordinate conversion data stored in the storage unit 2. To do. In addition, when the generation unit 31 receives the position and size of the plate 302, the generation unit 31 determines the second region 402 using the position and size of the plate 302 and the coordinate conversion data stored in the storage unit 2 ( Step S2).

続いて、生成部31は、画像情報記憶部22から第1メニュー画像情報を読み出す。続いて、生成部31は、第2領域402に料理画像600を配置することなく、第1メニュー画像情報を用いて第1領域401に第1メニュー画像501を配置して投射画像400を生成する(ステップS3)。ステップS3で生成された投射画像400を「ジャンル選択用投射画像」とも称する。ジャンル選択用投射画像では、第2領域402は空白となっている。   Subsequently, the generation unit 31 reads the first menu image information from the image information storage unit 22. Subsequently, the generation unit 31 generates the projection image 400 by arranging the first menu image 501 in the first area 401 using the first menu image information without arranging the dish image 600 in the second area 402. (Step S3). The projection image 400 generated in step S3 is also referred to as a “genre selection projection image”. In the genre selection projection image, the second area 402 is blank.

続いて、生成部31は、ジャンル選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じてジャンル選択用投射画像を投射領域300に投射する(ステップS4)。この際、第1メニュー画像501(図4参照)がメニュー表示体301に投射される。   Subsequently, the generation unit 31 generates an image signal indicating the genre selection projection image and outputs the image signal to the projection unit 4, and the projection unit 4 projects the genre selection projection image according to the image signal. Projecting to the area 300 (step S4). At this time, the first menu image 501 (see FIG. 4) is projected on the menu display body 301.

レストランのお客は、メニュー表示体301に投射された第1メニュー画像501を見ながら、リモートコントローラー101を操作して料理のジャンル(和食、中華またはイタリアン)を選択する。リモートコントローラー101は、ジャンルの選択結果を受け取ると、ジャンルの選択結果を受信部1に送信する。受信部1は、ジャンルの選択結果を受信すると(ステップS5)、ジャンルの選択結果を生成部31に出力する。   A customer of the restaurant operates the remote controller 101 while selecting the first menu image 501 projected on the menu display body 301 and selects a genre of cuisine (Japanese, Chinese or Italian). Upon receiving the genre selection result, the remote controller 101 transmits the genre selection result to the receiving unit 1. When receiving the genre selection result (step S5), the reception unit 1 outputs the genre selection result to the generation unit 31.

生成部31は、ジャンルの選択結果を受け取ると、ジャンルの選択結果に応じた第2メニュー画像502を画像情報記憶部22から読み出す。例えば、ジャンルの選択結果が和食を示す場合、生成部31は、和食メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果が中華を示す場合、生成部31は、中華メニュー画像情報を画像情報記憶部22から読み出す。また、ジャンルの選択結果がイタリアンを示す場合、生成部31は、イタリアンメニュー画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、中華メニュー画像情報が画像情報記憶部22から読み出されたとする。   Upon receiving the genre selection result, the generation unit 31 reads the second menu image 502 corresponding to the genre selection result from the image information storage unit 22. For example, when the genre selection result indicates Japanese food, the generation unit 31 reads Japanese food menu image information from the image information storage unit 22. When the genre selection result indicates Chinese, the generation unit 31 reads the Chinese menu image information from the image information storage unit 22. When the genre selection result indicates Italian, the generation unit 31 reads Italian menu image information from the image information storage unit 22. In the following, it is assumed that the Chinese menu image information is read from the image information storage unit 22 for the sake of simplification.

続いて、生成部31は、第2領域402に料理画像600を配置することなく、中華メニュー画像情報を用いて第1領域401に中華メニュー画像502bを配置して投射画像400を生成する(ステップS6)。ステップS6で生成された投射画像400を「料理選択用投射画像」とも称する。料理選択用投射画像でも、ジャンル選択用投射画像と同様に、第2領域402は空白となっている。   Subsequently, the generating unit 31 generates the projection image 400 by arranging the Chinese menu image 502b in the first area 401 using the Chinese menu image information without arranging the dish image 600 in the second area 402 (Step S31). S6). The projection image 400 generated in step S6 is also referred to as a “dish selection projection image”. In the dish selection projection image, the second area 402 is blank as in the genre selection projection image.

続いて、生成部31は、料理選択用投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理選択用投射画像を投射領域300に投射する(ステップS7)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射される。   Subsequently, the generation unit 31 generates an image signal indicating the dish selection projection image, and outputs the image signal to the projection unit 4. The projection unit 4 projects the dish selection projection image according to the image signal. Projecting to the area 300 (step S7). At this time, the Chinese menu image 502b (see FIG. 6) is projected onto the menu display 301.

レストランのお客は、メニュー表示体301に投射された中華メニュー画像502bを見ながら、リモートコントローラー101を操作して料理を選択する。リモートコントローラー101は、料理の選択結果を受け取ると、料理の選択結果を受信部1に送信する。受信部1は、料理の選択結果を受信すると(ステップS8)、料理の選択結果を生成部31に出力する。   A restaurant customer operates the remote controller 101 to select a dish while viewing the Chinese menu image 502b projected on the menu display 301. Upon receiving the dish selection result, the remote controller 101 transmits the dish selection result to the receiving unit 1. When receiving the dish selection result (step S8), the receiving unit 1 outputs the dish selection result to the generating unit 31.

生成部31は、料理の選択結果を受け取ると、料理の選択結果に応じた料理画像600を画像情報記憶部22から読み出す。例えば、料理の選択結果が餃子を示す場合、生成部31は、餃子の料理画像情報を画像情報記憶部22から読み出す。以下では、説明の簡略化のため、餃子の料理画像情報が画像情報記憶部22から読み出されたとする。   Upon receiving the dish selection result, the generation unit 31 reads the dish image 600 corresponding to the dish selection result from the image information storage unit 22. For example, when the dish selection result indicates dumplings, the generation unit 31 reads the dumpling dish image information from the image information storage unit 22. In the following, for simplification of explanation, it is assumed that cooking image information of dumplings is read from the image information storage unit 22.

続いて、生成部31は、第1領域401に中華メニュー画像502bを配置し、かつ、第2領域402に餃子の料理画像600を配置して投射画像400を生成する(ステップS9)。ステップS9で生成された投射画像400を「料理画像付き投射画像」とも称する。   Subsequently, the generating unit 31 arranges the Chinese menu image 502b in the first area 401 and arranges the dumpling dish image 600 in the second area 402 to generate the projection image 400 (step S9). The projection image 400 generated in step S9 is also referred to as a “projection image-added projection image”.

続いて、生成部31は、料理画像付き投射画像を示す画像信号を生成し、この画像信号を投射部4に出力し、投射部4は、この画像信号に応じて料理画像付き投射画像を投射領域300に投射する(ステップS10)。この際、中華メニュー画像502b(図6参照)がメニュー表示体301に投射され、かつ、餃子の料理画像(図8参照)が皿302に投射される。   Subsequently, the generation unit 31 generates an image signal indicating a projection image with a cooking image, and outputs the image signal to the projection unit 4. The projection unit 4 projects a projection image with a cooking image according to the image signal. Projecting to the area 300 (step S10). At this time, the Chinese menu image 502b (see FIG. 6) is projected onto the menu display 301, and the dumpling dish image (see FIG. 8) is projected onto the plate 302.

本実施形態のプロジェクター100およびプロジェクター100の制御方法によれば、レストランのお客は、皿302に投射される料理画像600を、メニュー表示体301に投射されたメニュー画像500を用いて選択することで変更することが可能になる。また、メニュー画像500と料理画像600との間に関連性を持たせることも可能になる。   According to the projector 100 and the control method of the projector 100 according to the present embodiment, the restaurant customer selects the dish image 600 projected on the dish 302 by using the menu image 500 projected on the menu display body 301. It becomes possible to change. In addition, it is possible to provide a relationship between the menu image 500 and the dish image 600.

<変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば、次に述べるような各種の変形が可能である。また、次に述べる変形の態様の中から任意に選択された一または複数の変形を適宜組み合わせることもできる。
<Modification>
The present invention is not limited to the above-described embodiments, and various modifications as described below are possible, for example. Further, one or a plurality of modifications arbitrarily selected from the modifications described below can be appropriately combined.

<変形例1>
皿302は、大きさの異なる複数の皿の中から選択されてもよい。例えば、互いに大きさの異なる「大」「中」「小」の3つの皿が用意され、レストランのお客によって、大盛りが注文されたときに「大」の皿が皿302としてテーブル200に置かれ、並盛りが注文されたときに「中」の皿が皿302としてテーブル200に置かれ、少なめを注文したときに「小」の皿が皿302としてテーブル200に置かれてもよい。
この場合、生成部31は、皿302の大きさに応じて第2領域402の大きさを調整し、第2領域402の大きさに応じて料理画像600の大きさを調整してもよい。例えば、生成部31は、皿302が大きいほど、第2領域402および料理画像600を大きくしてもよい。
<Modification 1>
The dish 302 may be selected from a plurality of dishes having different sizes. For example, three plates of “large”, “medium”, and “small” having different sizes are prepared. When a restaurant customer orders a large plate, the “large” plate is placed on the table 200 as a plate 302. The “medium” dish may be placed on the table 200 as the dish 302 when the serving is ordered, and the “small” dish may be placed on the table 200 as the dish 302 when a smaller order is ordered.
In this case, the generation unit 31 may adjust the size of the second area 402 according to the size of the dish 302 and adjust the size of the dish image 600 according to the size of the second area 402. For example, the generation unit 31 may enlarge the second region 402 and the dish image 600 as the dish 302 is larger.

皿302が大きいほど、第2領域402および料理画像600が大きくなる場合、料理ごとに、大きさの異なる複数の料理画像情報が、予め画像情報記憶部22に記憶されてもよい。   When the second region 402 and the dish image 600 are larger as the dish 302 is larger, a plurality of dish image information having different sizes may be stored in the image information storage unit 22 in advance.

また、複数の皿の中で一番大きな皿に対応した料理画像情報が画像情報記憶部22に記憶され、一番大きな皿よりも小さい皿が用いられた場合、生成部31が、その料理画像情報が示す料理画像にトリミング処理を施すことによって、料理画像の大きさを調整してもよい。
なお、料理画像の大きさを料理画像の拡大または縮小で調整する場合、料理画像に示される料理の大きさ(例えば、餃子の大きさ、または、エビの大きさ)が変わってしまう。このため、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなる可能性が高くなる。
これに対して、料理画像にトリミング処理を施すことによって料理画像の大きさが調整されれば、料理画像の大きさを料理画像の拡大または縮小で調整する場合に比べて、料理画像が示す物体の大きさの変化を抑制でき、皿302に表示された料理の大きさと、実際の料理の大きさとの差が大きくなることを抑制可能になる。
In addition, when the dish image information corresponding to the largest dish among the plurality of dishes is stored in the image information storage unit 22 and a dish smaller than the largest dish is used, the generating unit 31 displays the dish image. The size of the dish image may be adjusted by performing a trimming process on the dish image indicated by the information.
When the size of the cooking image is adjusted by enlarging or reducing the cooking image, the size of the cooking shown in the cooking image (for example, the size of dumplings or the size of shrimp) changes. For this reason, the possibility that the difference between the size of the dish displayed on the plate 302 and the size of the actual dish will increase.
On the other hand, if the size of the dish image is adjusted by performing the trimming process on the dish image, the object indicated by the dish image is larger than the case where the size of the dish image is adjusted by enlargement or reduction of the dish image. The change in the size of the dish can be suppressed, and an increase in the difference between the size of the dish displayed on the dish 302 and the actual size of the dish can be suppressed.

<変形例2>
投射対象記憶部23は、ステップS1ではメニュー表示体301の位置および大きさのみを検出し、受信部1による料理の選択結果の受信に応じて、皿302の位置および大きさを検出してもよい。この場合、皿302は、図12に示したステップS8が実行される前にテーブル200に配置されていればよく、図12に示した動作が実行される場合に比べて、皿302をテーブル200に配置するタイミングの自由度が高くなる。
<Modification 2>
In step S1, the projection target storage unit 23 detects only the position and size of the menu display 301, and detects the position and size of the plate 302 in response to the reception of the dish selection result by the receiving unit 1. Good. In this case, the dish 302 only needs to be placed on the table 200 before step S8 shown in FIG. 12 is executed. Compared to the case where the operation shown in FIG. The degree of freedom of the timing to arrange the position becomes higher.

<変形例3>
センサー5としてTOFセンサーが用いられたが、センサー5は、TOFセンサーに限らず適宜変更可能である。例えば、センサー5は、ステレオカメラのように視差を利用してメニュー表示体301および皿302を検出してもよい。また、センサー5は、RGBカメラでもよい。この場合、投射対象検出部32は、RGBカメラが出力する画像情報を用いて、メニュー表示体301および皿302を検出してもよい。RGBカメラを使用することにより、物体が有する色彩、または物体に記載された文字等の情報を利用して物体(投射対象)を検出することが可能になる。
<Modification 3>
Although the TOF sensor is used as the sensor 5, the sensor 5 is not limited to the TOF sensor and can be changed as appropriate. For example, the sensor 5 may detect the menu display body 301 and the dish 302 using parallax like a stereo camera. The sensor 5 may be an RGB camera. In this case, the projection target detection unit 32 may detect the menu display body 301 and the dish 302 using image information output from the RGB camera. By using an RGB camera, it is possible to detect an object (projection target) using information such as the color of the object or characters written on the object.

<変形例4>
第1投射対象は、メニュー表示体301に限らず、投射対象物であれば適宜変更可能である。また、第2投射対象は、皿302に限らず、投射対象物であれば適宜変更可能である。
<Modification 4>
The first projection target is not limited to the menu display 301, and can be changed as appropriate as long as it is a projection target. Further, the second projection target is not limited to the dish 302, and can be appropriately changed as long as it is a projection target.

<変形例5>
第1投射対象に投射される第1画像として、第1メニュー画像501、和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cが択一的に用いられたが、第1画像は、1種類のメニュー画像でもよい。さらに言えば、第1画像は、料理の画像を選択する画面に限らず、第2投射対象に投射される画像を選択するための選択画像であればよい。
第2投射対象に投射される第2画像は、料理画像に限らず適宜変更可能である。
<Modification 5>
As the first image projected on the first projection target, the first menu image 501, the Japanese food menu image 502a, the Chinese menu image 502b, and the Italian menu image 502c are alternatively used. It may be a menu image of a kind. Furthermore, the first image is not limited to a screen for selecting a dish image, and may be a selection image for selecting an image projected on the second projection target.
The second image projected on the second projection target is not limited to the dish image and can be changed as appropriate.

<変形例6>
和食メニュー画像502a、中華メニュー画像502b、およびイタリアンメニュー画像502cの各々では、料理が、料理名(文字)ではなく料理の画像で示されてもよく、また、料理名(文字)と料理の画像とで示されてもよい。
<Modification 6>
In each of the Japanese food menu image 502a, the Chinese menu image 502b, and the Italian menu image 502c, the food may be indicated by a food image instead of the food name (character), and the food name (character) and the food image. And may be indicated.

<変形例7>
処理部3がプログラムを実行することによって実現される要素の全部または一部は、例えばFPGA(field programmable gate array)またはASIC(Application Specific IC)等の電子回路によりハードウェアで実現されてもよいし、ソフトウェアとハードウェアとの協働により実現されてもよい。
<Modification 7>
All or a part of the elements realized by the processing unit 3 executing the program may be realized by hardware by an electronic circuit such as a field programmable gate array (FPGA) or an application specific IC (ASIC). It may be realized by cooperation of software and hardware.

<変形例8>
投射部4では、光変調装置として液晶ライトバルブが用いられたが、光変調装置は液晶ライトバルブに限らず適宜変更可能である。例えば、光変調装置は、3枚の反射型の液晶パネルを用いた構成であってもよい。また、光変調装置は、1枚の液晶パネルを用いた方式、3枚のデジタルミラーデバイス(DMD)を用いた方式、1枚のデジタルミラーデバイスを用いた方式等の構成であってもよい。光変調装置として1枚のみの液晶パネルまたはDMDが用いられる場合には、色分離光学系や色合成光学系に相当する部材は不要である。また、液晶パネルおよびDMD以外にも、光源が発した光を変調可能な構成は、光変調装置として採用できる。
<Modification 8>
In the projection unit 4, a liquid crystal light valve is used as the light modulation device, but the light modulation device is not limited to the liquid crystal light valve and can be changed as appropriate. For example, the light modulation device may have a configuration using three reflective liquid crystal panels. Further, the light modulation device may have a configuration using one liquid crystal panel, a method using three digital mirror devices (DMD), a method using one digital mirror device, and the like. When only one liquid crystal panel or DMD is used as the light modulation device, members corresponding to the color separation optical system and the color synthesis optical system are unnecessary. In addition to the liquid crystal panel and the DMD, a configuration capable of modulating the light emitted from the light source can be employed as the light modulation device.

1…受信部、2…記憶部、21…プログラム記憶部、22…画像情報記憶部、23…投射対象記憶部、3…処理部、31…生成部、32…投射対象検出部、4…投射部、5…センサー、100…プロジェクター、101…リモートコントローラー。
DESCRIPTION OF SYMBOLS 1 ... Reception part, 2 ... Memory | storage part, 21 ... Program memory | storage part, 22 ... Image information memory | storage part, 23 ... Projection object memory | storage part, 3 ... Processing part, 31 ... Production | generation part, 32 ... Projection object detection part, 4 ... Projection Part 5 ... sensor 100 ... projector 101 ... remote controller.

Claims (5)

第1画像と第2画像とを合成して投射画像を生成する生成部と、
第1投射対象と第2投射対象とを含む投射領域に前記投射画像を投射する投射部と、
前記第1投射対象の位置と前記第2投射対象の位置とを検出する検出部と、を含み、
前記生成部は、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクター。
A generating unit that generates a projection image by combining the first image and the second image;
A projection unit that projects the projection image onto a projection area including a first projection target and a second projection target;
A detection unit that detects the position of the first projection target and the position of the second projection target;
The generation unit generates the projection image so that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target.
The first image is a selection image for selecting an image,
The second image is an image selected using the selected image.
A projector characterized by that.
前記検出部は、前記第2投射対象の大きさも検出し、
前記生成部は、前記第2投射対象の大きさに応じて、前記第2画像の大きさを調整することを特徴とする請求項1に記載のプロジェクター。
The detection unit also detects the size of the second projection target,
The projector according to claim 1, wherein the generation unit adjusts a size of the second image according to a size of the second projection target.
前記生成部は、前記第2画像にトリミング処理を施すことによって前記第2画像の大きさを調整することを特徴とする請求項2に記載のプロジェクター。   The projector according to claim 2, wherein the generation unit adjusts a size of the second image by performing a trimming process on the second image. 前記選択画像は、複数の画像の中から1つの画像を選択するための画像であることを特徴とする請求項1から3のいずれか1項に記載のプロジェクター。   The projector according to claim 1, wherein the selected image is an image for selecting one image from a plurality of images. 第1画像と第2画像とを合成して投射画像を生成するステップと、
第1投射対象と第2投射対象とを含む投射領域に、前記投射画像を投射するステップと、
前記第1投射対象の位置と前記第2投射対象の位置とを検出するステップと、を含み、
前記投射画像を生成するステップでは、前記第1投射対象の位置に前記第1画像が投射され前記第2投射対象の位置に前記第2画像が投射されるように前記投射画像を生成し、
前記第1画像は、画像を選択するための選択画像であり、
前記第2画像は、前記選択画像を用いて選択された画像である、
ことを特徴とするプロジェクターの制御方法。
Combining the first image and the second image to generate a projection image;
Projecting the projection image onto a projection area including a first projection target and a second projection target;
Detecting the position of the first projection target and the position of the second projection target,
In the step of generating the projection image, the projection image is generated so that the first image is projected at the position of the first projection target and the second image is projected at the position of the second projection target.
The first image is a selection image for selecting an image,
The second image is an image selected using the selected image.
And a projector control method.
JP2017086942A 2017-04-26 2017-04-26 Projector and projector control method Pending JP2018185414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017086942A JP2018185414A (en) 2017-04-26 2017-04-26 Projector and projector control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086942A JP2018185414A (en) 2017-04-26 2017-04-26 Projector and projector control method

Publications (1)

Publication Number Publication Date
JP2018185414A true JP2018185414A (en) 2018-11-22

Family

ID=64355766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086942A Pending JP2018185414A (en) 2017-04-26 2017-04-26 Projector and projector control method

Country Status (1)

Country Link
JP (1) JP2018185414A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3983848A4 (en) * 2019-09-04 2022-05-11 Material Technologies Corporation Object feature visualization apparatus and methods
JP2023544622A (en) * 2020-10-09 2023-10-24 マテリアル テクノロジーズ コーポレイション Target feature visualization device and method
US12511669B2 (en) 2021-09-22 2025-12-30 Casio Computer Co., Ltd. Projection processing device, storage medium, and projection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3983848A4 (en) * 2019-09-04 2022-05-11 Material Technologies Corporation Object feature visualization apparatus and methods
JP2022544679A (en) * 2019-09-04 2022-10-20 マテリアル テクノロジーズ コーポレイション Target feature visualization device and method
US12020353B2 (en) 2019-09-04 2024-06-25 Material Technologies Corporation Object feature visualization apparatus and methods
JP2023544622A (en) * 2020-10-09 2023-10-24 マテリアル テクノロジーズ コーポレイション Target feature visualization device and method
US12511669B2 (en) 2021-09-22 2025-12-30 Casio Computer Co., Ltd. Projection processing device, storage medium, and projection method

Similar Documents

Publication Publication Date Title
JP2020005094A (en) Projector and projector control method
JPWO2014171134A1 (en) Projection display device
JP2020005095A (en) Projector and projector control method
JP2018160803A (en) Projector and projector control method
JP6897386B2 (en) Multi-projection system, projector and projector control method
JP6809292B2 (en) Projector and projector control method
JP2020174349A (en) Projection device and image adjustment method
JP2015126334A (en) Image display device and method for controlling image display device
JP2019078845A (en) Projector and method for controlling projector
JP2018185414A (en) Projector and projector control method
CN112312102B (en) Control method of image projection system and image projection system
US20230276036A1 (en) Method of adjusting projection image, projection system, and control apparatus
CN114760451B (en) Projection image correction prompting method, projection image correction prompting device, projection equipment and storage medium
US20200077060A1 (en) Image Calibration Method and Projector System Capable of Adjusting a Distorted Image Automatically
JP2019024180A (en) Projector, multi-projection system, and method for controlling projector
JPWO2018042582A1 (en) Projection-type image display device and projection image adjustment method
JP6221287B2 (en) Projector and projector control method
CN111093065B (en) Multi-projection system, projector, and control method for projector
US10863058B2 (en) Image processing device, display device, and image processing method
JP2020067638A (en) Display system, display device and display device control method
JP2019132939A (en) Projector and method for controlling projector
JP7347205B2 (en) Projection system control method, projection system and control program
US20200145628A1 (en) Projection apparatus and correcting method of display image
US20250240393A1 (en) Calibration method, system, and non-transitory computer-readable storage medium storing program
JP7726060B2 (en) Projection method and projector

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20190322

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190402