[go: up one dir, main page]

JP2019120885A - Projection control system and projection control method - Google Patents

Projection control system and projection control method Download PDF

Info

Publication number
JP2019120885A
JP2019120885A JP2018002247A JP2018002247A JP2019120885A JP 2019120885 A JP2019120885 A JP 2019120885A JP 2018002247 A JP2018002247 A JP 2018002247A JP 2018002247 A JP2018002247 A JP 2018002247A JP 2019120885 A JP2019120885 A JP 2019120885A
Authority
JP
Japan
Prior art keywords
projection
image
infrared
projection control
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018002247A
Other languages
Japanese (ja)
Other versions
JP7054774B2 (en
JP2019120885A5 (en
Inventor
中村 秀幸
Hideyuki Nakamura
秀幸 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018002247A priority Critical patent/JP7054774B2/en
Publication of JP2019120885A publication Critical patent/JP2019120885A/en
Publication of JP2019120885A5 publication Critical patent/JP2019120885A5/ja
Application granted granted Critical
Publication of JP7054774B2 publication Critical patent/JP7054774B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To accurately detect a position of a detection object within an imaging field angle, and to adaptively support correct projection of a content that follows movement of the detection object.SOLUTION: A projection control system comprises: a light source device that irradiates infra-red light; an imaging apparatus that receives light for the irradiated infra-red light to penetrate a projected object, and that images an infra-red imaged image including the projected object as a field angle; and a projection control apparatus that recognizes a shape of an object existing around the projected object on the basis of the imaged infra-red imaged image, that generates a projection image according to the shape of the recognized object, and that outputs to a projection apparatus which projects the generated projection image to the projected object. The light source device is arranged at an opposite side of the imaging apparatus sandwiching the projected object.SELECTED DRAWING: Figure 1

Description

本開示は、被投影物への画像の投影を制御する投影制御システム及び投影制御方法に関する。   The present disclosure relates to a projection control system and a projection control method that control projection of an image onto a projection target.

特許文献1では、人物の位置を検出し、その検出された位置に応じて投影方向を決定することで、人物の位置に拘わらず、人物が見易い投影領域に投影画像を表示させる投影装置が開示されている。この特許文献1では、人物の位置は、例えば複数のカメラの撮像結果に基づいて検出される。   Patent Document 1 discloses a projection apparatus that displays a projection image in a projection area that is easy for a person to view regardless of the position of the person by detecting the position of the person and determining the projection direction according to the detected position. It is done. In Patent Document 1, the position of a person is detected based on, for example, imaging results of a plurality of cameras.

特開2016−4215号公報JP, 2016-4215, A

しかしながら、特許文献1の構成では、人物の位置を検出するためのカメラは可視光カメラであり、投影装置により投影される画像コンテンツ(例えば、人物の顔のコンテンツ)によっては、カメラは、その投影された画像コンテンツを人物と誤認識してしまう可能性があった。   However, in the configuration of Patent Document 1, the camera for detecting the position of the person is a visible light camera, and depending on the image content (for example, the content of the face of the person) projected by the projection device, the camera Image content may be misrecognized as a person.

このため、投影装置は、検出対象である人物ではなく、カメラにより人物と誤認識されてしまった画像コンテンツの周囲に、同一又は他の画像コンテンツを投影してしまい、投影装置が実際の人物に対して的確な画像コンテンツを投影することができないという課題があった。例えば、検出対象である実際の人物の動きに追従して画像コンテンツを的確に投影することができない。   For this reason, the projection device projects the same or other image content around the image content that has been misrecognized as a person by the camera, not the person to be detected, and the projection device In contrast, there is a problem that it is not possible to project accurate image content. For example, it is not possible to accurately project the image content following the movement of the actual person to be detected.

本開示は、上述した従来の事情に鑑みて案出され、撮像画角内の検出対象物の位置を高精度に検出し、検出対象物の動きに追従したコンテンツの的確な投影を適応的に支援する投影制御システム及び投影制御方法を提供することを目的とする。   The present disclosure is devised in view of the conventional circumstances described above, detects the position of the detection target within the imaging angle of view with high accuracy, and adaptively projects the accurate projection of the content following the movement of the detection target. An object of the present invention is to provide a projection control system and a projection control method to support.

本開示は、赤外光を照射する光源装置と、照射された前記赤外光が被投影物を透過した光を受光し、前記被投影物を画角として含む赤外撮像画像を撮像する撮像装置と、撮像された前記赤外撮像画像に基づいて、前記被投影物の周囲にいる対象物の形状を認識し、その認識された前記対象物の形状に応じた投影画像を生成し、生成された前記投影画像を前記被投影物に投影する投影装置に出力する投影制御装置と、を備え、前記光源装置は、前記被投影物を挟んで前記撮像装置の反対側に配置される、投影制御システムを提供する。   The present disclosure relates to a light source device for emitting infrared light, and an image for capturing an infrared captured image including the object to be projected as an angle of view, receiving the light transmitted through the object to be projected by the irradiated infrared light. A shape of an object around the projection object is recognized based on the device and the captured infrared image, and a projection image corresponding to the shape of the recognized object is generated and generated. A projection control device for outputting the projected image onto the object to be projected, the light source device being disposed on the opposite side of the imaging device across the object to be projected Provide a control system.

また、本開示は、投影制御システムにおける投影制御方法であって、光源装置により赤外光を照射し、照射された前記赤外光が被投影物を透過した光を受光し、前記被投影物を画角として含む赤外撮像画像を撮像装置により撮像し、撮像された前記赤外撮像画像に基づいて、前記被投影物の周囲にいる対象物の形状を認識し、前記認識された前記対象物の形状に応じた投影画像を生成し、生成された前記投影画像を前記被投影物に投影する投影装置に出力し、前記光源装置は、前記被投影物を挟んで前記撮像装置の反対側に配置される、投影制御方法を提供する。   Further, the present disclosure is a projection control method in a projection control system, in which the light source device irradiates infrared light, and the irradiated infrared light receives light transmitted through the projection object, the projection object An infrared captured image including the angle of view as an angle of view is captured by an imaging device, and based on the captured infrared captured image, the shape of an object present around the projected object is recognized, and the recognized object A projection image according to the shape of the object is generated, and the generated projection image is output to a projection device for projecting the object onto the object, the light source device sandwiching the object and the opposite side of the imaging device To provide a projection control method, which is arranged in

本開示によれば、撮像画角内の検出対象物の位置を高精度に検出でき、検出対象物の動きに追従したコンテンツの的確な投影を適応的に支援できる。   According to the present disclosure, the position of the detection target within the imaging angle of view can be detected with high accuracy, and accurate projection of the content following the movement of the detection target can be adaptively assisted.

実施の形態1に係る投影制御システムの設置例を示す図A diagram showing an installation example of a projection control system according to the first embodiment 実施の形態1に係る投影制御システムのシステム構成例を詳細に示すブロック図Block diagram showing in detail an example of the system configuration of the projection control system according to the first embodiment 赤外線カメラの赤外撮像画像の位置を示す座標(Xc,Yc)とプロジェクタにより投影される投影画像の位置を示す座標(Xp,Yp)との間の変換のためのキャリブレーションの一例を示す説明図Description of an example of calibration for conversion between coordinates (Xc, Yc) indicating the position of an infrared captured image of an infrared camera and coordinates (Xp, Yp) indicating the position of a projected image projected by a projector Figure 赤外線カメラにより撮像される赤外撮像画像の一例を示す説明図Explanatory drawing which shows an example of the infrared captured image imaged with an infrared camera 表示装置に表示されるオフセット調整画面に対するユーザ操作の一例を示す図A diagram showing an example of a user operation on an offset adjustment screen displayed on a display device 図5に示すユーザ操作により画像コンテンツの投影位置が左側にシフトした例を示す図The figure which shows the example which the projection position of the image content shifted to the left side by user operation shown in FIG. 実施の形態1に係る投影制御処理の動作手順の一例を説明するフローチャートA flowchart for explaining an example of the operation procedure of the projection control process according to the first embodiment 実施の形態1の第1の変形例に係る投影制御システムの設置例を示す図The figure which shows the example of installation of the projection control system which concerns on the 1st modification of Embodiment 1. 実施の形態1の第1の変形例に係る赤外線カメラにより撮像される赤外撮像画像の一例を示す説明図Explanatory drawing which shows an example of the infrared captured image imaged with the infrared camera which concerns on the 1st modification of Embodiment 1. 実施の形態2に係る投影制御システムの設置例を示す図A diagram showing an installation example of a projection control system according to a second embodiment 実施の形態2に係る投影画像の一例を示す図The figure which shows an example of the projection image which concerns on Embodiment 2. 実施の形態3に係る投影制御システムの設置例を示す図A diagram showing an installation example of a projection control system according to a third embodiment 実施の形態3に係る投影制御システムのシステム構成例を詳細に示すブロック図Block diagram showing in detail a system configuration example of a projection control system according to Embodiment 3. 赤外線カメラの赤外撮像画像の位置を示す座標(Xci,Yci)とプロジェクタにより投影される投影画像の位置を示す座標(Xp,Yp)と可視光カメラの可視光撮像画像の位置を示す座標(Xcv,Ycv)との間の変換のためのキャリブレーションの一例を示す説明図Coordinates (Xci, Yci) indicating the position of the infrared captured image of the infrared camera, coordinates (Xp, Yp) indicating the position of the projected image projected by the projector, and coordinates (the location of the visible light captured image of the visible light camera Explanatory diagram showing an example of calibration for conversion between Xcv and Ycv) 実施の形態3に係る投影画像の一例を示す図The figure which shows an example of the projection image which concerns on Embodiment 3. 実施の形態3に係る投影制御処理の動作手順の一例を説明するフローチャートA flowchart for explaining an example of the operation procedure of the projection control process according to the third embodiment 実施の形態1の第2の変形例に係る投影制御システムの設置例を示す図The figure which shows the example of installation of the projection control system concerning the 2nd modification of Embodiment 1. 実施の形態1の第2の変形例に係る投影制御システムのシステム構成例を詳細に示すブロック図A block diagram showing in detail an example of a system configuration of a projection control system according to a second modification of the first embodiment 実施の形態1の第3の変形例に係る投影制御システムの設置例を示す図The figure which shows the example of installation of the projection control system concerning the 3rd modification of Embodiment 1.

以下、添付図面を適宜参照しながら、本開示に係る投影制御システム及び投影制御方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, embodiments of the projection control system and the projection control method according to the present disclosure will be described in detail with reference to the attached drawings as appropriate. However, the detailed description may be omitted if necessary. For example, detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. It should be noted that the attached drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and they are not intended to limit the claimed subject matter.

以下、本開示に係る投影制御システムは、例えば店舗に敷設されたスクリーン(被投影物の一例)にいる人物(対象物の一例)の形状を、赤外線カメラ(撮像装置の一例)による赤外撮像画像に基づいて認識し、その認識された人物の形状に合わせて、画像コンテンツを重畳した投影画像をプロジェクタからスクリーンに向けて投影する。投影制御システムは、店舗内(言い換えると、屋内)に設置されてもよいし、店舗外(言い換えると、屋外)に設置されてもよい。   Hereinafter, the projection control system according to the present disclosure is, for example, an infrared imaging with an infrared camera (an example of an imaging device) of the shape of a person (an example of an object) on a screen (an example of an object to be projected) The image is recognized based on the image, and a projected image on which the image content is superimposed is projected from the projector toward the screen in accordance with the shape of the recognized person. The projection control system may be installed inside a store (in other words, indoor) or may be installed outside the store (in other words, outdoors).

(実施の形態1)
図1は、実施の形態1に係る投影制御システム100の設置例を示す図である。投影制御システム100は、プロジェクタ10(図2参照)と、赤外線照明20と、スクリーン30と、赤外線カメラ40(図2参照)と、投影制御装置50(図2参照)とを少なくとも含む構成である。投影制御装置50には、入力装置IP及び表示装置DPのそれぞれがデータもしくは情報の入出力が可能に接続される。
Embodiment 1
FIG. 1 is a diagram showing an installation example of the projection control system 100 according to the first embodiment. Projection control system 100 includes at least projector 10 (see FIG. 2), infrared illumination 20, screen 30, infrared camera 40 (see FIG. 2), and projection control device 50 (see FIG. 2). . Each of the input device IP and the display device DP is connected to the projection control device 50 so that data or information can be input / output.

投影装置の一例としてのプロジェクタ10は、例えば円筒形状の筐体を有し、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。プロジェクタ10は、スクリーン30に対向するように配置される。プロジェクタ10は、投影制御装置50から送出された投影指示を含む投影画像のデータを受信して取得すると、その投影指示に基づき、その投影指示により指定された投影画像をスクリーン30に投影するための投影光(例えば可視光)を生成してスクリーン30に向けて投影する。これにより、プロジェクタ10は、投影制御装置50により指定された投影画像(後述参照)をスクリーン30に投影可能となる。プロジェクタ10の詳細については、図2を参照して説明する。   The projector 10 as an example of a projection device has a cylindrical case, for example, and is connected to be able to transmit and receive data or information with the projection control device 50. The projector 10 is disposed to face the screen 30. When the projector 10 receives and acquires data of a projection image including a projection instruction sent from the projection control device 50, the projector 10 projects the projection image specified by the projection instruction on the screen 30 based on the projection instruction. Projected light (e.g. visible light) is generated and projected towards the screen 30. Thus, the projector 10 can project the projection image (see below) specified by the projection control device 50 on the screen 30. The details of the projector 10 will be described with reference to FIG.

光源装置の一例としての赤外線照明20は、複数の照明素子(図示略、例えば、赤外光を発光するLED(Light Emission Diode)素子)とそれぞれの照明素子における発光の有無を制御するための制御基板(図示略)とが内蔵された筐体を有し、プロジェクタ10の筐体とは別体である。赤外線照明20は、投影制御装置50との間でデータもしくは情報の送受信が可能に接続されてもよいし、投影制御装置50との間でデータもしくは情報の送受信が通信可能に接続されなくてもよい。赤外線照明20は、プロジェクタ10と同様に、スクリーン30に対向するように配置される。赤外線照明20は、例えば投影制御システム100の管理者の手動操作、又は投影制御装置50からの制御指示に基づき、電源オン状態となり、上述した投影光とは波長帯域の異なる赤外光をスクリーン30に向けて照射する。   The infrared illumination 20 as an example of a light source device includes a plurality of lighting elements (not shown, for example, LED (Light Emission Diode) elements that emit infrared light) and control for controlling the presence or absence of light emission in each lighting element. It has a housing in which a substrate (not shown) is contained, and is separate from the housing of the projector 10. The infrared illumination 20 may be connected so as to be able to transmit and receive data or information with the projection control device 50, or even if transmission and reception of data or information with the projection control device 50 is not communicably connected. Good. The infrared illumination 20 is disposed to face the screen 30 in the same manner as the projector 10. The infrared illumination 20 is turned on based on, for example, a manual operation of a manager of the projection control system 100 or a control instruction from the projection control apparatus 50, and the infrared light having a wavelength band different from that of the projection light described above Irradiate towards.

なお、赤外線照明20は、例えばプロジェクタ10の円筒形状の筐体の半径方向の周囲に沿って一体的に取り付けられた円筒形状の筐体を有してもよい。この場合には、この円筒形状の筐体内に、複数の照明素子(例えば赤外光を発光するLED素子)と制御基板(上述参照)とが内蔵される。つまり、複数の照明素子(例えば赤外光を発光するLED素子)は、プロジェクタ10の円筒形状の筐体の半径方向の周囲に沿って円環状に並べて配置される。   The infrared illumination 20 may have, for example, a cylindrical housing integrally attached along the radial periphery of the cylindrical housing of the projector 10. In this case, a plurality of lighting elements (for example, LED elements that emit infrared light) and a control substrate (see the above) are incorporated in the cylindrical housing. That is, the plurality of lighting elements (for example, LED elements that emit infrared light) are arranged in an annular shape along the radial circumference of the cylindrical housing of the projector 10.

実施の形態1に係る投影制御システム100では、赤外線照明20から照射される赤外光は、プロジェクタ10から投影される投影光(可視光)とは波長帯域が異なり、赤外線カメラ40は可視光でなく赤外光を受光して撮像するものである。これは、投影制御装置50が、赤外線カメラ40が撮像した赤外撮像画像に基づいて、赤外線カメラ40の画角内に含まれるように配置されたスクリーン30の周囲(例えば手前)に存在する人物HMの位置を誤認識すること無く高精度に検出するためである。   In the projection control system 100 according to the first embodiment, the infrared light emitted from the infrared illumination 20 is different in wavelength band from the projection light (visible light) projected from the projector 10, and the infrared camera 40 is a visible light. Instead, it receives infrared light and picks up an image. This is because a person who is present (for example, in front of) the screen 30 arranged so that the projection control device 50 is included within the angle of view of the infrared camera 40 based on the infrared captured image captured by the infrared camera 40 This is to detect the position of the HM with high accuracy without erroneous recognition.

被投影物の一例としてのスクリーン30は、赤外線照明20から照射された赤外光を透過可能な材料を用いて形成され、固定的に設置される。スクリーン30の表側や裏側は、図1に従うとする。スクリーン30を透過した赤外光は、赤外線カメラ40により受光される。スクリーン30は、例えばいずれも赤外光を透過可能な透明モードとスクリーンモードとが交互に切り換え可能な透明スクリーン(例えば、下記参考非特許文献1参照)でもよいし、赤外光を透過可能なフィルムがガラスの背面に貼り付けられた背面投影スクリーン(例えば、下記参考非特許文献2参照)でもよい。   The screen 30 as an example of an object to be projected is formed using a material capable of transmitting infrared light emitted from the infrared illumination 20 and is fixedly installed. It is assumed that the front and back sides of the screen 30 conform to FIG. Infrared light transmitted through the screen 30 is received by the infrared camera 40. The screen 30 may be, for example, a transparent screen capable of alternately switching between a transparent mode capable of transmitting infrared light and a screen mode alternately (see, for example, the following reference non-patent document 1), or capable of transmitting infrared light. It may be a rear projection screen (see, for example, the following reference non-patent document 2) in which the film is attached to the rear surface of the glass.

参考非特許文献1Reference Non-Patent Document 1

パナソニック株式会社、透明スクリーン、[online]、[平成29年12月27日検索]、インターネット<URL:https://panasonic.biz/cns/invc/screen/technology.html>   Panasonic Corporation, Transparent Screen, [online], [Search on December 27, 2017], Internet <URL: https://panasonic.biz/cns/invc/screen/technology.html>

参考非特許文献2Reference Non-Patent Document 2

シアターハウス、リア透過タイプ フィルム・スクリーンタイプ、[online]、[平成29年12月27日検索]、インターネット<http://theaterhouse.co.jp/p_rear/item_top.html>   Theater house, rear transmission type film / screen type, [online], [search on December 27, 2017], Internet <http://theaterhouse.co.jp/p_rear/item_top.html>

撮像装置の一例としての赤外線カメラ40は、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。赤外線カメラ40は、スクリーン30の全体(全域)をすっぽり画角内に含むように対向して配置される。赤外線カメラ40は、赤外線照明20から照射されてスクリーン30を透過した赤外光を含む光を受光し、その受光された光に基づいて撮像することで、赤外撮像画像を生成する。赤外線カメラ40は、生成された赤外撮像画像のデータを投影制御装置50に送出する。赤外線カメラ40の詳細については、図2を参照して説明する。   The infrared camera 40 as an example of an imaging device is connected so as to be able to transmit and receive data or information with the projection control device 50. The infrared camera 40 is disposed so as to face the entire screen 30 so as to entirely include it within the angle of view. The infrared camera 40 receives light including infrared light emitted from the infrared illumination 20 and transmitted through the screen 30, and generates an infrared captured image by imaging based on the received light. The infrared camera 40 transmits the data of the generated infrared captured image to the projection control device 50. The details of the infrared camera 40 will be described with reference to FIG.

なお、図1に示すように、プロジェクタ10と赤外線カメラ40、又は赤外線照明20と赤外線カメラ40とはスクリーン30を挟んで反対側に対向して配置されていれば良く、互いに同軸上に存在するように配置されなくてもよい。例えば、赤外線照明20と赤外線カメラ40とがスクリーン30を挟んで反対側に対向して配置されることで、赤外線カメラ40は、スクリーン30を透過した赤外透過光の受光に基づいて、スクリーン30の表面側にいる人物HM1の形状を特定可能な赤外撮像画像を撮像可能となる。   As shown in FIG. 1, the projector 10 and the infrared camera 40, or the infrared illumination 20 and the infrared camera 40 may be disposed opposite to each other with the screen 30 interposed therebetween, and exist coaxially with each other. It does not have to be arranged. For example, since the infrared illumination 20 and the infrared camera 40 are disposed opposite to each other with the screen 30 interposed therebetween, the infrared camera 40 can display the screen 30 based on the reception of the infrared transmission light transmitted through the screen 30. Thus, it is possible to capture an infrared captured image that can specify the shape of the person HM1 on the surface side of.

また、対象物の一例としての人物HM1は、スクリーン30の赤外線カメラ40側に設けられた対象物領域ARF1内に位置するのであれば、図1に示す位置そのものに限定されない。つまり、人物HM1は、対象物領域ARF1内のいずれの場所に位置してよい。対象物領域ARF1は、スクリーン30と同様に、赤外線照明20と赤外線カメラ40との間に位置する人物HM1が存在するエリアである。また、対象物領域は、スクリーン30の前方(図1、図10、図12、図17参照)又は後方(図8参照)のいずれかに位置すればよく、両側に位置してもよい。また、対象物領域ARF1は、人物HM1から見て、例えば床に枠線等が描画されていること等によって具体的に可視化されている方が好ましい。これにより、人物HM1が対象物領域ARF1外へ移動することを抑制可能となる。但し、対象物領域ARF1の可視化は必須でなくてもよい。また、対象物領域ARF1は、例えばプロジェクタ10、別のプロジェクタ(図示略)、看板、又はシステム管理者等によって、「スクリーンの前に立ってください」という示唆によって、人物HM1に指示されてもよい。   The person HM1 as an example of the object is not limited to the position itself shown in FIG. 1 as long as the person HM1 is located in the object region ARF1 provided on the infrared camera 40 side of the screen 30. That is, the person HM1 may be located anywhere in the object area ARF1. The object area ARF1 is an area where a person HM1 located between the infrared illumination 20 and the infrared camera 40 exists, as in the screen 30. Also, the object area may be located either in front of the screen 30 (see FIGS. 1, 10, 12, 17) or in the rear (see FIG. 8), and may be located on both sides. Further, it is preferable that the object region ARF1 be specifically visualized by, for example, drawing a frame line or the like on the floor, as viewed from the person HM1. This makes it possible to suppress the movement of the person HM1 out of the object area ARF1. However, visualization of the object region ARF1 may not be essential. Also, the target object area ARF1 may be instructed to the person HM1 by, for example, the projector 10, another projector (not shown), a signboard, or a system administrator or the like, with the suggestion that "stand up in front of the screen". .

投影制御装置50は、例えばPC(Personal Computer)もしくはタブレット端末等の有線もしくは無線の通信が可能な情報処理装置であり、少なくともプロジェクタ10、赤外線カメラ40、入力装置IP、表示装置DPとの間でデータもしくは情報の送受信が可能に接続される。投影制御装置50は、赤外線カメラ40により撮像された赤外撮像画像(言い換えると、スクリーン30を透過した赤外光の撮像に基づいて生成された撮像画像)に基づいて、スクリーン30の周囲(例えば手前)に人物HM1(対象者の一例)の有無やその人物HM1のスクリーン30に対する位置を示す形状を認識する。投影制御装置50は、その認識された人物HM1の形状に応じた投影画像を生成し、その生成された投影画像をスクリーン30に投影するプロジェクタ10に出力する。投影制御装置50の詳細については、図2を参照して説明する。   The projection control device 50 is an information processing device capable of wired or wireless communication, such as a PC (Personal Computer) or a tablet terminal, and at least among the projector 10, the infrared camera 40, the input device IP, and the display device DP. It is connected so that transmission or reception of data or information is possible. The projection control device 50, based on the infrared captured image captured by the infrared camera 40 (in other words, the captured image generated based on the imaging of the infrared light transmitted through the screen 30), the periphery of the screen 30 (for example, Recognize the presence or absence of a person HM1 (an example of a target person) and the shape indicating the position of the person HM1 with respect to the screen 30). The projection control device 50 generates a projection image according to the shape of the recognized person HM1, and outputs the generated projection image to the projector 10 that projects the projection image on the screen 30. The details of the projection control device 50 will be described with reference to FIG.

入力装置IPは、例えばキーボードやマウス等の、投影制御システム100のユーザ(例えば管理者)の操作を受け付け可能なデバイスであり、ユーザの操作に応じた信号を投影制御装置50に送出するユーザインターフェースである。   The input device IP is a device capable of receiving an operation of a user (for example, an administrator) of the projection control system 100, such as a keyboard or a mouse, for example, and a user interface for transmitting a signal corresponding to the operation of the user to the projection control device 50. It is.

表示装置DPは、例えばLCD(Liquid Crystal Display)もしくは有機EL(Electroluminescence)を用いて構成され、投影制御装置50から送出されたデータもしくは情報の表示指示を取得し、その取得された表示指示に含まれるデータもしくは情報の表示を行う。なお、表示装置DPは、ユーザの操作を受け付けて検出可能なタッチパネルとして構成されてもよい。なお、実施の形態1に係る投影制御システム100において、入力装置IPや表示装置DPは省略されてもよい。   The display device DP is configured using, for example, an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence), acquires a display instruction of data or information sent from the projection control device 50, and is included in the acquired display instruction. Display the data or information that The display device DP may be configured as a touch panel that can receive and detect a user's operation. In the projection control system 100 according to the first embodiment, the input device IP and the display device DP may be omitted.

図2は、実施の形態1に係る投影制御システム100のシステム構成例を詳細に示すブロック図である。   FIG. 2 is a block diagram showing in detail an example of the system configuration of the projection control system 100 according to the first embodiment.

プロジェクタ10は、通信インターフェース11と、制御部12と、投影部13と、メモリ14とを含む構成である。図2のプロジェクタ10の構成において、通信インターフェースを便宜的に「通信I/F」と記載している。   The projector 10 is configured to include a communication interface 11, a control unit 12, a projection unit 13, and a memory 14. In the configuration of the projector 10 of FIG. 2, the communication interface is conveniently described as “communication I / F”.

通信インターフェース11は、投影制御装置50との間のデータもしくは情報の送受信(通信)に関する通信インターフェースとしての役割を有し、投影制御装置50から送出される投影画像のデータを含む投影指示を受信して取得すると、その取得された投影指示を制御部12に渡す。   The communication interface 11 has a role as a communication interface regarding transmission / reception (communication) of data or information with the projection control device 50, and receives a projection instruction including data of a projection image sent from the projection control device 50. When it is acquired, the acquired projection instruction is passed to the control unit 12.

制御部12は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)もしくはFPGA(Field Programmable Gate Array)を用いて構成されたプロセッサPRC1である。制御部12は、プロジェクタ10の動作を司るコントローラとして機能し、プロジェクタ10の各部の動作を全体的に統括するための制御処理、プロジェクタ10の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。制御部12は、メモリ14に記憶されたプログラム及びデータに従って動作する。制御部12は、動作時にメモリ14を使用し、制御部12が生成又は取得したデータ又は情報をメモリ14に一時的に保存してもよい。   The control unit 12 is a processor PRC1 configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), or a field programmable gate array (FPGA). The control unit 12 functions as a controller that controls the operation of the projector 10, and performs control processing to generally control the operation of each unit of the projector 10, input / output processing of data with each unit of the projector 10, and data calculation (Calculation) processing and storage processing of data. The control unit 12 operates in accordance with programs and data stored in the memory 14. The control unit 12 may use the memory 14 at the time of operation, and temporarily store data or information generated or acquired by the control unit 12 in the memory 14.

投影部13は、制御部12により投影の制御を受け、所定の投影光を出射してスクリーン30に投影する。具体的には、投影部13は、制御部12から渡された投影画像のデータに基づいて、その投影画像をスクリーン30に投影するための投影光を出射する。投影部は例えば、光源、レンズなどによって構成される。   The projection unit 13 receives control of projection by the control unit 12, emits predetermined projection light, and projects it on the screen 30. Specifically, based on the data of the projection image passed from the control unit 12, the projection unit 13 emits projection light for projecting the projection image on the screen 30. The projection unit is configured of, for example, a light source, a lens, and the like.

メモリ14は、例えばRAM(Random Access Memory)とROM(Read Only Memory)とを用いて構成され、プロジェクタ10の動作の実行に必要なプログラムやデータ、更には、動作中に生成されたデータ又は情報を一時的に保持する。RAMは、例えばプロジェクタ10の動作時に使用されるワークメモリである。ROMは、例えばプロジェクタ10を制御するためのプログラム及びデータを予め記憶して保持する。   The memory 14 is configured using, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory), and programs and data necessary for executing the operation of the projector 10, and further, data or information generated during the operation Hold temporarily. The RAM is, for example, a work memory used when the projector 10 operates. The ROM stores and holds, for example, a program and data for controlling the projector 10 in advance.

赤外線カメラ40は、赤外撮像部41と、制御部42と、通信インターフェース43と、メモリ44とを含む構成である。図2の赤外線カメラ40の構成においても、同様に通信インターフェースを便宜的に「通信I/F」と記載している。   The infrared camera 40 is configured to include an infrared imaging unit 41, a control unit 42, a communication interface 43, and a memory 44. Also in the configuration of the infrared camera 40 of FIG. 2, the communication interface is similarly described as “communication I / F” for convenience.

赤外撮像部41は、赤外線照明20から照射された赤外光がスクリーン30を透過した光(赤外透過光)を受光可能な赤外光レンズ(図示略)と、その光(赤外透過光)に基づく赤外撮像画像を撮像可能なイメージセンサ(図示略)とを含む構成である。赤外撮像部41の出力は制御部42に送出される。   The infrared imaging unit 41 includes an infrared light lens (not shown) capable of receiving light (infrared transmission light) transmitted by the screen 30 from infrared light emitted from the infrared illumination 20, and the light (infrared transmission) And an image sensor (not shown) capable of capturing an infrared captured image based on light). The output of the infrared imaging unit 41 is sent to the control unit 42.

制御部42は、例えばCPU、MPU、DSPもしくはFPGAを用いて構成されたプロセッサPRC2である。制御部42は、赤外線カメラ40の動作を司るコントローラとして機能し、赤外線カメラ40の各部の動作を全体的に統括するための制御処理、赤外線カメラ40の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。制御部42は、メモリ44に記憶されたプログラム及びデータに従って動作する。制御部42は、動作時にメモリ44を使用し、制御部42が生成又は取得したデータ又は情報をメモリ44に一時的に保存してもよい。制御部42は、例えば赤外撮像部41のイメージセンサの出力に基づいて所定の画像処理を施すことで、赤外撮像画像のデータを生成する。   The control unit 42 is a processor PRC2 configured using, for example, a CPU, an MPU, a DSP, or an FPGA. The control unit 42 functions as a controller that controls the operation of the infrared camera 40, and performs control processing to generally control the operation of each unit of the infrared camera 40, input / output processing of data with each unit of the infrared camera 40, Data calculation (calculation) processing and data storage processing are performed. The control unit 42 operates in accordance with the program and data stored in the memory 44. The control unit 42 may use the memory 44 at the time of operation, and temporarily store data or information generated or acquired by the control unit 42 in the memory 44. The control unit 42 performs predetermined image processing based on, for example, an output of the image sensor of the infrared imaging unit 41 to generate data of an infrared pickup image.

通信インターフェース43は、投影制御装置50との間のデータもしくは情報の送受信(通信)に関する通信インターフェースとしての役割を有し、制御部42により生成された赤外撮像画像のデータを取得すると、その取得された赤外撮像画像のデータを投影制御装置50に送信する。   The communication interface 43 has a role as a communication interface related to transmission / reception (communication) of data or information with the projection control apparatus 50, and when the data of the infrared captured image generated by the control unit 42 is acquired, the acquisition is performed. The data of the captured infrared image is transmitted to the projection control device 50.

メモリ44は、例えばRAMとROMとを用いて構成され、赤外線カメラ40の動作の実行に必要なプログラムやデータ、更には、動作中に生成されたデータ又は情報を一時的に保持する。RAMは、例えば赤外線カメラ40の動作時に使用されるワークメモリである。ROMは、例えば赤外線カメラ40を制御するためのプログラム及びデータを予め記憶して保持する。   The memory 44 is configured using, for example, a RAM and a ROM, and temporarily holds programs and data required to execute the operation of the infrared camera 40, and further, data or information generated during the operation. The RAM is, for example, a work memory used when the infrared camera 40 operates. The ROM stores and holds, for example, a program and data for controlling the infrared camera 40 in advance.

投影制御装置50は、入出力インターフェース51と、メモリ52と、コンテンツ格納データベース(DB:Database)53と、記録装置54と、プロセッサ55とを含む構成である。入出力インターフェース51と、メモリ52と、コンテンツ格納データベース53と、記録装置54と、プロセッサ55とは、互いに内部バスBS1を介して、データもしくは情報の入出力が可能に接続される。   The projection control device 50 is configured to include an input / output interface 51, a memory 52, a content storage database (DB: Database) 53, a recording device 54, and a processor 55. The input / output interface 51, the memory 52, the content storage database 53, the recording device 54, and the processor 55 are mutually connected via the internal bus BS1 so that data or information can be input / output.

入出力インターフェース51は、プロジェクタ10、赤外線カメラ40、入力装置IP及び表示装置DPのそれぞれとの間で有線もしくは無線のデータもしくは情報の送受信が可能に接続される。なお、図2では図示が省略されているが、入出力インターフェース51は赤外線照明20との間で有線もしくは無線のデータもしくは情報の送受信が可能に接続されてもよい。   The input / output interface 51 is connected so as to be able to transmit and receive wired or wireless data or information with each of the projector 10, the infrared camera 40, the input device IP and the display device DP. Although not shown in FIG. 2, the input / output interface 51 may be connected so as to be able to transmit and receive wired or wireless data or information with the infrared light 20.

メモリ52は、例えばRAMとROMとを用いて構成され、投影制御装置50の動作の実行に必要なプログラムやデータ、更には、動作中に生成されたデータ又は情報を一時的に保持する。RAMは、例えば投影制御装置50の動作時に使用されるワークメモリである。ROMは、例えば投影制御装置50を制御するためのプログラム及びデータを予め記憶して保持する。メモリ52は、例えば赤外線カメラ40により生成される赤外撮像画像の解像度(具体的には、縦方向のピクセル、横方向のピクセル)の情報と、プロジェクタ10により投影されるスクリーン30の大きさ(面積)の情報とを保持している。   The memory 52 is configured using, for example, a RAM and a ROM, and temporarily holds programs and data required to execute the operation of the projection control device 50, and further data or information generated during the operation. The RAM is, for example, a work memory used when the projection control device 50 operates. The ROM stores and holds, for example, a program and data for controlling the projection control device 50 in advance. The memory 52 includes, for example, information of the resolution (specifically, vertical pixels, horizontal pixels) of the infrared captured image generated by the infrared camera 40 and the size of the screen 30 projected by the projector 10 Holds information on area).

コンテンツ保持部の一例としてのコンテンツ格納データベース53は、例えばHDD(Hard Disk Drive)もしくはSSD(Solid State Drive)を用いて構成され、プロジェクタ10により投影される投影画像に重畳されるための画像コンテンツのデータを記憶保持している。   The content storage database 53 as an example of the content storage unit is configured using, for example, a hard disk drive (HDD) or a solid state drive (SSD), and is an image content to be superimposed on a projection image projected by the projector 10. Data is stored and held.

記録装置54は、例えばHDDもしくはSSDを用いて構成され、投影制御装置50が入力装置IPや赤外線カメラ40から送られて取得したデータもしくは情報を記録したり、プロジェクタ10により投影させるための投影画像のデータ(具体的には、プロセッサ55により生成される投影画像のデータ)を記録したりする。   The recording device 54 is configured using, for example, an HDD or an SSD, and the projection control device 50 records data or information sent from the input device IP or the infrared camera 40 and acquired, or a projected image for projection by the projector 10 Data (specifically, data of a projection image generated by the processor 55).

プロセッサ55は、例えばCPU、MPU、DSPもしくはFPGAを用いて構成される。プロセッサ55は、投影制御装置50の動作を司るコントローラとして機能し、投影制御装置50の各部の動作を全体的に統括するための制御処理、投影制御装置50の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。プロセッサ55は、メモリ52に記憶されたプログラム及びデータに従って動作する。プロセッサ55は、動作時にメモリ52を使用し、プロセッサ55が生成又は取得したデータ又は情報をメモリ52に一時的に保存してもよい。   The processor 55 is configured using, for example, a CPU, an MPU, a DSP or an FPGA. The processor 55 functions as a controller that controls the operation of the projection control device 50, and performs control processing to totally control the operation of each portion of the projection control device 50, and inputs / outputs data from / to each portion of the projection control device 50. Processing, data calculation (calculation) processing and data storage processing are performed. The processor 55 operates in accordance with the programs and data stored in the memory 52. The processor 55 may use the memory 52 at the time of operation and temporarily store in the memory 52 data or information generated or obtained by the processor 55.

プロセッサ55は、例えばキャリブレーション部551と、物体検出部552と、投影画像生成部553とを少なくとも含む構成である。キャリブレーション部551、物体検出部552及び投影画像生成部553のそれぞれは、例えばプロセッサ55がメモリ52に予め記憶されたプログラム及びデータを読み込んで実行することで、機能的に実現可能となる。   The processor 55 is configured to include at least a calibration unit 551, an object detection unit 552, and a projection image generation unit 553, for example. Each of the calibration unit 551, the object detection unit 552, and the projection image generation unit 553 can be functionally realized by, for example, the processor 55 reading and executing programs and data stored in advance in the memory 52.

キャリブレーション部551は、赤外線カメラ40により生成される赤外撮像画像内の位置(具体的には、座標)とプロジェクタ10により投影される投影画像内の位置(具体的には、座標)との変換処理の関係式(例えば、射影変換行列)を求める処理(つまり、キャリブレーション)を行う。具体的には、キャリブレーション部551は、赤外撮像画像内で投影画像の四隅がどこに位置するかを、ユーザの入力装置IPを用いた指定又は所定の画像処理(例えば、エッジ検出処理)によって検出し、例えば上述した射影変換行列を求める(図3参照)。   The calibration unit 551 sets a position (specifically, coordinates) in the infrared captured image generated by the infrared camera 40 and a position (specifically, coordinates) in the projection image projected by the projector 10. A process (that is, calibration) is performed to obtain a relational expression (for example, a projective transformation matrix) of the transformation process. Specifically, the calibration unit 551 specifies where the four corners of the projection image are located in the infrared captured image by designation by using the input device IP of the user or predetermined image processing (for example, edge detection processing). For example, the projection transformation matrix described above is determined (see FIG. 3).

図3は、赤外線カメラ40の赤外撮像画像IRGの位置を示す座標(Xc,Yc)とプロジェクタ10により投影される投影画像PJRの位置を示す座標(Xp,Yp)との間の変換のためのキャリブレーションの一例を示す説明図である。赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4のそれぞれは、例えば赤外撮像画像IRG及び投影画像PJRが対比的に表示装置DPに表示された状態で(図3参照)、ユーザの入力装置IPを用いた指定により選択された、投影画像PJRの四隅の端点CR1,CR2,CR3,CR4にそれぞれ対応する。   FIG. 3 is for conversion between coordinates (Xc, Yc) indicating the position of the infrared captured image IRG of the infrared camera 40 and coordinates (Xp, Yp) indicating the position of the projection image PJR projected by the projector 10 It is an explanatory view showing an example of calibration of. Each of the end points EG1, EG2, EG3, EG4 in the infrared captured image IRG is, for example, in a state in which the infrared captured image IRG and the projected image PJR are displayed on the display device DP in comparison (see FIG. 3) These correspond to the end points CR1, CR2, CR3, and CR4 of the four corners of the projection image PJR selected by designation using the input device IP.

なお上述したように、キャリブレーション部551は、赤外撮像画像IRGを画像処理(例えば、エッジ検出処理もしくは直線検出処理)を実行することで、ユーザの入力装置IPを用いた指定無く、赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4を自動的に検出してもよい。この場合、画像処理により検出された端点EG1,EG2,EG3,EG4がそれぞれ投影画像PJRの四隅の端点CR1,CR2,CR3,CR4に対応するものとして、キャリブレーション部551により選択される。   Note that, as described above, the calibration unit 551 performs image processing (for example, edge detection processing or straight line detection processing) on the infrared captured image IRG so that the user does not specify using the input device IP. The end points EG1, EG2, EG3, and EG4 in the captured image IRG may be automatically detected. In this case, the calibration unit 551 selects the end points EG1, EG2, EG3, EG4 detected by the image processing as corresponding to the end points CR1, CR2, CR3, CR4 of the four corners of the projected image PJR.

キャリブレーション部551は、赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4の各座標と投影画像PJRの四隅の端点CR1,CR2,CR3,CR4の各座標とに基づき、赤外撮像画像IRG中の座標(Xc,Yc)を投影画像PJR中の座標(Xp,Yp)に変換するための射影変換行列を算出して求める。キャリブレーション部551は、求められた射影変換行列のデータもしくは情報をキャリブレーション結果としてメモリ52に保存する。これにより、投影制御装置50は、キャリブレーション結果を用いることで、赤外撮像画像IRG中の任意の座標(Xc,Yc)を、投影画像PJR中の対応する座標(Xp,Yp)に正確に変換できる。   The calibration unit 551 determines an infrared image based on the coordinates of end points EG1, EG2, EG3, EG4 in the infrared captured image IRG and the coordinates of end points CR1, CR2, CR3, CR4 of four corners of the projected image PJR. A projective transformation matrix for transforming coordinates (Xc, Yc) in the IRG into coordinates (Xp, Yp) in the projected image PJR is calculated and determined. The calibration unit 551 stores the data or information of the obtained projective transformation matrix in the memory 52 as a calibration result. Thereby, the projection control apparatus 50 uses the calibration result to accurately set arbitrary coordinates (Xc, Yc) in the infrared captured image IRG to corresponding coordinates (Xp, Yp) in the projected image PJR. It can be converted.

なお、図1に示す投影制御システム100において、プロジェクタ10により投影される投影画像の解像度(言い換えると、大きさ又は面積)や、赤外線カメラ40の位置が変更されない限りは、キャリブレーション部551におけるキャリブレーションの処理は少なくとも一度実行すればよい。言い換えると、プロジェクタ10により投影される投影画像の解像度、又は赤外線カメラ40の位置が変更される度に、キャリブレーション部551におけるキャリブレーションの処理が少なくとも一度実行される。   In the projection control system 100 shown in FIG. 1, the calibration in the calibration unit 551 is performed unless the resolution (in other words, the size or area) of the projected image projected by the projector 10 or the position of the infrared camera 40 is changed. Processing of the session may be performed at least once. In other words, each time the resolution of the projection image projected by the projector 10 or the position of the infrared camera 40 is changed, the calibration process in the calibration unit 551 is performed at least once.

また、キャリブレーション部551におけるキャリブレーションの方法は、上述した方法に限定されない。例えば、キャリブレーション部551は、公知のストラクチャードライト法を用いたキャリブレーションを実行することで、画素単位で赤外撮像画像IRG内の座標を投影画像PJR内の対応する座標に変換することも可能である。   Further, the method of calibration in the calibration unit 551 is not limited to the method described above. For example, the calibration unit 551 can also convert coordinates in the infrared captured image IRG to corresponding coordinates in the projection image PJR in pixel units by executing calibration using a known structured light method. It is.

物体検出部552は、赤外線カメラ40により生成された赤外撮像画像のデータを、入出力インターフェース51を介して取得する。物体検出部552は、その取得された赤外撮像画像のデータに基づいて、スクリーン30の周囲(例えば手前)にいる人物HM1の形状を認識(検出)する(図4参照)。物体検出部552は、その認識(検出)された人物HM1の形状(言い換えると、人物HM1のシルエット)の認識結果を投影画像生成部553に渡す。   The object detection unit 552 acquires data of an infrared captured image generated by the infrared camera 40 via the input / output interface 51. The object detection unit 552 recognizes (detects) the shape of the person HM1 around (for example, in front of) the screen 30 based on the acquired data of the infrared captured image (see FIG. 4). The object detection unit 552 passes the recognition result of the shape (in other words, the silhouette of the person HM1) of the recognized (detected) person HM1 to the projection image generation unit 553.

図4は、赤外線カメラ40により撮像される赤外撮像画像IRG0,IRG1の一例を示す説明図である。実施の形態1では、赤外線カメラ40はスクリーン30の表側に配置され、赤外線照明20はスクリーン30の裏側に配置される。つまり、赤外線照明20と赤外線カメラ40とがスクリーン30を挟んで反対側に対向して配置される。また、赤外線照明20から照射された赤外光はスクリーン30を透過する。   FIG. 4 is an explanatory view showing an example of infrared captured images IRG 0 and IRG 1 captured by the infrared camera 40. In the first embodiment, the infrared camera 40 is disposed on the front side of the screen 30, and the infrared illumination 20 is disposed on the back side of the screen 30. That is, the infrared illumination 20 and the infrared camera 40 are disposed opposite to each other with the screen 30 interposed therebetween. Further, infrared light emitted from the infrared illumination 20 passes through the screen 30.

このため、図4の紙面左側に示すように、スクリーン30の表側に人物HM1等の対象物が存在しない(言い換えると、赤外光を反射する物体が存在しない)場合には、赤外線照明20から照射された赤外光がスクリーン30において反射無く透過して赤外線カメラ40において受光される。従って、赤外線カメラ40により撮像される赤外撮像画像IRG0は、真っ白の領域WHR1のみから構成される画像となる。   Therefore, as shown on the left side of the drawing of FIG. 4, when there is no object such as the person HM1 on the front side of the screen 30 (in other words, there is no object that reflects infrared light) The irradiated infrared light is transmitted without reflection on the screen 30 and is received by the infrared camera 40. Therefore, the infrared captured image IRG0 captured by the infrared camera 40 is an image composed of only the white area WHR1.

一方、図4の紙面右側に示すように、スクリーン30の表側に人物HM1等の対象物が存在する(言い換えると、赤外光を反射する物体が存在する)場合には、赤外線照明20から照射された赤外光が人物HM1のいる位置では人物HM1で反射し、人物HM1のいない位置ではスクリーン30を透過して赤外線カメラ40において受光される。従って、赤外線カメラ40により撮像される赤外撮像画像IRG1は、人物HM1のいる位置からは赤外光が赤外線カメラ40に受光されないために、人物HM1のシルエットが形成された領域HM1SLと人物HM1のいない真っ白の領域WHR1との両方が存在する画像となる。なお、図4では、図4を分かり易くするために、領域HM1SLの人物HM1の輪郭内は白く示されているが、実際の赤外撮像画像のデータにおける領域HM1SL内は黒くなっている。   On the other hand, as shown on the right side of the drawing of FIG. 4, when an object such as a person HM1 exists on the front side of the screen 30 (in other words, an object that reflects infrared light exists) The infrared light thus reflected is reflected by the person HM1 at the position where the person HM1 is present, and is transmitted through the screen 30 and received by the infrared camera 40 at the position where the person HM1 is not present. Therefore, since infrared light is not received by the infrared camera 40 from the position where the person HM1 is in the infrared captured image IRG1 captured by the infrared camera 40, the region HM1SL where the silhouette of the person HM1 is formed and the person HM1 It becomes an image in which both the non-white area WHR1 exists. Although the inside of the outline of the person HM1 in the area HM1SL is white in FIG. 4 in order to make the FIG. 4 easy to understand, the inside of the area HM1SL in the data of the actual infrared captured image is black.

従って、物体検出部552は、赤外線カメラ40により撮像された赤外撮像画像のデータに基づいて、スクリーン30のどこに人物HM1(対象物の一例)が存在しているかを具体的かつ高精度に認識して特定することができる。   Therefore, the object detection unit 552 recognizes, based on the data of the infrared captured image captured by the infrared camera 40, where on the screen 30 the person HM1 (an example of the target) is present with high accuracy and high accuracy. Can be identified.

投影画像生成部553は、物体検出部552により認識された人物HM1の形状の認識結果を取得する。投影画像生成部553は、その取得された認識結果とメモリ52に保持されるキャリブレーション結果とを用いて、赤外撮像画像内の人物HM1の範囲を示す位置(座標)のそれぞれに対応する投影画像内の位置(座標)又はその位置(座標)から所定の距離離れた位置(座標)に、コンテンツ格納データベース53から読み出した画像コンテンツを重畳した投影画像を生成する。投影画像生成部553は、その生成された投影画像のデータを含む投影指示を生成し、その生成された投影指示を、入出力インターフェース51を介してプロジェクタ10に送出する。   The projection image generation unit 553 acquires the recognition result of the shape of the person HM1 recognized by the object detection unit 552. The projection image generation unit 553 uses the acquired recognition result and the calibration result stored in the memory 52 to project corresponding to each position (coordinates) indicating the range of the person HM1 in the infrared captured image. A projected image is generated in which the image content read from the content storage database 53 is superimposed at a position (coordinates) in the image or a position (coordinates) separated by a predetermined distance from the position (coordinates). The projection image generation unit 553 generates a projection instruction including data of the generated projection image, and sends the generated projection instruction to the projector 10 via the input / output interface 51.

図5は、表示装置DPに表示されるオフセット調整画面WD1に対するユーザ操作の一例を示す図である。図6は、図5に示すユーザ操作により画像コンテンツRB1の投影位置が左側にシフトした例を示す図である。図5に示すオフセット調整画面WD1は、例えばユーザの入力装置IPを用いた操作により、投影画像生成部553により生成されて表示装置DPに表示される。投影画像生成部553は、投影画像の背景部分となる背景投影画像PJGM1に対し、例えば人物HM1の左手上部に青色のボールの画像コンテンツBB1、人物HM1の右手上部に赤色のボールの画像コンテンツRB1をそれぞれ重畳する設定を保持している。図6では、図6を分かり易くするために、背景投影画像PJGM1のうち人物HM1の周囲の矩形部分内は背景投影画像PJGM1が無いように白く示されている。但し、投影画像生成部553は、上述した矩形部分内も全て背景投影画像となるようにスクリーン30の全域にかかる背景投影画像PJGM1を生成してよいし、図6に示すように人物HM1の周囲の矩形部分内を除いた背景投影画像PJGM1を生成してもよい。なお、投影画像生成部553は、その保持された設定を用いた投影画像PJR1をプレビューとして表示装置DPに表示してもよい。これにより、ユーザは、オフセット調整画面WD1を用いた調整前の画像コンテンツの重畳位置を視覚的かつ直感的に確認できる。   FIG. 5 is a diagram showing an example of a user operation on the offset adjustment screen WD1 displayed on the display device DP. FIG. 6 is a diagram showing an example in which the projection position of the image content RB1 is shifted to the left by the user operation shown in FIG. The offset adjustment screen WD1 shown in FIG. 5 is generated by the projection image generation unit 553 and displayed on the display device DP, for example, by the user's operation using the input device IP. For the background projection image PJGM1, which is a background portion of the projection image, the projection image generation unit 553 generates, for example, the image content BB1 of a blue ball on the upper left of the person HM1 and the image content RB1 of a red ball on the upper right of the person HM1. Each holds the setting to be superimposed. In FIG. 6, in order to make FIG. 6 easy to understand, the inside of the rectangular portion around the person HM1 in the background projection image PJGM1 is shown white so that the background projection image PJGM1 is not present. However, the projection image generation unit 553 may generate the background projection image PJGM1 that covers the entire area of the screen 30 so that the inside of the above-described rectangular portion also becomes the background projection image, as shown in FIG. A background projection image PJGM1 excluding the inside of the rectangular portion of the image may be generated. The projection image generation unit 553 may display the projection image PJR1 using the held setting as a preview on the display device DP. Thereby, the user can visually and intuitively confirm the superimposed position of the image content before adjustment using the offset adjustment screen WD1.

ここで、オフセット調整画面WD1において、例えばユーザの入力装置IPを用いた操作により、赤色のボールの画像コンテンツRB1の重畳位置を調整するために画像コンテンツRB1が選択され、かつ、オフセット調整画面WD1の調整バーCSRxが左側にシフトされる。この操作に応じて、図6に示すように、投影画像生成部553は、赤色のボールの画像コンテンツRB2を人物HM1の右手上部から、調整バーCSRxの移動操作量(例えば、452−234=218ピクセル)に応じた位置にシフトして重畳する設定に更新する。これにより、投影画像生成部553は、その更新された設定を用いた投影画像PJR2を生成できる。なお、投影画像生成部553は、その投影画像PJR2をプレビューとして表示装置DPに表示してもよい。これにより、ユーザは、オフセット調整画面WD1を用いた調整後の画像コンテンツ(例えば画像コンテンツRB2)の重畳位置を視覚的かつ直感的に確認できる。   Here, in the offset adjustment screen WD1, the image content RB1 is selected to adjust the superimposed position of the image content RB1 of the red ball, for example, by an operation using the input device IP of the user. The adjustment bar CSRx is shifted to the left. In response to this operation, as shown in FIG. 6, the projection image generation unit 553 moves the amount of movement operation of the adjustment bar CSRx (for example, 452-234 = 218) from the upper right portion of the person HM1 on the red ball image content RB2. Shift to the position according to the pixel) and update it to the setting to be superimposed. Thereby, the projection image generation unit 553 can generate the projection image PJR2 using the updated setting. The projection image generation unit 553 may display the projection image PJR2 on the display device DP as a preview. Thereby, the user can visually and intuitively confirm the superimposed position of the image content (for example, the image content RB2) after adjustment using the offset adjustment screen WD1.

なお、図5では画像コンテンツの重畳位置を水平方向に調整して指定するための調整バーCSRxの移動の例を説明したが、画像コンテンツの重畳位置を垂直方向に調整して指定するための調整バーの移動があってもよい。   Although FIG. 5 illustrates an example of movement of the adjustment bar CSRx for adjusting and designating the superimposed position of the image content in the horizontal direction, the adjustment for designating and adjusting the superimposed position of the image content in the vertical direction is described. There may be movement of the bar.

次に、実施の形態1に係る投影制御システム100の動作手順を、図7を参照して説明する。図7は、実施の形態1に係る投影制御処理の動作手順の一例を説明するフローチャートである。図7に示すそれぞれの処理は、例えば投影制御装置50において実行される。   Next, an operation procedure of the projection control system 100 according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart for explaining an example of the operation procedure of the projection control process according to the first embodiment. Each process shown in FIG. 7 is executed by, for example, the projection control device 50.

図7において、投影制御装置50のプロセッサ55において、キャリブレーションの処理が既に実行されているかどうかが判別される(S1)。ステップS1の処理は、例えばプロセッサ55が、キャリブレーション部551におけるキャリブレーション結果がメモリ52に保持されているかどうかによって実行可能である。キャリブレーションの処理が既に実行されていると判別された場合には(S1、YES)、投影制御装置50の処理はステップS3に進む。一方、キャリブレーションの処理が一度も実行されていないと判別された場合には(S1、NO)、キャリブレーション部551においてキャリブレーションの処理が実行される(S2)。   In FIG. 7, in the processor 55 of the projection control apparatus 50, it is determined whether the calibration process has already been executed (S1). For example, the processor 55 can execute the process of step S1 depending on whether the calibration result in the calibration unit 551 is held in the memory 52. If it is determined that the calibration process has already been performed (S1, YES), the process of the projection control device 50 proceeds to step S3. On the other hand, when it is determined that the process of calibration has not been performed even once (S1, NO), the process of calibration is performed in the calibration unit 551 (S2).

キャリブレーションの処理が既に実行されていると判別された場合(S1、NO)、又はステップS2の処理の後、プロセッサ55の物体検出部552は、赤外線カメラ40により撮像された赤外撮像画像のデータを取得し、その取得された赤外撮像画像に基づいて、対象物(例えば、人物HM1等の物体)の有無を検出する(S3)。ステップS3の処理では、物体検出部552は、例えば赤外撮像画像のデータに基づいて、スクリーン30の周囲(例えば手前)にいる人物HM1の形状を認識(検出)できた場合には、その人物HM1の存在を検出することができる。   If it is determined that the calibration process has already been performed (S1, NO), or after the process of step S2, the object detection unit 552 of the processor 55 detects the infrared captured image captured by the infrared camera 40. Data is acquired, and the presence or absence of an object (for example, an object such as a person HM1) is detected based on the acquired infrared captured image (S3). In the process of step S3, when the object detection unit 552 can recognize (detect) the shape of the person HM1 around (for example, in front of) the screen 30 based on, for example, data of the infrared captured image, the person The presence of HM1 can be detected.

物体検出部552が人物HM1の形状を検出できない場合には(S4、NO)、投影制御装置50の処理はステップS3に戻り、物体検出部552が人物HM1の形状を検出するまで、ステップS3,S4の処理が繰り返される。   If the object detection unit 552 can not detect the shape of the person HM1 (S4, NO), the processing of the projection control device 50 returns to step S3 and continues until the object detection unit 552 detects the shape of the person HM1, The process of S4 is repeated.

一方、物体検出部552が人物HM1の形状を検出できた場合には(S4、YES)、投影画像生成部553は、物体検出部552により検出された赤外撮像画像内の人物HM1の位置(つまり、検出位置)に応じて、プロジェクタ10により投影される投影画像に重畳される画像コンテンツの投影位置並びにサイズ(つまり、大きさ)を決定する(S5)。投影位置は、例えば図6に示す画像コンテンツRB1,RB2,BB1の位置を示す。サイズは、例えば図6に示す画像コンテンツRB1,RB2,BB1の大きさを示す。   On the other hand, when the object detection unit 552 can detect the shape of the person HM1 (S4, YES), the projection image generation unit 553 determines the position of the person HM1 in the infrared captured image detected by the object detection unit 552 That is, the projection position and the size (that is, the size) of the image content to be superimposed on the projection image projected by the projector 10 are determined according to the detection position (S5). The projection position indicates, for example, the positions of the image contents RB1, RB2, and BB1 shown in FIG. The size indicates, for example, the size of the image content RB1, RB2, BB1 shown in FIG.

投影画像生成部553は、投影画像の背景部分となる背景投影画像に、ステップS5において決定された投影位置並びにサイズの情報を用いて生成した画像コンテンツを重畳した投影画像を生成する(S6)。投影画像生成部553は、その生成された投影画像のデータを含む投影指示を生成し、その生成された投影指示を、入出力インターフェース51を介してプロジェクタ10に送出する(S7)。   The projection image generation unit 553 generates a projection image in which the image content generated using the information on the projection position and the size determined in step S5 is superimposed on the background projection image that is the background portion of the projection image (S6). The projection image generation unit 553 generates a projection instruction including data of the generated projection image, and sends the generated projection instruction to the projector 10 via the input / output interface 51 (S7).

ステップS7の後、投影が終了するための条件が満たされた場合(S8、YES)、図7に示す投影制御装置50の処理は終了する。投影が終了するための条件とは、例えばユーザが投影制御装置50において予めインストールされた専用のアプリケーションの終了操作をした場合や、投影制御装置50の電源をオフする操作をした場合が該当する。   After step S7, when the condition for ending the projection is satisfied (S8, YES), the processing of the projection control device 50 shown in FIG. 7 ends. The conditions for ending the projection correspond to, for example, the case where the user performs an operation of closing the dedicated application installed in advance in the projection control device 50 or the case where the power of the projection control device 50 is turned off.

一方、投影が終了するための条件が満たされない場合(S8、NO)、投影制御装置50の処理はステップS3に戻る。つまり、スクリーン30の周囲(例えば手前)にいる人物HM1が移動した場合には、投影制御装置50は、ステップS3において再びその移動後の人物HM1のスクリーン30のどの位置にいるかを示す赤外撮像画像を赤外線カメラ40から取得し、投影が終了するための条件が満たされるまでステップS4以降の処理を繰り返して継続する。   On the other hand, when the condition for ending the projection is not satisfied (S8, NO), the processing of the projection control device 50 returns to step S3. That is, when the person HM1 around (for example, in front of) the screen 30 moves, the projection control device 50 again performs infrared imaging to indicate the position of the screen 30 of the person HM1 after the movement in step S3. An image is acquired from the infrared camera 40, and the processes after step S4 are repeated and continued until the condition for ending the projection is satisfied.

以上により、実施の形態1に係る投影制御システム100では、赤外線照明20は、赤外光を照射する。赤外線カメラ40は、照射された赤外光がスクリーン30を透過した光(赤外透過光)を受光し、スクリーン30全体を画角内に含む赤外撮像画像を撮像する。投影制御装置50は、赤外線カメラ40により撮像された赤外撮像画像に基づいて、スクリーン30の周囲(例えば、前方又は後方)にいる人物HM1の形状を認識し、その認識された人物HM1の形状に応じた投影画像を生成し、生成された投影画像をスクリーン30に投影するプロジェクタ10に出力する。また、赤外線照明20は、スクリーン30を挟んで赤外線カメラ40の反対側に配置される。   As described above, in the projection control system 100 according to the first embodiment, the infrared illumination 20 emits infrared light. The infrared camera 40 receives light (infrared transmission light) in which the emitted infrared light has transmitted through the screen 30, and captures an infrared pickup image including the entire screen 30 within the angle of view. The projection control device 50 recognizes the shape of the person HM1 around the screen 30 (for example, in front or behind) based on the infrared captured image captured by the infrared camera 40, and the shape of the recognized person HM1 A projected image is generated according to and output to the projector 10 that projects the generated projected image on the screen 30. The infrared illumination 20 is disposed on the opposite side of the infrared camera 40 with the screen 30 interposed therebetween.

これにより、投影制御システム100では、スクリーン30を挟んで赤外線カメラ40と反対側に配置された赤外線照明20からの赤外光はスクリーン30を透過する。その透過した赤外透過光は赤外線カメラ40において受光される。従って、投影制御装置50は、赤外線カメラ40の撮像可能な画角内に存在する検出対象物(例えば人物HM1)の位置を高精度に検出することができる。更に、投影制御装置50は、スクリーン30の手前側(例えば赤外線カメラ40側)にいる人物HM1の形状を具体的かつ高精度に認識できるので、例えば検出対象物(例えば人物HM1)に動きが生じた場合でも、その動きに追従して画像コンテンツを的確な位置に重畳した投影画像の投影を適応的に支援することができる。   Thus, in the projection control system 100, infrared light from the infrared illumination 20 disposed on the opposite side of the screen 30 from the infrared camera 40 passes through the screen 30. The transmitted infrared transmitted light is received by the infrared camera 40. Therefore, the projection control device 50 can detect the position of the detection target (for example, the person HM1) present within the viewable angle of view of the infrared camera 40 with high accuracy. Furthermore, since the projection control device 50 can recognize the shape of the person HM1 on the front side of the screen 30 (for example, the side of the infrared camera 40) specifically and with high accuracy, for example, movement occurs in the detection target (for example the person HM1). Even in this case, it is possible to adaptively support the projection of the projection image in which the image content is superimposed on the correct position following the movement.

また、投影制御装置50は、画像コンテンツを保持するコンテンツ格納データベース53を備え、認識された人物HM1の形状の付近に画像コンテンツを重畳した画像を投影画像として生成する。これにより、投影制御装置50は、スクリーン30の近くにいる人物HM1の位置に合わせて予め保持された画像コンテンツを重畳させてプロジェクタ10から投影させることができ、例えばエンターテインメント性を向上した画像の投影を的確に制御できる。   In addition, the projection control device 50 includes a content storage database 53 that holds image content, and generates, as a projection image, an image in which the image content is superimposed in the vicinity of the shape of the recognized person HM1. Thereby, the projection control device 50 can superimpose the image content held in advance in accordance with the position of the person HM1 near the screen 30, and project the image content from the projector 10. For example, the projection of the image with improved entertainment properties Can be precisely controlled.

また、投影制御装置50は、画像コンテンツを保持するコンテンツ格納データベース53を備え、認識された人物HM1から所定距離の位置に画像コンテンツを重畳した画像を投影画像として生成する。これにより、投影制御装置50は、スクリーン30の近くにいる人物HM1の位置から所定距離離れた位置に予め保持された画像コンテンツを重畳させてプロジェクタ10から投影させることができ、例えばエンターテインメント性を向上した画像の投影を的確に制御できる。   In addition, the projection control device 50 includes a content storage database 53 that holds image content, and generates an image in which the image content is superimposed at a predetermined distance from the recognized person HM1 as a projection image. Thereby, the projection control device 50 can superimpose the image content held in advance at a position separated by a predetermined distance from the position of the person HM1 near the screen 30, and project the image content from the projector 10, for example, to improve the entertainment property. Can accurately control the projection of an image.

また、所定距離は、ユーザ(例えば、システム管理者)の入力(例えば、入力操作)に応じて変更される。これにより、投影制御装置50は、人物HM1のいる位置に合わせて任意の位置に画像コンテンツを重畳でき、画像コンテンツの投影時の利便性を向上できる。   In addition, the predetermined distance is changed according to an input (for example, an input operation) of a user (for example, a system administrator). As a result, the projection control apparatus 50 can superimpose the image content at an arbitrary position in accordance with the position of the person HM1, and the convenience at the time of projection of the image content can be improved.

また、投影制御システム100において、人物HM1が位置する対象物領域ARF1は、スクリーンの周囲であって、赤外線カメラ40側に位置する。これにより、赤外線カメラ40は、人物HM1が赤外線カメラ40を向く正面視の形状を特定可能な赤外撮像画像を撮像可能となる。また、投影制御装置50は、特定された人物HM1の形状をそのまま用いて、例えば人物HM1の動きに合わせた画像コンテンツを重畳した投影画像を簡易に生成できる。   Further, in the projection control system 100, the object region ARF1 in which the person HM1 is located is located on the side of the infrared camera 40 around the screen. Accordingly, the infrared camera 40 can capture an infrared captured image that can specify the shape of the front view when the person HM1 faces the infrared camera 40. Also, the projection control device 50 can easily generate a projection image on which the image content matched with the movement of the person HM1, for example, is superimposed using the specified shape of the person HM1 as it is.

なお、図示は省略するが、本明細書にて開示した各実施の形態において、赤外線カメラ40は、赤外線照明20から照射された赤外光を受光する撮像部の一例としての赤外撮像部41を有し、この赤外撮像部41の前面に可視光をカットするフィルタ(例えば、可視光カットフィルタ)を更に配置してよい。前面の配置とは、例えば赤外撮像部41を構成するイメージセンサの前面に可視光カットフィルタが配置されることを指す。またフィルタの代わりに、赤外撮像部41を構成するレンズとして、可視光をカットする可視光カットレンズが使用されてもよい。赤外線カメラ40は、可視光の波長領域において分光感度を有する場合があり、この場合には、赤外線カメラ40において赤外光のみならず可視光も受光されてしまい、赤外撮像画像の感度が劣化する場合が想定される。   Although not shown, in each of the embodiments disclosed in the present specification, the infrared camera 40 is an infrared imaging unit 41 as an example of an imaging unit that receives infrared light emitted from the infrared illumination 20. A filter (for example, a visible light cut filter) that cuts visible light may be further disposed on the front surface of the infrared imaging unit 41. The arrangement of the front side indicates that, for example, a visible light cut filter is arranged on the front side of the image sensor constituting the infrared imaging unit 41. Further, instead of the filter, a visible light cut lens that cuts visible light may be used as a lens that constitutes the infrared imaging unit 41. The infrared camera 40 may have spectral sensitivity in the wavelength region of visible light. In this case, not only infrared light but also visible light is received by the infrared camera 40, and the sensitivity of the infrared captured image is degraded. It is assumed that

しかし、可視光カットレンズもしくは可視光カットフィルタが配置されることで、赤外線カメラ40は、可視光を的確に排除して受光できた赤外光に基づいて赤外撮像画像を生成でき、高精度な赤外撮像画像を投影制御装置50に出力できる。言い換えると、投影制御装置50は、赤外線カメラ40からの赤外撮像画像に基づいて、スクリーン30の周囲にいる人物HM1の形状を高精度に認識可能となる。   However, since the visible light cut lens or the visible light cut filter is disposed, the infrared camera 40 can generate an infrared pickup image based on the infrared light which can properly receive the visible light and receive the light, which is highly accurate. The infrared captured image can be output to the projection control device 50. In other words, the projection control device 50 can recognize the shape of the person HM1 around the screen 30 with high accuracy based on the infrared captured image from the infrared camera 40.

(実施の形態1の第1の変形例)
実施の形態1の第1の変形例では、例えば実施の形態1に係る投影制御システム100において、対象物の一例としての人物HM1がスクリーン30の周囲のプロジェクタ10側に位置する例を説明する(図8参照)。図8は、実施の形態1の第1の変形例に係る投影制御システムの設置例を示す図である。図9は、実施の形態1の第1の変形例に係る赤外線カメラ40により撮像される赤外撮像画像IRG2の一例を示す説明図である。実施の形態1の第1の変形例では、実施の形態1と異なるのは、対象物の一例としての人物HM1がスクリーン30の周囲の赤外線カメラ40側と反対側に位置する点である。この点以外は、実施の形態1と同一であるため、異なる内容について説明する。
First Modified Example of First Embodiment
In the first modification of the first embodiment, for example, in the projection control system 100 according to the first embodiment, an example will be described in which a person HM1 as an example of an object is positioned on the projector 10 side around the screen 30 ( See Figure 8). FIG. 8 is a diagram showing an installation example of a projection control system according to a first modification of the first embodiment. FIG. 9 is an explanatory view showing an example of an infrared captured image IRG2 captured by the infrared camera 40 according to the first modified example of the first embodiment. The first modification of the first embodiment is different from the first embodiment in that a person HM1 as an example of an object is located on the opposite side of the infrared camera 40 around the screen 30. Except this point, the second embodiment is the same as the first embodiment, so different contents will be described.

図8に示すように、人物HM1はスクリーン30の周囲のプロジェクタ10側に位置する。通常、人物HM1はスクリーン30に背を向けて立つことが多いので、実施の形態1の第1の変形例では、赤外線カメラ40により撮像される赤外撮像画像IRG2では、図9に示すように、人物HM1の背中が正面方向に映る。   As shown in FIG. 8, the person HM <b> 1 is located on the side of the projector 10 around the screen 30. Usually, the person HM1 often stands with the back toward the screen 30, so in the first modified example of the first embodiment, in the infrared captured image IRG2 captured by the infrared camera 40, as shown in FIG. , The back of person HM1 is reflected in the front direction.

具体的には、赤外撮像画像IRG2は、赤外撮像画像IRG1と同様に人物HM1のいる位置からは赤外光が赤外線カメラ40に受光されないために、人物HM1のシルエットが形成された領域HM1SLaと人物HM1のいない真っ白の領域WHR1との両方が存在する画像となる。領域HM1SLaは、赤外撮像画像IRG1内の人物HM1のシルエットが形成された領域HM1SLとは人物HM1の前後方向(正面背面の方向)で逆となる。言い換えると、赤外撮像画像IRG2では、図4に示す赤外撮像画像IRG1と比べると、人物HM1の正面方向が逆となる。なお、赤外撮像画像IRG1,IRG2ではともに人物HM1の形状しか判別できないが、赤外撮像画像IRG1,IRG2は人物HM1がともにスクリーン30に背を向けた状態で撮像されている点で共通している。なお、図9では、図9を分かり易くするために、領域HM1SLaの人物HM1の輪郭内は白く示されているが、実際の赤外撮像画像のデータにおける領域HM1SLa内は黒くなっている。   Specifically, the infrared pickup image IRG2 is a region HM1SLa in which a silhouette of the person HM1 is formed because infrared light is not received by the infrared camera 40 from the position where the person HM1 is present, as in the infrared pickup image IRG1. And the white area WHR1 without the person HM1. The area HM1SLa is opposite to the area HM1SL in which the silhouette of the person HM1 in the infrared captured image IRG1 is formed in the front-rear direction (the direction of the front and back) of the person HM1. In other words, in the infrared captured image IRG2, the front direction of the person HM1 is reversed as compared with the infrared captured image IRG1 shown in FIG. Although both of the infrared captured images IRG1 and IRG2 can discriminate only the shape of the person HM1, both of the infrared captured images IRG1 and IRG2 are common in that both of the person HM1 are captured with the back facing the screen 30 There is. In FIG. 9, the inside of the outline of the person HM1 in the area HM1SLa is shown white in order to make it easy to understand FIG. 9, but the inside of the area HM1SLa in the data of the actual infrared captured image is black.

従って、実施の形態1の第1の変形例でも、投影制御装置50は、赤外撮像画像IRG2内の人物HM1の形状を実施の形態1と同様に認識でき、その認識された人物HM1の形状に応じた投影画像を生成し、生成された投影画像をスクリーン30に投影するプロジェクタ10に出力する。例えば、投影制御装置50は、人物HM1の形状に応じた画像コンテンツを、実施の形態1における重畳位置(座標)とは左右方向に反転した位置(座標)に重畳することで、投影画像を生成できる。   Therefore, also in the first modification of the first embodiment, the projection control device 50 can recognize the shape of the person HM1 in the infrared captured image IRG2 as in the first embodiment, and the shape of the recognized person HM1 A projected image is generated according to and output to the projector 10 that projects the generated projected image on the screen 30. For example, the projection control device 50 generates a projection image by superimposing image content corresponding to the shape of the person HM1 at a position (coordinates) inverted in the left-right direction with the superposition position (coordinates) in the first embodiment. it can.

従って、実施の形態1の第1の変形例でも、実施の形態1と同様に、投影制御装置50は、スクリーン30の手前側(例えばスクリーン30を挟んで赤外線カメラ40側と反対側のプロジェクタ10側)に位置する対象物領域ARB1内にいる人物HM1の形状を具体的かつ高精度に認識できるので、例えば検出対象物(例えば人物HM1)に動きが生じた場合でも、その動きに追従して画像コンテンツを的確な位置に重畳した投影画像の投影を適応的に支援することができる。   Therefore, in the first modified example of the first embodiment as well as the first embodiment, the projection control device 50 is the front side of the screen 30 (for example, the projector 10 on the opposite side to the infrared camera 40 side across the screen 30). Since the shape of the person HM1 in the target object area ARB1 located on the side can be recognized with high accuracy and accuracy, for example, even if a movement occurs in the detection target (for example, the person HM1), the movement is followed It is possible to adaptively support the projection of the projection image in which the image content is superimposed on the correct position.

なお、図示は省略するが、本明細書にて開示した各実施の形態において、赤外線照明20は、自装置(つまり、赤外線照明20)の前面に、赤外光の照射範囲を広げるための拡散シートを更に配置してよい。例えば赤外線照明20がLED(Light Emitting Diode)等の指向性の強い発光素子により構成される場合には、上述した拡散シートの配置は一層有効となる。これにより、赤外線照明20から照射される赤外光が、拡散シートが配置されない場合に比べて、より拡散させることが可能となる。   Although not illustrated, in each embodiment disclosed in the present specification, the infrared illumination 20 is a diffusion for expanding the irradiation range of infrared light on the front surface of the own device (that is, the infrared illumination 20). Further sheets may be arranged. For example, in the case where the infrared illumination 20 is configured by a light emitting element having a strong directivity, such as a light emitting diode (LED), the above-described arrangement of the diffusion sheet is more effective. This makes it possible to diffuse the infrared light emitted from the infrared illumination 20 more than when the diffusion sheet is not disposed.

なお、図示は省略するが、本明細書にて開示した各実施の形態において、赤外線照明20が配置される位置は、スクリーン30を挟んで赤外線カメラ40と反対側に配置され、かつ、その赤外線照明20から照射される赤外光がスクリーン30を透過するのであれば、特に限定されない。また、赤外線照明20の配置数も1つでなく複数でもよい。例えば、複数の赤外線照明20が、少なくとも1台のプロジェクタ10の左右両側に配置されてよい。特に、赤外線照明20が複数配置されることで、投影制御装置50は、スクリーン30の周囲にいる人物HM1(対象物の一例)の形状をより高精度に検出可能となる。   Although not shown, in each embodiment disclosed in the present specification, the position at which the infrared illumination 20 is disposed is disposed on the opposite side of the infrared camera 40 with respect to the screen 30, and the infrared rays thereof There is no particular limitation as long as the infrared light emitted from the illumination 20 passes through the screen 30. Also, the number of the infrared illuminations 20 may be more than one. For example, a plurality of infrared lights 20 may be disposed on the left and right sides of at least one projector 10. In particular, by arranging a plurality of infrared illuminations 20, the projection control device 50 can detect the shape of the person HM1 (an example of an object) around the screen 30 with higher accuracy.

なお、図示は省略するが、本明細書にて開示した各実施の形態において、プロジェクタ10が配置される位置は、そのプロジェクタ10からの投影画像がスクリーン30の全域にわたって投影されるのであれば、特に限定されない。また、プロジェクタ10の配置数も1つでなく複数でもよい(後述する実施の形態2参照)。例えば、複数のプロジェクタ10が、少なくとも1台の赤外線照明20の左右両側に配置されてよい。また、複数のプロジェクタ10が、少なくとも1台の赤外線照明20の鉛直方向の上下両側、又は鉛直方向の上下両側でかつ前後方向にずれて配置されてよい。特に、プロジェクタ10が複数配置されることで、投影制御装置50は、例えばスクリーン30が広大である場合に、それぞれ異なるプロジェクタ10から同一又は異なる投影画像を生成して投影させることで、広大なスクリーン30に対してエンターテインメント性を向上した画像の投影の実行を管理できる。但し、プロジェクタ10が複数配置される場合には、上述した実施の形態1におけるキャリブレーションの処理がそれぞれのプロジェクタ10と赤外線カメラ40との間で実行されることが必要となる。   Although not shown, in each of the embodiments disclosed in the present specification, the position where the projector 10 is disposed is determined as long as the projected image from the projector 10 is projected over the entire area of the screen 30. It is not particularly limited. Further, the number of the projectors 10 may be plural instead of one (refer to a second embodiment described later). For example, a plurality of projectors 10 may be disposed on the left and right sides of at least one infrared illumination 20. In addition, the plurality of projectors 10 may be arranged in the vertical direction at the upper and lower sides of at least one infrared illumination 20 or at both the upper and lower sides in the vertical direction and in the front-rear direction. In particular, by arranging a plurality of projectors 10, for example, when the screen 30 is large, the projection control device 50 generates and projects the same or different projection images from different projectors 10, thereby forming a large screen. It is possible to manage the execution of the projection of the image with improved entertainment to 30. However, in the case where a plurality of projectors 10 are arranged, it is necessary that the process of calibration in the above-described first embodiment be performed between each projector 10 and the infrared camera 40.

なお、図示は省略するが、本明細書にて開示した各実施の形態において、赤外線カメラ40が配置される位置は、スクリーン30を挟んで赤外線照明20と反対側に配置され、かつ、その赤外線カメラ40がスクリーン30を透過してきた赤外光を受光できるのであれば、特に限定されない。また、赤外線カメラ40の配置数も1つでなく複数でもよい。例えば、複数の赤外線カメラ40が、スクリーン30を挟んで赤外線照明20と反対側に左右両側にそれぞれ配置されてよい。また、複数の赤外線カメラ40が、スクリーン30を挟んで赤外線照明20と反対側に鉛直方向の上限両側にそれぞれ配置されてよい。また、複数の赤外線カメラ40が、スクリーン30を挟んで複数のプロジェクタ10や赤外線照明20と反対側に鉛直方向の上限両側にそれぞれ配置されてもよい。特に、赤外線カメラ40が複数配置されることで、投影制御装置50は、例えばスクリーン30が広大である場合に、それぞれ異なる赤外線カメラ40からの異なる赤外撮像画像に基づいて、スクリーン30の周囲の少なくとも1人の人物の形状を高精度に認識でき、広大なスクリーン30に対してエンターテインメント性を向上した画像の投影の実行を管理できる。但し、赤外線カメラ40が複数配置される場合には、上述した実施の形態1におけるキャリブレーションの処理がそれぞれのプロジェクタ10とそれぞれの赤外線カメラ40との間で実行されることが必要となる。   Although not shown, in each embodiment disclosed in the present specification, the position at which the infrared camera 40 is disposed is disposed on the opposite side to the infrared illumination 20 with the screen 30 interposed therebetween, and the infrared ray thereof The camera 40 is not particularly limited as long as it can receive the infrared light transmitted through the screen 30. Also, the number of infrared cameras 40 may be more than one. For example, a plurality of infrared cameras 40 may be respectively disposed on the left and right sides of the screen 30 opposite to the infrared illumination 20. In addition, a plurality of infrared cameras 40 may be disposed on both sides of the screen 30 at the upper limit both sides in the vertical direction opposite to the infrared illumination 20, respectively. Also, a plurality of infrared cameras 40 may be respectively disposed on both sides of the upper limit of the vertical direction opposite to the plurality of projectors 10 and infrared illuminations 20 with the screen 30 interposed therebetween. In particular, by arranging a plurality of infrared cameras 40, the projection control device 50, for example, when the screen 30 is large, around the screen 30 based on different infrared captured images from different infrared cameras 40. The shape of at least one person can be recognized with high accuracy, and execution of projection of an image with improved entertainment can be managed on the large screen 30. However, when a plurality of infrared cameras 40 are arranged, it is necessary that the process of calibration in the above-described first embodiment be performed between each projector 10 and each infrared camera 40.

(実施の形態2)
実施の形態2では、例えば実施の形態1に係る投影制御システム100において、プロジェクタが複数配置される例を説明する(図10参照)。図10は、実施の形態2に係る投影制御システム100Bの設置例を示す図である。投影制御システム100Bは、プロジェクタ10,10Bと、赤外線照明20と、スクリーン30と、赤外線カメラ40(図2参照)と、投影制御装置50とを少なくとも含む構成である。図10の構成において、図1の構成と同一のものには同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。
Second Embodiment
In the second embodiment, for example, an example in which a plurality of projectors are arranged in the projection control system 100 according to the first embodiment will be described (see FIG. 10). FIG. 10 is a diagram showing an installation example of the projection control system 100B according to the second embodiment. The projection control system 100B includes at least the projectors 10 and 10B, the infrared illumination 20, the screen 30, the infrared camera 40 (see FIG. 2), and the projection control device 50. In the configuration of FIG. 10, the same components as those of FIG. 1 are denoted by the same reference numerals, and description thereof will be simplified or omitted, and different contents will be described.

第2の投影装置の一例としてのプロジェクタ10Bは、例えば円筒形状の筐体を有し、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。プロジェクタ10Bは、スクリーン30に対向し、かつ人物HM1側に配置される。プロジェクタ10Bは、投影制御装置50から送出された投影指示を含む投影画像のデータを受信して取得すると、その投影指示に基づき、その投影指示により指定された投影画像をスクリーン30の前に位置する人物HM1に投影するための投影光(例えば可視光)を生成して人物HM1に向けて投影する。これにより、プロジェクタ10Bは、投影制御装置50により指定された投影画像(図11参照)を、スクリーン30全域にでは無く、プロジェクタ10Bの前に位置している人物HM1に限定的に投影可能となる。プロジェクタ10Bの内部構成はプロジェクタ10の内部構成と同一であるため、説明は省略する。なお、プロジェクタ10Bは、投影光を人物HM1以外の対象に向けて投影してよい。また、上述したように、プロジェクタ10以外にプロジェクタ10Bが配置されるため、上述した実施の形態1におけるキャリブレーションの処理がプロジェクタ10Bと赤外線カメラ40との間で実行されることが必要となる。   The projector 10B as an example of the second projection device has a cylindrical case, for example, and is connected to be able to transmit and receive data or information with the projection control device 50. The projector 10B is disposed opposite to the screen 30 and on the person HM1 side. When the projector 10B receives and acquires data of a projection image including a projection instruction sent from the projection control device 50, the projector 10B positions the projection image designated by the projection instruction in front of the screen 30 based on the projection instruction. Projection light (for example, visible light) for projection onto the person HM1 is generated and projected toward the person HM1. Thus, the projector 10B can project the projection image (see FIG. 11) specified by the projection control device 50 exclusively to the person HM1 located in front of the projector 10B, not over the entire area of the screen 30. . Since the internal configuration of the projector 10B is the same as the internal configuration of the projector 10, the description will be omitted. The projector 10B may project the projection light toward an object other than the person HM1. Further, as described above, since the projector 10B is disposed in addition to the projector 10, it is necessary to execute the calibration process in the above-described first embodiment between the projector 10B and the infrared camera 40.

図11は、実施の形態2に係る投影画像PJR2の一例を示す図である。図11において、図6の投影画像PJR1,PJR2と同一の要素には同一の符号を付与して説明を簡略化又は省略し、異なる要素について説明する。図11に示すように、投影制御装置50は、背景部分となる背景投影画像PJGM1に対し、例えば人物HM1の左手上部に青色のボールの画像コンテンツBB1、人物HM1の右手上部に赤色のボールの画像コンテンツRB1をそれぞれ重畳した投影画像PJR2を生成する。図11では、図11を分かり易くするために、背景投影画像PJGM1のうち人物HM1の周囲の矩形部分内は背景投影画像PJGM1が無いように白く示されている。但し、投影画像生成部553は、上述した矩形部分内も全て背景投影画像となるようにスクリーン30の全域にかかる背景投影画像PJGM1を生成してよいし、図11に示すように人物HM1の周囲の矩形部分内を除いた背景投影画像PJGM1を生成してもよい。プロジェクタ10は、投影制御装置50により生成された投影画像PJR2をスクリーン30全域に投影する。また、投影制御装置50は、スクリーン30全域にでは無く人物HM1に限って投影するための投影画像(例えば、画像コンテンツHT1)を生成し、この生成された投影画像を含む投影指示をプロジェクタ10Bに出力する。例えば、投影制御装置50は、実施の形態1と同様に、赤外線カメラ40からの赤外撮像画像に基づいて人物HM1の形状を認識でき、人物HM1の概略的な位置を把握できる。このため、投影制御装置50は、その認識された人物HM1の概略的な位置(例えば、人物HM1のシルエットの中心位置)に絞って投影させるための投影画像(例えば、画像コンテンツHT1)を生成できる。プロジェクタ10Bは、投影制御装置50からの投影指示により指定された投影画像(例えば、画像コンテンツHT1)を人物HM1に向けて投影する。   FIG. 11 is a view showing an example of a projected image PJR2 according to the second embodiment. In FIG. 11, the same elements as the projected images PJR1 and PJR2 of FIG. 6 are assigned the same reference numerals to simplify or omit the description, and different elements will be described. As shown in FIG. 11, the projection control device 50 controls the background projected image PJGM1 to be an image content BB1 of a blue ball on the upper left of the person HM1, an image of a red ball on the upper right of the person HM1, for example. A projected image PJR2 in which the content RB1 is superimposed is generated. In FIG. 11, in order to make FIG. 11 easy to understand, the inside of the rectangular portion around the person HM1 in the background projection image PJGM1 is shown white so that the background projection image PJGM1 is not present. However, the projection image generation unit 553 may generate the background projection image PJGM1 that covers the entire area of the screen 30 so that the inside of the above-described rectangular portion also becomes the background projection image, as shown in FIG. A background projection image PJGM1 excluding the inside of the rectangular portion of the image may be generated. The projector 10 projects the projection image PJR2 generated by the projection control device 50 over the entire area of the screen 30. In addition, the projection control device 50 generates a projection image (for example, image content HT1) for projecting only on the person HM1 instead of the entire area of the screen 30, and issues a projection instruction including the generated projection image to the projector 10B. Output. For example, as in the first embodiment, the projection control device 50 can recognize the shape of the person HM1 based on the infrared captured image from the infrared camera 40, and can grasp the approximate position of the person HM1. Therefore, the projection control device 50 can generate a projection image (for example, the image content HT1) for narrowing and projecting to the approximate position (for example, the center position of the silhouette of the person HM1) of the recognized person HM1. . The projector 10B projects the projection image (for example, the image content HT1) specified by the projection instruction from the projection control device 50 toward the person HM1.

なお、実施の形態2では、投影制御装置50は、実施の形態1と同様な投影制御処理(図7参照)を実行しており、それぞれのプロジェクタ10,10Bに投影させるための異なる投影画像を生成し、生成された異なる投影画像をそれぞれのプロジェクタ10,10Bに投影させる。このため、実施の形態2の投影制御装置50の動作は、プロジェクタの配置数が異なるが、実施の形態1と同様であるため、詳細な説明は省略する。   In the second embodiment, the projection control device 50 executes the same projection control process (see FIG. 7) as that of the first embodiment, and different projection images to be projected on the respective projectors 10 and 10B. The generated and generated different projection images are projected on the respective projectors 10 and 10B. Therefore, the operation of the projection control device 50 of the second embodiment is the same as that of the first embodiment although the arrangement number of the projectors is different, and therefore the detailed description is omitted.

以上により、実施の形態2に係る投影制御システム100Bでは、実施の形態1に係る投影制御システム100の構成に加え、投影装置は、第1の投影装置の一例としてのプロジェクタ10と、第2の投影装置の一例としてのプロジェクタ10Bとを含む。投影制御装置50は、プロジェクタ10に投影させるための投影画像(例えば、図11に示す投影画像PJR2)を生成してプロジェクタ10に投影させる。また、投影制御装置50は、赤外線カメラ40からの赤外撮像画像に基づいて認識された人物HM1の形状の内部に他の画像コンテンツ(例えば、画像コンテンツHT1)を生成してプロジェクタ10Bに投影させる。   As described above, in the projection control system 100B according to the second embodiment, in addition to the configuration of the projection control system 100 according to the first embodiment, the projection device is the projector 10 as an example of the first projection device, and the second And a projector 10B as an example of a projection device. The projection control device 50 generates a projection image (for example, a projection image PJR2 shown in FIG. 11) for causing the projector 10 to project and causes the projector 10 to project. In addition, the projection control device 50 generates another image content (for example, the image content HT1) within the shape of the person HM1 recognized based on the infrared captured image from the infrared camera 40 and causes the projector 10B to project it. .

これにより、実施の形態2に係る投影制御システム100Bは、実施の形態1に係る投影制御システム100の効果を有するとともに、プロジェクタ10からはスクリーン30全域に投影可能な投影画像の投影を実行でき、プロジェクタ10Bからはスクリーン30の周囲にいる人物HM1に絞った投影画像の投影を実行できる。従って、投影制御装置50は、人物HM1の概略的な位置を把握できるため、認識された人物HM1の概略的な位置(例えば、人物HM1のシルエットの中心位置)に絞って、プロジェクタ10により投影される投影画像よりも小さい局所的な投影画像を追加して投影でき、投影画像の多様性を向上できる。   Thus, the projection control system 100B according to the second embodiment has the effects of the projection control system 100 according to the first embodiment and can execute projection of a projection image that can be projected onto the entire area of the screen 30 from the projector 10. The projector 10B can execute the projection of the projection image focused on the person HM1 around the screen 30. Therefore, since the projection control device 50 can grasp the general position of the person HM1, the projection control device 50 squeezes the recognized position of the person HM1 (for example, the center position of the silhouette of the person HM1) and the projection is performed by the projector 10 Projection image smaller than the projection image can be projected additionally to improve the diversity of the projection image.

(実施の形態3)
実施の形態3では、例えば実施の形態2に係る投影制御システム100Bにおいて、可視光を撮像するための可視光カメラ40Cが更に配置される例を説明する(図12参照)。図12は、実施の形態3に係る投影制御システム100Cの設置例を示す図である。投影制御システム100Cは、プロジェクタ10,10Bと、赤外線照明20と、スクリーン30と、赤外線カメラ40と、可視光カメラ40Cと、投影制御装置50Cとを少なくとも含む構成である。図12の構成において、図10の構成と同一のものには同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。
Third Embodiment
In the third embodiment, for example, in the projection control system 100B according to the second embodiment, an example in which a visible light camera 40C for capturing visible light is further arranged will be described (see FIG. 12). FIG. 12 is a diagram showing an installation example of a projection control system 100C according to the third embodiment. The projection control system 100C is configured to include at least the projectors 10 and 10B, the infrared illumination 20, the screen 30, the infrared camera 40, the visible light camera 40C, and the projection control device 50C. In the configuration of FIG. 12, the same components as those of FIG. 10 are denoted by the same reference numerals, and description thereof will be simplified or omitted, and different contents will be described.

第2の撮像装置の一例としての可視光カメラ40Cは、投影制御装置50Cとの間でデータもしくは情報の送受信が可能に接続される。可視光カメラ40Cは、スクリーン30の全体(全域)をすっぽり画角内に含むように対向して配置される。可視光カメラ40Cは、スクリーン30を透過した可視光を含む光を受光し、その受光された光に基づいて撮像することで、可視光撮像画像を生成する。可視光カメラ40Cは、生成された可視光撮像画像のデータを投影制御装置50Cに送出する。可視光カメラ40Cの詳細については、図13を参照して説明する。   The visible light camera 40C as an example of the second imaging device is connected so as to be able to transmit and receive data or information with the projection control device 50C. The visible light camera 40C is disposed so as to face the entire screen 30 so as to entirely include the entire area within the angle of view. The visible light camera 40C receives light including visible light transmitted through the screen 30, and picks up an image based on the received light to generate a visible light captured image. The visible light camera 40C sends the data of the generated visible light captured image to the projection control device 50C. Details of the visible light camera 40C will be described with reference to FIG.

なお、図12に示すように、可視光カメラ40Cは、スクリーン30を挟んで赤外線カメラ40と反対側に配置されず、赤外線カメラ40と同じ側に配置される。可視光カメラ40Cは、例えばプロジェクタ10Bの周囲に配置される。これにより、可視光カメラ40Cは、スクリーン30の周囲にいる人物HM1の形状を視覚的かつ具体的に特定可能な可視光撮像画像を撮像可能となる。   Note that, as shown in FIG. 12, the visible light camera 40 </ b> C is not disposed on the opposite side to the infrared camera 40 across the screen 30, and is disposed on the same side as the infrared camera 40. The visible light camera 40C is disposed, for example, around the projector 10B. Accordingly, the visible light camera 40C can capture a visible light captured image that can visually and specifically identify the shape of the person HM1 around the screen 30.

投影制御装置50Cは、例えばPCもしくはタブレット端末等の有線もしくは無線の通信が可能な情報処理装置であり、少なくともプロジェクタ10,10B、赤外線カメラ40、可視光カメラ40C、入力装置IP、表示装置DPとの間でデータもしくは情報の送受信が可能に接続される。投影制御装置50Cは、赤外線カメラ40により撮像された赤外撮像画像(言い換えると、スクリーン30を透過した赤外光の撮像に基づいて生成された撮像画像)に基づいて、スクリーン30の周囲(例えば手前)に人物HM1(対象者の一例)の有無やその人物HM1のスクリーン30に対する位置を示す形状を認識する。投影制御装置50Cは、その認識された人物HM1の形状に応じた投影画像を生成し、その生成された投影画像をスクリーン30に投影するプロジェクタ10に出力する。また、投影制御装置50Cは、可視光カメラ40Cにより撮像された可視光撮像画像に基づいて、スクリーン30の周囲(例えば手前)にいる人物HM1の形状を視覚的かつ具体的に認識する。投影制御装置50Cは、その認識された人物HM1の具体的な形状に応じた投影画像を生成し、その生成された投影画像をスクリーン30に投影するプロジェクタ10Bに出力する。投影制御装置50Cの詳細については、図13を参照して説明する。   The projection control device 50C is an information processing device capable of wired or wireless communication, such as a PC or a tablet terminal, and at least the projectors 10 and 10B, the infrared camera 40, the visible light camera 40C, the input device IP, and the display device DP Transmission / reception of data or information is possible. The projection control device 50C, based on the infrared captured image captured by the infrared camera 40 (in other words, the captured image generated based on the imaging of the infrared light transmitted through the screen 30), the periphery (eg, the screen 30) Recognize the presence or absence of a person HM1 (an example of a target person) and the shape indicating the position of the person HM1 with respect to the screen 30). The projection control device 50C generates a projection image according to the shape of the recognized person HM1, and outputs the generated projection image to the projector 10 that projects the projection image on the screen 30. Further, the projection control device 50C visually and specifically recognizes the shape of the person HM1 around (for example, in front of) the screen 30 based on the visible light captured image captured by the visible light camera 40C. The projection control device 50C generates a projection image according to the specific shape of the recognized person HM1, and outputs the generated projection image to the projector 10B that projects the projection image on the screen 30. The details of the projection control device 50C will be described with reference to FIG.

図13は、実施の形態3に係る投影制御システム100Cのシステム構成例を詳細に示すブロック図である。図13の構成において、図2の構成と同一のものには同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。   FIG. 13 is a block diagram showing in detail an example of the system configuration of a projection control system 100C according to the third embodiment. In the configuration of FIG. 13, the same components as those of FIG. 2 are denoted by the same reference numerals, and description thereof will be simplified or omitted, and different contents will be described.

可視光カメラ40Cは、可視撮像部41Cと、制御部42Cと、通信インターフェース43Cと、メモリ44Cとを含む構成である。図13の可視光カメラ40Cの構成においても、同様に通信インターフェースを便宜的に「通信I/F」と記載している。   The visible light camera 40C is configured to include a visible imaging unit 41C, a control unit 42C, a communication interface 43C, and a memory 44C. Also in the configuration of the visible light camera 40C of FIG. 13, the communication interface is similarly described as “communication I / F” for convenience.

可視撮像部41Cは、スクリーン30を透過した可視光や周囲からの可視光を含む光を受光可能な可視光レンズ(図示略)と、その光に基づく可視光撮像画像を撮像可能なイメージセンサ(図示略)とを含む構成である。可視撮像部41Cの出力は制御部42Cに送出される。   The visible image pickup section 41C is a visible light lens (not shown) capable of receiving visible light transmitted through the screen 30 and light including visible light from the surroundings, and an image sensor capable of picking up a visible light pickup image based on the light (Not shown). The output of the visible imaging unit 41C is sent to the control unit 42C.

制御部42Cは、例えばCPU、MPU、DSPもしくはFPGAを用いて構成されたプロセッサPRC3である。制御部42Cは、可視光カメラ40Cの動作を司るコントローラとして機能し、可視光カメラ40Cの各部の動作を全体的に統括するための制御処理、可視光カメラ40Cの各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。制御部42Cは、メモリ44Cに記憶されたプログラム及びデータに従って動作する。制御部42Cは、動作時にメモリ44Cを使用し、制御部42Cが生成又は取得したデータ又は情報をメモリ44Cに一時的に保存してもよい。制御部42Cは、例えば可視撮像部41Cのイメージセンサの出力に基づいて所定の画像処理を施すことで、可視光撮像画像のデータを生成する。   The control unit 42C is a processor PRC3 configured using, for example, a CPU, an MPU, a DSP, or an FPGA. The control unit 42C functions as a controller that controls the operation of the visible light camera 40C, performs control processing to generally control the operation of each unit of the visible light camera 40C, and receives data from each unit of the visible light camera 40C. It performs output processing, data calculation (calculation) processing, and data storage processing. The control unit 42C operates in accordance with the program and data stored in the memory 44C. Control part 42C may use memory 44C at the time of operation, and may save temporarily data or information which control part 42C generated or acquired in memory 44C. The control unit 42C generates data of a visible light captured image by performing predetermined image processing based on, for example, the output of the image sensor of the visible imaging unit 41C.

通信インターフェース43Cは、投影制御装置50Cとの間のデータもしくは情報の送受信(通信)に関する通信インターフェースとしての役割を有し、制御部42Cにより生成された可視光撮像画像のデータを取得すると、その取得された可視光撮像画像のデータを投影制御装置50Cに送信する。   The communication interface 43C has a role as a communication interface regarding transmission / reception (communication) of data or information with the projection control device 50C, and when the data of the visible light imaging image generated by the control unit 42C is acquired, it is acquired The data of the captured visible light captured image is transmitted to the projection control device 50C.

メモリ44Cは、例えばRAMとROMとを用いて構成され、可視光カメラ40Cの動作の実行に必要なプログラムやデータ、更には、動作中に生成されたデータ又は情報を一時的に保持する。RAMは、例えば可視光カメラ40Cの動作時に使用されるワークメモリである。ROMは、例えば可視光カメラ40Cを制御するためのプログラム及びデータを予め記憶して保持する。   The memory 44C is configured using, for example, a RAM and a ROM, and temporarily holds programs and data necessary for executing the operation of the visible light camera 40C, and further, data or information generated during the operation. The RAM is, for example, a work memory used when the visible light camera 40C operates. The ROM stores and holds, for example, a program and data for controlling the visible light camera 40C in advance.

投影制御装置50Cは、入出力インターフェース51と、メモリ52Cと、コンテンツ格納データベース53と、記録装置54と、プロセッサ55Cとを含む構成である。入出力インターフェース51と、メモリ52Cと、コンテンツ格納データベース53と、記録装置54と、プロセッサ55Cとは、互いに内部バスBS1を介して、データもしくは情報の入出力が可能に接続される。   The projection control device 50C is configured to include an input / output interface 51, a memory 52C, a content storage database 53, a recording device 54, and a processor 55C. The input / output interface 51, the memory 52C, the content storage database 53, the recording device 54, and the processor 55C are mutually connected so as to be able to input / output data or information via the internal bus BS1.

メモリ52Cは、例えばRAMとROMとを用いて構成され、投影制御装置50Cの動作の実行に必要なプログラムやデータ、更には、動作中に生成されたデータ又は情報を一時的に保持する。RAMは、例えば投影制御装置50Cの動作時に使用されるワークメモリである。ROMは、例えば投影制御装置50Cを制御するためのプログラム及びデータを予め記憶して保持する。メモリ52Cは、例えば赤外線カメラ40により生成される赤外撮像画像の解像度(具体的には、縦方向のピクセル、横方向のピクセル)の情報と、プロジェクタ10により投影されるスクリーン30の大きさ(面積)の情報と、可視光カメラ40Cにより生成される可視光撮像画像の解像度(具体的には、縦方向のピクセル、横方向のピクセル)の情報とを保持している。   The memory 52C is configured using, for example, a RAM and a ROM, and temporarily holds programs and data necessary for executing the operation of the projection control device 50C, and further, data or information generated during the operation. The RAM is, for example, a work memory used when the projection control device 50C operates. The ROM stores and holds, for example, a program and data for controlling the projection control device 50C in advance. The memory 52C includes, for example, information of the resolution (specifically, vertical pixels, horizontal pixels) of the infrared captured image generated by the infrared camera 40, and the size of the screen 30 projected by the projector 10 (the Information on the area (a) and information on the resolution (specifically, pixels in the vertical direction and pixels in the horizontal direction) of the visible light imaging image generated by the visible light camera 40C are held.

プロセッサ55Cは、例えばキャリブレーション部551Cと、物体検出部552と、投影画像生成部553と、パーツ検出部554とを少なくとも含む構成である。キャリブレーション部551C、物体検出部552、投影画像生成部553及びパーツ検出部554のそれぞれは、例えばプロセッサ55Cがメモリ52Cに予め記憶されたプログラム及びデータを読み込んで実行することで、機能的に実現可能となる。   The processor 55C includes, for example, at least a calibration unit 551C, an object detection unit 552, a projection image generation unit 553 and a part detection unit 554. The calibration unit 551C, the object detection unit 552, the projection image generation unit 553, and the part detection unit 554 are functionally realized, for example, by the processor 55C reading and executing programs and data stored in advance in the memory 52C. It becomes possible.

キャリブレーション部551Cは、赤外線カメラ40により生成される赤外撮像画像内の位置(具体的には、座標)とプロジェクタ10,10Bにより投影されるそれぞれの投影画像内の位置(具体的には、座標)と可視光カメラ40Cにより生成される可視光撮像画像内の位置(具体的には、座標)との変換処理の関係式(例えば、射影変換行列)を求める処理(つまり、キャリブレーション)を行う。具体的には、キャリブレーション部551Cは、赤外撮像画像内で投影画像の四隅がどこに位置するかを、ユーザの入力装置IPを用いた指定又は所定の画像処理(例えば、エッジ検出処理)によって検出する。また、キャリブレーション部551Cは、可視光撮像画像内で投影画像の四隅がどこに位置するかを、所定の画像処理(例えば、エッジ検出処理)によって検出する。キャリブレーション部551Cは、これらの検出結果を用いて、例えば上述した射影変換行列を求める(図14参照)。   The calibration unit 551C is a position (specifically, coordinates) in the infrared captured image generated by the infrared camera 40 and a position (specifically, the positions in the projected images projected by the projectors 10 and 10B). Processing (that is, calibration) for obtaining a relational expression (for example, a projective transformation matrix) of conversion processing between coordinates) and a position (specifically, coordinates) in a visible light imaging image generated by the visible light camera 40C Do. Specifically, the calibration unit 551C specifies where the four corners of the projected image are located in the infrared captured image by designation by using the input device IP of the user or predetermined image processing (for example, edge detection processing). To detect. Further, the calibration unit 551C detects where the four corners of the projection image are located in the visible light captured image by predetermined image processing (for example, edge detection processing). The calibration unit 551C uses, for example, these detection results to obtain the above-described projective transformation matrix (see FIG. 14).

図14は、赤外線カメラ40の赤外撮像画像の位置を示す座標(Xci,Yci)とプロジェクタ10により投影される投影画像の位置を示す座標(Xp,Yp)と可視光カメラ40Cの可視光撮像画像の位置を示す座標(Xcv,Ycv)との間の変換のためのキャリブレーションの一例を示す説明図である。なお、図14では、説明を簡単にするために、プロジェクタ10が例示されているが、プロジェクタ10Bについても同様なキャリブレーションが実行される。図14の説明において、図3の説明と同一の要素には同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。   FIG. 14 illustrates the coordinates (Xci, Yci) indicating the position of the infrared captured image of the infrared camera 40 and the coordinates (Xp, Yp) indicating the position of the projected image projected by the projector 10 and visible light imaging of the visible light camera 40C. It is explanatory drawing which shows an example of the calibration for the conversion between the coordinates (Xcv, Ycv) which show the position of an image. Although the projector 10 is illustrated in FIG. 14 to simplify the description, the same calibration is performed for the projector 10B. In the description of FIG. 14, the same elements as the description of FIG. 3 are assigned the same reference numerals to simplify or omit the description, and different contents will be described.

赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4のそれぞれは、例えば赤外撮像画像IRG及び投影画像PJRが対比的に表示装置DPに表示された状態で(図14参照)、ユーザの入力装置IPを用いた指定により選択された、投影画像PJRの四隅の端点CR1,CR2,CR3,CR4にそれぞれ対応する。   Each of the end points EG1, EG2, EG3, and EG4 in the infrared captured image IRG is, for example, in a state where the infrared captured image IRG and the projected image PJR are displayed on the display device DP in comparison (see FIG. 14). These correspond to the end points CR1, CR2, CR3, and CR4 of the four corners of the projection image PJR selected by designation using the input device IP.

また、可視光撮像画像VSG中の端点EG1C,EG2C,EG3C,EG4Cのそれぞれは、例えばキャリブレーション部551Cの行う画像処理(例えば、エッジ検出処理)により検出され、投影画像PJRの四隅の端点CR1,CR2,CR3,CR4にそれぞれ対応する。なお、可視光撮像画像VSG中の端点EG1C,EG2C,EG3C,EG4Cのそれぞれは、可視光撮像画像VSG及び投影画像PJRが対比的に表示装置DPに表示された状態で(図14参照)、ユーザの入力装置IPを用いた指定により、キャリブレーション部551Cにより選択されてもよい。   Further, each of the end points EG1C, EG2C, EG3C, EG4C in the visible light captured image VSG is detected by, for example, image processing (for example, edge detection processing) performed by the calibration unit 551C, and the end points CR1, 4 at four corners of the projected image PJR. It corresponds to CR2, CR3 and CR4, respectively. Note that each of the end points EG1C, EG2C, EG3C, EG4C in the visible light captured image VSG has the visible light captured image VSG and the projected image PJR displayed in contrast on the display device DP (see FIG. 14), It may be selected by the calibration unit 551C by designation using the input device IP.

キャリブレーション部551Cは、赤外撮像画像IRG中の端点EG1,EG2,EG3,EG4の各座標と投影画像PJRの四隅の端点CR1,CR2,CR3,CR4の各座標とに基づき、赤外撮像画像IRG中の座標(Xci,Yci)を投影画像PJR中の座標(Xp,Yp)に変換するための射影変換行列(第1の射影変換行列)を算出して求める。また、キャリブレーション部551Cは、投影画像PJRの四隅の端点CR1,CR2,CR3,CR4の各座標と可視光撮像画像VSG中の端点EG1C,EG2C,EG3C,EG4Cの各座標とに基づき、可視光撮像画像VSG中の座標(Xcv,Ycv)を投影画像PJR中の座標(Xp,Yp)に変換するための射影変換行列(第2の射影変換行列)を算出して求める。キャリブレーション部551Cは、上述した第1の射影変換行列と第2の射影変換行列とを用いることで、赤外撮像画像IRG中の座標(Xci,Yci)を可視光撮像画像VSG中の座標(Xcv,Ycv)に変換するための射影変換行列(第3の射影変換行列)を算出して求める。キャリブレーション部551Cは、求められた射影変換行列(つまり、第1〜第3の射影変換行列のそれぞれ)のデータもしくは情報をキャリブレーション結果としてメモリ52Cに保存する。   The calibration unit 551C determines the infrared pickup image based on the coordinates of the end points EG1, EG2, EG3 and EG4 in the infrared pickup image IRG and the coordinates of the end points CR1 to CR4 of the four corners of the projection image PJR. A projective transformation matrix (first projective transformation matrix) for transforming coordinates (Xci, Yci) in IRG into coordinates (Xp, Yp) in projected image PJR is calculated and determined. Further, the calibration unit 551C determines visible light based on the coordinates of the end points CR1, CR2, CR3, and CR4 of the four corners of the projected image PJR and the coordinates of the end points EG1C, EG2C, EG3C, and EG4C in the visible light captured image VSG. A projective transformation matrix (second projective transformation matrix) for transforming coordinates (Xcv, Ycv) in the captured image VSG into coordinates (Xp, Yp) in the projection image PJR is calculated and determined. The calibration unit 551C uses the first projective transformation matrix and the second projective transformation matrix described above to coordinate the coordinates (Xci, Yci) in the infrared captured image IRG with the coordinates in the visible light captured image VSG A projective transformation matrix (third projective transformation matrix) for transforming to Xcv, Ycv) is calculated and obtained. The calibration unit 551C stores data or information of the determined projective transformation matrix (that is, each of the first to third projective transformation matrices) as a calibration result in the memory 52C.

なお、図12に示す投影制御システム100Cにおいて、プロジェクタ10,10Bにより投影されるそれぞれの投影画像の解像度(言い換えると、大きさ又は面積)や、赤外線カメラ40,可視光カメラ40Cのそれぞれの位置が変更されない限りは、キャリブレーション部551Cにおけるキャリブレーションの処理は少なくとも一度実行すればよい。言い換えると、プロジェクタ10,10Bにより投影されるそれぞれの投影画像の解像度、又は赤外線カメラ40もしくは可視光カメラ40Cのそれぞれの位置が変更される度に、キャリブレーション部551Cにおけるキャリブレーションの処理が少なくとも一度実行される。   In the projection control system 100C shown in FIG. 12, the resolution (in other words, the size or area) of each projection image projected by the projectors 10 and 10B, and the positions of each of the infrared camera 40 and the visible light camera 40C Unless changed, the process of calibration in the calibration unit 551C may be performed at least once. In other words, each time the resolution of each projection image projected by the projectors 10 and 10B or the position of each of the infrared camera 40 or the visible light camera 40C is changed, the calibration processing in the calibration unit 551C is performed at least once. To be executed.

また、キャリブレーション部551Cにおけるキャリブレーションの方法は、上述した方法に限定されない。例えば、キャリブレーション部551Cは、公知のストラクチャードライト法を用いたキャリブレーションを実行することで、画素単位で赤外撮像画像IRG内の座標を投影画像PJR内の対応する座標に変換することも可能である。同様に、キャリブレーション部551Cは、画素単位で可視光撮像画像VSG内の座標を投影画像PJR内の対応する座標に変換することも可能であり、画素単位で赤外撮像画像IRG内の座標を可視光撮像画像VSG内の対応する座標に変換することも可能である。   Further, the method of calibration in the calibration unit 551C is not limited to the method described above. For example, the calibration unit 551C can also convert coordinates in the infrared captured image IRG to corresponding coordinates in the projection image PJR in pixel units by executing calibration using a known structured light method. It is. Similarly, the calibration unit 551 C can also convert coordinates in the visible light captured image VSG to corresponding coordinates in the projected image PJR in pixel units, and coordinates in the infrared captured image IRG in pixel units It is also possible to convert to corresponding coordinates in the visible light captured image VSG.

パーツ検出部554は、物体検出部552により検出された人物HM1(対象物の一例)の形状と、可視光カメラ40Cにより生成された可視光撮像画像のデータとを用いて、物体検出部552により検出された人物HM1の形状内で、人物HM1のパーツ(例えば、身体の部位)を検出する。パーツ検出部554は、人物HM1のパーツ(部位)として、例えば人物HM1の顔、目、口、鼻、眉、額、手、足、肘、膝、踵、踝、頬等の細かい部位を検出可能である。なお、これらの各部位はあくまで例示であって、検出されるパーツはこれらに限定されない。パーツ検出部554は、その検出された人物HM1のパーツの検出結果を投影画像生成部553に渡す。   The parts detection unit 554 uses the shape of the person HM1 (an example of the target object) detected by the object detection unit 552 and the data of the visible light captured image generated by the visible light camera 40C. The parts of the person HM1 (for example, a part of the body) are detected within the shape of the detected person HM1. The parts detection unit 554 detects, as parts (parts) of the person HM1, for example, small parts such as face, eyes, mouth, nose, eyebrows, forehead, hands, feet, elbows, knees, eyebrows, cheeks, etc. of the person HM1. It is possible. In addition, each of these site | parts is an illustration to the last, and the parts detected are not limited to these. The parts detection unit 554 passes the detection result of the detected parts of the person HM1 to the projection image generation unit 553.

投影画像生成部553は、パーツ検出部554から渡された検出結果とメモリ52Cに保持されるキャリブレーション結果とを用いて、赤外撮像画像内の人物HM1の形状内のパーツを示す位置(座標)のそれぞれに対応する投影画像内の位置(座標)又はその位置(座標)から所定の距離離れた位置(座標)に、コンテンツ格納データベース53から読み出した画像コンテンツを重畳した投影画像を生成する。投影画像生成部553は、その生成された投影画像のデータを含む投影指示を生成し、その生成された投影指示を、入出力インターフェース51を介してプロジェクタ10Bに送出する。   The projection image generation unit 553 uses the detection result passed from the part detection unit 554 and the calibration result held in the memory 52C to indicate the position (coordinates) of the part in the shape of the person HM1 in the infrared captured image The projected image is generated by superimposing the image content read out from the content storage database 53 at a position (coordinates) in the projected image corresponding to each of (a) or a position (coordinates) separated from the position (coordinates) by a predetermined distance. The projection image generation unit 553 generates a projection instruction including data of the generated projection image, and sends the generated projection instruction to the projector 10B through the input / output interface 51.

図15は、実施の形態3に係る投影画像PJR2の一例を示す図である。図15において、図6の投影画像PJR1,PJR2と同一の要素には同一の符号を付与して説明を簡略化又は省略し、異なる要素について説明する。図15に示すように、投影制御装置50Cは、背景部分となる背景投影画像PJGM1に対し、例えば人物HM1の左手上部に青色のボールの画像コンテンツBB1、人物HM1の右手上部に赤色のボールの画像コンテンツRB1をそれぞれ重畳した投影画像PJR2を生成する。図15では、図15を分かり易くするために、背景投影画像PJGM1のうち人物HM1の周囲の矩形部分内は背景投影画像PJGM1が無いように白く示されている。但し、投影画像生成部553は、上述した矩形部分内も全て背景投影画像となるようにスクリーン30の全域にかかる背景投影画像PJGM1を生成してよいし、図15に示すように人物HM1の周囲の矩形部分内を除いた背景投影画像PJGM1を生成してもよい。プロジェクタ10は、投影制御装置50により生成された投影画像PJR2をスクリーン30全域に投影する。また、投影制御装置50Cは、パーツ検出部554により検出されたパーツ(例えば、人物HM1の頬)に絞って投影するための投影画像(例えば、画像コンテンツCK1)を生成し、この生成された投影画像を含む投影指示をプロジェクタ10Bに出力する。例えば、投影制御装置50Cは、実施の形態1と同様に、赤外線カメラ40からの赤外撮像画像に基づいて人物HM1の形状を認識でき、更に、可視光カメラ40Cからの可視光撮像画像に基づいて人物HM1のパーツの正確な位置を把握できる。このため、投影制御装置50Cは、その認識された人物HM1の正確な位置(例えば、人物HM1の頬の位置)に絞って投影させるための投影画像(例えば、画像コンテンツCK1)を生成できる。プロジェクタ10Bは、投影制御装置50Cからの投影指示により指定された投影画像(例えば、画像コンテンツCK1)を人物HM1の頬に向けて投影する。   FIG. 15 is a view showing an example of a projected image PJR2 according to the third embodiment. In FIG. 15, the same elements as the projected images PJR1 and PJR2 of FIG. 6 are assigned the same reference numerals to simplify or omit the description, and different elements will be described. As shown in FIG. 15, the projection control device 50C, for example, the image content BB1 of the blue ball on the upper left of the person HM1 and the image of the red ball on the upper right of the person HM1 with respect to the background projection image PJGM1 serving as the background portion. A projected image PJR2 in which the content RB1 is superimposed is generated. In FIG. 15, in order to make FIG. 15 easy to understand, the rectangular portion around the person HM1 in the background projection image PJGM1 is shown white so that the background projection image PJGM1 is not present. However, the projection image generation unit 553 may generate the background projection image PJGM1 that covers the entire area of the screen 30 so that the inside of the above-described rectangular portion also becomes the background projection image, as shown in FIG. A background projection image PJGM1 excluding the inside of the rectangular portion of the image may be generated. The projector 10 projects the projection image PJR2 generated by the projection control device 50 over the entire area of the screen 30. Also, the projection control device 50C generates a projection image (for example, the image content CK1) for squeezing and projecting to the part (for example, the cheek of the person HM1) detected by the parts detection unit 554, and generates the generated projection A projection instruction including an image is output to the projector 10B. For example, as in the first embodiment, the projection control device 50C can recognize the shape of the person HM1 based on the infrared captured image from the infrared camera 40, and further, based on the visible light captured image from the visible light camera 40C. Thus, it is possible to know the exact position of the part of the person HM1. Therefore, the projection control device 50C can generate a projection image (for example, the image content CK1) for narrowing and projecting the recognized person HM1 to the correct position (for example, the position of the cheek of the person HM1). The projector 10B projects the projection image (for example, the image content CK1) designated by the projection instruction from the projection control device 50C toward the cheek of the person HM1.

次に、実施の形態3に係る投影制御システム100Cの動作手順を、図16を参照して説明する。図16は、実施の形態3に係る投影制御処理の動作手順の一例を説明するフローチャートである。図16に示すそれぞれの処理は、例えば投影制御装置50Cにおいて実行される。また、図16の説明では、図7の説明と同一の処理については同一のステップ番号を付与して説明を簡略化又は省略し、異なる内容について説明する。   Next, an operation procedure of the projection control system 100C according to the third embodiment will be described with reference to FIG. FIG. 16 is a flowchart for explaining an example of the operation procedure of the projection control process according to the third embodiment. Each process shown in FIG. 16 is executed by, for example, the projection control device 50C. Further, in the description of FIG. 16, the same processing as that of FIG. 7 is assigned the same step number to simplify or omit the description, and different contents will be described.

また、図16の投影制御処理では、可視光カメラ40Cにより撮像された可視光撮像画像を用いて投影制御装置50Cによって人物HM1の形状内のパーツが検出され、そのパーツに画像コンテンツ(例えば、画像コンテンツCK1)がプロジェクタ10Bにより投影される例を図示している。また、実施の形態3に係る投影制御装置50Cは、図16に示す投影制御処理とは別に、並行して図7に示す投影制御処理(実施の形態1参照)と同一の処理を実行してよい。   Further, in the projection control process of FIG. 16, parts in the shape of the person HM1 are detected by the projection control device 50C using the visible light captured image captured by the visible light camera 40C, and image contents (for example, an image content) An example in which the content CK1) is projected by the projector 10B is illustrated. Further, the projection control device 50C according to the third embodiment executes the same process as the projection control process (see the first embodiment) shown in FIG. 7 in parallel, separately from the projection control process shown in FIG. Good.

また、図16のステップS2におけるキャリブレーションの処理は、本実施の形態に係るキャリブレーションの処理(図14参照)であり、具体的には、赤外撮像画像中の位置(座標)を可視光撮像画像中の位置(座標)に変換するための関係式を求める処理である。   The calibration process in step S2 of FIG. 16 is the calibration process according to the present embodiment (see FIG. 14). Specifically, the position (coordinates) in the infrared captured image is visible light This is processing for obtaining a relational expression for converting to a position (coordinates) in a captured image.

図16において、物体検出部552が人物HM1の形状を検出できた場合には(S4、YES)、パーツ検出部554は、物体検出部552により検出された人物HM1の形状と、可視光カメラ40Cにより生成された可視光撮像画像のデータとを用いて、物体検出部552により検出された人物HM1の形状内で、人物HM1のパーツを検出する(S9)。パーツ検出部554は、その検出された人物HM1のパーツの検出結果を投影画像生成部553に渡す。投影画像生成部553は、パーツ検出部554により検出されたパーツの人物HM1の形状内の位置(つまり、検出位置)に応じて、プロジェクタ10Bにより投影される画像コンテンツの投影位置を決定する(S5C)。投影位置は、例えば図15に示す画像コンテンツCK1の位置(座標)を示す。図16のステップS5C以降の処理は、図7のステップS5以降の処理と同一であるため、説明を省略する。   In FIG. 16, when the object detection unit 552 can detect the shape of the person HM1 (S4, YES), the parts detection unit 554 detects the shape of the person HM1 detected by the object detection unit 552, and the visible light camera 40C. The part of the person HM1 is detected within the shape of the person HM1 detected by the object detection unit 552 using the data of the visible light captured image generated by the above (S9). The parts detection unit 554 passes the detection result of the detected parts of the person HM1 to the projection image generation unit 553. The projection image generation unit 553 determines the projection position of the image content to be projected by the projector 10B according to the position (that is, the detection position) in the shape of the person HM1 of the part detected by the parts detection unit 554 (S5C) ). The projection position indicates, for example, the position (coordinates) of the image content CK1 shown in FIG. The processes after step S5C in FIG. 16 are the same as the processes after step S5 in FIG.

以上により、実施の形態3に係る投影制御システム100Cは、実施の形態2に係る投影制御システム100Bの構成に加え、第2の撮像装置の一例としての可視光カメラ40Cを更に含む。可視光カメラ40Cは、スクリーン30を画角として含む可視光撮像画像を撮像する。投影制御装置50Cは、可視光撮像画像に基づいて、赤外撮像画像に基づいて認識された人物HM1の形状の内部のパーツ(部位)を認識し、その認識されたパーツ(部位)に応じた画像コンテンツ(例えば、画像コンテンツCK1)を生成する。投影制御装置50Cは、その生成された画像コンテンツ(例えば、画像コンテンツCK1)を、第2の投影装置の一例としてのプロジェクタ10Bに投影させる。   As described above, in addition to the configuration of the projection control system 100B according to Embodiment 2, the projection control system 100C according to Embodiment 3 further includes a visible light camera 40C as an example of a second imaging device. The visible light camera 40C captures a visible light captured image including the screen 30 as an angle of view. The projection control device 50C recognizes the internal part (part) of the shape of the person HM1 recognized based on the infrared pickup image based on the visible light pickup image, and responds to the recognized part (part). Image content (for example, image content CK1) is generated. The projection control device 50C causes the projector 10B as an example of the second projection device to project the generated image content (for example, the image content CK1).

これにより、実施の形態3に係る投影制御システム100Cは、実施の形態2に係る投影制御システム100Bの効果を有するとともに、プロジェクタ10からはスクリーン30全域に投影可能な投影画像の投影を実行でき、プロジェクタ10Bからはスクリーン30の周囲にいる人物HM1の部位に正確に絞った投影画像の投影を実行できる。従って、投影制御装置50Cは、人物HM1の正確な部位を把握でき、認識された人物HM1の正確な部位(例えば、人物HM1の顔の頬)に絞って、プロジェクタ10により投影される投影画像よりも小さい局所的な投影画像を追加して投影でき、きめ細かい投影画像の投影を可能とする等、投影画像によるエンターテインメント性の多様性を向上できる。   Thus, the projection control system 100C according to the third embodiment has the effect of the projection control system 100B according to the second embodiment, and can execute projection of a projection image that can be projected onto the entire area of the screen 30 from the projector 10. From the projector 10B, it is possible to execute projection of a projection image which is accurately focused on the part of the person HM1 around the screen 30. Therefore, the projection control device 50C can grasp the correct part of the person HM1, narrows down to the correct part of the recognized person HM1 (for example, the cheeks of the face of the person HM1), and the projection image projected by the projector 10 Even small local projection images can be added and projected, and it is possible to improve the variety of entertainment according to the projection images, such as enabling the projection of fine projection images.

(実施の形態1の第2の変形例)
実施の形態1の第2の変形例では、例えば実施の形態1に係る投影制御システム100において、赤外線照明20の電源のオン又はオフの制御と、透明スクリーン30Dのモードの切り替えとを更に行う例を説明する(図17参照)。図17は、実施の形態1の第2の変形例に係る投影制御システム100Dの設置例を示す図である。図18は、実施の形態1の第2の変形例に係る投影制御システム100Dのシステム構成例を詳細に示すブロック図である。投影制御システム100Dは、プロジェクタ10と、赤外線照明20と、透明スクリーン30Dと、赤外線カメラ40と、投影制御装置50と、照明制御装置60と、スクリーン制御装置70とを少なくとも含む構成である。図17の構成において、図1の構成と同一のものには同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。
Second Modification of First Embodiment
In the second modification of the first embodiment, for example, in the projection control system 100 according to the first embodiment, an example of further performing control of power on / off of the infrared illumination 20 and switching of the mode of the transparent screen 30D. Will be described (see FIG. 17). FIG. 17 is a diagram showing an installation example of a projection control system 100D according to a second modification of the first embodiment. FIG. 18 is a block diagram showing in detail an example of a system configuration of a projection control system 100D according to a second modification of the first embodiment. The projection control system 100D is configured to include at least the projector 10, the infrared illumination 20, the transparent screen 30D, the infrared camera 40, the projection control device 50, the illumination control device 60, and the screen control device 70. In the configuration of FIG. 17, the same components as those of FIG. 1 are denoted by the same reference numerals, and description thereof will be simplified or omitted, and different contents will be described.

被投影物の一例としての透明スクリーン30Dは、スクリーン制御装置70による制御の下で、スクリーンに関するモードを透明モード又はスクリーンモードに切り替え可能なスクリーンであり、固定的に設置される。透明スクリーン30Dの表側や裏側は、図17に従うとする。透明スクリーン30Dの具体的な構成は、例えば上述した参考非特許文献1において開示されているので、ここでは詳細な説明は省略する。透明スクリーン30Dは、スクリーンモード時でも透明モード時でも赤外線照明20から照射された赤外光を透過可能である。透明スクリーン30Dを透過した赤外光は、赤外線カメラ40により受光される。   A transparent screen 30D as an example of an object to be projected is a screen that can switch the mode relating to the screen to the transparent mode or the screen mode under control of the screen control device 70, and is fixedly installed. The front and back sides of the transparent screen 30D are in accordance with FIG. The specific configuration of the transparent screen 30D is disclosed, for example, in the above-mentioned Reference Non-Patent Document 1, so the detailed description is omitted here. The transparent screen 30D can transmit infrared light emitted from the infrared illumination 20 in both the screen mode and the transparent mode. Infrared light transmitted through the transparent screen 30D is received by the infrared camera 40.

第1の制御部の一例としての照明制御装置60は、投影制御装置50からの照明制御信号に従って、赤外線照明20の電源のオン又はオフを切り替えることで、赤外線照明20の電源を制御する。   The lighting control device 60 as an example of the first control unit controls the power supply of the infrared light 20 by switching on or off the power of the infrared light 20 according to the lighting control signal from the projection control device 50.

第2の制御部の一例としてのスクリーン制御装置70は、投影制御装置50からのスクリーン制御信号に従って、透明スクリーン30Dのモードを透明モード又はスクリーンモードのいずれかに切り替えることで、透明スクリーン30Dのモードを制御する。   The screen control device 70 as an example of the second control unit switches the mode of the transparent screen 30D to either the transparent mode or the screen mode according to the screen control signal from the projection control device 50, thereby the mode of the transparent screen 30D. Control.

以上により、実施の形態1の第2の変形例では、投影制御装置50は、透明スクリーン30Dをスクリーンモードに切り替える場合には、赤外線照明20の電源をオンに制御して、赤外線照明20から赤外光を照射させる。つまり、投影制御装置50は、透明スクリーン30Dをスクリーンモードに切り替えるためのスクリーン制御信号を生成してスクリーン制御装置70に送出するとともに、赤外線照明20の電源をオンするための照明制御信号を生成して照明制御装置60に送出する。これにより、照明制御装置60は、赤外線照明20の電源をオンにして赤外光の照射を実行させ、スクリーン制御装置70は、透明スクリーン30Dをスクリーンモードに切り替えでき、透明スクリーン30Dにおいて赤外光を透過させることができる。   As described above, in the second modification of the first embodiment, when switching the transparent screen 30D to the screen mode, the projection control device 50 controls the power supply of the infrared light 20 to turn on to turn on the red light from the infrared light 20. I let outside light. That is, the projection control device 50 generates a screen control signal for switching the transparent screen 30D to the screen mode, sends it to the screen control device 70, and generates a lighting control signal for turning on the infrared lighting 20. And sends it to the lighting control device 60. Thereby, the illumination control device 60 turns on the power of the infrared illumination 20 to execute the irradiation of the infrared light, and the screen control device 70 can switch the transparent screen 30D to the screen mode, and the infrared light in the transparent screen 30D Can be transparent.

また、実施の形態1の第2の変形例では、投影制御装置50は、透明スクリーン30Dを透明モードに切り替える場合には、赤外線照明20の電源をオフに制御して、赤外線照明20から赤外光を照射させない。つまり、投影制御装置50は、透明スクリーン30Dを透明モードに切り替えるためのスクリーン制御信号を生成してスクリーン制御装置70に送出するとともに、赤外線照明20の電源をオフするための照明制御信号を生成して照明制御装置60に送出する。これにより、スクリーン制御装置70は、透明スクリーン30Dを透明モードに切り替え、照明制御装置60は、例えば投影制御装置50における各種の処理(例えば、人物HM1の認識や投影制御処理)が必要無い場合に、赤外線照明20の電源をオフにして赤外光の照射を中止でき、不要な赤外光の照射を抑制できる。   Further, in the second modification of the first embodiment, when switching the transparent screen 30D to the transparent mode, the projection control device 50 controls the power supply of the infrared light 20 to be turned off so that the infrared light 20 transmits infrared light. Do not irradiate light. That is, the projection control device 50 generates a screen control signal for switching the transparent screen 30D to the transparent mode and sends it to the screen control device 70, and generates a lighting control signal for turning off the infrared lighting 20. And sends it to the lighting control device 60. Thereby, the screen control device 70 switches the transparent screen 30D to the transparent mode, and the illumination control device 60, for example, does not need various processing (for example, recognition of the person HM1 and projection control processing) in the projection control device 50. The power of the infrared illumination 20 can be turned off to stop the irradiation of the infrared light, and the unnecessary irradiation of the infrared light can be suppressed.

(実施の形態1の第3の変形例)
実施の形態1の第3の変形例では、例えば実施の形態1に係る投影制御システム100において、投影制御装置50がネットワークNWを介して接続された外部サーバに接続される例を説明する(図19参照)。図19は、実施の形態1の第3の変形例に係る投影制御システム100の設置例を示す図である。投影制御システム100は、プロジェクタ10と、赤外線照明20と、スクリーン30と、赤外線カメラ40と、投影制御装置50と、複数のコンテンツ格納装置CLD1,…,CLDkとを少なくとも含む構成である。kは2以上の整数である。図19の構成において、図1の構成と同一のものには同一の符号を付与して説明を簡略化又は省略し、異なる内容について説明する。
Third Modified Example of First Embodiment
In the third modification of the first embodiment, for example, in the projection control system 100 according to the first embodiment, an example will be described in which the projection control device 50 is connected to an external server connected via the network NW (see FIG. 19). FIG. 19 is a diagram showing an installation example of a projection control system 100 according to a third modification of the first embodiment. The projection control system 100 includes at least a projector 10, an infrared illumination 20, a screen 30, an infrared camera 40, a projection control device 50, and a plurality of content storage devices CLD1, ..., CLDk. k is an integer of 2 or more. In the configuration of FIG. 19, the same components as those of FIG. 1 are denoted by the same reference numerals, and description thereof will be simplified or omitted, and different contents will be described.

外部サーバの一例としてのコンテンツ格納装置CLD1〜CLDkのそれぞれは、例えばHDDもしくはSSDを用いて構成され、プロジェクタ10により投影される投影画像に重畳されるための画像コンテンツのデータを記憶保持している。コンテンツ格納装置CLD1〜CLDkのそれぞれは、ネットワークNWを介して、投影制御装置50との間でデータもしくは情報の送受信が可能に接続される。ネットワークNWは、有線ネットワーク(例えばLAN(Local Area Network))でもよいし、無線ネットワーク(例えば無線LAN)でもよい。   Each of the content storage devices CLD1 to CLDk as an example of the external server is configured using, for example, an HDD or an SSD, and stores and holds data of image content to be superimposed on a projection image projected by the projector 10 . Each of the content storage devices CLD1 to CLDk is connected so as to be able to transmit and receive data or information with the projection control device 50 via the network NW. The network NW may be a wired network (for example, a LAN (Local Area Network)) or a wireless network (for example, a wireless LAN).

投影制御装置50は、例えば定期的に、コンテンツ格納装置CLD1〜CLDkのそれぞれにアクセスして、コンテンツ格納装置CLD1〜CLDkのそれぞれにおいて記憶保持されている画像コンテンツのデータを取得し、自装置(つまり、投影制御装置50)内のコンテンツ格納データベース53内の画像コンテンツのデータを更新する。   The projection control device 50, for example, periodically accesses each of the content storage devices CLD1 to CLDk to obtain data of the image content stored and held in each of the content storage devices CLD1 to CLDk, and the device itself (that is, , The data of the image content in the content storage database 53 in the projection control device 50).

以上により、実施の形態1の第3の変形例では、投影制御装置50は、投影画像の生成時に重畳される画像コンテンツを記憶保持するコンテンツ格納装置CLD1〜CLDkのそれぞれと接続され、コンテンツ格納装置CLD1〜CLDkのそれぞれから画像コンテンツを取得し、コンテンツ格納装置CLD1〜CLDkのそれぞれに記憶保持される画像コンテンツを更新する。これにより、投影制御装置50は、例えば定期的に、自装置(つまり、投影制御装置50)内のコンテンツ格納データベース53内の画像コンテンツのデータを更新することで、自装置内で記憶保持していない画像コンテンツを取得でき、多様な画像コンテンツを蓄積できる。   As described above, in the third modification of the first embodiment, the projection control device 50 is connected to each of the content storage devices CLD1 to CLDk that store and hold the image content to be superimposed when generating the projection image, and the content storage device The image content is acquired from each of CLD1 to CLDk, and the image content stored and held in each of the content storage devices CLD1 to CLDk is updated. Thus, the projection control device 50 stores and holds the image content data in the content storage database 53 in the own device (that is, the projection control device 50), for example, periodically. It is possible to acquire non-image content and accumulate various image content.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。   As mentioned above, although various embodiments were described, referring to an accompanying drawing, this indication is not limited to this example. It is obvious that those skilled in the art can conceive of various modifications, alterations, replacements, additions, deletions and equivalents within the scope of the claims. It is understood that within the technical scope of the present disclosure. Moreover, in the range which does not deviate from the meaning of invention, you may combine each component in various embodiment mentioned above arbitrarily.

本開示は、撮像画角内の検出対象物の位置を高精度に検出し、検出対象物の動きに追従したコンテンツの的確な投影を適応的に支援する投影制御システム及び投影制御方法として有用である。   The present disclosure is useful as a projection control system and a projection control method that detects the position of a detection target within the imaging angle of view with high accuracy, and adaptively supports accurate projection of content following the movement of the detection target. is there.

10、10B プロジェクタ
11、43、43C 通信インターフェース
12、42、42C 制御部
13 投影部
14、44、44C、52、52C メモリ
20 赤外線照明
30 スクリーン
40 赤外線カメラ
40C 可視光カメラ
41 赤外撮像部
41C 可視撮像部
50、50C 投影制御装置
51 入出力インターフェース
53 コンテンツ格納データベース
54 記録装置
55、55C、PRC1、PRC2 プロセッサ
551、551C キャリブレーション部
552 物体検出部
553 投影画像生成部
554 パーツ検出部
DP 表示装置
IP 入力装置
10, 10B Projector 11, 43, 43C Communication Interface 12, 42, 42C Control Unit 13 Projection Unit 14, 44, 44C, 52, 52C Memory 20 Infrared Illumination 30 Screen 40 Infrared Camera 40C Visible Light Camera 41 Infrared Imaging Unit 41C Visible Imaging unit 50, 50C Projection control unit 51 Input / output interface 53 Content storage database 54 Recording unit 55, 55C, PRC1, PRC2 Processor 551, 551C Calibration unit 552 Object detection unit 553 Projected image generation unit 554 Part detection unit DP Display device IP Input device

Claims (14)

赤外光を照射する光源装置と、
照射された前記赤外光が被投影物を透過した光を受光し、前記被投影物を画角として含む赤外撮像画像を撮像する撮像装置と、
撮像された前記赤外撮像画像に基づいて、前記被投影物の周囲にいる対象物の形状を認識し、その認識された前記対象物の形状に応じた投影画像を生成し、生成された前記投影画像を前記被投影物に投影する投影装置に出力する投影制御装置と、を備え、
前記光源装置は、
前記被投影物を挟んで前記撮像装置の反対側に配置される、
投影制御システム。
A light source device for emitting infrared light;
An imaging device configured to receive an infrared imaging image including the object to be projected as an angle of view, the irradiated infrared light receiving light transmitted through the object to be projected;
The shape of an object present around the object to be projected is recognized based on the captured infrared image, the projection image corresponding to the shape of the recognized object is generated, and the generated image is generated. And a projection control device for outputting the projection image to a projection device that projects the projection image onto the object.
The light source device
It is disposed on the opposite side of the imaging device with the object to be projected interposed therebetween.
Projection control system.
前記投影制御装置は、
画像コンテンツを保持するコンテンツ保持部を備え、前記認識された対象物の形状の付近に前記画像コンテンツを重畳した画像を前記投影画像として生成する、
請求項1に記載の投影制御システム。
The projection control device
A content holding unit for holding image content, and generating an image in which the image content is superimposed near the shape of the recognized object as the projection image;
The projection control system according to claim 1.
前記投影制御装置は、
画像コンテンツを保持するコンテンツ保持部を備え、前記認識された対象物から所定距離の位置に前記画像コンテンツを重畳した画像を前記投影画像として生成する、
請求項1に記載の投影制御システム。
The projection control device
A content holding unit for holding image content, and generating, as the projection image, an image in which the image content is superimposed at a predetermined distance from the recognized object;
The projection control system according to claim 1.
前記所定距離は、ユーザの入力に応じて変更される、
請求項3に記載の投影制御システム。
The predetermined distance is changed according to the user's input.
The projection control system according to claim 3.
前記対象物が位置する対象物領域は、前記被投影物の前記撮像装置側に位置する、
請求項1に記載の投影制御システム。
An object region where the object is located is located on the imaging device side of the projection object,
The projection control system according to claim 1.
前記撮像装置は、
前記赤外光を受光する撮像部を有し、前記撮像部の前面に可視光をカットするフィルタ又はレンズを配置する、
請求項1に記載の投影制御システム。
The imaging device is
An imaging unit for receiving the infrared light, and a filter or a lens for cutting visible light is disposed in front of the imaging unit;
The projection control system according to claim 1.
前記対象物が位置する対象物領域は、前記被投影物の前記撮像装置側と反対側に位置する、
請求項1に記載の投影制御システム。
An object region where the object is located is located on the opposite side of the object to be projected to the imaging device side.
The projection control system according to claim 1.
前記光源装置は、
自装置の前面に、前記赤外光の照射範囲を広げる拡散シートを配置する、
請求項1に記載の投影制御システム。
The light source device
A diffusion sheet is disposed on the front of the device to expand the irradiation range of the infrared light,
The projection control system according to claim 1.
前記投影装置は、
少なくとも第1の投影装置と第2の投影装置とを含み、
前記投影制御装置は、
生成された前記投影画像を前記第1の投影装置に投影させ、
認識された前記対象物の形状の内部に他の画像コンテンツを前記第2の投影装置に投影させる、
請求項1又は2に記載の投影制御システム。
The projection device
At least a first projection device and a second projection device,
The projection control device
Causing the first projection device to project the generated projection image;
Causing the second projection device to project other image content within the shape of the recognized object
A projection control system according to claim 1 or 2.
前記被投影物を画角として含む可視光撮像画像を撮像する第2の撮像装置、を更に備え、
前記投影装置は、
少なくとも第1の投影装置と第2の投影装置とを含み、
前記投影制御装置は、
前記可視光撮像画像に基づいて、前記赤外撮像画像に基づいて認識された前記対象物の形状の内部の部位を認識し、その認識された前記部位に応じた画像コンテンツを生成し、生成された前記画像コンテンツを前記第2の投影装置に投影させる、
請求項1又は2に記載の投影制御システム。
And a second imaging device for capturing a visible light imaging image including the object to be projected as an angle of view.
The projection device
At least a first projection device and a second projection device,
The projection control device
A portion within the shape of the object recognized based on the infrared captured image is recognized based on the visible light captured image, and image content corresponding to the recognized portion is generated and generated. Projecting the image content onto the second projection device,
A projection control system according to claim 1 or 2.
前記投影制御装置は、
前記光源装置における前記赤外光の照射のオン又はオフを制御する第1の制御部と、
前記被投影物の透明モード又はスクリーンモードを切り替える第2の制御部と、を更に備え、
前記被投影物を前記スクリーンモードに切り替える場合には、前記光源装置に前記赤外光を照射させる、
請求項1に記載の投影制御システム。
The projection control device
A first control unit that controls on / off of the irradiation of the infrared light in the light source device;
And a second control unit for switching the transparent mode or the screen mode of the object to be projected.
When switching the object to be projected to the screen mode, the light source device is caused to emit the infrared light.
The projection control system according to claim 1.
前記投影制御装置は、
前記光源装置における前記赤外光の照射のオン又はオフを制御する第1の制御部と、
前記被投影物の透明モード又はスクリーンモードを切り替える第2の制御部と、を更に備え、
前記被投影物を前記透明モードに切り替える場合には、前記光源装置に前記赤外光を照射させない、
請求項1に記載の投影制御システム。
The projection control device
A first control unit that controls on / off of the irradiation of the infrared light in the light source device;
And a second control unit for switching the transparent mode or the screen mode of the object to be projected.
When the object to be projected is switched to the transparent mode, the light source device is not irradiated with the infrared light.
The projection control system according to claim 1.
前記投影制御装置は、
前記投影画像の生成時に重畳される画像コンテンツを記憶する外部サーバと接続され、前記外部サーバから前記画像コンテンツを取得して前記コンテンツ保持部に保持される画像コンテンツを更新する、
請求項2に記載の投影制御システム。
The projection control device
It is connected to an external server that stores image content to be superimposed when the projection image is generated, acquires the image content from the external server, and updates the image content held in the content holding unit.
The projection control system according to claim 2.
投影制御システムにおける投影制御方法であって、
光源装置により赤外光を照射し、
照射された前記赤外光が被投影物を透過した光を受光し、前記被投影物を画角として含む赤外撮像画像を撮像装置により撮像し、
撮像された前記赤外撮像画像に基づいて、前記被投影物の周囲にいる対象物の形状を認識し、
前記認識された前記対象物の形状に応じた投影画像を生成し、生成された前記投影画像を前記被投影物に投影する投影装置に出力し、
前記光源装置は、
前記被投影物を挟んで前記撮像装置の反対側に配置される、
投影制御方法。
A projection control method in a projection control system,
The infrared light is emitted by the light source device,
The irradiated infrared light receives the light transmitted through the object to be projected, and the imaging device captures an infrared captured image including the object to be projected as an angle of view.
Recognizing the shape of an object around the projection object based on the captured infrared image.
Generating a projection image according to the shape of the recognized object, and outputting the generated projection image to a projection device that projects the projection image onto the projection object;
The light source device
It is disposed on the opposite side of the imaging device with the object to be projected interposed therebetween.
Projection control method.
JP2018002247A 2018-01-10 2018-01-10 Projection control system and projection control method Active JP7054774B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018002247A JP7054774B2 (en) 2018-01-10 2018-01-10 Projection control system and projection control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018002247A JP7054774B2 (en) 2018-01-10 2018-01-10 Projection control system and projection control method

Publications (3)

Publication Number Publication Date
JP2019120885A true JP2019120885A (en) 2019-07-22
JP2019120885A5 JP2019120885A5 (en) 2021-02-25
JP7054774B2 JP7054774B2 (en) 2022-04-15

Family

ID=67307244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018002247A Active JP7054774B2 (en) 2018-01-10 2018-01-10 Projection control system and projection control method

Country Status (1)

Country Link
JP (1) JP7054774B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173105A (en) * 2020-09-10 2022-03-11 精工爱普生株式会社 Information generation method, information generation system, and recording medium
US12020479B2 (en) 2020-10-26 2024-06-25 Seiko Epson Corporation Identification method, identification system, and non-transitory computer-readable storage medium storing a program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326188A (en) * 2003-04-21 2004-11-18 Advanced Telecommunication Research Institute International Large screen touch panel system and search / display system
US20060072076A1 (en) * 2004-10-04 2006-04-06 Disney Enterprises, Inc. Interactive projection system and method
JP2007272365A (en) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International Content presentation device
JP2016128870A (en) * 2015-01-09 2016-07-14 凸版印刷株式会社 Image processing device, image processing system, and lighting device
JP2017050701A (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
JP2017215374A (en) * 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 Image projection system and image projection method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004326188A (en) * 2003-04-21 2004-11-18 Advanced Telecommunication Research Institute International Large screen touch panel system and search / display system
US20060072076A1 (en) * 2004-10-04 2006-04-06 Disney Enterprises, Inc. Interactive projection system and method
JP2007272365A (en) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International Content presentation device
JP2016128870A (en) * 2015-01-09 2016-07-14 凸版印刷株式会社 Image processing device, image processing system, and lighting device
JP2017050701A (en) * 2015-09-02 2017-03-09 株式会社バンダイナムコエンターテインメント Projection system
JP2017215374A (en) * 2016-05-30 2017-12-07 パナソニックIpマネジメント株式会社 Image projection system and image projection method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114173105A (en) * 2020-09-10 2022-03-11 精工爱普生株式会社 Information generation method, information generation system, and recording medium
JP2022046060A (en) * 2020-09-10 2022-03-23 セイコーエプソン株式会社 Information generation method, information generation system, and program
JP7163943B2 (en) 2020-09-10 2022-11-01 セイコーエプソン株式会社 INFORMATION GENERATION METHOD, INFORMATION GENERATION SYSTEM AND PROGRAM
CN114173105B (en) * 2020-09-10 2023-06-16 精工爱普生株式会社 Information generating method, information generating system, and recording medium
US12020479B2 (en) 2020-10-26 2024-06-25 Seiko Epson Corporation Identification method, identification system, and non-transitory computer-readable storage medium storing a program

Also Published As

Publication number Publication date
JP7054774B2 (en) 2022-04-15

Similar Documents

Publication Publication Date Title
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
US11606541B2 (en) Projection control device, projection control method and projection control system
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
US20100328200A1 (en) Device and related method for converting display screen into touch panel screen
JP6375672B2 (en) Position detecting apparatus and position detecting method
JP2015173428A (en) projection system and projection method
JP2015158887A5 (en)
CN104660944A (en) Image projection apparatus and image projection method
TW201421142A (en) Interactive projection system and method for calibrating position of light point thereof
JPH0980372A (en) Projection display device
US20160054806A1 (en) Data processing apparatus, data processing system, control method for data processing apparatus, and storage medium
JP2015158885A5 (en)
JP7054774B2 (en) Projection control system and projection control method
JP7087391B2 (en) Image display device and its control method
US20120268371A1 (en) Image Projection Device
JP7416231B2 (en) Installation support device, installation support method, and program
CN113110732B (en) Eye tracking control method and system for multi-screen display screen
US12549695B2 (en) Projection control method and projection control device
JP2015053734A (en) Projector, image projection system, and image projection method
JP2015158884A5 (en)
JP2015149603A (en) Image display system, image display apparatus, and image display method
JP7189515B2 (en) Two-dimensional flicker measuring device, two-dimensional flicker measuring method, and two-dimensional flicker measuring program
US20250014264A1 (en) Image processing apparatus, image processing method, and image processing program
JP2010112990A (en) Projector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R151 Written notification of patent or utility model registration

Ref document number: 7054774

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S131 Request for trust registration of transfer of right

Free format text: JAPANESE INTERMEDIATE CODE: R313133

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350