[go: up one dir, main page]

JP2016161626A - Control device, program, and projection system - Google Patents

Control device, program, and projection system Download PDF

Info

Publication number
JP2016161626A
JP2016161626A JP2015037920A JP2015037920A JP2016161626A JP 2016161626 A JP2016161626 A JP 2016161626A JP 2015037920 A JP2015037920 A JP 2015037920A JP 2015037920 A JP2015037920 A JP 2015037920A JP 2016161626 A JP2016161626 A JP 2016161626A
Authority
JP
Japan
Prior art keywords
projection
person
part information
head
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015037920A
Other languages
Japanese (ja)
Other versions
JP6354620B2 (en
Inventor
祥司 尾野藤
Shoji Onofuji
祥司 尾野藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015037920A priority Critical patent/JP6354620B2/en
Publication of JP2016161626A publication Critical patent/JP2016161626A/en
Application granted granted Critical
Publication of JP6354620B2 publication Critical patent/JP6354620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control device, a program, and a projection system capable of restricting projection light from a projection device such as a plurality of projectors in accordance with the visual field of a person.SOLUTION: A reproduction control device 6 acquires site information including the positions of a plurality of sites of a person who is present in a three-dimensional space, and generates the three-dimensional model of the head of the person on the basis of the acquired site information, and specifies the visual line direction of the person on the basis of the acquired site information, and sets a projection restriction area on the surface of the three-dimensional model of the head on the basis of the specified visual line direction. Then, the reproduction control device 6 performs projection transformation to the projection restriction area of the three-dimensional model for each two-dimensional plane to which each of a plurality of projectors 5a to 5d projects a video, and determines the projection condition of the video projected by each of the projectors 5a to 5d to the two-dimensional plane on which the projection restriction area is subjected to projection transformation.SELECTED DRAWING: Figure 4

Description

本発明は、複数方向にある投影面に映像を投影する投影システムの技術分野に関する。   The present invention relates to a technical field of a projection system that projects an image on projection surfaces in a plurality of directions.

従来、例えば特許文献1に開示されるように、投射型映像表示装置と、スクリーンと対向する位置にセンサーを設け、投射型映像表示装置とスクリーンの間に、入り込んだ人物の位置のスクリーン面上に対応する領域を判断して、入り込んだ人物の位置に応じたスクリーン面の明るさを変更する技術が知られている。この技術によれば、強い光が人物の眼中に入ることを防ぐことができる。   Conventionally, as disclosed in, for example, Patent Document 1, a sensor is provided at a position facing a projection-type image display device and a screen, and a screen of the position of a person who enters between the projection-type image display device and the screen is provided. A technique is known in which the brightness corresponding to the screen is determined and the brightness of the screen surface is changed according to the position of the person who has entered. According to this technique, it is possible to prevent strong light from entering the human eye.

特開2004−348078号公報JP 2004-348078 A

上述した従来の技術では、人物の位置を検出するためのセンサーにより、人物の有無を示す反応を判断することで、人物の位置を判断している。しかしながら、人物の有無による判断のみでは、人物の視覚に投影光が影響するか否かを正確に判断できない。例えば、複数のプロジェクターを使用する場合、プロジェクターの投影方向に対する人物の向きによっては、人物に投影光が当たっても、人物の視覚に影響しない場合がある。このような場合に、人物の有無による判断で、プロジェクターからの投影光を抑制すると、不要な領域まで、投影光を抑えることとなり、人物の視覚への影響を抑える以上に、投影画像に不要な制限がかかる。   In the conventional technology described above, the position of the person is determined by determining a reaction indicating the presence or absence of the person by a sensor for detecting the position of the person. However, it is not possible to accurately determine whether or not projection light affects a person's vision only by determination based on the presence or absence of the person. For example, when using a plurality of projectors, depending on the orientation of the person relative to the projection direction of the projector, even if the projection light hits the person, there is a case where the human vision is not affected. In such a case, if the projection light from the projector is suppressed based on the presence / absence of a person, the projection light is suppressed to an unnecessary area, which is unnecessary for the projected image more than the effect on the human vision. There are restrictions.

本発明は、以上の点に鑑みてなされたものであり、複数のプロジェクター等の投影装置からの投影光を人物の視界に応じて制限することが可能な制御装置、プログラム、及び投影システムを提供する。   The present invention has been made in view of the above points, and provides a control device, a program, and a projection system capable of limiting projection light from projection devices such as a plurality of projectors according to the field of view of a person. To do.

上記課題を解決するために、請求項1に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置であって、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、を備えることを特徴とする。   In order to solve the above-described problem, the invention described in claim 1 includes a plurality of projection apparatuses that project images from a plurality of arranged different positions onto a projection plane in each direction, and at least one position detection apparatus. A control device used in a projection system comprising: a part including positions of a plurality of parts of a person in a three-dimensional space in a range from the plurality of projection apparatuses to a projection plane based on a detection result of the position detection apparatus From the acquisition means for acquiring information, the generation means for generating a three-dimensional model of the person's head based on the part information acquired by the acquisition means, and the person information from the part information acquired by the acquisition means And a projection restriction region including a region of the line-of-sight direction specified by the specifying unit is provided on a surface of the three-dimensional model of the head generated by the generating unit. And a two-dimensional plane on which each of the plurality of projection devices projects an image with reference to the position of each of the plurality of projection devices. Conversion means for projecting and converting, and determining means for determining a projection condition of an image projected by the projection device that projects the projection restricted region onto the two-dimensional plane that has been projected and transformed by the converting means. Features.

請求項2に記載の発明は、請求項1に記載の制御装置において、前記設定手段は、前記視線方向を基準とする前記人物の視界の範囲を、前記3次元モデルの表面に投影制限領域として設定することを特徴とする。   According to a second aspect of the present invention, in the control device according to the first aspect, the setting means uses the range of the field of view of the person relative to the line-of-sight direction as a projection restricted region on the surface of the three-dimensional model. It is characterized by setting.

請求項3に記載の発明は、請求項1または2に記載の制御装置において、前記取得手段は、前記人物の頭部の位置と、前記人物の右肩部の位置と、前記人物の左肩部の位置とを含む前記部位情報を取得するものであり、前記部位情報の中で、前記人物の頭部に対応する前記部位情報と、前記人物の右肩部に対応する前記部位情報と、前記人物の左肩部に対応する前記部位情報とに基づいて、法線ベクトルを算出する算出手段を更に備え、前記特定手段は、前記算出手段により算出された法線ベクトルの方向を前記視線方向として特定することを特徴とする。   According to a third aspect of the present invention, in the control device according to the first or second aspect, the acquisition means includes the position of the head of the person, the position of the right shoulder of the person, and the left shoulder of the person. The part information including the position of the part, in the part information, the part information corresponding to the head of the person, the part information corresponding to the right shoulder of the person, The image processing apparatus further includes a calculation unit that calculates a normal vector based on the part information corresponding to the left shoulder of the person, and the specifying unit specifies the direction of the normal vector calculated by the calculation unit as the line-of-sight direction. It is characterized by doing.

請求項4に記載の発明は、請求項1または2に記載の制御装置において、前記部位情報は、前記部位の回転角であって、前記部位に連結される他の部位を基準とする回転角を含み、前記部位情報のそれぞれに含まれる前記回転角に基づいて、前記頭部の回転角を算出する算出手段を更に備え、前記特定手段は、前記算出手段により算出された回転角から前記視線方向を特定することを特徴とする。   According to a fourth aspect of the present invention, in the control device according to the first or second aspect, the part information is a rotation angle of the part, and a rotation angle based on another part connected to the part. And calculating means for calculating a rotation angle of the head based on the rotation angle included in each of the part information, wherein the specifying means is configured to calculate the line of sight from the rotation angle calculated by the calculation means. It is characterized by specifying a direction.

請求項5に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置に用いられるコンピュータに実行させるプログラムであって、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得ステップと、前記取得ステップにより取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成ステップと、前記取得ステップにより取得された部位情報から、前記人物の視線方向を特定する特定ステップと、前記生成ステップにより生成された頭部の3次元モデルの表面に、前記特定ステップにより特定された視線方向の領域を含む投影制限領域を設定する設定ステップと、前記設定ステップにより設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換ステップと、前記変換ステップにより前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定ステップと、をコンピュータに実行させることを特徴とする。   The invention according to claim 5 is used in a projection system including a plurality of projection apparatuses that project images onto a projection plane in each direction from a plurality of different positions arranged, and at least one position detection apparatus. A program to be executed by a computer used in a control device, including a position including a plurality of positions of a person in a three-dimensional space in a range from the plurality of projection devices to a projection plane based on a detection result of the position detection device From the acquisition step of acquiring information, the generation step of generating a three-dimensional model of the head of the person based on the part information acquired by the acquisition step, and the part information acquired by the acquisition step, the person A specifying step of specifying the line-of-sight direction and a surface of the three-dimensional model of the head generated by the generating step according to the specifying step. A setting step of setting a projection restriction region including a region of the identified line-of-sight direction; and the projection restriction region of the three-dimensional model set by the setting step with reference to the position of each of the plurality of projection devices. A conversion step of performing projection conversion for each two-dimensional plane on which an image is projected by each of the plurality of projection devices, and an image projected by the projection device that projects the projection-restricted region on the two-dimensional plane that has been transformed by the conversion step And a determination step of determining the projection conditions of the computer.

請求項6に記載の発明は、配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムであって、前記投映システムが備える制御装置は、前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、前記取得手段により取得された部位情報から、前記人物の頭部の3次元モデルを生成する生成手段と、前記取得手段により取得された部位情報に基づいて、前記人物の視線方向を特定する特定手段と、前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、を備えることを特徴とする。   The invention according to claim 6 is a projection system comprising a plurality of projection devices that project images onto a projection surface in each direction from a plurality of different positions arranged, and at least one position detection device. The control device included in the projection system acquires part information including the positions of a plurality of parts of a person in a three-dimensional space in a range from the plurality of projection apparatuses to the projection plane from the detection result of the position detection apparatus. Based on the acquisition unit, the generation unit that generates the three-dimensional model of the person's head from the part information acquired by the acquisition unit, and the part information acquired by the acquisition unit, the line-of-sight direction of the person is determined. A specifying unit for specifying, and a setting for setting a projection restriction region including a region in the line-of-sight direction specified by the specifying unit on the surface of the three-dimensional model of the head generated by the generating unit And the projection-restricted region of the three-dimensional model set by the setting unit is projected for each two-dimensional plane on which each of the plurality of projection devices projects an image with reference to the position of each of the plurality of projection devices. Conversion means for converting, and determination means for determining a projection condition of an image projected by the projection device that projects the two-dimensional plane on which the projection restricted region is projected and converted by the conversion means. To do.

請求項1、5、6に記載の発明によれば、複数の投影装置からの投影光を人物の視線方向に応じて制限することができる。   According to the first, fifth, and sixth aspects of the invention, it is possible to limit the projection light from the plurality of projection devices according to the line-of-sight direction of the person.

請求項2に記載の発明によれば、複数の投影装置からの投影光を人物の視界に応じて制限することができる。   According to the second aspect of the present invention, it is possible to limit the projection light from the plurality of projection devices according to the field of view of the person.

請求項3に記載の発明によれば、頭部の位置、左肩部の位置、及び右肩部の位置から、迅速に視線方向を特定ことができる。   According to the third aspect of the present invention, the line-of-sight direction can be quickly identified from the position of the head, the position of the left shoulder, and the position of the right shoulder.

請求項4に記載の発明によれば、より精度の高い視線方向を特定することができる。   According to the fourth aspect of the present invention, it is possible to specify a more accurate line-of-sight direction.

本実施形態の投影システムSの概要構成例を示す図である。It is a figure which shows the example of a schematic structure of the projection system S of this embodiment. (A)は、投影システムSが利用される部屋の上方から見た部屋内に配置された装置の位置関係の一例を表す図であり、(B)は、投影システムSが利用される部屋の矢印Dが示す側方から見た部屋内に配置された装置の位置関係の一例を表す図である。(A) is a figure showing an example of the positional relationship of the apparatus arrange | positioned in the room seen from the upper direction of the room where the projection system S is used, (B) is the room of the room where the projection system S is used. It is a figure showing an example of the positional relationship of the apparatus arrange | positioned in the room seen from the side which the arrow D shows. (A)は、人物の骨格を形成する複数の部位の一例を示す図であり、(B)は、頭部の位置a、左肩部の位置b、及び右肩部の位置cにより決まる法線ベクトルの一例を示す図である。(A) is a figure which shows an example of the some site | part which forms a person's skeleton, (B) is a normal line determined by the position a of the head, the position b of the left shoulder, and the position c of the right shoulder It is a figure which shows an example of a vector. 本実施形態の再生制御装置6の投影制御処理の一例を示すフローチャートである。It is a flowchart which shows an example of the projection control process of the reproduction | regeneration control apparatus 6 of this embodiment. (A)は、部屋内にいる人物の視界の一例を示す図であり、(B)は、人物の頭部の3次元モデルを頭頂部方向から見た図であり、(C)は、人物の頭部の3次元モデルを顔の側面方向から見た図である。(A) is a figure which shows an example of the visual field of the person in a room, (B) is the figure which looked at the three-dimensional model of the person's head from the head part direction, (C) is a person It is the figure which looked at the three-dimensional model of the head from the side of the face. 3次元座標系における投影制限領域がプロジェクター5a〜5dの2次元平面に射影される様子の一例を示す概念図である。It is a conceptual diagram which shows an example of a mode that the projection restriction | limiting area | region in a three-dimensional coordinate system is projected on the two-dimensional plane of projector 5a-5d. 本実施形態の投影制御処理の効果の一つを説明する図である。It is a figure explaining one of the effects of the projection control process of this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[1.投影システムの構成及び動作概要]
始めに、図1等を参照して、本実施形態の投影システムSの構成及び動作概要について説明する。投影システムSは、図1に示すように、表示・操作デバイス1、楽曲再生装置2、カメラ3、映像再生装置4a〜4e、プロジェクター5a〜5e、及び再生制御装置6等を備えて構成される。ここで、プロジェクター5a〜5eは、投影装置の一例である。再生制御装置6は、制御装置の一例である。投影システムSは、例えばカラオケ店舗等のアミューズメント施設における部屋で利用される。表示・操作デバイス1、楽曲再生装置2、及びカメラ3は、それぞれ、有線または無線を介して再生制御装置6と接続される。映像再生装置4a〜4e、及びプロジェクター5a〜5eは、それぞれ、有線LAN(Local Area Network)または無線LAN、及びハブ等を介して再生制御装置6と接続される。さらに、プロジェクター5a〜5eは、それぞれ、有線または無線を介して映像再生装置4a〜4eと接続される。
[1. Outline of Projection System Configuration and Operation]
First, with reference to FIG. 1 etc., the structure and operation | movement outline | summary of the projection system S of this embodiment are demonstrated. As shown in FIG. 1, the projection system S includes a display / operation device 1, a music playback device 2, a camera 3, video playback devices 4a to 4e, projectors 5a to 5e, a playback control device 6, and the like. . Here, the projectors 5a to 5e are examples of a projection device. The reproduction control device 6 is an example of a control device. The projection system S is used in a room in an amusement facility such as a karaoke store. The display / operation device 1, the music playback device 2, and the camera 3 are connected to the playback control device 6 via a wired or wireless connection, respectively. The video reproduction apparatuses 4a to 4e and the projectors 5a to 5e are connected to the reproduction control apparatus 6 via a wired LAN (Local Area Network) or a wireless LAN, a hub, and the like, respectively. Further, the projectors 5a to 5e are connected to the video reproduction devices 4a to 4e, respectively, via wired or wireless.

図2(A)に示すように、プロジェクター5a〜5dは、それぞれ、壁面a〜dのうちいずれか2つの壁面に映像を投影するように配置されている。つまり、プロジェクター5a〜5dは、それぞれ異なる位置に配置された複数の位置から、それぞれの投影方向へ向けて、それぞれの投影角θa〜θdに収まる投影範囲の投影面に映像を投影する。このとき、プロジェクター5a〜5dは、それぞれ2つの壁面を含む投影面に映像を投影する。図2(A)の例では、人物の前後左右の4つの壁面a〜dが投影面である。プロジェクター5cが、矩形の部屋の壁面cと壁面bとの角に配置されるとき、部屋の対角を含む壁面aの一部領域と壁面dの一部領域とに映像が投影される。プロジェクター5dが、矩形の部屋の壁面cと壁面dとの角に配置されるとき、部屋の対角を含む壁面aの一部領域と壁面bの一部領域とに映像が投影される。プロジェクター5a〜5dは、互いの投影領域の一部を重ならせて、それぞれいずれか2つの壁面に映像を投影する。なお、図2(A)の例では、複数のプロジェクター5a〜5d間で、映像が投影される投影面の一部が重複している。この結果、プロジェクター5a〜5dにより、矩形の部屋の側壁面の全周に映像を投影させることができる。しかし、映像が投影される投影面が、複数のプロジェクター5a〜5d間で重複しないように、投影方向または投影角θa〜θdが設定されてもよい。また、プロジェクター5a〜5dは、それぞれ特定の1つの投影面に映像を投影するものであってもよい。また、投影面は、部屋の天井面及び床面にあってもよい。   As shown in FIG. 2A, the projectors 5a to 5d are arranged to project images on any two wall surfaces of the wall surfaces a to d, respectively. In other words, the projectors 5a to 5d project images from a plurality of positions arranged at different positions onto the projection surfaces in the projection ranges that fall within the respective projection angles θa to θd in the respective projection directions. At this time, each of the projectors 5a to 5d projects an image on a projection plane including two wall surfaces. In the example of FIG. 2 (A), four wall surfaces a to d on the front, rear, left and right of the person are projection surfaces. When the projector 5c is arranged at a corner between the wall surface c and the wall surface b of the rectangular room, an image is projected onto a partial region of the wall surface a and a partial region of the wall surface d including the diagonal of the room. When the projector 5d is arranged at the corner between the wall surface c and the wall surface d of the rectangular room, an image is projected onto a partial area of the wall surface a and a partial area of the wall surface b including the diagonal of the room. The projectors 5a to 5d project images on any two wall surfaces by overlapping a part of each projection area. In the example of FIG. 2A, a part of the projection surface onto which the image is projected overlaps between the plurality of projectors 5a to 5d. As a result, it is possible to project an image on the entire circumference of the side wall surface of the rectangular room by the projectors 5a to 5d. However, the projection direction or the projection angles θa to θd may be set so that the projection plane onto which the video is projected does not overlap between the plurality of projectors 5a to 5d. In addition, each of the projectors 5a to 5d may project an image on one specific projection plane. The projection plane may be on the ceiling surface and floor surface of the room.

また、図2(A)に示すように、プロジェクター5eは、壁面dに設置されたスクリーンScに映像を投影するように配置(例えば、図2(B)に示すように、天井に配置)されている。つまり、プロジェクター5eは、配置された位置から、投影角θeに収まる範囲の方向にあるスクリーンSc上の投影面に映像を投影する。図2の例では、スクリーンSc上の投影面には、プロジェクター5b,5cからの映像も投影される。しかし、プロジェクター5b,5cから投影する映像には、プロジェクター5eから投影する映像に悪い影響を及ぼさない映像が設定される。悪い影響とは、例えば、プロジェクター5b,5cが、黒色などの透明度が低い映像を大きい領域面積に投影することにより、プロジェクター5eから投影されるスクリーンSc上の投影映像を塗りつぶしてしまうことを指す。図2の例では、人物はスクリーンScがある方向(図2(A)に示す視線方向)を向いており、スクリーンScに投影された映像を見ている。カメラ3は、図2(A),(B)に示すように、壁面dに設置されており、カメラ3の画角θに収まる範囲を撮像する。例えば、カメラ3により撮像された映像が、プロジェクター5eによりスクリーンScに投影される。楽曲再生装置2により楽曲が再生中である場合、その楽曲の歌詞テロップがカメラ3により撮像された映像に重畳されて、プロジェクター5eによりスクリーンScに投影される。これにより、図2の例では、スクリーンScを見る人物が、カメラ3が設置された壁dに対してその正面からカメラ3により撮像される。   As shown in FIG. 2A, the projector 5e is arranged so as to project an image on the screen Sc installed on the wall surface d (for example, arranged on the ceiling as shown in FIG. 2B). ing. That is, the projector 5e projects an image on the projection surface on the screen Sc in the direction of the range within the projection angle θe from the arranged position. In the example of FIG. 2, the images from the projectors 5b and 5c are also projected on the projection surface on the screen Sc. However, the video projected from the projectors 5b and 5c is set to a video that does not adversely affect the video projected from the projector 5e. The bad influence means that, for example, the projectors 5b and 5c project a projected image on the screen Sc projected from the projector 5e by projecting a low transparency image such as black on a large area area. In the example of FIG. 2, the person is facing the direction in which the screen Sc is present (the direction of the line of sight shown in FIG. 2A), and is viewing the image projected on the screen Sc. As shown in FIGS. 2A and 2B, the camera 3 is installed on the wall surface d and images a range that falls within the angle of view θ of the camera 3. For example, an image captured by the camera 3 is projected onto the screen Sc by the projector 5e. When music is being played by the music playback device 2, the lyrics telop of the music is superimposed on the video imaged by the camera 3 and projected onto the screen Sc by the projector 5e. Thereby, in the example of FIG. 2, the person who sees the screen Sc is imaged by the camera 3 from the front of the wall d on which the camera 3 is installed.

なお、図2の例では、5つの映像再生装置4a〜4e、及び5つのプロジェクター5a〜5eを示しているが、映像再生装置とプロジェクターは、それぞれ、1つ以上4つ以下、或いは6つ以上であってもよい。また、図1の例では、映像再生装置とプロジェクターとは1対1で対応しているが、1対N(Nは2以上の自然数)で対応してもよい。例えば、1つの映像再生装置に複数のプロジェクターが接続されてもよい。映像再生装置が1つである場合、映像再生装置が映像再生手段(ハードウェアまたはソフトウェアにより構成される)として再生制御装置6内に組み込まれていてもよい。   In the example of FIG. 2, five video playback devices 4 a to 4 e and five projectors 5 a to 5 e are shown. However, the video playback devices and the projectors are one or more, four or less, or six or more, respectively. It may be. In the example of FIG. 1, the video playback device and the projector correspond one-to-one, but may correspond to one-to-N (N is a natural number of 2 or more). For example, a plurality of projectors may be connected to one video reproduction device. When there is one video playback device, the video playback device may be incorporated in the playback control device 6 as video playback means (configured by hardware or software).

表示・操作デバイス1には、例えば、表示画面を備えるタッチパネルディスプレイが用いられる。表示・操作デバイス1は、例えば、楽曲再生装置2のリモコンであってもよい。なお、表示・操作デバイス1は、楽曲再生装置2または再生制御装置6に組み込まれていてもよい。この場合、例えば、表示・操作デバイス1は、楽曲再生装置2または再生制御装置6と一体に形成された表示ディスプレイである。表示・操作デバイス1は、プロジェクター5a〜5dで投影する映像の選択候補となる映像のタイトル等や、楽曲再生装置2で再生する楽曲の選択候補となる楽曲のタイトル等を表示画面に表示する。表示・操作デバイス1は、ユーザによる選択操作に応じて映像の選択または楽曲の選択を行う。表示・操作デバイス1は、例えば、選択された映像を識別する映像IDを再生制御装置6へ送信する。また、表示・操作デバイス1は、例えば、選択された楽曲を識別する楽曲IDを再生制御装置6へ送信する。再生制御装置6へ送信された楽曲IDは、例えば、再生制御装置6から楽曲再生装置2へ送信される。なお、表示・操作デバイス1は、例えば、選択された楽曲を識別する楽曲IDを楽曲再生装置2へ送信してもよい。   As the display / operation device 1, for example, a touch panel display including a display screen is used. The display / operation device 1 may be, for example, a remote controller of the music playback device 2. The display / operation device 1 may be incorporated in the music playback device 2 or the playback control device 6. In this case, for example, the display / operation device 1 is a display unit formed integrally with the music playback device 2 or the playback control device 6. The display / operation device 1 displays, on the display screen, titles of videos that are candidates for selection of videos projected by the projectors 5a to 5d, titles of songs that are candidates for selection of music to be played back by the music playback device 2, and the like. The display / operation device 1 selects a video or a song according to a selection operation by the user. For example, the display / operation device 1 transmits a video ID for identifying the selected video to the reproduction control device 6. Further, the display / operation device 1 transmits, for example, a music ID for identifying the selected music to the reproduction control device 6. The music ID transmitted to the reproduction control device 6 is transmitted from the reproduction control device 6 to the music reproduction device 2, for example. The display / operation device 1 may transmit a music ID for identifying the selected music to the music playback device 2, for example.

楽曲再生装置2は、楽曲を再生する装置である。楽曲再生装置2は、複数の楽曲ファイルを記憶部に記憶する。楽曲ファイルは、カラオケ曲等の楽曲の楽曲データを格納する。各楽曲ファイルには、例えば、楽曲を識別する楽曲IDが対応付けられる。楽曲再生装置2は、表示・操作デバイス1または再生制御装置6から送信された楽曲IDを受信すると、受信した楽曲IDが示す楽曲データを再生し、その楽曲信号をスピーカ(図示せず)へ出力する。なお、楽曲再生装置2がカラオケコマンダである場合、楽曲再生装置2には、上記楽曲信号と、マイク(図示せず)により集音されたユーザ(例えば、図2に示す人物)の歌唱音声信号とをミキシングしてスピーカ(図示せず)へ出力するミキシングアンプが備えられる。   The music playback device 2 is a device for playing back music. The music reproducing device 2 stores a plurality of music files in the storage unit. The music file stores music data of music such as karaoke music. Each music file is associated with, for example, a music ID for identifying the music. Upon receiving the music ID transmitted from the display / operation device 1 or the playback control device 6, the music playback device 2 plays the music data indicated by the received music ID and outputs the music signal to a speaker (not shown). To do. When the music playback device 2 is a karaoke commander, the music playback device 2 includes the music signal and a singing voice signal of a user (for example, a person shown in FIG. 2) collected by a microphone (not shown). Are mixed and output to a speaker (not shown).

カメラ3には、例えば、RGBカメラ及び深度カメラが用いられる。深度カメラは、位置検出装置の一例である。深度カメラは、例えば赤外線レーザなどによる深度センサーである。深度カメラにより、部屋内における撮像範囲の各位置までの深度を含む位置情報を示すデプス画像が取得される。図2の例の場合、この位置情報には、プロジェクター5a〜5dから投影面までの範囲の3次元空間にいる人物の複数の部位の位置を示す部位情報を含む。人物の複数の部位の位置を示す部位情報は、例えば、部位ごとに、位置座標が対応付けられた情報であり、デプス画像に示される撮像範囲の各位置までの深度から特定することが可能である。具体的には、深度カメラにより取得された撮像範囲の各位置までの深度を、人物の各部位の位置を判断するための人物位置パターンデータと比較することにより、人物の各部位およびその位置が特定される。デプス画像の深度と比較される人物位置パターンデータは、例えば、予め所定のデータベース等に記憶された多数の種類の人物位置パターンから、デプス画像の各位置の深度に応じた所定のパターンデータが読み出して用いられる。なお、各位置までの深度から、求められる人間の複数の部位の位置は、再生制御装置6により特定されてもよい。図3(A)の例では、人物の骨格を形成する部位として、頭部a、左肩部b、右肩部c、左肘部d、右肘部e、左手部f、右手部g、首部h、胴部i、腰部j、左尻部k、右尻部l、左膝部m、右膝部n、左足部o、及び右足部pを示している。このような部位情報には、図3(A)に示すように、部位の回転角Θが含まれる場合もある。部位の回転角Θとは、その部位に連結される他の部位を基準とする回転角である。もしくは、その部位と間接的に連結される特定の部位の位置を基準とした回転角であってもよい。例えば、頭部aの回転角Θは、頭部aに連結される首部hを基準とする回転角である。首部hの回転角Θは、首部hに連結される胴部iを基準とする回転角である。すなわち、頭部aの回転角Θは、胴部iを基準とする回転角とすることもできる。回転角Θを含む部位情報は(X,Y,Z,Θ)というように表される。なお、上記位置情報には、図3(A)に示す骨格を形成する部位の他にも部位の位置を示す部位情報が含まれてもよい。例えば、図3(A)に示す頭部aの位置は、人物の頭を球体としたときの中心(3次元座標)を示すが、人物の頭の表面上にある複数の部位それぞれの位置を示す部位情報が含まれてもよい。カメラ3は、カメラ3の画角θに収まる撮像範囲を例えば連続的に撮像し、その撮像結果を再生制御装置6へ送信する。この撮像結果には、RGB画像及びデプス画像が含まれる。   As the camera 3, for example, an RGB camera and a depth camera are used. The depth camera is an example of a position detection device. The depth camera is a depth sensor such as an infrared laser. A depth image indicating position information including the depth to each position of the imaging range in the room is acquired by the depth camera. In the case of the example in FIG. 2, this position information includes part information indicating the positions of a plurality of parts of a person in a three-dimensional space in the range from the projectors 5 a to 5 d to the projection plane. The part information indicating the positions of a plurality of parts of a person is, for example, information in which position coordinates are associated with each part, and can be specified from the depth to each position of the imaging range indicated in the depth image. is there. Specifically, by comparing the depth to each position of the imaging range acquired by the depth camera with the person position pattern data for determining the position of each part of the person, each part of the person and its position are determined. Identified. As the person position pattern data to be compared with the depth of the depth image, for example, predetermined pattern data corresponding to the depth of each position of the depth image is read out from many types of person position patterns stored in advance in a predetermined database or the like. Used. Note that the positions of a plurality of human parts to be obtained may be specified by the reproduction control device 6 based on the depth to each position. In the example of FIG. 3A, the head skeleton, the left shoulder b, the right shoulder c, the left elbow d, the right elbow e, the left hand f, the right hand g, and the neck are formed as the parts forming the human skeleton. h, torso i, waist j, left hip k, right hip l, left knee m, right knee n, left foot o, and right foot p are shown. Such part information may include the rotation angle Θ of the part as shown in FIG. The rotation angle Θ of a part is a rotation angle based on another part connected to the part. Alternatively, the rotation angle may be based on the position of a specific part indirectly connected to the part. For example, the rotation angle Θ of the head a is a rotation angle with respect to the neck h connected to the head a. The rotation angle Θ of the neck portion h is a rotation angle with respect to the body portion i connected to the neck portion h. That is, the rotation angle Θ of the head a can also be a rotation angle with the trunk portion i as a reference. The part information including the rotation angle Θ is expressed as (X, Y, Z, Θ). Note that the position information may include part information indicating the position of the part in addition to the part forming the skeleton illustrated in FIG. For example, the position of the head a shown in FIG. 3A indicates the center (three-dimensional coordinates) when the head of the person is a sphere, but the positions of a plurality of parts on the surface of the person's head are shown. The site | part information to show may be contained. The camera 3 continuously captures an imaging range that falls within the angle of view θ of the camera 3, for example, and transmits the imaging result to the reproduction control device 6. This imaging result includes an RGB image and a depth image.

映像再生装置4a〜4eは、映像を再生する装置である。映像には、静止画像と動画像とがある。動画像は、例えば複数の静止画の画像フレームを時系列で切り替えて表示する。映像再生装置4a〜4eは、それぞれ、例えば再生制御装置6から指示された映像データを再生する。映像再生装置4a〜4eは、それぞれ、再生制御装置6から指示された映像データを再生し、その映像信号をプロジェクター5a〜5eへ出力する。再生する映像データは、映像再生装置4a〜4eそれぞれの図示しない記憶部に記憶される。映像再生装置4a〜4dは、例えば、後述する再生制御装置6の記憶部62に記憶される投影対象のオリジナル映像から、対応するプロジェクター5a〜5d毎にそれぞれの投影範囲の領域を切り出すことにより、プロジェクター5a〜5dそれぞれに対応する映像再生装置4a〜4dが再生する映像データを生成し、記憶部に記憶する。あるいは、映像再生装置4a〜4eが、再生する映像データを再生制御装置6の記憶部から取得してもよい。映像データを再生するとき、映像再生装置4a〜4dは、カメラ3により撮像された人物の視界の範囲を、後述する再生制御装置6からマスクデータとして取得する。映像再生装置4a〜4dは、映像データに、取得したマスクデータを合成した映像を再生する。プロジェクター5a〜5eは、それぞれ、映像再生装置4a〜4eにより再生出力された映像信号に応じた光を発光部から発することにより映像を出力する。これにより、プロジェクター5a〜5eは、それぞれの投影角θa〜θeに収まる範囲の方向にある投影面に映像を投影する。また、プロジェクター5a〜5eは、それぞれ、再生制御装置6からの制御信号に応じて、例えば、電源をオン又はオフを行ったり、投影方向や投影角θa〜θeを変更する。   The video playback devices 4a to 4e are devices that play back video. The video includes a still image and a moving image. For example, a moving image is displayed by switching image frames of a plurality of still images in time series. Each of the video reproduction devices 4a to 4e reproduces video data instructed from the reproduction control device 6, for example. The video reproduction devices 4a to 4e reproduce the video data instructed from the reproduction control device 6 and output the video signals to the projectors 5a to 5e, respectively. The video data to be reproduced is stored in a storage unit (not shown) of each of the video reproduction devices 4a to 4e. The video playback devices 4a to 4d, for example, cut out the areas of the respective projection ranges for the corresponding projectors 5a to 5d from the original video to be projected stored in the storage unit 62 of the playback control device 6 to be described later. Video data to be played back by the video playback devices 4a to 4d corresponding to the projectors 5a to 5d is generated and stored in the storage unit. Alternatively, the video reproduction devices 4 a to 4 e may acquire the video data to be reproduced from the storage unit of the reproduction control device 6. When reproducing the video data, the video reproduction devices 4a to 4d acquire the range of the field of view of the person imaged by the camera 3 from the reproduction control device 6 described later as mask data. The video playback devices 4a to 4d play back video in which the acquired mask data is combined with the video data. The projectors 5a to 5e output images by emitting light corresponding to the image signals reproduced and output by the image reproducing devices 4a to 4e, respectively. Thereby, the projectors 5a to 5e project images on the projection planes in the direction of the range within the respective projection angles θa to θe. Further, the projectors 5a to 5e, for example, turn on or off the power, or change the projection direction or the projection angles θa to θe, for example, according to the control signal from the reproduction control device 6.

再生制御装置6は、楽曲の再生制御、及び映像の投影制御等を行う装置である。再生制御装置6は、図1に示すように、IF61a〜61d、記憶部62、及び制御部63を備える。IF61a〜61d、記憶部62、及び制御部63は、バス64に接続されている。IF61aは、楽曲再生装置2と再生制御装置6との間のインターフェースである。IF61bは、表示・操作デバイス1と再生制御装置6との間のインターフェースである。IF61cは、カメラ3と再生制御装置6との間のインターフェースである。IF61dは、LANとのインターフェースである。   The playback control device 6 is a device that performs music playback control, video projection control, and the like. As shown in FIG. 1, the reproduction control device 6 includes IFs 61 a to 61 d, a storage unit 62, and a control unit 63. The IFs 61 a to 61 d, the storage unit 62, and the control unit 63 are connected to the bus 64. The IF 61 a is an interface between the music playback device 2 and the playback control device 6. The IF 61 b is an interface between the display / operation device 1 and the reproduction control device 6. The IF 61 c is an interface between the camera 3 and the playback control device 6. The IF 61d is an interface with the LAN.

記憶部62は、例えばハードディスクドライブにより構成される。記憶部62には、OS(Operating System)、及び本発明のプログラム等が記憶される。本発明のプログラムは、後述する制御処理をCPUに実行させるプログラムである。また、記憶部62には、プロジェクター5a〜5dにより投影される映像の元データとなるオリジナル映像の映像ファイルを記憶する。オリジナル映像の例として、アーティストのプロモーション映像、企業または商品の広告映像などが挙げられる。制御部63は、コンピュータとしてのCPU(Center Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。制御部63は、本発明の取得手段、生成手段、特定手段、設定手段、変換手段、決定手段、及び算出手段の一例である。制御部63は、本発明のプログラムに従って投影制御処理を実行する。   The storage unit 62 is configured by, for example, a hard disk drive. The storage unit 62 stores an OS (Operating System), the program of the present invention, and the like. The program of the present invention is a program for causing a CPU to execute a control process described later. Further, the storage unit 62 stores a video file of an original video that is original data of a video projected by the projectors 5a to 5d. Examples of original videos include artist promotional videos, company or product advertising videos, and the like. The control unit 63 includes a CPU (Center Processing Unit) as a computer, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The control unit 63 is an example of an acquisition unit, a generation unit, a specification unit, a setting unit, a conversion unit, a determination unit, and a calculation unit according to the present invention. The control unit 63 executes projection control processing according to the program of the present invention.

[2.再生制御装置6の投影制御処理]
次に、図4等を参照して、本実施形態の再生制御装置6の投影制御処理について説明する。例えば部屋に入った利用者(人物)が表示・操作デバイス1を操作して所望の映像(オリジナル映像)を選択すると、選択された映像の映像IDが再生制御装置6へ送信される。再生制御装置6は、表示・操作デバイス1から映像IDを受信すると、受信した映像IDに対応する映像の映像ファイルを、再生させるデータとして映像再生装置4a〜4eに指示し、図4に示す投影制御処理を開始する。このように、利用者により選択された映像が投影対象となる。なお、投影対象となる映像は、デフォルト設定されたものであってもよい。この場合、再生制御装置6は、例えば部屋に入った利用者が表示・操作デバイス1を操作することで表示・操作デバイス1から出力された操作信号を受信すると、図4に示す投影制御処理を開始する。
[2. Projection Control Processing of Reproduction Control Device 6]
Next, with reference to FIG. 4 etc., the projection control process of the reproduction | regeneration control apparatus 6 of this embodiment is demonstrated. For example, when a user (person) entering the room operates the display / operation device 1 to select a desired video (original video), the video ID of the selected video is transmitted to the playback control device 6. When receiving the video ID from the display / operation device 1, the playback control device 6 instructs the video playback devices 4a to 4e to play back video files corresponding to the received video ID as data to be played back, and the projection shown in FIG. Control processing is started. In this way, the video selected by the user is the projection target. Note that a video to be projected may be a default setting. In this case, for example, when the user who enters the room receives the operation signal output from the display / operation device 1 by operating the display / operation device 1, the reproduction control device 6 performs the projection control process shown in FIG. 4. Start.

図4に示す投影制御処理が開始されると、制御部63は、カメラ3により撮像された撮像結果を所定時間間隔でカメラ3から受信し、受信された撮像結果(デプス画像)から、人物の部位情報を取得する(ステップS1)。具体的には、カメラ3から、人物の複数の部位について、部位ごとに、部位と対応付けられた位置座標が、部位情報として取得される。あるいは、ステップS1において、制御部63は、カメラ3から撮像結果(デプス画像)を受信し、撮像結果(デプス情報)から、前述した人物位置パターンデータと比較されることにより、人物の複数の部位について、部位ごとに位置座標が特定される。部位情報として、例えば、図3(A)に示す人物の骨格である、頭部a、左肩部b、右肩部c、左肘部d、右肘部e、左手部f、右手部g、首部h、胴部i、腰部j、左尻部k、右尻部l、左膝部m、右膝部n、左足部o、及び右足部pのそれぞれについて、各部位と対応付けて位置座標が決定される。なお、部位情報は、複数の部位のうちの一部の部位が推定値であってもよい。また、部位情報は、複数の部位のうち、頭部または右肩部及び左肩部を含む一部の部位についてのみ取得されてもよい。次いで、制御部63は、ステップS1で取得した部位情報から、人物の頭部に対応する部位情報を取得する(ステップS2)。次いで、制御部63は、ステップS2で取得された部位情報から、人物の頭部の3次元モデルを生成する(ステップS3)。例えば、制御部63は、頭部の位置(頭部の3次元座標)を中心とする予定サイズの球体(または楕円体)を、人物の頭部の3次元モデルとして生成する。この3次元モデルは、例えば、人物の頭の表面上にある複数の部位それぞれの座標の集合により構成される。なお、制御部63は、ステップS1で取得した部位情報から、人物の頭の表面上にある複数の部位それぞれの位置を示す部位情報を取得し、取得した各部位情報が示す位置(3次元座標)から人物の頭部の3次元モデルを生成してもよい。このとき、制御部63は、人物の頭の表面上の各部位情報を時系列で連続して、時系列で取得した各部位情報に基づいて3次元モデルを生成してもよい。また、このとき、制御部63は、カメラ3により時系列で複数撮像した画像を解析することで、各部位情報の時系列の動きの遷移から人物の正面を判断してもよい。   When the projection control process shown in FIG. 4 is started, the control unit 63 receives the imaging result captured by the camera 3 from the camera 3 at predetermined time intervals, and from the received imaging result (depth image), Part information is acquired (step S1). Specifically, for each of a plurality of parts of a person, position coordinates associated with the part are acquired from the camera 3 as part information. Alternatively, in step S <b> 1, the control unit 63 receives an imaging result (depth image) from the camera 3, and compares the result of imaging (depth information) with the above-described person position pattern data, thereby providing a plurality of parts of the person. , Position coordinates are specified for each part. As the part information, for example, the head a, the left shoulder b, the right shoulder c, the left elbow d, the right elbow e, the left hand f, the right hand g, which are the human skeleton shown in FIG. Position coordinates of the neck h, the torso i, the waist j, the left hip k, the right hip l, the left knee m, the right knee n, the left foot o, and the right foot p in association with each part. Is determined. Note that the part information may be an estimated value of a part of a plurality of parts. Further, the part information may be acquired only for a part of the plurality of parts including the head or the right shoulder and the left shoulder. Next, the control unit 63 acquires part information corresponding to the head of the person from the part information acquired in step S1 (step S2). Next, the control unit 63 generates a three-dimensional model of the person's head from the part information acquired in step S2 (step S3). For example, the control unit 63 generates a sphere (or ellipsoid) of a predetermined size centered on the position of the head (three-dimensional coordinates of the head) as a three-dimensional model of the person's head. This three-dimensional model is composed of, for example, a set of coordinates of a plurality of parts on the surface of a person's head. The control unit 63 acquires part information indicating the position of each of a plurality of parts on the surface of the person's head from the part information acquired in step S1, and the position (three-dimensional coordinate) indicated by each acquired part information. ) To generate a three-dimensional model of a person's head. At this time, the control unit 63 may generate the three-dimensional model based on each piece of part information acquired in time series, with each piece of part information on the surface of the person's head being continuous in time series. At this time, the control unit 63 may determine the front of the person from the time-series movement transition of each part information by analyzing a plurality of images captured in time series by the camera 3.

次いで、制御部63は、ステップS1で取得された部位情報から、人物の顔の法線ベクトルを取得できるか否かを判定する(ステップS4)。例えば、ステップS1で取得された部位情報に、人物の骨格を形成する所定数以上の部位の部位情報が含まれるとき、人物の顔の法線ベクトルを取得できると判定される。例えば、人物の顔の法線ベクトルは、頭部の回転角Θから算出することができる。ここで、頭部の回転角Θは、頭部に連結される首部の回転角Θを基準として算出される。首部の回転角Θは、胴部iの回転角Θを基準とする回転角である。つまり、頭部の回転角Θは、他の部位の回転角Θに基づいて所定の演算により算出される。このため、より多くの部位(例えば、左足部及び右足部から頭部まで)の部位情報が得られれば、それだけ精度の高い回転角Θを得ることができ、その結果、人物の顔の法線ベクトルの精度も向上する。あるいは、ステップS4において、カメラ3から受信された撮像結果(デプス画像)の深度と、ステップS2において取得された頭部の部位情報とにより、頭部の顔面に相当する位置の深度から、例えば鼻等の顔の所定の部位の位置が特定可能であるとき、人物の顔の法線ベクトルを取得できると判定されてもよい。従って、ステップS1で取得された部位情報から、人物の顔の法線ベクトルを取得できると判定された場合(ステップS4:YES)、ステップS5に進む。一方、人物の顔の法線ベクトルを取得できないと判定された場合(ステップS4:NO)、ステップS7に進む。   Next, the control unit 63 determines whether or not the normal vector of the person's face can be acquired from the part information acquired in step S1 (step S4). For example, when the part information acquired in step S1 includes part information of a predetermined number or more of parts forming the human skeleton, it is determined that the normal vector of the person's face can be acquired. For example, the normal vector of the human face can be calculated from the rotation angle Θ of the head. Here, the rotation angle Θ of the head is calculated with reference to the rotation angle Θ of the neck connected to the head. The rotation angle Θ of the neck is a rotation angle based on the rotation angle Θ of the body i. That is, the rotation angle Θ of the head is calculated by a predetermined calculation based on the rotation angle Θ of other parts. For this reason, if more part information (for example, from the left foot part and the right foot part to the head part) can be obtained, a more accurate rotation angle Θ can be obtained, and as a result, the normal of the human face is obtained. The accuracy of the vector is also improved. Alternatively, in step S4, based on the depth of the imaging result (depth image) received from the camera 3 and the head part information acquired in step S2, from the depth corresponding to the face of the head, for example, the nose It may be determined that the normal vector of the face of the person can be acquired when the position of a predetermined part of the face such as can be identified. Therefore, when it is determined from the part information acquired in step S1 that the normal vector of the person's face can be acquired (step S4: YES), the process proceeds to step S5. On the other hand, when it is determined that the normal vector of the person's face cannot be acquired (step S4: NO), the process proceeds to step S7.

ステップS5では、制御部63は、人物の骨格を形成する各部位の部位情報のそれぞれに含まれる回転角Θに基づいて、人物の頭部の回転角Θを算出する。次いで、制御部63は、算出した回転角Θから人物の顔の法線ベクトルを算出する。あるいは、ステップS4において、顔の所定の部位の位置が特定可能であると判断される場合は、ステップS5において、顔の所定の部位から顔面に対して前方に向かう方向が、人物の顔の法線ベクトルと決定される。そして、制御部63は、算出した法線ベクトルが示す方向を人物の視線方向として特定し(ステップS6)、ステップS9へ進む。この構成により、より精度の高い視線方向(法線ベクトル)を特定することができる。   In step S5, the control unit 63 calculates the rotation angle Θ of the person's head based on the rotation angle Θ included in the part information of each part forming the skeleton of the person. Next, the control unit 63 calculates a normal vector of the human face from the calculated rotation angle Θ. Alternatively, when it is determined in step S4 that the position of the predetermined part of the face can be specified, in step S5, the direction from the predetermined part of the face toward the front with respect to the face is the human face method. Determined as a line vector. And the control part 63 specifies the direction which the calculated normal vector shows as a person's gaze direction (step S6), and progresses to step S9. With this configuration, it is possible to specify a more accurate line-of-sight direction (normal vector).

ステップS7では、制御部63は、ステップS1で取得された部位情報から、人物の右肩部に対応する部位情報と、人物の左肩部に対応する部位情報とを取得する。次いで、制御部63は、ステップS2で取得した、頭部に対応する部位情報と、ステップS7で取得した、右肩部に対応する部位情報及び左肩部に対応する部位情報とに基づいて、法線ベクトルを算出する。   In step S7, the control unit 63 acquires part information corresponding to the right shoulder of the person and part information corresponding to the left shoulder of the person from the part information acquired in step S1. Next, the control unit 63 calculates the legal information based on the part information corresponding to the head acquired in step S2 and the part information corresponding to the right shoulder and the part information corresponding to the left shoulder acquired in step S7. Calculate the line vector.

制御部63は、例えば、図3(A),(B)に示すように、頭部の位置aと左肩部の位置bとの間のベクトルabと、頭部の位置aと右肩部の位置cとの間のベクトルacとの外積(ベクトルab×ベクトルac)を求めることで法線ベクトルを算出する。そして、制御部63は、算出した法線ベクトルが示す方向を人物の視線方向として特定し(ステップS8)、ステップS9へ進む。この構成により、頭部の位置a、左肩部の位置b、及び右肩部の位置cから、迅速に視線方向(法線ベクトル)を特定することができる。   For example, as shown in FIGS. 3A and 3B, the control unit 63 generates a vector ab between the head position a and the left shoulder position b, and the head position a and the right shoulder. A normal vector is calculated by obtaining an outer product (vector ab × vector ac) with the vector ac between the position c. And the control part 63 specifies the direction which the calculated normal vector shows as a person's gaze direction (step S8), and progresses to step S9. With this configuration, the line-of-sight direction (normal vector) can be quickly identified from the position a of the head, the position b of the left shoulder, and the position c of the right shoulder.

ステップS9では、制御部63は、ステップS6またはステップS8で特定された視線方向に基づいて、ステップS3で生成された、人物の頭部の3次元モデルの表面に投影制限領域を設定する(つまり、3次元モデルの表面に、上記視線方向の領域を含む投影制限領域を設定する)。この投影制限領域は、プロジェクター5a〜5eからの投影を制限(例えば禁止)するべき領域である。制御部63は、例えば、人物の視線方向を基準とする人物の視界の範囲を、人物の頭部の3次元モデルの表面に投影制限領域として設定する。制御部63は、頭部の3次元モデルの投影制限領域内の座標に1を設定し、それ以外の座標を0に設定する。或いは制御部63は、頭部の3次元モデルの投影制限領域内の座標に黒色を設定し、それ以外の座標に白色を設定する。   In step S9, the control unit 63 sets a projection restricted region on the surface of the three-dimensional model of the human head generated in step S3 based on the line-of-sight direction specified in step S6 or step S8 (that is, A projection restriction region including the region in the line-of-sight direction is set on the surface of the three-dimensional model). This projection restriction area is an area in which projection from the projectors 5a to 5e should be restricted (for example, prohibited). For example, the control unit 63 sets the range of the field of view of the person with reference to the direction of the line of sight of the person as a projection restriction region on the surface of the three-dimensional model of the head of the person. The control unit 63 sets 1 to the coordinates in the projection restricted area of the three-dimensional model of the head, and sets the other coordinates to 0. Or the control part 63 sets black to the coordinate in the projection restriction | limiting area | region of the three-dimensional model of a head, and sets white to other coordinates.

図5(A)の例では、人物の視線方向を基準とする横視野角により決まる視界を示している。しかし、人物の視界は、人物の視線方向を基準とする横視野角(左右視野角)と縦視野角(上下視野角)とにより決まるものである。横視野角は、例えば190度〜210度の範囲内で予め設定され、縦視野角は、例えば120〜130度の範囲内で予め設定される。制御部63は、このような横視野角と縦視野角とから人物の視界の範囲を求め、これを、人物の頭部の3次元モデルの表面に投影制限領域として設定する。図5(B)及び(C)は、人物の頭部の3次元モデルの表面に設定された投影制限領域LA0の一例を示す図である。図5(B)は、人物の頭部の3次元モデルを頭頂部方向から見た図であり、図5(C)は、人物の頭部の3次元モデルを顔の側面方向から見た図である。図5(B)及び(C)の例では、投影制限領域LA0は、横視野角と縦視野角により決まる範囲に、首部の回転角の可動範囲が加算されて設定される。具体的には、横視野角(左右視野角)として、人物の視線方向の基準から、首部が左方向および右方向に回転する可動範囲にあるときに視野となる角度が定められる。縦視野角(上下視野角)として、人物の視線方向の基準から、首部が上方向および下方向に移動する可動範囲にあるときに視野となる角度が定められる。   In the example of FIG. 5A, a field of view determined by a horizontal viewing angle with respect to a person's line-of-sight direction is shown. However, the field of view of a person is determined by a horizontal viewing angle (left and right viewing angle) and a vertical viewing angle (up and down viewing angle) based on the direction of the person's line of sight. The horizontal viewing angle is preset in the range of, for example, 190 degrees to 210 degrees, and the vertical viewing angle is preset in the range of, for example, 120 to 130 degrees. The control unit 63 obtains the range of the field of view of the person from the horizontal viewing angle and the vertical viewing angle, and sets this as a projection limited region on the surface of the three-dimensional model of the person's head. FIGS. 5B and 5C are diagrams illustrating an example of the projection restriction area LA0 set on the surface of the three-dimensional model of the human head. FIG. 5B is a view of a three-dimensional model of the person's head viewed from the top, and FIG. 5C is a view of the three-dimensional model of the person's head viewed from the side of the face. It is. In the example of FIGS. 5B and 5C, the projection limited area LA0 is set by adding the movable range of the rotation angle of the neck to the range determined by the horizontal viewing angle and the vertical viewing angle. Specifically, as the horizontal viewing angle (left and right viewing angle), an angle that becomes a visual field when the neck is in a movable range in which the neck rotates in the left direction and the right direction is determined from the reference of the gaze direction of the person. As the vertical viewing angle (vertical viewing angle), an angle that becomes a visual field when the neck is in a movable range in which the neck moves in the upward and downward directions is determined from the reference of the gaze direction of the person.

次いで、制御部63は、ステップS9で設定された3次元モデルの投影制限領域を、複数のプロジェクター5a〜5dそれぞれの位置を基準として、プロジェクター5a〜5dそれぞれが映像を投影する2次元平面ごとに投影変換する処理を行う(ステップS10)。人物の頭部の3次元モデルは、カメラ3を基準とする3次元座標系で表されるものである。このため、制御部63は、3次元座標系における投影制限領域を、それぞれのプロジェクター5a〜5dの2次元平面座標系に投影変換する。例えば、制御部63は、射影変換するための行列を用いて、3次元座標系における投影制限領域の座標を、プロジェクター5a〜5dの2次元平面における投影制限領域の座標に変換する。   Next, the control unit 63 sets the projection restriction area of the three-dimensional model set in step S9 for each two-dimensional plane on which each of the projectors 5a to 5d projects an image with reference to the positions of the plurality of projectors 5a to 5d. A projection conversion process is performed (step S10). A three-dimensional model of a person's head is represented by a three-dimensional coordinate system with the camera 3 as a reference. For this reason, the control unit 63 projects and converts the projection restricted area in the three-dimensional coordinate system into the two-dimensional planar coordinate system of each projector 5a to 5d. For example, the control unit 63 converts the coordinates of the projection restricted area in the three-dimensional coordinate system into the coordinates of the projection restricted area in the two-dimensional plane of the projectors 5a to 5d using a matrix for projective transformation.

例えば、図6に示すプロジェクター5aの2次元平面に投影変換された投影制限領域LA1は、プロジェクター5aの位置(例えば、2次元平面上の原点)から人物の頭部の3次元モデルを見た投影制限領域LA0である。また、例えば、図6に示すプロジェクター5bの2次元平面に投影変換された投影制限領域LA2は、プロジェクター5bの位置から人物の頭部の3次元モデルを見た投影制限領域LA0である。また、例えば、図6に示すプロジェクター5dの2次元平面に投影変換された投影制限領域LA3は、プロジェクター5dの位置から人物の頭部の3次元モデルを見た投影制限領域LA0である。なお、プロジェクター5cの位置から人物の頭部の3次元モデルを見たとき、投影制限領域LA0は人物頭部の後ろ側の領域で隠れることになるので、プロジェクター5cの2次元平面には投影制限領域が投影されない。なお、プロジェクター5a〜5dそれぞれの2次元平面の範囲は、例えば、プロジェクター5a〜5dそれぞれの投影角θa〜θdに収まる範囲(投影範囲)と等しい。また、プロジェクター5a〜5dの2次元平面は、共通の座標系上にあってもよい。この場合、2次元平面の位置を原点とし、この2次元平面上でプロジェクター5a〜5dそれぞれの位置が定義される。   For example, the projection limited area LA1 projected and converted onto the two-dimensional plane of the projector 5a shown in FIG. 6 is a projection obtained by viewing the three-dimensional model of the human head from the position of the projector 5a (for example, the origin on the two-dimensional plane). This is the restricted area LA0. Further, for example, the projection limited area LA2 projected and converted to the two-dimensional plane of the projector 5b shown in FIG. 6 is the projection limited area LA0 in which the three-dimensional model of the person's head is viewed from the position of the projector 5b. Further, for example, the projection limited area LA3 projected and converted to the two-dimensional plane of the projector 5d shown in FIG. 6 is the projection limited area LA0 in which the three-dimensional model of the person's head is viewed from the position of the projector 5d. When the three-dimensional model of the person's head is viewed from the position of the projector 5c, the projection restriction area LA0 is hidden behind the area behind the person's head, so that the projection restriction is applied to the two-dimensional plane of the projector 5c. The area is not projected. Note that the range of the two-dimensional plane of each of the projectors 5a to 5d is equal to the range (projection range) that falls within the projection angles θa to θd of the projectors 5a to 5d, for example. Further, the two-dimensional planes of the projectors 5a to 5d may be on a common coordinate system. In this case, the position of the two-dimensional plane is used as the origin, and the positions of the projectors 5a to 5d are defined on the two-dimensional plane.

ステップS11では、制御部63は、プロジェクター5a〜5dにより投影される映像の投影条件を決定し、決定した投影条件に応じたマスクデータ生成処理を実行する。マスクデータ生成処理は、例えば、制御部63が、映像の投影条件として、映像へ合成するマスクデータを決定する処理である。この場合の処理では、制御部63は、例えば、2次元平面に投影変換された投影制限領域に対応するマスクデータを、投影制限領域が投影変換された2次元平面毎に生成する。各2次元平面は、映像再生装置4a〜4dにより映像データが再生されるプロジェクター5a〜5dが投影する投影面それぞれと対応する。すなわち、このマスクデータの2次元平面における座標は、例えば、投影制限領域の座標と一致する。マスクデータ生成処理では、マスクデータとして、映像再生装置4a〜4dごとに、再生する映像データが投影変換される投影制限領域に対応する2次元平面における座標の透明度を示すアルファ値を、不透明を示す1と決定する処理が行われる。このとき、さらに、投影制限領域に対応する領域以外の座標のアルファ値を0と決定する処理が行われてもよい。あるいは、マスクデータ生成処理は、マスクデータとして、投影変換される投影制限領域に対応する2次元平面における座標の表現色を黒色に設定する処理である。次に、制御部63は、生成したマスクデータを、各2次元平面に投影する映像再生装置4a〜4dそれぞれへ送信する。つまり、制御部63は、生成した映像に、生成したマスクデータを合成させるために、生成したマスクデータを映像再生装置4a〜4dのそれぞれへ送信する(ステップS12)。これにより、映像再生装置4a〜4dでは、映像データにマスクデータが合成された映像が投影される映像として生成される。映像データにマスクデータを合成するとは、具体的には、映像データに対し、マスクデータに投影制限領域に対応して定められた座標におけるアルファ値に0が設定される。また、例えば、映像データにおいてマスクデータに示す投影制限領域内の表現色を黒色で塗ったり、或いはマスクデータに定められたアルファ値に基づき、映像データの投影制限領域に対応する座標の表現色に半透明にされた黒色のマスクを重畳する処理が行われる。   In step S11, the control unit 63 determines the projection conditions for the images projected by the projectors 5a to 5d, and executes a mask data generation process according to the determined projection conditions. The mask data generation process is a process in which, for example, the control unit 63 determines mask data to be combined with a video as a video projection condition. In the process in this case, the control unit 63 generates, for example, mask data corresponding to the projection restricted area projected and converted to the two-dimensional plane for each two-dimensional plane obtained by projecting the projection restricted area. Each two-dimensional plane corresponds to each projection plane projected by the projectors 5a to 5d on which the video data is reproduced by the video reproduction devices 4a to 4d. That is, the coordinates of the mask data in the two-dimensional plane coincide with, for example, the coordinates of the projection restricted area. In the mask data generation process, the alpha value indicating the transparency of the coordinates in the two-dimensional plane corresponding to the projection restricted area where the video data to be reproduced is projected and converted is indicated as opaque for each of the video reproducing devices 4a to 4d as the mask data. A process of determining 1 is performed. At this time, a process of determining the alpha value of coordinates other than the area corresponding to the projection restricted area as 0 may be further performed. Alternatively, the mask data generation process is a process of setting the expression color of coordinates in the two-dimensional plane corresponding to the projection restricted area to be projected and converted as black as mask data. Next, the control unit 63 transmits the generated mask data to each of the video reproduction devices 4a to 4d that project onto each two-dimensional plane. That is, the control unit 63 transmits the generated mask data to each of the video reproduction devices 4a to 4d in order to synthesize the generated mask data with the generated video (step S12). Thereby, in the video reproduction devices 4a to 4d, a video in which the mask data is combined with the video data is generated as a projected video. Specifically, synthesizing the mask data with the video data means that 0 is set to the alpha value at the coordinates determined corresponding to the projection restricted area in the mask data for the video data. Also, for example, the expression color in the projection restriction area shown in the mask data in the video data is painted in black, or the coordinate expression color corresponding to the projection restriction area of the video data is based on the alpha value defined in the mask data. A process of superimposing the semi-transparent black mask is performed.

なお、ステップS11において、制御部63は、映像の投影条件として、プロジェクターの投影角または投影方向の変更を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターへ、投影角または投影方向を所定角度変更させる制御指令を送信する。この投影制限領域が投影範囲から外れる角度である。この制御指令を受信したプロジェクターは、投影角または投影方向を所定角度変更する。或いは、制御部63は、映像の投影条件として、プロジェクターから発光する光の照度低下を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターへ、照度を低下させる制御指令を送信する。この制御指令を受信したプロジェクターは、発光部から発する光の照度(明るさ)を低下する。或いは、制御部63は、映像の投影条件として、投影対象のオリジナル映像の変更を決定してもよい。この場合の処理では、制御部63は、例えば、投影制限領域を含む2次元平面に対応するプロジェクターに投影させる映像として黒画像を生成する。なお、投影制限領域が含まれない2次元平面に対応するプロジェクターに投影させる映像は、上記と同様、投影対象のオリジナル映像から生成される。   In step S11, the control unit 63 may determine to change the projection angle or the projection direction of the projector as a video projection condition. In the process in this case, the control unit 63 transmits, for example, a control command for changing the projection angle or the projection direction by a predetermined angle to a projector corresponding to a two-dimensional plane including the projection restricted area. This is an angle at which this projection restricted area deviates from the projection range. The projector that has received this control command changes the projection angle or the projection direction by a predetermined angle. Or the control part 63 may determine the illumination intensity fall of the light emitted from a projector as a projection condition of an image | video. In the process in this case, the control unit 63 transmits a control command for reducing the illuminance to, for example, a projector corresponding to a two-dimensional plane including the projection restricted area. The projector that has received this control command reduces the illuminance (brightness) of the light emitted from the light emitting unit. Alternatively, the control unit 63 may determine to change the original video to be projected as the video projection condition. In the process in this case, for example, the control unit 63 generates a black image as an image to be projected by a projector corresponding to a two-dimensional plane including the projection restricted area. Note that an image to be projected by a projector corresponding to a two-dimensional plane that does not include the projection restriction region is generated from the original image to be projected, as described above.

図7(A)に示すように、プロジェクター5eから映像を投影していないとき、例えばプロジェクター5cからの投影光によりスクリーンScには人物の影ができている。一方、図7(B)に示すように、プロジェクター5eから映像を投影しているとき、例えばプロジェクター5cからの投影光による影は、プロジェクター5eからの映像により消されることになる。ところで、図7(C)に示す従来例のように、平面的な頭部輪郭だけを考慮して黒色の画像を合成するマスク処理を行う場合、頭部輪郭より少し広い範囲にマスク処理を行うことが望ましい。しかし、この場合、頭部輪郭外のマスク処理がされた領域の映像は、上記影とは異なり、黒色の映像であるため、プロジェクター5eからの映像により消すことができず、プロジェクター5eの輝度及び解像度による不自然な像を形成しまうため、スクリーンScを見ている人物に対して違和感を与えてしまう。特に、遠距離から投影した場合、頭部輪郭外のマスク処理がされた部分は、図7(C)の「拡大」で示すように、解像度の関係により頭部輪郭の周りにドットが視認できてしまう。一方、図7(D)に示す本実施例のように、人物の頭部の3次元モデルに視界の範囲を考慮して投影制限領域を設定し2次元平面への投影変換を経てマスク処理を行う構成の場合、マスク処理がされる範囲を限定的にすることができる。このため、マスク処理がされた映像が例えばスクリーンScには投影されないので、スクリーンScを見ている人物に対して違和感を与えないようにすることができる。特に、人物の正面にあるスクリーンScに投影されている映像は最も視界(知覚認知が高い)に入るが、本実施例によれば、不自然な像が投影されることを防ぐことができる。   As shown in FIG. 7A, when an image is not projected from the projector 5e, a shadow of a person is made on the screen Sc by projection light from the projector 5c, for example. On the other hand, as shown in FIG. 7B, when an image is projected from the projector 5e, for example, the shadow caused by the projection light from the projector 5c is erased by the image from the projector 5e. By the way, as in the conventional example shown in FIG. 7C, when performing mask processing for synthesizing a black image in consideration of only the planar head contour, the mask processing is performed in a range slightly wider than the head contour. It is desirable. However, in this case, the image of the masked area outside the head outline is a black image, unlike the above-described shadow, and thus cannot be erased by the image from the projector 5e. Since an unnatural image due to the resolution is formed, the person who is looking at the screen Sc is uncomfortable. In particular, when projected from a long distance, as shown by “enlargement” in FIG. 7C, dots that are masked outside the head contour can be visually recognized around the head contour due to the resolution. End up. On the other hand, as in this embodiment shown in FIG. 7D, a projection restricted area is set in the three-dimensional model of the human head in consideration of the field of view, and mask processing is performed through projection conversion to a two-dimensional plane. In the case of the configuration to be performed, the range in which the mask process is performed can be limited. For this reason, since the image subjected to the mask process is not projected onto the screen Sc, for example, it is possible to prevent the person looking at the screen Sc from feeling uncomfortable. In particular, the image projected on the screen Sc in front of the person enters the field of view (highly perceptual recognition), but according to the present embodiment, it is possible to prevent an unnatural image from being projected.

以上説明したように、再生制御装置6は、3次元空間にいる人物の複数の部位の位置を含む部位情報を取得し、取得した部位情報に基づいて人物の頭部の3次元モデルを生成し、取得した部位情報に基づいて人物の視線方向を特定し、特定した視線方向に基づいて頭部の3次元モデルの表面に投影制限領域を設定する。そして、再生制御装置6は、3次元モデルの投影制限領域を、複数のプロジェクター5a〜5dそれぞれが映像を投影する2次元平面ごとに投影変換し、投影制限領域が投影変換された2次元平面に投影するプロジェクター5a〜5dにより投影される映像の投影条件を決定する。このため、本実施形態によれば、複数のプロジェクター5a〜5dからの投影光を人物の視界に応じて制限することができる。例えば、人物の視界に入る範囲の投影光を適切に制限することで眩しさを低減することができる。一方、プロジェクターからの投影光が人物に当たっても人物の視覚に影響しない範囲(投影光を制限する必要のない範囲)まで投影光が制限されることを防ぐことで、人物に対して違和感を与えないようにすることができる。   As described above, the reproduction control device 6 acquires part information including the positions of a plurality of parts of a person in a three-dimensional space, and generates a three-dimensional model of the person's head based on the acquired part information. Then, the gaze direction of the person is specified based on the acquired part information, and a projection restriction region is set on the surface of the three-dimensional model of the head based on the specified gaze direction. Then, the reproduction control device 6 projects and converts the projection restricted area of the three-dimensional model for each two-dimensional plane on which the plurality of projectors 5a to 5d project images, and converts the projection restricted area to the two-dimensional plane obtained by the projection conversion. Projection conditions for images projected by the projectors 5a to 5d to be projected are determined. For this reason, according to the present embodiment, it is possible to limit the projection light from the plurality of projectors 5a to 5d according to the field of view of the person. For example, it is possible to reduce glare by appropriately limiting the projection light in a range that enters a human field of view. On the other hand, even if the projection light from the projector hits the person, the projection light is prevented from being limited to a range that does not affect the human vision (the range in which the projection light does not need to be limited), so that the person does not feel uncomfortable. Can be.

1 表示・操作デバイス
2 楽曲再生装置
3 カメラ
4a〜4e 映像再生装置
5a〜5e プロジェクター
6 再生制御装置
S 投影システム
DESCRIPTION OF SYMBOLS 1 Display / operation device 2 Music playback device 3 Cameras 4a-4e Video playback devices 5a-5e Projector 6 Playback control device S Projection system

Claims (6)

配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置であって、
前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、
前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、
前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、
前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、
前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、
前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、
を備えることを特徴とする制御装置。
A control device used in a projection system including a plurality of projection devices that project images from a plurality of arranged different positions onto a projection plane in each direction, and at least one position detection device,
Obtaining means for obtaining part information including positions of a plurality of parts of a person in a three-dimensional space in a range from the plurality of projection apparatuses to a projection plane, from the detection result of the position detection apparatus;
Generating means for generating a three-dimensional model of the head of the person based on the part information acquired by the acquiring means;
From the part information acquired by the acquisition means, a specifying means for specifying the gaze direction of the person,
Setting means for setting a projection restriction region including a region in the line-of-sight direction specified by the specifying unit on the surface of the three-dimensional model of the head generated by the generating unit;
Conversion for projecting and transforming the projection restricted region of the three-dimensional model set by the setting unit for each two-dimensional plane on which each of the plurality of projection devices projects an image with reference to the position of each of the plurality of projection devices. Means,
Determining means for determining a projection condition of an image projected by the projection device that projects the projection restricted region onto the two-dimensional plane obtained by projecting and transforming the projection restricted region by the transforming means;
A control device comprising:
前記設定手段は、前記視線方向を基準とする前記人物の視界の範囲を、前記3次元モデルの表面に投影制限領域として設定することを特徴とする請求項1に記載の制御装置。   The control device according to claim 1, wherein the setting unit sets a range of the field of view of the person based on the line-of-sight direction as a projection restriction region on a surface of the three-dimensional model. 前記取得手段は、前記人物の頭部の位置と、前記人物の右肩部の位置と、前記人物の左肩部の位置とを含む前記部位情報を取得するものであり、
前記部位情報の中で、前記人物の頭部に対応する前記部位情報と、前記人物の右肩部に対応する前記部位情報と、前記人物の左肩部に対応する前記部位情報とに基づいて、法線ベクトルを算出する算出手段を更に備え、
前記特定手段は、前記算出手段により算出された法線ベクトルの方向を前記視線方向として特定することを特徴とする請求項1または2に記載の制御装置。
The acquisition means acquires the part information including the position of the head of the person, the position of the right shoulder of the person, and the position of the left shoulder of the person,
Among the part information, based on the part information corresponding to the head of the person, the part information corresponding to the right shoulder of the person, and the part information corresponding to the left shoulder of the person, A calculation means for calculating a normal vector;
The control device according to claim 1, wherein the specifying unit specifies the direction of the normal vector calculated by the calculating unit as the line-of-sight direction.
前記部位情報は、前記部位の回転角であって、前記部位に連結される他の部位を基準とする回転角を含み、
前記部位情報のそれぞれに含まれる前記回転角に基づいて、前記頭部の回転角を算出する算出手段を更に備え、
前記特定手段は、前記算出手段により算出された回転角から前記視線方向を特定することを特徴とする請求項1または2に記載の制御装置。
The part information includes a rotation angle of the part and includes a rotation angle based on another part connected to the part,
A calculation means for calculating a rotation angle of the head based on the rotation angle included in each of the part information;
The control device according to claim 1, wherein the specifying unit specifies the line-of-sight direction from the rotation angle calculated by the calculating unit.
配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムに用いられる制御装置に用いられるコンピュータに実行させるプログラムであって、
前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得ステップと、
前記取得ステップにより取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成ステップと、
前記取得ステップにより取得された部位情報から、前記人物の視線方向を特定する特定ステップと、
前記生成ステップにより生成された頭部の3次元モデルの表面に、前記特定ステップにより特定された視線方向の領域を含む投影制限領域を設定する設定ステップと、
前記設定ステップにより設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換ステップと、
前記変換ステップにより前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定ステップと、
をコンピュータに実行させることを特徴とするプログラム。
A computer used in a control device used in a projection system including a plurality of projection devices that project images onto a projection plane in each direction from a plurality of different positions and at least one position detection device. A program,
An acquisition step of acquiring part information including positions of a plurality of parts of a person in a three-dimensional space in a range from the plurality of projection apparatuses to a projection plane, from the detection result of the position detection apparatus;
A generating step for generating a three-dimensional model of the person's head based on the part information acquired in the acquiring step;
From the part information acquired by the acquisition step, a specifying step of specifying the gaze direction of the person,
A setting step of setting a projection restriction region including a region of the line-of-sight direction specified by the specifying step on the surface of the three-dimensional model of the head generated by the generating step;
Conversion for projecting and transforming the projection restricted area of the three-dimensional model set by the setting step for each two-dimensional plane on which each of the plurality of projection devices projects an image with reference to the position of each of the plurality of projection devices. Steps,
A determination step of determining a projection condition of an image projected by the projection device that projects the projection-restricted region onto the two-dimensional plane obtained by the projection conversion by the conversion step;
A program that causes a computer to execute.
配置された複数の異なる位置からそれぞれの方向にある投影面に画像を投影する複数の投影装置と、少なくとも1台の位置検出装置とを備える投映システムであって、
前記投映システムが備える制御装置は、
前記位置検出装置の検出結果から、前記複数の投影装置から投影面までの範囲の3次元空間にいる人物の複数の部位の位置を含む部位情報を取得する取得手段と、
前記取得手段により取得された部位情報に基づいて、前記人物の頭部の3次元モデルを生成する生成手段と、
前記取得手段により取得された部位情報から、前記人物の視線方向を特定する特定手段と、
前記生成手段により生成された頭部の3次元モデルの表面に、前記特定手段により特定された視線方向の領域を含む投影制限領域を設定する設定手段と、
前記設定手段により設定された前記3次元モデルの前記投影制限領域を、前記複数の投影装置それぞれの位置を基準として、前記複数の投影装置それぞれが画像を投影する2次元平面ごとに投影変換する変換手段と、
前記変換手段により前記投影制限領域が投影変換された前記2次元平面に投影する前記投影装置により投影される画像の投影条件を決定する決定手段と、
を備えることを特徴とする投影システム。
A projection system comprising: a plurality of projection devices that project an image onto a projection plane in each direction from a plurality of different positions arranged; and at least one position detection device,
The control device provided in the projection system includes:
Obtaining means for obtaining part information including positions of a plurality of parts of a person in a three-dimensional space in a range from the plurality of projection apparatuses to a projection plane, from the detection result of the position detection apparatus;
Generating means for generating a three-dimensional model of the head of the person based on the part information acquired by the acquiring means;
From the part information acquired by the acquisition means, a specifying means for specifying the gaze direction of the person,
Setting means for setting a projection restriction region including a region in the line-of-sight direction specified by the specifying unit on the surface of the three-dimensional model of the head generated by the generating unit;
Conversion for projecting and transforming the projection restricted region of the three-dimensional model set by the setting unit for each two-dimensional plane on which each of the plurality of projection devices projects an image with reference to the position of each of the plurality of projection devices. Means,
Determining means for determining a projection condition of an image projected by the projection device that projects the projection restricted region onto the two-dimensional plane obtained by projecting and transforming the projection restricted region by the transforming means;
A projection system comprising:
JP2015037920A 2015-02-27 2015-02-27 Control device, program, and projection system Active JP6354620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037920A JP6354620B2 (en) 2015-02-27 2015-02-27 Control device, program, and projection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037920A JP6354620B2 (en) 2015-02-27 2015-02-27 Control device, program, and projection system

Publications (2)

Publication Number Publication Date
JP2016161626A true JP2016161626A (en) 2016-09-05
JP6354620B2 JP6354620B2 (en) 2018-07-11

Family

ID=56844890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037920A Active JP6354620B2 (en) 2015-02-27 2015-02-27 Control device, program, and projection system

Country Status (1)

Country Link
JP (1) JP6354620B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159740A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Display control device, display control method, and program
CN115413354A (en) * 2020-03-30 2022-11-29 Sg游戏公司 Game state object tracking

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050099603A1 (en) * 2002-03-15 2005-05-12 British Broadcasting Corporation Virtual studio system
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control device, display device, and display control method
JP2015011103A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection apparatus, projection method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050099603A1 (en) * 2002-03-15 2005-05-12 British Broadcasting Corporation Virtual studio system
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control device, display device, and display control method
JP2015011103A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection apparatus, projection method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159740A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Display control device, display control method, and program
CN115413354A (en) * 2020-03-30 2022-11-29 Sg游戏公司 Game state object tracking
US12080121B2 (en) 2020-03-30 2024-09-03 Lnw Gaming, Inc. Gaming state object tracking

Also Published As

Publication number Publication date
JP6354620B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
US9030532B2 (en) Stereoscopic image display
US9229584B2 (en) Information input apparatus
US8199108B2 (en) Interactive directed light/sound system
US7576727B2 (en) Interactive directed light/sound system
CN102289564B (en) Synthesis of information from multiple audiovisual sources
JP6627861B2 (en) Image processing system, image processing method, and program
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP6625801B2 (en) Image processing apparatus, image processing method, and program
US9323352B1 (en) Child-appropriate interface selection using hand recognition
JP2001125738A (en) Presentation control system and control method thereof
WO2017051570A1 (en) Information processing device, information processing method, and program
JP2016006627A (en) Image processing apparatus and image processing method
JP2012124839A (en) Image monitoring apparatus
US9304582B1 (en) Object-based color detection and correction
JP6354620B2 (en) Control device, program, and projection system
JP6680294B2 (en) Information processing apparatus, information processing method, program, and image display system
JP5258387B2 (en) Lighting device, space production system
JP2009212582A (en) Feedback system for virtual studio
JP2017068697A (en) Projection control apparatus and program
US12249090B2 (en) Information processing device, information processing method, and computer program
KR100742664B1 (en) Interactive video display system and method
TW201839723A (en) Interactive animation display system
JP7781788B2 (en) Projection control method and projection control device
Kolomenski Realization Of A Spatial Augmented Reality System-A Digital Whiteboard Using a Kinect Sensor and a PC Projector
JP2017069844A (en) Projection control device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150