[go: up one dir, main page]

JP2016071864A - Projector device - Google Patents

Projector device Download PDF

Info

Publication number
JP2016071864A
JP2016071864A JP2015168412A JP2015168412A JP2016071864A JP 2016071864 A JP2016071864 A JP 2016071864A JP 2015168412 A JP2015168412 A JP 2015168412A JP 2015168412 A JP2015168412 A JP 2015168412A JP 2016071864 A JP2016071864 A JP 2016071864A
Authority
JP
Japan
Prior art keywords
projection
image
unit
control unit
projector device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015168412A
Other languages
Japanese (ja)
Inventor
聡 神谷
Satoshi Kamiya
聡 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/859,197 priority Critical patent/US20160091987A1/en
Publication of JP2016071864A publication Critical patent/JP2016071864A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projector apparatus capable of touch operation without generating any error relative to an intended position of a user.SOLUTION: The projector apparatus includes: a projection unit that projects output images; a detection part that detects a distance information from a projection plane on which the output images are projected to the projection unit, and spatially detects an instruction operation made by a user; and a control unit that performs a geometric correction on an original image with respect to the output images by calculating a spatial position to which each of the pixels of the original image are projected based on the distance information. The control unit connects the position instructed by the instruction operation and the pixel positions on the original image based on the calculation result.SELECTED DRAWING: Figure 1

Description

本開示は、ジェスチャ操作可能なプロジェクタ装置に関する。   The present disclosure relates to a projector device capable of performing a gesture operation.

特許文献1は、複数のカメラを設けて、フォーカス調整やあおり投射や投射対象物の表面の形状により生ずる投射画像の歪みの補正を行うことができ、スクリーンに対して、その外形に投射画像を合わせる形で補正を行うプロジェクタを開示する。また、指差し位置を検出し、投影したアイコンに応じた動作を行うことができるプロジェクタを開示する。   Patent Document 1 is provided with a plurality of cameras, which can perform focus adjustment, tilt projection, and correction of the distortion of the projected image caused by the shape of the surface of the projection target. Disclosed is a projector that performs correction in a combined manner. In addition, a projector capable of detecting a pointing position and performing an operation according to a projected icon is disclosed.

特開2005−229415号公報JP 2005-229415 A

しかしながら、特許文献1は、スクリーンに複数の対象点を投影して、指差し位置から最も近い対象点を指差し位置の座標として近似的に決定しているため、ユーザが意図する指差し位置とプロジェクタが認識する指差し位置に誤差が生じる。   However, Patent Document 1 projects a plurality of target points on a screen and approximately determines the target point closest to the pointing position as the pointing position coordinates. An error occurs in the pointing position recognized by the projector.

本開示は、タッチした位置と原画像の位置を1対1で対応させることにより、ユーザの意図する位置に対して誤差を生じさせることなくタッチ操作することが可能なプロジェクタ装置を提供する。   The present disclosure provides a projector device that can perform a touch operation without causing an error with respect to a position intended by a user by associating a touched position with an original image position on a one-to-one basis.

本開示におけるプロジェクタ装置は、出力画像を投影する投影部と、出力画像が投影される投影面から投影部までの距離情報を検出し、かつ、ユーザによる指示操作を空間的に検出する検出部と、距離情報を基に、原画像の各画素が投影される空間的な位置を算出し、原画像を出力画像に幾何補正する制御部と、を備える。制御部は、算出結果を基に、指示操作によって指示された位置と原画像における画素の位置とを対応づける。   A projector device according to the present disclosure includes a projection unit that projects an output image, a detection unit that detects distance information from a projection plane on which the output image is projected to the projection unit, and spatially detects an instruction operation by a user. A control unit that calculates a spatial position on which each pixel of the original image is projected based on the distance information and geometrically corrects the original image into an output image. The control unit associates the position indicated by the instruction operation with the position of the pixel in the original image based on the calculation result.

本開示におけるプロジェクタ装置は、幾何補正された投影画像であってもユーザの意図する位置に対して誤差を生じさせることなくタッチ操作可能である。   The projector apparatus according to the present disclosure can be touch-operated without causing an error with respect to the position intended by the user even in the case of a geometrically corrected projection image.

プロジェクタ装置が壁に画像を投影するイメージ図Image of the projector device projecting an image on the wall プロジェクタ装置がテーブルに画像を投影するイメージ図Image diagram of projector device projecting image on table プロジェクタ装置の電気的構成を示すブロック図Block diagram showing the electrical configuration of the projector device 距離検出部の電気的構成を示すブロック図Block diagram showing the electrical configuration of the distance detector 距離検出部により取得された距離情報を説明するための図The figure for demonstrating the distance information acquired by the distance detection part プロジェクタ装置の光学的構成を示すブロック図Block diagram showing optical configuration of projector apparatus プロジェクタ装置の動作を説明するための図The figure for demonstrating operation | movement of a projector apparatus プロジェクタ装置の動作を説明するためのフローチャートFlowchart for explaining the operation of the projector device プロジェクタ装置の動作を説明するためのフローチャートFlowchart for explaining the operation of the projector device プロジェクタ装置の動作を説明するためのフローチャートFlowchart for explaining the operation of the projector device

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
以下、図1〜9を用いて、実施の形態1を説明する。
(Embodiment 1)
Hereinafter, the first embodiment will be described with reference to FIGS.

[1−1.構成]
[1−1−1.全体構成]
本開示に係るユーザインターフェース装置200を搭載したプロジェクタ装置100を説明する。
[1-1. Constitution]
[1-1-1. overall structure]
The projector device 100 equipped with the user interface device 200 according to the present disclosure will be described.

図1及び図2を用いて、プロジェクタ装置100による画像投影動作の概要を説明する。図1は、プロジェクタ装置100が投影面140としての壁140aに画像を投影するイメージ図である。図2は、プロジェクタ装置100が投影面140としてのテーブル140bに画像を投影するイメージ図である。   An outline of an image projecting operation by the projector device 100 will be described with reference to FIGS. 1 and 2. FIG. 1 is an image diagram in which the projector device 100 projects an image on a wall 140a as a projection surface 140. FIG. FIG. 2 is an image diagram in which the projector apparatus 100 projects an image onto a table 140b as the projection plane 140.

図1及び図2に示すように、プロジェクタ装置100は、投影部170と、駆動部110と、電源部120とを備える。投影部170と電源部120は、駆動部110を介して接続される。電源部120は、配線ダクト130に固定される。投影部170及び駆動部110を構成する各部と電気的に接続される配線は、電源部120及び配線ダクト130を介してコンセント等の電源と接続される。これにより、プロジェクタ装置100及び駆動部110に対して電力が供給される。投影部170は、開口部101を有している。投影部170は、開口部101を介して画像の投影を行う。   As shown in FIGS. 1 and 2, the projector device 100 includes a projection unit 170, a drive unit 110, and a power supply unit 120. The projection unit 170 and the power supply unit 120 are connected via the drive unit 110. The power supply unit 120 is fixed to the wiring duct 130. Wirings electrically connected to each unit constituting the projection unit 170 and the driving unit 110 are connected to a power source such as an outlet via the power source unit 120 and the wiring duct 130. As a result, power is supplied to the projector device 100 and the drive unit 110. The projection unit 170 has an opening 101. The projection unit 170 projects an image through the opening 101.

駆動部110は、投影部170の投影方向を変更するよう駆動することができる。駆動部110は、図1に示すように投影部170の投影方向を壁140aの方向になるよう駆動することができる。これにより、投影部170は、壁140aに対して投影画像152を投影することができる。同様に、駆動部110は、図2に示すように投影部170の投影方向をテーブル140bの方向になるよう駆動することができる。これにより、投影部170は、テーブル140bに対して投影画像152を投影することができる。駆動部110は、ユーザのマニュアル操作に基づいて駆動してもよいし、所定のセンサの検出結果に応じて自動的に駆動してもよい。また、壁140aに投影する画像と、テーブル140bに投影する画像とは、内容を異ならせてもよいし、同一のものにしてもよい。   The drive unit 110 can be driven to change the projection direction of the projection unit 170. The drive unit 110 can drive the projection direction of the projection unit 170 so as to be in the direction of the wall 140a as shown in FIG. Thereby, the projection part 170 can project the projection image 152 with respect to the wall 140a. Similarly, the drive unit 110 can drive the projection direction of the projection unit 170 to be the direction of the table 140b as shown in FIG. Thereby, the projection part 170 can project the projection image 152 with respect to the table 140b. The drive unit 110 may be driven based on a user's manual operation, or may be automatically driven according to a detection result of a predetermined sensor. Further, the image projected onto the wall 140a and the image projected onto the table 140b may have different contents or the same.

プロジェクタ装置100は、ユーザインターフェース装置200を搭載している。これにより、プロジェクタ装置100は、投影面140(壁140a、テーブル140b)に投影された画像の投影領域141があたかもタッチパネルであるかのような操作感覚をユーザに提供することができる。すなわち、ユーザは、投影面140に投影された画像を指などでタッチ等して、ポインティング動作をすることができる。   The projector device 100 is equipped with a user interface device 200. Thereby, the projector device 100 can provide the user with an operation feeling as if the projection area 141 of the image projected on the projection surface 140 (wall 140a, table 140b) is a touch panel. That is, the user can perform a pointing operation by touching the image projected on the projection surface 140 with a finger or the like.

[1−1−2.プロジェクタ装置の構成]
図3は、プロジェクタ装置100の電気的構成を示すブロック図である。プロジェクタ装置100は、ユーザインターフェース装置200、光源部300、画像生成部400、投影光学系500を備えている。ユーザインターフェース装置200は、制御部210、メモリ220、距離検出部230を備えている。
[1-1-2. Configuration of projector apparatus]
FIG. 3 is a block diagram showing an electrical configuration of projector apparatus 100. The projector device 100 includes a user interface device 200, a light source unit 300, an image generation unit 400, and a projection optical system 500. The user interface device 200 includes a control unit 210, a memory 220, and a distance detection unit 230.

制御部210は、プロジェクタ装置100全体を制御する半導体素子である。すなわち、制御部210は、ユーザインターフェース装置200を構成する各部(メモリ220、距離検出部230)及び、光源部300、画像生成部400、投影光学系500の動作を制御する。制御部210は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。   The control unit 210 is a semiconductor element that controls the entire projector device 100. That is, the control unit 210 controls operations of each unit (memory 220, distance detection unit 230), the light source unit 300, the image generation unit 400, and the projection optical system 500 that configure the user interface device 200. The control unit 210 may be configured only by hardware, or may be realized by combining hardware and software.

メモリ220は、各種の情報を記憶する記憶素子である。メモリ220は、フラッシュメモリや強誘電体メモリなどで構成される。メモリ220は、プロジェクタ装置100(ユーザインターフェース装置200を含む)を制御するための制御プログラム等を記憶する。また、メモリ220は、制御部210から供給された各種の情報を記憶する。   The memory 220 is a storage element that stores various types of information. The memory 220 includes a flash memory or a ferroelectric memory. The memory 220 stores a control program or the like for controlling the projector device 100 (including the user interface device 200). The memory 220 stores various information supplied from the control unit 210.

距離検出部230は、例えば、TOF(Time−of−Flight)センサから構成され、対向する面までの距離を直線的に検出する。距離検出部230が壁140aと対向しているときは、距離検出部230から壁140aまでの距離を検出する。同様に、距離検出部230がテーブル140bと対向しているときは、距離検出部230からテーブル140bまでの距離を検出する。   The distance detection unit 230 is composed of, for example, a TOF (Time-of-Flight) sensor, and linearly detects the distance to the opposing surface. When the distance detection unit 230 faces the wall 140a, the distance from the distance detection unit 230 to the wall 140a is detected. Similarly, when the distance detection unit 230 faces the table 140b, the distance from the distance detection unit 230 to the table 140b is detected.

図4Aは、距離検出部230の電気的構成を示すブロック図である。図4Aに示すように、距離検出部230は、赤外検出光を照射する赤外光源部231と、対向する面で反射した赤外検出光を受光する赤外受光部232とから構成される。赤外光源部231は、開口部101を介して、赤外検出光を周囲一面に拡散されるように照射する。赤外光源部231は、例えば、850nm〜950nmの波長の赤外光を、赤外検出光として用いる。   FIG. 4A is a block diagram illustrating an electrical configuration of the distance detection unit 230. As shown in FIG. 4A, the distance detection unit 230 includes an infrared light source unit 231 that irradiates infrared detection light, and an infrared light reception unit 232 that receives infrared detection light reflected by a facing surface. . The infrared light source unit 231 irradiates the infrared detection light through the opening 101 so as to be diffused over the entire surface. The infrared light source unit 231 uses, for example, infrared light having a wavelength of 850 nm to 950 nm as infrared detection light.

制御部210は、赤外光源部231が照射した赤外検出光の位相をメモリ220に記憶しておく。対向する面が距離検出部230から等距離になく、傾きや形状を有する場合、赤外受光部232の撮像面上に配列された複数の画素は、それぞれ別々のタイミングで反射光を受光する。別々のタイミングで受光するため、赤外受光部232で受光する赤外検出光は、各画素で位相が異なってくる。制御部210は、赤外受光部232が各画素で受光した赤外検出光の位相をメモリ220に記憶する。   The control unit 210 stores the phase of the infrared detection light emitted from the infrared light source unit 231 in the memory 220. When the opposing surfaces are not equidistant from the distance detection unit 230 and have an inclination or a shape, the plurality of pixels arranged on the imaging surface of the infrared light receiving unit 232 receive reflected light at different timings. Since the light is received at different timings, the phase of the infrared detection light received by the infrared light receiving unit 232 is different for each pixel. The control unit 210 stores in the memory 220 the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232.

制御部210は、赤外光源部231が照射した赤外検出光の位相と、赤外受光部232が各画素で受光した赤外検出光の位相とをメモリ220から読み出す。制御部210は、距離検出部230が照射した赤外検出光と、受光した赤外検出光との位相差に基づいて、距離検出部230から対向する面までの距離を測定することができる。   The control unit 210 reads from the memory 220 the phase of the infrared detection light emitted by the infrared light source unit 231 and the phase of the infrared detection light received by each pixel by the infrared light receiving unit 232. The control unit 210 can measure the distance from the distance detection unit 230 to the facing surface based on the phase difference between the infrared detection light emitted by the distance detection unit 230 and the received infrared detection light.

図4Bは、距離検出部230(赤外受光部232)により取得された距離情報を説明するための図である。距離検出部230は、受光した赤外検出光による赤外画像153を構成する画素の一つ一つについて距離を検出する。これにより、制御部210は、距離検出部230が受光した赤外画像153の画角全域対する距離の検出結果を画素単位で得ることができる。以下の説明では、図4Bに示すように、赤外画像153の横方向にX軸をとり、縦方向にY軸をとる。そして、検出した距離方向にZ軸をとる。制御部210は、距離検出部230の検出結果に基づいて、赤外画像153を構成する各画素について、XYZの三軸の座標(X、Y、Z)を取得できる。すなわち、制御部210は、距離検出部230の検出結果に基づいて、距離情報を取得できる。   FIG. 4B is a diagram for explaining the distance information acquired by the distance detection unit 230 (infrared light receiving unit 232). The distance detection unit 230 detects the distance for each pixel constituting the infrared image 153 by the received infrared detection light. Thereby, the control unit 210 can obtain the detection result of the distance for the entire field angle of the infrared image 153 received by the distance detection unit 230 in units of pixels. In the following description, as shown in FIG. 4B, the X-axis is taken in the horizontal direction of the infrared image 153 and the Y-axis is taken in the vertical direction. The Z axis is taken in the detected distance direction. Based on the detection result of the distance detection unit 230, the control unit 210 can obtain XYZ triaxial coordinates (X, Y, Z) for each pixel constituting the infrared image 153. That is, the control unit 210 can acquire distance information based on the detection result of the distance detection unit 230.

上記では、距離検出部230としてTOFセンサを例示したが、本開示はこれに限定されない。すなわち、ランダムドットパターンのように、既知のパターンを投光してそのパターンのズレから距離を算出するものであっても良いし、ステレオカメラによる視差を利用したものであってもよい。   In the above, the TOF sensor is exemplified as the distance detection unit 230, but the present disclosure is not limited to this. That is, as in a random dot pattern, a known pattern may be projected and a distance may be calculated from the deviation of the pattern, or a parallax obtained by a stereo camera may be used.

続いて、プロジェクタ装置100に搭載された部材のうち、ユーザインターフェース装置200以外の部材である光源部300、画像生成部400、投影光学系500の構成について、図5を用いて説明する。図5は、プロジェクタ装置100の光学的構成を示すブロック図である。図5に示すように、光源部300は、投影画像152を生成するために必要な光を、画像生成部400に対して供給する。画像生成部400は生成した画像を投影光学系500に供給する。投影光学系500は、画像生成部400から供給された画像に対してフォーカシング、ズーミング等の光学的変換を行う。投影光学系500は、開口部101と対向しており、開口部101から画像が投影される。投影光学系500は、図1及び図2に示す投影部170に対応する。   Next, the configuration of the light source unit 300, the image generation unit 400, and the projection optical system 500, which are members other than the user interface device 200 among the members mounted on the projector device 100, will be described with reference to FIG. FIG. 5 is a block diagram showing an optical configuration of projector device 100. As illustrated in FIG. 5, the light source unit 300 supplies light necessary for generating the projection image 152 to the image generation unit 400. The image generation unit 400 supplies the generated image to the projection optical system 500. The projection optical system 500 performs optical conversion such as focusing and zooming on the image supplied from the image generation unit 400. The projection optical system 500 faces the opening 101, and an image is projected from the opening 101. The projection optical system 500 corresponds to the projection unit 170 shown in FIGS. 1 and 2.

まず、光源部300の構成について説明する。図5に示すように、光源部300は、半導体レーザー310、ダイクロイックミラー330、λ/4板340、蛍光体ホイール360などを備えている。   First, the configuration of the light source unit 300 will be described. As shown in FIG. 5, the light source unit 300 includes a semiconductor laser 310, a dichroic mirror 330, a λ / 4 plate 340, a phosphor wheel 360, and the like.

半導体レーザー310は、例えば、波長440nm〜455nmのS偏光の青色光を発光する固体光源である。半導体レーザー310から出射されたS偏光の青色光は、導光光学系320を介してダイクロイックミラー330に入射される。   The semiconductor laser 310 is a solid light source that emits S-polarized blue light having a wavelength of 440 nm to 455 nm, for example. S-polarized blue light emitted from the semiconductor laser 310 is incident on the dichroic mirror 330 via the light guide optical system 320.

ダイクロイックミラー330は、例えば、波長440nm〜455nmのS偏光の青色光に対しては98%以上の高い反射率を有する一方、波長440nm〜455nmのP偏光の青色光及び、波長490nm〜700nmの緑色光〜赤色光に対しては偏光状態に関わらず95%以上の高い透過率を有する光学素子である。ダイクロイックミラー330は、半導体レーザー310から出射されたS偏光の青色光を、λ/4板340の方向に反射する。   The dichroic mirror 330 has, for example, a high reflectance of 98% or more for S-polarized blue light having a wavelength of 440 nm to 455 nm, while P-polarized blue light having a wavelength of 440 nm to 455 nm and green having a wavelength of 490 nm to 700 nm. It is an optical element having a high transmittance of 95% or more for light to red light regardless of the polarization state. The dichroic mirror 330 reflects the S-polarized blue light emitted from the semiconductor laser 310 in the direction of the λ / 4 plate 340.

λ/4板340は、直線偏光を円偏光に変換又は、円偏光を直線偏光に変換する偏光素子である。λ/4板340は、ダイクロイックミラー330と蛍光体ホイール360との間に配置される。λ/4板340に入射したS偏光の青色光は、円偏光の青色光に変換された後、レンズ350を介して蛍光体ホイール360に照射される。   The λ / 4 plate 340 is a polarizing element that converts linearly polarized light into circularly polarized light or converts circularly polarized light into linearly polarized light. The λ / 4 plate 340 is disposed between the dichroic mirror 330 and the phosphor wheel 360. The S-polarized blue light incident on the λ / 4 plate 340 is converted into circularly-polarized blue light and then irradiated onto the phosphor wheel 360 via the lens 350.

蛍光体ホイール360は、高速回転が可能なように構成されたアルミ平板である。蛍光体ホイール360の表面には、拡散反射面の領域であるB領域と、緑色光を発光する蛍光体が塗付されたG領域と、赤色光を発光する蛍光体が塗付されたR領域とが複数形成されている。蛍光体ホイール360のB領域に照射された円偏光の青色光は拡散反射されて、円偏光の青色光として再びλ/4板340に入射する。λ/4板340に入射した円偏光の青色光は、P偏光の青色光に変換された後、再びダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した青色光は、P偏光であるためダイクロイックミラー330を透過して、導光光学系370を介して画像生成部400に入射する。   The phosphor wheel 360 is an aluminum flat plate configured to be capable of high speed rotation. On the surface of the phosphor wheel 360, a B region which is a diffuse reflection surface region, a G region coated with a phosphor emitting green light, and an R region coated with a phosphor emitting red light. A plurality of and are formed. The circularly polarized blue light applied to the region B of the phosphor wheel 360 is diffusely reflected and reenters the λ / 4 plate 340 as circularly polarized blue light. The circularly polarized blue light incident on the λ / 4 plate 340 is converted into P-polarized blue light and then incident on the dichroic mirror 330 again. At this time, since the blue light incident on the dichroic mirror 330 is P-polarized light, it passes through the dichroic mirror 330 and enters the image generation unit 400 via the light guide optical system 370.

蛍光体ホイール360のG領域に照射された青色光は、G領域上に塗付された蛍光体を励起して緑色光を発光させる。G領域上から発光された緑色光は、ダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した緑色光は、ダイクロイックミラー330を透過して、導光光学系370を介して画像生成部400に入射する。同様に、蛍光体ホイール360のR領域に照射された青色光は、R領域上に塗付された蛍光体を励起して赤色光を発光させる。R領域上から発光された赤色光は、ダイクロイックミラー330に入射する。このときダイクロイックミラー330に入射した赤色光は、ダイクロイックミラー330を透過して、導光光学系370を介して画像生成部400に入射する。   The blue light applied to the G region of the phosphor wheel 360 excites the phosphor applied on the G region to emit green light. Green light emitted from the G region is incident on the dichroic mirror 330. At this time, the green light incident on the dichroic mirror 330 passes through the dichroic mirror 330 and enters the image generating unit 400 via the light guide optical system 370. Similarly, the blue light applied to the R region of the phosphor wheel 360 excites the phosphor applied on the R region to emit red light. Red light emitted from the R region enters the dichroic mirror 330. At this time, the red light incident on the dichroic mirror 330 passes through the dichroic mirror 330 and enters the image generation unit 400 via the light guide optical system 370.

蛍光体ホイール360は高速回転しているため、光源部300から画像生成部400へは、青色光、緑色光、赤色光が時分割されて出射する。   Since the phosphor wheel 360 rotates at high speed, blue light, green light, and red light are emitted from the light source unit 300 to the image generation unit 400 in a time-sharing manner.

画像生成部400は、制御部210から供給される映像信号に応じた投影画像を生成する。画像生成部400は、DMD(Digital−Mirror−Device)420などを備えている。DMD420は、多数のマイクロミラーを平面に配列した表示素子である。DMD420は、制御部210から供給される映像信号に応じて、配列したマイクロミラーのそれぞれを偏向させて、入射する光を空間的に変調させる。   The image generation unit 400 generates a projection image corresponding to the video signal supplied from the control unit 210. The image generation unit 400 includes a DMD (Digital-Mirror-Device) 420 and the like. The DMD 420 is a display element in which a large number of micromirrors are arranged in a plane. The DMD 420 deflects each of the arranged micromirrors according to the video signal supplied from the control unit 210 to spatially modulate the incident light.

光源部300から画像生成部400へは、青色光、緑色光、赤色光が時分割で出射してくる。DMD420は、導光光学系410を介して、時分割に出射されてくる青色光、緑色光、赤色光を順に繰り返し受光する。DMD420は、それぞれの色の光が出射されてくるタイミングに同期して、マイクロミラーのそれぞれを偏向させる。これにより、画像生成部400は、映像信号に応じた投影画像152を生成する。DMD420は、映像信号に応じて、投影光学系500に進行させる光と、投影光学系500の有効範囲外へと進行させる光とにマイクロミラーを偏向させる。これにより、画像生成部400は、生成した投影画像152を、投影光学系500に対して供給することができる。   Blue light, green light, and red light are emitted from the light source unit 300 to the image generation unit 400 in a time-sharing manner. The DMD 420 repeatedly receives blue light, green light, and red light that are emitted in a time division manner through the light guide optical system 410 in order. The DMD 420 deflects each of the micromirrors in synchronization with the timing at which light of each color is emitted. Thereby, the image generation unit 400 generates a projection image 152 corresponding to the video signal. The DMD 420 deflects the micromirror according to the video signal into light that travels to the projection optical system 500 and light that travels outside the effective range of the projection optical system 500. Thereby, the image generation unit 400 can supply the generated projection image 152 to the projection optical system 500.

投影光学系500は、フォーカスレンズやズームレンズなどの光学部材510を備える。投影光学系500は、画像生成部400から進行してきた光を拡大して投影面140へ投影する。   The projection optical system 500 includes an optical member 510 such as a focus lens or a zoom lens. The projection optical system 500 enlarges the light traveling from the image generation unit 400 and projects it onto the projection surface 140.

上記では、プロジェクタ装置100の一例として、DMD420を用いたDLP(Digital―Light−Processing)方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、液晶方式による構成を採用しても構わない。   In the above description, the configuration of the DLP (Digital-Light-Processing) method using the DMD 420 is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector apparatus 100 may employ a liquid crystal configuration.

上記では、プロジェクタ装置100の一例として、蛍光体ホイール360を用いて光源を時分割させた単板方式による構成を説明したが、本開示はこれに限定されない。すなわち、プロジェクタ装置100として、青色光、緑色光、赤色光の各種光源を備えた三板方式による構成を採用しても構わない。   In the above description, the configuration using the single plate method in which the light source is time-divided using the phosphor wheel 360 is described as an example of the projector device 100, but the present disclosure is not limited thereto. That is, the projector device 100 may employ a three-plate configuration including various light sources of blue light, green light, and red light.

上記では、投影画像152を生成するための青色光の光源と、距離を測定するための赤外光の光源とを別ユニットとする構成を説明したが、本開示はこれに限定されない。すなわち、投影画像152を生成するための青色光の光源と、距離を測定するための赤外光の光源とを統合したユニットとしても構わない。三板方式を採用する場合であれば、各色の光源と赤外光の光源とを統合したユニットとしても構わない。   In the above description, the blue light source for generating the projection image 152 and the infrared light source for measuring the distance are described as separate units, but the present disclosure is not limited thereto. That is, a unit in which a blue light source for generating the projection image 152 and an infrared light source for measuring the distance may be integrated. If the three-plate method is adopted, a unit in which the light sources of the respective colors and the infrared light source are integrated may be used.

[1−2.動作及び効果]
以上のように構成されたプロジェクタ装置100に搭載されたユーザインターフェース装置200について、その動作を以下説明する。
[1-2. Operation and effect]
The operation of the user interface device 200 mounted on the projector device 100 configured as described above will be described below.

プロジェクタ装置100が、プロジェクタ装置100と正対しない面に対して画像を投影する場合、幾何的な補正を施さず投影すると画像に歪みが生じる。原画像150(制御部210に入力される画像)の形状と相似関係にある画像を投影する場合には、制御部210において、原画像150に幾何学的な補正処理をする必要がある。さらにユーザが、ユーザ自身の指をポインティング手段として、幾何学的な補正処理を施された投影画像152をタッチ操作する際には、タッチした位置(タッチ位置)と原画像150の面内における位置の正確な対応関係を算出する必要がある。   When the projector device 100 projects an image on a surface that does not face the projector device 100, the image is distorted when projected without geometric correction. When projecting an image similar in shape to the shape of the original image 150 (an image input to the control unit 210), the control unit 210 needs to perform geometric correction processing on the original image 150. Further, when the user performs a touch operation on the projected image 152 that has been subjected to geometric correction processing using the user's own finger as a pointing means, the touched position (touch position) and the position in the plane of the original image 150 It is necessary to calculate an exact correspondence relationship.

以下、図6から図9に従ってプロジェクタ装置100の動作を説明する。   Hereinafter, the operation of the projector apparatus 100 will be described with reference to FIGS.

[1−2−1.原画像を幾何補正して投影画像に変換するプロセス]
<センサ座標系における赤外画像を表す方程式の算出>
図6は、プロジェクタ装置100のユーザインターフェース装置200の動作を説明するための図であり、図7は、その動作のフローチャートである。まず、制御部210は、投影画像152(投影領域141)の中心点Oを示す距離検出部230における赤外画像153上の点Aの平面座標を決定し、点Aから一定間隔(等距離)にある赤外画像153上の3つの目標点を決定する。この目標点は、3以上の数であっても良い。そして、制御部210は、距離検出部230を原点(基準)とした座標系(センサ座標系)における3つの目標点のそれぞれの3次元座標(X,Y,Z)を、距離検出部230から得られる深度情報(距離情報)により算出する(ステップS1)。ここで、赤外画像153上の平面座標は、図4Bに示す赤外画像153を構成する画素の座標を意味しており、センサ座標系の3次元座標は、距離検出部230を基準とした場合の投影面140上の座標を意味している。
[1-2-1. Process for converting the original image into a projected image after geometric correction]
<Calculation of equation representing infrared image in sensor coordinate system>
FIG. 6 is a diagram for explaining the operation of the user interface device 200 of the projector device 100, and FIG. 7 is a flowchart of the operation. First, the control unit 210 determines the plane coordinates of the point A on the infrared image 153 in the distance detection unit 230 indicating the center point O of the projection image 152 (projection region 141), and is spaced from the point A by a constant interval (equal distance). The three target points on the infrared image 153 at are determined. This target point may be a number of 3 or more. Then, the control unit 210 obtains the three-dimensional coordinates (X, Y, Z) of the three target points in the coordinate system (sensor coordinate system) using the distance detection unit 230 as the origin (reference) from the distance detection unit 230. Calculation is performed based on the obtained depth information (distance information) (step S1). Here, the plane coordinates on the infrared image 153 mean the coordinates of the pixels constituting the infrared image 153 shown in FIG. 4B, and the three-dimensional coordinates of the sensor coordinate system are based on the distance detection unit 230. In this case, the coordinates on the projection plane 140 are meant.

次に、制御部210は、ステップS1で算出された3つの目標点の3次元座標から、センサ座標系において、プロジェクタ装置100が投影する投影面140を、法線ベクトルnを持つ面の方程式として表す(ステップS2)。   Next, the control unit 210 uses the three-dimensional coordinates of the three target points calculated in step S1 to determine the projection plane 140 projected by the projector device 100 as an equation of a plane having a normal vector n in the sensor coordinate system. (Step S2).

<センサ座標系における投影領域の算出>
制御部210は、投影画像の幅方向を示すベクトルを算出するために、赤外画像153上の所定の2点B,Cを決定し、その平面座標をメモリ220に保存する(ステップS3)。ただし、この所定の2点は、プロジェクタ装置100の任意のアプリケーションによって制御部210が決定する。
<Calculation of projection area in sensor coordinate system>
The control unit 210 determines predetermined two points B and C on the infrared image 153 in order to calculate a vector indicating the width direction of the projection image, and stores the plane coordinates in the memory 220 (step S3). However, the predetermined two points are determined by the control unit 210 according to an arbitrary application of the projector device 100.

次に、制御部210は、メモリ220に保存された赤外画像153上の2点B,Cの平面座標及び距離検出部230から得られる深度情報を入力値として、2点B,Cの3次元座標を算出する(ステップS4)。   Next, the control unit 210 uses the plane coordinates of the two points B and C on the infrared image 153 stored in the memory 220 and the depth information obtained from the distance detection unit 230 as input values, and the 3 of the two points B and C. Dimensional coordinates are calculated (step S4).

制御部210は、図6に示すように、ステップS4で求めた2点B,Cの3次元座標により、投影画像152の幅方向を示す3次元の単位ベクトルwを算出する。制御部210は、ベクトルwとステップS2において算出した投影面140の法線ベクトルnの外積から、投影画像152の高さ方向を示す3次元の単位ベクトルhを算出する(ステップS5)。なお、制御部210は、2点B,Cの3次元座標により、先に、高さ方向を示す3次元の単位ベクトルhを算出してもよい。その場合には、制御部210は、投影画像152の高さ方向を示す3次元の単位ベクトルhと投影面140の法線ベクトルnの外積から、投影画像152の幅方向を示す3次元の単位ベクトルwを算出する。   As shown in FIG. 6, the control unit 210 calculates a three-dimensional unit vector w indicating the width direction of the projection image 152 from the three-dimensional coordinates of the two points B and C obtained in step S4. The control unit 210 calculates a three-dimensional unit vector h indicating the height direction of the projection image 152 from the outer product of the vector w and the normal vector n of the projection plane 140 calculated in step S2 (step S5). The control unit 210 may first calculate a three-dimensional unit vector h indicating the height direction based on the three-dimensional coordinates of the two points B and C. In that case, the control unit 210 determines the three-dimensional unit indicating the width direction of the projection image 152 from the outer product of the three-dimensional unit vector h indicating the height direction of the projection image 152 and the normal vector n of the projection plane 140. Vector w is calculated.

制御部210は、投影画像152の中心点Oに対応する赤外画像153上の点Aの平面座標及び投影画像152(投影領域141)の幅方向のサイズW0と高さ方向のサイズH0をメモリ220に保存する。この点Aの座標及び幅方向のサイズW0、高さ方向のサイズH0は、プロジェクタ装置100の任意のアプリケーションによって制御部210が決定する。制御部210は、距離検出部230から得られる深度情報により、メモリ220に保存された赤外画像153上の点Aの平面座標をセンサ座標系の3次元座標として算出する(ステップS6)。   The control unit 210 stores the plane coordinates of the point A on the infrared image 153 corresponding to the center point O of the projection image 152 and the size W0 in the width direction and the size H0 in the height direction of the projection image 152 (projection region 141). Save to 220. The coordinates of the point A and the size W0 in the width direction and the size H0 in the height direction are determined by the control unit 210 by an arbitrary application of the projector device 100. Based on the depth information obtained from the distance detection unit 230, the control unit 210 calculates the plane coordinates of the point A on the infrared image 153 stored in the memory 220 as the three-dimensional coordinates of the sensor coordinate system (step S6).

制御部210は、点Aの3次元座標を起点に、単位ベクトルw及び単位ベクトルh、幅方向のサイズW0及び高さ方向のサイズH0から、センサ座標系における画像の投影領域141を形成する4頂点の3次元座標を算出する(ステップS7)。   The control unit 210 forms an image projection area 141 in the sensor coordinate system from the unit vector w, the unit vector h, the width direction size W0, and the height direction size H0 starting from the three-dimensional coordinates of the point A4. The three-dimensional coordinates of the vertex are calculated (step S7).

<センサ座標系からプロジェクタ座標系への変換>
プロジェクタ装置100は、原画像150を幾何補正した出力画像151を、投影部170から投影面140に出力する。そのため、制御部210は、ステップS7で算出されたセンサ座標系における投影領域141を示す4頂点の座標をプロジェクタ座標系に変換し、プロジェクタ座標系において原画像150から出力画像151を生成する必要がある。
<Conversion from sensor coordinate system to projector coordinate system>
The projector device 100 outputs an output image 151 obtained by geometrically correcting the original image 150 from the projection unit 170 to the projection surface 140. Therefore, the control unit 210 needs to convert the coordinates of the four vertices indicating the projection area 141 in the sensor coordinate system calculated in step S7 into the projector coordinate system, and generate the output image 151 from the original image 150 in the projector coordinate system. is there.

メモリ220は、予めプロジェクタ座標系とセンサ座標系との相対的な姿勢関係を示すパラメータを保有している。制御部210は、図7に示すステップS7で算出したセンサ座標系における投影領域を規定する4頂点の座標をプロジェクタ座標系の座標に変換する(ステップS8)。   The memory 220 holds in advance parameters indicating the relative posture relationship between the projector coordinate system and the sensor coordinate system. The control unit 210 converts the coordinates of the four vertices that define the projection area in the sensor coordinate system calculated in step S7 shown in FIG. 7 into coordinates in the projector coordinate system (step S8).

[1−2−2.出力画像生成プロセス]
次に、プロジェクタ装置100が投影するための出力画像151を生成するステップを、図8を用いて説明する。
[1-2-2. Output image generation process]
Next, the step of generating the output image 151 to be projected by the projector device 100 will be described with reference to FIG.

制御部210は、プロジェクタ座標系において、プロジェクタ装置100が保有する幅方向と高さ方向の画素数及び画角に基づいて、任意の幅及び高さを持つ仮想のプロジェクタ面142を設定する(ステップS9)。プロジェクタ面142は出力画像151を設定するための面である。   In the projector coordinate system, the control unit 210 sets a virtual projector surface 142 having an arbitrary width and height based on the number of pixels in the width direction and the height direction held by the projector device 100 and the angle of view (step). S9). The projector surface 142 is a surface for setting the output image 151.

次に、制御部210は、図7のステップS8で得られたプロジェクタ座標系における投影領域141を示す4頂点の座標から、プロジェクタ座標系における投影面140の方程式を算出する(ステップS10)。   Next, the control unit 210 calculates an equation of the projection plane 140 in the projector coordinate system from the coordinates of the four vertices indicating the projection area 141 in the projector coordinate system obtained in step S8 of FIG. 7 (step S10).

次に、プロジェクタ面142の各画素PP(i,j)をプロジェクタ座標系の3次元座標(i,j,k)に変換する。そして、プロジェクタ座標系の座標に変換された各画素に対する3次元座標(i,j,k)を、逆投影変換して、それに対応する投影面140における各点Prj(s,t,u)の3次元座標を算出する。そして、出力画像151の各画素PP(i,j)の座標が、投影面140におけるプロジェクタ座標系の3次元座標(s,t,u)と対応付けられる(ステップS11)。   Next, each pixel PP (i, j) on the projector surface 142 is converted into three-dimensional coordinates (i, j, k) in the projector coordinate system. Then, the three-dimensional coordinates (i, j, k) with respect to each pixel converted into the coordinates of the projector coordinate system are subjected to back projection conversion, and each point Prj (s, t, u) on the projection plane 140 corresponding thereto is converted. Three-dimensional coordinates are calculated. Then, the coordinates of each pixel PP (i, j) of the output image 151 are associated with the three-dimensional coordinates (s, t, u) of the projector coordinate system on the projection plane 140 (step S11).

次に、制御部210は、図7のステップS8で算出した投影領域141の4頂点のうちの1つの頂点と投影面140上の点Prj(s,t,u)との幅方向の距離W1及び高さ方向の距離H1と、ステップS8で算出した4頂点で形成する投影領域の幅方向のサイズW0及び高さ方向のサイズH0のそれぞれの比率Wr及びHrを算出する。即ち、比率Wr=幅方向の距離W1/幅方向のサイズW0、比率Hr=高さ方向の距離H1/高さ方向のサイズH0、である。4頂点で囲まれた投影領域141には、原画像150を配置するように投影されることから、制御部210は、比率Wr及びHrと原画像150の幅方向及び高さ方向の画素数により投影面140上の点Prj(s,t,u)と原画像150の画素Pin(x,y)とを対応付ける(ステップS12)。   Next, the control unit 210 determines the distance W1 in the width direction between one vertex of the four vertices of the projection area 141 calculated in step S8 in FIG. 7 and the point Prj (s, t, u) on the projection plane 140. Then, the ratio Wr and Hr of the distance H1 in the height direction and the size W0 in the width direction and the size H0 in the height direction of the projection area formed by the four vertices calculated in step S8 are calculated. That is, the ratio Wr = the width direction distance W1 / the width direction size W0, and the ratio Hr = the height direction distance H1 / the height direction size H0. Since the original image 150 is projected on the projection area 141 surrounded by the four vertices, the control unit 210 determines the ratios Wr and Hr and the number of pixels in the width direction and the height direction of the original image 150. The point Prj (s, t, u) on the projection plane 140 is associated with the pixel Pin (x, y) of the original image 150 (step S12).

そして、制御部210は、出力画像151の画素PP(i,j)と原画像150の画素Pin(x,y)との対応関係を得る(ステップS13)。制御部210は、出力画像151の画素PP(i,j)のRGBレベル(画素値)に、対応する原画像150の画素Pin(x,y)のRGBレベルを代入することにより、原画像150に対して幾何的に補正処理を施した出力画像151を生成する。   Then, the control unit 210 obtains a correspondence relationship between the pixel PP (i, j) of the output image 151 and the pixel Pin (x, y) of the original image 150 (step S13). The control unit 210 substitutes the RGB level of the corresponding pixel Pin (x, y) of the original image 150 into the RGB level (pixel value) of the pixel PP (i, j) of the output image 151, thereby making the original image 150. An output image 151 obtained by geometrically correcting the image is generated.

これにより、正対しない投影面に対しても、歪みのない画像を投影することが可能となる。   As a result, it is possible to project an image without distortion even on a projection surface that is not directly facing.

[1−2−3.タッチ操作におけるタッチ位置の座標算出]
図9のフローチャートを用いて、ユーザが投影面140に投影された画像に対してタッチする等の指示操作をする場合の動作を説明する。
[1-2-3. Coordinate calculation of touch position in touch operation]
The operation when the user performs an instruction operation such as touching the image projected on the projection surface 140 will be described using the flowchart of FIG.

制御部210は、ユーザが、ユーザ自身の指をポインティング手段としてタッチ操作した位置に対応する赤外画像における指示点Sir(X,Y)の座標を取得する。そして、制御部210は、距離検出部230から得られる深度情報により、タッチ位置を表す赤外画像の指示点Sir(X,Y)からセンサ座標系における3次元座標(X,Y,Z)を算出する(ステップS14)。   The control unit 210 acquires the coordinates of the indication point Sir (X, Y) in the infrared image corresponding to the position where the user performs a touch operation using the user's own finger as a pointing means. Then, the control unit 210 calculates the three-dimensional coordinates (X, Y, Z) in the sensor coordinate system from the designated point Sir (X, Y) of the infrared image representing the touch position based on the depth information obtained from the distance detection unit 230. Calculate (step S14).

次に、制御部210は、センサ座標系における指示点Sir(X,Y,Z)を、プロジェクタ座標系における指示点Sp(S,T,U)に座標変換する(ステップS15)。   Next, the control unit 210 converts the designated point Sir (X, Y, Z) in the sensor coordinate system to the designated point Sp (S, T, U) in the projector coordinate system (step S15).

次に、制御部210は、ステップS15で得られた指示点Sp(S,T,U)と図7のステップS8で算出したプロジェクタ座標系における投影領域を示す4頂点のうちの1頂点との幅方向の距離W2及び高さ方向の距離H2を算出する。そして、制御部210は、算出した幅方向の距離W2及び高さ方向の距離H2と投影領域141の幅方向のサイズW0及び高さ方向のサイズH0のそれぞれの比率Ws及びHsを算出する。即ち、比率Ws=幅方向の距離W2/幅方向のサイズW0、比率Hs=高さ方向の距離H2/高さ方向のサイズH0、である。4頂点で囲まれた投影領域141には、制御部210へ入力する原画像150が配置されることから、制御部210は、上記比率Ws及びHsと原画像150の幅方向及び高さ方向の画素数とにより、タッチ位置を表す指示点Sp(S,T,U)と原画像150の画素Pin(x,y)とを対応付ける(ステップS16)。   Next, the control unit 210 calculates the indication point Sp (S, T, U) obtained in step S15 and one vertex of the four vertices indicating the projection area in the projector coordinate system calculated in step S8 of FIG. A distance W2 in the width direction and a distance H2 in the height direction are calculated. Then, the control unit 210 calculates the ratios Ws and Hs of the calculated distance W2 in the width direction and the distance H2 in the height direction and the size W0 in the width direction and the size H0 in the height direction of the projection region 141, respectively. That is, the ratio Ws = the distance W2 in the width direction / the size W0 in the width direction, and the ratio Hs = the distance H2 / the height direction / the size H0 in the height direction. Since the original image 150 to be input to the control unit 210 is arranged in the projection area 141 surrounded by the four vertices, the control unit 210 performs the ratios Ws and Hs in the width direction and the height direction of the original image 150. Based on the number of pixels, the designated point Sp (S, T, U) representing the touch position is associated with the pixel Pin (x, y) of the original image 150 (step S16).

投影画像152をタッチ操作した位置と原画像150における位置(画素)を1対1で対応させることにより、プロジェクタ装置100は、ユーザの意図する位置に対して誤差を生じさせることなく指示操作を認識することが可能となる。   The projector device 100 recognizes the pointing operation without causing an error with respect to the position intended by the user by making a one-to-one correspondence between the position where the projection image 152 is touched and the position (pixel) in the original image 150. It becomes possible to do.

(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, the first embodiment has been described as an example of the technique disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments that have been changed, replaced, added, omitted, and the like. Moreover, it is also possible to combine each component demonstrated in the said Embodiment 1, and it can also be set as a new embodiment.

本開示は、幾何補正を行った画像に対してもユーザによる指示操作が可能なプロジェクタ装置に適用可能である。   The present disclosure can be applied to a projector device that allows a user to perform an instruction operation on an image that has undergone geometric correction.

100 プロジェクタ装置
101 開口部
110 駆動部
120 電源部
130 配線ダクト
140 投影面
140a 壁
140b テーブル
141 投影領域
142 プロジェクタ面
150 原画像
151 出力画像
152 投影画像
153 赤外画像
170 投影部
200 ユーザインターフェース装置
210 制御部
220 メモリ
230 距離検出部
231 赤外光源部
232 赤外受光部
300 光源部
310 半導体レーザー
320、370、410 導光光学系
330 ダイクロイックミラー
340 λ/4板
350 レンズ
360 蛍光体ホイール
400 画像生成部
420 DMD
500 投影光学系
510 光学部材
DESCRIPTION OF SYMBOLS 100 Projector apparatus 101 Opening part 110 Drive part 120 Power supply part 130 Wiring duct 140 Projection surface 140a Wall 140b Table 141 Projection area 142 Projector surface 150 Original image 151 Output image 152 Projection image 153 Infrared image 170 Projection part 200 User interface apparatus 210 Control Unit 220 memory 230 distance detection unit 231 infrared light source unit 232 infrared light reception unit 300 light source unit 310 semiconductor laser 320, 370, 410 light guide optical system 330 dichroic mirror 340 λ / 4 plate 350 lens 360 phosphor wheel 400 image generation unit 420 DMD
500 Projection optical system 510 Optical member

Claims (4)

出力画像を投影する投影部と、
前記出力画像が投影される投影面から前記投影部までの距離情報を検出し、かつ、ユーザによる指示操作を空間的に検出する検出部と
前記距離情報を基に、原画像の各画素が投影される空間的な位置を算出し、前記原画像を前記出力画像に幾何補正する制御部と、を備え、
前記制御部は、算出結果を基に、前記指示操作によって指示された位置と前記原画像における前記画素の位置とを対応づける、
プロジェクタ装置。
A projection unit for projecting the output image;
Each pixel of the original image is projected based on the distance information, which detects distance information from the projection plane on which the output image is projected to the projection unit, and spatially detects an instruction operation by the user. A spatial position calculated, and a controller that geometrically corrects the original image to the output image,
The control unit associates the position indicated by the instruction operation with the position of the pixel in the original image based on the calculation result.
Projector device.
前記制御部は、前記検出部から得られる前記距離情報により、前記指示操作された位置を表す3次元座標を算出する、
請求項1に記載のプロジェクタ装置。
The control unit calculates three-dimensional coordinates representing the pointed and operated position based on the distance information obtained from the detection unit.
The projector device according to claim 1.
前記制御部は、前記投影面における前記出力画像が投影される投影領域を規定する4つの頂点の3次元座標を算出する、
請求項2に記載のプロジェクタ装置。
The control unit calculates three-dimensional coordinates of four vertices that define a projection region on the projection plane on which the output image is projected;
The projector device according to claim 2.
前記制御部は、前記投影領域の4つ頂点のうちの任意の1つの頂点から前記指示操作された位置までの幅及び高さ方向の距離を算出し、
算出された幅及び高さ方向の距離と前記投影領域の幅及び高さ方向のサイズとの比率から、前記指示操作された位置を前記原画像における前記画素の位置に対応付ける、
請求項3に記載のプロジェクタ装置。
The control unit calculates the distance in the width and height directions from any one of the four vertices of the projection area to the position where the instruction operation is performed,
From the ratio of the calculated distance in the width and height direction and the size of the projection area in the width and height direction, the designated position is associated with the position of the pixel in the original image.
The projector device according to claim 3.
JP2015168412A 2014-09-26 2015-08-28 Projector device Pending JP2016071864A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/859,197 US20160091987A1 (en) 2014-09-26 2015-09-18 Projector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014197576 2014-09-26
JP2014197576 2014-09-26

Publications (1)

Publication Number Publication Date
JP2016071864A true JP2016071864A (en) 2016-05-09

Family

ID=55867037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015168412A Pending JP2016071864A (en) 2014-09-26 2015-08-28 Projector device

Country Status (1)

Country Link
JP (1) JP2016071864A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110099260A (en) * 2018-01-31 2019-08-06 精工爱普生株式会社 Projection system, the control method of projection system and projector

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341029A (en) * 2003-05-13 2004-12-02 Sharp Corp projector
JP2008134793A (en) * 2006-11-28 2008-06-12 Fujifilm Corp Electronic handwriting input device
JP2013061552A (en) * 2011-09-14 2013-04-04 Ricoh Co Ltd Projector device and operation detection method
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341029A (en) * 2003-05-13 2004-12-02 Sharp Corp projector
JP2008134793A (en) * 2006-11-28 2008-06-12 Fujifilm Corp Electronic handwriting input device
JP2013061552A (en) * 2011-09-14 2013-04-04 Ricoh Co Ltd Projector device and operation detection method
JP2013134661A (en) * 2011-12-27 2013-07-08 Seiko Epson Corp Display device, projector, and display system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110099260A (en) * 2018-01-31 2019-08-06 精工爱普生株式会社 Projection system, the control method of projection system and projector
CN110099260B (en) * 2018-01-31 2022-07-01 精工爱普生株式会社 Projection system, control method of projection system, and projector

Similar Documents

Publication Publication Date Title
JP6064150B2 (en) Projection device
JP6047763B2 (en) User interface device and projector device
US9723281B2 (en) Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same
US10999565B2 (en) Projecting device
US11131911B2 (en) Projector and method for controlling projector
US20140285778A1 (en) Projection apparatus, projection method, and projection program medium
US20160191877A1 (en) Projector device and projection method
JP6201359B2 (en) Projection system, projection method, and projection program
US20160286186A1 (en) Projection apparatus
JP6307706B2 (en) Projection device
JP6167308B2 (en) Projection device
JP6191019B2 (en) Projection apparatus and projection method
US9841847B2 (en) Projection device and projection method, for projecting a first image based on a position of a moving object and a second image without depending on the position
JP2004088169A (en) Image display
CN114760451A (en) Projection image correction prompting method and device, projection equipment and storage medium
JP6182739B2 (en) Projection apparatus and projection method
JP2016071864A (en) Projector device
JP2016122179A (en) Projection device and projection method
JP2013083985A (en) Projection device, projection method, and program
JP6439254B2 (en) Image projection apparatus, control method for image projection apparatus, and control program for image projection apparatus
US20160091987A1 (en) Projector
JP2008216351A (en) Projection apparatus, projection method, and program
JP6209746B2 (en) Image projection device
WO2024154528A1 (en) Three-dimensional measurement device
CN120881246A (en) Correction method, projector, and program product

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160920

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170221