JP2016212291A - Image projection system, image processing apparatus, and program - Google Patents
Image projection system, image processing apparatus, and program Download PDFInfo
- Publication number
- JP2016212291A JP2016212291A JP2015096666A JP2015096666A JP2016212291A JP 2016212291 A JP2016212291 A JP 2016212291A JP 2015096666 A JP2015096666 A JP 2015096666A JP 2015096666 A JP2015096666 A JP 2015096666A JP 2016212291 A JP2016212291 A JP 2016212291A
- Authority
- JP
- Japan
- Prior art keywords
- light
- image
- unit
- projection
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3173—Constructional details thereof wherein the projection device is specially adapted for enhanced portability
- H04N9/3176—Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/315—Modulator illumination systems
- H04N9/3155—Modulator illumination systems for controlling the light source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Projection Apparatus (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
Description
本発明は、画像投影システム、画像処理装置、及びプログラムに関する。 The present invention relates to an image projection system, an image processing apparatus, and a program.
プロジェクタは、スクリーンに静止画や動作等の映像を拡大投影することができるため、多人数に対するプレゼンテーションなどに広く用いられている。このプレゼンテーションの際に、プレゼンターは説明の理解を助けるために、スクリーンに投影された映像を色付きのレーザポインタなどを照射して指し示すことが度々行われる。レーザポインタなどにより映像を直接的に指し示すと、映像の使用色によりレーザポインタの照射点(発光点)が視覚的に分かり難くなることがよくある。その改善策として、プレゼンターがレーザポインタによって照射した地点をCCD(Charge Coupled Device)カメラで検出し、その照射地点にポインタ画像等を投影するという技術も検討されている。 Projectors are widely used for presentations to a large number of people because they can enlarge and project still images and motion images on a screen. During this presentation, the presenter often points the image projected on the screen by irradiating a colored laser pointer or the like to help understand the explanation. When an image is pointed directly with a laser pointer or the like, it is often difficult to visually recognize the irradiation point (light emitting point) of the laser pointer due to the color used in the image. As an improvement measure, a technique of detecting a spot irradiated by a presenter with a laser pointer with a CCD (Charge Coupled Device) camera and projecting a pointer image or the like at the irradiated spot has been studied.
しかしながら、照射地点にポインタ画像等を投影させる場合、色付きのレーザポインタ等で可視光を照射することの他、赤外光等の不可視光を照射することも検討される。スクリーンに投影された映像を可視光と不可視光を用いて指し示した場合のそれぞれの発光点の検出技術はこれまでになく、それぞれの発光点を共に検出できるようにすることは喫緊の課題となっている。 However, when a pointer image or the like is projected at an irradiation point, in addition to irradiating visible light with a colored laser pointer or the like, irradiating invisible light such as infrared light is also considered. There has never been a technology for detecting each light emitting point when the image projected on the screen is pointed out using visible light and invisible light, and it is an urgent issue to be able to detect each light emitting point together. ing.
本発明は、上記に鑑みてなされたものであって、スクリーン等の投影面部に投影された映像を可視光と不可視光を用いて指し示した場合の各発光点を検出し、各発光点を可視光のものと不可視光のものとに弁別することのできる画像投影システム、画像処理装置、及びプログラムを提供することを目的とする。 The present invention has been made in view of the above, and detects each light emitting point when an image projected on a projection surface portion such as a screen is indicated using visible light and invisible light, and makes each light emitting point visible. An object of the present invention is to provide an image projection system, an image processing apparatus, and a program that can discriminate between light and invisible light.
上述した課題を解決し、目的を達成するために、本発明は、画像投影システムにおいて、可視光及び不可視光を照射する照射手段と、投影面に映像を投影する投影部と、前記投影面に投影された映像上に前記照射手段の照射により形成された可視光及び不可視光の発光点を所定のタイミングで撮像する撮像部と、前記撮像部の撮像により得られた撮像画像データから前記可視光及び前記不可視光のそれぞれの発光点に対応するマークを前記可視光のマークか前記不可視光のマークかを弁別して検出する弁別部と、前記弁別部が検出した前記可視光及び前記不可視光の各マークの、前記撮像画像データの画像内における位置に基づいて、前記投影部が投影する映像に前記可視光及び前記不可視光のそれぞれに固有の合成情報を合成する合成部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides an image projecting system, an irradiating unit that irradiates visible light and invisible light, a projecting unit that projects an image on a projection surface, and a projection surface. An imaging unit that captures a light emission point of visible light and invisible light formed by irradiation of the irradiation unit on the projected image at a predetermined timing, and the visible light from captured image data obtained by imaging of the imaging unit And a discrimination unit for discriminating and detecting whether the mark corresponding to each light emitting point of the invisible light is the visible light mark or the invisible light mark, and each of the visible light and the invisible light detected by the discrimination unit A combining unit configured to combine combined information unique to each of the visible light and the invisible light on an image projected by the projection unit based on a position of the mark in the image of the captured image data; Characterized in that it comprises a.
本発明によれば、投影面部に投影された映像を可視光と不可視光を用いて指し示した場合の各発光点を検出し、各発光点を可視光のものと不可視光のものとに弁別することができ、各発光点に固有の合成情報を合成することができるという効果を奏する。 According to the present invention, each light emitting point is detected when the image projected on the projection surface portion is indicated using visible light and invisible light, and each light emitting point is discriminated from visible light and invisible light. Therefore, it is possible to synthesize composite information unique to each light emitting point.
(第1の実施形態)
以下、添付図面を参照して画像投影システム、画像処理装置、及びプログラムの実施形態を詳細に説明する。
図1は、第1の実施形態の画像投影システムの全体構成を説明するための図である。図1に示す第1の実施形態の画像投影システム1は、一体型画像投影装置(画像処理装置)10と、第1のレーザポインタ11と、第2のレーザポインタ12と、投影面部13とを含む。
(First embodiment)
Hereinafter, embodiments of an image projection system, an image processing apparatus, and a program will be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram for explaining the overall configuration of the image projection system of the first embodiment. An image projection system 1 according to the first embodiment shown in FIG. 1 includes an integrated image projection apparatus (image processing apparatus) 10, a first laser pointer 11, a second laser pointer 12, and a projection surface unit 13. Including.
一体型画像投影装置10は、投影面部13に静止画や動画などの映像を投影する投影部10aと、投影部10aが投影した投影面部13上の映像を撮像するカメラ部(撮像部)10bとを備えている。投影部10aが投影する映像の映像データは外部のPC(Personal Computer)等から通信を介して受信する。その他、映像データを記憶するフラッシュメモリ等の記録媒体から再生したものであっても良い。カメラ部10bは、撮像素子として可視光領域と不可視光領域とを撮像することのできるエリアイメージセンサを備えている。エリアイメージセンサは、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等により構成される。本実施形態では、一例として不可視光領域を赤外領域(特に近赤外領域)として説明する。 The integrated image projection apparatus 10 includes a projection unit 10a that projects an image such as a still image or a moving image on the projection surface unit 13, and a camera unit (imaging unit) 10b that captures an image on the projection surface unit 13 projected by the projection unit 10a. It has. Video data of a video projected by the projection unit 10a is received via communication from an external PC (Personal Computer) or the like. In addition, it may be reproduced from a recording medium such as a flash memory for storing video data. The camera unit 10b includes an area image sensor that can image a visible light region and an invisible light region as an image sensor. The area image sensor is configured by a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like. In the present embodiment, the invisible light region is described as an infrared region (particularly, a near infrared region) as an example.
なお、特に図示されていないが、一体型画像投影装置10は、例えば操作ボタン及び液晶表示画面、或いはタッチ入力式の液晶表示画面等による表示入力手段を備えるものとする。表示入力手段は、後述するキャリブレーション用のパターン画像(図6参照)の指定や、各種モード(図15参照)の設定や、各種レーザポインタ11、12の波長領域(赤色、緑色、青色、赤外等)の指定などをユーザに行わせるためのものである。 Although not particularly illustrated, the integrated image projector 10 includes display input means such as operation buttons and a liquid crystal display screen, or a touch-input type liquid crystal display screen. The display input means designates a pattern image for calibration (see FIG. 6) described later, sets various modes (see FIG. 15), and wavelength regions (red, green, blue, red) of the various laser pointers 11 and 12. This is to allow the user to specify "External etc."
第1のレーザポインタ11及び第2のレーザポインタ12は、第1の実施形態の二つの照射装置の組み合わせ例である。第1のレーザポインタ11は、可視光用の照射装置の一例であり、原色の赤や緑や青、或いはそれらの系統の色の光をレーザ発振する照射装置である。第2のレーザポインタ12は、不可視光用の照射装置の一例であり、赤外領域の光(赤外光)をレーザ発振する照射装置である。これらは電池駆動し、ユーザUにより使用される。 The first laser pointer 11 and the second laser pointer 12 are a combination example of the two irradiation devices of the first embodiment. The first laser pointer 11 is an example of an irradiation device for visible light, and is an irradiation device that oscillates light of primary colors red, green, blue, or colors of those systems. The second laser pointer 12 is an example of an irradiation device for invisible light, and is an irradiation device that oscillates light in an infrared region (infrared light). These are battery powered and used by the user U.
投影面部13は、マットスクリーン、バールスクリーン、シルバースクリーン、ビーズスクリーン等の各種スクリーンである。本実施形態では、各種スクリーンの何れかを投影面部13として設けた場合の例を示す。なお、投影面部13の代わりに例えば白地の壁や床などの専用スクリーン以外のものを投影先として利用しても良い。 The projection surface unit 13 is various screens such as a mat screen, a bar screen, a silver screen, and a bead screen. In the present embodiment, an example in which any one of various screens is provided as the projection surface unit 13 is shown. Instead of the projection surface unit 13, a screen other than a dedicated screen such as a white wall or floor may be used as the projection destination.
図2は、投影部10aのハードウェアの内部構成を示す図である。図2に示すように、投影部10aは、光学系3a、及び投射系3bを備える。光学系3aは、カラーホイール5、ライトトンネル6、リレーレンズ7、平面ミラー8、凹面ミラー9を備えている。また、投影部10aには、DMD(Digital Micromirror Device)2が設けられている。 FIG. 2 is a diagram illustrating an internal configuration of hardware of the projection unit 10a. As shown in FIG. 2, the projection unit 10a includes an optical system 3a and a projection system 3b. The optical system 3 a includes a color wheel 5, a light tunnel 6, a relay lens 7, a plane mirror 8, and a concave mirror 9. Further, a DMD (Digital Micromirror Device) 2 is provided in the projection unit 10a.
円盤状のカラーホイール5は、複数色のカラーフィルタを有する。カラーホイール5は、回転により、例えば高圧水銀ランプなどの光源4からの白色光をRGBの各色が繰り返される時分割の光に変換して出射する。カラーホイール5を出射した光はライトトンネル6に向けて出射される。なお、カラーホイール5のカラーフィルタとして、RGB各色以外に、RGB各色を適宜組合わせてなるものを設定する場合には、カラーホイール5は白色光を各フィルタに対応する色が繰り返される時分割の光に変換する。なお、カラーホイール5の詳細については、カラーフィルタをRGB各色を適宜組合わせてなるものにより構成したものを例に後述する。 The disc-shaped color wheel 5 has a plurality of color filters. By rotating, the color wheel 5 converts white light from a light source 4 such as a high-pressure mercury lamp into time-division light in which each color of RGB is repeated and emits the light. The light emitted from the color wheel 5 is emitted toward the light tunnel 6. When the color filter of the color wheel 5 is set by appropriately combining RGB colors in addition to the RGB colors, the color wheel 5 is a time-division method in which white light is repeated in a color corresponding to each filter. Convert to light. The details of the color wheel 5 will be described later using an example in which a color filter is configured by appropriately combining RGB colors.
ライトトンネル6は、板ガラスを張り合わせて筒状に構成されており、カラーホイール5から出射された光をリレーレンズ7へと導出する。リレーレンズ7は、二枚のレンズを組み合わせて構成されており、ライトトンネル6から出射される光の軸上色収差を補正しつつ集光する。平面ミラー8、及び凹面ミラー9は、リレーレンズ7により出射される光を反射して、DMD2へと案内して、集光させる。 The light tunnel 6 is formed in a cylindrical shape by laminating plate glasses, and guides the light emitted from the color wheel 5 to the relay lens 7. The relay lens 7 is configured by combining two lenses, and collects light while correcting axial chromatic aberration of light emitted from the light tunnel 6. The plane mirror 8 and the concave mirror 9 reflect the light emitted from the relay lens 7 and guide it to the DMD 2 to collect it.
DMD2は、画素単位の多数のマイクロミラーを有し、映像データに基づいて各マイクロミラーを個別に時分割駆動して映像に必要な光を投射系3bに向けて反射する。具体的に、光学系3a内には、DMD2に入射した光のうちの映像に使用しない光を受光するOFF光板が設けられている。DMD2は、映像データに基づいて各マイクロミラーを個別に時分割でオン/オフ駆動し、入射光のうちの映像に使用しない光をOFF光板側へ反射し、映像に使用する光を投射系3bの投射レンズ側へ反射する。これにより、微小時間(例えばマイクロ秒オーダ)の時間間隔で、RGB各色の色版或いはRGB各色を組合わせてなる各色の色版を示す光が順次生成され、それぞれの光が時分割で投射系3bに入射する。 The DMD 2 has a large number of pixel-specific micromirrors, and each micromirror is individually time-division driven based on video data to reflect light necessary for video toward the projection system 3b. Specifically, an OFF light plate is provided in the optical system 3a to receive light that is not used for video out of light incident on the DMD 2. The DMD 2 drives each micromirror on / off individually in a time-sharing manner based on the video data, reflects light not used for video among incident light to the OFF light plate side, and uses light used for video in the projection system 3b. Reflects toward the projection lens side. As a result, light indicating a color plate of each RGB color or a color plate of each color formed by combining RGB colors is sequentially generated at a time interval of a minute time (for example, microsecond order), and each light is projected in a time-sharing manner. Incident on 3b.
投射系3bは、入射した光を複数の投射レンズを通して拡大投射する。これにより、投影面部13上に各色版の画像が順に投影され、それらの色版が視覚的に映像として合成される。 The projection system 3b enlarges and projects incident light through a plurality of projection lenses. As a result, the images of the respective color plates are sequentially projected on the projection surface unit 13, and these color plates are visually synthesized as a video.
図3は、カメラ部10bのハードウェアの内部構成の一例を示す図である。図3に示すように、カメラ部10bは、光学系部31、カラーCCDイメージセンサ32、A/D変換部33、シャッター34などを備えている。 FIG. 3 is a diagram illustrating an example of an internal configuration of hardware of the camera unit 10b. As shown in FIG. 3, the camera unit 10b includes an optical system unit 31, a color CCD image sensor 32, an A / D conversion unit 33, a shutter 34, and the like.
光学系部31は、投影面部13の光を集め、その集めた光をカラーCCDイメージセンサ32上に結像させる光学レンズ群である。 The optical system unit 31 is an optical lens group that collects the light of the projection surface unit 13 and forms an image of the collected light on the color CCD image sensor 32.
カラーCCDイメージセンサ32は、RGB各色の光センサ(フォトダイオード等)をマトリックス状に配列したエリアセンサである。具体的に、カラーCCDイメージセンサ32は、可視領域及び赤外領域の波長の光を感受する光センサ(フォトダイオード等)をマトリックス状に配列した撮像エリアを備えている。更に、撮像エリア上には、各光センサに対応させてRGB各色の色フィルタをベイヤー配列などにより設けたカラーフィルタを備えている。なお、本実施形態では、赤外光を通過させるために、赤外光の通過を阻止する赤外フィルタはカラーフィルタに設けないようにする。 The color CCD image sensor 32 is an area sensor in which light sensors (photodiodes and the like) for each color of RGB are arranged in a matrix. Specifically, the color CCD image sensor 32 includes an imaging area in which optical sensors (such as photodiodes) that sense light in the visible region and infrared region are arranged in a matrix. Further, on the imaging area, a color filter is provided in which color filters for each color of RGB are provided in a Bayer arrangement or the like so as to correspond to each optical sensor. In this embodiment, in order to allow infrared light to pass, an infrared filter that blocks the passage of infrared light is not provided in the color filter.
カラーCCDイメージセンサ32において、撮像エリアに結像した投影面部13の光は、そのカラーフィルタを介してRGB各色に分光され、分光されたRGB各色の光と、カラーフィルタを通過する赤外光とが光センサに吸収される。光センサは、吸収した光を電気信号に変換して電荷を蓄電する。そして、所定のタイミングで各光センサの蓄電した電荷を出力し、A/D変換部33でデジタル変換する。これにより、カラー画像データ(カラーデジタル画像データ)を生成する。 In the color CCD image sensor 32, the light of the projection surface 13 formed in the imaging area is split into RGB colors via the color filter, and the split RGB light and infrared light passing through the color filter are transmitted. Is absorbed by the optical sensor. The optical sensor stores the electric charge by converting the absorbed light into an electric signal. Then, the electric charge stored in each photosensor is output at a predetermined timing, and digitally converted by the A / D converter 33. Thereby, color image data (color digital image data) is generated.
図4は、カラーCCDイメージセンサの分光感度特性の一例を示す図である。
図4に示すグラフ曲線g1は、青のカラーフィルタに対応する光センサの感度特性を示している。グラフ曲線g2は、緑のカラーフィルタに対応する光センサの感度特性を示している。グラフ曲線g3は、赤のカラーフィルタに対応する光センサの感度特性を示している。各グラフ曲線g1、g2、g3は、可視光領域では、それぞれの対応色の示す波長において高い感度を示し、それ以外の波長では感度が極端に低くなる。また、不可視光領域では、何れも、近赤外の870nm付近の波長で感度が高くなる。
FIG. 4 is a diagram illustrating an example of spectral sensitivity characteristics of a color CCD image sensor.
A graph curve g1 shown in FIG. 4 indicates the sensitivity characteristic of the photosensor corresponding to the blue color filter. A graph curve g2 indicates the sensitivity characteristic of the photosensor corresponding to the green color filter. A graph curve g3 indicates the sensitivity characteristic of the photosensor corresponding to the red color filter. Each graph curve g1, g2, g3 shows high sensitivity at the wavelength indicated by the corresponding color in the visible light region, and extremely low sensitivity at other wavelengths. Further, in the invisible light region, the sensitivity is high at a wavelength near 870 nm in the near infrared.
なお、図3においてはカメラ部10bを単板式の構成のものとして示したがこの限りではない。例えば、RGB各色のそれぞれのエリアセンサを設けた3板式の構成のものとしても良い。この場合、光学系部31に例えばダイクロイックプリズムを設けるなどして、入射光をRGB各色に分光してそれぞれを対応するエリアセンサに入射させるようにする。また、RGB各色のエリアセンサの他に更に不可視光用のモノクロのエリアセンサを設けても良い。この場合、ダイクロイックプリズムにおいて、所定の波長を境目にして可視光と赤外光とを分光し、赤外等の光をモノクロのエリアセンサに入射させるようにする。その他にも、適宜、構成を変えても良い。 In addition, in FIG. 3, although the camera part 10b was shown as a thing of a single plate type structure, it is not this limitation. For example, it is good also as a thing of the 3 plate type structure which provided each area sensor of each color of RGB. In this case, for example, a dichroic prism is provided in the optical system unit 31, for example, so that incident light is split into RGB colors and each is incident on a corresponding area sensor. Further, in addition to the RGB color area sensors, a monochrome area sensor for invisible light may be further provided. In this case, in the dichroic prism, visible light and infrared light are dispersed with a predetermined wavelength as a boundary, and light such as infrared light is incident on a monochrome area sensor. In addition, the configuration may be changed as appropriate.
図3のシャッター34は、撮像エリアの各光センサに対する露光時間や露光のタイミングを調節するためのメカニカルシャッターである。シャッター34は、後述する駆動制御部22(図5参照)の制御により開閉動作し、撮像エリア内への光の通過時間(露光時間)と通過タイミング(露光のタイミング)を制御する。 The shutter 34 in FIG. 3 is a mechanical shutter for adjusting the exposure time and exposure timing for each optical sensor in the imaging area. The shutter 34 opens and closes under the control of a drive control unit 22 (see FIG. 5), which will be described later, and controls the passage time (exposure time) and passage timing (exposure timing) of light into the imaging area.
図5は、一体型画像投影装置10の機能構成を示すブロック図である。図5に示すように、一体型画像投影装置10は、映像処理部(合成部含む)21、駆動制御部22、映像信号入力部23、変換係数演算部24、指示マーク検出部(弁別部)25、画像処理部26などを備えている。 FIG. 5 is a block diagram showing a functional configuration of the integrated image projector 10. As shown in FIG. 5, the integrated image projection apparatus 10 includes a video processing unit (including a synthesis unit) 21, a drive control unit 22, a video signal input unit 23, a conversion coefficient calculation unit 24, and an instruction mark detection unit (discrimination unit). 25, an image processing unit 26, and the like.
映像処理部21は、投影用の映像信号(第1の映像信号)を入力し、第1の映像信号をフレーム毎に任意のデジタル画像処理を行う。そして、デジタル画像処理後の信号を駆動制御部22へ出力する。具体的に、映像処理部21では、デジタル画像処理として、コントラスト、明るさ、彩度、色相、RGBゲイン、シャープネス、拡大縮小などや、或いは駆動制御部22の特性に応じた補正処理などを行う。 The video processing unit 21 receives a projection video signal (first video signal), and performs arbitrary digital image processing on the first video signal for each frame. Then, the signal after the digital image processing is output to the drive control unit 22. Specifically, the video processing unit 21 performs, as digital image processing, contrast, brightness, saturation, hue, RGB gain, sharpness, enlargement / reduction, or correction processing according to the characteristics of the drive control unit 22. .
また、映像処理部21は、画像処理部26から第2の映像信号の入力があると、第1の映像信号に第2の映像信号を重畳する。例えば、第2の映像信号として、所定の部分画像を含むフレーム画像の入力があるとする。その場合、第1の映像信号の入力フレームに対して、第2の映像信号のフレーム画像に含まれる部分画像を、入力フレームの対応位置に合成することにより重畳する。合成は、例えば、入力フレームの対応位置のRGB情報を部分画像のRGB情報に置き換えたり、或いは入力フレームの対応位置の画像情報が残るように対応位置のRGB情報を部分画像を透過的に示すRGB情報に置き換えたりするなどして実施する。 Further, when the second video signal is input from the image processing unit 26, the video processing unit 21 superimposes the second video signal on the first video signal. For example, it is assumed that a frame image including a predetermined partial image is input as the second video signal. In that case, the partial image included in the frame image of the second video signal is superimposed on the input frame of the first video signal by combining it with the corresponding position of the input frame. For example, the RGB information of the corresponding position of the input frame is replaced with the RGB information of the partial image, or the RGB information of the corresponding position transparently shows the partial image so that the image information of the corresponding position of the input frame remains. Implement it by replacing it with information.
それから、映像処理部21は、重畳後の映像信号(第3の映像信号)に対してフレーム毎に任意の上記画像処理を施し、デジタル画像処理後の信号を駆動制御部22へ出力する。映像処理部21は、画像処理部26から入力された所定の部分画像のフレーム画像を、次の部分画像のフレーム画像が入力されるまでの所定期間保持し、第1の映像信号の順次入力される入力フレームに、保持しているフレーム画像の部分画像を合成する。 Then, the video processing unit 21 performs arbitrary image processing for each frame on the superimposed video signal (third video signal), and outputs the digital image processed signal to the drive control unit 22. The video processing unit 21 holds the frame image of the predetermined partial image input from the image processing unit 26 for a predetermined period until the frame image of the next partial image is input, and sequentially receives the first video signal. A partial image of the held frame image is synthesized with the input frame.
駆動制御部22は、映像処理部21からの入力信号に応じ、カラーホイール5や、DMD2の各マイクロミラーや、光源4の駆動電流をコントロールするランプ電源17や、カメラ部10bなどの駆動条件を決定する。例えばカラーホイール5の回転速度や、DMD2の各マイクロミラーのオン/オフのタイミングや、ランプ電源17の駆動電流の電流値を決定する。 The drive control unit 22 determines the drive conditions of the color wheel 5, each micromirror of the DMD 2, the lamp power source 17 that controls the drive current of the light source 4, the camera unit 10 b, and the like according to the input signal from the video processing unit 21. decide. For example, the rotational speed of the color wheel 5, the on / off timing of each micromirror of the DMD 2, and the current value of the driving current of the lamp power source 17 are determined.
駆動制御部22は、更に、カメラ部10bのシャッター34のタイミングなどを決定する。シャッタータイミングについては、第1のレーザポインタ11と第2のレーザポインタ12のそれぞれの照射光の発光点を撮像可能なタイミングをカラーホイール5の回転位置情報などから決定する。このシャッタータイミングについては、後に詳しく説明する。 The drive control unit 22 further determines the timing of the shutter 34 of the camera unit 10b. As for the shutter timing, the timing at which the emission points of the irradiated light of the first laser pointer 11 and the second laser pointer 12 can be imaged is determined from the rotational position information of the color wheel 5 and the like. This shutter timing will be described in detail later.
それから、駆動制御部22は、決定した駆動条件に従い、カラーホイール5、DMD2、ランプ電源17、カメラ部10bなどを駆動制御する。この制御により、第1の映像信号や第3の映像信号等に基づく映像が光学系3aから出射され、投射系3bを介して投影面部13に拡大投影されることになる。また、投影面部13に投影された映像はカメラ部10bにより所定のタイミングで撮像されることになる。 Then, the drive control unit 22 drives and controls the color wheel 5, DMD 2, lamp power source 17, camera unit 10b, and the like according to the determined drive conditions. By this control, an image based on the first image signal, the third image signal, and the like is emitted from the optical system 3a and enlarged and projected on the projection surface unit 13 through the projection system 3b. Further, the image projected on the projection surface unit 13 is captured at a predetermined timing by the camera unit 10b.
更に、本実施形態において、駆動制御部22は、投影のために出力する出力映像と、その映像をカメラ部10bの撮像により投影面部13から入力し戻した入力画像との、画像内の各位置の位置ずれを調節するためのキャリブレーション処理の実行を制御する。具体的に、駆動制御部22は、変換係数演算部24にキャリブレーションの実行を指示し、変換係数演算部24が内蔵メモリ等から読み込んだパターン画像(図6参照)を第4の映像信号として映像処理部21に出力する。 Further, in the present embodiment, the drive control unit 22 positions each position in the image between an output video output for projection and an input image obtained by inputting the video back from the projection surface unit 13 by imaging of the camera unit 10b. The execution of the calibration process for adjusting the positional deviation is controlled. Specifically, the drive control unit 22 instructs the conversion coefficient calculation unit 24 to execute calibration, and a pattern image (see FIG. 6) read from the built-in memory or the like by the conversion coefficient calculation unit 24 is used as a fourth video signal. Output to the video processing unit 21.
図6は、パターン画像の一例である。図6には白黒の矩形パターンのパターン画像P1を示している。この配色の他に、例えば赤白や緑白や青白などと配色を変更しても良い。 FIG. 6 is an example of a pattern image. FIG. 6 shows a black and white rectangular pattern image P1. In addition to this color scheme, the color scheme may be changed to, for example, red white, green white, or blue white.
駆動制御部22は、映像処理部21から第4の映像信号としてパターン画像P1のフレームを入力すると、そのパターン画像P1の駆動条件を決定し、各部を駆動制御する。これにより、パターン画像P1を示す光の像が光学系3aから出射され、投射系3bを介して投影面部13に拡大投影されることとなる。カメラ部10bは、パターン画像P1の投影面部13に投影された画像を撮像する。なお、キャリブレーション動作の場合、駆動制御部22はカメラ部10bの撮像に必要となる期間、パターン画像P1を投影し続ける制御を行う。また、その投影時間内に露光を終えるようにカメラ部10bのシャッター34の開閉を制御する。 When the frame of the pattern image P1 is input from the video processing unit 21 as the fourth video signal, the drive control unit 22 determines the driving condition of the pattern image P1 and controls the driving of each unit. As a result, an image of light indicating the pattern image P1 is emitted from the optical system 3a and enlarged and projected onto the projection surface unit 13 via the projection system 3b. The camera unit 10b captures an image projected on the projection surface unit 13 of the pattern image P1. In the case of the calibration operation, the drive control unit 22 performs control to continue projecting the pattern image P1 for a period necessary for imaging by the camera unit 10b. In addition, the opening / closing of the shutter 34 of the camera unit 10b is controlled so that the exposure is completed within the projection time.
キャリブレーション処理を行うタイミングは、映像の投影時や、キャリブレーションのモードの手動起動時や、装置の毎回の起動時や、装置の初回起動時のみや、本装置の出荷前など、適宜決めて良い。 The timing for performing the calibration process should be determined as appropriate, such as when projecting images, manually starting the calibration mode, starting each time, starting the device for the first time, or before shipping the device. good.
映像信号入力部23は、カメラ部10bが撮像したカラー画像データに、色変換等を行いRGBに変換する。 The video signal input unit 23 performs color conversion or the like on the color image data captured by the camera unit 10b and converts it into RGB.
変換係数演算部24は、上述のようにキャリブレーション時に内蔵メモリ等からパターン画像P1を読み込んで第4の映像信号として映像処理部21に出力する。更に変換係数演算部24は、第4の映像信号上におけるパターン画像の各格子点の座標(x,y)と、カメラ部10bから入力し戻した画像データ上における各格子点の座標(x‘,y’)とを比較し、各格子点の相互位置関係を紐付ける射影変換係数を算出する。そして、変換係数演算部24は、その算出した射影変換係数を画像処理部26のパラメータHにセットする。パラメータHは、第2の映像信号(つまり部分画像)の各格子点の位置を第1の映像信号の各格子点の位置に調節するためのパラメータである。 As described above, the conversion coefficient calculation unit 24 reads the pattern image P1 from the built-in memory or the like during calibration, and outputs the pattern image P1 to the video processing unit 21 as a fourth video signal. Further, the conversion coefficient calculation unit 24 coordinates (x, y) of each lattice point of the pattern image on the fourth video signal, and coordinates (x ′) of each lattice point on the image data input back from the camera unit 10b. , Y ′) and a projective transformation coefficient that links the mutual positional relationship of the respective grid points is calculated. Then, the conversion coefficient calculation unit 24 sets the calculated projective conversion coefficient in the parameter H of the image processing unit 26. The parameter H is a parameter for adjusting the position of each grid point of the second video signal (that is, the partial image) to the position of each grid point of the first video signal.
指示マーク検出部(弁別部)25は、映像信号入力部23で生成されたRGBの各画像データ中に所定の指示マークとして記録される、可視光及び不可視光のレーザポインタ11、12の各発光部を検出する。つまり、色情報等により検出する。そして、それぞれの位置座標{(x1‘,y1‘)、(x2‘,y2‘)}を取得する。 The indication mark detection unit (discrimination unit) 25 emits each of the visible and invisible laser pointers 11 and 12 recorded as predetermined indication marks in the RGB image data generated by the video signal input unit 23. Part. That is, it is detected by color information or the like. Then, the respective position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} are acquired.
画像処理部26は、パラメータHにセットされた射影変換係数により各指示マークのそれぞれの位置座標{(x1‘,y1‘)、(x2‘,y2‘)}を{(x1,y1)、(x2,y2)}に補正する。更に、画像処理部26は、補正後の各位置{(x1,y1)、(x2,y2)}に互いに異なる固有の指示データ(合成情報)を形成してなる第2の映像信号(部分画像)を生成して映像処理部21に出力する。本実施形態では、レーザポインタ11、12による投影面部13の可視光の発光部と赤外光の発光部とを強調表示するための照射点を示すポインタ画像を上記指示データとして形成する。例えば各座標{(x1,y1)、(x2,y2)}を中心とする半径z画素分の円形データを上記指示データとして形成する。その他、予め登録したポインタ画像を上記補正後の位置に配置するなどして第2の映像信号を生成するなどしても良い。 The image processing unit 26 converts the position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} of each indication mark to {(x1, y1), ( x2, y2)}. Further, the image processing unit 26 forms a second video signal (partial image) formed by forming different unique instruction data (composite information) at each corrected position {(x1, y1), (x2, y2)}. ) And output to the video processing unit 21. In the present embodiment, a pointer image indicating an irradiation point for highlighting the visible light emitting part and the infrared light emitting part of the projection surface 13 by the laser pointers 11 and 12 is formed as the instruction data. For example, circular data for a radius z pixel centered on each coordinate {(x1, y1), (x2, y2)} is formed as the instruction data. In addition, the second video signal may be generated by arranging a pointer image registered in advance at the corrected position.
続いて、指示マーク検出部25による可視光と不可視光の発光部を検出する処理の流れについて説明する。
図7は、カラーホイール5を7色の色フィルタで構成した場合の配色の一例を示す図である。一例としてCy−W−R−M−Y−G−Bの7色の色フィルタを備えたものを示している。RGB各色以外に、RGB各色を適宜組合わせてなる色フィルタを備えている。同図においてカラーホイール5は反時計回りに回転し、光源4からの白色光は、Redセグメント、Magentaセグメント、Yellowセグメントの順に色フィルタを通過する。
Next, a flow of processing for detecting visible light and invisible light emitting units by the instruction mark detection unit 25 will be described.
FIG. 7 is a diagram illustrating an example of a color arrangement when the color wheel 5 is configured with seven color filters. As an example, one having seven color filters of Cy-W-R-M-Y-G-B is shown. In addition to the RGB colors, a color filter formed by appropriately combining RGB colors is provided. In the figure, the color wheel 5 rotates counterclockwise, and the white light from the light source 4 passes through the color filter in the order of the Red segment, the Magenta segment, and the Yellow segment.
図8は、7色の色フィルタと、各色フィルタを通過するRGB光との相関関係を示す図である。図8の実線矢印が色フィルタを通過する通過色を示している。例えば7つの色フィルタの内のRedセグメントは、Red光を透過し、Green光とBlue光の透過を制限する。また、2次色のCyanセグメントにおいては、Green光とBlue光を透過し、Red光の透過を制限する。また、3次色のWhiteにおいては、Red光と、Green光と、Blue光とを全て透過する。その他の各色の色フィルタについては、説明を省略するが、図示した通りのものとする。 FIG. 8 is a diagram showing the correlation between the seven color filters and the RGB light passing through each color filter. A solid line arrow in FIG. 8 indicates a passing color that passes through the color filter. For example, the Red segment of the seven color filters transmits Red light and restricts transmission of Green light and Blue light. Further, the secondary color Cyan segment transmits Green light and Blue light and restricts transmission of Red light. In the white of the tertiary color, all of the Red light, the Green light, and the Blue light are transmitted. The description of the color filters for the other colors is omitted, but is assumed to be as illustrated.
図9は、カラーホイール5の一回転(一周期)において各セグメントを通過して投影される光の色(投影光色)の投影期間を示す図である。図中に実線の矢印で示す期間(該当期間)は、その期間に該当するカラーホイール5のセグメントを通過して投影される投影光色の投影期間を示している。例えば投影光色Greenに注目する。投影光色Greenの光を通過させるセグメントは、図8にも示しているが、Yellowセグメント、Greenセグメント、Cyanセグメント、及びWhiteセグメントである。従って、図9に示すように、Yellowセグメント及びGreenセグメントの連続する期間と、そこから一定期間空けてCyanセグメント及びWhiteセグメントの連続する期間においてGreenが投影光色として投影される。 FIG. 9 is a diagram illustrating a projection period of light colors (projected light colors) projected through each segment in one rotation (one cycle) of the color wheel 5. A period (corresponding period) indicated by a solid arrow in the drawing indicates a projection period of the projection light color projected through the segment of the color wheel 5 corresponding to the period. For example, pay attention to the projected light color Green. The segments that allow the light of the projected light color Green to pass through are the yellow segment, the green segment, the cyan segment, and the white segment as shown in FIG. Therefore, as shown in FIG. 9, Green is projected as a projected light color in a continuous period of the Yellow segment and the Green segment, and in a continuous period of the Cyan segment and the White segment after a certain period.
一方、図中に破線の矢印で示す期間は、該当する色の光を投影光色に含めないブランク期間を示している。上記のGreenの光に対応するブランク期間は、TimingBの破線の矢印により示している。図8にも示しているが、Redセグメント,Magentaセグメント、及びBlueセグメントは投影光色Greenの光を通過させない。このため、図9に示す、Redセグメント、Magentaセグメント、及びBlueセグメントに対応する期間が投影光色にGreenの光を含めないGreenのブランク期間となっている。Greenのブランク期間には、Green版を使用しない映像が投影面部13に形成されることになる。つまり、投影面部13に第1のレーザポインタ11を照射して例えばGreenの発光点を形成した場合、TimingBのブランク期間にGreenの光を検出すれば、検出した光を第1のレーザポインタ11の発光点として特定することができる。 On the other hand, a period indicated by a broken-line arrow in the figure indicates a blank period in which the corresponding color light is not included in the projected light color. The blank period corresponding to the Green light is indicated by a dashed arrow of TimingB. As shown in FIG. 8, the Red segment, the Magenta segment, and the Blue segment do not pass the light of the projection light color Green. For this reason, the period corresponding to the Red segment, the Magenta segment, and the Blue segment shown in FIG. 9 is a green blank period in which green light is not included in the projected light color. During the green blank period, an image that does not use the green plate is formed on the projection plane 13. That is, when the first laser pointer 11 is irradiated to the projection surface portion 13 to form, for example, a green light emission point, if the green light is detected during the blanking period of Timing B, the detected light is transmitted to the first laser pointer 11. It can be specified as a light emitting point.
上記発光点の特定について図10〜図14を用いて以下に更に詳しく説明する。
図10は、投影面部13に投影されたある映像上に第1のレーザポインタ11のRed、Green、及びBlueの光を照射したときの投影面部13上の発光点の人の目での見え方を示す図である。図10は、発光点の示す位置近辺の映像が一例としてBlack、Red、Green、Blue、及びWhiteの場合の各色の発光点の見え方を示している。なお、Blackは光を照射せずに周囲との輝度差により表現した黒色である。同図に示すように、映像の色がBlackのときには第1のレーザポインタ11の各色の発光点を人の目で識別できるが、映像の色がその他の色のときには発光点を識別するのが困難になる。
The specification of the light emitting point will be described in more detail below with reference to FIGS.
FIG. 10 shows how a light emitting point on the projection surface 13 is seen by human eyes when the image of the first laser pointer 11 is irradiated with red, green, and blue light on a certain image projected on the projection surface 13. FIG. FIG. 10 shows how the light emitting points of each color appear when the image near the position indicated by the light emitting points is Black, Red, Green, Blue, and White as an example. Black is black expressed by a luminance difference from the surroundings without irradiating light. As shown in the figure, when the color of the image is black, the light emission point of each color of the first laser pointer 11 can be identified by human eyes, but when the color of the image is other colors, the light emission point is identified. It becomes difficult.
図11は、投影面部13に投影されたある映像上に第1のレーザポインタ11のRed、Green、及びBlueの光を照射し、その投影面部13をブランク期間(TimingA、B、C)にカメラ部10bにおいて撮像したときの画像データである。図11の「TimingA Red Shot Image」に示す第1の色版画像データG1は、TimingA(図9参照)のブランク期間に投影面部13を撮像して得たRed画像データである。第1の色版画像データ(Red画像データ)G1の下に示すBlack、Red、Green、Blue、及びWhiteは、投影面部13の映像色を示している。 FIG. 11 shows a case in which red, green, and blue light of the first laser pointer 11 is irradiated on a certain image projected on the projection plane unit 13, and the projection plane unit 13 is camerad during a blank period (Timing A, B, C). It is image data when it images in the part 10b. The first color plane image data G1 shown in “TimingA Red Shot Image” in FIG. 11 is Red image data obtained by imaging the projection plane portion 13 during the blank period of TimingA (see FIG. 9). Black, Red, Green, Blue, and White shown below the first color plane image data (Red image data) G <b> 1 indicate video colors of the projection surface unit 13.
TimingAのブランク期間においては上述したように投影面部13にRed版の映像が投影されていない。そのため、撮像した第1の色版画像データ(Red画像データ)G1には、同図においてドットとして示す第1のレーザポインタ11の赤色の発光点を示す指示マークが、そのときの投影映像に依存せずに背景から浮かび上がる。映像色がRedの位置については、実際にはRed版が投影されていないが、他の色版画像データG2、G3との比較のため発光点が浮かび上がるものとして示した。本実施形態では、背景から浮かび上がる指示マークを検出し、第1のレーザポインタ11の赤色の発光点として特定する。 As described above, the Red plane image is not projected onto the projection plane 13 during the blanking period of Timing A. For this reason, in the captured first color plane image data (Red image data) G1, the indication mark indicating the red light emission point of the first laser pointer 11 shown as a dot in the drawing depends on the projected image at that time. It emerges from the background without As for the position where the video color is Red, the Red plate is not actually projected, but for comparison with the other color plate image data G2 and G3, the light emission point is shown as rising. In the present embodiment, an instruction mark emerging from the background is detected and specified as a red light emission point of the first laser pointer 11.
なお、第1の色版画像データ(Red画像データ)G1は、同図においてモノクロで階調表現されているが、赤色により階調表現されるものである。また、発光点と背景の輝度は、発光点が高く、背景が低いものとなる。 The first color plane image data (Red image data) G1 is expressed in grayscale in monochrome in the same figure, but is expressed in grayscale in red. The luminance of the light emitting point and the background is high at the light emitting point and low at the background.
次に、図11の「TimingB Green Shot Image」に示す第2の色版画像データG2は、TimingB(図9参照)のブランク期間に撮像して得たGreen画像データである。Green画像データについてもRed画像データと同様に説明することができる。つまり、TimingBのブランク期間においては投影面部13にGreen版の映像が投影されていない。そのため、撮像した第2の色版画像データ(Green画像データ)G2には、同図においてドットとして示す第1のレーザポインタ11の緑色の発光点を示す指示マークが、そのときの投影映像に依存せずに背景から浮かび上がる。映像色がGreenの位置については、実際にはGreen版が投影されていないが、他の色版画像データG1、G3との比較のため発光点が浮かび上がるものとして示した。本実施形態では、背景から浮かび上がる指示マークを検出し、第1のレーザポインタ11の緑色の発光点として特定する。 Next, the second color plane image data G2 shown in “TimingB Green Shot Image” in FIG. 11 is Green image data obtained by imaging in the blank period of TimingB (see FIG. 9). The green image data can be described in the same manner as the red image data. In other words, the green image is not projected on the projection surface 13 during the blanking period of Timing B. Therefore, in the captured second color image data (Green image data) G2, an indication mark indicating the green light emission point of the first laser pointer 11 shown as a dot in the drawing depends on the projected image at that time. It emerges from the background without As for the position where the video color is Green, the Green plate is not actually projected, but the light emission point is shown as being raised for comparison with the other color plate image data G1 and G3. In the present embodiment, an instruction mark emerging from the background is detected and specified as a green light emitting point of the first laser pointer 11.
次に、図11の「TimingC Blue Shot Image」に示す第3の色版画像データG3は、TimingC(図9参照)のブランク期間に撮像して得たBlue画像データである。Blue画像データについてもRed画像データやGreen画像データと同様に説明することができる。説明の繰り返しとなるため、説明を一部省略するが、本実施形態では、第3の色版画像データ(Blue画像データ)G3に浮かび上がった指示マークを検出し、第1のレーザポインタ11の青色の発光点として特定する。
以上のように、本実施形態では、投影面部13の映像上に第1のレーザポインタ11の照射により形成される発光点を、その発光色に対応する投影光色のブランク期間に撮像したその色版の画像データの中から検出する。
Next, the third color plane image data G3 shown in “Timing C Blue Shot Image” in FIG. 11 is Blue image data obtained by imaging in the blank period of Timing C (see FIG. 9). Blue image data can also be described in the same manner as Red image data and Green image data. In order to repeat the description, a part of the description is omitted, but in the present embodiment, the instruction mark floating in the third color image data (Blue image data) G3 is detected, and the first laser pointer 11 It is specified as a blue light emitting point.
As described above, in the present embodiment, the color obtained by imaging the light emitting point formed by the irradiation of the first laser pointer 11 on the image of the projection surface unit 13 in the blank period of the projection light color corresponding to the light emission color. Detect from the image data of the plate.
一方、投影面部13に第2のレーザポインタ12を照射して形成した赤外光の発光点については、カメラ部10bの赤色、緑色、及び青色のそれぞれの光センサの全てが各対応色の他に不可視光領域にある赤外光を感受することができる。したがって、赤外光の発光点は、RGB各色の任意のブランク期間において撮像したRGB各色の版の画像データの全てから検出することができる。 On the other hand, regarding the infrared light emitting points formed by irradiating the projection surface 13 with the second laser pointer 12, all of the red, green, and blue photosensors of the camera unit 10b are in addition to the corresponding colors. Infrared light in the invisible light region can be sensed. Therefore, the emission point of the infrared light can be detected from all the image data of the R, G, and B colors captured in an arbitrary blank period of R, G, and B colors.
次に、カラーホイール5の回転周期とカメラ部10bのシャッタータイミングの関係について説明する。図12と図13はカラーホイール5の回転周期とカメラ部10bのシャッタータイミングの関係の一例を示す図である。ここでは、カラーホイール5は120Hzの周期で回転し、カメラ部10bは30Hzの周期で撮像画像データを生成するものとする。 Next, the relationship between the rotation period of the color wheel 5 and the shutter timing of the camera unit 10b will be described. 12 and 13 are diagrams showing an example of the relationship between the rotation period of the color wheel 5 and the shutter timing of the camera unit 10b. Here, the color wheel 5 rotates at a cycle of 120 Hz, and the camera unit 10b generates captured image data at a cycle of 30 Hz.
図12はレーザポインタが投影面部に緑色(又は緑系統の色)の発光点を形成する場合のカメラ部10bのシャッタータイミングを示す例(例1)である。同図に示すB期間は、図9に示すGreenのブランク期間(RedセグメントとMagentaセグメントの期間に対応するTimingB)に対応する。C期間は、図9に示すBlueのブランク期間(YellowセグメントとGreenセグメントの期間に対応するTimingC)に対応する。A期間は、図9に示すRedのブランク期間(BlueセグメントとCyanセグメントの期間に対応するTimingA)に対応する。D期間は、ブランク期間を含まないWhiteセグメントの期間に対応する。 FIG. 12 is an example (example 1) showing the shutter timing of the camera unit 10b when the laser pointer forms a light emission point of green (or green color) on the projection surface. The period B shown in the figure corresponds to the green blank period (TimingB corresponding to the period of the Red segment and the Magenta segment) shown in FIG. 9. The C period corresponds to the blue blank period (Timing C corresponding to the period of the Yellow segment and the Green segment) illustrated in FIG. 9. The A period corresponds to the Red blank period (Timing A corresponding to the period of the Blue segment and the Cyan segment) illustrated in FIG. 9. The period D corresponds to the period of the White segment not including the blank period.
駆動制御部22は、図12に示すB期間のタイミングでカメラ部10bのシャッター34を開閉動作させる制御信号をカメラ部10bに出力する。具体的に、駆動制御部22は、B期間の開始後にシャッター34を開く制御信号をカメラ部10bに出力し、B期間の終了前にシャッター34を閉じる制御信号をカメラ部10bに送信する。本例では、カラーホイール5が4回転するごとにカメラ部10bが1回の撮像画像データを出力できるため、カメラ部10bの各周期においてカラーホイール5の2回転目のB期間にシャッター34を開閉する制御信号を送信する。 The drive control unit 22 outputs a control signal for opening and closing the shutter 34 of the camera unit 10b to the camera unit 10b at the timing of the period B shown in FIG. Specifically, the drive control unit 22 outputs a control signal for opening the shutter 34 after the start of the B period to the camera unit 10b, and transmits a control signal for closing the shutter 34 to the camera unit 10b before the end of the B period. In this example, every time the color wheel 5 rotates four times, the camera unit 10b can output one captured image data. Therefore, the shutter 34 is opened and closed during the second B period of the color wheel 5 in each cycle of the camera unit 10b. A control signal is transmitted.
これにより、カメラ部10bは、図12のカメラ部の周期に示すように、B期間を露光時間にして、カラーホイール5が4回転するごとに1枚のカラー画像データを出力する。この内のGreen画像データの観測により第1のレーザポインタ11の緑色の発光点を検出することができる。また、第2のレーザポインタ12の照射により投影面部13上に赤外光を形成していた場合には、上記Green画像データから赤外光による発光点を検出することもできる。 Thereby, as shown in the cycle of the camera unit in FIG. 12, the camera unit 10b outputs one piece of color image data every four rotations of the color wheel 5 with the B period as an exposure time. The green light emission point of the first laser pointer 11 can be detected by observing the green image data. Further, when infrared light is formed on the projection surface portion 13 by irradiation of the second laser pointer 12, a light emission point by infrared light can be detected from the Green image data.
図13はレーザポインタが投影面部に緑色(又は緑系統の色)の発光点を形成する場合のカメラ部10bのシャッタータイミングを示す例(例2)である。
駆動制御部22は、カメラ部10bのシャッター34を開閉動作させる制御信号を図13に示す各期間のタイミングでカメラ部10bに出力する。具体的に、カメラの動作周期の1周期目では、B期間内に開閉動作を行うための制御信号をカメラ部10bに出力する。これにより、カメラ部10bは、B期間を露光時間とし、1周期目において1枚のカラー画像データを出力する。出力されたカラー画像データからは、その内のGreen画像データの観測により第1のレーザポインタ11の緑色の発光点を検出することができる。また、第2のレーザポインタ12の照射により投影面部13上に赤外光を形成していた場合には、上記Green画像データから赤外光による発光点を検出することもできる。
FIG. 13 is an example (example 2) showing the shutter timing of the camera unit 10b when the laser pointer forms a light emitting point of green (or green color) on the projection surface.
The drive control unit 22 outputs a control signal for opening and closing the shutter 34 of the camera unit 10b to the camera unit 10b at the timing of each period shown in FIG. Specifically, in the first cycle of the camera operation cycle, a control signal for performing an opening / closing operation within the period B is output to the camera unit 10b. As a result, the camera unit 10b outputs one color image data in the first period with the B period as the exposure time. From the output color image data, the green light emission point of the first laser pointer 11 can be detected by observing the Green image data. Further, when infrared light is formed on the projection surface portion 13 by irradiation of the second laser pointer 12, a light emission point by infrared light can be detected from the Green image data.
続く2周期目では、C期間内に開閉動作を行うための制御信号をカメラ部10bに出力する。これにより、カメラ部10bは、C期間を露光時間とし、2周期目において更に1枚のカラー画像データを出力する。出力されたカラー画像データからは、その内のBlue画像データの観測により、赤外光による発光点を検出することができる。 In the subsequent second period, a control signal for performing an opening / closing operation within the C period is output to the camera unit 10b. As a result, the camera unit 10b outputs another piece of color image data in the second period with the C period as the exposure time. From the output color image data, a light emitting point by infrared light can be detected by observing the blue image data therein.
続く3周期目では、A期間内に開閉動作を行うための制御信号をカメラ部10bに出力する。これにより、カメラ部10bは、A期間を露光時間とし、3周期目において更に1枚のカラー画像データを出力する。出力されたカラー画像データからは、その内のRed画像データの観測により、赤外光による発光点を検出することができる。 In the subsequent third cycle, a control signal for performing an opening / closing operation within the A period is output to the camera unit 10b. As a result, the camera unit 10b outputs another piece of color image data in the third period with the period A as the exposure time. From the output color image data, a light emission point by infrared light can be detected by observing the Red image data.
4周期目以後も同様に、B期間、C期間、及びA期間の順にシャッター34の開閉動作を繰り返すことにより、カメラ部10bがカラー画像データの出力を繰り返す。 Similarly, after the fourth period, the camera unit 10b repeats the output of the color image data by repeating the opening / closing operation of the shutter 34 in the order of the B period, the C period, and the A period.
このようにして得られたカラー画像データを観測すると、1周期目のGreen画像データからは第1のレーザポインタ11の緑色の発光点を検出することができる。また、投影面部13に対して第2のレーザポインタ12により赤外光を照射していた場合には、1周期目から3周期目の画像データから赤外光による発光点を検出することができる。 When the color image data obtained in this way is observed, the green light emission point of the first laser pointer 11 can be detected from the green image data in the first cycle. In addition, when the second laser pointer 12 irradiates the projection surface unit 13 with infrared light, the emission point by infrared light can be detected from the image data of the first to third periods. .
なお、ここでは、一例として第1のレーザポインタ11の緑色の発光点を検出するものとして示したが、他の色についても同様にして検出することができる。例えば赤色の発光点の場合には、3周期目のA期間を露光時間にして出力されたカラー画像データのRed画像データを観測することにより検出することができる。また、青色の発光点の場合には、2周期目のC期間を露光時間にして出力されたカラー画像データのBlue画像データを観測することにより検出することができる。赤外光についても同様に各期間を露光時間にして出力されたカラー画像データから検出することができる。 Note that, here, as an example, the green light emission point of the first laser pointer 11 is detected. However, other colors can be detected in the same manner. For example, in the case of a red light emitting point, it can be detected by observing Red image data of color image data output with the A period of the third cycle as the exposure time. In the case of a blue light emitting point, it can be detected by observing the blue image data of the color image data output with the C period of the second cycle as the exposure time. Similarly, infrared light can be detected from the color image data output with each period as an exposure time.
また、カラーホイール5の回転とシャッタータイミングの同期は、例えば、カラーホイール5自体に回転検出するための指標となる黒色シールと、カラーホイール5のホルダーに黒色シールを検知するためのセンサを設けるなどして実現する。この場合、駆動制御部22には、黒色シールが検出されるタイミングをセンサから取得させて、シャッターを開閉制御する信号を出力させる。 The rotation of the color wheel 5 and the shutter timing are synchronized, for example, a black seal serving as an index for detecting rotation in the color wheel 5 itself, and a sensor for detecting the black seal in the holder of the color wheel 5 are provided. And realized. In this case, the drive control unit 22 is caused to acquire the timing at which the black seal is detected from the sensor, and output a signal for controlling opening and closing of the shutter.
次に、指示マーク検出部25における、可視光の発光点と不可視光(一例として赤外光)の発光点との検出処理について説明する。
図14は、投影面部13の映像上に可視光の発光点と赤外光の発光点が共に形成されているときに撮像により取り込まれた画像の画像イメージを示す図である。ここでは、一例として、可視光の発光点が緑色である場合について示す。
Next, the detection process of the light emission point of visible light and the light emission point of invisible light (infrared light as an example) in the instruction mark detection unit 25 will be described.
FIG. 14 is a diagram illustrating an image image of an image captured by imaging when both a visible light emission point and an infrared light emission point are formed on the image of the projection surface unit 13. Here, as an example, the case where the emission point of visible light is green is shown.
図14に示す画像G11は、カメラの動作周期の1周期目のB期間(図12参照)を露光時間として撮像されたカラー画像データのGreen版の画像データを示している。画像G12は、2周期目のC期間を露光時間として撮像されたカラー画像データのBlue版の画像データを示している。画像G10は、3周期目のA期間を露光時間として撮像されたカラー画像データのRed版の画像データを示している。なお、同図において、明るい部分が輝度の高い部分を表し、暗い部分が輝度の低い部分を表すものとする。 An image G11 shown in FIG. 14 shows green version image data of color image data captured using the B period (see FIG. 12) of the first operation cycle of the camera as the exposure time. An image G12 shows blue version image data of color image data picked up with the C period of the second cycle as the exposure time. An image G10 shows red image data of color image data captured with the A period of the third cycle as the exposure time. In the figure, it is assumed that a bright part represents a part with high luminance and a dark part represents a part with low luminance.
図14の画像G10〜G12の各画像には略同位置に略同形状の指示マークM1が輝度の高いエリアとして含まれている。指示マーク検出部25は、この指示マークM1を検出する。例えば、指示マーク検出部25は、画像G10〜G12として示す各色版の画像データから輝度が所定の閾値を超えるエリアを抽出し、各エリアの位置(重心位置など)を相互に比較する。そして、指示マーク検出部25は、各エリアの位置の一致度が所定レベルを上回った場合に、抽出したエリアを赤外光の発光点を示す指示マークのエリアとして特定する。 Each of the images G10 to G12 in FIG. 14 includes an instruction mark M1 having substantially the same shape at a substantially same position as an area with high luminance. The instruction mark detection unit 25 detects this instruction mark M1. For example, the instruction mark detection unit 25 extracts areas where the luminance exceeds a predetermined threshold from the image data of each color plane shown as the images G10 to G12, and compares the positions of the areas (such as the center of gravity position) with each other. Then, when the degree of coincidence of the positions of the areas exceeds a predetermined level, the instruction mark detection unit 25 specifies the extracted area as an instruction mark area indicating an infrared light emission point.
また、図14の画像G11として示すGreen版の画像データには、輝度の高いエリアとして指示マークM1の他に指示マークM2が含まれている。指示マーク検出部25は、更に、その指示マークM2を検出する。例えば、指示マーク検出部25は、画像G11として示すGreen版の画像データから輝度が所定の閾値を超えるエリアを抽出する。そして、抽出したものの内の指示マークM1以外のエリアを緑色の発光点を示す指示マークM2のエリアとして特定する。このように色版の画像を用いる、つまり色情報を用いることにより画像データから赤外と緑色の発光点を特定する。 In addition, the green image data shown as the image G11 in FIG. 14 includes an instruction mark M2 in addition to the instruction mark M1 as a high-luminance area. The instruction mark detection unit 25 further detects the instruction mark M2. For example, the instruction mark detection unit 25 extracts an area where the luminance exceeds a predetermined threshold value from Green image data shown as the image G11. Then, an area other than the instruction mark M1 in the extracted one is specified as an area of the instruction mark M2 indicating a green light emitting point. In this way, the color image is used, that is, the color information is used to identify the infrared and green emission points from the image data.
なお、図14に示す例では、輝度の高いエリアを指示マークのエリアとして検出し、RGBの各色版の画像データのそれぞれに含まれる指示マークを、不可視光(本例では赤外光)の発光点を示す指示マークM1として弁別した。また、1版(本例ではGreen版)に含まれる指示マークを可視光(本例では緑色の光)の発光点を示す指示マークM2として弁別した。しかしながら、照射装置の照射により形成される画像データ上の可視光と不可視光の弁別方法はこれに限るものではない。 In the example shown in FIG. 14, an area with high luminance is detected as the area of the instruction mark, and the instruction mark included in each of the RGB color image data is emitted as invisible light (infrared light in this example). It was discriminated as an instruction mark M1 indicating a point. In addition, the indication mark included in one version (the Green version in this example) was discriminated as an indication mark M2 indicating a light emission point of visible light (green light in this example). However, the method for discriminating between visible light and invisible light on the image data formed by irradiation of the irradiation device is not limited to this.
例えば、輝度の高いエリアの抽出により指示マークを検出した後、各指示マークの形状を比較することにより可視光の発光点と不可視光の発光点とを弁別するようにしても良い。この場合、1版で可視光の発光点か不可視光の発光点かを特定することができるようになる。なお、可視光の発光点の形状と不可視光の発光点の形状は予め登録を行っておくものとする。また、各発光点の形状は、区別できるように互いに異なるものを使用するようにする。例えば、一方の発光点の形状を小さい円形、他方の発光点の形状を大きい円形としたり、或いは、一方の発光点の形状を円形、他方の発光点の形状を星型などとしたりすることにより、互いの形状を異ならせる。 For example, after the indication mark is detected by extracting an area with high luminance, the shape of each indication mark may be compared to distinguish between the visible light emission point and the invisible light emission point. In this case, it is possible to specify whether the light emission point is visible light or invisible light with one version. The shape of the visible light emission point and the shape of the invisible light emission point are registered in advance. In addition, the shapes of the light emitting points are different from each other so that they can be distinguished. For example, by making the shape of one light emitting point a small circle, the shape of the other light emitting point being a large circle, or by making the shape of one light emitting point a circle and the shape of the other light emitting point a star shape, etc. , Make each shape different.
こうして、指示マーク検出部25は、映像信号入力部23で生成されたRGBの各画像データ中の指示マークとして記録されている発光部を検出する。そして、それぞれの位置座標{(x1‘,y1‘)、(x2‘,y2‘)}を取得する。位置座標は、例えば指示マークを示すエリアの重心位置の座標などとする。 Thus, the instruction mark detection unit 25 detects the light emitting unit recorded as the instruction mark in the RGB image data generated by the video signal input unit 23. Then, the respective position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} are acquired. The position coordinates are, for example, the coordinates of the barycentric position of the area indicating the instruction mark.
画像処理部26は、パラメータHにセットされた射影変換係数により各指示マークの位置座標{(x1‘,y1‘)、(x2‘,y2‘)}を{(x1,y1)、(x2,y2)}に補正する。更に、画像処理部26は、補正後の位置{(x1,y1)、(x2,y2)}に異なる指示データ(ポインタ画像等)を形成してなるフレーム画像を生成し、それを第2の映像信号(部分画像)として映像処理部21に出力する。 The image processing unit 26 converts the position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} of each indication mark {(x1, y1), (x2, x2) according to the projective transformation coefficient set in the parameter H. y2)}. Further, the image processing unit 26 generates a frame image formed by forming different instruction data (pointer image or the like) at the corrected position {(x1, y1), (x2, y2)}. The video signal (partial image) is output to the video processing unit 21.
以上より、1版で可視光の発光点か不可視光の発光点かを特定することができれば、3版でそれらを特定するよりも短いサイクルで部分画像を映像処理部21に供給することができる。 As described above, if it is possible to identify the visible light emission point or the invisible light emission point in the first version, the partial image can be supplied to the video processing unit 21 in a shorter cycle than that in the third version. .
次に、一体型画像投影装置10の動作について説明する。
ここでは、一例として、起動後の映像再生時にキャリブレーション動作を行うものとして一体型画像投影装置10の全体動作について示す。また、可視光と不可視光の発光点の特定を1版で行う場合(図12参照)の動作例を示す。
Next, the operation of the integrated image projector 10 will be described.
Here, as an example, the entire operation of the integrated image projection apparatus 10 will be described on the assumption that a calibration operation is performed during video reproduction after activation. In addition, an operation example in the case where the emission points of visible light and invisible light are specified in one version (see FIG. 12) is shown.
図15は、一体型画像投影装置10の駆動制御部22の動作フロー図である。
図15に示す処理では、映像信号を1フレーム単位で処理するものとする。先ず駆動制御部22は、映像処理部21から出力される映像信号(第1の映像信号)を投射する(ステップS101)。具体的に、駆動制御部22は入力I/Fから入力されて映像処理部21が出力する1フレーム分の第1の映像信号をカラーホイール5の回転やDMD2のマイクロミラー等の制御により投影面部13に投影する。なお、動画の場合、第1の映像信号の先頭の数フレーム分は空フレームとするなどして、本体映像は含まないものとする。
FIG. 15 is an operation flowchart of the drive control unit 22 of the integrated image projector 10.
In the processing shown in FIG. 15, the video signal is processed in units of one frame. First, the drive control unit 22 projects a video signal (first video signal) output from the video processing unit 21 (step S101). Specifically, the drive control unit 22 receives the first video signal for one frame input from the input I / F and output from the video processing unit 21 by controlling the rotation of the color wheel 5, the micromirror of the DMD 2, etc. 13 to project. In the case of a moving image, the first few frames of the first video signal are not included in the main video, for example, by empty frames.
次いで、駆動制御部22は、発光点検出モードであるか否かを判定する(ステップS102)。発光点検出モードとは、投影面部13に第1のレーザポインタ11(又は第2のレーザポインタ12)等の照射装置を使用して光を照射する場合の、可視光又は不可視光の発光点を検出するためのモードである。発光点検出モードの設定は、例えば、ユーザUが本体装置の操作画面(不図示)等により照射装置の発光色や当該モードの実行を指定するためのフラグ等を予め設定するなどして行う。駆動制御部22は、そのフラグ設定等を読み取り、発光点検出モードを起動する。発光点検出モードでないと判定された場合(ステップS102:No)、ステップS101へと戻り、第1の映像信号を2フレーム目から順次投射する。 Next, the drive control unit 22 determines whether or not the light emission point detection mode is set (step S102). The light emission point detection mode is a light emission point of visible light or invisible light when the projection surface unit 13 is irradiated with light using an irradiation device such as the first laser pointer 11 (or the second laser pointer 12). This is a mode for detection. The light emission point detection mode is set by, for example, the user U setting in advance a light emission color of the irradiation device, a flag for designating execution of the mode, or the like on an operation screen (not shown) of the main body device. The drive control unit 22 reads the flag setting and activates the light emission point detection mode. When it is determined that the mode is not the light emission point detection mode (step S102: No), the process returns to step S101, and the first video signal is sequentially projected from the second frame.
一方、発光点検出モードであると判定された場合(ステップS102:Yes)、駆動制御部22は、初期設定モードか否かを判定する(ステップS103)。初期設定モードとは、パラメータHが未設定の場合に射影変換係数を演算する処理である。発光点検出モードを最初に起動する場合などに実行するものとして予めフラグなどにより設定する。なお、初期設定モードを実行するか否かの判定をその他の方法により行っても良い。例えば射影変換係数がセットされてから一定時間経過しているか否かをタイマー等(不図示)の計時情報から判定し、一定時間経過している場合に実行されるようにしても良い。また、設置環境が変わったか否かをセンサの出力値などから読み取り、設置環境が変わった場合に初期設定モードが実行されるようにしても良い。 On the other hand, when it is determined that the light emission point detection mode is set (step S102: Yes), the drive control unit 22 determines whether or not the mode is the initial setting mode (step S103). The initial setting mode is a process for calculating a projective transformation coefficient when the parameter H is not set. A flag or the like is set in advance to be executed when the light emission point detection mode is first activated. Note that the determination as to whether or not to execute the initial setting mode may be performed by other methods. For example, it may be determined whether or not a fixed time has elapsed since the projective transformation coefficient was set from timekeeping information such as a timer (not shown), and may be executed when the fixed time has elapsed. Further, whether or not the installation environment has changed may be read from the output value of the sensor or the like, and the initial setting mode may be executed when the installation environment has changed.
ここで、初期設定モードであると判定された場合(ステップS103:Yes)、駆動制御部22は、DMD2等を駆動して、射影変換用のパターン画像P1(図6参照)を投射する(ステップS104)。具体的に、駆動制御部22は、この例では映像処理部21からの2フレーム目の第1の映像信号の転送を停止させてから、変換係数演算部24にパターン画像P1の読み込みを指示する。変換係数演算部24は、内蔵メモリから指定のパターン画像P1を読み込み、それを第4の映像信号として映像処理部21に出力する。映像処理部21は、その第4の映像信号を駆動制御部22にフレーム出力する。そして、駆動制御部22は、カラーホイール5の回転やDMD2のマイクロミラー等の制御によりパターン画像P1を一定期間(撮像に必要な時間)投影面部13に投影する。 Here, when it is determined that the initial setting mode is set (step S103: Yes), the drive control unit 22 drives the DMD 2 and the like, and projects a pattern image P1 for projective transformation (see FIG. 6) (step). S104). Specifically, in this example, the drive control unit 22 stops the transfer of the first video signal of the second frame from the video processing unit 21, and then instructs the conversion coefficient calculation unit 24 to read the pattern image P1. . The conversion coefficient calculation unit 24 reads the designated pattern image P1 from the built-in memory, and outputs it to the video processing unit 21 as a fourth video signal. The video processing unit 21 outputs the fourth video signal to the drive control unit 22 as a frame. Then, the drive control unit 22 projects the pattern image P1 on the projection surface unit 13 for a certain period (time necessary for imaging) by controlling the rotation of the color wheel 5, the micromirror of the DMD 2, and the like.
次いで、駆動制御部22は、カメラ部10bを駆動制御し、パターン画像P1の投影面部13上の画像の撮像を行わせる(ステップS105)。これにより、カメラ部10bからカラー画像データが出力され、映像信号入力部23でRGBに変換される。 Next, the drive control unit 22 drives and controls the camera unit 10b to capture an image of the pattern image P1 on the projection surface unit 13 (step S105). As a result, color image data is output from the camera unit 10 b and converted into RGB by the video signal input unit 23.
次いで、変換係数演算部24が、パターン画像P1とRGBの画像データとの比較から射影変換係数を算出し、算出した値を画像処理部26のパラメータHにセットする(ステップS106)。なお、この例では、変換係数演算部24は、パラメータHに値をセットした後、映像処理部21に再開信号を出力し、停止されていた第1の映像信号の転送を再開させる。 Next, the conversion coefficient calculation unit 24 calculates a projective conversion coefficient from the comparison between the pattern image P1 and the RGB image data, and sets the calculated value in the parameter H of the image processing unit 26 (step S106). In this example, the conversion coefficient calculation unit 24 sets a value for the parameter H, and then outputs a restart signal to the video processing unit 21 to restart the transfer of the stopped first video signal.
以上のようにして、キャリブレーション動作を終えると、続く2フレーム目以後の処理では次のような投影動作を行う。 When the calibration operation is completed as described above, the following projection operation is performed in the subsequent processing after the second frame.
先ず、駆動制御部22が第1の映像信号の2フレーム目を投影面部13に投影する(ステップS101)。 First, the drive control unit 22 projects the second frame of the first video signal on the projection surface unit 13 (step S101).
次に、ステップS102(Yes判定)、ステップS103(No判定)に続き、駆動制御部22は、カラーホイール5の回転数K(Kは正の整数)が所定値の倍数か否かを判定する(ステップS107)。カラーホイール5の回転数Kは、例えばカラーホイール5が1回転するごとにカウントアップするカウンタなどにより取得する。なお、カウンタの回転数Kについてのデフォルト値は「4」とする。また、カラーホイール5の回転順は、Red、Magenta、Yellow、・・・の順(図9参照)とし、Redの位置はセンサの出力から検出する。 Next, following step S102 (Yes determination) and step S103 (No determination), the drive control unit 22 determines whether the rotation speed K (K is a positive integer) of the color wheel 5 is a multiple of a predetermined value. (Step S107). The rotational speed K of the color wheel 5 is acquired by, for example, a counter that counts up every time the color wheel 5 rotates once. The default value for the counter rotation speed K is “4”. Further, the rotation order of the color wheel 5 is Red, Magenta, Yellow,... (See FIG. 9), and the position of Red is detected from the output of the sensor.
ステップS107において、初回の回転数Kの値はデフォルト値の「4」であるため、Yes判定になる。すると、駆動制御部22は、カメラ部10bに対して所定のタイミングでシャッターを開閉動作させる制御信号を出力する(ステップS108)。シャッタータイミングは、ユーザUにより本体装置の操作画面などにより設定された照射装置の発光色(赤色、緑色、青色、赤外等)に基づき、駆動制御部22が調節する。 In step S107, since the value of the first rotation speed K is the default value “4”, a Yes determination is made. Then, the drive control unit 22 outputs a control signal for opening and closing the shutter at a predetermined timing to the camera unit 10b (step S108). The drive control unit 22 adjusts the shutter timing based on the emission color (red, green, blue, infrared, etc.) of the irradiation device set by the user U on the operation screen of the main device.
例えば、ユーザUが本体装置の操作画面等により照射装置の発光色として緑色と赤外を設定したとする。その場合、図12に示す例では、カラーホイール5の2周期目(映像の2フレーム目)のTimingB内にシャッターを開閉動作させる制御信号をカメラ部10bに出力する。これにより、カメラ部10bはTimingB内に投影面部13の光を撮像エリアにて露光する。 For example, it is assumed that the user U sets green and infrared as the emission colors of the irradiation apparatus on the operation screen of the main body apparatus. In that case, in the example shown in FIG. 12, a control signal for opening and closing the shutter is output to the camera unit 10b in Timing B of the second period of the color wheel 5 (second frame of the video). As a result, the camera unit 10b exposes the light of the projection surface unit 13 within the timing B in the imaging area.
ステップS108の処理後、駆動制御部22は、回転数Kの値を1つインクリメントする(ステップS109)。つまり、この段階では回転数Kの値を「4」から「5」にする。ステップS109の処理後は、ステップS101に移行し、駆動制御部22が第1の映像信号の3フレーム目を投影面部13に投影する。 After the process of step S108, the drive control unit 22 increments the value of the rotation speed K by one (step S109). That is, at this stage, the value of the rotation speed K is changed from “4” to “5”. After the process of step S109, the process proceeds to step S101, and the drive control unit 22 projects the third frame of the first video signal on the projection surface unit 13.
3フレーム目のサイクルでは、ステップS107において回転数Kが「5」であり、4の倍数にはならないので、No判定となる。ここでNo判定の場合には、ステップS109で回転数Kの値を1つインクリメントし、ステップS101に移行する。ステップS101では、駆動制御部22が第1の映像信号の4フレーム目を投影面部13に投影する。 In the cycle of the third frame, the rotational speed K is “5” in step S107 and does not become a multiple of 4, so a No determination is made. If the determination is No, the value of the rotation speed K is incremented by 1 in step S109, and the process proceeds to step S101. In step S <b> 101, the drive control unit 22 projects the fourth frame of the first video signal on the projection surface unit 13.
4フレーム目のサイクルとそれに続く5フレーム面のサイクルでも、回転数Kの値がそれぞれ「6」、「7」であり、4の倍数にならない。このため、3フレーム目のサイクルと同様にステップS107においてNo判定になる。 In the cycle of the fourth frame and the subsequent cycle of the fifth frame surface, the values of the rotation speed K are “6” and “7”, respectively, and are not a multiple of 4. For this reason, as in the cycle of the third frame, No determination is made in step S107.
6フレーム目のサイクルでは、回転数Kの値が「8」となり、4の倍数となる。このため、ステップS107において再びYes判定になる。すると、駆動制御部22は、カメラ部10bに対してTimingBでシャッターを開閉動作させる制御信号を出力する(ステップS108)。図12に示す例では、カラーホイール5の6周期目(映像の6フレーム目)のTimingBに対応する。 In the cycle of the sixth frame, the value of the rotation speed K is “8”, which is a multiple of 4. For this reason, it becomes Yes determination again in step S107. Then, the drive control unit 22 outputs a control signal for opening and closing the shutter with Timing B to the camera unit 10b (step S108). In the example shown in FIG. 12, this corresponds to Timing B of the sixth period (sixth frame of the video) of the color wheel 5.
その後も同様に、ステップS101〜ステップS103、及びステップS107〜ステップS109を繰り返し、駆動制御部22は、4フレーム置きにTimingBにおける制御信号をカメラ部10bに出力する。 Similarly thereafter, step S101 to step S103 and step S107 to step S109 are repeated, and the drive control unit 22 outputs a control signal for Timing B to the camera unit 10b every four frames.
以上に示す処理は、ステップS101において投影する映像信号が終了した場合などにおいて終了する。 The processing described above ends when, for example, the video signal to be projected ends in step S101.
なお、TimingBにおける制御信号の出力後は、適宜、映像処理部21により第1の映像信号に対して第2の映像信号(部分画像)が重畳された第3の映像信号が入力されることになる。そのため、ステップS101において、駆動制御部22は、第1の映像信号に部分画像が重畳された第3の映像信号を投影面部13に投影する。この処理については、次の動作フローにおいて説明する。 In addition, after the output of the control signal in Timing B, the third video signal in which the second video signal (partial image) is superimposed on the first video signal is appropriately input by the video processing unit 21. Become. Therefore, in step S <b> 101, the drive control unit 22 projects the third video signal in which the partial image is superimposed on the first video signal on the projection surface unit 13. This process will be described in the next operation flow.
図16は、一体型画像投影装置10の発光点検出処理に係る各種処理部の動作フロー図である。
先ず、カメラ部10bはB期間を露光時間として生成したカラー画像データをカラーホイール5の4周期置きに1回出力する(ステップS110)。カメラ部10bから出力されたカラー画像データは、映像信号入力部23でRGB画像データに変換され、指示マーク検出部25に入力されることになる。
FIG. 16 is an operation flowchart of various processing units related to the light emission point detection process of the integrated image projection apparatus 10.
First, the camera unit 10b outputs the color image data generated using the B period as the exposure time once every four cycles of the color wheel 5 (step S110). The color image data output from the camera unit 10 b is converted into RGB image data by the video signal input unit 23 and input to the instruction mark detection unit 25.
次に、指示マーク検出部25が、RGB画像データのGreen版の画像データを対象に、緑の発光点と赤外光の発光点を検出する(ステップS111)。この検出において、指示マーク検出部25は、先ず、輝度の高いエリアを抽出して二か所の指示マークのエリアを特定する。更に、登録されている形状パターンと指示マークの形状パターンとを比較する。例えば、登録されている緑色の発光点の指示マークが小さい円形で、赤外の発光点の指示マークが大きい円形であるとする。その場合、特定された二つの指示マークの半径を比較して、半径が小さい方を緑色の発光点を示す指示マークとし、他方を赤外光の発光点を示す指示マークとして弁別する。そして、指示マーク検出部25は、弁別した各指示マークの位置として例えばそれぞれの重心座標を示すデータを画像処理部26に出力する。 Next, the instruction mark detection unit 25 detects the green light emission point and the infrared light emission point for the green image data of the RGB image data (step S111). In this detection, the instruction mark detection unit 25 first extracts areas with high luminance to identify two instruction mark areas. Further, the registered shape pattern is compared with the shape pattern of the indication mark. For example, it is assumed that the registered indication mark for the green emission point is a small circle and the indication mark for the infrared emission point is a large circle. In that case, the radii of the two specified indicator marks are compared, and the smaller radius is discriminated as an indicator mark indicating a green light emitting point, and the other is discriminated as an indicator mark indicating an infrared light emitting point. Then, the instruction mark detection unit 25 outputs, for example, data indicating each barycentric coordinate to the image processing unit 26 as the position of each identified instruction mark.
次に、画像処理部26がパラメータHにより重心座標を第1の映像信号上に対応する位置に補正する(ステップS112)。そして、画像処理部26は、各補正位置に所定データ(部分画像)としてポインタ画像等を設定したフレーム画像を生成し、そのフレーム画像を映像処理部21に第2の映像信号として出力する(ステップS113)。 Next, the image processing unit 26 corrects the barycentric coordinates to the corresponding position on the first video signal by the parameter H (step S112). Then, the image processing unit 26 generates a frame image in which a pointer image or the like is set as predetermined data (partial image) at each correction position, and outputs the frame image to the video processing unit 21 as a second video signal (step). S113).
すると、映像処理部21が第1の映像信号の後続の所定数分の入力フレームに対して第2の映像信号の部分画像を合成し、合成後のフレーム画像を第3の映像信号として駆動制御部22に出力する(ステップS114)。なお、ここでは、後続する入力フレームの所定数分に部分画像を合成するものとして説明したが、これは、投影側のフレームレートと撮像側のフレームレートとの差により部分画像が生成されないフレームが発生するためである。本例では、それらのフレームを補間するために、後続する4つの入力フレームに対して部分画像を合成している。これにより、駆動制御部22により第3の映像信号が連続して投影され、投影面部13において各発光点にポインタ画像等が滑らかに表示されるようになる。投影側のフレームレートと撮像側のフレームレートとの差が生じない場合はこの限りではない。この場合、部分画像が生成されないフレームが発生しないため、補間の必要はない。 Then, the video processing unit 21 synthesizes a partial image of the second video signal with a predetermined number of input frames subsequent to the first video signal, and drives and controls the combined frame image as a third video signal. It outputs to the part 22 (step S114). Here, the description has been made assuming that the partial image is synthesized with a predetermined number of the subsequent input frames, but this is because the frame in which the partial image is not generated due to the difference between the frame rate on the projection side and the frame rate on the imaging side. This is because it occurs. In this example, in order to interpolate those frames, partial images are synthesized with respect to the subsequent four input frames. Accordingly, the third video signal is continuously projected by the drive control unit 22, and a pointer image or the like is smoothly displayed on each light emitting point on the projection surface unit 13. This is not the case when there is no difference between the frame rate on the projection side and the frame rate on the imaging side. In this case, there is no need for interpolation because no frame is generated in which no partial image is generated.
図17は、投影面部13に投影される映像と部分画像の合成映像を示す一例である。図17(a)は、投影面部13上の赤外光の発光点にポインタ画像が合成されたときの状態を示す図である。図17(a)の例では、ポインタ画像として矢印を示す画像Q1を合成したものを示している。図17(b)は、図17(a)に示す状態に更に第1のレーザポインタ11により緑色の光を照射したときの、緑色の発光点にポインタ画像が合成された状態を示す図である。図17(b)の例では、ポインタ画像として緑色の発光点にポインタの拡大画像Q2を合成したものを示している。 FIG. 17 is an example showing a composite image of a video projected on the projection plane unit 13 and a partial image. FIG. 17A is a diagram illustrating a state when a pointer image is combined with an infrared light emitting point on the projection surface unit 13. In the example of FIG. 17A, an image Q1 indicating an arrow is synthesized as a pointer image. FIG. 17B is a diagram illustrating a state in which a pointer image is combined with a green light emitting point when the first laser pointer 11 is further irradiated with green light in the state illustrated in FIG. . In the example of FIG. 17B, the pointer image is obtained by combining the enlarged image Q2 of the pointer with the green light emitting point.
以上のように、映像を投影した投影面部に可視光及び不可視光のレーザポインタ等を照射した場合、それぞれの発光部を可視光の発光部か不可視光の発光部かを弁別し、それぞれの発光部に別々の部分画像を重ねることができる。このため、可視光と不可視光のレーザポインタをそれぞれ使い分けて使用することができる。なお、本実施形態では、指示データとして矢印の画像やポインタの拡大画像などのポインタ画像を合成する例を示したが、この限りではない。例えば、その位置の映像を拡大した画像を合成するなどしても良い。 As described above, when the projection surface where the image is projected is irradiated with a laser pointer or the like for visible light and invisible light, each light emitting part is discriminated as a light emitting part for visible light or a light emitting part for invisible light, and each light emission Separate partial images can be superimposed on the part. For this reason, visible light and invisible light laser pointers can be used separately. In this embodiment, an example in which a pointer image such as an arrow image or a magnified image of a pointer is combined as instruction data is shown, but this is not restrictive. For example, an image obtained by enlarging the video at the position may be synthesized.
また、以上では、可視光と不可視光を同時に投影面部上に照射した場合の例を示したが、これは説明のための例である。通常は、可視光と不可視光を別々に使用する場合が多く、本システムでは、言うまでもなく、別々に使用した場合であっても、使用中の光の種類を特定し、その光に対応した部分画像を発光点の位置に合成することができる。 In the above, an example in which visible light and invisible light are simultaneously irradiated onto the projection surface portion has been shown, but this is an example for explanation. Normally, visible light and invisible light are often used separately. In this system, it goes without saying that even if they are used separately, the type of light being used is identified and the part corresponding to that light is used. The image can be synthesized at the position of the light emitting point.
本実施形態では、パターン画像の一例として白黒の矩形パターンのパターン画像P1(図6参照)を使用したが、パターン画像のパターンや色などは適宜変形しても良い。 In the present embodiment, a black and white rectangular pattern image P1 (see FIG. 6) is used as an example of the pattern image, but the pattern image pattern and color may be appropriately modified.
図18は、パターン画像のその他の例である。図18(a)、図18(b)に二つのパターン画像の例を示す。図18(a)に示すパターン画像を使用した場合は、環境光による外乱がなければ、より精度の高い正確な座標を入手することができるようになる。また、図18(b)に示すパターン画像を使用した場合は、射影変形があった場合であっても、そのパターン画像を投影してなる投影画像中の円の重心を座標位置とすることにより、ある程度正確な座標を入手することができるようになる。 FIG. 18 is another example of a pattern image. FIG. 18A and FIG. 18B show examples of two pattern images. When the pattern image shown in FIG. 18A is used, more accurate coordinates can be obtained without disturbance due to ambient light. Further, when the pattern image shown in FIG. 18B is used, even if there is a projective deformation, the center of gravity of the circle in the projection image formed by projecting the pattern image is used as the coordinate position. , You will be able to get some accurate coordinates.
(第1の実施形態の変形例)
第1の実施形態の変形例では、可視光と不可視光の発光点の一方を、投影面部に設けた応力発光体により形成する例を示す。
図19は、応力発光体(応力による発光部)を用いた投影面部の構成図の一例である。図19に示す投影面部130は、ベース部材131と、応力発光体132と、保護部材133との3層構造の積層体よりなる。投影面部130は、ベース部材131上に、力を受けると発光する応力発光体132を設けており、その上を透明の保護部材133により覆うことにより、応力発光体132の露出面を保護する。投影面部130は、保護部材133側を投影面として利用する。応力発光体132の発光波長は、カメラ部10bの撮像により指示マークとして検出させる光の波長と同種のものを選択する。例えば、赤や、緑や、青や、赤外などの各種の所定の波長領域のものを選択する。
(Modification of the first embodiment)
In the modification of the first embodiment, an example in which one of visible light and invisible light emission points is formed by a stress light emitter provided on the projection surface portion is shown.
FIG. 19 is an example of a configuration diagram of a projection surface portion using a stress light emitter (light emitting portion due to stress). A projection surface portion 130 shown in FIG. 19 is formed of a three-layer structure including a base member 131, a stress light emitter 132, and a protection member 133. The projection surface portion 130 is provided with a stress light emitter 132 that emits light when receiving a force on the base member 131, and the exposed surface of the stress light emitter 132 is protected by covering it with a transparent protective member 133. The projection surface unit 130 uses the protection member 133 side as a projection surface. The light emission wavelength of the stress-stimulated illuminant 132 is selected to be the same type as the wavelength of the light that is detected as the instruction mark by the imaging of the camera unit 10b. For example, those in various predetermined wavelength regions such as red, green, blue, and infrared are selected.
図20は、投影面部130の発光の様子を示した図である。図20に示すように、ユーザUが指(指示棒などでも良い)で投影面部130の表面を押すと、その力を応力発光体132(図19参照)が受けて発光する。この発光点を、レーザポインタによる発光点の検出と同様に、カメラ部10b(図1参照)により撮像させ、画像処理等を通じて検出する。 FIG. 20 is a diagram illustrating a state of light emission of the projection plane unit 130. As shown in FIG. 20, when the user U presses the surface of the projection surface unit 130 with a finger (or an indicator stick or the like), the stress light emitter 132 (see FIG. 19) receives the force and emits light. The light emission point is imaged by the camera unit 10b (see FIG. 1) and detected through image processing or the like, in the same manner as the detection of the light emission point by the laser pointer.
なお、応力発光体を使用した投影面部の構造はこれに限定されるものではない。投影面部は、力を受けると発光する応力発光体により構成されていれば良いため、その構造を適宜変形しても良い。例えば一対の基板で応力発光体132を挟持する構造としてもよい。 In addition, the structure of the projection surface part using a stress light-emitting body is not limited to this. Since the projection surface portion only needs to be composed of a stress illuminant that emits light when receiving a force, the structure thereof may be appropriately modified. For example, a structure in which the stress-stimulated light emitter 132 is sandwiched between a pair of substrates may be employed.
以上のように、第1の実施形態及び変形例では、照射装置として二つのレーザポインタを使用した例や、レーザポインタの一方を応力発光体に変更した例を示した。しかし、投影面部上に可視光と不可視光の発光点を形成できるものであればその他の形態のものであっても良い。 As described above, in the first embodiment and the modification, an example in which two laser pointers are used as the irradiation device and an example in which one of the laser pointers is changed to a stress light emitter are shown. However, other forms may be used as long as the light emitting points of visible light and invisible light can be formed on the projection surface.
例えば、照射装置としてLEDライトのようなレーザ発振を行わないLED発光装置を使用しても良い。この場合、LEDはレーザよりも光の直進性が低く光が拡散しやすいので、投影面部に発光部を直接接触させるなどして使用する。これにより、投影面部上に発光部が形成されるため、それをカメラ部で発光点として検出することができる。 For example, an LED light emitting device that does not perform laser oscillation, such as an LED light, may be used as the irradiation device. In this case, since the LED has a light straightness lower than that of the laser and the light easily diffuses, the LED is used by directly contacting the light emitting portion with the projection surface portion. Thereby, since a light emission part is formed on a projection surface part, it can be detected as a light emission point with a camera part.
また、一方の発光点をレーザポインタやLEDライトにより形成し、他方の発光点を反射や散乱光により形成しても良い。例えば、投影面部上の全範囲に光を照射する照射装置を組合わせても良い。この場合、投影面部上をユーザが指や指示棒などで指示すると、照射装置の光が指や指示棒などに当たり反射又は散乱する。その反射又は散乱した光をカメラ部で撮像して発光点として検出する。 Alternatively, one light emitting point may be formed by a laser pointer or an LED light, and the other light emitting point may be formed by reflected or scattered light. For example, you may combine the irradiation apparatus which irradiates light to the whole range on a projection surface part. In this case, when the user designates the projection surface with a finger or an indicator stick, the light from the irradiation device hits the finger or the indicator stick and is reflected or scattered. The reflected or scattered light is imaged by the camera unit and detected as a light emitting point.
また、以上に示す発光点を形成する各種手段を適宜組合わせても良い。 In addition, various means for forming the light emitting points described above may be appropriately combined.
また、各種手段と、使用する光(可視光又は不可視光)の関係は入れ替えても良い。例えば、投影面部上の全範囲に照射する照射装置の光を不可視光にし、他方のレーザポインタ等の光を可視光にする構成であれば、全範囲の照射装置を可視光にし、レーザポインタ等を不可視光にするなど、使用する光の関係を入れ替えても良い。 Further, the relationship between various means and the light used (visible light or invisible light) may be interchanged. For example, if the configuration is such that the light of the irradiation device that irradiates the entire range on the projection surface is invisible light, and the other laser pointer or the like is visible light, the entire range of the irradiation device is made visible, the laser pointer, etc. The relationship of the light to be used may be exchanged, such as making invisible light.
また、本実施形態では、一体型の画像投影装置を示したが、この限りではない。適宜機能を分け、別体の装置に分離しても良い。例えば、映像の投影部と、画像処理により部分画像(ポインタ画像等)を投影部に出力する処理部とを別体にして構成しても良い。 In the present embodiment, an integrated image projector is shown, but the present invention is not limited to this. The functions may be appropriately divided and separated into separate devices. For example, a video projection unit and a processing unit that outputs a partial image (such as a pointer image) to the projection unit by image processing may be configured separately.
また、一体型、分離型の画像投影装置のサイズは、使用用途に合わせて適宜変更しても良い。例えば、社内向けの大型のものから個人向けの小型のものまで、使用用途に合わせて適宜変更しても良い。また、スマートフォン等のような片手に収まるサイズのピコプロジェクタに適用しても良い。 In addition, the size of the integral type and the separated type image projection apparatus may be appropriately changed according to the intended use. For example, it may be changed as appropriate according to the intended use, from a large one for in-house use to a small one for individual use. Further, the present invention may be applied to a pico projector having a size that fits in one hand such as a smartphone.
また、第1の実施形態では、画像投影装置においてカラーホイールを使用することにより映像を構成する各色版のフレームを時分割で投影する構成を示したが、各色版のフレームを時分割で投影する構成はこれに限らない。例えば、カラーホイールの代わりに、RGB各色のLEDを設け、RGB各色のLEDを時分割でDMDに照射することにより、各色版のフレームを時分割投影する構成としても良い。 In the first embodiment, the color projection frame is configured to be projected in a time division manner by using a color wheel in the image projection apparatus. However, the color plate frames are projected in a time division manner. The configuration is not limited to this. For example, instead of the color wheel, RGB color LEDs may be provided, and the RGB color LEDs may be irradiated onto the DMD in a time-division manner so that each color frame is time-divisionally projected.
(第2の実施形態)
第1の実施形態では、可視光と不可視光の発光点を投影面部上に形成する照射装置として二つのレーザポインタを使用する態様を示した。第2の実施形態では、可視光の発光点を形成する照射装置としてLEDライトを使用し、不可視光の発光点を形成する照射装置として、投影面部の全範囲に不可視光を照射する照射装置を使用した画像投影システムの態様を示す。なお、第2の実施形態の画像投影システムにおいて第1の実施形態の画像投影システムと重複する部分は、図示及び説明を省略し、主に、第1の実施形態の画像投影システムとの異なる部分について説明する。
(Second Embodiment)
In the first embodiment, a mode in which two laser pointers are used as an irradiation apparatus that forms light-emitting points of visible light and invisible light on a projection surface portion has been described. In the second embodiment, an LED light is used as an irradiating device that forms a light emitting point of visible light, and an irradiating device that irradiates invisible light to the entire range of the projection surface portion as an irradiating device that forms an invisible light emitting point. The aspect of the used image projection system is shown. Note that in the image projection system of the second embodiment, portions that overlap with the image projection system of the first embodiment are omitted from the illustration and description, and are mainly different from the image projection system of the first embodiment. Will be described.
図21は、第2の実施形態の画像投影システムの全体構成を説明するための図である。図21に示す第2の実施形態の画像投影システム100は、一体型画像投影装置(画像処理装置)50と、LEDライト51と、投影面部13とを含む。 FIG. 21 is a diagram for explaining the overall configuration of the image projection system of the second embodiment. An image projection system 100 according to the second embodiment illustrated in FIG. 21 includes an integrated image projection apparatus (image processing apparatus) 50, an LED light 51, and a projection plane unit 13.
一体型画像投影装置50は、人が片手で携行可能なサイズの手持ち型の画像投影装置である。一体型画像投影装置50は、第1の実施形態に示す投影部10aとカメラ部10bと同様の機能構成を有した小型の投影部50aとカメラ部50bとを備える。また、新たに、投影面部13の全範囲に対して不可視光(本例では赤外光とする)を照射する赤外光照射装置(不可視光照射部)50cを備える。投影部50aとカメラ部50bの具体的な構成は第1の実施形態に示す構成と略同様であるため図示及び説明を適宜省略し、主に、赤外光照射装置50cとLEDライト51の構成等について説明する。 The integrated image projector 50 is a hand-held image projector of a size that can be carried by a person with one hand. The integrated image projection apparatus 50 includes a small projection unit 50a and a camera unit 50b having the same functional configuration as the projection unit 10a and the camera unit 10b shown in the first embodiment. In addition, an infrared light irradiation device (invisible light irradiation unit) 50c that irradiates the entire range of the projection surface unit 13 with invisible light (in this example, infrared light) is provided. Since the specific configurations of the projection unit 50a and the camera unit 50b are substantially the same as the configurations shown in the first embodiment, illustration and description thereof will be omitted as appropriate, and mainly the configurations of the infrared light irradiation device 50c and the LED light 51 will be described. Etc. will be described.
図21に示すように赤外光照射装置50cは一体型画像投影装置50の下部に設けている。一体型画像投影装置50は、同図に示すように投影面部13の水平面に赤外光照射装置50cを接地させるようにして使用する。カメラ部50bはその状態で投影面部13を撮像できる向きに傾けてあり、投影面部13を含むように撮像する。なお、本例では、カメラ部50bの角度が固定されているものとして説明するが、カメラ部50bの角度を自由に変えられるように投影部50aの上面に可動部を設け、その可動部にカメラ部50bを固定しても良い。可動部は、例えばカメラ部50bを回動させるためのものとして構成することができる。 As shown in FIG. 21, the infrared light irradiation device 50 c is provided below the integrated image projection device 50. The integrated image projection apparatus 50 is used so that the infrared light irradiation apparatus 50c is grounded to the horizontal plane of the projection surface portion 13 as shown in FIG. The camera unit 50 b is tilted in such a state that the projection surface unit 13 can be imaged, and captures the image so as to include the projection surface unit 13. In this example, it is assumed that the angle of the camera unit 50b is fixed. However, a movable unit is provided on the upper surface of the projection unit 50a so that the angle of the camera unit 50b can be freely changed. The part 50b may be fixed. The movable part can be configured, for example, for rotating the camera part 50b.
赤外光照射装置50cは、照射窓500から投影面部13側に赤外光を照射する。例えば、上記赤外光として赤外領域のレーザ光を、投影面部13上方の一定の高さを通過するように投影面部13に対して平行に照射し、投影面部13上方の図21に示す赤外光照射範囲Eをそのレーザ光によりライン走査する。 The infrared light irradiation device 50c irradiates infrared light from the irradiation window 500 to the projection surface unit 13 side. For example, laser light in the infrared region is irradiated as the infrared light in parallel to the projection surface unit 13 so as to pass through a certain height above the projection surface unit 13, and the red shown in FIG. 21 above the projection surface unit 13. The outside light irradiation range E is line-scanned with the laser beam.
LEDライト51は、電池駆動の可視光砲弾型LEDであり、LEDを先端部510の近傍に備えている。ユーザがLEDライト51の先端部510を投影面部13に押し込むことにより電源スイッチが入り、先端部510の近傍のLEDが点灯する。先端部510には赤外光を通過させることができる透過部を設けている。ここでは、その素材の一例として透明ガラスや透明プラスチック等の透明体のものを使用することとする。LEDが点灯すると透過部からLEDの光が放たれ、透過部は発光部として機能する。 The LED light 51 is a battery-driven visible light bullet-type LED, and includes an LED in the vicinity of the tip portion 510. When the user pushes the tip portion 510 of the LED light 51 into the projection surface portion 13, the power switch is turned on, and the LED in the vicinity of the tip portion 510 is lit. The tip portion 510 is provided with a transmission portion that allows infrared light to pass therethrough. Here, a transparent material such as transparent glass or transparent plastic is used as an example of the material. When the LED is turned on, the light from the LED is emitted from the transmissive portion, and the transmissive portion functions as a light emitting portion.
図22は、投影面部13上でLEDライト51を用いる場合の、赤外光照射装置50cが照射する赤外光の通過位置を説明するための図である。図22(a)は、投影面部13を側方から図示したものであり、投影面部13にLEDライト51を矢印Y1方向に押し込むことによりLEDを発光させたときの状態を示している。 FIG. 22 is a diagram for explaining the passage position of the infrared light irradiated by the infrared light irradiation device 50 c when the LED light 51 is used on the projection surface unit 13. FIG. 22A shows the projection surface portion 13 from the side, and shows a state when the LED is caused to emit light by pushing the LED light 51 into the projection surface portion 13 in the arrow Y1 direction.
同図に示すように、赤外光照射装置50cが照射する赤外光(同図の破線矢印Y2)の投影面部13上の通過位置を、LEDライト51の先端部510の透明体510aの範囲H以内(ただし、H>0)に設定する。つまり、赤外光照射装置50cが照射する赤外光の照射範囲(図21の赤外光照射範囲E)において、投影面部13の垂直方向の照射位置Jを範囲H内(望ましくは、照射位置J<<範囲H)に制限する。これにより、ユーザがLEDライト51を投影面部13に当てて、LEDの発光によりその位置を指示した場合でも赤外光照射装置50cからの赤外光はLEDライト51を通過することになる。このため、赤外光照射装置50cが照射する赤外光(同図の破線矢印Y2)がLEDライト51において反射や散乱し、これによりその位置に所定レベル以上の輝度値の発光点が形成されることを抑えることができる。 As shown in the figure, the passing position on the projection surface part 13 of the infrared light (dashed arrow Y2 in the figure) irradiated by the infrared light irradiation device 50c is the range of the transparent body 510a of the tip part 510 of the LED light 51. Set within H (however, H> 0). That is, in the irradiation range of infrared light irradiated by the infrared light irradiation device 50c (infrared light irradiation range E in FIG. 21), the irradiation position J in the vertical direction of the projection surface portion 13 is within the range H (preferably the irradiation position). Limited to J << range H). Thereby, even when the user applies the LED light 51 to the projection surface portion 13 and indicates the position by light emission of the LED, the infrared light from the infrared light irradiation device 50 c passes through the LED light 51. For this reason, infrared light (broken arrow Y2 in the figure) irradiated by the infrared light irradiation device 50c is reflected or scattered by the LED light 51, thereby forming a light emitting point having a luminance value of a predetermined level or more at that position. Can be suppressed.
図22(b)は、図22(a)に示すLEDライト51に代わり、指示手段の一例として指で投影面部13を触れたときの状態を示している。同図に示すように、赤外光(同図の破線矢印Y2)は指U1の位置で反射、吸収、散乱し、赤外光を遮った指U1の位置に赤外光の発光点が形成される。赤外光の照射位置は、ユーザが投影面部13を指U1で触れたときの指U1の先端に近いことが望ましい。例えば、指U1の先端から第一関節以内や、指U1の爪U2の位置などに収めるようにする。図22(b)に示す例では、その照射位置を指U1の爪U2の位置に設定したものを示している。 FIG. 22B shows a state when the projection surface unit 13 is touched with a finger as an example of an instruction unit instead of the LED light 51 shown in FIG. As shown in the figure, infrared light (broken line arrow Y2 in the figure) is reflected, absorbed, and scattered at the position of the finger U1, and an infrared light emitting point is formed at the position of the finger U1 that blocks the infrared light. Is done. The infrared light irradiation position is preferably close to the tip of the finger U1 when the user touches the projection surface unit 13 with the finger U1. For example, it is set within the first joint from the tip of the finger U1 or within the position of the nail U2 of the finger U1. In the example shown in FIG. 22B, the irradiation position is set to the position of the nail U2 of the finger U1.
図23は、一体型画像投影装置50の機能構成を示すブロック図である。図23に示すように、一体型画像投影装置50は、第1の実施形態に示すブロック構成(図5参照)に更に赤外光走査部60を備える。また、駆動制御部61及び指示マーク検出部62を備える。 FIG. 23 is a block diagram showing a functional configuration of the integrated image projector 50. As shown in FIG. 23, the integrated image projector 50 further includes an infrared light scanning unit 60 in the block configuration shown in the first embodiment (see FIG. 5). Further, a drive control unit 61 and an instruction mark detection unit 62 are provided.
赤外光走査部60は、駆動制御部61の照射命令により、赤外光照射装置50cを起動し、赤外光を投影面部13に照射させる。本例では、更に、その照射光を赤外光照射範囲E内を走査するように制御する。 The infrared light scanning unit 60 activates the infrared light irradiation device 50 c according to the irradiation command of the drive control unit 61 and causes the projection surface unit 13 to emit infrared light. In this example, the irradiation light is further controlled to scan within the infrared light irradiation range E.
ここで、第2の実施形態の指示マーク検出部62における、可視光の発光点と不可視光(本例の赤外光)の発光点との弁別方法について説明する。
図24は、投影面部13の映像上の一点をLEDライト51で押し当てて指示し、更に別の一点をユーザが指で触れて指示を行った場合の投影面部13の状態を示す図である。つまり、図24に示す例は、可視光と不可視光の赤外光とが同時に投影面部13上で発光する場合のパターンを示している。以下では、LEDライト51の発光点を緑色とした場合の、LEDライト51の発光点とユーザの指の発光点の検出処理について説明する。
Here, a method of discriminating between the light emission point of visible light and the light emission point of invisible light (infrared light in this example) in the instruction mark detection unit 62 of the second embodiment will be described.
FIG. 24 is a diagram showing a state of the projection plane unit 13 when an instruction is given by pressing one point on the image of the projection plane unit 13 with the LED light 51 and the user touches another point with a finger. . That is, the example shown in FIG. 24 shows a pattern in the case where visible light and invisible infrared light are emitted simultaneously on the projection plane 13. Hereinafter, the detection process of the light emission point of the LED light 51 and the light emission point of the user's finger when the light emission point of the LED light 51 is green will be described.
図25は、図24の状態をカメラ部50bで撮像した場合の、カメラ部50bからの取込画像の画像イメージを示す図である。図25の画像G20、G21、G22は、第1の実施形態の画像G10、G11、G12(図14参照)と同様にして得られたものである。つまり、各画像G20、G21、G22は、それぞれ、図13のカラーカメラ周期に示すタイミングで露光して得られたものである。つまり、画像G21は、カメラ部50bによりB期間に露光されて出力されたGreen版の画像データを示している。画像G22は、C期間に露光されて出力されたBlue版の画像データを示している。画像G20は、A期間に露光されて出力されたRed版の画像データを示している。なお、同図において、明るい部分が輝度の高い部分を表し、暗い部分が輝度の低い部分を表している。 FIG. 25 is a diagram illustrating an image image of a captured image from the camera unit 50b when the state of FIG. 24 is captured by the camera unit 50b. Images G20, G21, and G22 in FIG. 25 are obtained in the same manner as the images G10, G11, and G12 (see FIG. 14) of the first embodiment. That is, each of the images G20, G21, and G22 is obtained by exposure at the timing shown in the color camera cycle of FIG. That is, the image G21 shows the Green version image data that is exposed and output in the period B by the camera unit 50b. An image G22 indicates the Blue plane image data that is exposed and output in the period C. An image G20 shows Red image data that is exposed and output in the period A. In the figure, a bright portion represents a portion with high luminance, and a dark portion represents a portion with low luminance.
図25の画像G20〜G22の各画像には略同位置に指(又は爪)の特徴を示す三日月形状の指示マークM20が輝度の高いエリアとして含まれている。また、図25の画像G21として示すGreen版の画像データには、輝度の高いエリアとして指示マークM20の他にLEDライト51の円形の指示マークM21が含まれている。指示マーク検出部62は、これらの指示マークM20、M21を輝度差により検出し、更に、それぞれを可視光の指示マークと不可視光の指示マークとに弁別する。各指示マークM20、M21の弁別方法は、第1の実施形態にも述べているが、ここでは、1版で各指示マークM20、M21の検出と弁別とを行うことのできる画素の輝度パターンによる方法について示す。一例として、画像データの内の注目画素から8方向の輝度差を調べて形状認識するRRC(Radial Reach Correlation)処理を利用した弁別方法について示す。 Each of the images G20 to G22 in FIG. 25 includes a crescent-shaped instruction mark M20 indicating the characteristics of a finger (or nail) at a substantially same position as an area with high luminance. Further, the green image data shown as the image G21 in FIG. 25 includes a circular instruction mark M21 of the LED light 51 in addition to the instruction mark M20 as a high luminance area. The instruction mark detection unit 62 detects these instruction marks M20 and M21 based on a luminance difference, and further discriminates each of them from a visible light instruction mark and an invisible light instruction mark. The method for discriminating each indication mark M20, M21 is also described in the first embodiment, but here it depends on the luminance pattern of the pixels that can detect and discriminate each indication mark M20, M21 in one version. The method is shown. As an example, a discrimination method using RRC (Radial Reach Correlation) processing for recognizing a shape by examining luminance differences in eight directions from a pixel of interest in image data will be described.
図26は、Green版の画像G21を対象にRRC(Radial Reach Correlation)処理を施した後の指示マークの輝度分布図である。図26(a)はLEDライト51が形成する発光点の指示マークM21の輝度分布図であり、図26(b)はユーザの指に形成される発光点の指示マークM20の輝度分布図である。図26(a)と図26(b)の各図の比較から、円形の指示マークM21と三日月形の指示マークM20の輝度分布において違いが表れることが分かる。 FIG. 26 is a luminance distribution diagram of the instruction mark after RRC (Radial Reach Correlation) processing is performed on the Green image G21. FIG. 26A is a luminance distribution diagram of the light emission point indication mark M21 formed by the LED light 51, and FIG. 26B is a luminance distribution diagram of the light emission point indication mark M20 formed on the user's finger. . 26A and 26B, it can be seen that a difference appears in the luminance distribution between the circular instruction mark M21 and the crescent moon-shaped instruction mark M20.
指示マーク検出部62は、映像信号入力部23を介して入力されたGreen版の画像データ(図25の画像G21)を対象にRRC処理を施す。そして、図26(a)、図26(b)に示す輝度分布からLEDライト51の指示マークM21とユーザの指の指示マークM20とを弁別する。 The instruction mark detection unit 62 performs RRC processing on the Green image data (image G21 in FIG. 25) input via the video signal input unit 23. Then, the instruction mark M21 of the LED light 51 and the instruction mark M20 of the user's finger are discriminated from the luminance distribution shown in FIGS. 26 (a) and 26 (b).
具体的に、指示マーク検出部62は、先ず、Green版の画像データから注目画素(m210、m200)を設定し、注目画素から放射状に8方向の画素の輝度値を調べ、注目画素の近傍から順に、注目画素と各画素の輝度差を求める。そして輝度差が所定の閾値未満の画素(m211、m201)については次の画素の輝度差を求め、輝度差が所定の閾値を超えた画素(m212、m202)で、そこまでの放射状の画素グループの配列パターンを指示マークの候補とする。指示マーク検出部62は、その処理をGreen版の画像データの各画素に対して行い、指示マークの複数の候補を生成する。指示マーク検出部62は、更に、候補となった画素グループの配列パターン(つまり放射状の輝度分布)の標準偏差を求める。 Specifically, the instruction mark detection unit 62 first sets the pixel of interest (m210, m200) from the Green version of the image data, and examines the luminance values of the pixels in eight directions radially from the pixel of interest, and starts from the vicinity of the pixel of interest. In order, the luminance difference between the target pixel and each pixel is obtained. For the pixels (m211 and m201) whose luminance difference is less than the predetermined threshold, the luminance difference of the next pixel is obtained, and the pixels (m212 and m202) whose luminance difference exceeds the predetermined threshold, the radial pixel group up to that point The array pattern is a candidate for the indication mark. The instruction mark detection unit 62 performs the process on each pixel of the Green image data to generate a plurality of instruction mark candidates. The instruction mark detection unit 62 further obtains a standard deviation of the array pattern (that is, radial luminance distribution) of the candidate pixel group.
例えば、LEDライト51の場合、指示マークは円形状や楕円形状になる場合が多いので、その輝度分布は図26(a)に示す例のように8方向の長さが略均等になる。一方、指の場合、指示マークは三日月形状になるため、図26(b)に示す例のように8方向の長さに特有のばらつきがでる。これらの特徴を標準偏差の値として求める。 For example, in the case of the LED light 51, since the instruction mark is often circular or elliptical, the luminance distribution has substantially the same length in eight directions as in the example shown in FIG. On the other hand, in the case of a finger, since the indication mark has a crescent shape, there is a unique variation in the length in eight directions as in the example shown in FIG. These features are obtained as standard deviation values.
その後、指示マーク検出部62は、標準偏差の値に基づき、LEDライト51の指示マークM21とユーザの指の指示マークM20との類似度を求め、LEDライト51の指示マークM21とユーザの指の指示マークM20とを弁別する。類似度の算出は、例えば、予めLEDライト51の指示マークM21とユーザの指の指示マークM20の複数パターンの画像データ(Green版)を内部メモリに記憶しておく。指示マーク検出部62は、それらのデータから算出した標準偏差の値を基準に類似度を求める。これにより、指示マーク検出部62は、指示マークM20、M21として特定した各画素グループの注目画素の位置座標{(x1‘,y1‘)、(x2‘,y2‘)}等を画像処理部26に出力する。 Thereafter, the indication mark detection unit 62 obtains the similarity between the indication mark M21 of the LED light 51 and the indication mark M20 of the user's finger based on the standard deviation value, and the indication mark M21 of the LED light 51 and the indication of the user's finger. The instruction mark M20 is discriminated. For the calculation of the similarity, for example, a plurality of patterns of image data (Green version) of the instruction mark M21 of the LED light 51 and the instruction mark M20 of the user's finger are stored in the internal memory in advance. The indication mark detection unit 62 obtains the similarity based on the standard deviation value calculated from the data. As a result, the instruction mark detection unit 62 uses the position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} of the target pixel of each pixel group specified as the instruction marks M20 and M21 as the image processing unit 26. Output to.
画像処理部26は、第1の実施形態に示す通り、パラメータHにセットされた射影変換係数により各指示マークの位置座標{(x1‘,y1‘)、(x2‘,y2‘)}を{(x1,y1)、(x2,y2)}に補正する。更に、画像処理部26は、補正後の位置{(x1,y1)、(x2,y2)}に異なる指示データを形成してなるフレーム画像を生成し、それを第2の映像信号として映像処理部21に出力する。 As shown in the first embodiment, the image processing unit 26 sets the position coordinates {(x1 ′, y1 ′), (x2 ′, y2 ′)} of each instruction mark by the projective transformation coefficient set in the parameter H { It is corrected to (x1, y1), (x2, y2)}. Further, the image processing unit 26 generates a frame image formed by forming different instruction data at the corrected position {(x1, y1), (x2, y2)}, and uses this as a second video signal for video processing. To the unit 21.
図27は、第2の実施形態の駆動制御部61の動作フロー図である。本動作フロー図は、第1の実施形態の駆動制御部22の動作フロー図(図15参照)と一部の動作が重複している。従って、ここでは重複箇所の説明を省略し、異なる部分についての説明を行う。 FIG. 27 is an operation flowchart of the drive control unit 61 according to the second embodiment. This operation flow diagram partially overlaps the operation flow diagram (see FIG. 15) of the drive control unit 22 of the first embodiment. Therefore, the description of overlapping parts is omitted here, and only different parts are described.
第2の実施形態の駆動制御部61の動作フローにおいて、駆動制御部61は、ステップS103のNo判定後に、赤外光照射装置50cの起動状態を判定する(ステップS200)。赤外光照射装置50cが停止している場合(ステップS200:No判定)、駆動制御部61は、赤外光走査部60に照射命令を出力する(ステップS201)。これにより、赤外光照射装置50cを起動し、投影面部13上の赤外光の走査を開始する。 In the operation flow of the drive control unit 61 of the second embodiment, the drive control unit 61 determines the activation state of the infrared light irradiation device 50c after No determination in step S103 (step S200). When the infrared light irradiation device 50c is stopped (step S200: No determination), the drive control unit 61 outputs an irradiation command to the infrared light scanning unit 60 (step S201). Thereby, the infrared light irradiation device 50c is activated and scanning of the infrared light on the projection surface unit 13 is started.
ステップS201の処理後は、ステップS200に移行し、その後のサイクルでは、赤外光照射装置50cは起動しているため(ステップS200:Yes判定)、ステップS107へと処理を進め、カメラ部50bによる投影面部13上の撮像を開始する。つまり、カメラ部50bによる投影面部13上の撮像が開始される時には、既に赤外光照射装置50cから投影面部13に赤外光が走査されている。この赤外光の走査により、ユーザが指で投影面部13上を指示すときに赤外光を遮ると、指における発光点が指示マーク検出部62により検出される。そして、映像上の指示マークの位置にポインタ画像等が合成される。 After the process of step S201, the process proceeds to step S200, and in the subsequent cycle, the infrared light irradiation device 50c is activated (step S200: Yes determination), so the process proceeds to step S107, and the camera unit 50b Imaging on the projection plane unit 13 is started. That is, when imaging on the projection surface unit 13 by the camera unit 50b is started, infrared light has already been scanned from the infrared light irradiation device 50c to the projection surface unit 13. If the infrared light is blocked when the user points on the projection surface unit 13 with the finger by the scanning of the infrared light, the indication mark detection unit 62 detects the light emitting point on the finger. Then, a pointer image or the like is synthesized at the position of the instruction mark on the video.
なお、赤外光照射装置50cの停止は、例えばステップS101において映像信号が終了した際などに駆動制御部61が赤外光走査部60に停止命令を出力するなどにより実施する。 The infrared light irradiation device 50c is stopped by, for example, outputting a stop command to the infrared light scanning unit 60 when the video signal is ended in step S101.
図28は、投影面部13に投影される映像とポインタ画像の合成映像を示す一例である。図28に示す例では、指の発光点に合成画像として矢印を示す画像Q1を形成したものを示している。また、緑色の発光点に合成画像としてポインタの拡大画像Q2を形成したものを示している。ユーザが投影面部13上を指U1やLEDライト51を移動させると、矢印を示す画像Q1やポインタの拡大画像Q2がその移動に追随して移動する。 FIG. 28 is an example showing a composite image of a video projected on the projection plane unit 13 and a pointer image. In the example shown in FIG. 28, an image Q1 showing an arrow as a composite image is formed at the light emitting point of the finger. In addition, an enlarged image Q2 of a pointer is formed as a composite image on a green light emitting point. When the user moves the finger U1 or the LED light 51 on the projection plane 13, the image Q1 indicating an arrow or the enlarged image Q2 of the pointer moves following the movement.
第2の実施形態では、可視光の発光点と不可視光の発光点のそれぞれに指示データとして矢印やポインタ等の画像を合成し、発光点の移動と共に追随する例を示したがこの限りではない。例えば、発光点の位置に合成した指示データをその後のフレームにも残し、発光点の移動による位置の異なる指示データを、その後のフレームに順次追加する構成としても良い。その場合、指示データをドットとすれば、投影面部13上で発光点を移動させると線が形成されることになる。 In the second embodiment, an example in which an image such as an arrow or a pointer is combined as instruction data to each of the visible light emission point and the invisible light emission point and is followed as the light emission point moves is shown. . For example, the instruction data synthesized at the position of the light emitting point may be left in the subsequent frames, and the instruction data having different positions due to the movement of the light emitting points may be sequentially added to the subsequent frames. In this case, if the instruction data is a dot, a line is formed when the light emitting point is moved on the projection surface portion 13.
(第2の実施形態の変形例1)
第2の実施形態の変形例1では、LEDライト51が形成する発光点により投影面部13上に線を描き、ユーザの指において形成される発光点により投影面部13上に描かれた線を消すための消しゴムとして機能させるための画像処理部26の構成を示す。
(Modification 1 of 2nd Embodiment)
In the first modification of the second embodiment, a line is drawn on the projection surface unit 13 by the light emitting point formed by the LED light 51, and the line drawn on the projection surface unit 13 is erased by the light emitting point formed by the user's finger. The structure of the image process part 26 for functioning as an eraser for this is shown.
図29は、第2の実施形態の変形例1の画像処理部の機能ブロック図である。図29に示すように、画像処理部70は、一つ前に映像処理部に出力したフレーム画像(部分画像)のコピーを一時的に記憶しておくための部分画像バッファ部700を備える。 FIG. 29 is a functional block diagram of an image processing unit according to Modification 1 of the second embodiment. As shown in FIG. 29, the image processing unit 70 includes a partial image buffer unit 700 for temporarily storing a copy of the frame image (partial image) output to the previous video processing unit.
画像処理部70は、第2の実施形態の画像処理部26と同様に(つまり第1の実施形態の画像処理部26で説明したように)、指示マーク検出部62により検出された可視光と不可視光の発光点の位置をパラメータHにセットされた射影変換係数により補正する。更に、補正後の位置に異なる指示データ(上記部分画像)を形成してなるフレーム画像を生成して映像処理部21に出力する。部分画像バッファ部700は、その出力したフレーム画像を一時的に記憶する。画像処理部70は、その後、指示マーク検出部62から可視光と不可視光の次の位置座標(前と同じ位置座標又は移動後の位置座標)の入力があると、同様に位置を補正する。また更に、部分画像バッファ部700に一時的に記憶している一つ前のフレーム画像上に部分画像を配置し、部分画像バッファ部700を更新する。そして、画像処理部70は、更新したフレーム画像を映像処理部21に出力する。 The image processing unit 70 is similar to the image processing unit 26 of the second embodiment (that is, as described in the image processing unit 26 of the first embodiment), and the visible light detected by the instruction mark detection unit 62. The position of the invisible light emission point is corrected by the projective transformation coefficient set in the parameter H. Further, a frame image formed by forming different instruction data (the partial image) at the corrected position is generated and output to the video processing unit 21. The partial image buffer unit 700 temporarily stores the output frame image. Thereafter, when the next position coordinates of the visible light and the invisible light (the same position coordinates as before or the position coordinates after movement) are input from the instruction mark detection unit 62, the image processing unit 70 similarly corrects the position. Furthermore, the partial image is arranged on the previous frame image temporarily stored in the partial image buffer unit 700, and the partial image buffer unit 700 is updated. Then, the image processing unit 70 outputs the updated frame image to the video processing unit 21.
図30は、部分画像バッファ部700が記憶するフレーム画像(部分画像)の遷移図である。図30(a)は、投影面部13上の一点から他の一点にLEDライト51の発光点を移動させた場合の部分画像の遷移を示している。図30(a)に示すように、画像処理部70は、投影面部13上の一点に形成された発光点の対応位置に、先ず、線を形成するためにドット画像D1を形成し、その部分画像を部分画像バッファ部700に保存する。更に、投影面部13上の一点から他の一点にLEDライト51の発光点が移動させられると、画像処理部700は、順次、前に形成したドット画像D1に新たに形成したドット画像D2、D3、・・・DN(Nは整数)を追加する。そして、追加の画像により部分画像バッファ部700の部分画像を更新する。これにより発光点の軌跡に線が形成される。 FIG. 30 is a transition diagram of frame images (partial images) stored in the partial image buffer unit 700. FIG. 30A shows the transition of the partial image when the light emitting point of the LED light 51 is moved from one point on the projection plane unit 13 to another point. As shown in FIG. 30A, the image processing unit 70 first forms a dot image D1 in order to form a line at a position corresponding to a light emitting point formed at one point on the projection surface unit 13, and the portion. The image is stored in the partial image buffer unit 700. Further, when the light emitting point of the LED light 51 is moved from one point on the projection surface unit 13 to another point, the image processing unit 700 sequentially forms dot images D2 and D3 newly formed on the dot image D1 formed previously. ... DN (N is an integer) is added. Then, the partial image in the partial image buffer unit 700 is updated with the additional image. Thereby, a line is formed in the locus of the light emitting point.
図30(b)は、図30(a)に示す線に対応する投影面部13上の線をユーザが指でなぞって消す場合の部分画像の遷移を示している。画像処理部70は、投影面部13上の指の発光により形成された発光点の対応位置に、先ず、線を消すためのドット画像F1を形成し、部分画像バッファ部700に記憶されている線を含む部分画像にドット画像F1を追加する。ドット画像F1の画素情報は、ドット画像D1の画素情報を打ち消す値とする。これにより、線上にドット画像F1・・・FN(Nは整数)を重ねて移動すると、図30(b)の矢印の遷移先に示すように、重なった部分のドット画像D1、D2、・・・の画素情報が打ち消され、その部分の線が消える。 FIG. 30B shows the transition of the partial image when the user traces the line on the projection plane 13 corresponding to the line shown in FIG. The image processing unit 70 first forms a dot image F1 for erasing the line at the corresponding position of the light emitting point formed by the light emission of the finger on the projection surface unit 13, and stores the line image stored in the partial image buffer unit 700. A dot image F1 is added to the partial image including. The pixel information of the dot image F1 is a value that cancels the pixel information of the dot image D1. Thus, when the dot images F1... FN (N is an integer) are moved over the line, the dot images D1, D2,.・ The pixel information is canceled and the line disappears.
(第2の実施形態の変形例2)
第2の実施形態では、一体型の画像投影装置として赤外光照射装置50cを設けているが、赤外光照射装置50cを別体として設けても良い。
図31は、別体の赤外光照射装置50c−1と、一体型画像投影装置50−1の外観図である。別体の赤外光照射装置50c−1には、電源を投入するための電源スイッチ(不図示)を設ける。赤外光照射装置50c−1は、その電源スイッチをユーザが入れることにより起動し、赤外光を照射する。この場合、一体型画像投影装置(画像処理装置)50−1の駆動制御部による赤外光照射装置の制御が不要になる。
(Modification 2 of the second embodiment)
In the second embodiment, the infrared light irradiation device 50c is provided as an integrated image projection device, but the infrared light irradiation device 50c may be provided separately.
FIG. 31 is an external view of a separate infrared light irradiation device 50c-1 and an integrated image projection device 50-1. The separate infrared light irradiation device 50c-1 is provided with a power switch (not shown) for turning on the power. The infrared light irradiation device 50c-1 is activated when the user turns on its power switch, and irradiates infrared light. In this case, it is not necessary to control the infrared light irradiation device by the drive control unit of the integrated image projection device (image processing device) 50-1.
以上に示す第1、第2の実施形態では、投影部とカメラ部を一つの装置に備えた画像投影装置について示した。しかし、これらは一体でなく、一部の機能を別体に設けて分離型として構成しても良い。 In the first and second embodiments described above, the image projection apparatus including the projection unit and the camera unit in one apparatus has been described. However, these are not integrated, and a part of the functions may be provided separately to constitute a separate type.
以上のように、第2の実施形態及び変形例では、指や指示棒などの指示手段を用いて投影面部上を直接触れて指し示す場合に、その指示位置にポインタ画像等の合成情報を表示させることができる。第2の実施形態では、投影面部上に視覚的に認識されない赤外光を照射して走査し、その赤外光により指示手段上に発光点を形成する。このため、赤外光が映像の邪魔になることはなく、また、指示位置を発光点が邪魔することもない。 As described above, in the second embodiment and the modified example, when the pointing means such as a finger or a pointing stick is used to directly touch and point on the projection surface, the composite information such as the pointer image is displayed at the indicated position. be able to. In the second embodiment, scanning is performed by irradiating infrared light that is not visually recognized on the projection surface portion, and a light emitting point is formed on the pointing means by the infrared light. For this reason, infrared light does not interfere with the image, and the light emitting point does not interfere with the indicated position.
(第3の実施形態)
第3の実施形態では、一体型画像投影装置の分離型の態様を示す。ここでは、一例として、投影部80aとカメラ部80bと赤外光照射装置80cとがそれぞれ別体として構成されている場合の例を示す。
図32は、投影部80aとカメラ部80bと赤外光照射装置80cの外観図である。
投影部80aは、第1の実施形態に示す投影部10a(図2参照)の内部構成を有する。赤外光照射装置80cは、第2の実施形態に示す赤外光照射装置50c−1(図31参照)に対応し、電源スイッチを有する。赤外光照射装置50c−1は、ユーザがその電源スイッチを入れることにより赤外光の照射と走査を開始する。カメラ部80bの構成については後述する。
(Third embodiment)
In the third embodiment, a separation type aspect of the integrated image projector is shown. Here, as an example, an example in which the projection unit 80a, the camera unit 80b, and the infrared light irradiation device 80c are configured as separate bodies is shown.
FIG. 32 is an external view of the projection unit 80a, the camera unit 80b, and the infrared light irradiation device 80c.
The projection unit 80a has the internal configuration of the projection unit 10a (see FIG. 2) shown in the first embodiment. The infrared light irradiation device 80c corresponds to the infrared light irradiation device 50c-1 (see FIG. 31) shown in the second embodiment, and includes a power switch. The infrared light irradiation device 50c-1 starts irradiation and scanning of infrared light when the user turns on the power switch. The configuration of the camera unit 80b will be described later.
図33は、各部(投影部80a、カメラ部80b、及び赤外光照射装置80c)の配置例である。図33には、投影部80aを赤外光照射装置80c上に置き、投影部80aにカメラ部80bを長尺の屈曲自在のケーブルIを用いて接続した状態のものを示している。この接続例では、カメラ部80bの向きや位置を自由に変えることができるため、カメラ部80bによる撮像を投影面部の正面から行うことができる。なお、投影面部は、第2の実施形態の画像投影システム100(図21参照)と同様に、投影部80aの投影範囲に設ける。可視光を照射する照射装置は、レーザポインタやLEDライト等を適宜選択して良い。 FIG. 33 is an arrangement example of each unit (projection unit 80a, camera unit 80b, and infrared light irradiation device 80c). FIG. 33 shows a state in which the projection unit 80a is placed on the infrared light irradiation device 80c and the camera unit 80b is connected to the projection unit 80a using a long bendable cable I. In this connection example, since the orientation and position of the camera unit 80b can be freely changed, the imaging by the camera unit 80b can be performed from the front of the projection surface unit. In addition, the projection surface part is provided in the projection range of the projection part 80a similarly to the image projection system 100 (refer FIG. 21) of 2nd Embodiment. A laser pointer, an LED light, or the like may be appropriately selected as the irradiation device that emits visible light.
図34は、カメラ部80bの構成図の一例である。本実施形態の分離型のカメラ部80bは、撮像カメラ800とコンピュータ(画像処理装置)801とにより構成する。コンピュータ801は、パーソナルコンピュータ等の情報処理装置である。 FIG. 34 is an example of a configuration diagram of the camera unit 80b. The separation-type camera unit 80b according to the present embodiment includes an imaging camera 800 and a computer (image processing apparatus) 801. The computer 801 is an information processing apparatus such as a personal computer.
図35は、コンピュータ801のハードウェアブロック図である。コンピュータ801は、CPU(Central Processing Unit)810、ROM(Read Only Memory)811、RAM(Random Access Memory)812、メモリ部813、操作入力部814、表示出力部815、通信インタフェース816などを備える。各部はバス818により相互に接続されている。 FIG. 35 is a hardware block diagram of the computer 801. The computer 801 includes a CPU (Central Processing Unit) 810, a ROM (Read Only Memory) 811, a RAM (Random Access Memory) 812, a memory unit 813, an operation input unit 814, a display output unit 815, a communication interface 816, and the like. Each part is connected to each other by a bus 818.
CPU810は、各種のプログラムを実行し、演算処理や各部の制御を行う中央演算処理装置である。ROM811は、固定のプログラムやデータを記憶する不揮発性メモリである。RAM812は、CPU810の作業エリアとして使用する揮発性メモリである。メモリ部813は、各種プログラムやデータを記憶するHDDや可搬型のフラッシュメモリ等の外部記憶装置である。操作入力部814は、キーボードやマウスなどの接続によりユーザ入力を受け付ける。表示出力部815は、表示ディスプレイ(例えば液晶表示ディスプレイなど)の接続により設定情報等を表示する。通信インタフェース816は、投影部80aと通信を行うインタフェースである。 The CPU 810 is a central processing unit that executes various programs and performs arithmetic processing and control of each unit. The ROM 811 is a non-volatile memory that stores fixed programs and data. The RAM 812 is a volatile memory used as a work area for the CPU 810. The memory unit 813 is an external storage device such as an HDD or a portable flash memory that stores various programs and data. The operation input unit 814 receives user input through connection of a keyboard, a mouse, or the like. The display output unit 815 displays setting information and the like by connecting a display display (for example, a liquid crystal display). The communication interface 816 is an interface that communicates with the projection unit 80a.
以上の構成の下、CPU810は各種プログラムをメモリ部813等からRAM812にロードして実行し、コンピュータ801を次の各部として機能させる。
図36は、投影部80aと、カメラ部80b(コンピュータ801)の機能ブロック図の一例である。
Under the above configuration, the CPU 810 loads various programs from the memory unit 813 or the like to the RAM 812 and executes them, thereby causing the computer 801 to function as the following units.
FIG. 36 is an example of a functional block diagram of the projection unit 80a and the camera unit 80b (computer 801).
図36に示すように、投影部80aは、映像処理部21、駆動制御部22、同期信号出力部820、映像信号入力処理部823などを備えている。また、カメラ部80bは、撮像制御部824、映像信号入力部23、変換係数演算部24、指示マーク検出部25、画像処理部26、同期映像信号伝送部825などを備えている。画像処理部26と同期映像信号伝送部825が合成情報出力部として機能する。なお、第1の実施形態の機能ブロック図(図5参照)と略同様の機能部については、同じ符号を付すなどして簡略して説明し、第1の実施形態と異なる部分について詳しく説明する。 As shown in FIG. 36, the projection unit 80a includes a video processing unit 21, a drive control unit 22, a synchronization signal output unit 820, a video signal input processing unit 823, and the like. The camera unit 80b includes an imaging control unit 824, a video signal input unit 23, a conversion coefficient calculation unit 24, an instruction mark detection unit 25, an image processing unit 26, a synchronous video signal transmission unit 825, and the like. The image processing unit 26 and the synchronous video signal transmission unit 825 function as a composite information output unit. Note that functional units that are substantially the same as those in the functional block diagram of the first embodiment (see FIG. 5) will be briefly described by attaching the same reference numerals, and different parts from the first embodiment will be described in detail. .
先ず、投影部80aについて説明する。
映像信号入力処理部823には、HDMI(登録商標)などのデジタル信号や、VGAやコンポーネント信号等のアナログ信号が入力される。映像信号入力処理部823は、入力信号に応じてRGBやYPbPr信号等へと映像を加工する処理を行う。なお、映像信号入力処理部823は、入力された映像信号がデジタル信号の場合は、入力信号のビット数に応じて映像処理部21が規定するビットフォーマットに変換する。また、映像信号入力処理部823は、入力された映像信号がアナログ信号入力の場合はアナログ信号をデジタルサンプリングするDAC処理等を行い、RGBあるいはYPbPrのフォーマット信号を映像処理部21へと入力する。
First, the projection unit 80a will be described.
The video signal input processing unit 823 receives a digital signal such as HDMI (registered trademark) or an analog signal such as a VGA or a component signal. The video signal input processing unit 823 performs processing for processing video into RGB, YPbPr signals, and the like according to the input signals. Note that when the input video signal is a digital signal, the video signal input processing unit 823 converts the input video signal into a bit format defined by the video processing unit 21 according to the number of bits of the input signal. Further, when the input video signal is an analog signal input, the video signal input processing unit 823 performs a DAC process for digitally sampling the analog signal and inputs an RGB or YPbPr format signal to the video processing unit 21.
映像処理部21は映像信号を駆動制御部22に出力する。映像処理部21は、映像信号入力処理部823から画像処理部26で生成された部分画像の入力があると、部分画像を合成した映像を駆動制御部22に出力する。
駆動制御部22は、DMD2、カラーホイール5、ランプ電源17などを制御する。また、カラーホイール5の回転に同期させてシャッターの開閉を制御するための信号を同期信号出力部820に出力する。
The video processing unit 21 outputs the video signal to the drive control unit 22. When receiving a partial image generated by the image processing unit 26 from the video signal input processing unit 823, the video processing unit 21 outputs a video obtained by synthesizing the partial images to the drive control unit 22.
The drive control unit 22 controls the DMD 2, the color wheel 5, the lamp power source 17, and the like. In addition, a signal for controlling opening and closing of the shutter in synchronization with the rotation of the color wheel 5 is output to the synchronization signal output unit 820.
同期信号出力部820は、駆動制御部22のシャッターの開閉を制御するための信号を外部装置の仕様に合わせて加工し、外部装置に対応するタイミング信号を外部装置に出力する。 The synchronization signal output unit 820 processes a signal for controlling the opening / closing of the shutter of the drive control unit 22 according to the specifications of the external device, and outputs a timing signal corresponding to the external device to the external device.
次に、カメラ部80bについて説明する。
撮像制御部824は、通信インタフェース816(図35参照)を介して入力された同期信号出力部820のタイミング信号から撮像タイミングを検出し、撮像カメラ800のシャッターの開閉動作を制御する。シャッターの開閉制御のタイミングは、第1の実施形態と同様とする。つまり、照射装置の照射光として赤色の発光色のものを使用する場合はTimingA(図9参照)、緑色の場合はTimingB(図9参照)、青色の場合はTimingC(図9参照)のタイミングとする。なお、照射装置の照射光として赤外光を併用する場合は、TimingA、B、Cの何れでも良い。
Next, the camera unit 80b will be described.
The imaging control unit 824 detects the imaging timing from the timing signal of the synchronization signal output unit 820 input via the communication interface 816 (see FIG. 35), and controls the opening / closing operation of the shutter of the imaging camera 800. The timing of shutter opening / closing control is the same as in the first embodiment. That is, the timing of Timing A (see FIG. 9) is used when the emission light of the irradiation device is red, and Timing B (see FIG. 9) is green, and Timing C (see FIG. 9) is blue. To do. In addition, when using infrared light together as irradiation light of an irradiation apparatus, any of Timing A, B, and C may be sufficient.
映像信号入力部23は、撮像カメラ800から出力されるカラー画像データを入力し、それをRGBに変換する。 The video signal input unit 23 receives color image data output from the imaging camera 800 and converts it into RGB.
変換係数演算部24はキャリブレーションの動作時に射影変換係数を算出して画像処理部26のパラメータにセットする。なお、キャリブレーションを開始する指示は、投影部80aの駆動制御部22から通信インタフェース816(図35参照)を介して受け付ける。また、射影変換係数をパラメータにセットした後、変換係数演算部24は通信インタフェース816(図35参照)を介して駆動制御部22または映像処理部21などに対して終了を示す信号を出力する。 The conversion coefficient calculation unit 24 calculates a projective conversion coefficient during the calibration operation and sets it as a parameter of the image processing unit 26. An instruction to start calibration is received from the drive control unit 22 of the projection unit 80a via the communication interface 816 (see FIG. 35). Further, after setting the projective transformation coefficient as a parameter, the transformation coefficient computing unit 24 outputs a signal indicating the end to the drive control unit 22 or the video processing unit 21 via the communication interface 816 (see FIG. 35).
指示マーク検出部25は、RGB画像から指示マークを検出する。 The instruction mark detection unit 25 detects an instruction mark from the RGB image.
画像処理部26は、指示マークの位置をパラメータHにより補正し、補正後の位置にポインタ画像等を設定した部分画像を形成する。 The image processing unit 26 corrects the position of the instruction mark with the parameter H, and forms a partial image in which a pointer image or the like is set at the corrected position.
同期映像信号伝送部825は、画像処理部26により生成された部分画像を投影部80aとの接続方式に準ずる伝送フォーマットに変換するなどし、通信インタフェース816(図35参照)を介して投影部80aの映像信号入力処理部823に信号を伝送する。例えば、RGB信号をYPbPr信号に変換するなどして伝送する。なお、投影部80aがアナログ入力だけを受け付ける場合、同期映像信号伝送部825は、部分画像をデジタル信号からアナログ信号に変換して伝送する。 The synchronous video signal transmission unit 825 converts the partial image generated by the image processing unit 26 into a transmission format that conforms to the connection method with the projection unit 80a, and the like, and the projection unit 80a via the communication interface 816 (see FIG. 35). The signal is transmitted to the video signal input processing unit 823. For example, RGB signals are transmitted after being converted into YPbPr signals. When the projection unit 80a accepts only analog input, the synchronous video signal transmission unit 825 converts the partial image from a digital signal to an analog signal and transmits the partial image.
次に、投影部80aとカメラ部80b(主に、コンピュータ801)の動作について説明する。投影部80aの駆動制御部22の動作は、第1の実施形態の駆動制御部22の動作(図15参照)と略同様である。異なる点は、ステップS105において、駆動制御部22が同期信号出力部820を介してカメラ部80bにタイミング信号を出力するという点である。 Next, operations of the projection unit 80a and the camera unit 80b (mainly the computer 801) will be described. The operation of the drive control unit 22 of the projection unit 80a is substantially the same as the operation (see FIG. 15) of the drive control unit 22 of the first embodiment. The difference is that in step S105, the drive control unit 22 outputs a timing signal to the camera unit 80b via the synchronization signal output unit 820.
図37は、カメラ部80bのフロー図である。
以下では、照射装置の可視光と不可視光のそれぞれの発光色は、予めキーボード入力するなどして、メモリ部813に使用色として記憶させてあるものとして説明する。本例では、それぞれの発光色を緑色と赤外とする。また、キャリブレーション動作については、第1の実施形態の動作フロー図(図15参照)の変換係数演算部24の動作として説明したものと略同様であるため、ここでの説明を省略する。
FIG. 37 is a flowchart of the camera unit 80b.
In the following description, it is assumed that the emission colors of visible light and invisible light of the irradiation device are stored as used colors in the memory unit 813 by, for example, keyboard input in advance. In this example, the respective emission colors are green and infrared. Further, the calibration operation is substantially the same as that described as the operation of the conversion coefficient calculation unit 24 in the operation flow diagram (see FIG. 15) of the first embodiment, and thus the description thereof is omitted here.
先ず、撮像制御部824は、通信インタフェース816(図35参照)を介して受信したタイミング信号から撮像タイミングを検出し(ステップS200)、その開始と終了のタイミングで撮像カメラ800に撮像指示信号を出力する(ステップS201)。 First, the imaging control unit 824 detects an imaging timing from a timing signal received via the communication interface 816 (see FIG. 35) (step S200), and outputs an imaging instruction signal to the imaging camera 800 at the start and end timings. (Step S201).
次いで、映像信号入力部23が撮像カメラ800から出力されるカラー画像データを取得し、RGBに変換する(ステップS202)。 Next, the video signal input unit 23 acquires color image data output from the imaging camera 800 and converts it into RGB (step S202).
次いで、指示マーク検出部25が、メモリ部813に設定されている設定色に基づき、RGB画像データの1版(本例ではGreen版)の画像データを対象に、各発光点を検出し、それぞれの発光点を可視光と不可視光とに弁別する(ステップS203)。弁別方法は第1の実施形態や第2の実施形態において説明済みであるためここでの説明は省略する。 Next, the instruction mark detection unit 25 detects each light emission point for one version of the RGB image data (the Green version in this example) based on the set color set in the memory unit 813, and Are distinguished into visible light and invisible light (step S203). Since the discrimination method has already been described in the first embodiment and the second embodiment, description thereof is omitted here.
次いで、画像処理部26がパラメータHにより座標を第1の映像信号上に対応する位置に補正する(ステップS204)。そして、画像処理部26は、各補正位置に所定データ(部分画像)としてポインタ画像等を設定したフレーム画像を生成する(ステップS205)。 Next, the image processing unit 26 corrects the coordinates to a corresponding position on the first video signal by the parameter H (step S204). Then, the image processing unit 26 generates a frame image in which a pointer image or the like is set as predetermined data (partial image) at each correction position (step S205).
次いで、映像信号伝送部825がフレーム画像を投影部80a間の所定の伝送信号に変換し、通信インタフェース816(図35参照)を介して投影部80aの映像信号入力処理部823に伝送する(ステップS206)。 Next, the video signal transmission unit 825 converts the frame image into a predetermined transmission signal between the projection units 80a and transmits the frame image to the video signal input processing unit 823 of the projection unit 80a via the communication interface 816 (see FIG. 35) (step). S206).
その後、投影部80aでは、映像処理部21が第1の映像信号の後続の所定数分の入力フレームに対して第2の映像信号の部分画像を合成し、合成後のフレーム画像を第3の映像信号として駆動制御部22に出力するものとなる。 Thereafter, in the projection unit 80a, the video processing unit 21 combines the partial image of the second video signal with a predetermined number of input frames subsequent to the first video signal, and the combined frame image is converted into the third frame image. This is output to the drive control unit 22 as a video signal.
なお、情報処理装置であるコンピュータ801は、ネットワークを通じて接続された外部の情報処理装置によって一部の処理を行うようにしてもよい。例えば、ネットワーク上におかれた、高機能な演算処理サーバを用いて、初期の射影変換行列演算を行ったり、重畳する合成情報等をダウンロードし、画像処理時に用いたりするようにしても良い。 Note that the computer 801 that is an information processing apparatus may perform a part of processing by an external information processing apparatus connected through a network. For example, an initial projective transformation matrix calculation may be performed using a high-performance calculation processing server placed on a network, or superimposition synthesis information may be downloaded and used during image processing.
(第3の実施形態の変形例)
第3の実施形態では、分離型の各装置間が有線接続されたものについて示しているが、各装置間は無線接続であっても良い。
(Modification of the third embodiment)
In the third embodiment, the separated type devices are shown as being connected by wire, but the devices may be wirelessly connected.
図38は、第3の実施形態の変形例としての投影部90a、カメラ部90b、及び赤外光照射装置90cの構成図の一例である。ここでは、無線通信部のみを示し、他の構成部は図示を省略している。 FIG. 38 is an example of a configuration diagram of a projection unit 90a, a camera unit 90b, and an infrared light irradiation device 90c as a modification of the third embodiment. Here, only the wireless communication unit is shown, and the other components are not shown.
図38に示すように、投影部90a、カメラ部90b、及び赤外光照射装置90cの各機器に無線通信部900、901、902を備える。無線通信部は、例えば、Bluetooth(登録商標)やWi−Fi等の近距離無線通信部である。各機器は、それぞれの無線通信部を介して交信する。赤外光照射装置90cの無線通信部902は、投影部90aの無線通信部900と交信し、投影部90aからの赤外光の照射命令や照射停止命令等の信号を受信する。投影部90aの無線通信部900とカメラ部90bの無線通信部901とは、映像信号やタイミング信号等を送受信する。 As shown in FIG. 38, wireless communication units 900, 901, and 902 are provided in each device of the projection unit 90a, the camera unit 90b, and the infrared light irradiation device 90c. The wireless communication unit is a short-range wireless communication unit such as Bluetooth (registered trademark) or Wi-Fi, for example. Each device communicates via a respective wireless communication unit. The wireless communication unit 902 of the infrared light irradiation device 90c communicates with the wireless communication unit 900 of the projection unit 90a, and receives signals such as an infrared light irradiation command and an irradiation stop command from the projection unit 90a. The wireless communication unit 900 of the projection unit 90a and the wireless communication unit 901 of the camera unit 90b transmit and receive video signals, timing signals, and the like.
無線通信を使用することにより、次のような態様をとることができる。例えば、カメラを内蔵したスマートフォン等の情報機器をカメラ部90bとして利用することができる。
この場合、スマートフォン等の情報機器に予め、図37に示すような、撮像カメラを制御して部分画像の生成等を行うプログラムをダウンロードさせる。そして、その情報機器を投影部90aと無線接続し、情報機器を部分画像処理等の計算処理に利用する。
By using wireless communication, the following modes can be taken. For example, an information device such as a smartphone incorporating a camera can be used as the camera unit 90b.
In this case, an information device such as a smartphone is previously downloaded with a program for controlling the imaging camera and generating a partial image, as shown in FIG. Then, the information device is wirelessly connected to the projection unit 90a, and the information device is used for calculation processing such as partial image processing.
以上のように、各実施形態及び変形例においては、投影面部に投影された映像を可視光と不可視光を用いて指し示した場合の各発光点を検出し、各発光点を可視光のものと不可視光のものとに弁別することができる。また、更に、各発光点に固有の合成情報を合成することが可能となる。 As described above, in each embodiment and modification, each light emitting point is detected when the image projected on the projection surface unit is indicated using visible light and invisible light, and each light emitting point is a visible light one. It can be distinguished from invisible light. Furthermore, it is possible to synthesize unique synthesis information for each light emitting point.
本実施形態で実行されるプログラムは、ROMやメモリ部などに予め組み込まれて提供するものとしているが、これに限定されるものではない。本実施形態で実行されるプログラムを、コンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供してもよい。例えば、インストール可能な形式または実行可能な形式のファイルで、フレキシブルディスク、CD−R、DVD(Digital Versatile Disk)、ブルーレイディスク(登録商標)、半導体メモリ等の記録媒体に記録して提供してもよい。 The program executed in the present embodiment is provided by being incorporated in advance in a ROM, a memory unit, or the like, but is not limited thereto. The program executed in this embodiment may be recorded on a computer-readable recording medium and provided as a computer program product. For example, a file in an installable format or an executable format may be provided by being recorded on a recording medium such as a flexible disk, a CD-R, a DVD (Digital Versatile Disk), a Blu-ray Disc (registered trademark), or a semiconductor memory. Good.
また、本実施形態で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 In addition, the program executed in the present embodiment may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. The program executed in this embodiment may be configured to be provided or distributed via a network such as the Internet.
以上、本発明の各実施形態及び変形例を説明したが、それぞれの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの新規な実施形態及び変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although each embodiment and modification of this invention were demonstrated, each embodiment and modification are shown as an example and are not intending limiting the range of invention. These novel embodiments and modifications can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1 画像投影システム
10 一体型画像投影装置
10a 投影部
10b カメラ部
11 第1のレーザポインタ
12 第2のレーザポインタ
13 投影面部
21 映像処理部
22 駆動制御部
23 映像信号入力部
24 変換係数演算部
25 指示マーク検出部
26 画像処理部
DESCRIPTION OF SYMBOLS 1 Image projection system 10 Integrated image projector 10a Projection part 10b Camera part 11 1st laser pointer 12 2nd laser pointer 13 Projection surface part
DESCRIPTION OF SYMBOLS 21 Video processing part 22 Drive control part 23 Video signal input part 24 Conversion coefficient calculating part 25 Instruction mark detection part 26 Image processing part
Claims (10)
投影面に映像を投影する投影部と、
前記投影面に投影された映像上に前記照射手段の照射により形成された可視光及び不可視光の発光点を所定のタイミングで撮像する撮像部と、
前記撮像部の撮像により得られた撮像画像データから前記可視光及び前記不可視光のそれぞれの発光点に対応するマークを前記可視光のマークか前記不可視光のマークかを弁別して検出する弁別部と、
前記弁別部が検出した前記可視光及び前記不可視光の各マークの、前記撮像画像データの画像内における位置に基づいて、前記投影部が投影する映像に前記可視光及び前記不可視光のそれぞれに固有の合成情報を合成する合成部と、
を備えることを特徴とする画像投影システム。 Irradiation means for irradiating visible light and invisible light;
A projection unit that projects an image on a projection surface;
An imaging unit that captures a light emission point of visible light and invisible light formed by irradiation of the irradiation unit on an image projected on the projection surface at a predetermined timing;
A discriminator for discriminating and detecting whether the visible light mark or the invisible light mark is a mark corresponding to each light emitting point of the visible light and the invisible light from captured image data obtained by imaging of the imaging unit; ,
Based on the positions of the visible light and invisible light marks detected by the discriminating unit in the image of the captured image data, each of the visible light and the invisible light is unique to the image projected by the projection unit. A synthesis unit for synthesizing the synthesis information of
An image projection system comprising:
ことを特徴とする請求項1に記載の画像投影システム。 An invisible light irradiating unit that irradiates the invisible light on the projection surface instead of the irradiating means of the invisible light and forms a light emitting point of the invisible light on an instruction unit that touches and indicates the projection surface. Prepare
The image projection system according to claim 1.
ことを特徴とする請求項2に記載の画像投影システム。 As the irradiating means of the visible light, a light source having a transmissive part that transmits the invisible light in an end light emitting part,
The image projection system according to claim 2.
ことを特徴とする請求項1に記載の画像投影システム。 In place of the irradiating means for forming either one of the visible light or the invisible light, a light emitting part that emits light by stress is provided on the projection surface.
The image projection system according to claim 1.
ことを特徴とする請求項1乃至4の内の何れか一つに記載の画像投影システム。 The discriminating unit discriminates and detects the visible light mark or the invisible light mark based on color information.
The image projection system according to claim 1, wherein the image projection system is an image projection system.
ことを特徴とする請求項1乃至5の内の何れか一つに記載の画像投影システム。 The discriminating unit discriminates and detects the visible light mark or the invisible light mark based on a luminance pattern in the captured image data.
The image projection system according to claim 1, wherein the image projection system is an image projection system.
ことを特徴とする請求項1乃至6の内の何れか一つに記載の画像投影システム。 The combining unit forms a line in the locus of the light emission point with the movement of the light emission point of the visible light or the invisible light on the projection plane.
The image projection system according to claim 1, wherein the image projection system is an image projection system.
前記投影面に投影された映像上に照射手段の照射により形成された可視光及び不可視光の発光点を所定のタイミングで撮像する撮像部と、
前記撮像部の撮像により得られた撮像画像データから前記可視光及び前記不可視光のそれぞれの発光点に対応するマークを前記可視光のマークか前記不可視光のマークかを弁別して検出する弁別部と、
前記弁別部が検出した前記可視光及び前記不可視光の各マークの、前記撮像画像データの画像内における位置に基づいて、前記投影部が投影する映像に前記可視光及び前記不可視光のそれぞれに固有の合成情報を合成する合成部と、
を備えることを特徴とする画像処理装置。 A projection unit that projects an image on a projection surface;
An imaging unit that captures light emission points of visible light and invisible light formed by irradiation of an irradiation unit on an image projected on the projection surface at a predetermined timing;
A discriminator for discriminating and detecting whether the visible light mark or the invisible light mark is a mark corresponding to each light emitting point of the visible light and the invisible light from captured image data obtained by imaging of the imaging unit; ,
Based on the positions of the visible light and invisible light marks detected by the discriminating unit in the image of the captured image data, each of the visible light and the invisible light is unique to the image projected by the projection unit. A synthesis unit for synthesizing the synthesis information of
An image processing apparatus comprising:
ことを特徴とする請求項8に記載の画像処理装置。 The size that people can carry with one hand,
The image processing apparatus according to claim 8.
投影面に投影された映像上に照射手段によって形成される可視光及び不可視光の発光点を撮像カメラで撮像するタイミングを制御する撮像制御部と、
前記撮像カメラの撮像により得られた撮像画像データから前記可視光及び前記不可視光のそれぞれの発光点に対応するマークを前記可視光のマークか前記不可視光のマークかを弁別して検出する弁別部と、
前記弁別部が検出した前記可視光及び前記不可視光の各マークの、前記撮像画像データの画像内における位置に基づいて、前記投影面に投影される映像の対応位置に合成する前記可視光及び前記不可視光のそれぞれに固有の合成情報を出力する合成情報出力部と、
として機能させるためのプログラム。 Computer
An imaging control unit that controls the timing at which imaging points of visible light and invisible light formed by the irradiation unit on the image projected on the projection surface are imaged by the imaging camera;
A discriminator for discriminating and detecting whether the visible light mark or the invisible light mark is a mark corresponding to each light emitting point of the visible light and the invisible light from captured image data obtained by imaging by the imaging camera; ,
The visible light combined with the corresponding position of the image projected on the projection plane based on the position in the image of the captured image data of each mark of the visible light and the invisible light detected by the discrimination unit and the A synthesis information output unit that outputs synthesis information unique to each invisible light;
Program to function as.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015096666A JP2016212291A (en) | 2015-05-11 | 2015-05-11 | Image projection system, image processing apparatus, and program |
| CN201610273586.8A CN106162119A (en) | 2015-05-11 | 2016-04-28 | Image projection system, image processing apparatus and image processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015096666A JP2016212291A (en) | 2015-05-11 | 2015-05-11 | Image projection system, image processing apparatus, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2016212291A true JP2016212291A (en) | 2016-12-15 |
Family
ID=57352794
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015096666A Pending JP2016212291A (en) | 2015-05-11 | 2015-05-11 | Image projection system, image processing apparatus, and program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2016212291A (en) |
| CN (1) | CN106162119A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110687743A (en) * | 2018-07-05 | 2020-01-14 | 中强光电股份有限公司 | Projection system, light beam generating device thereof and control method of light beam brightness |
| US10712841B2 (en) | 2017-03-22 | 2020-07-14 | Casio Computer Co., Ltd. | Display control device, display control system, display control method, and storage medium having stored thereon display control program |
| CN115134567A (en) * | 2022-05-19 | 2022-09-30 | 深圳市康帕斯科技发展有限公司 | Projection picture fusion area correction method, projection picture fusion area correction system, projection system, and medium |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3867205B2 (en) * | 2002-08-30 | 2007-01-10 | カシオ計算機株式会社 | Pointed position detection device, pointed position detection system, and pointed position detection method |
| JP2009043139A (en) * | 2007-08-10 | 2009-02-26 | Mitsubishi Electric Corp | Position detection device |
| JP5428600B2 (en) * | 2009-07-09 | 2014-02-26 | セイコーエプソン株式会社 | Projector, image projection system, and image projection method |
| JP5440548B2 (en) * | 2011-04-28 | 2014-03-12 | カシオ計算機株式会社 | Projection apparatus, projection method, and program |
| JP6088127B2 (en) * | 2011-10-13 | 2017-03-01 | セイコーエプソン株式会社 | Display device, display device control method, and program |
| JP6268745B2 (en) * | 2012-09-18 | 2018-01-31 | 株式会社リコー | Illumination device, projection device, and illumination method |
| JP6111706B2 (en) * | 2013-02-01 | 2017-04-12 | セイコーエプソン株式会社 | Position detection apparatus, adjustment method, and adjustment program |
| JP2015014882A (en) * | 2013-07-04 | 2015-01-22 | ソニー株式会社 | Information processing apparatus, operation input detection method, program, and storage medium |
| JP2015043556A (en) * | 2013-07-24 | 2015-03-05 | 株式会社リコー | Information processor, image projection system and program |
-
2015
- 2015-05-11 JP JP2015096666A patent/JP2016212291A/en active Pending
-
2016
- 2016-04-28 CN CN201610273586.8A patent/CN106162119A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10712841B2 (en) | 2017-03-22 | 2020-07-14 | Casio Computer Co., Ltd. | Display control device, display control system, display control method, and storage medium having stored thereon display control program |
| CN110687743A (en) * | 2018-07-05 | 2020-01-14 | 中强光电股份有限公司 | Projection system, light beam generating device thereof and control method of light beam brightness |
| CN115134567A (en) * | 2022-05-19 | 2022-09-30 | 深圳市康帕斯科技发展有限公司 | Projection picture fusion area correction method, projection picture fusion area correction system, projection system, and medium |
| CN115134567B (en) * | 2022-05-19 | 2023-07-25 | 深圳市康帕斯科技发展有限公司 | Projection picture fusion zone correction method, system, projection system and medium |
Also Published As
| Publication number | Publication date |
|---|---|
| CN106162119A (en) | 2016-11-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9753580B2 (en) | Position detecting device, position detecting system, and controlling method of position detecting device | |
| CN104793811A (en) | Position detection system and control method of position detection system | |
| CN108632590B (en) | Image display apparatus and control method thereof | |
| KR101767853B1 (en) | Information processing device, image projecting system, and computer program | |
| CN104683722A (en) | Image display device and control method therefor | |
| US9870073B2 (en) | Position detection device, projector, and position detection method | |
| JP6375660B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
| CN104898894B (en) | Position detection device and position detection method | |
| CN104658462A (en) | Porjector and method of controlling projector | |
| US9524696B2 (en) | Image projection device | |
| JP2016212291A (en) | Image projection system, image processing apparatus, and program | |
| JP2018164251A (en) | Image display device and method for controlling the same | |
| JP6935713B2 (en) | Position detection device, position detection system and control method of position detection device | |
| JP6492588B2 (en) | Projector and projector control method | |
| JP5742379B2 (en) | Projection system and projection method | |
| JP2015159460A (en) | Projection system, projection apparatus, photographing apparatus, guide frame generation method and program | |
| JP6439398B2 (en) | Projector and projector control method | |
| JP6340860B2 (en) | POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD | |
| JP6206008B2 (en) | Projector system, projector apparatus, projector control method, and projector control program | |
| CN107018393B (en) | Projector and control method of projector | |
| US20150381956A1 (en) | Image projection apparatus, image projection method, and storage medium of program | |
| JP2015079214A (en) | Projection screen and image projection system | |
| JP6291911B2 (en) | Position detection apparatus and position detection method | |
| JP2020191045A (en) | Indicator, display system and operation method | |
| JP2016151924A (en) | Projector and control method therefor |