[go: up one dir, main page]

JP2008152622A - Pointing device - Google Patents

Pointing device Download PDF

Info

Publication number
JP2008152622A
JP2008152622A JP2006341243A JP2006341243A JP2008152622A JP 2008152622 A JP2008152622 A JP 2008152622A JP 2006341243 A JP2006341243 A JP 2006341243A JP 2006341243 A JP2006341243 A JP 2006341243A JP 2008152622 A JP2008152622 A JP 2008152622A
Authority
JP
Japan
Prior art keywords
image
unit
color
pointing
pointing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006341243A
Other languages
Japanese (ja)
Inventor
Shoji Tanaka
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006341243A priority Critical patent/JP2008152622A/en
Publication of JP2008152622A publication Critical patent/JP2008152622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】投影画像中の指示位置を正確かつ容易に検出することのできるポインティング装置を得る。
【解決手段】プロジェクタ200によって投影画像を投影し、これをカメラ300で撮影する。手領域抽出手段106は、カメラ300で撮影された撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる手領域を抽出する。指先検出手段107は、手領域抽出手段106で抽出された手領域から指先位置を検出し、これを投影画像における指示位置として出力する。ポインティング手段108は、指先検出手段107で検出された指示位置をシステムに通知する。
【選択図】図1
A pointing device capable of accurately and easily detecting a designated position in a projected image is obtained.
A projection image is projected by a projector and is photographed by a camera. The hand region extraction unit 106 extracts a hand region included in the photographed image based on the difference image between the photographed image photographed by the camera 300 and the projection image. The fingertip detection means 107 detects the fingertip position from the hand area extracted by the hand area extraction means 106, and outputs this as the designated position in the projection image. The pointing means 108 notifies the system of the indicated position detected by the fingertip detection means 107.
[Selection] Figure 1

Description

この発明は、投影された画像中を指等で指示する位置を検出するポインティング装置に関するものである。   The present invention relates to a pointing device that detects a position instructed by a finger or the like in a projected image.

従来のポインティング装置は、固定された背景を予め撮影した画像と、その背景に手を置いたときの画像との差分をとることにより手領域の抽出を行っていた(例えば、特許文献1参照)。また、肌色画素を抽出することにより手領域を抽出する方法も提案されている(例えば、特許文献2参照)。さらに、近赤外線カメラを用いて手領域を抽出する方法(例えば、特許文献3参照)や、赤外線レーザを用いて指の動きをトラッキングするバーチャルキーボードと呼ばれる装置(例えば、非特許文献1参照)などがある。   A conventional pointing device extracts a hand region by taking a difference between an image obtained by photographing a fixed background in advance and an image when a hand is placed on the background (see, for example, Patent Document 1). . A method for extracting a hand region by extracting skin color pixels has also been proposed (see, for example, Patent Document 2). Further, a method of extracting a hand region using a near-infrared camera (for example, see Patent Document 3), a device called a virtual keyboard that tracks finger movements using an infrared laser (for example, see Non-Patent Document 1), etc. There is.

特開平11−25260号公報Japanese Patent Laid-Open No. 11-25260 特開平09−35066号公報JP 09-35066 A 特開2001−282456号公報JP 2001-282456 A http://www.tanomi.com/limited/html/00034.htmlhttp://www.tanomi.com/limited/html/00034.html

従来のポインティング装置において、固定された背景との差分により手領域を抽出する手法では、プロジェクタなどで投影された画像を直接操作する場合、投影画像は上記背景上に投影されるため、画像が投影されるたびに予め記憶した背景と異なることになり、手領域が正しく抽出できない問題があった。また、肌色画素を抽出する手法では、投影画像を直接操作する場合、手の上にも画像が投影されることになり、例えば、青色の画像が手の上に投影された場合に肌色画素が正しく抽出できない問題があった。更に、特殊なデバイスを用いる従来のポインティング装置では、そのデバイスのためのコストが高くなってしまうという問題があった。   In a conventional pointing device, in the method of extracting a hand region based on a difference from a fixed background, when directly manipulating an image projected by a projector or the like, the projected image is projected onto the background, so the image is projected. Every time it is performed, the background is different from that stored in advance, and the hand area cannot be extracted correctly. Further, in the method of extracting skin color pixels, when the projection image is directly manipulated, the image is projected on the hand. For example, when a blue image is projected on the hand, There was a problem that could not be extracted correctly. Furthermore, the conventional pointing device using a special device has a problem that the cost for the device becomes high.

この発明は上記のような課題を解決するためになされたもので、投影画像中の指示位置を正確かつ容易に検出することのできるポインティング装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a pointing device that can accurately and easily detect a designated position in a projection image.

この発明に係るポインティング装置は、任意の投影画像を投影する投影手段と、投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、撮影手段で撮影された撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、指示部領域抽出手段で抽出された指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたものである。   The pointing device according to the present invention includes a projecting unit that projects an arbitrary projected image, an image capturing unit that captures an image projected by the projecting unit and including an instruction unit, and a captured image and a projected image captured by the image capturing unit. Based on the difference image, the instruction unit region extracting means for extracting the region of the instruction unit included in the photographed image, and the instruction unit of the projection image based on the region of the instruction unit extracted by the instruction unit region extraction unit And pointing position detecting means for detecting which position is indicated.

この発明のポインティング装置は、撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出し、この指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出するようにしたので、投影画像中の指示位置を正確かつ容易に検出することができる。   The pointing device according to the present invention extracts a region of the instruction unit included in the photographed image based on the difference image between the photographed image and the projection image, and based on the region of the instruction unit, the pointing unit determines which position of the projection image Therefore, it is possible to accurately and easily detect the designated position in the projection image.

実施の形態1.
図1は、この発明の実施の形態1によるポインティング装置を示す構成図である。
図において、ポインティング装置は、ポインティング制御装置100、プロジェクタ200、カメラ300を備えている。尚、実施の形態1では、指示部を人間の手としたものであり、以下、指示部は人間の手であるとして説明する。ポインティング制御装置100は、プロジェクタ200とカメラ300を制御し、投影画像と撮影画像から指示位置を抽出する機能部であり、映像出力手段101、ビデオメモリ102、画像入力手段103、フレームメモリ104、キャリブレーション手段105、手領域抽出手段106、指先検出手段107、ポインティング手段108からなる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a pointing device according to Embodiment 1 of the present invention.
In the figure, the pointing device includes a pointing control device 100, a projector 200, and a camera 300. In the first embodiment, it is assumed that the instruction unit is a human hand, and hereinafter, the instruction unit is a human hand. The pointing control device 100 is a functional unit that controls the projector 200 and the camera 300 and extracts an instruction position from a projected image and a captured image, and includes a video output unit 101, a video memory 102, an image input unit 103, a frame memory 104, a calibration. , A hand region extracting means 106, a fingertip detecting means 107, and a pointing means 108.

プロジェクタ200は、映像出力手段101から出力された画像信号に基づいて、種々の対象に画像を投影する装置であり投影手段を構成している。カメラ300は、プロジェクタ200によって投影された画像を指示部を含めて撮影し、撮影画像としてポインティング制御装置100に出力する撮影手段である。また、これらポインティング制御装置100、プロジェクタ200、カメラ300は、後述する図3に示すように、例えば携帯電話等の端末として一体に設けられており、カメラ300は、プロジェクタ200によって投影した画像を撮影可能な位置に配設されている。尚、図3に示す端末ではプロジェクタ200とカメラ300とが隣接した位置に配設されているが、これらの位置関係に特に限定はなく、また、プロジェクタ200やカメラ300が端末の本体と別体に設けられていてもよい。   The projector 200 is a device that projects an image onto various objects based on the image signal output from the video output unit 101, and constitutes a projection unit. The camera 300 is an imaging unit that captures an image projected by the projector 200 including an instruction unit and outputs the captured image as a captured image to the pointing control apparatus 100. Further, as shown in FIG. 3 to be described later, the pointing control device 100, the projector 200, and the camera 300 are integrally provided as a terminal such as a mobile phone, for example, and the camera 300 captures an image projected by the projector 200. It is arranged at a possible position. In the terminal shown in FIG. 3, the projector 200 and the camera 300 are disposed adjacent to each other. However, there is no particular limitation on the positional relationship between them, and the projector 200 and the camera 300 are separated from the main body of the terminal. May be provided.

映像出力手段101は、プロジェクタ200に対してビデオメモリ102に保存されている画像信号を出力する機能部であり、プロジェクタ200と共に投影手段を構成している。また、ビデオメモリ102は、投影画像データを保存するためのメモリである。画像入力手段103は、カメラ300から出力された指示部を含む撮影画像を入力する入力インタフェースであり、フレームメモリ104は、画像入力手段103で入力された撮影画像を保存するためのメモリである。キャリブレーション手段105は、手領域抽出のための色および撮影画像の歪みを補正するパラメータを求める手段であり、歪補正キャリブレーション手段109とカラーキャリブレーション手段110を備えている。歪補正キャリブレーション手段109は、撮影画像を投影画像と比較するために歪みを補正するパラメータを求める手段であり、カラーキャリブレーション手段110は、撮影画像と投影画像との間の色変化の傾向を求める手段である。   The video output unit 101 is a functional unit that outputs an image signal stored in the video memory 102 to the projector 200, and constitutes a projection unit together with the projector 200. The video memory 102 is a memory for storing projection image data. The image input unit 103 is an input interface for inputting a captured image including an instruction unit output from the camera 300, and the frame memory 104 is a memory for storing the captured image input by the image input unit 103. The calibration means 105 is a means for obtaining parameters for correcting the color for hand region extraction and the distortion of the captured image, and includes a distortion correction calibration means 109 and a color calibration means 110. The distortion correction calibration means 109 is a means for obtaining a parameter for correcting distortion in order to compare the captured image with the projected image, and the color calibration means 110 indicates the tendency of color change between the captured image and the projected image. It is a means to seek.

手領域抽出手段106は、フレームメモリ104に保存された撮影画像から手領域を抽出する指示部領域抽出手段であり、ぶれ補正手段111、歪補正手段112、色補正手段113、差分画像抽出手段114を備えている。ぶれ補正手段111は、撮影画像のぶれを補正する手段、歪補正手段112は、歪補正キャリブレーション手段109の歪補正パラメータに基づいて撮影画像の歪補正を行う手段である。また、色補正手段113は、カラーキャリブレーション手段110で求められた色補正パラメータに基づいて色補正を行う手段である。更に、差分画像抽出手段114は、撮影画像と投影画像との差分画像を求める手段である。尚、ぶれ補正手段111、歪補正手段112及び色補正手段113の具体的な処理は後述する。   The hand region extraction unit 106 is an instruction unit region extraction unit that extracts a hand region from a captured image stored in the frame memory 104. The hand region extraction unit 106 is a shake correction unit 111, a distortion correction unit 112, a color correction unit 113, and a difference image extraction unit 114. It has. The blur correction unit 111 is a unit that corrects the blur of the captured image, and the distortion correction unit 112 is a unit that corrects the distortion of the captured image based on the distortion correction parameter of the distortion correction calibration unit 109. The color correction unit 113 is a unit that performs color correction based on the color correction parameter obtained by the color calibration unit 110. Further, the difference image extraction means 114 is a means for obtaining a difference image between the photographed image and the projection image. Note that specific processing of the shake correction unit 111, the distortion correction unit 112, and the color correction unit 113 will be described later.

指先検出手段107は、手領域抽出手段106で抽出した手領域から指示位置である指先の位置座標を検出する指示位置検出手段である。ポインティング手段108は、指先検出手段107で検出した指先の座標をウインドウシステム等のGUI(Graphical User Interface)システムに通知する機能部である。   The fingertip detection unit 107 is an instruction position detection unit that detects the position coordinates of the fingertip that is the instruction position from the hand region extracted by the hand region extraction unit 106. The pointing unit 108 is a functional unit that notifies the coordinate of the fingertip detected by the fingertip detection unit 107 to a GUI (Graphical User Interface) system such as a window system.

尚、ポインティング制御装置100はコンピュータによって実現され、上記のキャリブレーション手段105、手領域抽出手段106、指先検出手段107及びポインティング手段108は、それぞれの機能に対応するソフトウェアと、これを実行するためのCPUやメモリ等のハードウェアから構成されている。   The pointing control device 100 is realized by a computer, and the calibration means 105, the hand region extraction means 106, the fingertip detection means 107, and the pointing means 108 described above are software corresponding to each function and software for executing the software. It consists of hardware such as CPU and memory.

次に、実施の形態1のポインティング装置の動作について説明する。
図2は、実施の形態1のポインティング装置の動作を示すフローチャートである。
図3は、実施の形態1のポインティング装置の動作の様子を示す説明図である。
図3に示すように、本実施の形態のポインティング装置は、例えば、カメラ300とプロジェクタ200が搭載された端末で投影した画像201をユーザが直接手202で操作する場合を対象としている。ここで、端末は、ユーザがもう一方の手で持って操作するといった方法や、端末を机の上に置くといった方法等、どのような使用方法であってもよい。
Next, the operation of the pointing device according to the first embodiment will be described.
FIG. 2 is a flowchart showing the operation of the pointing device according to the first embodiment.
FIG. 3 is an explanatory diagram illustrating an operation of the pointing device according to the first embodiment.
As shown in FIG. 3, the pointing device according to the present embodiment is intended for a case where a user directly operates an image 201 projected by a terminal equipped with a camera 300 and a projector 200 with a hand 202. Here, the terminal may be any method of use, such as a method in which the user operates with the other hand or a method in which the terminal is placed on a desk.

ポインティング装置では、先ず、映像出力手段101を介してプロジェクタ200でビデオメモリ102に格納されている画像を投影する(ステップST1)。次に、カメラ300で投影画像を撮影し、この撮影画像を画像入力手段103を介して入力し、フレームメモリ104に撮影画像を保存する(ステップST2)。尚、映像出力手段101から投影される画像は図4に示すように四隅にマーカ301a,301b,301c,301dがつけられている。   In the pointing device, first, an image stored in the video memory 102 is projected by the projector 200 via the video output means 101 (step ST1). Next, a projected image is captured by the camera 300, the captured image is input via the image input means 103, and the captured image is stored in the frame memory 104 (step ST2). The image projected from the video output means 101 has markers 301a, 301b, 301c, and 301d at the four corners as shown in FIG.

手領域抽出手段106は、フレームメモリ102に格納された撮影画像とビデオメモリ102に格納された投影画像をそれぞれ取得し、先ず、撮影画像のぶれをぶれ補正手段111において補正する(ステップST3)。このぶれ補正処理の具体的な動作は次の通りである。
図5は、ぶれ補正手段111の動作を示すフローチャートである。
ぶれ補正手段111では、先ず図4に示した撮影画像に含まれるマーカ301a〜301dを検出する(ステップST31)。検出するマーカは、検出を容易にするために特殊な色の画素で構成され、また、それぞれのマーカ301a〜301dは異なる色となっている。検出処理は、上記色の画素を抽出し、抽出された画素が連結された領域を求め、その大きさがある範囲内の領域を求める。そして、その中心座標を求める。次に、求めた4点の座標と、キャリブレーション手段105で予め求めておいた投影画像の四隅の座標(本来の座標)を用いて、変換行列を求める(ステップST32)。尚、四隅の座標の求め方については後述する。この変換行列は、現在の撮影画像を本来の位置に補正するためのものであり、撮影画像の各画素の座標値を(xc,yc)とし、本来の座標値を(xo,yo)とすると、次式が成り立つ。
The hand area extraction unit 106 acquires the captured image stored in the frame memory 102 and the projection image stored in the video memory 102, and first corrects the shake of the captured image in the shake correction unit 111 (step ST3). The specific operation of this blur correction process is as follows.
FIG. 5 is a flowchart showing the operation of the shake correction unit 111.
First, the blur correction unit 111 detects the markers 301a to 301d included in the captured image shown in FIG. 4 (step ST31). The marker to be detected is composed of pixels of a special color for easy detection, and each of the markers 301a to 301d has a different color. In the detection process, pixels of the above color are extracted, an area where the extracted pixels are connected is obtained, and an area within a certain range is obtained. And the center coordinate is calculated | required. Next, a transformation matrix is obtained using the coordinates of the obtained four points and the coordinates (original coordinates) of the four corners of the projection image obtained in advance by the calibration means 105 (step ST32). Note that how to obtain the coordinates of the four corners will be described later. This conversion matrix is used to correct the current captured image to the original position. When the coordinate value of each pixel of the captured image is (xc, yc) and the original coordinate value is (xo, yo). The following equation holds.

Figure 2008152622

式(3)から、hsはBTBの最小固有値に対応する固有ベクトルとして求めることができる。
Figure 2008152622

From Expression (3), hs can be obtained as an eigenvector corresponding to the minimum eigenvalue of B T B.

以上で求めた変換行列Hsを用いて撮影画像を変換することにより(ステップST33)、ぶれを補正することができる。
図6は、ぶれ補正手段111の補正動作の説明図である。
例えば、撮影画像401中に投影画像402が存在するとき、この投影画像402を、補正画像403に示すようにキャリブレーション手段105でキャリブレーションしたときの投影画像404の位置に戻すことが可能となる。
次に、ぶれ補正した撮影画像から、投影画像と比較するための画像を求める。
By converting the captured image using the conversion matrix Hs obtained above (step ST33), it is possible to correct the blur.
FIG. 6 is an explanatory diagram of the correction operation of the shake correction unit 111.
For example, when the projection image 402 exists in the captured image 401, the projection image 402 can be returned to the position of the projection image 404 when calibrated by the calibration means 105 as shown in the correction image 403. .
Next, an image for comparison with the projected image is obtained from the photographed image subjected to the blur correction.

投影画像と比較可能な画像を求めるためには、先ず、キャリブレーション手段105の歪補正キャリブレーション手段109で得られた変換行列を用いて歪補正手段112において画像を変換する(ステップST4)。次に、色補正手段113において、歪補正手段112で求めた画像の各画素値をカラーキャリブレーション手段110で得られた変換パラメータを用いて変換する(ステップST5)。尚、カラーキャリブレーション手段110では、後述する図13に示すような色相と明度の誤差を格納したテーブルが求められる。色補正手段113は、このテーブルを用いて色補正を行う。先ず、撮影画像の各画素値をRGBからHSVに変換する。そして、彩度が閾値よりも低い画素と閾値よりも高い画素に分け、彩度が閾値よりも低い画素の画素値は明度テーブルを参照して明度を補正する(テーブルに格納された誤差を加算する)。彩度が閾値よりも高いときは、色相テーブルを用いて色相を補正する(テーブルに格納された誤差を加算する)。   In order to obtain an image that can be compared with the projected image, first, the distortion correction unit 112 converts the image using the transformation matrix obtained by the distortion correction calibration unit 109 of the calibration unit 105 (step ST4). Next, the color correction unit 113 converts each pixel value of the image obtained by the distortion correction unit 112 using the conversion parameter obtained by the color calibration unit 110 (step ST5). Note that the color calibration means 110 obtains a table storing hue and brightness errors as shown in FIG. The color correction unit 113 performs color correction using this table. First, each pixel value of the photographed image is converted from RGB to HSV. Then, the pixel value of the pixel whose saturation is lower than the threshold is divided into the pixel whose saturation is lower than the threshold, and the pixel value of the pixel whose saturation is lower than the threshold is corrected by referring to the brightness table (the error stored in the table is added). To do). When the saturation is higher than the threshold value, the hue is corrected using the hue table (the error stored in the table is added).

そして、差分画像抽出手段114において投影画像と上記で求めた画像との差分を求める(ステップST6)。差分画像は、撮影画像および投影画像をそれぞれHSVに変換し、先ず、彩度がある閾値以上の画素については色相の差分を求め、差分がある閾値の範囲内に入っていれば同一画素とみなし、差分画像の対応する画素値を0とする。上記差分が閾値以上であれば差分画像の対応する画素値を1とする。彩度が閾値以下の場合は、明度の差分を求め、差分がある閾値の範囲内に入っていれば同一画素とみなし、差分画像の対応する画素値を0とする。上記差分が閾値以上であれば差分画像の対応する画素値を1とする。
尚、色相以外にも、彩度、明度を組み合わせても良い。
Then, the difference image extraction means 114 obtains the difference between the projection image and the image obtained above (step ST6). For the difference image, the captured image and the projection image are converted into HSV, respectively. First, a hue difference is obtained for pixels having a saturation greater than or equal to a threshold, and if the difference is within a certain threshold, it is regarded as the same pixel. The corresponding pixel value of the difference image is set to 0. If the difference is greater than or equal to the threshold, the corresponding pixel value of the difference image is set to 1. When the saturation is less than or equal to the threshold value, the brightness difference is obtained. If the difference falls within a certain threshold range, the pixels are regarded as the same pixel, and the corresponding pixel value of the difference image is set to 0. If the difference is greater than or equal to the threshold, the corresponding pixel value of the difference image is set to 1.
In addition to hue, saturation and brightness may be combined.

以上の処理を行うことで、例えば、図7に示すように、投影画像501と変換後の撮影画像502の差分画像503を求めれば、手の領域を抽出することが可能となる。但し、ノイズによる影響を考慮し、上記差分画像から画素を連結した領域の中で最大の領域を手領域とする。   By performing the above processing, for example, as shown in FIG. 7, if a difference image 503 between the projection image 501 and the converted captured image 502 is obtained, a hand region can be extracted. However, in consideration of the influence of noise, the largest region among the regions where pixels are connected from the difference image is set as a hand region.

次に、以上で求めた手領域から指先検出手段107において指先を検出する(ステップST7)。
図8は、指先検出手段107の動作を示すフローチャートである。
先ず、求めた手領域を距離変換処理により、手領域を距離画像に変換する(ステップST71)。ここで、距離変換処理は、画像中のオブジェクトの各画素値を、そこから背景への最短距離に置き換える変換である。距離の概念としては最も単純な市街地距離(4連結距離)とチェス盤距離(8連結距離)がよく使われる。
ここでは、市街地距離を用いたアルゴリズムを記す。
Next, the fingertip detection unit 107 detects the fingertip from the hand area obtained as described above (step ST7).
FIG. 8 is a flowchart showing the operation of the fingertip detection unit 107.
First, the obtained hand region is converted into a distance image by distance conversion processing (step ST71). Here, the distance conversion process is a conversion in which each pixel value of the object in the image is replaced with the shortest distance from the background to the background. As the concept of distance, the simplest urban distance (4 connecting distances) and chessboard distance (8 connecting distances) are often used.
Here, an algorithm using city distance is described.

〈ステップ1〉入力画像を二値化した画像fi,jをDi,jとし、更に次式(4)のように変換する。

Figure 2008152622

〈ステップ2〉初期化した画像を左上から右下に向かって走査し、次式(5)に示す規則で逐次D’i,jを更新する。
Figure 2008152622

〈ステップ3〉ステップ2で得られたD”i,jに対して、右下から左上に向かって走査し、次式(6)に示す規則で逐次D”i,jを更新する。
Figure 2008152622

得られたDが距離画像となる。 <Step 1> The image f i, j obtained by binarizing the input image is set to D i, j and further converted as in the following equation (4).
Figure 2008152622

<Step 2> The initialized image is scanned from the upper left to the lower right, and D ′ i, j is sequentially updated according to the rule shown in the following equation (5).
Figure 2008152622

<Step 3> D ″ i, j obtained in Step 2 is scanned from the lower right to the upper left, and D ″ i, j is sequentially updated according to the rule shown in the following equation (6).
Figure 2008152622

The obtained D becomes a distance image.

以上で求めた距離画像から画素値(距離)が最大となる座標を手領域の重心(xg,yg)とする(ステップST72)。ここで、手領域抽出手段106で抽出した手領域は、図9の601に示すようにポインティングする指が伸びた状態であると仮定すると、図9の602に示すように楕円で近似できる。このとき、楕円の長辺とy軸とのなす角度θ(603)を求め、長辺とy軸が合うように楕円を回転させたときのy座標の最大値を持つ画素が指先の座標となる。   The coordinate at which the pixel value (distance) is maximum from the distance image obtained above is set as the center of gravity (xg, yg) of the hand region (step ST72). If the hand region extracted by the hand region extraction means 106 is assumed to be in a state where the pointing finger is extended as indicated by 601 in FIG. 9, it can be approximated by an ellipse as indicated by 602 in FIG. At this time, an angle θ (603) between the long side of the ellipse and the y-axis is obtained, and the pixel having the maximum y-coordinate when the ellipse is rotated so that the long side and the y-axis match is the coordinate of the fingertip. Become.

この長辺とy軸とのなす角度を求めるために次式(7)で表すモーメント特徴を求める(ステップST73)。

Figure 2008152622

よって式(7)においてM11、M20、M02を求め、式(8)においてθを求める(ステップST74)。 In order to obtain the angle between the long side and the y-axis, a moment feature represented by the following equation (7) is obtained (step ST73).
Figure 2008152622

Therefore, M 11 , M 20 , and M 02 are obtained in equation (7), and θ is obtained in equation (8) (step ST74).

次に、楕円の長辺とy軸が合うように求めたθを用いて回転させ(ステップST75)、更に、y座標が最大となる点を求め、回転前の座標値を指先の座標とする(ステップST76)。即ち、この座標値をユーザが指示した位置と判定する。以上で求めた座標値をポインティング手段108に渡し、ポインティング処理することにより投影画像をユーザが直接操作可能となる(ステップST8)。   Next, rotation is performed using θ obtained so that the long side of the ellipse and the y axis coincide with each other (step ST75). Further, a point where the y coordinate is maximum is obtained, and the coordinate value before the rotation is used as the coordinate of the fingertip. (Step ST76). That is, the coordinate value is determined as the position designated by the user. The coordinate values obtained as described above are transferred to the pointing means 108 and subjected to the pointing process, whereby the user can directly operate the projection image (step ST8).

次に、キャリブレーション手段105の動作について図10から図13を用いて説明する。
図10は、キャリブレーション手段105の動作を説明するためのフローチャートである。
図11は、歪補正キャリブレーション手段109の動作を示す説明図である。
図12は、カラーキャリブレーション手段110の動作を示す説明図である。
図13は、カラーキャリブレーション手段110で求める色の変換テーブルの説明図である。
Next, the operation of the calibration unit 105 will be described with reference to FIGS.
FIG. 10 is a flowchart for explaining the operation of the calibration means 105.
FIG. 11 is an explanatory diagram showing the operation of the distortion correction calibration means 109.
FIG. 12 is an explanatory diagram showing the operation of the color calibration unit 110.
FIG. 13 is an explanatory diagram of a color conversion table obtained by the color calibration unit 110.

本発明のポインティング装置は、撮影画像を前述の通り投影画像と比較可能とするために撮影画像の歪補正と、色補正を行う必要がある。このときの歪補正パラメータと色補正パラメータを求めるためにそれぞれのキャリブレーションを行う。
先ず、映像出力手段101で、図11の701に示すようなグリッドをプロジェクタ200を通して投影し(ステップST101)、その投影画像をカメラ300を介して画像入力手段103で取得する(ステップST102)。次に、撮影された画像を歪補正キャリブレーション手段109に入力し、歪補正パラメータを求めるために、撮影画像からグリッドの格子点を求める(ステップST103)。格子点は、例えば、辻三郎、除剛著、「3次元ビジョン」、pp.36−37,共立出版、1999年にあるようなSUSANオペレータなどのコーナー検出手法を用いて検出する。
以上で求めた撮影画像中の格子点座標は、ビデオメモリ102に格納されている投影画像(グリッド画像)の各格子点と対応付けられている。またグリッド画像の各格子点の座標は既知である。
The pointing device of the present invention needs to perform distortion correction and color correction of the captured image so that the captured image can be compared with the projected image as described above. Each calibration is performed in order to obtain the distortion correction parameter and the color correction parameter at this time.
First, the video output unit 101 projects a grid as indicated by reference numeral 701 in FIG. 11 through the projector 200 (step ST101), and the projection image is acquired by the image input unit 103 through the camera 300 (step ST102). Next, the photographed image is input to the distortion correction calibration means 109, and grid points of the grid are obtained from the photographed image in order to obtain the distortion correction parameter (step ST103). The lattice points are described in, for example, Tsubasa Saburo, Takeshi, “3D Vision”, pp. 36-37, Kyoritsu Publishing, using a corner detection technique such as a SUSAN operator as in 1999.
The lattice point coordinates in the captured image obtained as described above are associated with each lattice point of the projection image (grid image) stored in the video memory 102. The coordinates of each grid point of the grid image are known.

撮影画像中の格子点座標を(xc,yc)、投影画像上の格子点座標を(xo,yo)とすると、次式が成り立つ。

Figure 2008152622

式(11)から、hはBTBの最小固有値に対応する固有ベクトルとして求めることができる。 When the lattice point coordinates in the captured image are (xc, yc) and the lattice point coordinates on the projection image are (xo, yo), the following equation is established.
Figure 2008152622

From Expression (11), h can be obtained as an eigenvector corresponding to the minimum eigenvalue of B T B.

次に、映像出力手段101で、図12の801に示すようなカラーパターンをプロジェクタ200を通して投影し(ステップST105)、その投影画像をカメラ300を介して画像入力手段103で取得する(ステップST106)。そして、その画像をカラーキャリブレーション手段110に入力し、色調変化を計測する(ステップST107)。ここで、カラーパターン801は、例えば、色相を9分割したときの代表色と白、グレー、黒で構成されているとする。つまり、9色は一定範囲の色相の色を代表するものであるとする。   Next, the video output means 101 projects a color pattern as indicated by reference numeral 801 in FIG. 12 through the projector 200 (step ST105), and the projection image is acquired by the image input means 103 via the camera 300 (step ST106). . Then, the image is input to the color calibration unit 110, and a change in color tone is measured (step ST107). Here, it is assumed that the color pattern 801 includes, for example, representative colors obtained when the hue is divided into nine and white, gray, and black. That is, nine colors represent colors in a certain range of hues.

カラーキャリブレーション手段110では、先ず、歪補正キャリブレーション手段109で求めた変換行列を用いて歪補正手段112と同様に撮影画像の歪補正を行い、ビデオメモリ102に格納されているカラーパターン801の各色の領域に対応する撮影画像の領域の画素値(RGBの値)の平均を求める。次に、求めた平均値(RGBの値)をHSVに変換し、ビデオメモリ102に格納されているオリジナルの9色の色相との差分を求め、図13の色相テーブル901に格納する。
同様に、カラーパターン801の白、グレー、黒の領域に対応する撮影画像の領域の画素値(RGBの値)の平均を求め、求めた値の明度を求め、ビデオメモリ102に格納されているオリジナルの白、グレー、黒の明度との差分を求め、図13の明度テーブル902に格納する。
このように、キャリブレーション手段105を設けることにより、投影画像と撮影画像との差分画像を適切に求めることが可能となり、手領域を正確に抽出可能となる。
In the color calibration unit 110, first, distortion correction of the captured image is performed in the same manner as the distortion correction unit 112 using the conversion matrix obtained by the distortion correction calibration unit 109, and the color pattern 801 stored in the video memory 102 is corrected. The average of the pixel values (RGB values) of the captured image region corresponding to the region of each color is obtained. Next, the obtained average value (RGB value) is converted into HSV, and a difference from the original nine hues stored in the video memory 102 is obtained and stored in the hue table 901 of FIG.
Similarly, the average of the pixel values (RGB values) of the photographed image areas corresponding to the white, gray, and black areas of the color pattern 801 is obtained, and the brightness of the obtained value is obtained and stored in the video memory 102. Differences from the original white, gray, and black brightness are obtained and stored in the brightness table 902 of FIG.
As described above, by providing the calibration unit 105, it is possible to appropriately obtain the difference image between the projected image and the captured image, and it is possible to accurately extract the hand region.

以上のように、実施の形態1のポインティング装置によれば、任意の投影画像を投影する投影手段と、投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、撮影手段で撮影された撮影画像と、投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、指示部領域抽出手段で抽出された指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたので、投影画像中の指示位置を正確かつ容易に検出することができる。   As described above, according to the pointing device of the first embodiment, the projection unit that projects an arbitrary projection image, the imaging unit that projects an image that is projected by the projection unit and includes an instruction unit, and the imaging unit Based on a difference image between the photographed captured image and the projected image, an instruction unit region extracting unit that extracts an instruction unit region included in the photographed image, and an instruction unit region extracted by the instruction unit region extracting unit On the basis of this, it is provided with the indicated position detecting means for detecting which position of the projected image the pointing unit is pointing to, so that the indicated position in the projected image can be detected accurately and easily.

また、実施の形態1のポインティング装置によれば、指示部領域抽出手段は、撮影画像に対して、画像のぶれを補正するぶれ補正手段と、撮影画像に対して、画像の歪みを補正する歪補正手段と、撮影画像に対して、画像の色を補正する色補正手段とを備え、これら各補正手段によって補正された撮影画像と投影画像との差分画像を取得するようにしたので、指示部の領域を正確に抽出することができ、その結果、投影画像中の指示位置を正確に求めることができる。   In addition, according to the pointing device of the first embodiment, the instruction area extraction unit includes a shake correction unit that corrects image blur for a captured image, and a distortion that corrects image distortion for the captured image. Since the correction means and the color correction means for correcting the color of the image with respect to the captured image are provided, and the difference image between the captured image and the projection image corrected by each of the correction means is acquired, the instruction unit Can be accurately extracted, and as a result, the indicated position in the projection image can be accurately obtained.

また、実施の形態1のポインティング装置によれば、投影画像として格子画像を用い、格子画像の撮影画像の格子点と、投影画像の格子点との関係に基づいて、歪補正パラメータを算出する歪補正キャリブレーション手段を備え、歪補正手段は、歪補正パラメータに基づいて撮影画像の歪みを補正するようにしたので、画像の歪みを良好に補正することができ、従って、投影画像中の指示位置を正確に求めることができる。   Further, according to the pointing device of the first embodiment, a distortion image is used as a projection image, and the distortion correction parameter is calculated based on the relationship between the lattice point of the captured image of the lattice image and the lattice point of the projection image. Since the correction calibration means is provided and the distortion correction means corrects the distortion of the photographed image based on the distortion correction parameter, the distortion of the image can be corrected favorably. Can be obtained accurately.

また、実施の形態1のポインティング装置によれば、投影画像としてカラーパターンを用い、カラーパターンの撮影画像の色情報と、投影画像の色情報との関係に基づいて、色補正パラメータを算出するカラーキャリブレーション手段を備え、色補正手段は、色補正パラメータに基づいて撮影画像の色補正を行うようにしたので、撮影画像に対する色補正を良好に行うことができ、従って、投影画像中の指示位置を正確に求めることができる。   Further, according to the pointing device of the first embodiment, a color pattern is used as a projection image, and the color correction parameter is calculated based on the relationship between the color information of the captured image of the color pattern and the color information of the projection image. Since the calibration unit is provided and the color correction unit performs color correction of the captured image based on the color correction parameter, it is possible to perform color correction on the captured image satisfactorily. Can be obtained accurately.

また、実施の形態1のポインティング装置によれば、投影画像として画像中の位置を示すマーカを含む画像を用い、ぶれ補正手段は、マーカを含む画像の撮影画像におけるマーカの位置と、投影画像のマーカの位置座標に基づいて撮影画像の投影ぶれを補正するようにしたので、例えば、電車の中など、定期的に振動がある場所での手持ちの使用であっても画像のぶれを良好に補正することができ、このような使用状態でも確実に指示位置の検出を行うことができる。   Further, according to the pointing device of the first embodiment, an image including a marker indicating a position in the image is used as the projection image, and the blur correction unit is configured to detect the position of the marker in the captured image of the image including the marker and the projection image. Corrected the image blurring based on the marker position coordinates, so that even if it is handheld in places where there is periodic vibration, such as in a train, the image blurring can be corrected well. Thus, the pointing position can be reliably detected even in such a use state.

また、実施の形態1のポインティング装置によれば、指示位置検出手段は、指示部の領域を距離画像変換し、求めた重心座標を中心とした楕円で指示部の領域を近似し、楕円の長辺の角度を求めることにより、指示位置を検出するようにしたので、指示位置を確実に検出することができる。   In addition, according to the pointing device of the first embodiment, the pointing position detecting unit performs distance image conversion on the pointing area, approximates the pointing area with an ellipse centered on the obtained barycentric coordinates, and calculates the length of the ellipse. Since the designated position is detected by obtaining the angle of the side, the designated position can be reliably detected.

実施の形態2.
実施の形態2は、所定間隔で手領域を抽出し易くするための単色の背景を表示し、そのときに手領域抽出を可能とする実施形態である。
図14は、実施の形態2に示すポインティング装置の構成図である。
図において、ポインティング装置は、ポインティング制御装置100aとプロジェクタ200とカメラ300とからなり、プロジェクタ200とカメラ300とは実施の形態1と同様である。ポインティング制御装置100aは、映像出力手段101、ビデオメモリ102、画像入力手段103、フレームメモリ104、キャリブレーション手段105a、手領域抽出手段106、指先検出手段107、ポインティング手段108、同期手段115からなり、キャリブレーション手段105aにおいて背景色決定手段116が追加された点と同期手段115が設けられている構成以外は実施の形態1と同様である。
同期手段115は、カメラ撮影とプロジェクタの投影のタイミングを一致させるための手段である。また、キャリブレーション手段105aにおける背景色決定手段116は、手領域抽出の際に用いる背景色を決定する手段である。
Embodiment 2. FIG.
The second embodiment is an embodiment in which a monochrome background for facilitating extraction of hand regions at a predetermined interval is displayed and hand region extraction is possible at that time.
FIG. 14 is a configuration diagram of the pointing device shown in the second embodiment.
In the figure, the pointing device includes a pointing control device 100a, a projector 200, and a camera 300. The projector 200 and the camera 300 are the same as those in the first embodiment. The pointing control device 100a includes a video output unit 101, a video memory 102, an image input unit 103, a frame memory 104, a calibration unit 105a, a hand region extraction unit 106, a fingertip detection unit 107, a pointing unit 108, and a synchronization unit 115. The second embodiment is the same as the first embodiment except that the background color determination unit 116 is added to the calibration unit 105a and the synchronization unit 115 is provided.
Synchronizing means 115 is means for matching the timing of camera shooting with the projection of the projector. Further, the background color determining means 116 in the calibration means 105a is a means for determining the background color used for hand region extraction.

次に、実施の形態2のポインティング装置の動作について説明する。
本実施の形態では、図15に示すように、所定フレーム間隔で、通常画像表示のフレームの間に単色画像表示のフレームを挿入し、単色画像表示のタイミングで手領域を検出する。
図16は、ポインティング処理の動作を説明するためのフローチャートである。
同期手段115は、カメラ300のフレームカウントを用いてプロジェクタ200の描画タイミングとカメラ300の撮影タイミングを同期させる。映像出力手段101は、カメラ300のフレームカウントをチェックし(ステップST201)、カウント数が例えば次の条件を満たしたときに背景画像を出力する(ステップST202、203)。
If count mod N =0 (12)
上式(12)は、Nフレーム間隔で背景画像を出力することを意味する。
Next, the operation of the pointing device according to the second embodiment will be described.
In the present embodiment, as shown in FIG. 15, a monochrome image display frame is inserted between normal image display frames at a predetermined frame interval, and a hand region is detected at the timing of monochrome image display.
FIG. 16 is a flowchart for explaining the operation of the pointing process.
The synchronization unit 115 synchronizes the drawing timing of the projector 200 and the shooting timing of the camera 300 using the frame count of the camera 300. The video output means 101 checks the frame count of the camera 300 (step ST201), and outputs a background image when the count number satisfies, for example, the following conditions (steps ST202 and 203).
If count mod N = 0 (12)
The above equation (12) means that a background image is output at intervals of N frames.

上記ステップST202において式(12)の条件を満たせば、手領域を求めるための背景画像をプロジェクタ200から投影し、同時に画像入力手段103を介して画像を入力する(ステップST203)。
以降の処理は実施の形態1と同様に、入力画像のぶれ補正を行い(ステップST204)、歪補正を行い(ステップST205)、色補正を行い(ステップST206)、差分画像を抽出し(ステップST207)、指先検出を行い(ステップST208)、ポインティング処理を行う(ステップST209)。
また、ステップST202で、式(12)が成立しなければ、通常の投影画像をプロジェクタ200で投影する(ステップST210)。
If the condition of Expression (12) is satisfied in step ST202, a background image for obtaining a hand area is projected from the projector 200, and at the same time, an image is input via the image input unit 103 (step ST203).
In the subsequent processing, as in the first embodiment, blur correction of the input image is performed (step ST204), distortion correction is performed (step ST205), color correction is performed (step ST206), and a difference image is extracted (step ST207). ), Fingertip detection is performed (step ST208), and pointing processing is performed (step ST209).
On the other hand, if Expression (12) is not satisfied in step ST202, a normal projection image is projected by the projector 200 (step ST210).

次に、キャリブレーション手段105aの背景色決定手段116の動作を説明する。
図17は、背景色決定手段116の動作を説明するためのフローチャートである。
ここで、背景色決定手段116では、予め肌色の情報を持っていることとする。
先ず、プロジェクタ200からは何も投影せず、かつ、指示部となる手をカメラ300の視野に入れない状態で画像を撮影し、その時の平均色相、平均彩度、平均明度を求める(ステップST301〜ステップST303)。即ち、プロジェクタ200が投影する実際の背景の色の値を求める。そして、彩度が閾値以下であるか否かをチェックし(ステップST304)、もし、彩度が閾値より大きな値である場合は肌色と対極にある色相の範囲でステップST301で求めた色相との差分が大きい色相を求める(ステップST305)。具体的には、色相は0〜2πの範囲で表されることから、肌色の色相をSHとすると対極にある色相CSHは次式で求めることができる。
CSH=SH+π (13)
ステップST301で求めた色相をBHとすると、求める色相THは次式で求める。

Figure 2008152622
Next, the operation of the background color determination unit 116 of the calibration unit 105a will be described.
FIG. 17 is a flowchart for explaining the operation of the background color determining means 116.
Here, it is assumed that the background color determination means 116 has skin color information in advance.
First, an image is shot without projecting anything from the projector 200 and with the hand serving as an instruction unit not in the field of view of the camera 300, and the average hue, average saturation, and average brightness at that time are obtained (step ST301). To Step ST303). That is, the actual background color value projected by the projector 200 is obtained. Then, it is checked whether or not the saturation is equal to or less than the threshold value (step ST304). If the saturation is a value larger than the threshold value, the hue obtained in step ST301 within the hue range opposite to the skin color is determined. A hue having a large difference is obtained (step ST305). Specifically, since the hue is expressed in the range of 0 to 2π, the hue CSH at the counter electrode can be obtained by the following equation when the hue of the skin color is SH.
CSH = SH + π (13)
If the hue obtained in step ST301 is BH, the obtained hue TH is obtained by the following equation.
Figure 2008152622

ステップST304で彩度が閾値以下であった場合は、求めた平均明度をチェックし(ステップST306)、明度が閾値より大きいの場合はステップST305を実行し、閾値以下である場合は、背景色を黒に決定し、差分画像抽出手段114において明度で差分とるように指示するフラグを立てる(ステップST307)。   If the saturation is not more than the threshold value in step ST304, the obtained average brightness is checked (step ST306). If the brightness is greater than the threshold value, step ST305 is executed. If the saturation is not more than the threshold value, the background color is selected. The flag is determined to be black, and the difference image extraction unit 114 sets a flag for instructing the difference to be a difference in brightness (step ST307).

以上のように数フレーム間隔で単純な背景画像を表示し、その背景画像と撮影画像を比較することで手領域を抽出することにより、手領域抽出にかかる処理量を低減することができる。   As described above, a simple background image is displayed at intervals of several frames, and a hand region is extracted by comparing the background image with a captured image, thereby reducing the amount of processing required for hand region extraction.

尚、上記実施の形態1、2では、指示部を人間の手としたが、投影画像とは異なる物体であれば、手以外のものであっても適用可能である。但し、指示位置を一意に検出するために、先端部が尖った物体が望ましい。   In the first and second embodiments, the pointing unit is a human hand. However, any object other than the hand can be applied as long as the object is different from the projected image. However, an object with a sharp tip is desirable in order to uniquely detect the indicated position.

以上のように、実施の形態2のポインティング装置によれば、投影画像と撮影画像との同期をとる同期手段と、指示部の色情報に基づいて背景色を決定する背景色決定手段とを備え、投影手段は、背景色決定手段で決定された背景色の特定画像を所定間隔で投影すると共に、指示部領域抽出手段は、所定間隔で投影される特定画像と、特定画像に同期した撮影画像とに基づいて指示部領域の抽出を行うようにしたので、指示部領域の抽出にかかる処理量を低減することが可能で、その結果、ポインティング装置としての処理の軽減化を図ることができる。   As described above, the pointing device according to the second embodiment includes the synchronization unit that synchronizes the projection image and the captured image, and the background color determination unit that determines the background color based on the color information of the instruction unit. The projecting unit projects the specific image of the background color determined by the background color determining unit at a predetermined interval, and the pointing unit region extracting unit is configured to project the specific image projected at the predetermined interval and a captured image synchronized with the specific image. Therefore, it is possible to reduce the amount of processing required for the extraction of the instruction area, and as a result, it is possible to reduce the processing as the pointing device.

また、実施の形態2のポインティング装置によれば、背景色決定手段は、肌色情報を有し、特定画像を、投影手段が投影する背景の色と肌色とに基づいて決定するようにしたので、指示部が人間の手である場合の指示部領域を正確に抽出することが可能であるため、指示位置の検出を確実に行うことができる。   Further, according to the pointing device of the second embodiment, the background color determination unit has skin color information, and the specific image is determined based on the background color and the skin color projected by the projection unit. Since it is possible to accurately extract the pointing unit region when the pointing unit is a human hand, it is possible to reliably detect the pointing position.

また、実施の形態1,2のポインティング装置によれば、指示部を人間の手としたので、画像中の位置を指定する手段として特別な器具等が不要であり、利便性の高いポインティング装置を得ることができる。   Further, according to the pointing device of the first and second embodiments, since the pointing unit is a human hand, a special instrument or the like is not required as means for designating the position in the image, and a highly convenient pointing device is provided. Obtainable.

この発明の実施の形態1によるポインティング装置を示す構成図である。It is a block diagram which shows the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置の動作の様子を示す説明図である。It is explanatory drawing which shows the mode of operation | movement of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のマーカを示す説明図である。It is explanatory drawing which shows the marker of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のぶれ補正手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the shake correction means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のぶれ補正手段の補正動作の説明図である。It is explanatory drawing of the correction | amendment operation | movement of the shake correction means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置における投影画像と撮影画像と差分画像とを示す説明図である。It is explanatory drawing which shows the projection image in the pointing device by Embodiment 1 of this invention, a picked-up image, and a difference image. この発明の実施の形態1によるポインティング装置の指先検出手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the fingertip detection means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置の手領域の抽出動作を示す説明図である。It is explanatory drawing which shows the extraction operation | movement of the hand area | region of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のキャリブレーション手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the calibration means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置の歪補正キャリブレーション手段の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the distortion correction calibration means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のカラーキャリブレーション手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the color calibration means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態1によるポインティング装置のカラーキャリブレーション手段で求める色の変換テーブルの説明図である。It is explanatory drawing of the conversion table of the color calculated | required with the color calibration means of the pointing device by Embodiment 1 of this invention. この発明の実施の形態2によるポインティング装置の構成図である。It is a block diagram of the pointing device by Embodiment 2 of this invention. この発明の実施の形態2によるポインティング装置の画像表示のタイミングを示す説明図である。It is explanatory drawing which shows the timing of the image display of the pointing device by Embodiment 2 of this invention. この発明の実施の形態2によるポインティング装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the pointing device by Embodiment 2 of this invention. この発明の実施の形態2によるポインティング装置の背景色決定手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the background color determination means of the pointing device by Embodiment 2 of this invention.

符号の説明Explanation of symbols

100,100a ポインティング制御装置、101 映像出力手段、103 画像入力手段、105,105a キャリブレーション手段、106 手領域抽出手段、107 指先検出手段、108 ポインティング手段、109 歪補正キャリブレーション手段、110 カラーキャリブレーション手段、111 ぶれ補正手段、112 歪補正手段、113 色補正手段、114 差分画像抽出手段、115 同期手段、116 背景色決定手段、200 プロジェクタ、300 カメラ、301a〜301d マーカ、601 手領域、602 楕円、701 グリッド、801 カラーパターン、901 色相テーブル、902 明度テーブル。   100, 100a pointing control device, 101 video output means, 103 image input means, 105, 105a calibration means, 106 hand area extraction means, 107 fingertip detection means, 108 pointing means, 109 distortion correction calibration means, 110 color calibration Means, 111 blur correction means, 112 distortion correction means, 113 color correction means, 114 difference image extraction means, 115 synchronization means, 116 background color determination means, 200 projector, 300 camera, 301a to 301d marker, 601 hand area, 602 ellipse , 701 grid, 801 color pattern, 901 hue table, 902 brightness table.

Claims (9)

任意の投影画像を投影する投影手段と、
前記投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、
前記撮影手段で撮影された撮影画像と、前記投影画像との差分画像に基づいて、前記撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、
前記指示部領域抽出手段で抽出された指示部の領域に基づいて、当該指示部が前記投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたポインティング装置。
Projection means for projecting an arbitrary projection image;
Photographing means for photographing an image projected by the projecting means and including an instruction unit;
An instruction area extraction unit that extracts an area of the instruction unit included in the captured image based on a difference image between the captured image captured by the imaging unit and the projection image;
A pointing device comprising: pointing position detecting means for detecting which position of the projection image the pointing section points to based on the area of the pointing section extracted by the pointing section area extracting means.
指示部領域抽出手段は、
撮影画像に対して、画像のぶれを補正するぶれ補正手段と、
前記撮影画像に対して、画像の歪みを補正する歪補正手段と、
前記撮影画像に対して、画像の色を補正する色補正手段とを備え、
これら各補正手段によって補正された撮影画像と投影画像との差分画像を取得することを特徴とする請求項1記載のポインティング装置。
The instruction area extraction means
Blur correction means for correcting image blur for a captured image;
Distortion correction means for correcting image distortion for the captured image;
Color correction means for correcting the color of the image with respect to the captured image;
The pointing device according to claim 1, wherein a difference image between the captured image and the projection image corrected by each of the correction units is acquired.
投影画像として格子画像を用い、当該格子画像の撮影画像の格子点と、前記投影画像の格子点との関係に基づいて、歪補正パラメータを算出する歪補正キャリブレーション手段を備え、
歪補正手段は、前記歪補正パラメータに基づいて撮影画像の歪みを補正することを特徴とする請求項2記載のポインティング装置。
Using a lattice image as a projection image, comprising distortion correction calibration means for calculating a distortion correction parameter based on the relationship between the lattice point of the captured image of the lattice image and the lattice point of the projection image,
The pointing device according to claim 2, wherein the distortion correction unit corrects distortion of the captured image based on the distortion correction parameter.
投影画像としてカラーパターンを用い、当該カラーパターンの撮影画像の色情報と、前記投影画像の色情報との関係に基づいて、色補正パラメータを算出するカラーキャリブレーション手段を備え、
色補正手段は、前記色補正パラメータに基づいて撮影画像の色補正を行うことを特徴とする請求項2記載のポインティング装置。
Using a color pattern as a projection image, and comprising color calibration means for calculating a color correction parameter based on the relationship between the color information of the captured image of the color pattern and the color information of the projection image,
The pointing device according to claim 2, wherein the color correction unit performs color correction of the captured image based on the color correction parameter.
投影画像として画像中の位置を示すマーカを含む画像を用い、ぶれ補正手段は、前記マーカを含む画像の撮影画像におけるマーカの位置と、前記投影画像のマーカの位置座標に基づいて前記撮影画像の投影ぶれを補正することを特徴とする請求項2記載のポインティング装置。   An image including a marker indicating a position in the image is used as the projected image, and the blur correction unit is configured to detect the position of the captured image based on the marker position in the captured image of the image including the marker and the position coordinate of the marker in the projected image. 3. The pointing device according to claim 2, wherein projection blur is corrected. 指示位置検出手段は、指示部の領域を距離画像変換し、求めた重心座標を中心とした楕円で前記指示部の領域を近似し、当該楕円の長辺の角度を求めることにより、指示位置を検出することを特徴とする請求項1から請求項5のうちのいずれか1項記載のポインティング装置。   The pointing position detecting means converts the pointing area into a distance image, approximates the pointing area with an ellipse centered on the obtained barycentric coordinates, and obtains the angle of the long side of the ellipse to obtain the pointing position. 6. The pointing device according to claim 1, wherein the pointing device is detected. 投影画像と撮影画像との同期をとる同期手段と、
指示部の色情報に基づいて背景色を決定する背景色決定手段とを備え、
投影手段は、前記背景色決定手段で決定された背景色の特定画像を所定間隔で投影すると共に、指示部領域抽出手段は、前記所定間隔で投影される特定画像と、当該特定画像に同期した撮影画像とに基づいて指示部領域の抽出を行うことを特徴とする請求項1から請求項6のうちのいずれか1項記載のポインティング装置。
Synchronization means for synchronizing the projected image and the captured image;
A background color determining means for determining a background color based on the color information of the instruction unit;
The projecting unit projects the specific image of the background color determined by the background color determining unit at a predetermined interval, and the instruction area extraction unit synchronizes with the specific image projected at the predetermined interval and the specific image. The pointing device according to claim 1, wherein an instruction area is extracted based on a photographed image.
背景色決定手段は、肌色情報を有し、特定画像を、投影手段が投影する背景の色と肌色とに基づいて決定することを特徴とする請求項7記載のポインティング装置。   8. The pointing device according to claim 7, wherein the background color determination means has skin color information and determines the specific image based on the background color and the skin color projected by the projection means. 指示部は人間の手であることを特徴とする請求項1から請求項8のうちのいずれか1項記載のポインティング装置。   The pointing device according to claim 1, wherein the instruction unit is a human hand.
JP2006341243A 2006-12-19 2006-12-19 Pointing device Pending JP2008152622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006341243A JP2008152622A (en) 2006-12-19 2006-12-19 Pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006341243A JP2008152622A (en) 2006-12-19 2006-12-19 Pointing device

Publications (1)

Publication Number Publication Date
JP2008152622A true JP2008152622A (en) 2008-07-03

Family

ID=39654716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006341243A Pending JP2008152622A (en) 2006-12-19 2006-12-19 Pointing device

Country Status (1)

Country Link
JP (1) JP2008152622A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258753A (en) * 2009-04-24 2010-11-11 Kyocera Corp Mobile terminal and projection program
JP2011019018A (en) * 2009-07-07 2011-01-27 Canon Inc Image projection apparatus and method for controlling the same
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
JP2011118533A (en) * 2009-12-01 2011-06-16 Tokyo Denki Univ Device and method for inputting touch position
EP2364013A2 (en) 2010-03-04 2011-09-07 Sony Corporation Information processing apparatus, method and program for imaging device
JP2011227600A (en) * 2010-04-16 2011-11-10 Seiko Epson Corp Position detection system, its control method and program
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JP2012113564A (en) * 2010-11-25 2012-06-14 Fujitsu Ltd Indication means shape acquisition device, indication means shape acquisition program, and projection system
JP2012531652A (en) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gesture recognition using chroma key
WO2012176315A1 (en) * 2011-06-23 2012-12-27 富士通株式会社 Information processing device, input control method, and input control program
CN102929434A (en) * 2011-08-12 2013-02-13 群丰科技股份有限公司 Projection system and image processing method thereof
US8395600B2 (en) 2009-01-30 2013-03-12 Denso Corporation User interface device
WO2013111228A1 (en) * 2012-01-24 2013-08-01 日本電気株式会社 Marker detection device and marker detection method
JP2014006594A (en) * 2012-06-21 2014-01-16 Fujitsu Ltd Character input program, information processor, and character input method
JP2014511608A (en) * 2011-02-25 2014-05-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Determination of model parameters based on model transformation of objects
US8884985B2 (en) 2011-02-01 2014-11-11 Kabushiki, Kaisha Toshiba Interface apparatus, method, and recording medium
CN104345993A (en) * 2013-07-25 2015-02-11 现代自动车株式会社 Touch point recognition method of touch screen and system performing same
JP2017027311A (en) * 2015-07-21 2017-02-02 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JPWO2015118756A1 (en) * 2014-02-10 2017-03-23 ソニー株式会社 Information processing apparatus, information processing method, and program
KR101873257B1 (en) * 2016-12-27 2018-07-04 주식회사 인텔리빅스 Apparatus for Controlling Camera and Driving Method Thereof
JP2018534643A (en) * 2015-09-16 2018-11-22 グーグル エルエルシー Touch screen hover detection in augmented and / or virtual reality environments
US10627962B2 (en) 2017-03-24 2020-04-21 Seiko Epson Corporation Projector
JPWO2021095768A1 (en) * 2019-11-15 2021-05-20

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8395600B2 (en) 2009-01-30 2013-03-12 Denso Corporation User interface device
JP2010258753A (en) * 2009-04-24 2010-11-11 Kyocera Corp Mobile terminal and projection program
JP2012531652A (en) * 2009-06-25 2012-12-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gesture recognition using chroma key
US8220936B2 (en) 2009-07-07 2012-07-17 Canon Kabushiki Kaisha Image projection apparatus with operation image generation based on distance to the projection surface, and method for controlling the same
JP2011019018A (en) * 2009-07-07 2011-01-27 Canon Inc Image projection apparatus and method for controlling the same
JP2011022945A (en) * 2009-07-17 2011-02-03 Dainippon Printing Co Ltd Fingertip-manipulation-type information providing system, program, and storage medium
JP2011118533A (en) * 2009-12-01 2011-06-16 Tokyo Denki Univ Device and method for inputting touch position
EP2364013A2 (en) 2010-03-04 2011-09-07 Sony Corporation Information processing apparatus, method and program for imaging device
US10015392B2 (en) 2010-03-04 2018-07-03 Sony Corporation Information processing apparatus, information processing method, and program
US10659681B2 (en) 2010-03-04 2020-05-19 Sony Corporation Information processing apparatus, information processing method, and program
US11190678B2 (en) 2010-03-04 2021-11-30 Sony Corporation Information processing apparatus, information processing method, and program
EP3996361A1 (en) 2010-03-04 2022-05-11 Sony Group Corporation Information processing apparatus, information processing method, and program
US9516206B2 (en) 2010-03-04 2016-12-06 Sony Corporation Information processing apparatus, information processing method, and program
US10306136B2 (en) 2010-03-04 2019-05-28 Sony Corporation Information processing apparatus, information processing method, and program
US9049376B2 (en) 2010-03-04 2015-06-02 Sony Corporation Information processing apparatus, information processing method, and program
EP2364013A3 (en) * 2010-03-04 2014-01-29 Sony Corporation Information processing apparatus, method and program for imaging device
JP2011227600A (en) * 2010-04-16 2011-11-10 Seiko Epson Corp Position detection system, its control method and program
JPWO2011152166A1 (en) * 2010-05-31 2013-07-25 株式会社Pfu Overhead scanner device, image processing method, and program
CN102918828B (en) * 2010-05-31 2015-11-25 株式会社Pfu Overhead scanner device and image processing method
CN102918828A (en) * 2010-05-31 2013-02-06 株式会社Pfu Top-mounted scanner device, image processing method and program
WO2011152166A1 (en) * 2010-05-31 2011-12-08 株式会社Pfu Overhead scanner apparatus, image processing method, and program
JP2012113564A (en) * 2010-11-25 2012-06-14 Fujitsu Ltd Indication means shape acquisition device, indication means shape acquisition program, and projection system
US8884985B2 (en) 2011-02-01 2014-11-11 Kabushiki, Kaisha Toshiba Interface apparatus, method, and recording medium
JP2014511608A (en) * 2011-02-25 2014-05-15 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ Determination of model parameters based on model transformation of objects
US9418285B2 (en) 2011-06-23 2016-08-16 Fujitsu Limited Information processing apparatus and input control method
WO2012176315A1 (en) * 2011-06-23 2012-12-27 富士通株式会社 Information processing device, input control method, and input control program
CN102929434B (en) * 2011-08-12 2015-11-11 群丰科技股份有限公司 Projection system and its image processing method
CN102929434A (en) * 2011-08-12 2013-02-13 群丰科技股份有限公司 Projection system and image processing method thereof
WO2013111228A1 (en) * 2012-01-24 2013-08-01 日本電気株式会社 Marker detection device and marker detection method
JP2014006594A (en) * 2012-06-21 2014-01-16 Fujitsu Ltd Character input program, information processor, and character input method
CN104345993A (en) * 2013-07-25 2015-02-11 现代自动车株式会社 Touch point recognition method of touch screen and system performing same
CN104345993B (en) * 2013-07-25 2018-11-09 现代自动车株式会社 The touch point recognition methods of touch screen and the system for executing this method
JPWO2015118756A1 (en) * 2014-02-10 2017-03-23 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017027311A (en) * 2015-07-21 2017-02-02 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
JP2018534643A (en) * 2015-09-16 2018-11-22 グーグル エルエルシー Touch screen hover detection in augmented and / or virtual reality environments
KR101873257B1 (en) * 2016-12-27 2018-07-04 주식회사 인텔리빅스 Apparatus for Controlling Camera and Driving Method Thereof
US10627962B2 (en) 2017-03-24 2020-04-21 Seiko Epson Corporation Projector
JPWO2021095768A1 (en) * 2019-11-15 2021-05-20
WO2021095768A1 (en) * 2019-11-15 2021-05-20 株式会社Nttドコモ Information processing device
JP7344307B2 (en) 2019-11-15 2023-09-13 株式会社Nttドコモ information processing equipment
US12211227B2 (en) 2019-11-15 2025-01-28 Ntt Docomo, Inc. Information processing apparatus

Similar Documents

Publication Publication Date Title
JP2008152622A (en) Pointing device
JP6467787B2 (en) Image processing system, imaging apparatus, image processing method, and program
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
US10264237B2 (en) Image processing device
WO2022179109A1 (en) Projection correction method and apparatus, storage medium and electronic device
JP5845834B2 (en) Multiple image frame alignment method, scanning device, and computer-readable medium
CN108668093A (en) The generation method and device of HDR image
US20150264324A1 (en) Image processing device, image capture device, image processing method, and image processing program
US20160034747A1 (en) Recording medium, image processing method, and information terminal
JP5817453B2 (en) Scanning apparatus, image processing program, and fusion image generation method
JPWO2010050206A1 (en) Impersonation detection system, impersonation detection method, and impersonation detection program
WO2014064870A1 (en) Image processing device and image processing method
JP2013228930A (en) Subject area detection device, method and program for controlling the same, imaging device and display device
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP5768673B2 (en) Image processing apparatus and fusion image generation method
CN115885314B (en) Image processing method, device, equipment and storage medium
JP6098133B2 (en) Face component extraction device, face component extraction method and program
CN109765990B (en) Picture display control method and picture display control system
JP6217225B2 (en) Image collation device, image collation method and program
US20180061135A1 (en) Image display apparatus and image display method
US11631381B2 (en) Information processing apparatus, information processing method, and program for controlling input position in an overlap region
CN115457055A (en) Illuminance count value recognition method, electronic device and storage medium
KR101444207B1 (en) Uneven pattern image acquisition apparatus and method
JP6696596B2 (en) Image processing system, imaging device, image processing method and program
JP2018031803A (en) Projector device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080704