JP2008152622A - Pointing device - Google Patents
Pointing device Download PDFInfo
- Publication number
- JP2008152622A JP2008152622A JP2006341243A JP2006341243A JP2008152622A JP 2008152622 A JP2008152622 A JP 2008152622A JP 2006341243 A JP2006341243 A JP 2006341243A JP 2006341243 A JP2006341243 A JP 2006341243A JP 2008152622 A JP2008152622 A JP 2008152622A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- color
- pointing
- pointing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Color Image Communication Systems (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
【課題】投影画像中の指示位置を正確かつ容易に検出することのできるポインティング装置を得る。
【解決手段】プロジェクタ200によって投影画像を投影し、これをカメラ300で撮影する。手領域抽出手段106は、カメラ300で撮影された撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる手領域を抽出する。指先検出手段107は、手領域抽出手段106で抽出された手領域から指先位置を検出し、これを投影画像における指示位置として出力する。ポインティング手段108は、指先検出手段107で検出された指示位置をシステムに通知する。
【選択図】図1A pointing device capable of accurately and easily detecting a designated position in a projected image is obtained.
A projection image is projected by a projector and is photographed by a camera. The hand region extraction unit 106 extracts a hand region included in the photographed image based on the difference image between the photographed image photographed by the camera 300 and the projection image. The fingertip detection means 107 detects the fingertip position from the hand area extracted by the hand area extraction means 106, and outputs this as the designated position in the projection image. The pointing means 108 notifies the system of the indicated position detected by the fingertip detection means 107.
[Selection] Figure 1
Description
この発明は、投影された画像中を指等で指示する位置を検出するポインティング装置に関するものである。 The present invention relates to a pointing device that detects a position instructed by a finger or the like in a projected image.
従来のポインティング装置は、固定された背景を予め撮影した画像と、その背景に手を置いたときの画像との差分をとることにより手領域の抽出を行っていた(例えば、特許文献1参照)。また、肌色画素を抽出することにより手領域を抽出する方法も提案されている(例えば、特許文献2参照)。さらに、近赤外線カメラを用いて手領域を抽出する方法(例えば、特許文献3参照)や、赤外線レーザを用いて指の動きをトラッキングするバーチャルキーボードと呼ばれる装置(例えば、非特許文献1参照)などがある。 A conventional pointing device extracts a hand region by taking a difference between an image obtained by photographing a fixed background in advance and an image when a hand is placed on the background (see, for example, Patent Document 1). . A method for extracting a hand region by extracting skin color pixels has also been proposed (see, for example, Patent Document 2). Further, a method of extracting a hand region using a near-infrared camera (for example, see Patent Document 3), a device called a virtual keyboard that tracks finger movements using an infrared laser (for example, see Non-Patent Document 1), etc. There is.
従来のポインティング装置において、固定された背景との差分により手領域を抽出する手法では、プロジェクタなどで投影された画像を直接操作する場合、投影画像は上記背景上に投影されるため、画像が投影されるたびに予め記憶した背景と異なることになり、手領域が正しく抽出できない問題があった。また、肌色画素を抽出する手法では、投影画像を直接操作する場合、手の上にも画像が投影されることになり、例えば、青色の画像が手の上に投影された場合に肌色画素が正しく抽出できない問題があった。更に、特殊なデバイスを用いる従来のポインティング装置では、そのデバイスのためのコストが高くなってしまうという問題があった。 In a conventional pointing device, in the method of extracting a hand region based on a difference from a fixed background, when directly manipulating an image projected by a projector or the like, the projected image is projected onto the background, so the image is projected. Every time it is performed, the background is different from that stored in advance, and the hand area cannot be extracted correctly. Further, in the method of extracting skin color pixels, when the projection image is directly manipulated, the image is projected on the hand. For example, when a blue image is projected on the hand, There was a problem that could not be extracted correctly. Furthermore, the conventional pointing device using a special device has a problem that the cost for the device becomes high.
この発明は上記のような課題を解決するためになされたもので、投影画像中の指示位置を正確かつ容易に検出することのできるポインティング装置を得ることを目的とする。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a pointing device that can accurately and easily detect a designated position in a projection image.
この発明に係るポインティング装置は、任意の投影画像を投影する投影手段と、投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、撮影手段で撮影された撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、指示部領域抽出手段で抽出された指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたものである。 The pointing device according to the present invention includes a projecting unit that projects an arbitrary projected image, an image capturing unit that captures an image projected by the projecting unit and including an instruction unit, and a captured image and a projected image captured by the image capturing unit. Based on the difference image, the instruction unit region extracting means for extracting the region of the instruction unit included in the photographed image, and the instruction unit of the projection image based on the region of the instruction unit extracted by the instruction unit region extraction unit And pointing position detecting means for detecting which position is indicated.
この発明のポインティング装置は、撮影画像と投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出し、この指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出するようにしたので、投影画像中の指示位置を正確かつ容易に検出することができる。 The pointing device according to the present invention extracts a region of the instruction unit included in the photographed image based on the difference image between the photographed image and the projection image, and based on the region of the instruction unit, the pointing unit determines which position of the projection image Therefore, it is possible to accurately and easily detect the designated position in the projection image.
実施の形態1.
図1は、この発明の実施の形態1によるポインティング装置を示す構成図である。
図において、ポインティング装置は、ポインティング制御装置100、プロジェクタ200、カメラ300を備えている。尚、実施の形態1では、指示部を人間の手としたものであり、以下、指示部は人間の手であるとして説明する。ポインティング制御装置100は、プロジェクタ200とカメラ300を制御し、投影画像と撮影画像から指示位置を抽出する機能部であり、映像出力手段101、ビデオメモリ102、画像入力手段103、フレームメモリ104、キャリブレーション手段105、手領域抽出手段106、指先検出手段107、ポインティング手段108からなる。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a pointing device according to Embodiment 1 of the present invention.
In the figure, the pointing device includes a
プロジェクタ200は、映像出力手段101から出力された画像信号に基づいて、種々の対象に画像を投影する装置であり投影手段を構成している。カメラ300は、プロジェクタ200によって投影された画像を指示部を含めて撮影し、撮影画像としてポインティング制御装置100に出力する撮影手段である。また、これらポインティング制御装置100、プロジェクタ200、カメラ300は、後述する図3に示すように、例えば携帯電話等の端末として一体に設けられており、カメラ300は、プロジェクタ200によって投影した画像を撮影可能な位置に配設されている。尚、図3に示す端末ではプロジェクタ200とカメラ300とが隣接した位置に配設されているが、これらの位置関係に特に限定はなく、また、プロジェクタ200やカメラ300が端末の本体と別体に設けられていてもよい。
The
映像出力手段101は、プロジェクタ200に対してビデオメモリ102に保存されている画像信号を出力する機能部であり、プロジェクタ200と共に投影手段を構成している。また、ビデオメモリ102は、投影画像データを保存するためのメモリである。画像入力手段103は、カメラ300から出力された指示部を含む撮影画像を入力する入力インタフェースであり、フレームメモリ104は、画像入力手段103で入力された撮影画像を保存するためのメモリである。キャリブレーション手段105は、手領域抽出のための色および撮影画像の歪みを補正するパラメータを求める手段であり、歪補正キャリブレーション手段109とカラーキャリブレーション手段110を備えている。歪補正キャリブレーション手段109は、撮影画像を投影画像と比較するために歪みを補正するパラメータを求める手段であり、カラーキャリブレーション手段110は、撮影画像と投影画像との間の色変化の傾向を求める手段である。
The
手領域抽出手段106は、フレームメモリ104に保存された撮影画像から手領域を抽出する指示部領域抽出手段であり、ぶれ補正手段111、歪補正手段112、色補正手段113、差分画像抽出手段114を備えている。ぶれ補正手段111は、撮影画像のぶれを補正する手段、歪補正手段112は、歪補正キャリブレーション手段109の歪補正パラメータに基づいて撮影画像の歪補正を行う手段である。また、色補正手段113は、カラーキャリブレーション手段110で求められた色補正パラメータに基づいて色補正を行う手段である。更に、差分画像抽出手段114は、撮影画像と投影画像との差分画像を求める手段である。尚、ぶれ補正手段111、歪補正手段112及び色補正手段113の具体的な処理は後述する。
The hand
指先検出手段107は、手領域抽出手段106で抽出した手領域から指示位置である指先の位置座標を検出する指示位置検出手段である。ポインティング手段108は、指先検出手段107で検出した指先の座標をウインドウシステム等のGUI(Graphical User Interface)システムに通知する機能部である。
The
尚、ポインティング制御装置100はコンピュータによって実現され、上記のキャリブレーション手段105、手領域抽出手段106、指先検出手段107及びポインティング手段108は、それぞれの機能に対応するソフトウェアと、これを実行するためのCPUやメモリ等のハードウェアから構成されている。
The
次に、実施の形態1のポインティング装置の動作について説明する。
図2は、実施の形態1のポインティング装置の動作を示すフローチャートである。
図3は、実施の形態1のポインティング装置の動作の様子を示す説明図である。
図3に示すように、本実施の形態のポインティング装置は、例えば、カメラ300とプロジェクタ200が搭載された端末で投影した画像201をユーザが直接手202で操作する場合を対象としている。ここで、端末は、ユーザがもう一方の手で持って操作するといった方法や、端末を机の上に置くといった方法等、どのような使用方法であってもよい。
Next, the operation of the pointing device according to the first embodiment will be described.
FIG. 2 is a flowchart showing the operation of the pointing device according to the first embodiment.
FIG. 3 is an explanatory diagram illustrating an operation of the pointing device according to the first embodiment.
As shown in FIG. 3, the pointing device according to the present embodiment is intended for a case where a user directly operates an
ポインティング装置では、先ず、映像出力手段101を介してプロジェクタ200でビデオメモリ102に格納されている画像を投影する(ステップST1)。次に、カメラ300で投影画像を撮影し、この撮影画像を画像入力手段103を介して入力し、フレームメモリ104に撮影画像を保存する(ステップST2)。尚、映像出力手段101から投影される画像は図4に示すように四隅にマーカ301a,301b,301c,301dがつけられている。
In the pointing device, first, an image stored in the
手領域抽出手段106は、フレームメモリ102に格納された撮影画像とビデオメモリ102に格納された投影画像をそれぞれ取得し、先ず、撮影画像のぶれをぶれ補正手段111において補正する(ステップST3)。このぶれ補正処理の具体的な動作は次の通りである。
図5は、ぶれ補正手段111の動作を示すフローチャートである。
ぶれ補正手段111では、先ず図4に示した撮影画像に含まれるマーカ301a〜301dを検出する(ステップST31)。検出するマーカは、検出を容易にするために特殊な色の画素で構成され、また、それぞれのマーカ301a〜301dは異なる色となっている。検出処理は、上記色の画素を抽出し、抽出された画素が連結された領域を求め、その大きさがある範囲内の領域を求める。そして、その中心座標を求める。次に、求めた4点の座標と、キャリブレーション手段105で予め求めておいた投影画像の四隅の座標(本来の座標)を用いて、変換行列を求める(ステップST32)。尚、四隅の座標の求め方については後述する。この変換行列は、現在の撮影画像を本来の位置に補正するためのものであり、撮影画像の各画素の座標値を(xc,yc)とし、本来の座標値を(xo,yo)とすると、次式が成り立つ。
The hand
FIG. 5 is a flowchart showing the operation of the
First, the
式(3)から、hsはBTBの最小固有値に対応する固有ベクトルとして求めることができる。
From Expression (3), hs can be obtained as an eigenvector corresponding to the minimum eigenvalue of B T B.
以上で求めた変換行列Hsを用いて撮影画像を変換することにより(ステップST33)、ぶれを補正することができる。
図6は、ぶれ補正手段111の補正動作の説明図である。
例えば、撮影画像401中に投影画像402が存在するとき、この投影画像402を、補正画像403に示すようにキャリブレーション手段105でキャリブレーションしたときの投影画像404の位置に戻すことが可能となる。
次に、ぶれ補正した撮影画像から、投影画像と比較するための画像を求める。
By converting the captured image using the conversion matrix Hs obtained above (step ST33), it is possible to correct the blur.
FIG. 6 is an explanatory diagram of the correction operation of the
For example, when the
Next, an image for comparison with the projected image is obtained from the photographed image subjected to the blur correction.
投影画像と比較可能な画像を求めるためには、先ず、キャリブレーション手段105の歪補正キャリブレーション手段109で得られた変換行列を用いて歪補正手段112において画像を変換する(ステップST4)。次に、色補正手段113において、歪補正手段112で求めた画像の各画素値をカラーキャリブレーション手段110で得られた変換パラメータを用いて変換する(ステップST5)。尚、カラーキャリブレーション手段110では、後述する図13に示すような色相と明度の誤差を格納したテーブルが求められる。色補正手段113は、このテーブルを用いて色補正を行う。先ず、撮影画像の各画素値をRGBからHSVに変換する。そして、彩度が閾値よりも低い画素と閾値よりも高い画素に分け、彩度が閾値よりも低い画素の画素値は明度テーブルを参照して明度を補正する(テーブルに格納された誤差を加算する)。彩度が閾値よりも高いときは、色相テーブルを用いて色相を補正する(テーブルに格納された誤差を加算する)。
In order to obtain an image that can be compared with the projected image, first, the
そして、差分画像抽出手段114において投影画像と上記で求めた画像との差分を求める(ステップST6)。差分画像は、撮影画像および投影画像をそれぞれHSVに変換し、先ず、彩度がある閾値以上の画素については色相の差分を求め、差分がある閾値の範囲内に入っていれば同一画素とみなし、差分画像の対応する画素値を0とする。上記差分が閾値以上であれば差分画像の対応する画素値を1とする。彩度が閾値以下の場合は、明度の差分を求め、差分がある閾値の範囲内に入っていれば同一画素とみなし、差分画像の対応する画素値を0とする。上記差分が閾値以上であれば差分画像の対応する画素値を1とする。
尚、色相以外にも、彩度、明度を組み合わせても良い。
Then, the difference image extraction means 114 obtains the difference between the projection image and the image obtained above (step ST6). For the difference image, the captured image and the projection image are converted into HSV, respectively. First, a hue difference is obtained for pixels having a saturation greater than or equal to a threshold, and if the difference is within a certain threshold, it is regarded as the same pixel. The corresponding pixel value of the difference image is set to 0. If the difference is greater than or equal to the threshold, the corresponding pixel value of the difference image is set to 1. When the saturation is less than or equal to the threshold value, the brightness difference is obtained. If the difference falls within a certain threshold range, the pixels are regarded as the same pixel, and the corresponding pixel value of the difference image is set to 0. If the difference is greater than or equal to the threshold, the corresponding pixel value of the difference image is set to 1.
In addition to hue, saturation and brightness may be combined.
以上の処理を行うことで、例えば、図7に示すように、投影画像501と変換後の撮影画像502の差分画像503を求めれば、手の領域を抽出することが可能となる。但し、ノイズによる影響を考慮し、上記差分画像から画素を連結した領域の中で最大の領域を手領域とする。
By performing the above processing, for example, as shown in FIG. 7, if a
次に、以上で求めた手領域から指先検出手段107において指先を検出する(ステップST7)。
図8は、指先検出手段107の動作を示すフローチャートである。
先ず、求めた手領域を距離変換処理により、手領域を距離画像に変換する(ステップST71)。ここで、距離変換処理は、画像中のオブジェクトの各画素値を、そこから背景への最短距離に置き換える変換である。距離の概念としては最も単純な市街地距離(4連結距離)とチェス盤距離(8連結距離)がよく使われる。
ここでは、市街地距離を用いたアルゴリズムを記す。
Next, the
FIG. 8 is a flowchart showing the operation of the
First, the obtained hand region is converted into a distance image by distance conversion processing (step ST71). Here, the distance conversion process is a conversion in which each pixel value of the object in the image is replaced with the shortest distance from the background to the background. As the concept of distance, the simplest urban distance (4 connecting distances) and chessboard distance (8 connecting distances) are often used.
Here, an algorithm using city distance is described.
〈ステップ1〉入力画像を二値化した画像fi,jをDi,jとし、更に次式(4)のように変換する。
〈ステップ2〉初期化した画像を左上から右下に向かって走査し、次式(5)に示す規則で逐次D’i,jを更新する。
〈ステップ3〉ステップ2で得られたD”i,jに対して、右下から左上に向かって走査し、次式(6)に示す規則で逐次D”i,jを更新する。
得られたDが距離画像となる。
<Step 1> The image f i, j obtained by binarizing the input image is set to D i, j and further converted as in the following equation (4).
<Step 2> The initialized image is scanned from the upper left to the lower right, and D ′ i, j is sequentially updated according to the rule shown in the following equation (5).
<Step 3> D ″ i, j obtained in Step 2 is scanned from the lower right to the upper left, and D ″ i, j is sequentially updated according to the rule shown in the following equation (6).
The obtained D becomes a distance image.
以上で求めた距離画像から画素値(距離)が最大となる座標を手領域の重心(xg,yg)とする(ステップST72)。ここで、手領域抽出手段106で抽出した手領域は、図9の601に示すようにポインティングする指が伸びた状態であると仮定すると、図9の602に示すように楕円で近似できる。このとき、楕円の長辺とy軸とのなす角度θ(603)を求め、長辺とy軸が合うように楕円を回転させたときのy座標の最大値を持つ画素が指先の座標となる。 The coordinate at which the pixel value (distance) is maximum from the distance image obtained above is set as the center of gravity (xg, yg) of the hand region (step ST72). If the hand region extracted by the hand region extraction means 106 is assumed to be in a state where the pointing finger is extended as indicated by 601 in FIG. 9, it can be approximated by an ellipse as indicated by 602 in FIG. At this time, an angle θ (603) between the long side of the ellipse and the y-axis is obtained, and the pixel having the maximum y-coordinate when the ellipse is rotated so that the long side and the y-axis match is the coordinate of the fingertip. Become.
この長辺とy軸とのなす角度を求めるために次式(7)で表すモーメント特徴を求める(ステップST73)。
よって式(7)においてM11、M20、M02を求め、式(8)においてθを求める(ステップST74)。
In order to obtain the angle between the long side and the y-axis, a moment feature represented by the following equation (7) is obtained (step ST73).
Therefore, M 11 , M 20 , and M 02 are obtained in equation (7), and θ is obtained in equation (8) (step ST74).
次に、楕円の長辺とy軸が合うように求めたθを用いて回転させ(ステップST75)、更に、y座標が最大となる点を求め、回転前の座標値を指先の座標とする(ステップST76)。即ち、この座標値をユーザが指示した位置と判定する。以上で求めた座標値をポインティング手段108に渡し、ポインティング処理することにより投影画像をユーザが直接操作可能となる(ステップST8)。 Next, rotation is performed using θ obtained so that the long side of the ellipse and the y axis coincide with each other (step ST75). Further, a point where the y coordinate is maximum is obtained, and the coordinate value before the rotation is used as the coordinate of the fingertip. (Step ST76). That is, the coordinate value is determined as the position designated by the user. The coordinate values obtained as described above are transferred to the pointing means 108 and subjected to the pointing process, whereby the user can directly operate the projection image (step ST8).
次に、キャリブレーション手段105の動作について図10から図13を用いて説明する。
図10は、キャリブレーション手段105の動作を説明するためのフローチャートである。
図11は、歪補正キャリブレーション手段109の動作を示す説明図である。
図12は、カラーキャリブレーション手段110の動作を示す説明図である。
図13は、カラーキャリブレーション手段110で求める色の変換テーブルの説明図である。
Next, the operation of the
FIG. 10 is a flowchart for explaining the operation of the calibration means 105.
FIG. 11 is an explanatory diagram showing the operation of the distortion correction calibration means 109.
FIG. 12 is an explanatory diagram showing the operation of the
FIG. 13 is an explanatory diagram of a color conversion table obtained by the
本発明のポインティング装置は、撮影画像を前述の通り投影画像と比較可能とするために撮影画像の歪補正と、色補正を行う必要がある。このときの歪補正パラメータと色補正パラメータを求めるためにそれぞれのキャリブレーションを行う。
先ず、映像出力手段101で、図11の701に示すようなグリッドをプロジェクタ200を通して投影し(ステップST101)、その投影画像をカメラ300を介して画像入力手段103で取得する(ステップST102)。次に、撮影された画像を歪補正キャリブレーション手段109に入力し、歪補正パラメータを求めるために、撮影画像からグリッドの格子点を求める(ステップST103)。格子点は、例えば、辻三郎、除剛著、「3次元ビジョン」、pp.36−37,共立出版、1999年にあるようなSUSANオペレータなどのコーナー検出手法を用いて検出する。
以上で求めた撮影画像中の格子点座標は、ビデオメモリ102に格納されている投影画像(グリッド画像)の各格子点と対応付けられている。またグリッド画像の各格子点の座標は既知である。
The pointing device of the present invention needs to perform distortion correction and color correction of the captured image so that the captured image can be compared with the projected image as described above. Each calibration is performed in order to obtain the distortion correction parameter and the color correction parameter at this time.
First, the
The lattice point coordinates in the captured image obtained as described above are associated with each lattice point of the projection image (grid image) stored in the
撮影画像中の格子点座標を(xc,yc)、投影画像上の格子点座標を(xo,yo)とすると、次式が成り立つ。
式(11)から、hはBTBの最小固有値に対応する固有ベクトルとして求めることができる。
When the lattice point coordinates in the captured image are (xc, yc) and the lattice point coordinates on the projection image are (xo, yo), the following equation is established.
From Expression (11), h can be obtained as an eigenvector corresponding to the minimum eigenvalue of B T B.
次に、映像出力手段101で、図12の801に示すようなカラーパターンをプロジェクタ200を通して投影し(ステップST105)、その投影画像をカメラ300を介して画像入力手段103で取得する(ステップST106)。そして、その画像をカラーキャリブレーション手段110に入力し、色調変化を計測する(ステップST107)。ここで、カラーパターン801は、例えば、色相を9分割したときの代表色と白、グレー、黒で構成されているとする。つまり、9色は一定範囲の色相の色を代表するものであるとする。
Next, the video output means 101 projects a color pattern as indicated by
カラーキャリブレーション手段110では、先ず、歪補正キャリブレーション手段109で求めた変換行列を用いて歪補正手段112と同様に撮影画像の歪補正を行い、ビデオメモリ102に格納されているカラーパターン801の各色の領域に対応する撮影画像の領域の画素値(RGBの値)の平均を求める。次に、求めた平均値(RGBの値)をHSVに変換し、ビデオメモリ102に格納されているオリジナルの9色の色相との差分を求め、図13の色相テーブル901に格納する。
同様に、カラーパターン801の白、グレー、黒の領域に対応する撮影画像の領域の画素値(RGBの値)の平均を求め、求めた値の明度を求め、ビデオメモリ102に格納されているオリジナルの白、グレー、黒の明度との差分を求め、図13の明度テーブル902に格納する。
このように、キャリブレーション手段105を設けることにより、投影画像と撮影画像との差分画像を適切に求めることが可能となり、手領域を正確に抽出可能となる。
In the
Similarly, the average of the pixel values (RGB values) of the photographed image areas corresponding to the white, gray, and black areas of the
As described above, by providing the
以上のように、実施の形態1のポインティング装置によれば、任意の投影画像を投影する投影手段と、投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、撮影手段で撮影された撮影画像と、投影画像との差分画像に基づいて、撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、指示部領域抽出手段で抽出された指示部の領域に基づいて、指示部が投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたので、投影画像中の指示位置を正確かつ容易に検出することができる。 As described above, according to the pointing device of the first embodiment, the projection unit that projects an arbitrary projection image, the imaging unit that projects an image that is projected by the projection unit and includes an instruction unit, and the imaging unit Based on a difference image between the photographed captured image and the projected image, an instruction unit region extracting unit that extracts an instruction unit region included in the photographed image, and an instruction unit region extracted by the instruction unit region extracting unit On the basis of this, it is provided with the indicated position detecting means for detecting which position of the projected image the pointing unit is pointing to, so that the indicated position in the projected image can be detected accurately and easily.
また、実施の形態1のポインティング装置によれば、指示部領域抽出手段は、撮影画像に対して、画像のぶれを補正するぶれ補正手段と、撮影画像に対して、画像の歪みを補正する歪補正手段と、撮影画像に対して、画像の色を補正する色補正手段とを備え、これら各補正手段によって補正された撮影画像と投影画像との差分画像を取得するようにしたので、指示部の領域を正確に抽出することができ、その結果、投影画像中の指示位置を正確に求めることができる。 In addition, according to the pointing device of the first embodiment, the instruction area extraction unit includes a shake correction unit that corrects image blur for a captured image, and a distortion that corrects image distortion for the captured image. Since the correction means and the color correction means for correcting the color of the image with respect to the captured image are provided, and the difference image between the captured image and the projection image corrected by each of the correction means is acquired, the instruction unit Can be accurately extracted, and as a result, the indicated position in the projection image can be accurately obtained.
また、実施の形態1のポインティング装置によれば、投影画像として格子画像を用い、格子画像の撮影画像の格子点と、投影画像の格子点との関係に基づいて、歪補正パラメータを算出する歪補正キャリブレーション手段を備え、歪補正手段は、歪補正パラメータに基づいて撮影画像の歪みを補正するようにしたので、画像の歪みを良好に補正することができ、従って、投影画像中の指示位置を正確に求めることができる。 Further, according to the pointing device of the first embodiment, a distortion image is used as a projection image, and the distortion correction parameter is calculated based on the relationship between the lattice point of the captured image of the lattice image and the lattice point of the projection image. Since the correction calibration means is provided and the distortion correction means corrects the distortion of the photographed image based on the distortion correction parameter, the distortion of the image can be corrected favorably. Can be obtained accurately.
また、実施の形態1のポインティング装置によれば、投影画像としてカラーパターンを用い、カラーパターンの撮影画像の色情報と、投影画像の色情報との関係に基づいて、色補正パラメータを算出するカラーキャリブレーション手段を備え、色補正手段は、色補正パラメータに基づいて撮影画像の色補正を行うようにしたので、撮影画像に対する色補正を良好に行うことができ、従って、投影画像中の指示位置を正確に求めることができる。 Further, according to the pointing device of the first embodiment, a color pattern is used as a projection image, and the color correction parameter is calculated based on the relationship between the color information of the captured image of the color pattern and the color information of the projection image. Since the calibration unit is provided and the color correction unit performs color correction of the captured image based on the color correction parameter, it is possible to perform color correction on the captured image satisfactorily. Can be obtained accurately.
また、実施の形態1のポインティング装置によれば、投影画像として画像中の位置を示すマーカを含む画像を用い、ぶれ補正手段は、マーカを含む画像の撮影画像におけるマーカの位置と、投影画像のマーカの位置座標に基づいて撮影画像の投影ぶれを補正するようにしたので、例えば、電車の中など、定期的に振動がある場所での手持ちの使用であっても画像のぶれを良好に補正することができ、このような使用状態でも確実に指示位置の検出を行うことができる。 Further, according to the pointing device of the first embodiment, an image including a marker indicating a position in the image is used as the projection image, and the blur correction unit is configured to detect the position of the marker in the captured image of the image including the marker and the projection image. Corrected the image blurring based on the marker position coordinates, so that even if it is handheld in places where there is periodic vibration, such as in a train, the image blurring can be corrected well. Thus, the pointing position can be reliably detected even in such a use state.
また、実施の形態1のポインティング装置によれば、指示位置検出手段は、指示部の領域を距離画像変換し、求めた重心座標を中心とした楕円で指示部の領域を近似し、楕円の長辺の角度を求めることにより、指示位置を検出するようにしたので、指示位置を確実に検出することができる。 In addition, according to the pointing device of the first embodiment, the pointing position detecting unit performs distance image conversion on the pointing area, approximates the pointing area with an ellipse centered on the obtained barycentric coordinates, and calculates the length of the ellipse. Since the designated position is detected by obtaining the angle of the side, the designated position can be reliably detected.
実施の形態2.
実施の形態2は、所定間隔で手領域を抽出し易くするための単色の背景を表示し、そのときに手領域抽出を可能とする実施形態である。
図14は、実施の形態2に示すポインティング装置の構成図である。
図において、ポインティング装置は、ポインティング制御装置100aとプロジェクタ200とカメラ300とからなり、プロジェクタ200とカメラ300とは実施の形態1と同様である。ポインティング制御装置100aは、映像出力手段101、ビデオメモリ102、画像入力手段103、フレームメモリ104、キャリブレーション手段105a、手領域抽出手段106、指先検出手段107、ポインティング手段108、同期手段115からなり、キャリブレーション手段105aにおいて背景色決定手段116が追加された点と同期手段115が設けられている構成以外は実施の形態1と同様である。
同期手段115は、カメラ撮影とプロジェクタの投影のタイミングを一致させるための手段である。また、キャリブレーション手段105aにおける背景色決定手段116は、手領域抽出の際に用いる背景色を決定する手段である。
Embodiment 2. FIG.
The second embodiment is an embodiment in which a monochrome background for facilitating extraction of hand regions at a predetermined interval is displayed and hand region extraction is possible at that time.
FIG. 14 is a configuration diagram of the pointing device shown in the second embodiment.
In the figure, the pointing device includes a
Synchronizing means 115 is means for matching the timing of camera shooting with the projection of the projector. Further, the background color determining means 116 in the calibration means 105a is a means for determining the background color used for hand region extraction.
次に、実施の形態2のポインティング装置の動作について説明する。
本実施の形態では、図15に示すように、所定フレーム間隔で、通常画像表示のフレームの間に単色画像表示のフレームを挿入し、単色画像表示のタイミングで手領域を検出する。
図16は、ポインティング処理の動作を説明するためのフローチャートである。
同期手段115は、カメラ300のフレームカウントを用いてプロジェクタ200の描画タイミングとカメラ300の撮影タイミングを同期させる。映像出力手段101は、カメラ300のフレームカウントをチェックし(ステップST201)、カウント数が例えば次の条件を満たしたときに背景画像を出力する(ステップST202、203)。
If count mod N =0 (12)
上式(12)は、Nフレーム間隔で背景画像を出力することを意味する。
Next, the operation of the pointing device according to the second embodiment will be described.
In the present embodiment, as shown in FIG. 15, a monochrome image display frame is inserted between normal image display frames at a predetermined frame interval, and a hand region is detected at the timing of monochrome image display.
FIG. 16 is a flowchart for explaining the operation of the pointing process.
The
If count mod N = 0 (12)
The above equation (12) means that a background image is output at intervals of N frames.
上記ステップST202において式(12)の条件を満たせば、手領域を求めるための背景画像をプロジェクタ200から投影し、同時に画像入力手段103を介して画像を入力する(ステップST203)。
以降の処理は実施の形態1と同様に、入力画像のぶれ補正を行い(ステップST204)、歪補正を行い(ステップST205)、色補正を行い(ステップST206)、差分画像を抽出し(ステップST207)、指先検出を行い(ステップST208)、ポインティング処理を行う(ステップST209)。
また、ステップST202で、式(12)が成立しなければ、通常の投影画像をプロジェクタ200で投影する(ステップST210)。
If the condition of Expression (12) is satisfied in step ST202, a background image for obtaining a hand area is projected from the
In the subsequent processing, as in the first embodiment, blur correction of the input image is performed (step ST204), distortion correction is performed (step ST205), color correction is performed (step ST206), and a difference image is extracted (step ST207). ), Fingertip detection is performed (step ST208), and pointing processing is performed (step ST209).
On the other hand, if Expression (12) is not satisfied in step ST202, a normal projection image is projected by the projector 200 (step ST210).
次に、キャリブレーション手段105aの背景色決定手段116の動作を説明する。
図17は、背景色決定手段116の動作を説明するためのフローチャートである。
ここで、背景色決定手段116では、予め肌色の情報を持っていることとする。
先ず、プロジェクタ200からは何も投影せず、かつ、指示部となる手をカメラ300の視野に入れない状態で画像を撮影し、その時の平均色相、平均彩度、平均明度を求める(ステップST301〜ステップST303)。即ち、プロジェクタ200が投影する実際の背景の色の値を求める。そして、彩度が閾値以下であるか否かをチェックし(ステップST304)、もし、彩度が閾値より大きな値である場合は肌色と対極にある色相の範囲でステップST301で求めた色相との差分が大きい色相を求める(ステップST305)。具体的には、色相は0〜2πの範囲で表されることから、肌色の色相をSHとすると対極にある色相CSHは次式で求めることができる。
CSH=SH+π (13)
ステップST301で求めた色相をBHとすると、求める色相THは次式で求める。
FIG. 17 is a flowchart for explaining the operation of the background
Here, it is assumed that the background color determination means 116 has skin color information in advance.
First, an image is shot without projecting anything from the
CSH = SH + π (13)
If the hue obtained in step ST301 is BH, the obtained hue TH is obtained by the following equation.
ステップST304で彩度が閾値以下であった場合は、求めた平均明度をチェックし(ステップST306)、明度が閾値より大きいの場合はステップST305を実行し、閾値以下である場合は、背景色を黒に決定し、差分画像抽出手段114において明度で差分とるように指示するフラグを立てる(ステップST307)。
If the saturation is not more than the threshold value in step ST304, the obtained average brightness is checked (step ST306). If the brightness is greater than the threshold value, step ST305 is executed. If the saturation is not more than the threshold value, the background color is selected. The flag is determined to be black, and the difference
以上のように数フレーム間隔で単純な背景画像を表示し、その背景画像と撮影画像を比較することで手領域を抽出することにより、手領域抽出にかかる処理量を低減することができる。 As described above, a simple background image is displayed at intervals of several frames, and a hand region is extracted by comparing the background image with a captured image, thereby reducing the amount of processing required for hand region extraction.
尚、上記実施の形態1、2では、指示部を人間の手としたが、投影画像とは異なる物体であれば、手以外のものであっても適用可能である。但し、指示位置を一意に検出するために、先端部が尖った物体が望ましい。 In the first and second embodiments, the pointing unit is a human hand. However, any object other than the hand can be applied as long as the object is different from the projected image. However, an object with a sharp tip is desirable in order to uniquely detect the indicated position.
以上のように、実施の形態2のポインティング装置によれば、投影画像と撮影画像との同期をとる同期手段と、指示部の色情報に基づいて背景色を決定する背景色決定手段とを備え、投影手段は、背景色決定手段で決定された背景色の特定画像を所定間隔で投影すると共に、指示部領域抽出手段は、所定間隔で投影される特定画像と、特定画像に同期した撮影画像とに基づいて指示部領域の抽出を行うようにしたので、指示部領域の抽出にかかる処理量を低減することが可能で、その結果、ポインティング装置としての処理の軽減化を図ることができる。 As described above, the pointing device according to the second embodiment includes the synchronization unit that synchronizes the projection image and the captured image, and the background color determination unit that determines the background color based on the color information of the instruction unit. The projecting unit projects the specific image of the background color determined by the background color determining unit at a predetermined interval, and the pointing unit region extracting unit is configured to project the specific image projected at the predetermined interval and a captured image synchronized with the specific image. Therefore, it is possible to reduce the amount of processing required for the extraction of the instruction area, and as a result, it is possible to reduce the processing as the pointing device.
また、実施の形態2のポインティング装置によれば、背景色決定手段は、肌色情報を有し、特定画像を、投影手段が投影する背景の色と肌色とに基づいて決定するようにしたので、指示部が人間の手である場合の指示部領域を正確に抽出することが可能であるため、指示位置の検出を確実に行うことができる。 Further, according to the pointing device of the second embodiment, the background color determination unit has skin color information, and the specific image is determined based on the background color and the skin color projected by the projection unit. Since it is possible to accurately extract the pointing unit region when the pointing unit is a human hand, it is possible to reliably detect the pointing position.
また、実施の形態1,2のポインティング装置によれば、指示部を人間の手としたので、画像中の位置を指定する手段として特別な器具等が不要であり、利便性の高いポインティング装置を得ることができる。 Further, according to the pointing device of the first and second embodiments, since the pointing unit is a human hand, a special instrument or the like is not required as means for designating the position in the image, and a highly convenient pointing device is provided. Obtainable.
100,100a ポインティング制御装置、101 映像出力手段、103 画像入力手段、105,105a キャリブレーション手段、106 手領域抽出手段、107 指先検出手段、108 ポインティング手段、109 歪補正キャリブレーション手段、110 カラーキャリブレーション手段、111 ぶれ補正手段、112 歪補正手段、113 色補正手段、114 差分画像抽出手段、115 同期手段、116 背景色決定手段、200 プロジェクタ、300 カメラ、301a〜301d マーカ、601 手領域、602 楕円、701 グリッド、801 カラーパターン、901 色相テーブル、902 明度テーブル。 100, 100a pointing control device, 101 video output means, 103 image input means, 105, 105a calibration means, 106 hand area extraction means, 107 fingertip detection means, 108 pointing means, 109 distortion correction calibration means, 110 color calibration Means, 111 blur correction means, 112 distortion correction means, 113 color correction means, 114 difference image extraction means, 115 synchronization means, 116 background color determination means, 200 projector, 300 camera, 301a to 301d marker, 601 hand area, 602 ellipse , 701 grid, 801 color pattern, 901 hue table, 902 brightness table.
Claims (9)
前記投影手段によって投影され、かつ、指示部を含む画像を撮影する撮影手段と、
前記撮影手段で撮影された撮影画像と、前記投影画像との差分画像に基づいて、前記撮影画像に含まれる指示部の領域を抽出する指示部領域抽出手段と、
前記指示部領域抽出手段で抽出された指示部の領域に基づいて、当該指示部が前記投影画像のどの位置を指しているかを検出する指示位置検出手段とを備えたポインティング装置。 Projection means for projecting an arbitrary projection image;
Photographing means for photographing an image projected by the projecting means and including an instruction unit;
An instruction area extraction unit that extracts an area of the instruction unit included in the captured image based on a difference image between the captured image captured by the imaging unit and the projection image;
A pointing device comprising: pointing position detecting means for detecting which position of the projection image the pointing section points to based on the area of the pointing section extracted by the pointing section area extracting means.
撮影画像に対して、画像のぶれを補正するぶれ補正手段と、
前記撮影画像に対して、画像の歪みを補正する歪補正手段と、
前記撮影画像に対して、画像の色を補正する色補正手段とを備え、
これら各補正手段によって補正された撮影画像と投影画像との差分画像を取得することを特徴とする請求項1記載のポインティング装置。 The instruction area extraction means
Blur correction means for correcting image blur for a captured image;
Distortion correction means for correcting image distortion for the captured image;
Color correction means for correcting the color of the image with respect to the captured image;
The pointing device according to claim 1, wherein a difference image between the captured image and the projection image corrected by each of the correction units is acquired.
歪補正手段は、前記歪補正パラメータに基づいて撮影画像の歪みを補正することを特徴とする請求項2記載のポインティング装置。 Using a lattice image as a projection image, comprising distortion correction calibration means for calculating a distortion correction parameter based on the relationship between the lattice point of the captured image of the lattice image and the lattice point of the projection image,
The pointing device according to claim 2, wherein the distortion correction unit corrects distortion of the captured image based on the distortion correction parameter.
色補正手段は、前記色補正パラメータに基づいて撮影画像の色補正を行うことを特徴とする請求項2記載のポインティング装置。 Using a color pattern as a projection image, and comprising color calibration means for calculating a color correction parameter based on the relationship between the color information of the captured image of the color pattern and the color information of the projection image,
The pointing device according to claim 2, wherein the color correction unit performs color correction of the captured image based on the color correction parameter.
指示部の色情報に基づいて背景色を決定する背景色決定手段とを備え、
投影手段は、前記背景色決定手段で決定された背景色の特定画像を所定間隔で投影すると共に、指示部領域抽出手段は、前記所定間隔で投影される特定画像と、当該特定画像に同期した撮影画像とに基づいて指示部領域の抽出を行うことを特徴とする請求項1から請求項6のうちのいずれか1項記載のポインティング装置。 Synchronization means for synchronizing the projected image and the captured image;
A background color determining means for determining a background color based on the color information of the instruction unit;
The projecting unit projects the specific image of the background color determined by the background color determining unit at a predetermined interval, and the instruction area extraction unit synchronizes with the specific image projected at the predetermined interval and the specific image. The pointing device according to claim 1, wherein an instruction area is extracted based on a photographed image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006341243A JP2008152622A (en) | 2006-12-19 | 2006-12-19 | Pointing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2006341243A JP2008152622A (en) | 2006-12-19 | 2006-12-19 | Pointing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2008152622A true JP2008152622A (en) | 2008-07-03 |
Family
ID=39654716
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2006341243A Pending JP2008152622A (en) | 2006-12-19 | 2006-12-19 | Pointing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2008152622A (en) |
Cited By (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010258753A (en) * | 2009-04-24 | 2010-11-11 | Kyocera Corp | Mobile terminal and projection program |
| JP2011019018A (en) * | 2009-07-07 | 2011-01-27 | Canon Inc | Image projection apparatus and method for controlling the same |
| JP2011022945A (en) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | Fingertip-manipulation-type information providing system, program, and storage medium |
| JP2011118533A (en) * | 2009-12-01 | 2011-06-16 | Tokyo Denki Univ | Device and method for inputting touch position |
| EP2364013A2 (en) | 2010-03-04 | 2011-09-07 | Sony Corporation | Information processing apparatus, method and program for imaging device |
| JP2011227600A (en) * | 2010-04-16 | 2011-11-10 | Seiko Epson Corp | Position detection system, its control method and program |
| WO2011152166A1 (en) * | 2010-05-31 | 2011-12-08 | 株式会社Pfu | Overhead scanner apparatus, image processing method, and program |
| JP2012113564A (en) * | 2010-11-25 | 2012-06-14 | Fujitsu Ltd | Indication means shape acquisition device, indication means shape acquisition program, and projection system |
| JP2012531652A (en) * | 2009-06-25 | 2012-12-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gesture recognition using chroma key |
| WO2012176315A1 (en) * | 2011-06-23 | 2012-12-27 | 富士通株式会社 | Information processing device, input control method, and input control program |
| CN102929434A (en) * | 2011-08-12 | 2013-02-13 | 群丰科技股份有限公司 | Projection system and image processing method thereof |
| US8395600B2 (en) | 2009-01-30 | 2013-03-12 | Denso Corporation | User interface device |
| WO2013111228A1 (en) * | 2012-01-24 | 2013-08-01 | 日本電気株式会社 | Marker detection device and marker detection method |
| JP2014006594A (en) * | 2012-06-21 | 2014-01-16 | Fujitsu Ltd | Character input program, information processor, and character input method |
| JP2014511608A (en) * | 2011-02-25 | 2014-05-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | Determination of model parameters based on model transformation of objects |
| US8884985B2 (en) | 2011-02-01 | 2014-11-11 | Kabushiki, Kaisha Toshiba | Interface apparatus, method, and recording medium |
| CN104345993A (en) * | 2013-07-25 | 2015-02-11 | 现代自动车株式会社 | Touch point recognition method of touch screen and system performing same |
| JP2017027311A (en) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
| JPWO2015118756A1 (en) * | 2014-02-10 | 2017-03-23 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| KR101873257B1 (en) * | 2016-12-27 | 2018-07-04 | 주식회사 인텔리빅스 | Apparatus for Controlling Camera and Driving Method Thereof |
| JP2018534643A (en) * | 2015-09-16 | 2018-11-22 | グーグル エルエルシー | Touch screen hover detection in augmented and / or virtual reality environments |
| US10627962B2 (en) | 2017-03-24 | 2020-04-21 | Seiko Epson Corporation | Projector |
| JPWO2021095768A1 (en) * | 2019-11-15 | 2021-05-20 |
-
2006
- 2006-12-19 JP JP2006341243A patent/JP2008152622A/en active Pending
Cited By (41)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8395600B2 (en) | 2009-01-30 | 2013-03-12 | Denso Corporation | User interface device |
| JP2010258753A (en) * | 2009-04-24 | 2010-11-11 | Kyocera Corp | Mobile terminal and projection program |
| JP2012531652A (en) * | 2009-06-25 | 2012-12-10 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gesture recognition using chroma key |
| US8220936B2 (en) | 2009-07-07 | 2012-07-17 | Canon Kabushiki Kaisha | Image projection apparatus with operation image generation based on distance to the projection surface, and method for controlling the same |
| JP2011019018A (en) * | 2009-07-07 | 2011-01-27 | Canon Inc | Image projection apparatus and method for controlling the same |
| JP2011022945A (en) * | 2009-07-17 | 2011-02-03 | Dainippon Printing Co Ltd | Fingertip-manipulation-type information providing system, program, and storage medium |
| JP2011118533A (en) * | 2009-12-01 | 2011-06-16 | Tokyo Denki Univ | Device and method for inputting touch position |
| EP2364013A2 (en) | 2010-03-04 | 2011-09-07 | Sony Corporation | Information processing apparatus, method and program for imaging device |
| US10015392B2 (en) | 2010-03-04 | 2018-07-03 | Sony Corporation | Information processing apparatus, information processing method, and program |
| US10659681B2 (en) | 2010-03-04 | 2020-05-19 | Sony Corporation | Information processing apparatus, information processing method, and program |
| US11190678B2 (en) | 2010-03-04 | 2021-11-30 | Sony Corporation | Information processing apparatus, information processing method, and program |
| EP3996361A1 (en) | 2010-03-04 | 2022-05-11 | Sony Group Corporation | Information processing apparatus, information processing method, and program |
| US9516206B2 (en) | 2010-03-04 | 2016-12-06 | Sony Corporation | Information processing apparatus, information processing method, and program |
| US10306136B2 (en) | 2010-03-04 | 2019-05-28 | Sony Corporation | Information processing apparatus, information processing method, and program |
| US9049376B2 (en) | 2010-03-04 | 2015-06-02 | Sony Corporation | Information processing apparatus, information processing method, and program |
| EP2364013A3 (en) * | 2010-03-04 | 2014-01-29 | Sony Corporation | Information processing apparatus, method and program for imaging device |
| JP2011227600A (en) * | 2010-04-16 | 2011-11-10 | Seiko Epson Corp | Position detection system, its control method and program |
| JPWO2011152166A1 (en) * | 2010-05-31 | 2013-07-25 | 株式会社Pfu | Overhead scanner device, image processing method, and program |
| CN102918828B (en) * | 2010-05-31 | 2015-11-25 | 株式会社Pfu | Overhead scanner device and image processing method |
| CN102918828A (en) * | 2010-05-31 | 2013-02-06 | 株式会社Pfu | Top-mounted scanner device, image processing method and program |
| WO2011152166A1 (en) * | 2010-05-31 | 2011-12-08 | 株式会社Pfu | Overhead scanner apparatus, image processing method, and program |
| JP2012113564A (en) * | 2010-11-25 | 2012-06-14 | Fujitsu Ltd | Indication means shape acquisition device, indication means shape acquisition program, and projection system |
| US8884985B2 (en) | 2011-02-01 | 2014-11-11 | Kabushiki, Kaisha Toshiba | Interface apparatus, method, and recording medium |
| JP2014511608A (en) * | 2011-02-25 | 2014-05-15 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | Determination of model parameters based on model transformation of objects |
| US9418285B2 (en) | 2011-06-23 | 2016-08-16 | Fujitsu Limited | Information processing apparatus and input control method |
| WO2012176315A1 (en) * | 2011-06-23 | 2012-12-27 | 富士通株式会社 | Information processing device, input control method, and input control program |
| CN102929434B (en) * | 2011-08-12 | 2015-11-11 | 群丰科技股份有限公司 | Projection system and its image processing method |
| CN102929434A (en) * | 2011-08-12 | 2013-02-13 | 群丰科技股份有限公司 | Projection system and image processing method thereof |
| WO2013111228A1 (en) * | 2012-01-24 | 2013-08-01 | 日本電気株式会社 | Marker detection device and marker detection method |
| JP2014006594A (en) * | 2012-06-21 | 2014-01-16 | Fujitsu Ltd | Character input program, information processor, and character input method |
| CN104345993A (en) * | 2013-07-25 | 2015-02-11 | 现代自动车株式会社 | Touch point recognition method of touch screen and system performing same |
| CN104345993B (en) * | 2013-07-25 | 2018-11-09 | 现代自动车株式会社 | The touch point recognition methods of touch screen and the system for executing this method |
| JPWO2015118756A1 (en) * | 2014-02-10 | 2017-03-23 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
| JP2017027311A (en) * | 2015-07-21 | 2017-02-02 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
| JP2018534643A (en) * | 2015-09-16 | 2018-11-22 | グーグル エルエルシー | Touch screen hover detection in augmented and / or virtual reality environments |
| KR101873257B1 (en) * | 2016-12-27 | 2018-07-04 | 주식회사 인텔리빅스 | Apparatus for Controlling Camera and Driving Method Thereof |
| US10627962B2 (en) | 2017-03-24 | 2020-04-21 | Seiko Epson Corporation | Projector |
| JPWO2021095768A1 (en) * | 2019-11-15 | 2021-05-20 | ||
| WO2021095768A1 (en) * | 2019-11-15 | 2021-05-20 | 株式会社Nttドコモ | Information processing device |
| JP7344307B2 (en) | 2019-11-15 | 2023-09-13 | 株式会社Nttドコモ | information processing equipment |
| US12211227B2 (en) | 2019-11-15 | 2025-01-28 | Ntt Docomo, Inc. | Information processing apparatus |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2008152622A (en) | Pointing device | |
| JP6467787B2 (en) | Image processing system, imaging apparatus, image processing method, and program | |
| US8509482B2 (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
| US10264237B2 (en) | Image processing device | |
| WO2022179109A1 (en) | Projection correction method and apparatus, storage medium and electronic device | |
| JP5845834B2 (en) | Multiple image frame alignment method, scanning device, and computer-readable medium | |
| CN108668093A (en) | The generation method and device of HDR image | |
| US20150264324A1 (en) | Image processing device, image capture device, image processing method, and image processing program | |
| US20160034747A1 (en) | Recording medium, image processing method, and information terminal | |
| JP5817453B2 (en) | Scanning apparatus, image processing program, and fusion image generation method | |
| JPWO2010050206A1 (en) | Impersonation detection system, impersonation detection method, and impersonation detection program | |
| WO2014064870A1 (en) | Image processing device and image processing method | |
| JP2013228930A (en) | Subject area detection device, method and program for controlling the same, imaging device and display device | |
| US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
| JP5768673B2 (en) | Image processing apparatus and fusion image generation method | |
| CN115885314B (en) | Image processing method, device, equipment and storage medium | |
| JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
| CN109765990B (en) | Picture display control method and picture display control system | |
| JP6217225B2 (en) | Image collation device, image collation method and program | |
| US20180061135A1 (en) | Image display apparatus and image display method | |
| US11631381B2 (en) | Information processing apparatus, information processing method, and program for controlling input position in an overlap region | |
| CN115457055A (en) | Illuminance count value recognition method, electronic device and storage medium | |
| KR101444207B1 (en) | Uneven pattern image acquisition apparatus and method | |
| JP6696596B2 (en) | Image processing system, imaging device, image processing method and program | |
| JP2018031803A (en) | Projector device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080704 |