[go: up one dir, main page]

JP2006011965A - Image analysis apparatus, and program - Google Patents

Image analysis apparatus, and program Download PDF

Info

Publication number
JP2006011965A
JP2006011965A JP2004190075A JP2004190075A JP2006011965A JP 2006011965 A JP2006011965 A JP 2006011965A JP 2004190075 A JP2004190075 A JP 2004190075A JP 2004190075 A JP2004190075 A JP 2004190075A JP 2006011965 A JP2006011965 A JP 2006011965A
Authority
JP
Japan
Prior art keywords
area
determination
difference
hand
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004190075A
Other languages
Japanese (ja)
Inventor
Yuichi Kumazawa
雄一 熊澤
Takafumi Ito
隆文 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004190075A priority Critical patent/JP2006011965A/en
Publication of JP2006011965A publication Critical patent/JP2006011965A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image analysis apparatus and program that reliably discriminate a right hand or left hand with a simple algorithm without needing an operator. <P>SOLUTION: A present image is compared with a background image and a varied portion is extracted as a difference area D, thereby determining a center of gravity G of the difference area D, and a direction (declination ϕ), major axis radius Ra, and minor axis radius Rb of the difference area D (that is, a forearm including a hand) by elliptically approximating the difference area D (S110 to S180). When the difference area D is fully flat (Ra/Rb>Hr), a virtual elbow position P is determined on the basis of the center of gravity G and declination ϕ. From the virtual elbow position P, it is determined which of the left hand or right hand is imaged for obtaining the difference area D, and the position of a finger-tip is estimated from the decision results (S200 to S220). In other words, the decision of the left or right hand is made without analyzing the detail of the images (individual fingers or the like), so that the throughput is greatly reduced to reliably discriminate the right or left hand without being effected by a hand's state. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮像された画像が左手又は右手のいずれであるかを識別する画像解析装置およびプログラムに関する。   The present invention relates to an image analysis apparatus and a program for identifying whether a captured image is a left hand or a right hand.

従来より、操作者の手の状態を撮像し、その撮像した画像に基づいて特定される手の位置や動作から操作者の意図を判断して、その意図に沿った制御を実行する情報処理装置が知られている。この情報処理装置では、左右の手を識別する際に、親指の位置が手の重心位置より右にある時には左手、左にある時には右手と判断するように構成されている(例えば、特許文献1参照。)。   Conventionally, an information processing apparatus that captures the state of an operator's hand, determines the operator's intention from the position and operation of the hand specified based on the captured image, and executes control according to the intention It has been known. In this information processing apparatus, when the left and right hands are identified, the left hand is determined when the thumb is on the right side of the center of gravity of the hand, and the right hand is determined when the left hand is on the left (for example, Patent Document 1). reference.).

また、左右の手を識別する別の方法としては、左右の手に、互いに色の異なる手袋やリストバンドを装着する方法も知られている。
特開平7−175587号公報
As another method for identifying left and right hands, there is also known a method in which gloves and wristbands having different colors are attached to left and right hands.
Japanese Patent Laid-Open No. 7-175589

しかし、特許文献1に記載の情報処理装置では、親指が曲げられている場合や、親指の向きがカメラの撮像面とほぼ直交している場合には、親指の位置を特定することができず、左右の手を判別することができないという問題があった。また、親指を特定するためには、マッチングなどの処理を行わなければならず、膨大な処理量を必要とし、リアルタイム処理には適していないという問題もあった。   However, in the information processing apparatus described in Patent Document 1, the position of the thumb cannot be specified when the thumb is bent or when the orientation of the thumb is substantially orthogonal to the imaging surface of the camera. There was a problem that the left and right hands could not be distinguished. In addition, in order to specify the thumb, processing such as matching has to be performed, which requires a huge amount of processing and is not suitable for real-time processing.

更に、手袋やリストバンドを装着する手法は、操作者に余計な手間を取らせることになるため実用的ではないという問題があった。
本発明は、操作者の手を煩わせることなく、簡単なアルゴリズムにて左右の手を確実に識別する画像解析装置及びプログラムを提供することを目的とする。
Furthermore, there is a problem that the technique of wearing gloves and a wristband is not practical because it requires an operator to take extra time.
SUMMARY OF THE INVENTION An object of the present invention is to provide an image analysis apparatus and a program for reliably identifying left and right hands with a simple algorithm without bothering an operator.

上記目的を達成するためになされた本発明の画像解析装置では、差分領域抽出手段が、操作者の手を含む前腕の可動範囲を包含し且つ該操作者の前方に設定された撮像範囲を、該撮像範囲の幅方向の中心に前記操作者が位置するように上方から撮像した撮像画像を取り込み、その撮像画像と予め用意された背景画像とに基づき、両画像の互いに対応する画素毎に輝度の差分を求め、該差分が予め設定された差分判定しきい値以上である領域を差分領域として抽出する。すると、領域情報算出手段が、差分領域抽出手段にて抽出された差分領域の位置及び向きを少なくとも含んだ領域情報を算出し、その領域情報に基づいて、肘位置推定手段が、操作者の肘の位置を推定する。そして、この肘位置推定手段にて推定された仮想肘位置に従って、判定手段が、差分領域が操作者の左手又は右手のいずれを撮像したものであるかを判定する左右判定を行う。   In the image analysis apparatus of the present invention made to achieve the above object, the difference area extraction means includes an imaging range that includes the movable range of the forearm including the operator's hand and is set in front of the operator. A captured image captured from above is captured so that the operator is positioned at the center in the width direction of the imaging range, and brightness is determined for each corresponding pixel of both images based on the captured image and a background image prepared in advance. And an area where the difference is greater than or equal to a preset difference determination threshold is extracted as a difference area. Then, the area information calculation means calculates area information including at least the position and orientation of the difference area extracted by the difference area extraction means, and the elbow position estimation means calculates the elbow position of the operator based on the area information. Is estimated. Then, according to the virtual elbow position estimated by the elbow position estimation means, the determination means performs left / right determination for determining whether the difference area is an image of the left hand or the right hand of the operator.

このように、本発明では、親指といった局所的な部分に着目するのではなく、前腕全体に着目して、前腕の位置や向きなどから、前腕の付け根部分に当たる肘の位置を推定し、その推定された仮想肘位置を含むエリアによって左右の手を識別する。   In this way, in the present invention, instead of focusing on the local portion such as the thumb, focusing on the entire forearm, the position and orientation of the forearm are used to estimate the position of the elbow that hits the base of the forearm, and the estimation The left and right hands are identified by an area including the virtual elbow position.

従って、本発明によれば、手先(指)の状態の影響を受けることなく、確実に左右判定を行うことができる。
また、本発明では、画像の細部(個々の指等)を解析する必要がなく、処理量が大幅に削減されるため、リアルタイム処理が可能となると共に、撮像画像に乗ったノイズの影響を受けにくく、信頼性の高い判定を行うことができる。
Therefore, according to the present invention, it is possible to reliably perform the left / right determination without being affected by the state of the hand (finger).
In addition, in the present invention, it is not necessary to analyze the details of the image (such as individual fingers), and the processing amount is greatly reduced, so that real-time processing is possible and the influence of noise on the captured image is affected. It is difficult to make a highly reliable determination.

また、本発明では、撮像画像を差分判定しきい値にて2値化して処理しており、濃淡画像であれば処理することができるため、撮像画像を供給するカメラとして安価なものを用いたり、赤外線カメラを用いることができる。特に赤外線カメラを用いた場合には、日光や照明によって発生する影の影響を受けることがなく、より確実に左右判定を行うことができる。   Further, in the present invention, the captured image is binarized with the difference determination threshold value and processed, and if it is a grayscale image, it can be processed. Therefore, an inexpensive camera that supplies the captured image can be used. Infrared cameras can be used. In particular, when an infrared camera is used, the left / right determination can be performed more reliably without being affected by the shadow caused by sunlight or illumination.

ところで、領域情報算出手段は、具体的には、例えば、差分領域の重心、及び重心を中心とするモーメントの主軸が予め設定された基準軸に対してなす偏角を領域情報として算出するようにするように構成すればよい。   By the way, the area information calculation means specifically calculates, for example, the deviation angle formed by the center of the difference area and the principal axis of the moment centered on the center of gravity with respect to a preset reference axis as the area information. What is necessary is just to comprise so.

また、領域情報算出手段は、例えば、差分領域の重心、及び差分領域について最小2乗法により求めた回帰直線が予め設定された基準軸に対してなす偏角を領域情報として算出するように構成してもよい。   In addition, the region information calculation unit is configured to calculate, for example, the centroid of the difference region and the declination formed by the regression line obtained by the least square method for the difference region with respect to a preset reference axis as the region information. May be.

なお、基準軸は、例えば、撮像範囲の幅方向、或いは、幅方向とは直交する方向に沿って設定すればよい。
また、肘位置推定手段は、例えば、操作者の肘の可動範囲を表す仮想線と、領域情報が示す差分領域の重心を通り且つ差分領域の向きに沿った直線との交点を求め、この交点を仮想肘位置とするように構成すればよい。この場合、仮想線は、撮像画像の外部に設定されることになり、また、仮想線は、肘の可動範囲を近似するものであれば直線であっても曲線であってもよい。
The reference axis may be set, for example, along the width direction of the imaging range or a direction orthogonal to the width direction.
Further, the elbow position estimation means obtains, for example, an intersection between a virtual line representing the movable range of the operator's elbow and a straight line passing through the center of gravity of the difference area indicated by the area information and along the direction of the difference area. May be configured as the virtual elbow position. In this case, the virtual line is set outside the captured image, and the virtual line may be a straight line or a curved line as long as it approximates the movable range of the elbow.

そして、判定手段は、例えば、仮想肘位置が、撮像画像の前記幅方向の中心を通る中心線より、操作者から見て右側に設定された右手エリア、及び操作者からみて左側に設定された左手エリアのいずれに含まれるかにより左右判定を行うように構成することが考えられる。   In the determination unit, for example, the virtual elbow position is set on the left side as viewed from the operator and the right hand area set on the right side as viewed from the operator from the center line passing through the center in the width direction of the captured image. It can be considered that the left / right determination is performed depending on which of the left hand areas is included.

この場合、右手エリアと前記左手エリアとは互いに接していてもよいが、右手エリアと左手エリアとの間に、判定手段による判定を禁止する判定禁止エリアが設けられていてもよい。   In this case, the right hand area and the left hand area may be in contact with each other, but a determination prohibition area that prohibits determination by the determination means may be provided between the right hand area and the left hand area.

更に、判定手段は、具体的には、仮想肘位置が右手エリア内にある場合にカウントされる右手カウンタと、仮想肘位置が左手エリア内にある場合にカウントされる左手カウンタとを備え、両カウンタのカウント値の大小により左右判定を行うように構成してもよい。   Further, the determining means specifically includes a right hand counter that is counted when the virtual elbow position is in the right hand area, and a left hand counter that is counted when the virtual elbow position is in the left hand area. You may comprise so that left-right determination may be performed by the magnitude of the count value of a counter.

この場合、ノイズ等の影響により、仮想肘位置の算出結果に単発的な誤りが生じたとしても、それによって、直ちに判定結果が変化してしまうことがなく、安定した判定結果を提供することができる。   In this case, even if a single error occurs in the calculation result of the virtual elbow position due to the influence of noise or the like, it is possible to provide a stable determination result without immediately changing the determination result. it can.

また、判定手段は、右手カウンタ及び左手カウンタのうち、いずれか一方又は両方のカウント値が、予め設定された正規化しきい値に達すると、オーバーフロー防止のための両カウント値の正規化を行う正規化手段を備えていることが望ましい。   Further, the determination means is a normalizer that normalizes both count values to prevent overflow when one or both of the right hand counter and the left hand counter reach a preset normalization threshold value. It is desirable to provide a means for generating the data.

ところで、本発明の画像解析装置は、更に、差分領域抽出手段にて抽出された差分領域の円形度合を求め、該円形度合が予め設定された円形度合判定しきい値より大きい場合に、判定手段による左右判定を禁止する判定禁止手段を備えていてもよい。   By the way, the image analysis apparatus of the present invention further obtains the circularity degree of the difference area extracted by the difference area extraction means, and when the circularity degree is larger than a preset circularity degree determination threshold value, the determination means. There may be provided determination prohibiting means for prohibiting the left / right determination by.

つまり、差分領域の円形度合が高い場合、差分領域の方向を特定することが困難であり、誤った領域情報を算出する可能性が高いため、この場合の左右判定を禁止することにより、高い信頼性を維持することができる。   In other words, when the circularity of the difference area is high, it is difficult to specify the direction of the difference area, and there is a high possibility of calculating incorrect area information. Sex can be maintained.

なお、左右判定の禁止は、判定手段の動作を禁止してもよいし、肘位置推定手段による仮想肘位置の推定、或いは領域情報算出手段による領域情報の算出を禁止することで、結果として左右判定を禁止するように構成してもよい。   The prohibition of the right / left determination may prohibit the operation of the determination means, or by prohibiting the estimation of the virtual elbow position by the elbow position estimation means or the calculation of the area information by the area information calculation means. You may comprise so that determination may be prohibited.

また、本発明の画像解析装置は、領域情報算出手段にて算出された領域情報と、前記判定手段での判定結果とに基づいて、指先の位置を推定する指先位置推定手段を備えていてもよい。   The image analysis apparatus according to the present invention may further include a fingertip position estimation unit that estimates a fingertip position based on the region information calculated by the region information calculation unit and the determination result of the determination unit. Good.

つまり、本発明では、個々の指の認識を行っていないため、指先の位置情報を抽出することができないが、差分領域の領域情報と左右判定の判定結果とに基づいて簡単に推定することができる。即ち、差分領域の重心を通る偏角だけ傾いた直線に沿って、重心の位置から操作者から離れる側へ、予め設定された移動量だけ移動させた位置に設定することが考えられる。なお、移動量は、操作者について実測した結果を用いてもよいし、不特定多数の人について実測した平均値を用いる等してもよい。   In other words, in the present invention, the fingertip position information cannot be extracted because individual fingers are not recognized, but can be simply estimated based on the area information of the difference area and the determination result of the left / right determination. it can. That is, it is conceivable to set a position that is moved by a preset amount of movement from the position of the center of gravity to the side away from the operator along a straight line that is inclined by a declination passing through the center of gravity of the difference area. As the movement amount, a result obtained by actually measuring the operator may be used, or an average value measured by an unspecified number of people may be used.

ところで、上記画像解析装置を構成する各手段は、コンピュータを機能させるためのプログラムとして構成してもよい。
この場合、そのプログラムを、コンピュータが読み取り可能な記録媒体に記憶させ、その記憶させたプログラムを必要に応じてコンピュータシステムにロードして起動することにより用いることができる。なお、記録媒体は、持ち運び可能なものであってもよいし、コンピュータシステムに組み込まれたものであってもよい。また、プログラムは、ネットワークを介してコンピュータシステムにロードするものであってもよい。
By the way, each means which comprises the said image analysis apparatus may be comprised as a program for functioning a computer.
In this case, the program can be stored in a computer-readable recording medium, and the stored program can be used by loading it into a computer system and starting it as necessary. The recording medium may be portable or may be incorporated in a computer system. The program may be loaded into a computer system via a network.

以下に本発明の実施形態を図面と共に説明する。
図1は、空間上に虚像を投影し、その虚像に対する操作者の手の位置や動きを検出し、検出した手の位置や動きを指令入力として各種処理を実行する非接触型ヒューマンインタフェースを備えた情報処理装置の構成を表すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 includes a non-contact human interface that projects a virtual image on space, detects the position and movement of the operator's hand relative to the virtual image, and executes various processes using the detected position and movement of the hand as a command input. It is a block diagram showing the structure of the information processing apparatus.

図1に示すように、本実施形態の情報処理装置は、予め設定された撮像範囲を撮像し濃淡画像を出力するカメラ1と、撮像範囲内の空間に表示画像を虚像として投影するプロジェクタ7と、カメラ1から濃淡画像(以下「入力画像」とも称する。)を入力し、この入力画像と予め用意された背景画像とに基づいて、両画像の互いに対応する画素毎に求めた画素の差分値を画素値とする背景差分画像を生成する差分処理部3と、差分処理部3が生成した背景差分画像を解析して、カメラ1により撮像された手の指先の位置を特定する画像解析処理部51、及びプロジェクタ7に供給する表示画像データを生成すると共に、画像解析処理部51にて特定された指先の位置やその動きに応じて各種処理を実行する処理実行部53からなる制御部5とを備えている。   As shown in FIG. 1, the information processing apparatus according to the present embodiment includes a camera 1 that captures a preset imaging range and outputs a grayscale image, and a projector 7 that projects a display image as a virtual image in a space within the imaging range. A grayscale image (hereinafter also referred to as “input image”) is input from the camera 1, and based on the input image and a background image prepared in advance, a pixel difference value obtained for each corresponding pixel of both images. A difference processing unit 3 that generates a background difference image having a pixel value as a pixel value, and an image analysis processing unit that analyzes the background difference image generated by the difference processing unit 3 and specifies the position of the fingertip of the hand imaged by the camera 1 51 and a control unit 5 including a processing execution unit 53 that generates display image data to be supplied to the projector 7 and executes various processes according to the position of the fingertip specified by the image analysis processing unit 51 and its movement. It is provided.

このうち、カメラ1は、図2に示すように、操作者Mが着座する座席Sの前方を、上方から撮像し、且つ、図3に示すように、操作者Mが撮像範囲ASの幅方向の中心に位置するように配置されている。以下では、撮像範囲ASの幅方向に沿った軸をX軸、操作者Mの正面方向に沿った軸をY軸と称する。   Among these, the camera 1 images the front of the seat S on which the operator M is seated as shown in FIG. 2 from above, and as shown in FIG. 3, the operator M is in the width direction of the imaging range AS. It is arrange | positioned so that it may be located in the center of. Hereinafter, the axis along the width direction of the imaging range AS is referred to as the X axis, and the axis along the front direction of the operator M is referred to as the Y axis.

また、撮像範囲ASの幅方向の中心部分の領域を判定禁止エリア、操作者Mから見て判定禁止エリアAMの右側の領域を右手エリアAR、同じく判定禁止エリアAMの左側の領域を左手エリアALと称するものとする。なお、判定禁止エリアAM,右手エリアAR,左手エリアALは、撮像範囲AS内に限定されず、その外部の領域も含む概念である。また、判定禁止エリアAMの幅は、後述する仮想肘位置の算出精度より十分大きな幅に設定されている。   Further, the central area in the width direction of the imaging range AS is a determination prohibited area, the right area of the determination prohibited area AM when viewed from the operator M is the right hand area AR, and the left area of the determination prohibited area AM is the left hand area AL. Shall be referred to as Note that the determination prohibition area AM, the right hand area AR, and the left hand area AL are not limited to the imaging range AS but include a region outside the imaging range AS. Further, the width of the determination prohibition area AM is set to be sufficiently larger than the calculation accuracy of the virtual elbow position described later.

更に、撮像範囲ASの操作者M側において、撮像範囲ASのY軸に沿った幅の任意の量(本実施形態では1/6)だけ撮像範囲ASから離れた位置を通るX軸に沿った直線を、仮想線VLと称するものとする。この仮想線VLは、操作者Mの肘の可動範囲を近似的に表すものであり、本実施形態では直線で表したが、これに限らず曲線などで表してもよい。   Further, on the operator M side of the imaging range AS, along the X axis passing through a position separated from the imaging range AS by an arbitrary amount (1/6 in this embodiment) of the width along the Y axis of the imaging range AS. The straight line is referred to as a virtual line VL. The virtual line VL approximately represents the movable range of the elbow of the operator M, and is represented by a straight line in the present embodiment, but is not limited thereto, and may be represented by a curve or the like.

一方、プロジェクタ7は、撮像範囲AS内にて、座席Sに着座した操作者Mの手の届く範囲内に虚像を投影するように設定されている。
つまり、座席Sに着座した操作者Mが、プロジェクタ7によって投影された虚像に触れるために前方に手を伸ばすと、その前腕部がカメラ1によって撮像されるように設定されている。
On the other hand, the projector 7 is set so as to project a virtual image within the range of the hand of the operator M seated on the seat S within the imaging range AS.
That is, the forearm portion is set to be imaged by the camera 1 when the operator M sitting on the seat S reaches forward to touch the virtual image projected by the projector 7.

次に、差分処理部3は、カメラ1から周期的(本実施形態では1秒間隔)に入力画像を取り込んで保存する現画像保存部31と、外部からの取込指令に従って、現画像保存部31に保存された画像(以下「現画像」と称する。)を背景画像として保存する背景画像保存部33と、現画像保存部31に保存された現画像と背景画像保存部33に保存された背景画像とに基づいて差分画像を生成する差分算出部35とにより構成されている。   Next, the difference processing unit 3 includes a current image storage unit 31 that periodically captures and stores an input image from the camera 1 (one second interval in the present embodiment), and a current image storage unit in accordance with an external capture command. The background image storage unit 33 stores an image stored in the image 31 (hereinafter referred to as “current image”) as a background image, and the current image stored in the current image storage unit 31 and the background image storage unit 33 store the image. The difference calculation unit 35 generates a difference image based on the background image.

なお、背景画像保存部33に背景画像を保存させるタイミングとしては、操作者Mが座席Sに着座して、且つ撮像範囲AS外に手を収めている状態であればいつでもよい。具体的には、背景画像取込用に設けられたスイッチ(図示せず)を操作者Mが操作すると取込指令が生成されるように構成してもよいし、操作者Mの着座を検出すると、操作者Mに対して背景画像取込用の姿勢を取らせるように音声によって指示した後、自動的に取込指令が生成されるように構成してもよい。   The timing for storing the background image in the background image storage unit 33 may be any time as long as the operator M is seated on the seat S and holds his hand outside the imaging range AS. Specifically, the operator M may be configured to generate a capture command when a switch (not shown) provided for capturing a background image is operated by the operator M, or the operator M can be seated. Then, after instructing the operator M to take a posture for taking a background image by voice, a take-in command may be automatically generated.

次に、制御部5は、CPU,ROM,RAM,DSP(デジタルシグナルプロセッサ)などを備えた周知のマイクロコンピュータからなり、画像解析部51及び処理実行部53は、マイクロコンピュータ上で実行される処理として実現される。なお、RAMには、仮想肘位置が右手エリアに存在する場合にカウントアップされる右手カウンタ、仮想肘位置が左手エリアに存在する場合にカウントアップされる左手カウンタが設けられている。   Next, the control unit 5 is a known microcomputer including a CPU, ROM, RAM, DSP (digital signal processor), and the like, and the image analysis unit 51 and the process execution unit 53 are processes executed on the microcomputer. As realized. The RAM is provided with a right hand counter that is counted up when the virtual elbow position is in the right hand area, and a left hand counter that is counted up when the virtual elbow position is in the left hand area.

以下、画像解析処理部51としての画像解析処理の詳細を、図4,5に示すフローチャート、及び図6に示す説明図に沿って説明する。なお、図6は、画像解析処理の各段階で得られる画像例を示す説明図である。但し、図6に示された左列の画像は、左手が撮像された時のものであり、右列の画像は、右手が撮像された時のものである。   Details of the image analysis processing as the image analysis processing unit 51 will be described below with reference to the flowcharts shown in FIGS. 4 and 5 and the explanatory diagram shown in FIG. FIG. 6 is an explanatory diagram showing an example of an image obtained at each stage of image analysis processing. However, the images in the left column shown in FIG. 6 are those when the left hand is captured, and the images in the right column are those when the right hand is captured.

画像解析処理は、差分処理部3から背景差分画像が供給される毎に起動し、図4に示すように、まず、背景差分画像(図6(a)参照)から、画素値が予め設定された差分判定しきい値以上である領域を抽出し、その抽出した領域にクロージング処理を施したものを差分領域(図6(b)参照)として抽出する差分領域抽出処理を実行する(S110)。そして、差分領域抽出処理により、差分領域が抽出されたか否かを判断し(S120)、差分領域が抽出されていなければ、現画像には操作者Mの前腕部が撮像されていないものとして、右手カウンタ及び左手カウンタのカウント値を零クリアして(S130)、本処理を終了する。   The image analysis process is started each time a background difference image is supplied from the difference processing unit 3, and as shown in FIG. 4, first, a pixel value is preset from the background difference image (see FIG. 6A). A region that is equal to or greater than the difference determination threshold value is extracted, and a difference region extraction process is performed in which the extracted region is subjected to closing processing as a difference region (see FIG. 6B) (S110). Then, it is determined whether or not the difference area is extracted by the difference area extraction process (S120). If the difference area is not extracted, it is assumed that the forearm portion of the operator M is not captured in the current image. The count values of the right hand counter and the left hand counter are cleared to zero (S130), and this process is terminated.

一方、差分領域抽出処理により、差分領域が抽出されていれば、現画像には操作者Mの前腕部が撮像されているものとして、その差分領域の重心Gを算出する(S140)。そして、右手カウンタ及び左手カウンタのカウント値がいずれも零であるか否かを判断し(S150)、カウント値がいずれも零であれば、S140にて算出した差分領域の重心Gに基づいて、左右判定の判定出力を初期設定する(S160)。なお、判定出力の初期設定は、具体的には、重心Gが右手エリアに存在すれば、判定出力を「右手」に設定し、重心の位置が左手エリアに存在すれば、判定出力を「左手」に設定する。   On the other hand, if the difference area is extracted by the difference area extraction processing, the center of gravity G of the difference area is calculated assuming that the forearm portion of the operator M is captured in the current image (S140). Then, it is determined whether or not the count values of the right hand counter and the left hand counter are both zero (S150). If both count values are zero, based on the center of gravity G of the difference area calculated in S140, The determination output for left / right determination is initialized (S160). Specifically, the initial setting of the determination output is as follows. If the center of gravity G exists in the right hand area, the determination output is set to “right hand”, and if the position of the center of gravity exists in the left hand area, the determination output is set to “left hand”. To "".

その後、S140にて算出した差分領域Dの重心Gの座標を(x0,y0)として、差分領域Dの二次モーメントM20,M02,M11を、(1)式を用いて算出する(S170)。 Then, using the coordinates of the center of gravity G of the difference area D calculated in S140 as (x 0 , y 0 ), the secondary moments M 20 , M 02 , M 11 of the difference area D are calculated using equation (1). (S170).

続けて、S170での算出結果を用い、差分領域Dを楕円近似(図6(c)参照)することで得られる長軸半径Ra、短軸半径Rb、及びX軸に対する差分領域Dの主軸の内、長軸の偏角φを、(2)〜(4)式を用いて算出する(S180)。なお、図7は、差分領域Dと偏角φとの関係を示す模式図である。   Subsequently, using the calculation result in S170, the major axis radius Ra, the minor axis radius Rb, and the main axis of the difference area D with respect to the X axis obtained by elliptically approximating the difference area D (see FIG. 6C). Among them, the declination φ of the long axis is calculated using equations (2) to (4) (S180). FIG. 7 is a schematic diagram showing the relationship between the difference region D and the deflection angle φ.

なお、通常の二次モーメントMijは、(1)式を面積で割ることで正規化したものが用いられるが、ここでは、偏角φや長軸半径Raと短軸半径Rbとの比(後述のS180参照)を求めることができればよく、(2)〜(4)式から明らかなように、これら偏角φや比Ra/Rbでは、面積が相殺されることになるため、正規化を省略している。 Note that the normal secondary moment M ij is obtained by normalizing the expression (1) by dividing the area by the area. Here, the deflection angle φ and the ratio of the major axis radius Ra to the minor axis radius Rb ( As will be apparent from the equations (2) to (4), since the area is canceled out by these declination φ and ratio Ra / Rb, normalization should be performed. Omitted.

次に、S180にて算出した長軸半径Raと短軸半径Rbとの比Ra/Rbが、予め設定された円形度合しきい値Hr(本実施形態では1.25)より大きいか否かを判断する(S190)。なお、比Ra/Rbは、差分領域Dが円形に近いほど1に近い値となり、楕円形の扁平度が大きくなるほど大きな値となる。そして、比Ra/Rbが円形度合しきい値Hr以下であれば、偏角φが正しく検出されていない可能性が高いものとして、そのまま本処理を終了する。   Next, whether or not the ratio Ra / Rb between the major axis radius Ra and the minor axis radius Rb calculated in S180 is larger than a preset circularity threshold value Hr (1.25 in this embodiment). Judgment is made (S190). The ratio Ra / Rb becomes a value closer to 1 as the difference area D is closer to a circle, and becomes a larger value as the flatness of the ellipse increases. Then, if the ratio Ra / Rb is equal to or less than the circularity threshold value Hr, it is highly likely that the declination φ is not correctly detected, and this processing is terminated as it is.

一方、比Ra/Rbが円形度合しきい値Hrより大きければ、偏角φが正しく検出されているものとして、肘位置を推定する肘位置推定処理を実行する(S200)。この肘位置推定処理では、差分領域Dの重心Gを通り、X軸に対して偏角φを有する検出直線DLと、予め設定された仮想線VLとの交点を算出し、この交点を仮想肘位置Pとする(図6(d)参照)。   On the other hand, if the ratio Ra / Rb is larger than the circularity threshold value Hr, an elbow position estimation process for estimating the elbow position is executed assuming that the declination angle φ is correctly detected (S200). In this elbow position estimation process, an intersection point between a detection straight line DL that passes through the center of gravity G of the difference region D and has a declination φ with respect to the X axis and a preset virtual line VL is calculated. Position P is set (see FIG. 6D).

そして、この仮想肘位置Pに基づいて差分領域Dが左手又は右手のいずれを撮像したものであるかを判定する左右判定処理を実行し(S210)、その左右判定処理での判定結果に従って、指先位置の推定を行って(S220)、本処理を終了する。   Then, based on the virtual elbow position P, a left / right determination process is performed to determine whether the difference area D is an image of the left hand or the right hand (S210), and the fingertip is determined according to the determination result in the left / right determination process. The position is estimated (S220), and this process ends.

なお、指先位置の推定は、操作者Mの手の重心Gから指先までの長さを補正長として予め測定しておき、判定結果が「右手」であれば予め設定された右手角度方向に、判定結果が「左手であれば」予め設定された左手角度方向に、重心Gから補正長だけ離れた位置を指先位置として算出する。   The fingertip position is estimated in advance by measuring the length from the center of gravity G of the hand of the operator M to the fingertip as a correction length, and if the determination result is “right hand”, in the right hand angle direction set in advance, If the determination result is “left hand”, the position away from the center of gravity G by the correction length in the left hand angle direction set in advance is calculated as the fingertip position.

ここで、S210にて実行する左右判定処理の詳細を、図5に示すフローチャートに沿って説明する。
本処理では、まず、仮想肘位置Pが右手エリアARに存在するか否かを判断し(S310)、右手エリアARに存在しなければ、今度は、仮想肘位置Pが左手エリアALに存在するか否かを判断し(S320)、左手エリアALにも存在しなければ、即ち、仮想肘位置Pが判定禁止エリアAMに存在するのであれば、判定出力を更新することなく、そのまま本処理を終了する。
Here, the details of the left / right determination process executed in S210 will be described with reference to the flowchart shown in FIG.
In this process, first, it is determined whether or not the virtual elbow position P exists in the right hand area AR (S310). If the virtual elbow position P does not exist in the right hand area AR, then the virtual elbow position P exists in the left hand area AL. (S320), and if it does not exist in the left hand area AL, that is, if the virtual elbow position P exists in the determination prohibition area AM, the present processing is performed without updating the determination output. finish.

一方、先のS310にて、仮想肘位置Pが右手エリアARに存在すると判定された場合には、右手カウンタのカウント値を更新(カウントアップ)し(S320)、また、先のS330にて、仮想肘位置Pが左手エリアALに存在すると判定された場合には、左手カウンタのカウント値を更新(カウントアップ)する(S340)。   On the other hand, when it is determined in the previous S310 that the virtual elbow position P exists in the right hand area AR, the count value of the right hand counter is updated (counted up) (S320), and in the previous S330, When it is determined that the virtual elbow position P exists in the left hand area AL, the count value of the left hand counter is updated (counted up) (S340).

そして、右手カウンタ又は左手カウンタのいずれかのカウント値が更新されると、カウント値の正規化を行う(S350)。具体的には、一方のカウンタのカウント値が、予め設定された正規化しきい値を超えた場合に、そのカウンタのカウント値から、他方のカウンタのカウント値を減算すると共に、他方のカウンタのカウント値を零クリアする。   When the count value of either the right hand counter or the left hand counter is updated, the count value is normalized (S350). Specifically, when the count value of one counter exceeds a preset normalization threshold, the count value of the other counter is subtracted from the count value of the counter and the count value of the other counter is counted. Clears the value to zero.

その後、両カウンタのカウント値を比較し、右手カウンタの方が左手カウンタより大きければ(S360−YES)、左右判定の判定出力を「右手」に更新し(S370)、逆に右手カウンタより左手カウンタの方が大きければ(S380−YES)、左右判定の判定出力を「左手」に更新して(S390)、本処理を終了し、両カウンタのカウント値が等しければ、左右判定の判定出力を更新することなく、本処理を終了する。   Thereafter, the count values of both counters are compared, and if the right-hand counter is larger than the left-hand counter (S360-YES), the left / right determination determination output is updated to “right hand” (S370), and conversely the left-hand counter from the right-hand counter Is greater (S380-YES), the left / right determination output is updated to "left hand" (S390), and the process ends. If the count values of both counters are equal, the left / right determination output is updated. This process is terminated without doing so.

一方、処理実行部53では、画像解析処理部51が求めた指先位置とプロジェクタ7による虚像の投影位置との関係や、指先位置の軌跡などに基づいて、操作者の意図や指令を特定し、その特定された意図や指令に応じた各種処理を実行する。   On the other hand, the processing execution unit 53 specifies the operator's intention and command based on the relationship between the fingertip position obtained by the image analysis processing unit 51 and the projection position of the virtual image by the projector 7, the trajectory of the fingertip position, and the like. Various processes are executed according to the specified intention and command.

以上説明したように、本実施形態の情報処理装置では、現画像と背景画像とを比較して変化のあった部分を差分領域Dとして抽出し、その差分領域Dを楕円近似することで、差分領域D(即ち手を含む前腕)の向き(偏角φ)を求め、その向きと差分領域Dの重心Gの位置とに基づいて、肘の位置を推定し、その推定した仮想肘位置Pから、差分領域Dが左手或いは右手のいずれを撮像したものであるのかを判定するようにされている。   As described above, in the information processing apparatus according to the present embodiment, the current image and the background image are compared to extract a changed portion as the difference region D, and the difference region D is elliptically approximated to obtain the difference. The direction (deflection angle φ) of the region D (ie, the forearm including the hand) is obtained, and the elbow position is estimated based on the direction and the position of the center of gravity G of the difference region D. From the estimated virtual elbow position P It is determined whether the difference area D is an image of the left hand or the right hand.

このように、本実施形態の情報処理装置によれば、画像の細部(個々の指等)を解析することなく、左右判定を行っているため、処理量を大幅に削減することができ、リアルタイムでの処理を実現できるだけでなく、親指が隠れている場合や、手の側面しかとらえていない場合(オクルージョンが発生した場合)にも、そのような手の状態の影響を受けることなく、左右の手を確実に識別して指先位置を求めることができる。   As described above, according to the information processing apparatus of the present embodiment, since the left / right determination is performed without analyzing the details (individual fingers, etc.) of the image, the processing amount can be greatly reduced, and real time In addition to realizing the processing in the case, when the thumb is hidden or only the side of the hand is captured (when occlusion occurs), The fingertip position can be obtained by reliably identifying the hand.

また、本実施形態の情報処理装置では、仮想肘位置Pの値が算出される毎に、判定出力を更新するのではなく、左手であると判定された回数と右手であると判定された回数とをそれぞれカウントし、そのカウント値が大きい方を判定出力とすると共に、両カウンタのカウント値が等しい時には、判定出力の更新を行わずに前回の判定出力をそのまま出力するようにされている。   Moreover, in the information processing apparatus of this embodiment, every time the value of the virtual elbow position P is calculated, the determination output is not updated, but the number of times determined to be the left hand and the number of times determined to be the right hand. And when the count value of both counters is equal, the previous determination output is output as it is without updating the determination output.

従って、本実施形態の情報処理装置によれば、ノイズ等により突発的に誤った仮想肘位置が算出されたとしても、それによって判定出力がばたついてしまうことがなく、安定した判定出力を得ることができる。   Therefore, according to the information processing apparatus of the present embodiment, even if an erroneous virtual elbow position is suddenly calculated due to noise or the like, the determination output does not fluctuate, and a stable determination output is obtained. be able to.

更に、差分領域Dが円形に近い形状、即ち、偏角φを正しく検出できる可能性が低い形状をしている時や、仮想肘位置Pが判定禁止エリアAMに存在する時には、両カウンタのカウントを行わないようにされているため、カウント値の信頼性、ひいては判定出力の信頼性を向上させることができる。   Furthermore, when the difference area D has a shape close to a circle, that is, a shape with a low possibility of correctly detecting the deflection angle φ, or when the virtual elbow position P exists in the determination prohibition area AM, the counts of both counters are counted. Therefore, it is possible to improve the reliability of the count value and hence the reliability of the determination output.

なお、本実施形態において、差分処理部3が差分領域抽出手段、S170,S180が領域情報算出手段、S200が肘位置推定手段、S210が判定手段、S190が判定禁止手段、S220が指先位置推定手段に相当する。   In the present embodiment, the difference processing unit 3 is a difference area extracting means, S170 and S180 are area information calculating means, S200 is an elbow position estimating means, S210 is a determining means, S190 is a determination prohibiting means, and S220 is a fingertip position estimating means. It corresponds to.

以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、様々な態様にて実施することが可能である。
例えば、上記実施形態では、S170,S180の処理にて、偏角φを二次モーメントM20,M02,M11を用いて算出するように構成されているが、最小2乗法により差分領域Dの回帰直線を算出し、この回帰直線がX軸に対してなす角を偏角φとして求めるように構成してもよい。
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, It is possible to implement in various aspects.
For example, in the above embodiment, the declination angle φ is calculated using the second moments M 20 , M 02 , and M 11 in the processes of S170 and S180, but the difference region D is calculated by the least square method. The regression line may be calculated, and the angle formed by the regression line with respect to the X axis may be obtained as the deviation angle φ.

この場合、回帰直線を(5)式にて表すとすると、その係数a,bは、(6)(7)式にて求められる。   In this case, if the regression line is expressed by equation (5), the coefficients a and b are obtained by equations (6) and (7).

また、S190における円形度合の判定は、(8)式で求められる相関係数rを用いることができ、この場合、例えば、相関係数rの絶対値が0.5以上の場合にS200〜S220の処理を実行するように構成すればよい。   The determination of the degree of circularity in S190 can use the correlation coefficient r obtained by equation (8). In this case, for example, when the absolute value of the correlation coefficient r is 0.5 or more, S200 to S220. What is necessary is just to comprise so that the process of this may be performed.

また、上記実施形態では、背景画像を画像解析処理とは無関係に設定するように構成されているが、例えば、S120にて差分領域Dが検出されなかった場合に、S130にて両カウンタのカウント値をクリアすると共に、その差分領域Dの抽出に使用した現画像が背景画像として保存されるように取込指令を出力するように構成してもよい。この場合、常に、撮像範囲ASに手が挿入される直前の画像が背景画像として使用されることになり、周囲の環境変化(日射量の変化など)に対応した背景画像となるため、より判定精度を向上させることができる。   In the above embodiment, the background image is configured to be set regardless of the image analysis processing. For example, when the difference area D is not detected in S120, the counters of both counters are counted in S130. It may be configured to output the capture command so that the value is cleared and the current image used for extraction of the difference area D is saved as the background image. In this case, the image immediately before the hand is inserted into the imaging range AS is always used as the background image, and becomes a background image corresponding to the surrounding environment change (change in the amount of solar radiation, etc.). Accuracy can be improved.

また、上記実施形態では、カメラ1として濃淡画像を出力するものが用いられているが、通常のモノクロ画像を出力するカメラに限らず、赤外線カメラを用いてもよい。この場合、日光や照明の当たり具合によって、左右判定の判定精度が大きく変化することがなく、安定した左右判定の判定結果や指先位置の推定結果を得ることができる。   In the above embodiment, the camera 1 that outputs a grayscale image is used. However, the camera 1 is not limited to a camera that outputs a normal monochrome image, and an infrared camera may be used. In this case, the determination accuracy of the left / right determination does not change greatly depending on the degree of sunlight or lighting, and a stable determination result of the left / right determination and an estimation result of the fingertip position can be obtained.

実施形態の情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus of embodiment. カメラの配置を示す説明図である。It is explanatory drawing which shows arrangement | positioning of a camera. カメラの撮像範囲等を示す説明図である。It is explanatory drawing which shows the imaging range etc. of a camera. 画像解析処理の内容を示すフローチャートである。It is a flowchart which shows the content of an image analysis process. 左右判定処理の内容を示すフローチャートである。It is a flowchart which shows the content of the right-and-left determination process. 画像解析処理の各段階で得られる画像例を示す説明図である。It is explanatory drawing which shows the example of an image obtained at each step of an image analysis process. 差分領域と偏角との関係を示す説明図である。It is explanatory drawing which shows the relationship between a difference area | region and a deflection angle.

符号の説明Explanation of symbols

1…カメラ、3…差分処理部、5…制御部、7…プロジェクタ、31…現画像保存部、33…背景画像保存部、35…差分算出部、51…画像解析処理部、53…処理実行部、AL…左手エリア、AM…判定禁止エリア、AR…右手エリア、AS…撮像範囲、D…差分領域、DL…検出直線、M…操作者、P…仮想肘位置、S…座席、VL…仮想線。   DESCRIPTION OF SYMBOLS 1 ... Camera, 3 ... Difference processing part, 5 ... Control part, 7 ... Projector, 31 ... Current image storage part, 33 ... Background image storage part, 35 ... Difference calculation part, 51 ... Image analysis processing part, 53 ... Process execution Part, AL ... left hand area, AM ... judgment prohibited area, AR ... right hand area, AS ... imaging range, D ... difference area, DL ... detection line, M ... operator, P ... virtual elbow position, S ... seat, VL ... Virtual line.

Claims (11)

操作者の手を含む前腕の可動範囲を包含し且つ該操作者の前方に設定された撮像範囲を、該撮像範囲の幅方向の中心に前記操作者が位置するように上方から撮像した撮像画像を取り込み、該撮像画像と予め用意された背景画像とに基づき、両画像の互いに対応する画素毎に輝度の差分を求め、該差分が予め設定された差分判定しきい値以上である領域を差分領域として抽出する差分領域抽出手段と、
該差分領域抽出手段にて抽出された差分領域の位置及び向きを少なくとも含んだ領域情報を算出する領域情報算出手段と、
該領域情報算出手段にて算出された領域情報に基づいて、前記操作者の肘の位置を推定する肘位置推定手段と、
該肘位置推定手段にて推定された仮想肘位置に従って、前記差分領域が前記操作者の左手又は右手のいずれを撮像したものであるかを判定する左右判定を行う判定手段と、
を備えることを特徴とする画像解析装置。
A captured image obtained by capturing the imaging range including the movable range of the forearm including the operator's hand and set in front of the operator from above so that the operator is positioned at the center in the width direction of the imaging range Based on the captured image and a background image prepared in advance, a luminance difference is obtained for each corresponding pixel of both images, and an area where the difference is equal to or greater than a preset difference determination threshold Differential area extraction means for extracting as an area;
Area information calculating means for calculating area information including at least the position and orientation of the difference area extracted by the difference area extracting means;
Elbow position estimating means for estimating the position of the operator's elbow based on the area information calculated by the area information calculating means;
A determination means for performing left / right determination for determining whether the difference area is an image of the left hand or the right hand of the operator according to the virtual elbow position estimated by the elbow position estimation means;
An image analysis apparatus comprising:
前記領域情報算出手段は、前記差分領域の重心、及び該重心を中心とするモーメントの主軸が予め設定された基準軸に対してなす偏角を前記領域情報とすることを特徴とする請求項1に記載の画像解析装置。   2. The area information calculation means, wherein the area information includes a deviation angle formed by a center of gravity of the difference area and a principal axis of a moment centered on the center of gravity with respect to a preset reference axis. The image analysis apparatus described in 1. 前記領域情報算出手段は、前記差分領域の重心、及び該差分領域について最小2乗法により求めた回帰直線が予め設定された基準軸に対してなす偏角を前記領域情報とすることを特徴とする請求項1に記載の画像解析装置。   The region information calculation means uses the deviation angle formed with respect to a reference axis set in advance by the regression line obtained by the least square method for the center of the difference region and the difference region, as the region information. The image analysis apparatus according to claim 1. 前記肘位置推定手段は、前記操作者の肘の可動範囲を表す仮想線と、前記領域情報が示す差分領域の重心を通り且つ差分領域の向きに沿った直線との交点を、前記仮想肘位置とすることを特徴とする請求項1〜3のいずれかに記載の画像解析装置。   The elbow position estimating means calculates an intersection of a virtual line representing the movable range of the operator's elbow and a straight line passing through the center of gravity of the difference area indicated by the area information and along the direction of the difference area. The image analysis apparatus according to claim 1, wherein the image analysis apparatus is an image analysis apparatus. 前記判定手段は、前記仮想肘位置が、前記撮像画像の前記幅方向の中心を通る中心線より、前記操作者から見て右側に設定された右手エリア、及び前記操作者からみて左側に設定された左手エリアのいずれに含まれるかにより前記左右判定を行うことを特徴とする請求項1〜4のいずれかに記載の画像解析装置。   The determination unit is configured such that the virtual elbow position is set on the right hand area set on the right side when viewed from the operator and on the left side when viewed from the operator with respect to a center line passing through the center in the width direction of the captured image. The image analysis apparatus according to claim 1, wherein the left / right determination is performed depending on which of the left hand areas is included. 前記右手エリアと前記左手エリアとの間には、前記判定手段による判定を禁止する判定禁止エリアが設けられていることを特徴とする請求項5に記載の画像解析装置。   The image analysis apparatus according to claim 5, wherein a determination prohibition area for prohibiting determination by the determination unit is provided between the right hand area and the left hand area. 前記判定手段は、
前記仮想肘位置が前記右手エリア内にある場合にカウントされる右手カウンタと、
前記仮想肘位置が前記左手エリア内にある場合にカウントされる左手カウンタと、
を備え、両カウンタのカウント値の大小により前記左右判定を行うことを特徴とする請求項5又は6に記載の画像解析装置。
The determination means includes
A right hand counter that is counted when the virtual elbow position is within the right hand area;
A left hand counter that is counted when the virtual elbow position is within the left hand area;
The image analysis apparatus according to claim 5, wherein the left / right determination is performed based on the magnitude of the count values of both counters.
前記判定手段は、
前記右手カウンタ及び左手カウンタのうち、いずれか一方又は両方のカウント値が、予め設定された正規化しきい値に達すると、オーバーフロー防止のための両カウント値の正規化を行う正規化手段を備えることを特徴とする請求項7に記載の画像解析装置。
The determination means includes
Normalization means for normalizing both count values for preventing overflow when one or both of the right-hand counter and left-hand counter reach a preset normalization threshold value The image analysis apparatus according to claim 7.
前記差分領域抽出手段にて抽出された差分領域の円形度合を求め、該円形度合が予め設定された円形度合判定しきい値より大きい場合に、前記判定手段による左右判定を禁止する判定禁止手段を備えることを特徴とする請求項1〜8のいずれかに記載の画像解析装置。   A determination prohibiting means for determining a circularity degree of the difference area extracted by the difference area extracting means and prohibiting the right / left determination by the determining means when the circularity degree is larger than a predetermined circularity degree determination threshold value; The image analysis apparatus according to claim 1, further comprising: an image analysis apparatus according to claim 1. 前記領域情報算出手段にて算出された領域情報と、前記判定手段での判定結果とに基づいて、指先の位置を推定する指先位置推定手段を備えることを特徴とする請求項1〜9のいずれかに記載の画像解析装置。   The fingertip position estimating means for estimating the position of the fingertip based on the area information calculated by the area information calculating means and the determination result by the determining means. An image analyzing apparatus according to claim 1. コンピュータを、請求項1〜10のいずれかに記載の画像解析装置を構成する各手段として機能させるためのプログラム。   The program for functioning a computer as each means which comprises the image-analysis apparatus in any one of Claims 1-10.
JP2004190075A 2004-06-28 2004-06-28 Image analysis apparatus, and program Pending JP2006011965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004190075A JP2006011965A (en) 2004-06-28 2004-06-28 Image analysis apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004190075A JP2006011965A (en) 2004-06-28 2004-06-28 Image analysis apparatus, and program

Publications (1)

Publication Number Publication Date
JP2006011965A true JP2006011965A (en) 2006-01-12

Family

ID=35779147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004190075A Pending JP2006011965A (en) 2004-06-28 2004-06-28 Image analysis apparatus, and program

Country Status (1)

Country Link
JP (1) JP2006011965A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221960A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd In-vehicle device
JP2014182662A (en) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd Operation apparatus and operation method
US8977005B2 (en) 2010-09-17 2015-03-10 Nec Corporation Carried item region extraction device, carried item region extraction method, and computer readable medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008221960A (en) * 2007-03-12 2008-09-25 Equos Research Co Ltd In-vehicle device
US8977005B2 (en) 2010-09-17 2015-03-10 Nec Corporation Carried item region extraction device, carried item region extraction method, and computer readable medium
JP2014182662A (en) * 2013-03-19 2014-09-29 Stanley Electric Co Ltd Operation apparatus and operation method

Similar Documents

Publication Publication Date Title
US11893161B2 (en) Gesture recognition based on user proximity to a camera
JP5106459B2 (en) Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program
TWI640931B (en) Image object tracking method and apparatus
CN110310321B (en) Sight direction estimating device, sight direction estimating method, and program product
JP2020046928A (en) Information processing apparatus, information processing system, information processing method and program
KR101745651B1 (en) System and method for recognizing hand gesture
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6658188B2 (en) Image processing apparatus, image processing method, and image processing program
JP6633462B2 (en) Information processing apparatus and information processing method
EP3188075A1 (en) Apparatus and method for recognizing hand gestures in a virtual reality headset
JP2017117341A (en) Object detection method, device and program
JPWO2018154709A1 (en) Motion learning device, skill discrimination device and skill discrimination system
JP2013215549A (en) Image processing device, image processing program, and image processing method
CN114846513B (en) Motion analysis system and computer-readable recording medium
JP2020162759A (en) Line-of-sight measuring device
JP2017084065A (en) Impersonation detection device
CN113168533A (en) Gesture recognition method and device
JP5416489B2 (en) 3D fingertip position detection method, 3D fingertip position detection device, and program
JP2006011965A (en) Image analysis apparatus, and program
JP5061563B2 (en) Detection apparatus, biological determination method, and program
JP2008310392A (en) Person attribute identification apparatus and method
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
JP2017004438A (en) Input device, fingertip position detection method, and fingertip position detection computer program
US20250029363A1 (en) Image processing system, image processing method, and non-transitory computer-readable medium
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof