[go: up one dir, main page]

JP2018010538A - Image recognition device - Google Patents

Image recognition device Download PDF

Info

Publication number
JP2018010538A
JP2018010538A JP2016139819A JP2016139819A JP2018010538A JP 2018010538 A JP2018010538 A JP 2018010538A JP 2016139819 A JP2016139819 A JP 2016139819A JP 2016139819 A JP2016139819 A JP 2016139819A JP 2018010538 A JP2018010538 A JP 2018010538A
Authority
JP
Japan
Prior art keywords
image
imaging
frame
unit
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016139819A
Other languages
Japanese (ja)
Inventor
直樹 野畑
Naoki Nohata
直樹 野畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2016139819A priority Critical patent/JP2018010538A/en
Publication of JP2018010538A publication Critical patent/JP2018010538A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image recognition device capable of accurately identifying rotational motion of gesture manipulation using a simple system.SOLUTION: An image recognition device includes; a camera 10 functioning as imaging means for imaging a user's hand 80 designated as an imaging target from a predetermined direction; and a controller configured to compute an inclination of a motion trajectory of a reference point of the imaging target based on image information in a plane perpendicular to the predetermined direction used by the camera 10 for imaging, and to detect a predetermined type of motion of the hand 80 based on the number of polarity inversions of the motion trajectory inclination.SELECTED DRAWING: Figure 1

Description

本発明は、画像認識装置に関し、特に、画像認識によりジェスチャー動作(回転動作)を判定する画像認識装置に関する。   The present invention relates to an image recognition device, and more particularly to an image recognition device that determines a gesture motion (rotation motion) by image recognition.

従来の技術として、ジェスチャー認識を複合的に用いて、利用者に直感的で分かりやすいインターフェイスを提供するとともに、複雑な入力操作が可能な装置を提供する画像認識装置が提案されている(例えば、特許文献1参照。)。この画像認識装置は、撮像手段により撮影された映像に基づくジェスチャー認識とタッチパネル等の接触検知手段を複合的に用いて、機器の入力操作を行うものである。   As a conventional technique, there has been proposed an image recognition device that provides an intuitive and easy-to-understand interface for a user by using gesture recognition in combination and provides a device capable of complicated input operations (for example, (See Patent Document 1). This image recognition device performs an input operation of a device by using a combination of gesture recognition based on video captured by an imaging unit and contact detection unit such as a touch panel.

この画像認識装置は、撮像手段により撮影した映像から手形状の認識をする処理を行う。認識された手形状からジェスチャー特徴量を抽出し保存する。ジェスチャー特徴量とは、ジェスチャーを特定するための情報であり、ジェスチャー特徴量データベースに制御命令と関連付けられて記憶されている。例えば、手形状の領域や操作している指の本数、および指先の位置情報等である。撮像手段により取得した映像から、ジェスチャー認識処理によって、親指の指先の位置を初期値として登録する。つぎに、操作者が連続的なパラメータを変化させるために親指を回転させた時、その回転量をジェスチャー認識で認識するとされている。   This image recognition apparatus performs processing for recognizing a hand shape from an image taken by an imaging unit. Extract gesture feature from recognized hand shape and save. The gesture feature value is information for specifying a gesture, and is stored in the gesture feature value database in association with the control command. For example, a hand-shaped area, the number of fingers being operated, and fingertip position information. The position of the fingertip of the thumb is registered as an initial value from the video acquired by the imaging means by gesture recognition processing. Next, when the operator rotates the thumb to change continuous parameters, the amount of rotation is recognized by gesture recognition.

特開2009−42796号公報JP 2009-42796 A

しかし、特許文献1の画像認識装置が例えば車室内に設置された状況では、画像認識装置が振動する結果、動作軌跡が不安定になり易く、極端な移動軌跡になったり、移動方向と異なる方向に振幅する波形を含んだ動作となったりするために、動作を誤判定する可能性がある。また、車室内では、カメラ搭載可能なスペースは限られ、撮影位置や方向が制約されるため、カメラ設置位置と動作位置の関係から、歪んだ移動軌跡となる可能性がある。このような理由から、従来の画像認識装置では、精度のよい回転動作の判定が難しいという問題があった。   However, in a situation where the image recognition device of Patent Document 1 is installed in, for example, a passenger compartment, the image recognition device vibrates, and as a result, the operation locus tends to become unstable, resulting in an extreme movement locus or a direction different from the movement direction. Therefore, there is a possibility that the operation is erroneously determined. Further, in the vehicle interior, the space in which the camera can be mounted is limited, and the shooting position and direction are restricted. Therefore, there is a possibility that the movement locus is distorted due to the relationship between the camera installation position and the operation position. For this reason, the conventional image recognition apparatus has a problem that it is difficult to accurately determine the rotational motion.

したがって、本発明の目的は、簡易なシステムにより、ジェスチャー操作による回転動作を精度よく判定できる画像認識装置を提供することにある。   Accordingly, an object of the present invention is to provide an image recognition apparatus that can accurately determine a rotation operation by a gesture operation with a simple system.

[1]上記目的を達成するため、所定の方向から撮像対象物を撮像する撮像手段と、前記撮像手段により撮像された前記所定の方向と直交する面内の画像情報に基づいて、前記撮像対象物の基準点の動作軌跡の傾きを算出し、前記動作軌跡の傾きの正負反転の個数に基づいて、前記撮像対象物の所定の動作種別を検出する制御部と、を有することを特徴とする画像認識装置を提供する。 [1] In order to achieve the above object, the imaging object is based on imaging means for imaging an imaging object from a predetermined direction and image information in a plane orthogonal to the predetermined direction imaged by the imaging means. A control unit that calculates the inclination of the motion trajectory of the reference point of the object and detects a predetermined motion type of the imaging object based on the number of positive and negative inversions of the slope of the motion trajectory. An image recognition apparatus is provided.

[2]前記撮像手段は単眼カメラであり、前記所定の方向は前記単眼カメラの光軸方向であることを特徴とする上記[1]に記載の画像認識装置であってもよい。 [2] The image recognition apparatus according to [1], wherein the imaging unit is a monocular camera, and the predetermined direction is an optical axis direction of the monocular camera.

[3]また、前記制御部は、前記正負反転の個数が4以上の場合に、前記撮像対象物の所定の動作種別は回転動作であると判定することを特徴とする上記[1]又は[2]に記載の画像認識装置であってもよい。 [3] The control unit may determine that the predetermined operation type of the imaging target object is a rotation operation when the number of positive / negative inversions is 4 or more. 2] may be used.

本発明の画像認識装置によれば、簡易なシステムにより、ジェスチャー操作による回転動作を精度よく判定できる画像認識装置を提供することができる。   According to the image recognition apparatus of the present invention, it is possible to provide an image recognition apparatus that can accurately determine a rotation operation by a gesture operation with a simple system.

図1は、本発明の実施の形態に係る画像認識装置のカメラ配置の一例を示す概略斜視図である。FIG. 1 is a schematic perspective view showing an example of a camera arrangement of the image recognition apparatus according to the embodiment of the present invention. 図2は、本発明の実施の形態に係る画像認識装置のブロック図の一例を示している。FIG. 2 shows an example of a block diagram of the image recognition apparatus according to the embodiment of the present invention. 図3(a)は、図1においてZ軸方向に見たXY座標上に撮像されたフレーム画像S(n)であり、図3(b)は、背景画像110のフレーム画像S(0)であり、図3(c)は、フレーム画像S(n)とフレーム画像S(0)の差分により背景画像を除去し2値化した画像である。3A is a frame image S (n) captured on the XY coordinates viewed in the Z-axis direction in FIG. 1, and FIG. 3B is a frame image S (0) of the background image 110. FIG. 3C shows an image obtained by removing the background image by the difference between the frame image S (n) and the frame image S (0) and binarizing the image. 図4は、本発明の実施の形態に係る画像認識装置の動作を示すフローチャートである。FIG. 4 is a flowchart showing the operation of the image recognition apparatus according to the embodiment of the present invention. 図5は、F1(n)の一例を示すグラフである。FIG. 5 is a graph showing an example of F1 (n). 図6は、一定フレーム間毎の軌跡傾き式、F1(n)=(Yn/Xn)とした場合、F1(n)×F1(n−1)<0の判定ポイントの例(回転動作の例)を示す判定図である。FIG. 6 shows an example of a determination point of F1 (n) × F1 (n−1) <0 (an example of a rotation operation) when the trajectory inclination formula for each fixed frame is F1 (n) = (Yn / Xn). FIG. 図7(a)〜(f)は、判定される回転動作の軌跡を示す例示図である。FIGS. 7A to 7F are exemplary diagrams showing the trajectory of the rotational motion to be determined. 図8(a)〜(d)は、判定される払い動作の軌跡を示す例示図である。FIGS. 8A to 8D are illustrations showing the locus of the payment operation to be determined.

(本発明の実施の形態)
本発明の実施の形態に係る画像認識装置1は、所定の方向から撮像対象物である操作者の手80を撮像する撮像手段としてのカメラ10と、カメラ10により撮像された所定の方向と直交する面内の画像情報に基づいて、前記撮像対象物の基準点の動作軌跡の傾きを算出し、前記動作軌跡の傾きの正負反転の個数に基づいて、手80の所定の動作種別を検出する制御部30と、を有して構成されている。
(Embodiment of the present invention)
An image recognition apparatus 1 according to an embodiment of the present invention includes a camera 10 as an imaging unit that images an operator's hand 80 that is an object to be imaged from a predetermined direction, and a direction orthogonal to a predetermined direction captured by the camera 10. The inclination of the motion trajectory of the reference point of the imaging object is calculated based on the in-plane image information, and the predetermined motion type of the hand 80 is detected based on the number of positive and negative inversions of the slope of the motion trajectory. And a control unit 30.

なお、上記の所定の方向はカメラ10の光軸方向(Z軸方向、上方向)に設定されている。   The predetermined direction is set in the optical axis direction (Z-axis direction, upward direction) of the camera 10.

図1は、本発明の実施の形態に係る画像認識装置のカメラ配置の一例を示す概略斜視図である。図2は、本発明の実施の形態に係る画像認識装置のブロック図の一例を示している。また、図3(a)は、図1においてZ軸方向に見たXY座標上に撮像されたフレーム画像S(n)であり、図3(b)は、背景画像110のフレーム画像S(0)であり、図3(c)は、フレーム画像S(n)とフレーム画像S(0)の差分により背景画像を除去し2値化した画像である。   FIG. 1 is a schematic perspective view showing an example of a camera arrangement of the image recognition apparatus according to the embodiment of the present invention. FIG. 2 shows an example of a block diagram of the image recognition apparatus according to the embodiment of the present invention. 3A is a frame image S (n) imaged on the XY coordinates viewed in the Z-axis direction in FIG. 1, and FIG. 3B is a frame image S (0) of the background image 110. FIG. 3C shows an image obtained by removing the background image based on the difference between the frame image S (n) and the frame image S (0) and binarizing the image.

図1に示すように、画像認識装置1は、撮像手段としてのカメラ10が上方向に配置され、図示のA方向、すなわち、カメラ10の光軸方向(Y軸方向)を撮像する。本実施の形態では、カメラ10は1台である単眼システムである。カメラ10は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)などの半導体撮像素子を備えている。カメラ10の撮像範囲60と略同一となる範囲を赤外照明20が照明する。なお、撮像する光の波長は任意の周波数の光が使用可能であるが、赤外光、近赤外光を使用して照明、撮像する。これにより、操作者が撮像時に照明光を見ることがなく、撮像時の違和感を防止あるいは軽減することができる。   As shown in FIG. 1, in the image recognition apparatus 1, a camera 10 as an imaging unit is arranged in the upward direction, and images the A direction shown in the figure, that is, the optical axis direction (Y-axis direction) of the camera 10. In the present embodiment, the camera 10 is a single-eye system. The camera 10 includes a semiconductor image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor). The infrared illumination 20 illuminates a range that is substantially the same as the imaging range 60 of the camera 10. In addition, although the light of the light to image can use the light of arbitrary frequencies, it illuminates and images using infrared light and near-infrared light. Thereby, an operator does not see illumination light at the time of imaging, and the uncomfortable feeling at the time of imaging can be prevented or reduced.

(カメラ10)
図1に示すように、カメラ10は、A方向に向けて操作者の手80を撮像し、カメラ10の光軸方向(Z軸方向)と直交するXY面内の画像情報である画像データをフレーム画像100として、所定のフレーム周期で制御部30へ出力する。このフレーム画像100は、例えば、後述する図3(a)に示すような背景110を含んだフレーム画像である。フレーム画像100は、図2に示すように、ある時刻におけるnフレーム目のフレーム画像S(n)を所定のタイミング(例えば、1/60秒)で順次、制御部30へ出力する。
(Camera 10)
As illustrated in FIG. 1, the camera 10 captures an image of the operator's hand 80 in the A direction, and image data that is image information in the XY plane orthogonal to the optical axis direction (Z-axis direction) of the camera 10. The frame image 100 is output to the control unit 30 at a predetermined frame period. This frame image 100 is a frame image including a background 110 as shown in FIG. As shown in FIG. 2, the frame image 100 sequentially outputs the frame image S (n) of the nth frame at a certain time to the control unit 30 at a predetermined timing (for example, 1/60 seconds).

なお、図3(b)に示した背景画像110のみを予め撮像し、この背景画像110をフレーム画像S(0)として後述する背景処理に使用する。   Note that only the background image 110 shown in FIG. 3B is captured in advance, and this background image 110 is used as a frame image S (0) for background processing described later.

(照明20)
また、図1、2に示すように、制御部30には、照明20が接続されている。なお、照明は複数台が制御部30に接続されていてもよい。図1に示すように、照明20は、カメラ10の撮像範囲(画角)をカバーする範囲に赤外光を照射して撮像対象物を照明する。
(Lighting 20)
As shown in FIGS. 1 and 2, a lighting unit 20 is connected to the control unit 30. Note that a plurality of lights may be connected to the control unit 30. As shown in FIG. 1, the illumination 20 illuminates the imaging target by irradiating infrared light onto a range that covers the imaging range (angle of view) of the camera 10.

(制御部30の構成)
図2に示すように、制御部30には、1台のカメラ10が接続されている。また、制御部30には、照明20が接続されている。
(Configuration of control unit 30)
As shown in FIG. 2, one camera 10 is connected to the control unit 30. In addition, the illumination unit 20 is connected to the control unit 30.

制御部30は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。このROMには、例えば、制御部30が動作するためのプログラム等が格納されている。RAMは、例えば、複数の画像情報や一時的に演算結果などを格納する記憶領域として用いられる。また制御部30は、その内部にクロック信号を生成する手段を有し、このクロック信号に基づいて処理を実行する。   The control unit 30 includes, for example, a CPU (Central Processing Unit) that performs operations and processing on acquired data according to a stored program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. Microcomputer. For example, a program for operating the control unit 30 is stored in the ROM. For example, the RAM is used as a storage area for storing a plurality of pieces of image information, temporary calculation results, and the like. In addition, the control unit 30 has a means for generating a clock signal therein, and executes processing based on the clock signal.

制御部30は、画像処理部31、重心検出部32、基準点検出部33、フレーム間演算部34、および動作識別部35を備えている。   The control unit 30 includes an image processing unit 31, a centroid detection unit 32, a reference point detection unit 33, an inter-frame calculation unit 34, and an operation identification unit 35.

(画像処理部31)
画像処理部31は、カメラ10から入力される各フレーム画像S(n)を後工程の重心検出、基準点検出等を行なうために、背景除去、2値化処理等の画像処理を予め実行するための前工程である。
(Image processing unit 31)
The image processing unit 31 executes image processing such as background removal and binarization in advance in order to perform post-process gravity center detection, reference point detection, and the like for each frame image S (n) input from the camera 10. It is a pre-process for.

図3(a)は、図1においてZ軸方向に見たXY座標上に撮像されたフレーム画像S(n)であり、図3(b)は、背景画像110のフレーム画像S(0)であり、図3(c)は、フレーム画像S(n)とフレーム画像S(0)の差分により背景画像を除去し2値化した画像である。この背景画像であるフレーム画像S(0)は、差分画像の算出処理の基準画像となるので、時間により変化しない画像であることが好ましい。   3A is a frame image S (n) captured on the XY coordinates viewed in the Z-axis direction in FIG. 1, and FIG. 3B is a frame image S (0) of the background image 110. FIG. 3C shows an image obtained by removing the background image by the difference between the frame image S (n) and the frame image S (0) and binarizing the image. The frame image S (0), which is the background image, is a reference image for the difference image calculation process, and is preferably an image that does not change with time.

画像処理部31は、フレーム画像S(n)と背景画像110のフレーム画像S(0)の差分を抽出し、この差分をフレーム画像S(n)から除去して、手80のみのフレーム画像S(n)を作成する。また、これを2値化して、図3(c)に示す手80の2値化されたフレーム画像S(n)を作成する。以下の説明では、この2値化されたフレーム画像S(n)により各処理が実行されるものとして説明する。   The image processing unit 31 extracts a difference between the frame image S (n) and the frame image S (0) of the background image 110, removes the difference from the frame image S (n), and the frame image S of only the hand 80. Create (n). Also, this is binarized to create a binarized frame image S (n) of the hand 80 shown in FIG. In the following description, it is assumed that each process is executed by the binarized frame image S (n).

(重心検出部32)
重心検出部32は、2値化されたフレーム画像S(n)に基づいて、重心Gの位置を算出することにより検出する。重心Gの位置のX座標は、図3(c)の中の数値の平均値である。平均値は、手80が存在する画素のX座標の値の合計を、手80が存在する画素の数で割ることにより計算できる。同様にして、重心Gの位置のY座標は、図3(c)の中の数値の平均値である。平均値は、手80が存在する画素のY座標の値の合計を、手80が存在する画素の数で割ることにより、重心G(X、Y)を算出する。
(Centroid detection unit 32)
The centroid detection unit 32 detects the position of the centroid G by calculating the position of the centroid G based on the binarized frame image S (n). The X coordinate of the position of the center of gravity G is an average value of the numerical values in FIG. The average value can be calculated by dividing the sum of the X coordinate values of the pixels where the hand 80 is present by the number of pixels where the hand 80 is present. Similarly, the Y coordinate of the position of the center of gravity G is the average value of the numerical values in FIG. For the average value, the center of gravity G (X, Y) is calculated by dividing the sum of the Y coordinate values of the pixels where the hand 80 is present by the number of pixels where the hand 80 is present.

(基準点検出部33)
基準点検出部33は、図3(c)で示す算出された重心Gから、最も遠い点Pを基準点として検出する。なお、この基準点は、手80の特定の位置であれば、重心Gから最も遠い点には限られない。
(Reference point detector 33)
The reference point detection unit 33 detects the farthest point P from the calculated center of gravity G shown in FIG. The reference point is not limited to the point farthest from the center of gravity G as long as it is a specific position of the hand 80.

基準点検出部33は、図3(c)のように求められた画像を、例えば、テンプレートマッチングにより、手首から指先部分を抽出する。この抽出された手のフレーム画像において、重心Gから最も遠いX座標、Z座標を求める。これにより、重心Gから最も遠い点Pを検出することができ、これを、動作軌跡の基準点(x、y)とする。なお、手において重心Gから最も遠い点Pは、例えば、図3(a)、(c)に示すように、指先である。   The reference point detection unit 33 extracts the fingertip portion from the wrist by, for example, template matching from the image obtained as shown in FIG. In this extracted hand frame image, the X coordinate and Z coordinate farthest from the center of gravity G are obtained. Thereby, the point P farthest from the center of gravity G can be detected, and this is set as the reference point (x, y) of the motion trajectory. Note that the point P farthest from the center of gravity G in the hand is, for example, a fingertip, as shown in FIGS.

(フレーム間演算部34、動作識別部35)
フレーム間演算部34は、カメラ10から所定のタイミングで順次入力されるフレーム画像S(n)から、種々の演算を実行する。フレーム間演算部34は、フレーム画像S(n)に基づいて、基準点のx座標、y座標(x、y)を検出する。
(Inter-frame operation unit 34, operation identification unit 35)
The inter-frame calculation unit 34 executes various calculations from the frame images S (n) sequentially input from the camera 10 at a predetermined timing. The inter-frame computing unit 34 detects the x coordinate and the y coordinate (x, y) of the reference point based on the frame image S (n).

ここで、数フレーム間とは、5以下のフレーム間であり、一定フレーム間とは、1桁程度のフレーム間であり、ウインドウフレーム間とは、ある一定数のフレーム間とする。ウインドウフレーム間は、一定フレーム間よりも大きい。認識精度や判定速度の条件から各フレーム数は変化する。本実施の形態では、数フレーム間を9フレーム、一定フレーム間を3フレーム、ウインドウフレーム間を500フレームとする。   Here, the term “several frames” refers to between five or less frames, “certain frames” refers to frames of about one digit, and “window frames” refers to a certain number of frames. Between window frames is larger than between certain frames. The number of frames varies depending on conditions of recognition accuracy and determination speed. In the present embodiment, it is assumed that several frames are 9 frames, certain frames are 3 frames, and window frames are 500 frames.

フレーム間演算部34、動作識別部35は、以下の計算、判定等を実行する。
(1)フレーム間演算部34は、基準点検出部33で抽出された基準点の、ある時間tでの座標(x、y)を記憶する。
(2)単位移動距離D=√((x−xt−3+(y−yt−3))を計算する。
なお、√( )は、( )1/2と同意である。
(3)単位フレーム間の値T=a/Dを計算する。aは、定数とする。
(4)一定フレーム間でのX値の時間変化値GX(t)=x−xt−Tを計算する。同様に、Y値の時間変化値GY(t)=y−yt−Tを計算する。
(5)GX(t)×GX(t−1)、または、GY(t)×GY(t−1)を計算する。
(6)閾値内になったフレームから数フレーム後から開始して、一定フレーム毎(T=3)に、Yn=y−yt−3、Xn=x−xt−3を計算し、一定フレーム間毎の軌跡傾き式、F1(n)=(Yn/Xn)を計算する。なお、Xβ=0の場合は、F1(β)=F1maxとする。
(7)動作識別部35は、ウインドウフレーム間で、F1(n)の正負が反転するポイントが4点以上存在するか判断する。4点より少ない場合は払い動作と判定する。
(8)動作識別部35は、ウインドウフレーム間で、GX(t)×GX(t−1)及びGY(t)×GY(t−1)がゼロ以下になるかを判断する。最低でもどちらか一方が常にゼロよりも大きい場合は払い動作と判定する。
The inter-frame operation unit 34 and the operation identification unit 35 perform the following calculations and determinations.
(1) The inter-frame calculation unit 34 stores the coordinates (x t , y t ) of the reference point extracted by the reference point detection unit 33 at a certain time t.
(2) A unit movement distance D = √ ((x t −x t−3 ) 2 + (y t −y t−3 ) 2 )) is calculated.
Note that √ () is equivalent to () 1/2 .
(3) The value T = a / D between unit frames is calculated. a is a constant.
(4) A time change value GX (t) = x t −x t−T of the X value between certain frames is calculated. Similarly, a time change value GY (t) = y t −y t−T of the Y value is calculated.
(5) GX (t) × GX (t−1) or GY (t) × GY (t−1) is calculated.
(6) Starting from several frames after the frame falls within the threshold, Yn = y t −y t−3 and Xn = x t −x t−3 are calculated for every fixed frame (T = 3). Then, the trajectory inclination formula for every fixed frame, F1 (n) = (Yn / Xn) is calculated. When Xβ = 0, it is assumed that F1 (β) = F1max.
(7) The operation identification unit 35 determines whether there are four or more points where the sign of F1 (n) is reversed between the window frames. If it is less than 4 points, it is determined as a paying operation.
(8) The operation identification unit 35 determines whether GX (t) × GX (t−1) and GY (t) × GY (t−1) are equal to or less than zero between window frames. If at least one of them is always greater than zero, it is determined that the payment operation is performed.

(画像認識装置1の動作)
図4は、本発明の実施の形態に係る画像認識装置の動作を示すフローチャートである。以下、このフローチャートに従って画像認識装置1の動作を説明する。
(Operation of the image recognition apparatus 1)
FIG. 4 is a flowchart showing the operation of the image recognition apparatus according to the embodiment of the present invention. The operation of the image recognition apparatus 1 will be described below according to this flowchart.

フレーム間演算部34は、まず、単位移動距離D=√((x−xt−3+(y−yt−3)を計算する(Step01)。 The inter-frame computing unit 34 first calculates a unit movement distance D = √ ((x t −x t−3 ) 2 + (y t −y t−3 ) 2 ) (Step 01).

フレーム間演算部34は、単位移動距離Dがゼロかどうかを判断する(Step02)。単位移動距離Dがゼロの場合は、操作者の手80が動いてないと判断して、Step01へ戻り(Step02:Yes)、単位移動距離Dがゼロでない場合は、Step03へ進む(Step02:No)。   The inter-frame calculator 34 determines whether the unit movement distance D is zero (Step 02). If the unit movement distance D is zero, it is determined that the operator's hand 80 is not moving, and the process returns to Step 01 (Step 02: Yes). If the unit movement distance D is not zero, the process proceeds to Step 03 (Step 02: No). ).

フレーム間演算部34は、単位フレーム間の値T=a/Dを計算する(Step03)。aは、定数とする。   The inter-frame computing unit 34 calculates a value T = a / D between unit frames (Step 03). a is a constant.

フレーム間演算部34は、一定フレーム間でのX値の時間変化値GX(t)=x−xt−Tを計算する(Step04)。 The inter-frame operation unit 34 calculates a time change value GX (t) = x t −x t−T of the X value between certain frames (Step 04).

フレーム間演算部34は、Step04と同様に、Y値の時間変化値GY(t)=y−yt−Tを計算する(Step05)。 Similar to Step 04, the inter-frame computing unit 34 calculates a time change value GY (t) = y t −y t−T of the Y value (Step 05).

フレーム間演算部34は、GX(t)×GX(t−1)、または、GY(t)×GY(t−1)がゼロ以下かどうかを判断する(Step06)。GX(t)×GX(t−1)、または、GY(t)×GY(t−1)がゼロ以下の場合は、Step07へ進み(Step06:Yes)、ゼロ以下でない場合は、Step01へ戻って移動距離計測を継続する(Step06:No)。   The inter-frame operation unit 34 determines whether GX (t) × GX (t−1) or GY (t) × GY (t−1) is equal to or less than zero (Step 06). If GX (t) × GX (t−1) or GY (t) × GY (t−1) is less than or equal to zero, the process proceeds to Step 07 (Step 06: Yes), and if not less than zero, returns to Step 01. Then, the movement distance measurement is continued (Step 06: No).

フレーム間演算部34は、n=n+1として、次のフレームへ進む(Step07)。   The inter-frame operation unit 34 sets n = n + 1 and proceeds to the next frame (Step 07).

フレーム間演算部34は、x、y、X’、Y’を取得する(Step08)。 The inter-frame operation unit 34 acquires x n , y n , X ′ n , and Y ′ n (Step 08).

フレーム間演算部34は、n<3かどうかを判断する(Step09)。n<3の場合は、一定フレーム数(n=3)に達していないので、Step07へ戻り(Step09:Yes)、n<3でない場合は、一定フレーム数(n=3)に達したので、Step10へ進む(Step09:No)。   The inter-frame operation unit 34 determines whether n <3 (Step 09). If n <3, the fixed frame number (n = 3) has not been reached, so the process returns to Step 07 (Step 09: Yes). If n <3, the fixed frame number (n = 3) has been reached. It progresses to Step10 (Step09: No).

フレーム間演算部34は、Xn=x−xt−3、Yn=y−yt−3を計算する(Step10)。 Interframe arithmetic unit 34 calculates Xn = x t -x t-3 , Yn = y t -y t-3 (Step10).

フレーム間演算部34は、Xnがゼロかどうかを判断する(Step11)。Xnがゼロでない場合は、次の割算処理であるStep12へ進み(Step11:No)、Xnがゼロの場合は、Step13へ進む(Step11:Yes)。   The inter-frame computing unit 34 determines whether Xn is zero (Step 11). If Xn is not zero, the process proceeds to Step 12, which is the next division process (Step 11: No), and if Xn is zero, the process proceeds to Step 13 (Step 11: Yes).

フレーム間演算部34は、F1(n)=F1maxとしてStep14へ進む(Step13)。   The inter-frame computing unit 34 proceeds to Step 14 with F1 (n) = F1max (Step 13).

フレーム間演算部34は、一定フレーム間(n=3)毎の軌跡傾き式、F1(n)=(Yn/Xn)を計算する(Step12)。図5は、反転ポイントを有するF1(n)の一例を示すグラフである。   The inter-frame calculation unit 34 calculates a trajectory inclination formula for every fixed frame (n = 3), F1 (n) = (Yn / Xn) (Step 12). FIG. 5 is a graph showing an example of F1 (n) having an inversion point.

フレーム間演算部34は、n<4かどうかを判断する(Step14)。n<4の場合は、Step07へ戻り(Step14:Yes)、n<4でない場合は、Step15へ進む(Step14:No)。   The inter-frame operation unit 34 determines whether n <4 (Step 14). If n <4, the process returns to Step 07 (Step 14: Yes), and if not n <4, the process proceeds to Step 15 (Step 14: No).

フレーム間演算部34は、F1(n)×F1(n―1)>0を判断する(Step15)。図6は、一定フレーム間毎の軌跡傾き式、F1(n)=(Yn/Xn)とした場合、F1(n)×F1(n−1)<0の判定ポイントの例(回転動作の例)を示す判定図である。F1(n)×F1(n―1)>0でない場合は、Step16へ進み(Step15:No)、F1(n)×F1(n―1)>0の場合は、Step17へ進む(Step15:Yes)。   The inter-frame computing unit 34 determines that F1 (n) × F1 (n−1)> 0 (Step 15). FIG. 6 shows an example of a determination point of F1 (n) × F1 (n−1) <0 (an example of a rotation operation) when the trajectory inclination formula for each fixed frame is F1 (n) = (Yn / Xn). FIG. If F1 (n) × F1 (n−1)> 0 is not satisfied, the process proceeds to Step 16 (Step 15: No), and if F1 (n) × F1 (n−1)> 0, the process proceeds to Step 17 (Step 15: Yes). ).

フレーム間演算部34は、反転数Aを、A=A+1とする(Step16)。   The inter-frame computing unit 34 sets the inversion number A to A = A + 1 (Step 16).

フレーム間演算部34は、n<500かどうかを判断する(Step17)。n<500の場合は、ウインドウフレーム数に達してないとして、Step07へ戻り(Step17:Yes)、n<500でない場合は、Step18へ進む(Step17:No)。   The inter-frame computing unit 34 determines whether n <500 (Step 17). If n <500, it is determined that the number of window frames has not been reached, and the process returns to Step 07 (Step 17: Yes). If n <500, the process proceeds to Step 18 (Step 17: No).

動作識別部35は、A<4かどうかを判断する(Step18)。反転数Aが4<0の場合は、Step20へ進み(Step18:Yes)、反転数Aが4<0でない場合は、Step19へ進む(Step18:No)。   The operation identification unit 35 determines whether A <4 (Step 18). When the inversion number A is 4 <0, the process proceeds to Step 20 (Step 18: Yes), and when the inversion number A is not 4 <0, the process proceeds to Step 19 (Step 18: No).

動作識別部35は、払い動作と判定する(Step20)。   The operation | movement identification part 35 determines with payment operation | movement (Step20).

動作識別部35は、GX(t)×GX(t−1)、または、GY(t)×GY(t−1)がゼロより大きいかどうかを判断する(Step19)。ゼロより小さい場合は、Step21へ進み(Step19:No)、ゼロより大きい場合は、Step22へ進む(Step19:Yes)。   The motion identification unit 35 determines whether GX (t) × GX (t−1) or GY (t) × GY (t−1) is greater than zero (Step 19). When smaller than zero, it progresses to Step21 (Step19: No), and when larger than zero, it progresses to Step22 (Step19: Yes).

動作識別部35は、回転動作(円動作)と判定する(Step21)。   The motion identification unit 35 determines that the motion is a rotational motion (circle motion) (Step 21).

動作識別部35は、払い動作と判定する(Step22)。   The operation identification unit 35 determines that the payment operation is performed (Step 22).

図7(a)〜(f)は、動作識別部35により判定される回転動作の軌跡を示す例示図である。この回転動作の軌跡には、従来技術では判定が難しい回転動作も含まれる。また、図8(a)〜(d)は、動作識別部35により判定される払い動作の軌跡を示す例示図である。   FIGS. 7A to 7F are exemplary diagrams illustrating the locus of the rotational motion determined by the motion identification unit 35. The trajectory of this rotational motion includes a rotational motion that is difficult to determine with the prior art. FIGS. 8A to 8D are exemplary diagrams illustrating the locus of the payment operation determined by the operation identification unit 35.

(実施の形態の効果)
本発明の実施の形態によれば、以下のような効果を有する。
(1)本発明の実施の形態に係る画像認識装置1は、所定の方向から撮像対象物である操作者の手80を撮像する撮像手段としてのカメラ10と、カメラ10により撮像された所定の方向と直交する面内の画像情報に基づいて、前記撮像対象物の基準点の動作軌跡の傾きを算出し、前記動作軌跡の傾きの正負反転の個数に基づいて、手80の所定の動作種別を検出する制御部30と、を有して構成されている。上記の所定の方向がカメラの光軸方向の場合は、動作種別(回転動作、払い動作)の識別が難しいが、本実施の形態によれば、手80の基準点の動作軌跡の傾きが正負反転する点を複数個有するかどうかで判定するので、簡易に回転動作を判定することが可能となる。
(2)これにより、簡易なシステムにより、ジェスチャー操作による回転動作を精度よく判定できる画像認識装置を実現することができる。
(3)単眼カメラシステムであるので、ステレオカメラやTOFカメラに比べて安価に画像認識装置を構成することが可能で、処理負荷が軽く処理時間がかからないという効果を有する。
(4)本実施の形態に係る画像認識装置1が車室内に設置されても、動作軌跡が不安定になったり、極端な移動軌跡になったり、移動方向と異なる方向に振幅する波形を含んだ動作とならずに、回転動作と払い動作を精度よく判定、識別することができる。
(Effect of embodiment)
The embodiment of the present invention has the following effects.
(1) An image recognition apparatus 1 according to an embodiment of the present invention includes a camera 10 as an imaging unit that images an operator's hand 80 that is an imaging target from a predetermined direction, and a predetermined image captured by the camera 10. Based on the image information in the plane orthogonal to the direction, the inclination of the motion locus of the reference point of the imaging object is calculated, and the predetermined motion type of the hand 80 is determined based on the number of positive and negative inversions of the inclination of the motion locus. And a control unit 30 for detecting. When the predetermined direction is the optical axis direction of the camera, it is difficult to identify the operation type (rotation operation, payment operation), but according to the present embodiment, the inclination of the operation locus of the reference point of the hand 80 is positive or negative. Since the determination is made based on whether or not there are a plurality of inversion points, it is possible to easily determine the rotation operation.
(2) With this, it is possible to realize an image recognition device that can accurately determine a rotation operation by a gesture operation with a simple system.
(3) Since it is a monocular camera system, it is possible to construct an image recognition apparatus at a lower cost than a stereo camera or a TOF camera, and there is an effect that a processing load is light and a processing time is not required.
(4) Even when the image recognition apparatus 1 according to the present embodiment is installed in the vehicle interior, the motion locus becomes unstable, becomes an extreme movement locus, or includes a waveform that amplitudes in a direction different from the moving direction. It is possible to accurately determine and discriminate the rotation operation and the payment operation without the operation.

以上、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。また、これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更等を行うことができる。また、これら実施の形態の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態及び変形例は、発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although some embodiment of this invention was described, these embodiment is only an example and does not limit the invention which concerns on a claim. Moreover, these novel embodiments can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all the combinations of features described in these embodiments are essential to the means for solving the problems of the invention. Furthermore, these embodiments and modifications are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…画像認識装置
10…カメラ
20…照明
30…制御部、31…画像処理部、32…重心検出部、33…基準点検出部、34…フレーム間演算部、35…動作識別部
60…撮像範囲
80…手
100…フレーム画像、110…背景
DESCRIPTION OF SYMBOLS 1 ... Image recognition apparatus 10 ... Camera 20 ... Illumination 30 ... Control part, 31 ... Image processing part, 32 ... Gravity center detection part, 33 ... Reference | standard point detection part, 34 ... Inter-frame calculation part, 35 ... Motion identification part 60 ... Imaging Range 80 ... hand 100 ... frame image, 110 ... background

Claims (3)

所定の方向から撮像対象物を撮像する撮像手段と、
前記撮像手段により撮像された前記所定の方向と直交する面内の画像情報に基づいて、前記撮像対象物の基準点の動作軌跡の傾きを算出し、前記動作軌跡の傾きの正負反転の個数に基づいて、前記撮像対象物の所定の動作種別を検出する制御部と、
を有することを特徴とする画像認識装置。
Imaging means for imaging an imaging object from a predetermined direction;
Based on image information in a plane orthogonal to the predetermined direction imaged by the imaging means, the inclination of the motion trajectory of the reference point of the imaging object is calculated, and the number of positive / negative reversals of the inclination of the motion trajectory is calculated. Based on a control unit for detecting a predetermined operation type of the imaging object;
An image recognition apparatus comprising:
前記撮像手段は単眼カメラであり、前記所定の方向は前記単眼カメラの光軸方向であることを特徴とする請求項1に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the imaging unit is a monocular camera, and the predetermined direction is an optical axis direction of the monocular camera. 前記制御部は、前記正負反転の個数が4以上の場合に、前記撮像対象物の所定の動作種別は回転動作であると判定することを特徴とする請求項1又は2に記載の画像認識装置。   The image recognition apparatus according to claim 1, wherein the control unit determines that the predetermined operation type of the imaging object is a rotation operation when the number of positive / negative inversions is 4 or more. .
JP2016139819A 2016-07-14 2016-07-14 Image recognition device Pending JP2018010538A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016139819A JP2018010538A (en) 2016-07-14 2016-07-14 Image recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016139819A JP2018010538A (en) 2016-07-14 2016-07-14 Image recognition device

Publications (1)

Publication Number Publication Date
JP2018010538A true JP2018010538A (en) 2018-01-18

Family

ID=60993861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016139819A Pending JP2018010538A (en) 2016-07-14 2016-07-14 Image recognition device

Country Status (1)

Country Link
JP (1) JP2018010538A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112109069A (en) * 2019-06-21 2020-12-22 发那科株式会社 Robot teaching device and robot system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112109069A (en) * 2019-06-21 2020-12-22 发那科株式会社 Robot teaching device and robot system
DE102020115670B4 (en) 2019-06-21 2025-05-22 Fanuc Corporation ROBOT LEARNING DEVICE AND ROBOT SYSTEM

Similar Documents

Publication Publication Date Title
CN106951871B (en) Motion trajectory identification method and device of operation body and electronic equipment
US9696814B2 (en) Information processing device, gesture detection method, and gesture detection program
EP3411827B1 (en) System and method for detecting hand gestures in a 3d space
US8339359B2 (en) Method and system for operating electric apparatus
US20130279756A1 (en) Computer vision based hand identification
JP2015519624A5 (en)
CN111095164A (en) Method and apparatus for detecting user input in dependence on gesture
KR20120035604A (en) Apparatus for hand detecting based on image and method thereof
TWI496094B (en) Gesture recognition module and gesture recognition method
TW201926141A (en) Image object tracking method and apparatus
JP6657024B2 (en) Gesture judgment device
JP2014137762A (en) Object detector
CN106056080B (en) A kind of visual biometric information acquisition device and method
JP2018195052A (en) Image processing apparatus, image processing program, and gesture recognition system
CN104095639A (en) Motion detecting method and system of pyroelectric infrared sensor array
JP7163649B2 (en) GESTURE DETECTION DEVICE, GESTURE DETECTION METHOD, AND GESTURE DETECTION CONTROL PROGRAM
US10474297B2 (en) Projecting a structured light pattern onto a surface and detecting and responding to interactions with the same
JP2018010538A (en) Image recognition device
JP2017191426A (en) Input device, input control method, computer program, and storage medium
US12445714B2 (en) Information processing apparatus, image capturing system, method, and non-transitory computer-readable storage medium for selecting a trained model
JP2018010539A (en) Image recognition device
JP2018088183A (en) Image recognition apparatus
KR102159996B1 (en) Event filtering device and motion recognition device thereof
JP2018077744A (en) Gesture determining apparatus and gesture determining method
JP2017227966A (en) Gesture recognition device