JP2018206295A - Image recognition device - Google Patents
Image recognition device Download PDFInfo
- Publication number
- JP2018206295A JP2018206295A JP2017114225A JP2017114225A JP2018206295A JP 2018206295 A JP2018206295 A JP 2018206295A JP 2017114225 A JP2017114225 A JP 2017114225A JP 2017114225 A JP2017114225 A JP 2017114225A JP 2018206295 A JP2018206295 A JP 2018206295A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- unit
- target point
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000009434 installation Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 14
- 239000000758 substrate Substances 0.000 description 10
- 239000000284 extract Substances 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像認識装置に関し、特に、カメラ画像の画像認識装置に関する。 The present invention relates to an image recognition apparatus, and more particularly to an image recognition apparatus for camera images.
従来の技術として、操作物体と、外力の作用によって移動可能とされた所定の可動物体とを撮像する撮像手段と、撮像手段による操作物体及び可動物体の撮像画像に基づいて、当該両物体の位置を特定する位置特定手段と、位置特定手段によって特定された両物体の位置が同期して動いたか否かの判定を行う同期移動判定手段と、同期移動判定手段によって肯定的な判定結果が得られた場合に、操作物体の撮像画像に基づくジェスチャの認識結果を無効にするジェスチャ認識制御手段と、を備えてジェスチャ認識を行なう画像認識装置が知られている(例えば、特許文献1参照)。 As conventional techniques, an imaging unit that images an operation object and a predetermined movable object that can be moved by the action of an external force, and the positions of both objects based on the operation object and the captured image of the movable object by the imaging unit A positive determination result is obtained by the position specifying means for specifying the position, the synchronous movement determining means for determining whether or not the positions of the two objects specified by the position specifying means have moved in synchronization, and the synchronous movement determining means. In such a case, there is known an image recognition apparatus that includes gesture recognition control means that invalidates a gesture recognition result based on a captured image of an operation object and performs gesture recognition (see, for example, Patent Document 1).
この画像認識装置は、認識対象物を確実に抽出し、ジェスチャ認識を行なうことができるとされている。 This image recognition apparatus is supposed to be able to reliably extract a recognition object and perform gesture recognition.
しかし、特許文献1の画像認識装置では、撮像手段であるカメラの撮像領域が固定されている。このため、例えば、カメラを車両に取付ける際に、組付け誤差が生じて認識領域がズレたり、取り付け車種が違うと取り付け位置自体が変って認識領域がズレたりすることで、認識精度や利便性が低下するという問題があった。 However, in the image recognition apparatus of Patent Document 1, the imaging area of the camera that is the imaging means is fixed. For this reason, for example, when the camera is mounted on the vehicle, the recognition area may be shifted due to an assembly error, or the mounting position itself may be changed and the recognition area may be shifted if the mounting model is different. There was a problem that decreased.
したがって、本発明の目的は、撮像部の取り付け誤差があっても、認識精度が高い画像認識装置を提供することにある。 Therefore, an object of the present invention is to provide an image recognition apparatus with high recognition accuracy even when there is an attachment error of an imaging unit.
[1]上記目的を達成するため、背景を含む撮像対象を撮影する撮像部と、前記撮像部の撮像姿勢を変更する駆動機構部と、前記撮像部で撮像された撮像画像から目標点を抽出する抽出部と、前記駆動機構部を駆動制御し、抽出された前記目標点を基準位置に移動させて、前記移動の後の撮像画像において画像処理を実行する処理部と、を有することを特徴とする画像認識装置を提供する。 [1] In order to achieve the above object, an imaging unit that captures an imaging target including a background, a drive mechanism unit that changes the imaging posture of the imaging unit, and a target point are extracted from the captured image captured by the imaging unit And a processing unit that drives and controls the drive mechanism unit, moves the extracted target point to a reference position, and executes image processing on the captured image after the movement. An image recognition apparatus is provided.
[2]前記駆動機構部は、前記撮像部の位置移動又は回転移動により前記撮像姿勢を変更して、前記目標点が基準位置に撮像されるように制御することを特徴とする上記[1]に記載の画像認識装置であってもよい。 [2] The [1] above, wherein the driving mechanism unit controls the imaging point to be imaged at a reference position by changing the imaging posture by a positional movement or a rotational movement of the imaging unit. The image recognition apparatus described in the above may be used.
[3]また、前記目標点は、車両の車室内構造物位置であることを特徴とする上記[1]又は[2]に記載の画像認識装置であってもよい。 [3] The image recognition device according to [1] or [2], wherein the target point is a position of a vehicle interior structure of a vehicle.
[4]また、前記目標点は、車種ごとに設定されていることを特徴とする上記[1]から[3]のいずれか1に記載の画像認識装置であってもよい。 [4] The image recognition device according to any one of [1] to [3], wherein the target point is set for each vehicle type.
本発明の画像認識装置によれば、撮像部の取り付け誤差があっても、認識精度が高い画像認識装置を提供することができる。 According to the image recognition device of the present invention, it is possible to provide an image recognition device with high recognition accuracy even if there is an attachment error of the imaging unit.
(本発明の実施の形態)
本発明の実施の形態に係る画像認識装置1は、背景を含む撮像対象を撮影する撮像部10と、撮像部10の撮像姿勢を変更する駆動機構部14と、撮像部10で撮像された撮像画像から目標点を抽出する抽出部24と、駆動機構部14を駆動制御し、抽出された目標点を基準位置に移動させて、移動の後の撮像画像において画像処理を実行する処理部26と、を有して構成されている。
(Embodiment of the present invention)
An image recognition apparatus 1 according to an embodiment of the present invention includes an imaging unit 10 that captures an imaging target including a background, a drive mechanism unit 14 that changes an imaging posture of the imaging unit 10, and an image captured by the imaging unit 10. An extraction unit 24 that extracts a target point from the image, and a processing unit 26 that controls the drive of the drive mechanism unit 14, moves the extracted target point to a reference position, and executes image processing on the captured image after the movement. , And is configured.
図1は、本発明の実施の形態に係る画像認識装置が搭載された車両内部の一例を示す概略図である。また、図2は、本発明の実施の形態に係る画像認識装置の構成の一例を示す構成ブロック図である。図2に示すように、本発明の実施の形態に係る画像認識装置1は、撮像部10、画像処理部20(画像取得部22、抽出部24、及び処理部26)、及び駆動回路30から概略構成されている。 FIG. 1 is a schematic diagram showing an example of the inside of a vehicle on which an image recognition apparatus according to an embodiment of the present invention is mounted. FIG. 2 is a block diagram showing an example of the configuration of the image recognition apparatus according to the embodiment of the present invention. As shown in FIG. 2, the image recognition device 1 according to the embodiment of the present invention includes an imaging unit 10, an image processing unit 20 (an image acquisition unit 22, an extraction unit 24, and a processing unit 26), and a drive circuit 30. It is roughly structured.
(撮像部10)
撮像部10は、例えば、CCDイメージセンサ(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの半導体素子を用いた撮像装置である。この撮像部10は、一例として、図1(a)に示すように、車両8の運転席と助手席の間のフロアコンソール80aに配置されたタッチパッド88の近傍に配置されている。従って撮像範囲15は、タッチパッド88の上方の領域である。撮像部10は、例えば、タッチパッド88の上方において行われた操作者の手指によるジェスチャ動作を撮像する。また、この撮像部10は、例えば、近赤外線を撮像範囲15方向に照射して撮像するように構成されている。
(Imaging unit 10)
The imaging unit 10 is an imaging device using a semiconductor element such as a CCD image sensor (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. As an example, the imaging unit 10 is disposed in the vicinity of a touch pad 88 disposed on a floor console 80a between a driver seat and a passenger seat of the vehicle 8 as illustrated in FIG. Therefore, the imaging range 15 is an area above the touch pad 88. For example, the imaging unit 10 captures an image of a gesture operation performed by an operator's fingers performed above the touch pad 88. Moreover, this imaging part 10 is comprised so that near infrared rays may be irradiated to the imaging range 15 direction, for example, and it may image.
撮像部10は、図2に示すように、例えば、カメラ基板12にカメラ素子11が実装され、また、カメラ素子11の前面にはフィルタ13が取り付けられている。これら、カメラ素子11、カメラ基板12、及びフィルタ13は、一体として組み立てられている。 As shown in FIG. 2, for example, the imaging unit 10 has a camera element 11 mounted on a camera substrate 12, and a filter 13 is attached to the front surface of the camera element 11. The camera element 11, the camera substrate 12, and the filter 13 are assembled together.
撮像部10は、駆動機構部14を有しており、カメラ素子11、カメラ基板12、及びフィルタ13は一体化した固定体として、駆動機構部14により、その撮像姿勢を変更することができる。 The imaging unit 10 has a drive mechanism unit 14, and the camera element 11, the camera substrate 12, and the filter 13 can be changed as an integrated fixed body by the drive mechanism unit 14.
図3は、撮像姿勢の変更として、撮像部のX、Y、Z方向への移動、また、各X、Y、Z軸まわりの回転移動α、β、γを示す図である。カメラ素子11、カメラ基板12、及びフィルタ13は、一体として、X、Y、Z方向への移動、また、各X、Y、Z軸まわりの回転移動α、β、γが可能とされている。すなわち、カメラ素子11、カメラ基板12、及びフィルタ13は、一体として、駆動機構部14により、X、Y、Z方向へ移動可能に支持され、また、各X、Y、Z軸まわりの回転移動α、β、γが可能に回転支持されている。 FIG. 3 is a diagram illustrating movement of the imaging unit in the X, Y, and Z directions and rotational movements α, β, and γ about the X, Y, and Z axes as changes in the imaging posture. The camera element 11, the camera substrate 12, and the filter 13 are integrally movable in the X, Y, and Z directions and can be rotated and moved α, β, and γ around the X, Y, and Z axes. . That is, the camera element 11, the camera substrate 12, and the filter 13 are integrally supported by the drive mechanism unit 14 so as to be movable in the X, Y, and Z directions, and are rotated around the X, Y, and Z axes. α, β, and γ are rotatably supported.
撮像部10は、図1に示したように、例えば、撮像範囲15を上方向にして、フロアコンソール80aに上向きに配置される。なお、撮像部10の配置は、フロアコンソール80aに限定されず、例えば、表示装置87の正面においてなされたジェスチャを撮像できるようにセンターコンソール80bなどであっても良い。 As shown in FIG. 1, for example, the imaging unit 10 is arranged upward on the floor console 80 a with the imaging range 15 facing upward. The arrangement of the imaging unit 10 is not limited to the floor console 80a. For example, the center console 80b or the like may be used so that a gesture made in front of the display device 87 can be captured.
撮像部10は、周期的に撮像範囲15を撮像し、撮像した画像の情報として画像情報Sを生成して画像処理部20に出力する。この撮像範囲15を撮像した画像は、一例として、図4(a)、(b)に示す撮像画像100、図4(c)に示す撮像画像110である。 The imaging unit 10 periodically images the imaging range 15, generates image information S as information of the captured image, and outputs the image information S to the image processing unit 20. As an example, images obtained by imaging the imaging range 15 are a captured image 100 illustrated in FIGS. 4A and 4B and a captured image 110 illustrated in FIG. 4C.
(駆動機構部14)
駆動機構部14は、撮像姿勢の変更として、図3で示すX、Y、Z方向への移動、また、各X、Y、Z軸まわりの回転移動α、β、γ(ピッチ角、ヨ一角、ロール角)を可能とするアクチュエータ(図示省略)をそれぞれに備えている。上記のアクチュエータは、X、Y、Z方向、各X、Y、Z軸まわりの回転方向α、β、γに可変できる構成とされ、例えば、ピエゾ素子を使用することができる。アクチュエータは、印加する電圧を変化させることによって駆動機構部14を駆動することができる。ピエゾ素子(電歪素子)としては、例えば、積層型、バイモルフ型のものが使用可能である。なお、上記のアクチュエータは、ピエゾ素子には限られず、例えば、モータ、ソレノイド等の駆動素子でも使用可能である。
(Drive mechanism 14)
The drive mechanism unit 14 moves in the X, Y, and Z directions shown in FIG. 3 and changes the rotational movements α, β, and γ around the X, Y, and Z axes as shown in FIG. , Each having an actuator (not shown) that enables a roll angle). The actuator is configured to be variable in the X, Y, and Z directions and the rotation directions α, β, and γ around the X, Y, and Z axes. For example, a piezoelectric element can be used. The actuator can drive the drive mechanism unit 14 by changing the voltage to be applied. As the piezo element (electrostrictive element), for example, a laminated type or a bimorph type can be used. The actuator described above is not limited to a piezo element, and can be used as a driving element such as a motor or a solenoid.
(画像処理部20)
画像処理部20は、画像取得部22、抽出部24、及び処理部26により概略構成されている。画像処理部20は、例えば、記憶されたプログラムに従って、取得したデータに演算、加工などを行うCPU(Central Processing Unit)、半導体メモリであるRAM(Random Access Memory)及びROM(Read Only Memory)などから構成されるマイクロコンピュータである。このROMには、例えば、画像処理部20が動作するためのプログラム等が格納されている。RAMは、例えば、複数の画像情報や一時的に演算結果などを格納する記憶領域として用いられる。また画像処理部20は、その内部にクロック信号を生成する手段を有し、このクロック信号に基づいて処理を実行する。
(Image processing unit 20)
The image processing unit 20 is roughly configured by an image acquisition unit 22, an extraction unit 24, and a processing unit 26. The image processing unit 20 includes, for example, a CPU (Central Processing Unit) that performs operations and processes on acquired data according to a stored program, a RAM (Random Access Memory) that is a semiconductor memory, a ROM (Read Only Memory), and the like. It is a microcomputer configured. The ROM stores, for example, a program for operating the image processing unit 20. For example, the RAM is used as a storage area for storing a plurality of pieces of image information, temporary calculation results, and the like. In addition, the image processing unit 20 includes a means for generating a clock signal therein, and executes processing based on the clock signal.
(画像取得部22)
画像取得部22は、撮像部10のカメラ素子11に対してカメラ基板12を介して、画像情報Sを取得する。画像情報Sから撮像画像100が生成される。
(Image acquisition unit 22)
The image acquisition unit 22 acquires the image information S via the camera substrate 12 with respect to the camera element 11 of the imaging unit 10. A captured image 100 is generated from the image information S.
(抽出部24)
図4(a)は、撮像部により撮像された撮像領域の写真画像と、基準点、及び抽出された目標点の位置を示す図であり、図4(b)は、目標点を基準点のX位置に移動させた図であり、図4(c)は、目標点を基準点のY位置に移動させて、目標点を基準点に一致させた図である。
(Extractor 24)
FIG. 4A is a diagram illustrating a photographic image of the imaging region captured by the imaging unit, a reference point, and the position of the extracted target point. FIG. 4B is a diagram illustrating the target point as a reference point. FIG. 4C is a diagram in which the target point is moved to the Y position of the reference point, and the target point is made to coincide with the reference point.
抽出部24は、図4(a)に示す撮像画像100から、目標点210を抽出する。目標点は、少なくとも1点抽出する。目標点は、車両の場合は、車両8の車室内構造物位置とすることができる。例えば、目標点として、ルームミラー、フロントウインドウ部、シートベルト等の特定部位を設定することができる。あるいは、車室内にマーク(目立たないもの)を設置してもよい。 The extraction unit 24 extracts the target point 210 from the captured image 100 illustrated in FIG. At least one target point is extracted. In the case of a vehicle, the target point can be the vehicle interior structure position of the vehicle 8. For example, specific parts such as a room mirror, a front window part, and a seat belt can be set as target points. Alternatively, a mark (not conspicuous) may be installed in the passenger compartment.
上記示した目標点210は、配置された撮像部10が撮像する背景画像300の中に含まれている必要があり、さらに、撮像部10が撮像する撮像対象、例えば、ジェスチャ動作する操作者の手指に隠れにくい位置に設定しておくのが好ましい。 The target point 210 shown above needs to be included in the background image 300 imaged by the arranged imaging unit 10, and further, an imaging target imaged by the imaging unit 10, for example, an operator who performs a gesture operation It is preferable to set the position where it is difficult to hide with fingers.
抽出部24は、例えば、公知のパターンマッチング手法により、目標点210を抽出することができる。例えば、ルームミラー、フロントウインドウ部、シートベルト等の特定部位の形状を2値画像でテンプレートをして設定しておく。抽出部24は、撮像画像100の画像を2値画像として、上記のテンプレートを用いて、パターンマッチングを行なう。 The extraction unit 24 can extract the target point 210 by, for example, a known pattern matching method. For example, the shape of a specific part such as a room mirror, a front window part, and a seat belt is set as a template with a binary image. The extraction unit 24 performs pattern matching using the above-described template using the image of the captured image 100 as a binary image.
図4(a)に示すように、上記のような手順により、目標点210は、座標(X1、Y1)として抽出される。 As shown in FIG. 4A, the target point 210 is extracted as coordinates (X 1 , Y 1 ) by the procedure as described above.
処理部26は、撮像部10の撮像姿勢を変更させて、抽出された目標点(X1、Y1)を、基準位置(X0、Y0)に移動させる。例えば、図4(b)に示すように、X方向の差分(X1−X0)に基づいて、駆動回路30及び駆動機構部14を介してカメラ素子11、カメラ基板12、及びフィルタ13を一体的にX方向に駆動して基準位置X0に移動させる。さらに、図4(c)に示すように、Y方向の差分(Y1−Y0)に基づいて、駆動回路30及び駆動機構部14を介してカメラ素子11、カメラ基板12、及びフィルタ13を一体的にY方向に駆動して基準位置Y0に移動させる。 The processing unit 26 changes the imaging posture of the imaging unit 10 and moves the extracted target points (X 1 , Y 1 ) to the reference position (X 0 , Y 0 ). For example, as illustrated in FIG. 4B, the camera element 11, the camera substrate 12, and the filter 13 are connected via the drive circuit 30 and the drive mechanism unit 14 based on the X-direction difference (X 1 −X 0 ). is moved to the reference position X 0 is driven to integrally X direction. Further, as shown in FIG. 4C, the camera element 11, the camera substrate 12, and the filter 13 are connected via the drive circuit 30 and the drive mechanism unit 14 based on the difference in the Y direction (Y 1 −Y 0 ). moving the reference position Y 0 is driven to integrally Y direction.
なお、上記示した目標点(X1、Y1)を基準位置(X0、Y0)に移動させる手順は一例である。例えば、X、Y、Z方向への移動と回転移動α、β、γ(ピッチ角、ヨ一角、ロール角)を組み合わせることによって、目標点(X1、Y1)を基準位置(X0、Y0)に移動させるようにしてもよい。また、移動、回転は互いに連動するので、目標点(X1、Y1)が基準位置(X0、Y0)の所定範囲内に収束するまで、繰り返して撮像部10の撮像姿勢制御を行なってもよい。 The procedure for moving the target points (X 1 , Y 1 ) shown above to the reference positions (X 0 , Y 0 ) is an example. For example, by combining movement in the X, Y, and Z directions and rotational movement α, β, γ (pitch angle, yaw angle, roll angle), the target point (X 1 , Y 1 ) is moved to the reference position (X 0 , (Y 0 ) may be moved. Since the movement and rotation are linked to each other, the imaging posture control of the imaging unit 10 is repeatedly performed until the target point (X 1 , Y 1 ) converges within a predetermined range of the reference position (X 0 , Y 0 ). May be.
目標点(X1、Y1)を基準位置(X0、Y0)に移動させることにより、所望の認識領域について画像処理を行なうことができる。 By moving the target point (X 1 , Y 1 ) to the reference position (X 0 , Y 0 ), it is possible to perform image processing for a desired recognition area.
処理部26は、図4(c)に示すように、移動の後の撮像画像110において画像処理を実行することができる。画像処理の一例としては、2値化処理、パターンマッチングによる形状抽出、また抽出された形状に基づくジェスチャ判定、等である。 As illustrated in FIG. 4C, the processing unit 26 can perform image processing on the captured image 110 after the movement. Examples of image processing include binarization processing, shape extraction by pattern matching, and gesture determination based on the extracted shape.
(画像認識装置の動作)
図5は、本発明の実施の形態に係る画像認識装置における画像処理部の処理のフローを示す図である。
(Operation of image recognition device)
FIG. 5 is a diagram showing a processing flow of the image processing unit in the image recognition apparatus according to the embodiment of the present invention.
撮像部10は、撮像画像100を取得する(ステップS1)。撮像部10は、撮像範囲15を撮像し、撮像した画像の情報として画像情報Sを生成して画像処理部20に出力する。この撮像範囲15を撮像した画像は、一例として、図4(a)に示す撮像画像100である。 The imaging unit 10 acquires the captured image 100 (step S1). The imaging unit 10 images the imaging range 15, generates image information S as information of the captured image, and outputs the image information S to the image processing unit 20. An image obtained by imaging the imaging range 15 is, for example, a captured image 100 illustrated in FIG.
画像処理部20において、抽出部24は、目標点を抽出する(ステップS2)。抽出部24は、例えば、公知のパターンマッチング手法により、目標点を抽出する。目標点は、図4(b)に示したように、例えば、(X1、Y1)として抽出される。 In the image processing unit 20, the extraction unit 24 extracts a target point (step S2). The extraction unit 24 extracts a target point by, for example, a known pattern matching method. The target point is extracted as (X 1 , Y 1 ), for example, as shown in FIG.
処理部26は、撮像部10の撮像姿勢を変更させて、抽出された目標点X1を、基準位置X0に移動させる(ステップS3)。例えば、図4(b)に示すように、X方向の差分(X1−X0)に基づいて、駆動回路30及び駆動機構部14を介してカメラ素子11、カメラ基板12、及びフィルタ13を一体的にX方向に駆動して基準位置X0に移動させる。 Processing unit 26, by changing the imaging position of the imaging unit 10, the extracted target point X 1, is moved to the reference position X 0 (step S3). For example, as illustrated in FIG. 4B, the camera element 11, the camera substrate 12, and the filter 13 are connected via the drive circuit 30 and the drive mechanism unit 14 based on the X-direction difference (X 1 −X 0 ). is moved to the reference position X 0 is driven to integrally X direction.
次に、処理部26は、撮像部10の撮像姿勢を変更させて、抽出された目標点Y1を、基準位置Y0に移動させる(ステップS4)。例えば、図4(c)に示すように、Y方向の差分(Y1−Y0)に基づいて、駆動回路30及び駆動機構部14を介してカメラ素子11、カメラ基板12、及びフィルタ13を一体的にY方向に駆動して基準位置Y0に移動させる。 Then, the processing unit 26, by changing the imaging position of the imaging unit 10, the extracted target point Y 1, is moved to the reference position Y 0 (step S4). For example, as shown in FIG. 4C, the camera element 11, the camera substrate 12, and the filter 13 are connected via the drive circuit 30 and the drive mechanism unit 14 based on the difference in the Y direction (Y 1 −Y 0 ). moving the reference position Y 0 is driven to integrally Y direction.
処理部26は、図4(c)に示すように、移動の後の撮像画像110を取得して、画像処理を実行する(ステップS5)。画像処理の一例としては、2値化処理、パターンマッチングによる形状抽出、また抽出された形状に基づくジェスチャ判定、等である。これらの画像処理は、目標点(X1、Y1)が基準位置(X0、Y0)に一致した状態で実行される。したがって、所望の画像範囲内で画像処理を実行できるので、処理負荷を低減できる。すなわち、撮像画像110から目標点、基準位置を基準にして所望の画像範囲として適切に限定した撮像画像110について画像処理を実行するので、無駄な領域についての処理を実行する必要がなく、処理負荷が低減できる。 As illustrated in FIG. 4C, the processing unit 26 acquires the captured image 110 after the movement, and executes image processing (step S5). Examples of image processing include binarization processing, shape extraction by pattern matching, and gesture determination based on the extracted shape. These image processes are executed in a state where the target points (X 1 , Y 1 ) coincide with the reference positions (X 0 , Y 0 ). Therefore, since image processing can be executed within a desired image range, the processing load can be reduced. That is, since the image processing is performed on the captured image 110 that is appropriately limited as a desired image range based on the target point and the reference position from the captured image 110, it is not necessary to perform processing on a useless area, and processing load Can be reduced.
上記の画像認識装置の動作は、必要に応じて実行され、また、繰り返して実行することができる。 The operation of the image recognition apparatus is executed as necessary and can be executed repeatedly.
(実施の形態の効果)
本発明の実施の形態によれば、以下のような効果を有する。
(1)本発明の実施の形態に係る画像認識装置1は、背景を含む撮像対象を撮影する撮像部10と、撮像部10の撮像姿勢を変更する駆動機構部14と、撮像部10で撮像された撮像画像から目標点を抽出する抽出部24と、駆動機構部14を駆動制御し、抽出された目標点を基準位置に移動させて、移動の後の撮像画像において画像処理を実行する処理部26と、を有して構成されている。画像処理は、目標点(X1、Y1)が基準位置(X0、Y0)に一致した状態で実行するので、取付け誤差があっても認識精度が高いシステムとなる。すなわち、カメラ基板の角度やXYZ位置を変更可能な機構を設け、車室内構造物位置を基準点に、車種毎の取付け位置の差や組み付け誤差を内部機構で補正することが可能となる。
(2)本実施の形態を車両に適用する場合に、車種ごとに対応させて、目標点(X1、Y1)及び基準位置(X0、Y0)を設定することができる。したがって、多車種に1つの画像認識装置1(ASSY)で対応可能となり、多車種に適応可能なカメラ画像認識システムの構造が可能となる。
(3)画像処理は、目標点(X1、Y1)が基準位置(X0、Y0)に一致した状態で実行される。したがって、所望の画像範囲内で画像処理を実行できる。これにより、演算量を減らす為の認識対象領域狭化が可能で、結果的にシステムが高速化する効果を有する。
(Effect of embodiment)
The embodiment of the present invention has the following effects.
(1) The image recognition apparatus 1 according to the embodiment of the present invention captures an image with the imaging unit 10 that captures an imaging target including a background, the drive mechanism unit 14 that changes the imaging posture of the imaging unit 10, and the imaging unit 10. The extraction unit 24 that extracts a target point from the captured image and the drive mechanism unit 14 are driven and controlled, the extracted target point is moved to the reference position, and image processing is performed on the moved captured image Part 26. Since the image processing is executed in a state where the target points (X 1 , Y 1 ) are coincident with the reference positions (X 0 , Y 0 ), the system has a high recognition accuracy even if there is an attachment error. That is, a mechanism capable of changing the angle of the camera board and the XYZ position is provided, and the difference in mounting position and assembly error for each vehicle type can be corrected by the internal mechanism with the position of the vehicle interior structure as a reference point.
(2) When this embodiment is applied to a vehicle, the target point (X 1 , Y 1 ) and the reference position (X 0 , Y 0 ) can be set corresponding to each vehicle type. Therefore, a single image recognition device 1 (ASSY) can cope with multiple vehicle types, and a structure of a camera image recognition system that can be applied to multiple vehicle types is possible.
(3) The image processing is executed in a state where the target point (X 1 , Y 1 ) matches the reference position (X 0 , Y 0 ). Therefore, image processing can be executed within a desired image range. Thereby, it is possible to narrow the recognition target area to reduce the amount of calculation, and as a result, there is an effect of speeding up the system.
以上、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、一例に過ぎず、特許請求の範囲に係る発明を限定するものではない。また、これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、本発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更等を行うことができる。また、これら実施の形態の中で説明した特徴の組合せの全てが発明の課題を解決するための手段に必須であるとは限らない。さらに、これら実施の形態は、発明の範囲及び要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although some embodiment of this invention was described, these embodiment is only an example and does not limit the invention which concerns on a claim. Moreover, these novel embodiments can be implemented in various other forms, and various omissions, replacements, changes, and the like can be made without departing from the scope of the present invention. In addition, not all the combinations of features described in these embodiments are essential to the means for solving the problems of the invention. Furthermore, these embodiments are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.
1…画像認識装置、8…車両、10…撮像部、11…カメラ素子、12…カメラ基板、13…フィルタ、14…駆動機構部、15…撮像範囲、20…画像処理部、22…画像取得部、24…抽出部、26…処理部、30…駆動回路、80a…フロアコンソール、80b…センターコンソール、87…表示装置、88…タッチパッド、100、110…撮像画像、200…基準位置、210…目標点、300…背景画像 DESCRIPTION OF SYMBOLS 1 ... Image recognition apparatus, 8 ... Vehicle, 10 ... Imaging part, 11 ... Camera element, 12 ... Camera board, 13 ... Filter, 14 ... Drive mechanism part, 15 ... Imaging range, 20 ... Image processing part, 22 ... Image acquisition , 24 ... extraction unit, 26 ... processing unit, 30 ... drive circuit, 80 a ... floor console, 80 b ... center console, 87 ... display device, 88 ... touch pad, 100, 110 ... captured image, 200 ... reference position, 210 ... target point, 300 ... background image
Claims (4)
前記撮像部の撮像姿勢を変更する駆動機構部と、
前記撮像部で撮像された撮像画像から目標点を抽出する抽出部と、
前記駆動機構部を駆動制御し、抽出された前記目標点を基準位置に移動させて、前記移動の後の撮像画像において画像処理を実行する処理部と、
を有することを特徴とする画像認識装置。 An imaging unit that captures an imaging target including a background;
A drive mechanism unit for changing an imaging posture of the imaging unit;
An extraction unit for extracting a target point from a captured image captured by the imaging unit;
A drive unit that controls the drive mechanism, moves the extracted target point to a reference position, and executes image processing on the captured image after the movement;
An image recognition apparatus comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017114225A JP2018206295A (en) | 2017-06-09 | 2017-06-09 | Image recognition device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017114225A JP2018206295A (en) | 2017-06-09 | 2017-06-09 | Image recognition device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018206295A true JP2018206295A (en) | 2018-12-27 |
Family
ID=64957173
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017114225A Pending JP2018206295A (en) | 2017-06-09 | 2017-06-09 | Image recognition device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018206295A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220398404A1 (en) * | 2021-06-09 | 2022-12-15 | Veoneer Us, Inc. | System and method to detect proper seatbelt usage and distance |
| US20230196794A1 (en) * | 2021-12-20 | 2023-06-22 | Veoneer Us, Inc. | System and method to correct oversaturation for image-based seatbelt detection |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH02140602A (en) * | 1988-11-22 | 1990-05-30 | Mazda Motor Corp | Reference position detecting method |
| JPH06270083A (en) * | 1993-03-19 | 1994-09-27 | Tokico Ltd | Work position detector |
| JPH11179682A (en) * | 1997-12-19 | 1999-07-06 | Yaskawa Electric Corp | Articulated robot |
| JP2011139231A (en) * | 2009-12-28 | 2011-07-14 | Sony Corp | Image processing apparatus, image processing method and program |
| JP2011194498A (en) * | 2010-03-18 | 2011-10-06 | Denso Wave Inc | Visual inspection system |
-
2017
- 2017-06-09 JP JP2017114225A patent/JP2018206295A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH02140602A (en) * | 1988-11-22 | 1990-05-30 | Mazda Motor Corp | Reference position detecting method |
| JPH06270083A (en) * | 1993-03-19 | 1994-09-27 | Tokico Ltd | Work position detector |
| JPH11179682A (en) * | 1997-12-19 | 1999-07-06 | Yaskawa Electric Corp | Articulated robot |
| JP2011139231A (en) * | 2009-12-28 | 2011-07-14 | Sony Corp | Image processing apparatus, image processing method and program |
| JP2011194498A (en) * | 2010-03-18 | 2011-10-06 | Denso Wave Inc | Visual inspection system |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20220398404A1 (en) * | 2021-06-09 | 2022-12-15 | Veoneer Us, Inc. | System and method to detect proper seatbelt usage and distance |
| US12039789B2 (en) * | 2021-06-09 | 2024-07-16 | Magna Electronics, Llc | System and method to detect proper seatbelt usage and distance |
| US20230196794A1 (en) * | 2021-12-20 | 2023-06-22 | Veoneer Us, Inc. | System and method to correct oversaturation for image-based seatbelt detection |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9235269B2 (en) | System and method for manipulating user interface in vehicle using finger valleys | |
| JP7070588B2 (en) | Biometrics, systems, methods and programs | |
| CN109123989B (en) | Drawing system, terminal device, and recording medium | |
| JP2018161692A5 (en) | ||
| US20100106295A1 (en) | System and method for stabilization control adopting vestibulo-ocular reflex | |
| JP6771674B1 (en) | Control device and control method | |
| CN105934708A (en) | Camera system | |
| CN106569310A (en) | MEMS-based optical image stabilization | |
| CN101211173A (en) | Vehicular actuation system and vehicle | |
| CN112109069B (en) | Robot teaching device and robot system | |
| JP2019053626A (en) | Contour detection apparatus, drawing apparatus, contour detection method, and contour detection program | |
| JP2011030015A5 (en) | ||
| JP2018206295A (en) | Image recognition device | |
| JP2020042407A5 (en) | ||
| JP6406044B2 (en) | Camera calibration unit, camera calibration method, and camera calibration program | |
| US20170323165A1 (en) | Capturing apparatus for recognizing a gesture and/or a viewing direction of an occupant of a motor vehicle by synchronous actuation of lighting units, operating arrangement, motor vehicle and method | |
| US20210082140A1 (en) | Estimation device, estimation method, and computer program product | |
| CN113396578A (en) | Image pickup apparatus, solid-state image pickup element, camera module, drive control unit, and image pickup method | |
| JP2013047760A (en) | Instruction position display device and instruction position display system | |
| JP7181331B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
| JP2018206294A (en) | Image recognition device | |
| JP7537615B2 (en) | Image processing device and image processing method | |
| JP2016055789A (en) | Vehicular authentication apparatus | |
| CN112313574B (en) | Control device, imaging device, imaging system, control method, and program | |
| DE102013000080A1 (en) | Method for activating function of e.g. clock in vehicle, involves generating signal for triggering function of device in vehicle, while determined distance at which control action signal is generated is smaller than threshold value |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191120 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201119 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201201 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210525 |