JPH1115973A - Image recognition device - Google Patents
Image recognition deviceInfo
- Publication number
- JPH1115973A JPH1115973A JP9166388A JP16638897A JPH1115973A JP H1115973 A JPH1115973 A JP H1115973A JP 9166388 A JP9166388 A JP 9166388A JP 16638897 A JP16638897 A JP 16638897A JP H1115973 A JPH1115973 A JP H1115973A
- Authority
- JP
- Japan
- Prior art keywords
- rotation angle
- value
- target
- rotation
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 ターゲットの回転を許容した認識処理につい
て、認識性能を高くするために空間分解能を増強するこ
とを、演算処理量の急激な増加に伴う装置コストまたは
処理時間の増加によって実現することが難しい。
【解決手段】 ターゲットパターンの各要素を入力し、
予め参照パターンに基づきシナプス荷重値を設定したニ
ューラルネットワークにより推定回転角度を出力する回
転角度推定部(ST53)と、その推定された出力値と
予め設定された期待値との位相差分その出力値を補正
し、その期待値とその補正された出力値との類似度に応
じて対象物と参照物との同一を判定する判定部(ST6
〜ST8)とを備えるように構成した。
(57) [Summary] Regarding recognition processing that allows rotation of a target, increasing spatial resolution in order to enhance recognition performance requires an increase in apparatus cost or processing time due to a rapid increase in the amount of arithmetic processing. Is difficult to achieve. SOLUTION: Input each element of a target pattern,
A rotation angle estimator (ST53) that outputs an estimated rotation angle by a neural network in which a synapse load value is set in advance based on a reference pattern, and a phase difference between the estimated output value and a preset expected value is output. The determination unit (ST6) that corrects the target and determines whether the target and the reference are identical according to the similarity between the expected value and the corrected output value.
To ST8).
Description
【0001】[0001]
【発明の属する技術分野】この発明は、対象物の画像デ
ータを演算処理することにより、その対象物を特定する
画像認識装置に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus that specifies an object by performing arithmetic processing on image data of the object.
【0002】[0002]
【従来の技術】CCD(Charge Coup1ed
Device)カメラ等で撮像した画像データを演算
処理することで特定の対象パターンを認識する、いわゆ
る画像認識技術は、FA(Factory Autom
ation)分野等において多く利用されている。特に
柔軟な認識技術として、対象パターンの位置や傾き(回
転角度)によらず正しく認識することが、多くの画像認
識処理において強く要求されている。例えば、『三菱ビ
ジョンセンサーユニットのカタログ,1995年6月,
三菱電機株式会社発行』に示された、組立工場等で用い
られる画像認識装置(ビジョンセンサーユニット)にお
いては、バルブ等の部品の位置や傾き(回転角度)を認
識する機能が既に実現され、製品化されている。2. Description of the Related Art CCD (Charge Coupled)
A so-called image recognition technology for recognizing a specific target pattern by performing arithmetic processing on image data captured by a device camera or the like is a FA (Factory Automation).
)) is widely used in the field and the like. In particular, as a flexible recognition technique, it is strongly required in many image recognition processes that correct recognition be performed irrespective of the position and inclination (rotation angle) of a target pattern. For example, "Mitsubishi Vision Sensor Unit Catalog, June 1995,
In the image recognition device (vision sensor unit) used in assembly factories etc. shown in "Mitsubishi Electric Co., Ltd.", the function of recognizing the position and inclination (rotation angle) of parts such as valves has already been realized. Has been
【0003】従来、位置を抽出する方法としては、対象
物とそれ以外の色または模様等の違いを利用して、それ
らの量の射影等の前処理によって比較的容易に画面全体
の中から対象物の大まかな位置を特定することができ
た。しかし、任意の傾き(回転角度)を許容する認識を
実現するためには、大まかな位置を特定した後の対象物
の回転を許容するための演算処理量が著しく増大する問
題があった。Conventionally, as a method of extracting a position, a difference between an object and other colors or patterns is used, and preprocessing such as projection of the amount is performed relatively easily from the entire screen. I was able to identify the approximate location of the object. However, in order to realize recognition allowing an arbitrary inclination (rotation angle), there has been a problem that the amount of arithmetic processing for allowing the rotation of the object after roughly specifying the position is significantly increased.
【0004】次に動作について説明する。図8は従来の
画像認識装置の画像マッチング方式を示す説明図であ
る。認識したい部品パターンに関して全ての回転角度に
対応する参照パターンを用意し、対象パターンに対して
全ての参照パターンとの類似度を評価し、最も類似して
いる参照パターンの類似度が予め設定したしきい値以下
の場合に、対象パターンは認識すべきパターンであると
する。なお、その参照パターンの角度は部品の傾きに対
応する。即ち、従来のパターン認識手法では、回転した
全ての場合の参照パターンを用意して各々に対して認識
処理を実行することによって、多様な回転角の対象パタ
ーンの認識を実質的に実現していた。その結果、予め準
備する参照パターンの回転角の場合の数に比例して認識
処理の演算量が増大する問題が生じていた。なお、参照
パターンを一つにして対象パターンを回転処理してもよ
いが、この場合においても、対象パターンの回転角の場
合の数に比例して認識処理の演算量が増大する。回転角
度の分解能をnとした場合、回転を許容するための演算
量は一般にnの二乗に比例するので、認識精度を確保す
るために角度分解能nを増加させると急激な演算量の増
加を招き、処理時間や装置のコストが急激に増加する問
題があった。そこで、演算量の急激な増加を招かない、
回転を許容する画像認識技術の開発が強く求められてい
る。Next, the operation will be described. FIG. 8 is an explanatory diagram showing an image matching method of a conventional image recognition device. Prepare reference patterns corresponding to all rotation angles for the component pattern to be recognized, evaluate the similarity of the target pattern with all the reference patterns, and set the similarity of the most similar reference pattern in advance. When the value is equal to or smaller than the threshold value, the target pattern is assumed to be a pattern to be recognized. The angle of the reference pattern corresponds to the inclination of the component. That is, in the conventional pattern recognition method, recognition of target patterns with various rotation angles is substantially realized by preparing reference patterns for all rotated cases and executing recognition processing on each of the reference patterns. . As a result, there has been a problem that the calculation amount of the recognition processing increases in proportion to the number of rotation angles of the reference pattern prepared in advance. Note that the target pattern may be rotated with one reference pattern. However, in this case as well, the calculation amount of the recognition process increases in proportion to the number of rotation angles of the target pattern. If the resolution of the rotation angle is n, the amount of calculation for allowing rotation is generally proportional to the square of n. Therefore, if the angle resolution n is increased to ensure recognition accuracy, the amount of calculation will increase rapidly. In addition, there has been a problem that the processing time and the cost of the apparatus increase rapidly. Therefore, it does not cause a sudden increase in the amount of computation,
There is a strong demand for the development of image recognition technology that allows rotation.
【0005】図9は従来の画像認識装置の動作を示すフ
ローチャートである。ここで取り扱う画像認識装置は次
の条件で特徴付けられる。以下、対象とするパターンを
ターゲットと呼ぶ。ターゲットは2次元平面上の配列デ
ータパターンで特徴付けられる。ターゲットの中心位置
は、予め設定した前処理等により、一定の誤差を含んで
特定されるものとする。与えられたターゲットの中心位
置を原点とした同一半径円上のデータを円周方向に配列
し直した、いわゆる極座標に変換した、動径と角度を次
元とする2次元配列データを入力パターンとし、認識処
理で取り扱うパターンの単位(ターゲットパターン)と
する(ステップST1〜ステップST4)。FIG. 9 is a flowchart showing the operation of the conventional image recognition apparatus. The image recognition device handled here is characterized by the following conditions. Hereinafter, the target pattern is called a target. The target is characterized by an array data pattern on a two-dimensional plane. It is assumed that the center position of the target is specified to include a certain error by a preset preprocessing or the like. The data on the same radius circle with the center position of the given target as the origin is rearranged in the circumferential direction, converted into so-called polar coordinates, and the two-dimensional array data having dimensions of the radius and angle as an input pattern, A pattern unit (target pattern) handled in the recognition process is set (step ST1 to step ST4).
【0006】予め用意した認識すべきターゲット用の参
照パターンと入力されるターゲットパターンとの類似度
(値が小さいほど類似しているとするスカラー量)を算
出し(ステップST5)、その値が予め設定したしきい
値以下の場合にターゲットが認識すべき対象パターンで
あるとし、しきい値を越える場合にはそれ以外のパター
ンであると判定することを認識処理の基本としている
(ステップST6〜ステップST8)。その基本構成は
変更せず、全ての予想される回転角度に対応した参照パ
ターンを用意し、それら全ての参照パターンに対して類
似度を算出し、しきい値と比較する処理を実行すること
で実質的に、ターゲットの回転角度によらず認識したい
特定パターンの識別を実現している。参照パターンと入
力されるターゲットパターンとの類似度は、一般に、対
応する各要素の差の絶対値あるいは二乗値の総和によっ
て評価されるので、類似度算出に必要な演算量は要素数
に比例し、高い認識性能を実現するための要素(空間分
解能)数増大に伴って演算量は比例増加する。また、任
意の回転角度を許容するための演算量は、角度方向の階
調数倍に増えるので、回転角に関する空間分解能の二乗
に比例して急激に増大することになる。A similarity (a scalar amount indicating that the smaller the value is, the more similar the similarity is) between the prepared reference pattern for the target to be recognized and the input target pattern is calculated (step ST5). The basis of the recognition processing is to determine that the target is a target pattern to be recognized when the target is less than or equal to the set threshold, and to determine that the target is another pattern when the target exceeds the threshold (steps ST6 to ST6). ST8). By keeping the basic configuration unchanged, preparing reference patterns corresponding to all expected rotation angles, calculating the similarity for all of these reference patterns, and executing a process of comparing with a threshold value Substantially, identification of a specific pattern to be recognized is realized irrespective of the rotation angle of the target. Since the similarity between the reference pattern and the input target pattern is generally evaluated by the sum of the absolute values of the differences or the squares of the corresponding elements, the amount of calculation required for calculating the similarity is proportional to the number of elements. As the number of elements (spatial resolution) for realizing high recognition performance increases, the amount of computation increases proportionally. In addition, the amount of calculation for allowing an arbitrary rotation angle increases by the number of gradations in the angle direction, and therefore increases rapidly in proportion to the square of the spatial resolution related to the rotation angle.
【0007】[0007]
【発明が解決しようとする課題】従来の画像認識装置は
以上のように構成されているので、ターゲットの回転を
許容した認識処理において、認識性能を高くするために
空間分解能を増強すれば、演算処理量の急激な増加に伴
い装置コストおよび処理時間が増加してしまい、認識性
能を高くすることを実現することが難しいなどの課題が
あった。Since the conventional image recognition apparatus is configured as described above, in the recognition processing in which the rotation of the target is allowed, if the spatial resolution is enhanced in order to enhance the recognition performance, it is difficult to calculate. There has been a problem that the apparatus cost and the processing time increase with a rapid increase in the processing amount, and it is difficult to realize high recognition performance.
【0008】この発明は上記のような課題を解決するた
めになされたもので、現実的な装置コストおよび処理時
間でターゲットの回転を許容するパターン認識を実現す
るために、より少ない演算量で回転画像を認識できる画
像認識装置を得ることを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems. In order to realize pattern recognition which allows rotation of a target with a realistic apparatus cost and processing time, a rotation with a smaller amount of calculation is required. It is an object to obtain an image recognition device that can recognize an image.
【0009】[0009]
【課題を解決するための手段】請求項1記載の発明に係
る画像認識装置は、ターゲットパターンの各要素を入力
し、予め参照パターンに基づきシナプス荷重値を設定し
たニューラルネットワークにより推定回転角度を出力す
る回転角度推定部と、その回転角度推定部により推定さ
れた出力値とその回転角度推定部により予め設定された
期待値との位相差分その出力値を補正し、その期待値と
その補正された出力値との類似度に応じて対象物と参照
物との同一を判定する判定部とを備えたものである。According to the first aspect of the present invention, there is provided an image recognition apparatus which inputs each element of a target pattern and outputs an estimated rotation angle by a neural network in which a synapse load value is set in advance based on a reference pattern. A rotation angle estimating unit, and a phase difference between an output value estimated by the rotation angle estimating unit and an expected value preset by the rotation angle estimating unit. A determination unit that determines the identity of the target object and the reference object according to the degree of similarity with the output value.
【0010】請求項2記載の発明に係る画像認識装置
は、複数の回転角度に応じて、ターゲットパターンを角
度方向にシフトさせ複数の回転ターゲットパターンを生
成する回転前処理部と、各回転ターゲットパターンの各
要素を入力し、予め生成された参照物の参照パターンに
基づいてシナプス荷重値が設定されたニューラルネット
ワークにより、それら各回転ターゲットパターンごとに
推定された回転角度に応じて出力値を出力する回転角度
推定部と、その推定された回転角度に応じた出力値とそ
の回転角度推定部により予め設定された期待値との位相
差に応じてその出力値を補正する後処理部と、期待値と
後処理部により補正された出力値との類似度を演算し、
その類似度が所定値以内の場合に対象物が参照物と同一
であると判定する判定部とを備えたものである。According to a second aspect of the present invention, there is provided an image recognition apparatus, comprising: a pre-rotation processing unit for shifting a target pattern in an angular direction according to a plurality of rotation angles to generate a plurality of rotation target patterns; And outputs an output value according to the rotation angle estimated for each of the rotation target patterns by a neural network in which a synapse load value is set based on a reference pattern of a reference object generated in advance. A rotation angle estimating unit, a post-processing unit that corrects the output value according to a phase difference between an output value corresponding to the estimated rotation angle and an expected value preset by the rotation angle estimating unit, and an expected value And a similarity between the output value corrected by the post-processing unit and
A determining unit that determines that the target object is the same as the reference object when the similarity is within a predetermined value.
【0011】請求項3記載の発明に係る画像認識装置
は、回転角度推定部において、複数の出力ニューロンを
有し、各々の出力ニューロン毎に担当角度を分担させ、
後処理部において、その回転角度推定部により推定され
た担当角度に応じた出力値とその回転角度推定部により
予め設定された担当角度毎の期待値との位相差に応じて
それら出力値を補正し、判定部において、それら担当角
度毎の期待値とその後処理部により補正されたそれら担
当角度に応じた出力値との類似度を演算し、それら類似
度が所定値以内の場合に対象物が参照物と同一であると
判定するようにしたものである。According to a third aspect of the present invention, in the image recognition apparatus, the rotation angle estimating unit has a plurality of output neurons, and assigns an assigned angle to each output neuron.
The post-processing unit corrects the output values according to the phase difference between the output value corresponding to the assigned angle estimated by the rotation angle estimation unit and the expected value for each assigned angle preset by the rotation angle estimation unit. Then, the determination unit calculates the similarity between the expected value for each assigned angle and the output value corresponding to the assigned angle corrected by the subsequent processing unit, and when the similarity is within a predetermined value, the object is determined. It is determined to be the same as the reference object.
【0012】請求項4記載の発明に係る画像認識装置
は、後処理部および判定部において、回転角度推定部に
より推定された回転角度に応じた出力値を入力し、予め
設定された期待値に基づいてシナプス荷重値が設定され
たニューラルネットワークにより、その期待値と出力値
との類似度を出力するようにしたものである。According to a fourth aspect of the present invention, in the post-processing unit and the determination unit, an output value corresponding to the rotation angle estimated by the rotation angle estimating unit is input to the post-processing unit and the determination unit, and the predetermined expected value is set. The similarity between the expected value and the output value is output by a neural network in which a synapse load value is set based on the value.
【0013】[0013]
【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1はこの発明の実施の形態1による画
像認識装置の動作を示すフローチャートである。ここで
取り扱う画像認識装置は次の条件で特徴付けられる。以
下、対象とするパターンをターゲットと呼ぶ。ターゲッ
トは2次元平面上の配列データパターンで特徴付けられ
る。ターゲットの中心位置は、予め設定した前処理等に
より、一定の誤差を含んで特定されるものとする。与え
られたターゲットの中心位置を原点とした同一半径円上
のデータを円周方向に配列し直した、いわゆる極座標に
変換した、動径と角度を次元とする2次元配列データを
入力パターンとし、認識処理で取り扱うパターンの単位
(ターゲットパターン)とする(ステップST1〜ステ
ップST4:ターゲットパターン生成部)。これらステ
ップST1〜ステップST4の処理は、従来技術と同一
の処理である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a flowchart showing the operation of the image recognition device according to the first embodiment of the present invention. The image recognition device handled here is characterized by the following conditions. Hereinafter, the target pattern is called a target. The target is characterized by an array data pattern on a two-dimensional plane. It is assumed that the center position of the target is specified to include a certain error by a preset preprocessing or the like. The data on the same radius circle with the center position of the given target as the origin is rearranged in the circumferential direction, converted into so-called polar coordinates, and the two-dimensional array data having dimensions of the radius and angle as an input pattern, The unit of pattern (target pattern) handled in the recognition process is set (step ST1 to step ST4: target pattern generation unit). The processing of these steps ST1 to ST4 is the same processing as the conventional technique.
【0014】この実施の形態1による画像認識装置の機
能構成上の特徴は、従来装置における類似度算出処理機
能(ステップST5)が3つの処理機能、即ち、回転前
処理機能(ステップST51,ST52:回転前処理
部)、回転角度推定処理機能(ステップST53,ST
54:回転角度推定部)、そして、複数の推定角度を基
に類似度を算出するための補正処理を行う後処理機能
(ステップST55:後処理部)で構成されていること
である。回転前処理部では、与えられたターゲットパタ
ーンを指定された回転角度に対応した回転ターゲットパ
ターンヘ変換する処理を行う。回転角度推定部は、入力
されたパターンの回転角度を出力する機能で、ニューラ
ルネットワークにより実現することができる。The functional configuration of the image recognition apparatus according to the first embodiment is characterized in that the similarity calculation processing function (step ST5) in the conventional apparatus has three processing functions, namely, a pre-rotation processing function (steps ST51 and ST52: Pre-rotation processing section), rotation angle estimation processing function (steps ST53, ST53)
54: a rotation angle estimating unit), and a post-processing function (step ST55: post-processing unit) for performing a correction process for calculating a similarity based on a plurality of estimated angles. The pre-rotation processing unit performs a process of converting the given target pattern into a rotation target pattern corresponding to the specified rotation angle. The rotation angle estimation unit has a function of outputting the rotation angle of the input pattern, and can be realized by a neural network.
【0015】このニューラルネットワークは、一般に予
め認識すべきサンプルパターンにより回転角度を出力す
るように誤差逆伝播法(EBP:Error Back
Propagation)で学習された、多層パーセ
プトロン型のニューラルネットワークを用いることがで
きる。後処理部では、指定した複数の回転角度にしたが
って回転された回転ターゲットパターンに対する推定角
度の変化量を基に類似度を算出するための補正処理を行
う。さらに、ニューラルネットワークにおける期待値と
後処理部により補正処理された出力値との類似度を演算
し、その類似度が所定値以内の場合に対象物が参照物と
同一であると判定する(ステップST6〜ステップST
8:判定部)。This neural network generally uses an error back propagation method (EBP: Error Back) so as to output a rotation angle according to a sample pattern to be recognized in advance.
A multi-layer perceptron type neural network learned by Propagation can be used. The post-processing unit performs a correction process for calculating a similarity based on a change amount of the estimated angle with respect to the rotation target pattern rotated according to the plurality of designated rotation angles. Further, the similarity between the expected value in the neural network and the output value corrected by the post-processing unit is calculated, and when the similarity is within a predetermined value, it is determined that the target object is the same as the reference object (step ST6 to Step ST
8: determination unit).
【0016】次に動作について説明する。各機能部毎の
処理概要と機能構成を図を用いて説明する。図2は回転
前処理のパターンを示す概念図である。対象物の画像デ
ータから抽出され極座標変換された図2中のターゲット
パターンは、角度0方向にn、動径r方向に5の、n×
5配列データの場合を例示している。この場合、角度方
向の分解能は360/n度となる。但し、この実施の形
態1において、角度方向および動径方向の分解能は特に
限定されるものではない。このターゲットパターンを回
転処理した回転ターゲットパターンを図2上側に示す。
ここでは360×3/n度回転処理させた状態を例示し
ており、360×3/n度の回転処理は、ターゲットパ
ターンを角度方向に3要素分、左にシフト(ローテーシ
ョン)することで表現することができる。つまり、角度
方向のシフト量によってシフト数×360/n度に対応
する回転処理を実現することができる。図1に示した画
像認識装置において、回転前処理部に回転角度が与えら
れる構成になっていることから、回転前処理部では与え
られた回転角度θに対応するシフト量(=n×θ/36
0)だけ角度方向にシフトさせた回転ターゲットパター
ンを出力する機能が実現されれば良い。また、回転角度
θを指定する手段として角度θを与える替りにシフト量
を直接与える構成にしても良い。Next, the operation will be described. A processing outline and a functional configuration for each functional unit will be described with reference to the drawings. FIG. 2 is a conceptual diagram showing a pattern of the pre-rotation processing. The target pattern in FIG. 2 extracted from the image data of the target object and subjected to the polar coordinate conversion is n × 5 in the direction of the angle 0 and 5 in the direction of the radial radius r.
The case of five array data is illustrated. In this case, the resolution in the angular direction is 360 / n degrees. However, in the first embodiment, the resolutions in the angular direction and the radial direction are not particularly limited. A rotated target pattern obtained by rotating the target pattern is shown in the upper part of FIG.
Here, a state where the rotation processing is performed by 360 × 3 / n degrees is illustrated. The rotation processing of 360 × 3 / n degrees is expressed by shifting (rotating) the target pattern to the left by three elements in the angular direction. can do. That is, a rotation process corresponding to the number of shifts × 360 / n degrees can be realized by the shift amount in the angular direction. In the image recognition apparatus shown in FIG. 1, since the rotation angle is given to the pre-rotation processing unit, the shift amount corresponding to the given rotation angle θ (= n × θ / 36
The function of outputting a rotation target pattern shifted in the angular direction by 0) may be realized. In addition, as a means for designating the rotation angle θ, a configuration may be employed in which the shift amount is directly given instead of giving the angle θ.
【0017】図3はニューラルネットワークによる回転
角推定部を示す概念図である。この回転角推定部では、
3層の階層型ニューラルネットワーク(多層パーセプト
ロン)を用いる例を示している。図4は回転ターゲット
パターンと入力ニューロンとの関係を示す概念図であ
る。この入力ニューロンは入力される回転ターゲットパ
ターンの各要素に対応させて、図4に示すとおり、回転
ターゲットパターンがn×5の配列データである場合に
は、5n個の入力ニューロンが必要になる。但し、入力
ニューロン数は規定されるものではなく、適当な処理に
よって、例えば、各角度毎に半径方向の値を平均してn
個の入力数に圧縮する等の方法も考えられる。ターゲッ
トパターンの各要素の入力ニューロンヘの対応付けに関
するこの実施の形態1での要件は、各入力ニューロン間
の相対的な位置関係が対応する回転ターゲットパターン
の要素間の相対角度の関係に常に一致していることだけ
である。FIG. 3 is a conceptual diagram showing a rotation angle estimating unit using a neural network. In this rotation angle estimation unit,
An example is shown in which a three-layer hierarchical neural network (multilayer perceptron) is used. FIG. 4 is a conceptual diagram showing the relationship between the rotation target pattern and the input neurons. This input neuron corresponds to each element of the input rotation target pattern, and as shown in FIG. 4, when the rotation target pattern is n × 5 array data, 5n input neurons are required. However, the number of input neurons is not specified, and by appropriate processing, for example, by averaging the values in the radial direction for each angle, n
For example, a method of compressing the input number may be used. The requirement in the first embodiment relating to the correspondence of each element of the target pattern to the input neuron is that the relative positional relationship between the input neurons always corresponds to the relative angle relationship between the elements of the corresponding rotated target pattern. It's just what we do.
【0018】中間ニューロン数については、特に規定し
ないが、このニューラルネットワークは予め認識したい
参照用ターゲットパターン(参照パターン)を用いて、
ターゲットパターンの回転角度を出力するように誤差逆
伝播法(EBP:ErrorBack Propaga
tion)により学習するので、高い識別能力を実現す
るために、認識したいターゲットに適応した適当な数に
する必要がある。即ち、中間ニューロン数が多すぎると
誤認率が高くなり、少なすぎると認識率が低下するの
で、高い識別能力を実現するためには、問題対象に応じ
て適当な数に調整する必要がある。出力ニューロン数
は、認識するターゲットパターンの複雑さに対応して増
やすことも可能であるが、ここでは最も単純な場合とし
て、出力ニューロンが1個の場合を示す。学習時の出力
ニューロンの期待値は、図3の上部に示すようなsin
関数のような周期関数が望ましいが、この期待値の関数
形式も何等この実施の形態1を規定するものではない。
このニューラルネットワークは、予め、学習する参照タ
ーゲットパターンあたりシフト数が0〜n−1のn個の
回転パターンを各回転角度を期待値として逆伝播学習を
行う。但し、この実施の形態1では学習の方法等につい
ては特に規定しない。Although the number of intermediate neurons is not particularly defined, this neural network uses a reference target pattern (reference pattern) to be recognized in advance, and
An error backpropagation method (EBP: ErrorBack Propaga) is used to output the rotation angle of the target pattern.
In order to realize high discrimination ability, it is necessary to set an appropriate number adapted to a target to be recognized. That is, if the number of intermediate neurons is too large, the false recognition rate increases, and if it is too small, the recognition rate decreases. Therefore, in order to realize high discrimination ability, it is necessary to adjust the number to an appropriate number according to the problem. Although the number of output neurons can be increased in accordance with the complexity of the target pattern to be recognized, the simplest case is shown with a single output neuron. The expected value of the output neuron during learning is sin as shown in the upper part of FIG.
Although a periodic function such as a function is desirable, the functional form of the expected value does not specify the first embodiment.
This neural network performs back-propagation learning in advance with n rotation patterns having a shift number of 0 to n-1 per reference target pattern to be learned, with each rotation angle as an expected value. However, in the first embodiment, a learning method and the like are not particularly defined.
【0019】図5は後処理部および判定部の処理内容を
示す説明図であり、回転角推定部で各回転ターゲットパ
ターン毎に出力された推定回転角度を基に予め設定した
認識すべきターゲットパターンとの類似度を出力する処
理を示したものである。まず、出力パターンの大局的特
徴に基づき、期待値パターン(この実施の形態1ではs
in関数)との位相差Δを求める。この位相差Δは、対
象物のターゲットパターンと参照ターゲットパターンと
の回転角度を示すものであり、位相差Δは、各々の重心
位置の差で求める方法や最小二乗法等により求めること
ができる。但し、位相差Δを求める手段についてはこの
実施の形態1において規定するものではない。そして、
その出力値を位相差Δによって補正した後、各回転角度
毎の出力値と期待値との差の二乗和を算出し、その値を
類似度(値が小さいほど類似している)として出力し、
その類似度が所定値以内の場合に対象物が参照物と同一
であると判定する。FIG. 5 is an explanatory diagram showing the processing contents of the post-processing unit and the determination unit. The target pattern to be recognized is set in advance based on the estimated rotation angle output for each rotation target pattern by the rotation angle estimation unit. This shows a process of outputting the degree of similarity with. First, based on the global characteristics of the output pattern, an expected value pattern (s
(in function). This phase difference Δ indicates the rotation angle between the target pattern of the target object and the reference target pattern, and the phase difference Δ can be obtained by a method of obtaining the difference between the positions of the centers of gravity, the least square method, or the like. However, the means for obtaining the phase difference Δ is not specified in the first embodiment. And
After correcting the output value by the phase difference Δ, the square sum of the difference between the output value and the expected value for each rotation angle is calculated, and the value is output as a similarity (smaller the value, the more similar). ,
When the similarity is within a predetermined value, it is determined that the target object is the same as the reference object.
【0020】以上のように、この実施の形態1によれ
ば、ニューラルネットワークで実現される回転角度推定
部の汎化能力によって、数回のターゲットパターンの回
転による演算処理によって類似度を求めることができ、
認識性能の向上はニューラルネットワークの角度推定能
力の向上によって実現することができる。即ち、ターゲ
ットの回転を許容する画像認識処理は、従来装置では、
n通り(角度階調がnの場合)の回転の場合だけ類似計
算を繰り返し実行する必要があり、nの二乗に比例して
演算処理量が増大していた。しかしながら、この実施の
形態1によれば、回転画像認識処理に必要な演算量はn
に比例した増加のみ生じ、角度階調nの増加に伴う演算
処理量の急激な増大を防止できる効果がある。また、回
転前処理部は、ターゲットパターンをシフトするだけで
容易に回転ターゲットパターンを生成することができ、
回転ターゲットパターンの生成における処理の増加を抑
制することができる効果がある。As described above, according to the first embodiment, the similarity can be obtained by the arithmetic processing by rotating the target pattern several times by the generalization ability of the rotation angle estimating unit realized by the neural network. Can,
The improvement of the recognition performance can be realized by improving the angle estimation ability of the neural network. That is, in the image recognition processing that allows the rotation of the target,
It is necessary to repeatedly execute the similar calculation only in the case of n rotations (when the angle gradation is n), and the amount of calculation increases in proportion to the square of n. However, according to the first embodiment, the calculation amount required for the rotation image recognition process is n
And an abrupt increase in the amount of arithmetic processing associated with an increase in the angle gradation n can be prevented. In addition, the rotation preprocessing unit can easily generate a rotation target pattern simply by shifting the target pattern,
There is an effect that it is possible to suppress an increase in processing in generating the rotation target pattern.
【0021】実施の形態2.図6はこの発明の実施の形
態2によるニューラルネットワークによる回転角推定部
を示す概念図である。この実施の形態2では、実施の形
態1において、回転角度推定部のニューラルネットワー
クの出力ニューロンを複数にして識別性能を向上させる
ものである。図6に示すように、各々の出力ニューロン
毎に担当角度を分担させ、出力ニューロン#0に角度0
〜180度、出力ニューロン#1には角度90〜270
度、出力ニューロン#2には角度180〜360度、出
力ニューロン#3には角度270〜90度を各々割り当
てる。その後、後処理部において、その回転角度推定部
により推定された担当角度に応じた出力値と回転角度推
定部により予め設定された担当角度毎の期待値との位相
差に応じて出力値を補正し、判定部において、担当角度
毎の期待値と後処理部により補正された担当角度に応じ
た出力値との類似度を演算し、類似度が所定値以内の場
合に対象物が参照物と同一であると判定する。Embodiment 2 FIG. FIG. 6 is a conceptual diagram showing a rotation angle estimating unit using a neural network according to Embodiment 2 of the present invention. In the second embodiment, the discrimination performance is improved by using a plurality of output neurons of the neural network of the rotation angle estimation unit in the first embodiment. As shown in FIG. 6, the assigned angle is assigned to each output neuron, and the output neuron # 0 is assigned an angle of 0.
180 degrees, output neuron # 1 has an angle of 90-270
The output neuron # 2 is assigned an angle of 180 to 360 degrees, and the output neuron # 3 is assigned an angle of 270 to 90 degrees. Thereafter, in the post-processing unit, the output value is corrected according to the phase difference between the output value corresponding to the assigned angle estimated by the rotation angle estimation unit and the expected value for each assigned angle preset by the rotation angle estimation unit. Then, the determination unit calculates the similarity between the expected value for each assigned angle and the output value corresponding to the assigned angle corrected by the post-processing unit, and when the similarity is within a predetermined value, the object is regarded as the reference object. It is determined that they are the same.
【0022】以上のように、この実施の形態2によれ
ば、複数の出力ニューロンを設け、それぞれの反応角度
領域を分散させることで非線形変換の自由度を増大させ
ることができ、識別能力を高めることができる効果があ
る。As described above, according to the second embodiment, by providing a plurality of output neurons and dispersing the respective reaction angle regions, the degree of freedom of the non-linear conversion can be increased, and the discrimination ability can be improved. There is an effect that can be.
【0023】実施の形態3.図7はこの発明の実施の形
態3によるニューラルネットワークによる後処理部およ
び判定部を示す概念図である。この実施の形態3では、
実施の形態1において、複数の推定角度値から類似度を
求める後処理および判定部を実現する構成として、図7
に示すようなニューラルネットワークを用いるものであ
る。各入力ニューロンには、回転角度推定部により推定
された回転角度に応じた出力値を入力し、2個の出力ニ
ューロンには類似度と回転角度が出力されるように予め
学習を施しておく。この後処理用のニューラルネットワ
ークの入力ニューロン数はターゲットパターンを認識す
るために回転させる場合の数に相当する。Embodiment 3 FIG. FIG. 7 is a conceptual diagram showing a post-processing unit and a determination unit using a neural network according to Embodiment 3 of the present invention. In the third embodiment,
In the first embodiment, as a configuration for realizing a post-processing and determination unit for obtaining a similarity from a plurality of estimated angle values, FIG.
This uses a neural network as shown in FIG. An output value corresponding to the rotation angle estimated by the rotation angle estimation unit is input to each input neuron, and learning is performed in advance so that the similarity and the rotation angle are output to the two output neurons. The number of input neurons of the post-processing neural network corresponds to the number of rotations in order to recognize the target pattern.
【0024】以上のように、この実施の形態3によれ
ば、後処理部および判定部をニューラルネットワークに
より構成することができる効果がある。As described above, according to the third embodiment, there is an effect that the post-processing unit and the determination unit can be configured by a neural network.
【0025】[0025]
【発明の効果】以上のように、請求項1記載の発明によ
れば、ターゲットパターンの各要素を入力し、参照パタ
ーンに基づいてシナプス荷重値が設定されたニューラル
ネットワークにより推定回転角度を出力する回転角度推
定部と、その推定された出力値と予め設定された期待値
との位相差分その出力値を補正し、その期待値とその補
正された出力値との類似度に応じて対象物と参照物との
同一を判定する判定部とを備えるように構成したので、
ニューラルネットワークの汎化能力によって、比較的少
ない演算処理量で回転を許容するパターン認識ができ、
処理速度を向上し、装置コストを低減することができる
効果がある。As described above, according to the first aspect of the present invention, each element of the target pattern is input, and the estimated rotation angle is output by the neural network in which the synapse load value is set based on the reference pattern. A rotation angle estimating unit, a phase difference between the estimated output value and a preset expected value, the output value of which is corrected, and a target object according to the similarity between the expected value and the corrected output value. Since it is configured to include a determination unit that determines the same as the reference object,
Due to the generalization ability of the neural network, pattern recognition that allows rotation with a relatively small amount of computation can be performed,
There is an effect that the processing speed can be improved and the apparatus cost can be reduced.
【0026】請求項2記載の発明によれば、複数の回転
角度に応じて、ターゲットパターンを角度方向にシフト
させ複数の回転ターゲットパターンを生成する回転前処
理部と、各回転ターゲットパターンの各要素を入力し、
参照パターンに基づいてシナプス荷重値が設定されたニ
ューラルネットワークにより、それら各回転ターゲット
パターンごとに推定された回転角度に応じて出力値を出
力する回転角度推定部と、その推定された回転角度に応
じた出力値と予め設定された期待値との位相差に応じて
その出力値を補正する後処理部と、その期待値と補正さ
れた出力値との類似度を演算し、その類似度が所定値以
内の場合に対象物が参照物と同一であると判定する判定
部とを備えるように構成したので、回転前処理部はター
ゲットパターンをシフトするだけで容易に回転ターゲッ
トパターンを生成することができ、回転ターゲットパタ
ーンの生成における処理の増加を抑制することができる
効果がある。According to the second aspect of the present invention, a pre-rotation processing section for shifting a target pattern in an angular direction according to a plurality of rotation angles to generate a plurality of rotation target patterns, and each element of each rotation target pattern And enter
A rotation angle estimator that outputs an output value according to a rotation angle estimated for each of the rotation target patterns by a neural network in which a synapse load value is set based on the reference pattern, and a rotation angle estimator corresponding to the estimated rotation angle. A post-processing unit that corrects the output value according to a phase difference between the output value and a preset expected value, and calculates a similarity between the expected value and the corrected output value, and determines the similarity to a predetermined value. The rotation pre-processing unit can easily generate the rotation target pattern simply by shifting the target pattern, since the determination unit determines that the target object is the same as the reference object when the value is within the value. Thus, there is an effect that it is possible to suppress an increase in processing in generating the rotation target pattern.
【0027】請求項3記載の発明によれば、回転角度推
定部は、複数の出力ニューロンを有し、各々の出力ニュ
ーロン毎に担当角度を分担させ、後処理部は、回転角度
推定部により推定された担当角度に応じた出力値と回転
角度推定部により予め設定された担当角度毎の期待値と
の位相差に応じて出力値を補正し、判定部は、担当角度
毎の期待値と後処理部により補正された担当角度に応じ
た出力値との類似度を演算し、類似度が所定値以内の場
合に対象物が参照物と同一であると判定するように構成
したので、複数の出力ニューロンを設け、それぞれの反
応角度領域を分散させることで非線形変換の自由度を増
大させることができ、識別能力を高めることができる効
果がある。According to the third aspect of the present invention, the rotation angle estimating section has a plurality of output neurons, and assigns the assigned angle to each output neuron. The post-processing section estimates the rotation angle by the rotation angle estimating section. The output value is corrected according to the phase difference between the output value corresponding to the assigned angle and the expected value set for each assigned angle set in advance by the rotation angle estimating unit. A similarity with an output value corresponding to the assigned angle corrected by the processing unit is calculated, and when the similarity is within a predetermined value, the object is determined to be the same as the reference object. By providing output neurons and dispersing the respective reaction angle regions, the degree of freedom of the non-linear conversion can be increased, and the discrimination ability can be enhanced.
【0028】請求項4記載の発明によれば、後処理部お
よび判定部は、回転角度推定部により推定された回転角
度に応じた出力値を入力し、予め設定された期待値に基
づいてシナプス荷重値が設定されたニューラルネットワ
ークにより、期待値と出力値との類似度を出力するよう
に構成したので、後処理部および判定部をニューラルネ
ットワークにより構成することができる効果がある。According to the fourth aspect of the present invention, the post-processing unit and the determination unit input an output value corresponding to the rotation angle estimated by the rotation angle estimation unit, and perform a synapse based on a preset expected value. Since the similarity between the expected value and the output value is configured to be output by the neural network in which the weight value is set, there is an effect that the post-processing unit and the determination unit can be configured by the neural network.
【図1】 この発明の実施の形態1による画像認識装置
の動作を示すフローチャートである。FIG. 1 is a flowchart showing an operation of an image recognition device according to a first embodiment of the present invention.
【図2】 回転前処理のパターンを示す概念図である。FIG. 2 is a conceptual diagram showing a pattern of a pre-rotation process.
【図3】 ニューラルネットワークによる回転角推定部
を示す概念図である。FIG. 3 is a conceptual diagram illustrating a rotation angle estimating unit using a neural network.
【図4】 回転ターゲットパターンと入力ニューロンと
の関係を示す概念図である。FIG. 4 is a conceptual diagram showing a relationship between a rotation target pattern and input neurons.
【図5】 後処理部および判定部の処理内容を示す説明
図である。FIG. 5 is an explanatory diagram illustrating processing contents of a post-processing unit and a determination unit.
【図6】 この発明の実施の形態2によるニューラルネ
ットワークによる回転角推定部を示す概念図である。FIG. 6 is a conceptual diagram showing a rotation angle estimating unit using a neural network according to a second embodiment of the present invention.
【図7】 この発明の実施の形態3によるニューラルネ
ットワークによる後処理部および判定部を示す概念図で
ある。FIG. 7 is a conceptual diagram showing a post-processing unit and a determination unit using a neural network according to a third embodiment of the present invention.
【図8】 従来の画像認識装置の画像マッチング方式を
示す説明図である。FIG. 8 is an explanatory diagram showing an image matching method of a conventional image recognition device.
【図9】 従来の画像認識装置の動作を示すフローチャ
ートである。FIG. 9 is a flowchart showing the operation of a conventional image recognition device.
ST1〜ST4 ターゲットパターン生成部、ST6〜
ST8 判定部、ST51,ST52 回転前処理部、
ST53 回転角度推定部、ST54,ST55 後処
理部。ST1 to ST4 Target pattern generator, ST6 to
ST8 determination unit, ST51, ST52 rotation preprocessing unit,
ST53 Rotation angle estimation unit, ST54, ST55 Post-processing unit.
Claims (4)
ーンを生成するターゲットパターン生成部と、上記ター
ゲットパターンの各要素を入力し、予め生成された参照
物の参照パターンに基づいてシナプス荷重値が設定され
たニューラルネットワークにより推定回転角度を出力す
る回転角度推定部と、その回転角度推定部により推定さ
れた出力値とその回転角度推定部により予め設定された
期待値との位相差分その出力値を補正し、その期待値と
その補正された出力値との類似度に応じて上記対象物と
上記参照物との同一を判定する判定部とを備えた画像認
識装置。1. A target pattern generation unit that generates a target pattern from image data of a target object, and inputs each element of the target pattern, and sets a synapse load value based on a previously generated reference pattern of a reference object. A rotation angle estimator for outputting an estimated rotation angle by the neural network, and a phase difference between an output value estimated by the rotation angle estimator and an expected value set in advance by the rotation angle estimator. An image recognition apparatus comprising: a determination unit that determines whether the target object is the same as the reference object according to the similarity between the expected value and the corrected output value.
タ上の中心を原点として極座標変換された動径と角度を
次元とするターゲットパターンを生成するターゲットパ
ターン生成部と、予め設定された複数の回転角度に応じ
て、上記ターゲットパターンを角度方向にシフトさせ複
数の回転ターゲットパターンを生成する回転前処理部
と、上記各回転ターゲットパターンの各要素を入力し、
予め生成された参照物の参照パターンに基づいてシナプ
ス荷重値が設定されたニューラルネットワークにより、
それら各回転ターゲットパターンごとに推定された回転
角度に応じて出力値を出力する回転角度推定部と、その
回転角度推定部により推定された回転角度に応じた出力
値とその回転角度推定部により予め設定された期待値と
の位相差に応じてその出力値を補正する後処理部と、上
記期待値と上記後処理部により補正された出力値との類
似度を演算し、その類似度が所定値以内の場合に上記対
象物が上記参照物と同一であると判定する判定部とを備
えた画像認識装置。2. A target pattern generating section for generating a target pattern having a radius and an angle as dimensions obtained by performing a polar coordinate conversion with the center on the image data as an origin from image data of an object, and a plurality of target patterns set in advance. According to the rotation angle, the target pattern is shifted in the angular direction to generate a plurality of rotation target patterns, and a rotation pre-processing unit, and input each element of each of the rotation target patterns,
By the neural network in which the synapse weight value is set based on the reference pattern of the reference object generated in advance,
A rotation angle estimating unit that outputs an output value according to the rotation angle estimated for each of the rotation target patterns, and an output value corresponding to the rotation angle estimated by the rotation angle estimating unit and the rotation angle estimating unit. A post-processing unit that corrects the output value according to the phase difference from the set expected value, and calculates a similarity between the expected value and the output value corrected by the post-processing unit, and determines the similarity to a predetermined value. An image recognition device comprising: a determination unit that determines that the target object is the same as the reference object when the value is within the value.
ンを有し、各々の出力ニューロン毎に担当角度を分担さ
せ、後処理部は、その回転角度推定部により推定された
担当角度に応じた出力値とその回転角度推定部により予
め設定された担当角度毎の期待値との位相差に応じてそ
れら出力値を補正し、判定部は、それら担当角度毎の期
待値とその後処理部により補正されたそれら担当角度に
応じた出力値との類似度を演算し、それら類似度が所定
値以内の場合に対象物が参照物と同一であると判定する
ようにしたことを特徴とする請求項2記載の画像認識装
置。3. The rotation angle estimating section has a plurality of output neurons, and assigns an assigned angle to each output neuron. The post-processing section responds to the assigned angle estimated by the rotation angle estimating section. The output values are corrected according to the phase difference between the output value and the expected value for each assigned angle preset by the rotation angle estimating unit, and the determination unit corrects the expected value for each assigned angle and the subsequent processing unit. Calculating a similarity with the output value according to the assigned angle, and determining that the target object is the same as the reference object when the similarity is within a predetermined value. 2. The image recognition device according to 2.
部により推定された回転角度に応じた出力値を入力し、
予め設定された期待値に基づいてシナプス荷重値が設定
されたニューラルネットワークにより、その期待値と出
力値との類似度を出力することを特徴とする請求項2ま
たは請求項3記載の画像認識装置。4. The post-processing unit and the determination unit input an output value according to the rotation angle estimated by the rotation angle estimation unit,
4. The image recognition apparatus according to claim 2, wherein a similarity between the expected value and the output value is output by a neural network in which a synapse load value is set based on a predetermined expected value. .
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9166388A JPH1115973A (en) | 1997-06-23 | 1997-06-23 | Image recognition device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP9166388A JPH1115973A (en) | 1997-06-23 | 1997-06-23 | Image recognition device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH1115973A true JPH1115973A (en) | 1999-01-22 |
Family
ID=15830501
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP9166388A Pending JPH1115973A (en) | 1997-06-23 | 1997-06-23 | Image recognition device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH1115973A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008234653A (en) * | 2007-03-21 | 2008-10-02 | Ricoh Co Ltd | Target image detection method and image detection apparatus |
| US7577297B2 (en) | 2002-12-16 | 2009-08-18 | Canon Kabushiki Kaisha | Pattern identification method, device thereof, and program thereof |
| KR20180085697A (en) * | 2017-01-19 | 2018-07-27 | 서울대학교산학협력단 | Apparatus and method for recognizing turned object |
| JP2018190052A (en) * | 2017-04-28 | 2018-11-29 | オムロン株式会社 | Processing device and generation device |
| WO2019116494A1 (en) * | 2017-12-14 | 2019-06-20 | 日本電気株式会社 | Learning device, learning method, sorting method, and storage medium |
| WO2019116497A1 (en) * | 2017-12-14 | 2019-06-20 | 日本電気株式会社 | Identification device, identification method, and storage medium |
| CN115082576A (en) * | 2021-03-10 | 2022-09-20 | 通用电气精准医疗有限责任公司 | System and method for processing magnetic resonance images using phase sensitive structure similarity index measurements |
-
1997
- 1997-06-23 JP JP9166388A patent/JPH1115973A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7577297B2 (en) | 2002-12-16 | 2009-08-18 | Canon Kabushiki Kaisha | Pattern identification method, device thereof, and program thereof |
| JP2008234653A (en) * | 2007-03-21 | 2008-10-02 | Ricoh Co Ltd | Target image detection method and image detection apparatus |
| US8660317B2 (en) | 2007-03-21 | 2014-02-25 | Ricoh Company, Ltd. | Object image detection method and object image detection device for detecting an object image from an input image |
| KR20180085697A (en) * | 2017-01-19 | 2018-07-27 | 서울대학교산학협력단 | Apparatus and method for recognizing turned object |
| JP2018190052A (en) * | 2017-04-28 | 2018-11-29 | オムロン株式会社 | Processing device and generation device |
| WO2019116494A1 (en) * | 2017-12-14 | 2019-06-20 | 日本電気株式会社 | Learning device, learning method, sorting method, and storage medium |
| WO2019116497A1 (en) * | 2017-12-14 | 2019-06-20 | 日本電気株式会社 | Identification device, identification method, and storage medium |
| JPWO2019116494A1 (en) * | 2017-12-14 | 2020-11-26 | 日本電気株式会社 | Learning devices, learning methods, and learning programs |
| US11176420B2 (en) | 2017-12-14 | 2021-11-16 | Nec Corporation | Identification device, identification method, and storage medium |
| US11270163B2 (en) | 2017-12-14 | 2022-03-08 | Nec Corporation | Learning device, learning method, and storage medium |
| CN115082576A (en) * | 2021-03-10 | 2022-09-20 | 通用电气精准医疗有限责任公司 | System and method for processing magnetic resonance images using phase sensitive structure similarity index measurements |
| CN115082576B (en) * | 2021-03-10 | 2025-06-20 | 通用电气精准医疗有限责任公司 | System and method for processing magnetic resonance images using a phase-sensitive structural similarity index metric |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN114612556B (en) | Training method, pose estimation method and device for visual inertial odometry model | |
| Pizarro et al. | Relative Pose Estimation for Instrumented, Calibrated Imaging Platforms. | |
| CN111507908A (en) | Image correction processing method, device, storage medium and computer equipment | |
| CN113284179A (en) | Robot multi-object sorting method based on deep learning | |
| CN101770582A (en) | Image matching system and method | |
| WO2005043466A1 (en) | Estimation system, estimation method, and estimation program for estimating object state | |
| CN114556268B (en) | Gesture recognition method, device and storage medium | |
| CN115063768A (en) | Three-dimensional target detection method, encoder and decoder | |
| CN109886124A (en) | A Grabbing Method for Textureless Metal Parts Based on Harness Descriptor Image Matching | |
| JP7464512B2 (en) | 3D human posture estimation device, method and program | |
| JP4570764B2 (en) | Motion information recognition system | |
| CN118887209B (en) | Defect detection method of flexible circuit board based on transducer | |
| JP4470434B2 (en) | Motion identification device and object posture identification device | |
| JPH1115973A (en) | Image recognition device | |
| CN110895807A (en) | System, operation aid and working device for evaluating images | |
| CN113793371B (en) | Target segmentation tracking method, device, electronic equipment and storage medium | |
| US20050063590A1 (en) | Local mass distribution partitioning for object recognition | |
| Wang et al. | Scale value guided Lite-FCOS for pointer meter reading recognition | |
| CN117788995A (en) | Target detection small sample data enhancement method, system and computer readable medium based on generation of countermeasure network | |
| CN116883468A (en) | Monitoring area division method based on multi-data fusion self-calibration | |
| CN116894988A (en) | A Transformer-based grabbing pose detection method | |
| US20200175376A1 (en) | Learning Method, Learning Device, Program, and Recording Medium | |
| JP3251840B2 (en) | Image recognition device | |
| CN116460851B (en) | A vision-transfer-based robotic arm assembly control method | |
| CN120147865A (en) | A method for detecting rotating objects in remote sensing images |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D03 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 15 Free format text: PAYMENT UNTIL: 20080719 |
|
| EXPY | Cancellation because of completion of term | ||
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 15 Free format text: PAYMENT UNTIL: 20080719 |