JP2002032766A - Image recognition apparatus and method - Google Patents
Image recognition apparatus and methodInfo
- Publication number
- JP2002032766A JP2002032766A JP2000216946A JP2000216946A JP2002032766A JP 2002032766 A JP2002032766 A JP 2002032766A JP 2000216946 A JP2000216946 A JP 2000216946A JP 2000216946 A JP2000216946 A JP 2000216946A JP 2002032766 A JP2002032766 A JP 2002032766A
- Authority
- JP
- Japan
- Prior art keywords
- shape
- image
- model
- input
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 モデル画像を用いて入力画像から特定の形状
の物体を認識する際、検出対象の形状をしているがモデ
ル画像にない物体も認識することを目的とする。
【解決手段】 検出対象の形状を表す形状識別子とその
形状を持つ物体の画像をモデル画像として予め登録する
画像データベース1と、各形状ごとにモデル画像から形
状特徴を抽出するモデル生成手段2と、形状特徴と形状
識別子を対にして予め格納する形状情報データベース3
と、物体を検出する画像を入力する画像入力部4と、入
力画像を部分画像として切り出す画像切り出し部5と、
部分画像と形状特徴とを照合し、検出対象の形状がある
かを判定する形状分類手段6と、形状を表す情報とその
形状の入力画像中の位置情報を出力する出力部7とを備
えることにより、入力画像から特定の形状とその位置を
高精度に検出して出力することができる。
(57) [Summary] [PROBLEMS] To recognize an object having a specific shape from an input image using a model image, but also recognizes an object which has a shape to be detected but is not in the model image. SOLUTION: An image database 1 for registering a shape identifier representing a shape of a detection target and an image of an object having the shape as a model image in advance, a model generating unit 2 for extracting a shape feature from the model image for each shape, Shape information database 3 in which shape features and shape identifiers are stored in pairs.
An image input unit 4 for inputting an image for detecting an object, an image cutout unit 5 for cutting out the input image as a partial image,
A shape classification unit 6 for comparing a partial image with a shape feature to determine whether there is a shape to be detected, and an output unit 7 for outputting information representing the shape and position information of the shape in an input image. Thus, a specific shape and its position can be detected and output with high accuracy from an input image.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、特定の形状の物体
を撮影した多数のモデル画像から予め検出対象となる形
状特徴を抽出し、入力画像から抽出した特徴と、モデル
の特徴とを照合することにより、入力画像から特定の形
状の物体を検出し、その位置や形状を出力する画像認識
装置及びその方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention extracts shape features to be detected in advance from a large number of model images obtained by photographing an object having a specific shape, and compares features extracted from an input image with features of the model. Accordingly, the present invention relates to an image recognition apparatus and method for detecting an object having a specific shape from an input image and outputting the position and shape thereof.
【0002】[0002]
【従来の技術】従来の画像認識装置は、特開平6−21
5140号公報に記載されたものなどが知られている。2. Description of the Related Art A conventional image recognition apparatus is disclosed in
One described in Japanese Patent No. 5140 is known.
【0003】図17は、従来の画像認識装置のブロック
構成を示しており、画像を表示する表示装置101と、
全体動作を制御する主制御部102と、動作プログラム
等を格納する内部メモリ103と、参照パターンなどを
格納するディスク104と、サンプルや識別対象物など
の製品を撮影するテレビカメラ105と、テレビカメラ
105で撮影した製品の映像をデジタル画像情報に変換
する画像入力部106と、デジタル画像情報に変換され
た濃淡画像を各カテゴリー毎に製品の向きを一定方向に
向ける位置決め処理を行う画像回転部107と、回転画
像をある一定の割合でサンプリングしサブサンプリング
画像の濃淡値を特徴として抽出する画像情報抽出部10
8と、得られた特徴から各カテゴリー毎の平均ベクトル
を算出する平均ベクトル算出部109aを具備し平均ベ
クトルからなる辞書(参照パターン)を作成する辞書作成
部109と、カテゴリーの不明な識別対象物のベクトル
を求めこのベクトルとの距離が最も近い平均ベクトルを
辞書作成部109の平均ベクトルから抽出するベクトル
距離比較部110aを具備し未知の識別対象物を識別す
る識別部110と、識別対象物毎に画像入力部106、
画像回転部107、画素情報抽出部108、識別部11
0のパラメータを最適化するパラメータ設定部111か
ら構成されている。FIG. 17 shows a block configuration of a conventional image recognition device, and a display device 101 for displaying an image,
A main controller 102 for controlling the overall operation, an internal memory 103 for storing operation programs and the like, a disk 104 for storing reference patterns and the like, a television camera 105 for photographing products such as samples and identification objects, and a television camera An image input unit 106 for converting the image of the product photographed at 105 into digital image information, and an image rotating unit 107 for performing a positioning process for turning the product image in a certain direction for each category of the gray image converted to digital image information. And an image information extraction unit 10 that samples the rotated image at a certain rate and extracts the grayscale value of the sub-sampled image as a feature.
8, a dictionary creation unit 109 that includes an average vector calculation unit 109a that calculates an average vector for each category from the obtained features and creates a dictionary (reference pattern) including the average vectors, and an identification target whose category is unknown. And a vector distance comparison unit 110a for extracting an average vector having the shortest distance from the vector from the average vector of the dictionary creation unit 109. The identification unit 110 identifies an unknown identification target. The image input unit 106,
Image rotation unit 107, pixel information extraction unit 108, identification unit 11
It comprises a parameter setting unit 111 for optimizing the parameter of 0.
【0004】[0004]
【発明が解決しようとする課題】このような従来の画像
認識装置は、物体をその形状で認識し形状分類しようと
したときに、同じ形状で濃淡値の大きく異なる物体の画
像を全て1つのカテゴリーに属するものとすると認識が
困難になり、濃淡値の似た画像で1つのカテゴリーを作
成する必要があるために、カテゴリー数が多くなり処理
時間がかかるという課題を有していた。In such a conventional image recognition apparatus, when attempting to recognize an object by its shape and classify the shape, all the images of the object having the same shape and greatly different grayscale values are classified into one category. , The recognition becomes difficult, and it is necessary to create one category using images having similar grayscale values. Therefore, there is a problem that the number of categories is increased and processing time is required.
【0005】本発明は、上記従来の課題を解決するもの
で、同じ形状で濃淡値の大きくことなる物体の画像を1
つのカテゴリーとし、画像中の物体の形状を高速に認識
しその位置を出力することを目的とする。SUMMARY OF THE INVENTION The present invention solves the above-mentioned conventional problems.
The purpose is to quickly recognize the shape of an object in an image and output its position.
【0006】[0006]
【課題を解決するための手段】この課題を解決するため
に、検出対象の形状を表す形状識別子とその形状を持つ
物体の画像をモデル画像として予め登録しておく画像デ
ータベースと、各形状ごとに前記モデル画像から形状特
徴を予め抽出しておくモデル生成手段と、前記形状特徴
と前記形状識別子を対にして予め格納しておく形状情報
データベースと、物体を検出する画像を入力する画像入
力部と、入力画像の一部を部分画像として切り出す画像
切り出し部と、前記部分画像を前記形状特徴と照合する
ことによって前記部分画像内に検出対象の形状があるか
どうかを判定する形状分類手段と、前記入力画像内に検
出対象の形状と一致するものがある場合にはその形状を
表す情報とその形状の入力画像中の位置を表す情報を出
力する出力部を備えたものである。In order to solve the problem, a shape identifier representing a shape of a detection target and an image database in which an image of an object having the shape is registered in advance as a model image, A model generating means for extracting shape features in advance from the model image, a shape information database for storing the shape features and the shape identifiers in advance, and an image input unit for inputting an image for detecting an object. An image cutout unit that cuts out a part of an input image as a partial image, and a shape classification unit that determines whether a detection target shape is present in the partial image by comparing the partial image with the shape feature, If the input image has a shape that matches the shape to be detected, an output unit is provided that outputs information indicating the shape and information indicating the position of the shape in the input image. Those were.
【0007】これにより、本発明は、予め多数のモデル
画像から共通の形状特徴を抽出しておき、形状特徴を入
力画像と照合することにより、少ないデータ量で入力画
像内の物体の有無を高速に検出し、位置と検出した形状
を出力することができる。According to the present invention, by extracting a common shape feature from a large number of model images in advance and comparing the shape feature with the input image, the presence / absence of an object in the input image can be determined at a high speed with a small amount of data. , And the position and the detected shape can be output.
【0008】[0008]
【発明の実施の形態】本発明の請求項1に記載の発明
は、画像から特定の形状の物体を検出する装置におい
て、検出対象の形状を表す形状識別子とその形状を持つ
物体の画像をモデル画像として予め登録しておく画像デ
ータベースと、各形状ごとに前記モデル画像から形状特
徴を予め抽出しておくモデル生成手段と、前記形状特徴
と前記形状識別子を対にして予め格納しておく形状情報
データベースと、物体を検出する画像を入力する画像入
力部と、入力画像の一部を部分画像として切り出す画像
切り出し部と、前記部分画像と前記形状特徴とを照合
し、前記部分画像内に検出対象の形状があるか否かを判
定する形状分類手段と、前記検出された検出対象の形状
を表す情報とその形状の入力画像中の位置を表す情報を
出力する出力部とを備えるもので、多数のモデル画像を
代表する形状特徴を抽出し、入力画像を形状特徴と比較
することによって、少ないデータ量で入力画像から高速
に形状を検出しその位置を出力する作用を有する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS According to a first aspect of the present invention, in a device for detecting an object having a specific shape from an image, a shape identifier representing a shape of a detection target and an image of the object having the shape are modeled. An image database pre-registered as an image, model generation means for pre-extracting shape features from the model image for each shape, and shape information pre-stored in pairs of the shape features and the shape identifiers A database, an image input unit for inputting an image for detecting an object, an image cutout unit for cutting out a part of the input image as a partial image, collating the partial image with the shape feature, and detecting a detection target in the partial image. A shape classifying unit that determines whether or not there is a shape, and an output unit that outputs information indicating a shape of the detected detection target and information indicating a position of the shape in an input image. Those in extracts shape feature representing a number of model image, by comparing the input image with the shape feature has the effect of detecting a shape from an input image at high speed with a small amount of data and outputs the position.
【0009】請求項2に記載の発明は、請求項1に記載
の画像認識装置において、モデル生成手段は、各形状ご
とにその形状に属する前記モデル画像の平均画像と前記
モデル画像の各画素の分散を形状特徴として抽出し、、
形状ごとに平均画像と分散と形状識別子とを対にして形
状情報データーベースに格納するもので、入力画像の形
状とモデルの形状との照合が高精度にできるという作用
を有す。According to a second aspect of the present invention, in the image recognition apparatus according to the first aspect, the model generating means includes, for each shape, an average image of the model images belonging to the shape and a model of each pixel of the model image. Extract the variance as shape features,
The average image, the variance, and the shape identifier are paired and stored in the shape information database for each shape. This has an effect that the shape of the input image can be compared with the shape of the model with high accuracy.
【0010】請求項3に記載の発明は、画像から特定の
形状の物体を検出する装置において、検出対象の形状を
表す形状識別子とその形状を持つ物体の画像をモデル画
像として予め登録しておく画像データベースと、前記全
てのモデル画像の画素値から特徴空間の基底ベクトルを
算出し、前記全てのモデル画像を特徴空間内にモデル画
像ベクトルとして射影し、前記形状識別子を付与した各
モデル画像ベクトルと、前記モデル画像ベクトルから形
状ごとに特徴的な統計量を形状特徴パラメタとして算出
し、前記形状識別子を付与するモデル生成手段と、前記
モデル生成手段からの基底ベクトルと形状特徴パラメタ
を前記形状識別子とともに登録しておく形状情報データ
ベースと、物体を検出する画像を入力する画像入力部
と、入力画像の一部を部分画像として切り出す画像切り
出し部と、前記基底ベクトルを用いて前記部分画像を前
記特徴空間に射影して部分画像ベクトルを求め、前記形
状特徴パラメタを用いて前記部分画像ベクトルをモデル
と照合して前記部分画像内に検出対象の形状があるかど
うかを判定する形状分類手段と、前記入力画像内に検出
対象の形状と一致するものがある場合にはその形状を表
す情報とその形状の入力画像中の位置を表す情報を出力
する出力部とを備えるもので、特徴空間内で入力画像と
モデル形状を照合することによって、効率の良い検出が
行え、処理速度が早いという作用を有する。According to a third aspect of the present invention, in an apparatus for detecting an object having a specific shape from an image, a shape identifier representing a shape of a detection target and an image of the object having the shape are registered in advance as a model image. An image database and a basis vector of the feature space are calculated from the pixel values of all the model images, all the model images are projected as a model image vector in the feature space, and each model image vector to which the shape identifier is assigned is Calculating a characteristic statistic for each shape from the model image vector as a shape feature parameter and assigning the shape identifier; and a base vector and a shape feature parameter from the model generation unit together with the shape identifier. A shape information database to be registered, an image input unit for inputting an image for detecting an object, and a part of the input image An image cutout unit that cuts out as a partial image, the partial image is projected onto the feature space using the basis vector to obtain a partial image vector, and the partial image vector is compared with a model using the shape feature parameter to match the model. A shape classification means for determining whether or not there is a shape to be detected in the partial image, and information indicating the shape of the input image if there is a shape that matches the shape of the target and information in the input image of the shape. And an output unit that outputs information representing the position of the image. By comparing the input image with the model shape in the feature space, efficient detection can be performed and the processing speed is high.
【0011】請求項4記載の発明は、請求項3記載の画
像認識装置において、モデル生成手段の各形状ごとの形
状特徴パラメタの算出は、同じ形状の物体のモデル画像
から算出された前記モデル画像ベクトルの平均ベクトル
と共分散から各形状ごとの形状特徴パラメタを算出する
もので、効率良くかつ高精度に入力画像から特定の形状
を検出できるという作用を有する。According to a fourth aspect of the present invention, in the image recognition apparatus according to the third aspect, the calculation of the shape characteristic parameter for each shape by the model generating means is performed by using the model image calculated from a model image of an object having the same shape. It calculates shape characteristic parameters for each shape from the average vector and the covariance of the vector, and has an effect that a specific shape can be efficiently and accurately detected from an input image.
【0012】請求項5記載の発明は、請求項3または4
記載の画像認識装置において、 モデル生成手段は、各
形状ごとに前記モデル画像の平均画像を求めて前記全て
の平均画像の画素値から基底ベクトルを算出し、前記全
てのモデル画像を特徴空間内にモデル画像ベクトルとし
て射影し、各モデル画像ベクトルに前記形状識別子を付
与するもので、各形状を代表する画像をよく区別する特
徴空間を生成することにより、類似した形状も良く分類
できるという作用を有する。The invention described in claim 5 is the invention according to claim 3 or 4.
In the image recognition device described in the above, the model generation means calculates an average image of the model images for each shape, calculates a base vector from pixel values of all the average images, and stores all the model images in a feature space. Projecting as a model image vector and assigning the shape identifier to each model image vector. By generating a feature space that distinguishes images representing each shape well, it has an effect that similar shapes can be well classified. .
【0013】請求項6記載の発明は、請求項3乃至5の
いずれか記載の画像認識装置において、前記形状識別子
は、その形状が物体のどの部分の形状であるかの情報を
含むもので、物体の一部分が隠蔽されていても、部分の
形状だけで、特定の形状の物体を検出できるという作用
を有する。According to a sixth aspect of the present invention, in the image recognition apparatus according to any one of the third to fifth aspects, the shape identifier includes information on which part of the object the shape is. Even if a part of the object is concealed, an object having a specific shape can be detected only by the shape of the part.
【0014】請求項7記載の発明は、請求項6記載の画
像認識装置において、前記形状分類手段は、判定した部
分形状の形状識別子ごとに少なくとも1つ入力画像中の
物体全体の領域を推定し、入力の各部分画像について推
定した物体全体の領域を集計することにより物体領域の
位置を出力するもので、物体の一部分が隠蔽されていて
も、部分の形状と全体の形状との両方で、特定の形状の
物体を高精度に検出できるという作用を有する。According to a seventh aspect of the present invention, in the image recognition apparatus according to the sixth aspect, the shape classification means estimates at least one region of the entire object in the input image for each shape identifier of the determined partial shape. In order to output the position of the object region by summing the region of the entire object estimated for each partial image of the input, even if a part of the object is hidden, in both the shape of the part and the entire shape, This has the effect that an object having a specific shape can be detected with high accuracy.
【0015】請求項8記載の発明は、画像から特定の形
状の物体を検出する方法において、検出対象の形状を表
す形状識別子とその形状を持つ物体の画像をモデル画像
として予め登録しておく画像データベースと、各形状ご
とに前記モデル画像から形状特徴を予め抽出するステッ
プと、前記形状特徴と前記形状識別子を対にして予め格
納しておく形状情報データベースと、物体を検出する画
像を入力するステップと、入力画像の一部を部分画像と
して切り出すステップと、前記部分画像と前記形状特徴
とを照合し、前記部分画像内に検出対象の形状があるか
否かを判定するステップと、前記検出された検出対象の
形状を表す情報とその形状の入力画像中の位置を表す情
報を出力するステップとを備えるもので、多数のモデル
画像を代表する形状特徴を抽出し、入力画像を形状特徴
と比較することによって、少ないデータ量で入力画像か
ら高速に形状を検出しその位置を出力する作用を有す
る。According to an eighth aspect of the present invention, in the method for detecting an object having a specific shape from an image, a shape identifier representing a shape to be detected and an image of the object having the shape are registered in advance as a model image. A database, a step of pre-extracting a shape feature from the model image for each shape, a step of inputting an image for detecting an object, and a shape information database in which the shape feature and the shape identifier are stored in pairs. Cutting out a part of the input image as a partial image, collating the partial image with the shape feature, and determining whether or not there is a shape to be detected in the partial image, Outputting information representing the shape of the detected object and information representing the position of the shape in the input image. Extracting features, by comparing the input image with the shape feature has the effect of detecting a shape from an input image at high speed with a small amount of data and outputs the position.
【0016】以下、本発明の実施の形態について、図1
から図18を用いて説明する。Hereinafter, an embodiment of the present invention will be described with reference to FIG.
This will be described with reference to FIG.
【0017】(実施の形態1)図1は、本発明の実施の形
態1における画像認識装置のブロック構成図を示してい
る。(Embodiment 1) FIG. 1 is a block diagram of an image recognition apparatus according to Embodiment 1 of the present invention.
【0018】図1において、1は認識したい形状を持つ
多数の物体の濃淡画像を、形状名と画像ファイル名と画
像中の物体に外接する矩形領域の左上角座標と右下角座
標を記した形状識別子と共に格納している画像データベ
ース、2は学習データベース1から認識したい形状ごと
にその形状の全ての濃淡画像を入力して特徴を抽出する
モデル生成手段、21は学習データベース1から入力し
た全ての濃淡画像に対して、画像が属する形状ごとに物
体に外接する矩形領域内の各画素の平均と平均からの分
散を求めて形状識別子と共に出力する特徴量抽出部、3
は特徴量抽出部21から形状ごとの平均画像と分散と形
状識別子を入力して格納している形状情報データベー
ス、4は形状の有無を判断したい画像を入力する画像入
力部、5は形状情報データベース3に格納されている形
状識別子を入力して検出対象の形状と同じサイズの画像
を入力画像から切り出す画像切り出し部、6は画像切り
出し部5から入力した画像内に検出対象の形状があるか
どうかを判断する形状分類手段、61は画像切り出し部
5から入力した画像を形状情報データベース3から抽出
したモデルの形状特徴と照合して検出対象の形状と一致
するかどうかを判断する部分形状分類部、7は形状分類
手段6から入力画像内に検出対象の形状があるという結
果を入力したときに検出した形状と入力画像内の位置と
をディスプレイなどに表示する出力部である。In FIG. 1, reference numeral 1 denotes a gray-scale image of a large number of objects having a shape to be recognized, and a shape name, an image file name, and upper left corner coordinates and lower right corner coordinates of a rectangular area circumscribing the object in the image. An image database 2 stored together with the identifiers, 2 is a model generating means for inputting all the grayscale images of the shape for each shape to be recognized from the learning database 1 and extracting features, 21 is all the grayscales input from the learning database 1 A feature amount extraction unit that calculates an average of each pixel in a rectangular area circumscribing the object and a variance from the average for each shape to which the image belongs, and outputs the average along with a shape identifier;
Is a shape information database in which the average image, variance, and shape identifier for each shape are input and stored from the feature amount extraction unit 21; 4 is an image input unit for inputting an image whose shape is to be determined; and 5 is a shape information database. 3 is an image cutout unit that inputs the shape identifier stored in 3 and cuts out an image having the same size as the shape of the detection target from the input image. 6 indicates whether there is a shape of the detection target in the image input from the image cutout unit 5. A shape classifying unit 61 for comparing the image input from the image cutout unit 5 with a shape feature of a model extracted from the shape information database 3 to determine whether or not the image matches a shape to be detected; Reference numeral 7 denotes a display or the like which displays the detected shape and the position in the input image when the result that the shape to be detected exists in the input image is input from the shape classifying means 6 Which is an output unit for displaying.
【0019】また、図2はコンピュータにより画像認識
装置を実現した場合のブロック構成図であり、201は
コンピュータ、202はCPU、203はメモリ、20
4はキーボード及びディスプレイ、205は画像認識プ
ログラムを読み込むためのFD、PD、MO、DVDな
どの蓄積媒体ユニット、206〜208はI/Fユニッ
ト、209はCPUバス、210は画像を取り込むため
のカメラ、211は予め蓄積されている画像を取り込む
ための画像データベース、212は種々の形状の物体の
モデル画像をその形状を示す形状識別子と共に格納して
いる形状情報データベース、213は得られた物体の形
状と位置をI/Fユニットを介して出力する出力端子で
構成されている。FIG. 2 is a block diagram showing a case where the image recognition apparatus is realized by a computer. Reference numeral 201 denotes a computer; 202, a CPU;
Reference numeral 4 denotes a keyboard and display; 205, a storage medium unit such as an FD, PD, MO, or DVD for reading an image recognition program; 206 to 208, an I / F unit; 209, a CPU bus; , 211 is an image database for capturing previously stored images, 212 is a shape information database storing model images of objects of various shapes together with shape identifiers indicating the shapes, and 213 is the shape of the obtained object. And an output terminal for outputting the position via the I / F unit.
【0020】以上のように構成された画像認識装置につ
いて、以下その動作を図3と図4のフローチャートを用
いて説明する。図3は、モデル生成手段の動作を示すフ
ローチャート、図4は、認識したい画像データを入力し
てから認識結果を出力するまでの動作を示すフローチャ
ート、図5は、画像データベース1に格納されているモ
デル画像の例、図6は、形状情報データベース3に格納
されている1つの形状の平均画像と形状識別子の例、図
7は、画像入力部4から入力した画像に対して画像切り
出し部5で切り出す領域の例を矩形で表したもの、図8
は形状分類手段6で検出した結果を出力部7でディスプ
レイに出力している例である。The operation of the thus configured image recognition apparatus will be described below with reference to the flowcharts of FIGS. FIG. 3 is a flowchart showing the operation of the model generating means, FIG. 4 is a flowchart showing the operation from input of image data to be recognized to output of a recognition result, and FIG. 5 is stored in the image database 1. FIG. 6 shows an example of an average image of one shape and a shape identifier stored in the shape information database 3, and FIG. 7 shows an image cutout unit 5 for an image input from the image input unit 4. FIG. 8 shows an example of a region to be cut out as a rectangle.
Is an example in which the result detected by the shape classification means 6 is output to the display by the output unit 7.
【0021】認識を行う前に、認識時に使う形状情報の
データを予め構築しておく。画像データベース1には、
図5に示すような物体の濃淡画像ファイルがモデル画像
として格納されている。各画像には、画像中の物体の形
状と、画像ファイル名と、物体に外接する矩形の左上角
座標と右下角座標を物体のエリアとして記述している形
状識別子が付けられている。図5は、画像を撮影したカ
メラに対する角度と、カメラからの距離が一定なセダン
のモデル画像の例である。Before performing recognition, data of shape information used at the time of recognition is constructed in advance. In the image database 1,
A gray image file of the object as shown in FIG. 5 is stored as a model image. Each image is provided with a shape of the object in the image, an image file name, and a shape identifier that describes an upper left corner coordinate and a lower right corner coordinate of a rectangle circumscribing the object as an area of the object. FIG. 5 is an example of a model image of a sedan in which the angle with respect to the camera that captured the image and the distance from the camera are constant.
【0022】図5に示すようなセダンaの形状の車両を
検出対象とするとき、モデル生成手段2は、画像データ
ベース1から形状識別子の形状名がセダンaのモデル画
像を全て形状識別子と共に入力し、特徴量抽出部21
で、対象エリアで示された矩形領域画像の平均画像を求
める(ステップ301)。このとき、各モデル画像は同じ
形状の物体の画像であるから、各モデル画像の対象エリ
アで示された矩形領域は、全て同じサイズとなり、平均
画像もこのサイズとなる。When a vehicle having the shape of the sedan a as shown in FIG. 5 is to be detected, the model generating means 2 inputs from the image database 1 all the model images whose shape names are sedan a together with the shape identifier. , Feature amount extraction unit 21
Then, an average image of the rectangular area images indicated by the target area is obtained (step 301). At this time, since each model image is an image of an object having the same shape, all the rectangular areas indicated by the target area of each model image have the same size, and the average image also has this size.
【0023】図5で示したセダンaの場合、平均画像の
サイズは横148画素、縦88画素である。次に、特徴量抽
出部21は、全てのモデル画像の対象エリアで示された
矩形領域画像の各画素の画素値と、平均画像の対応する
画素の画素値から、各画素における分散を求める(ステ
ップ302)。In the case of the sedan a shown in FIG. 5, the average image size is 148 pixels horizontally and 88 pixels vertically. Next, the feature amount extraction unit 21 calculates the variance in each pixel from the pixel value of each pixel of the rectangular area image indicated by the target area of all the model images and the pixel value of the corresponding pixel of the average image ( Step 302).
【0024】最後に、特徴量抽出部21は、図6に示す
ような、セダンaの平均画像と形状識別子と、各画素ご
との分散の値とを、セダンaの形状特徴を表すものとし
て、形状情報データベース3に格納しておく(ステップ
303)。検出対象が複数ある場合には、他の形状につ
いても同様にステップ301からステップ303までの
処理を行う。Finally, the feature quantity extraction unit 21 uses the average image, shape identifier, and variance value of each pixel of the sedan a as shown in FIG. It is stored in the shape information database 3 (step 303). When there are a plurality of detection targets, the processes from step 301 to step 303 are similarly performed for other shapes.
【0025】セダンaの認識を行うときは、まず、認識
対象となる画像データを画像入力部4(カメラ210ま
たは画像データベース211)から入力する(ステップ4
01)。画像切り出し部5は、図7に示すように、入力
画像から形状情報データベース3に格納されているセダ
ンaの平均画像と同じサイズの部分画像を、任意画素移
動させながら、順次切り出す(ステップ402)。When recognizing the sedan a, first, image data to be recognized is input from the image input unit 4 (camera 210 or image database 211) (step 4).
01). As shown in FIG. 7, the image cutout unit 5 successively cuts out a partial image of the same size as the average image of the sedan a stored in the shape information database 3 while moving an arbitrary pixel from the input image (step 402). .
【0026】形状分類手段2は、画像切り出し部5から
部分画像を1つ入力し、また、形状情報データベース3
からセダンaの平均画像と各画素の分散値を入力して、
部分形状分類部61で、部分画像の各画素ごとに平均画
像の対応する画素との画素値の差の二乗を求め、分散で
除算した後に、それらの全画素にわたる和を求めて、部
分画像と平均画像との距離とする(ステップ403)。検
出対象の形状が複数ある場合には、部分形状分類部61
は、形状ごとにステップ403を行い(ステップ40
4)、全ての距離の値のうちの最小値が一定値より小さ
ければ(ステップ405)、その部分画像には最小の距離
を算出した平均画像の形状の物体があると判断する(ス
テップ406)。The shape classifying means 2 inputs one partial image from the image clipping unit 5 and outputs
Input the average image of the sedan a and the variance of each pixel from
In the partial shape classification unit 61, for each pixel of the partial image, the square of the pixel value difference from the corresponding pixel of the average image is obtained, divided by the variance, and the sum over all the pixels is obtained. The distance from the average image is set (step 403). When there are a plurality of shapes to be detected, the partial shape classifying unit 61
Performs step 403 for each shape (step 40
4) If the minimum value of all the distance values is smaller than a certain value (step 405), it is determined that the partial image includes an object having the shape of the average image for which the minimum distance has been calculated (step 406). .
【0027】距離の最小値が一定値以上であれば、その
部分画像には物体は存在しないと判断する(ステップ4
07)。部分形状分類部61が、入力画像から切り出し
た全ての部分画像についてステップ407までを行い
(ステップ408)、物体があると判断した部分画像があ
る場合には、出力部7は、図8に示すように、入力画像
中の物体のある部分画像の位置に、物体の形状を表す図
を重ねて出力する(ステップ409)。なお、この出力
は、I/Fユニット208を介して出力端子213から
出力される。If the minimum value of the distance is equal to or more than a certain value, it is determined that no object exists in the partial image (step 4).
07). The partial shape classification unit 61 performs up to step 407 for all partial images cut out from the input image.
(Step 408) If there is a partial image determined to have an object, the output unit 7 displays the shape of the object at the position of the partial image of the object in the input image as shown in FIG. Are superimposed and output (step 409). This output is output from the output terminal 213 via the I / F unit 208.
【0028】(実施の形態2)図9は、本発明の実施の形
態2における画像認識装置のブロック構成図を示す。(Embodiment 2) FIG. 9 shows a block diagram of an image recognition apparatus according to Embodiment 2 of the present invention.
【0029】図9において、1は認識したい形状を持つ
多数の物体の濃淡画像を、形状名と画像ファイル名と画
像中の検出したい形状に外接する、形状によらず同じサ
イズの矩形領域の左上角座標と右下角座標を記した形状
識別子と共に格納している画像データベース、2は学習
データベース1から認識したい形状の全ての濃淡画像を
入力して特徴を抽出するモデル生成手段、20は学習デ
ータベース1から入力した全てのモデル画像から特徴空
間を生成してその基底ベクトルを形状情報データベース
に出力し全てのモデル画像をモデル画像ベクトルとして
特徴空間に射影する特徴空間生成部、21は特徴空間生
成部から入力する全てのモデル画像ベクトルから形状ご
とにモデル画像ベクトルの平均と分散を求めて形状識別
子と共に出力する特徴量抽出部、3は特徴空間生成部2
0から特徴空間の基底ベクトルを入力し、特徴量抽出部
21から形状ごとのモデル画像ベクトルの平均と分散を
形状識別子と共に入力して格納している形状情報データ
ベース、4は形状の有無を判断したい画像を入力する画
像入力部、5は形状情報データベース3に格納されてい
る形状識別子を入力して検出対象の形状と同じサイズの
画像を入力画像から切り出す画像切り出し部、6は画像
切り出し部5から入力した画像内に検出対象の形状があ
るかどうかを判断する形状分類手段、60は画像切り出
し部5から入力した部分画像を形状情報データベース3
から入力した基底ベクトルを用いて部分画像ベクトルと
して特徴空間に射影する特徴空間射影部、61は特徴空
間射影部60からから入力した部分画像ベクトルと形状
情報データベース3から入力したモデル画像ベクトルの
各平均との距離を求めて検出対象の形状と一致するかど
うかを判断する部分形状分類部、7は形状分類手段6か
ら入力画像内に検出対象の形状があるという結果を入力
したときに、検出した形状と入力画像内の位置とをディ
スプレイなどに表示する出力部である。In FIG. 9, reference numeral 1 denotes an upper left corner of a rectangular area circumscribing a shape name, an image file name, and a shape to be detected in an image, the same size regardless of the shape. An image database that stores angular coordinates and lower right corner coordinates together with shape identifiers, 2 is a model generation unit that inputs all grayscale images of the shape to be recognized from the learning database 1 and extracts features, and 20 is a learning database 1 A feature space generation unit that generates a feature space from all the model images input from, outputs its base vectors to a shape information database, and projects all model images as feature image vectors into the feature space; Find the average and variance of model image vectors for each shape from all input model image vectors and output them along with shape identifiers Symptoms amount extracting unit, 3 feature space generating unit 2
A shape information database that inputs a base vector of a feature space from 0, and inputs and stores an average and a variance of model image vectors for each shape together with a shape identifier from a feature amount extraction unit 21; An image input unit 5 for inputting an image is an image cutout unit for inputting a shape identifier stored in the shape information database 3 to cut out an image having the same size as the shape to be detected from the input image. A shape classification means 60 for determining whether or not there is a shape to be detected in the input image, and a partial image input from the image cutout unit 5
A feature space projection unit for projecting a feature image as a partial image vector into the feature space using the basis vector input from the image processing unit; and 61 each of an average of the partial image vector input from the feature space projection unit 60 and the model image vector input from the shape information database 3 The partial shape classification unit 7 for determining the distance to the shape of the object to be detected and determining whether or not it matches the shape of the object to be detected is detected when the result that the object to be detected is present in the input image from the shape classifying means 6 is detected. An output unit that displays a shape and a position in the input image on a display or the like.
【0030】以上のように構成された画像認識装置につ
いて、以下その動作を図10と図11のフローチャート
を用いて説明する。図10は、モデル生成手段の動作を
示すフローチャート、図11は、認識したい画像データ
を入力してから認識結果を出力するまでの動作を示すフ
ローチャート、図12は、画像データベース1に格納さ
れているモデル画像の例、図7は、画像入力部4から入
力した画像に対して画像切り出し部5で切り出す領域の
例を矩形で表したもの、図8は形状分類手段6で検出し
た結果を出力部7でディスプレイに出力している例であ
る。The operation of the thus configured image recognition apparatus will be described below with reference to the flowcharts of FIGS. FIG. 10 is a flowchart showing the operation of the model generation means, FIG. 11 is a flowchart showing the operation from input of image data to be recognized to output of a recognition result, and FIG. 12 is stored in the image database 1. 7 shows an example of a model image, FIG. 7 shows an example of a region to be cut out by the image cutout unit 5 with respect to the image input from the image input unit 4, and FIG. 8 shows a result detected by the shape classification unit 6 in the output unit. 7 is an example of outputting to a display.
【0031】認識を行う前に、認識時に使う形状情報の
データを予め構築しておく。画像データベース1には、
図12に示すような物体の濃淡画像ファイルがモデル画
像として格納されている。各画像には、画像中の物体の
形状と、画像ファイル名と、検出する形状に外接する矩
形の左上角座標と右下角座標を物体のエリアとして記述
している形状識別子が付けられている。図12は、画像
を撮影したカメラに対する角度と、カメラからの距離が
一定なセダンのモデル画像とバスのモデル画像の例であ
る。Before performing recognition, data of shape information used at the time of recognition is constructed in advance. In the image database 1,
A gray image file of an object as shown in FIG. 12 is stored as a model image. Each image is given a shape identifier describing the shape of the object in the image, the image file name, and the upper left corner coordinates and lower right corner coordinates of the rectangle circumscribing the detected shape as the object area. FIG. 12 is an example of a model image of a sedan and a model image of a bus in which the angle with respect to the camera that captured the image and the distance from the camera are constant.
【0032】図12に示すようなセダンaの形状の車両
とバスを検出対象とするとき、モデル生成手段2は、画
像データベース1から形状識別子の形状名がセダンaの
モデル画像と形状名がバス背面部であるモデル画像を全
て形状識別子と共に特徴空間生成部20に入力する。When a vehicle and a bus having the shape of the sedan a as shown in FIG. 12 are to be detected, the model generating means 2 determines from the image database 1 that the model name of the shape identifier of the sedan a and the bus name are the model image of the sedan a. All model images on the back are input to the feature space generation unit 20 together with the shape identifier.
【0033】特徴空間生成部20は、対象エリアで示さ
れた矩形領域画像の画素値から固有値と固有ベクトルを
求める(ステップ1001)。このとき、各モデル画像の
対象エリアで示された矩形領域は、全て同じサイズであ
り、図12では横148画素、縦88画素である。図12の
バスの場合は、全てのバスの画像から同じ部分の矩形領
域を対象エリアとする。また、固有ベクトルを算出する
ときには、まず、各モデル画像に対して画素値を一列に
並べたベクトル作り、次に、それら全てのベクトルの平
均ベクトルを各々のベクトルから引いたベクトルを作成
して、固有値と固有空間を導く。The feature space generation unit 20 obtains eigenvalues and eigenvectors from the pixel values of the rectangular area image indicated by the target area (step 1001). At this time, the rectangular areas indicated by the target areas of each model image are all the same size, and are 148 pixels horizontally and 88 pixels vertically in FIG. In the case of the bus in FIG. 12, the same rectangular area from the images of all the buses is set as the target area. When calculating the eigenvector, first, a vector is created by arranging pixel values in a line for each model image, and then a vector is created by subtracting the average vector of all the vectors from each vector, and the eigenvalue is calculated. And guide the eigenspace.
【0034】特徴空間生成部20は、大きい方からn個
の固有値に対応する固有ベクトルを、基底ベクトルとし
て形状情報データベースに格納し(ステップ1002)、
n個の固有ベクトルを用いて全てのモデル画像を固有空
間に射影してモデル画像ベクトルとする(ステップ10
03)。The feature space generator 20 stores eigenvectors corresponding to the n largest eigenvalues in the shape information database as base vectors (step 1002).
All the model images are projected to the eigenspace using the n eigenvectors to obtain model image vectors (step 10).
03).
【0035】特徴量抽出部21は、特徴空間生成部20
からモデル画像ベクトルと形状識別子を入力して、同じ
形状識別子を持つモデル画像ベクトルの平均と共分散を
求める(ステップ1004)。特徴量抽出部21は、全て
のモデル画像の平均と、形状ごとのモデル画像ベクトル
の平均と共分散と形状識別子とを形状情報データベース
3に格納しておく(ステップ1005)。The feature amount extraction unit 21 is provided with a feature space generation unit 20
, The model image vector and the shape identifier are input, and the average and covariance of the model image vectors having the same shape identifier are obtained (step 1004). The feature amount extraction unit 21 stores the average of all model images, the average of model image vectors for each shape, the covariance, and the shape identifier in the shape information database 3 (step 1005).
【0036】認識を行うときは、まず、認識対象となる
画像データを画像入力部4から入力する(ステップ11
01)。画像切り出し部5は、形状情報データベース3
に格納されている形状識別子の対象エリアからモデル画
像のサイズを算出して、入力画像から図7に示すような
同じサイズの部分画像を、任意画素移動させながら、順
次切り出す(ステップ1102)。When performing recognition, first, image data to be recognized is input from the image input unit 4 (step 11).
01). The image cutout unit 5 includes the shape information database 3
The size of the model image is calculated from the target area of the shape identifier stored in the input image, and partial images of the same size as shown in FIG. 7 are sequentially cut out from the input image while moving any pixels (step 1102).
【0037】形状分類手段2は、画像切り出し部5から
部分画像を1つ入力し、また、形状情報データベース3
から基底ベクトルを入力して、特徴空間射影部60が、
部分画像を固有空間に部分画像ベクトルとして射影する
(ステップ1103)。部分形状分類部61は、特徴空間
射影部60から部分画像ベクトルを、また、形状情報デ
ータベース3からセダンaとバスそれぞれの平均ベクト
ルと共分散を入力して、部分画像ベクトルと各平均ベク
トルのマハラノビス距離を算出する(ステップ110
4)。The shape classifying means 2 inputs one partial image from the image cutout unit 5 and outputs
, And the feature space projection unit 60 calculates
Projects a partial image into the eigenspace as a partial image vector
(Step 1103). The partial shape classifying unit 61 receives the partial image vector from the feature space projecting unit 60 and the average vector and covariance of each of the sedan a and the bus from the shape information database 3, and inputs the partial image vector and the Mahalanobis of each average vector. Calculate the distance (Step 110
4).
【0038】全てのマハラノビス距離の値のうちの最小
値が一定値より小さければ(ステップ1105)、その部
分画像には最小の距離を算出した平均ベクトルを持つ形
状の物体があると判断する(ステップ1106)。距離の
最小値が一定値以上であれば、その部分画像には物体は
存在しないと判断する(ステップ1107)。特徴空間射
影部60と部分形状分類部61が、入力画像から切り出
した全ての部分画像についてステップ1103からステ
ップ1107までを行い(ステップ1108)、物体があ
ると判断した部分画像がある場合には、出力部7は、図
8に示すように、入力画像中の物体のある部分画像の位
置に、物体の形状を表す図を重ねて出力する(ステップ
1109)。If the minimum value of all Mahalanobis distance values is smaller than a predetermined value (step 1105), it is determined that the partial image has an object having a shape having an average vector for which the minimum distance has been calculated (step 1105). 1106). If the minimum value of the distance is equal to or more than the predetermined value, it is determined that no object exists in the partial image (step 1107). The feature space projection unit 60 and the partial shape classification unit 61 perform steps 1103 to 1107 for all partial images cut out from the input image (step 1108). If there is a partial image determined to have an object, As shown in FIG. 8, the output unit 7 outputs a diagram representing the shape of the object at the position of the partial image of the object in the input image (step 1109).
【0039】なお、この出力は、I/Fユニット208
を介して出力端子213から出力される。This output is supplied to the I / F unit 208
Is output from the output terminal 213 via the.
【0040】(実施の形態3)図13は、本発明の実施の
形態3における画像認識装置のブロック構成図を示す。(Embodiment 3) FIG. 13 is a block diagram of an image recognition apparatus according to Embodiment 3 of the present invention.
【0041】図13において、1は認識したい形状を持
つ多数の物体の濃淡画像を、各画像ごとに同じサイズの
矩形の部分領域に分割して、部分ごとに部分の形状名と
画像ファイル名と部分の矩形領域の左上角座標と右下角
座標を記した形状識別子を付けて格納している画像デー
タベース、2は学習データベース1から認識したい形状
の全ての濃淡画像を入力して特徴を抽出するモデル生成
手段、20は学習データベース1から入力した全てのモ
デル画像の全ての部分領域の画素値から特徴空間を生成
してその基底ベクトルを形状情報データベースに出力
し、全ての部分領域をモデル画像局所ベクトルとして特
徴空間に射影する特徴空間生成部、21は特徴空間生成
部20から入力する全てのモデル画像局所ベクトルから
部分形状ごとにモデル画像局所ベクトルの平均と分散を
求めて形状識別子と共に出力する特徴量抽出部、3は特
徴空間生成部20から特徴空間の基底ベクトルを入力
し、特徴量抽出部21から部分形状ごとのモデル画像局
所ベクトルの平均と分散を形状識別子と共に入力して格
納している形状情報データベース、4は形状の有無を判
断したい画像を入力する画像入力部、5は形状情報デー
タベース3に格納されている形状識別子を入力して検出
対象の部分形状と同じサイズの画像を入力画像から切り
出す画像切り出し部、6は画像切り出し部5から入力し
た画像内に検出対象の形状があるかどうかを判断する形
状分類手段、60は画像切り出し部5から入力した部分
画像を形状情報データベース3から入力した基底ベクト
ルを用いて部分画像ベクトルとして特徴空間に射影する
特徴空間射影部、61は特徴空間射影部60からから入
力した部分画像ベクトルと形状情報データベース3から
入力したモデル画像局所ベクトルの各平均との距離を求
めて検出対象の物体の部分形状と一致するかどうかを判
断する部分形状分類部、62は部分形状分類部61で検
出対象の物体の部分形状を検出したときに、検出した入
力の部分画像ごとに検出した部分形状の全体形状に対す
る位置から、入力画像内の物体全体の領域を推定する全
体形状領域推定部、63は全体形状推定部62で推定し
た物体の全体領域の位置を、部分形状を検出した全ての
入力の部分画像について集計する集計部、7は集計部6
3で物体の位置として推定された回数がある一定回以上
あった位置に物体があると判断して、その位置と検出し
た形状をディスプレイなどに表示する出力部である。In FIG. 13, reference numeral 1 denotes a gray-scale image of a large number of objects having a shape to be recognized, divided into rectangular partial areas of the same size for each image, and the shape name of each part, the image file name, and the like. An image database that stores shape identifiers describing the upper left corner coordinates and lower right corner coordinates of the rectangular area of the portion, and a model that inputs all grayscale images of the shape to be recognized from the learning database 1 and extracts features The generating means 20 generates a feature space from the pixel values of all the partial regions of all the model images input from the learning database 1 and outputs the basis vectors to the shape information database, and converts all the partial regions into the model image local vectors. The feature space generation unit 21 projects the image into the feature space as a model. The feature extraction unit 3 calculates the average and variance of the image local vector and outputs the average and variance together with the shape identifier. The feature vector extraction unit 3 receives the base vector of the feature space from the feature space generation unit 20, and outputs the model image local A shape information database in which the mean and variance of the vector are input and stored together with the shape identifier, 4 is an image input unit for inputting an image whose shape is to be determined, and 5 is a shape identifier stored in the shape information database 3. An image cutout unit which cuts out an image having the same size as the partial shape to be detected from the input image by inputting, 6 a shape classifying means for judging whether or not the image to be detected is present in the image input from the image cutout unit 5; Is characterized as a partial image vector using the basis vector input from the shape information database 3 with the partial image input from the image cutout unit 5. The feature space projecting unit 61 projecting between the object space and the object space to be detected is obtained by calculating the distance between the partial image vector input from the feature space projecting unit 60 and each average of the model image local vectors input from the shape information database 3. A partial shape classification unit for determining whether or not the partial shape matches the shape; and 62, when the partial shape classification unit 61 detects the partial shape of the detection target object, the overall shape of the partial shape detected for each of the detected partial images of the input. The whole shape region estimating unit 63 for estimating the region of the whole object in the input image from the position with respect to the position of the whole object is estimated by the whole shape estimating unit 62. And 7 is a tallying unit.
An output unit that determines that the object is located at a position where the number of times estimated as the position of the object in Step 3 is equal to or greater than a certain value, and displays the position and the detected shape on a display or the like.
【0042】以上のように構成された画像認識装置につ
いて、以下その動作を図14と図15のフローチャート
を用いて説明する。図14は、モデル生成手段の動作を
示すフローチャート、図15は、認識したい画像データ
を入力してから認識結果を出力するまでの動作を示すフ
ローチャート、図16は、画像データベース1に格納さ
れているモデル画像の例、図17は、画像入力部4から
入力した画像に対して画像切り出し部5で切り出す領域
の例を矩形で表したもの、図18は、集計部63が出力
する集計結果の一例、図8は形状分類手段6で検出した
結果を出力部7でディスプレイに出力している例であ
る。The operation of the image recognition apparatus configured as described above will be described below with reference to the flowcharts of FIGS. FIG. 14 is a flowchart showing the operation of the model generation means, FIG. 15 is a flowchart showing the operation from input of image data to be recognized to output of a recognition result, and FIG. 16 is stored in the image database 1. 17 shows an example of a model image, FIG. 17 shows an example of a region to be cut out by the image cutout unit 5 with respect to an image input from the image input unit 4, and FIG. 18 shows an example of a tally result output by the tally unit 63 8 shows an example in which the result detected by the shape classification means 6 is output to the display by the output unit 7. FIG.
【0043】認識を行う前に、認識時に使う形状情報の
データを予め構築しておく。画像データベース1には、
図16に示すような物体の濃淡画像ファイルがモデル画
像として格納されている。各画像は、同じサイズの矩形
の局所領域に区切られ、各局所領域ごとに、部分の形状
名と画像ファイル名と局所領域の左上角座標と右下角座
標を記述している形状識別子が付けられている。形状名
は、その物体全体の形状名「セダンa」と局所領域がセ
ダンaのどの部分かを示す数字から成り、同じ数字は画
像によらず同じ位置を表す。局所領域間には、重なりが
あっても良い。図16は、画像を撮影したカメラに対す
る角度と、カメラからの距離が一定なセダンを検出する
ときのモデル画像の例であり、実際には、同じ見え方の
セダンの画像が多数同じように部分ごとに形状識別子を
付けて格納されている。Before performing recognition, data of shape information used at the time of recognition is constructed in advance. In the image database 1,
A gray image file of the object as shown in FIG. 16 is stored as a model image. Each image is divided into rectangular local areas of the same size, and for each local area, a shape identifier describing the shape name of the part, the image file name, the upper left corner coordinates and the lower right corner coordinates of the local area is attached. ing. The shape name is composed of the shape name “sedan a” of the entire object and a number indicating which part of the sedan a local area is, and the same number indicates the same position regardless of the image. There may be overlap between the local regions. FIG. 16 is an example of a model image when detecting a sedan having a constant angle with respect to the camera at which the image was taken and a distance from the camera. In actuality, many sedan images having the same appearance are partially identical. Each is stored with a shape identifier.
【0044】図16に示すようなセダンaを検出対象と
するとき、モデル生成手段2は、画像データベース1か
ら形状識別子の形状名がセダンaのモデル画像を全て形
状識別子と共に抽出し、特徴空間生成部20に入力す
る。特徴空間生成部20は、各形状識別子の対象エリア
で示された局所矩形領域を局所モデル画像として、全て
の局所モデル画像の画素値から固有値と固有ベクトルを
求める(ステップ1401)。このとき、各局所モデル画
像は、全て同じサイズであり、図16では横29画素、縦
22画素である。また、固有ベクトル算出するときは、ま
ず、各局所モデル画像に対して画素値を一列に並べたベ
クトル作り、次に、それら全てのベクトルの平均ベクト
ルを各々のベクトルから引いたベクトルを作成して、固
有値と固有ベクトルを導く。When a sedan a as shown in FIG. 16 is to be detected, the model generating means 2 extracts from the image database 1 all model images whose shape names are sedan a together with the shape identifier, and generates a feature space. Input to the section 20. The feature space generation unit 20 obtains eigenvalues and eigenvectors from the pixel values of all the local model images, using the local rectangular area indicated by the target area of each shape identifier as a local model image (step 1401). At this time, the local model images are all the same size, and in FIG.
22 pixels. Also, when calculating the eigenvectors, first, create a vector in which pixel values are arranged in a line for each local model image, and then create a vector obtained by subtracting the average vector of all these vectors from each vector, Deriving eigenvalues and eigenvectors.
【0045】特徴空間生成部20は、大きい方からn個
の固有値に対応する固有ベクトルを、基底ベクトルとし
て形状情報データベースに格納し(ステップ1402)、
n個の固有ベクトルを用いて全ての局所モデル画像を固
有空間に射影して局所モデル画像ベクトルとする(ステ
ップ1403)。特徴量抽出部21は、特徴空間生成部
20から局所モデル画像ベクトルと形状識別子を入力し
て、同じ形状識別子を持つ局所モデル画像ベクトルの平
均と共分散を求める(ステップ1404)。特徴量抽出部
21は、全ての局所モデル画像の平均と、形状ごとの局
所モデル画像ベクトルの平均と共分散と形状識別子とを
形状情報データベース3に格納しておく(ステップ14
05)。The feature space generator 20 stores eigenvectors corresponding to the n largest eigenvalues in the shape information database as base vectors (step 1402).
All the local model images are projected onto the eigenspace using the n eigenvectors, and are used as local model image vectors (step 1403). The feature amount extraction unit 21 receives the local model image vector and the shape identifier from the feature space generation unit 20, and calculates the average and the covariance of the local model image vectors having the same shape identifier (Step 1404). The feature amount extraction unit 21 stores the average of all the local model images, the average of the local model image vectors for each shape, the covariance, and the shape identifier in the shape information database 3 (step 14).
05).
【0046】認識を行うときは、まず、認識対象となる
画像データを画像入力部4から入力する(ステップ15
01)。画像切り出し部5は、形状情報データベース3
に格納されている形状識別子の対象エリアから局所モデ
ル画像のサイズを算出して、入力画像から図17に示す
ような同じサイズの部分画像を、任意画素移動させなが
ら、順次切り出す(ステップ1502)。When performing recognition, first, image data to be recognized is input from the image input unit 4 (step 15).
01). The image cutout unit 5 includes the shape information database 3
Then, the size of the local model image is calculated from the target area of the shape identifier stored in, and a partial image of the same size as shown in FIG. 17 is sequentially cut out from the input image while moving an arbitrary pixel (step 1502).
【0047】形状分類手段2は、画像切り出し部5から
部分画像を1つ入力し、また、形状情報データベース3
から基底ベクトルを入力して、特徴空間射影部60が、
部分画像を固有空間に部分画像ベクトルとして射影する
(ステップ1503)。部分形状分類部61は、特徴空間
射影部60から部分画像ベクトルを、また、形状情報デ
ータベース3からセダンaのそれぞれの部分の平均ベク
トルと共分散を入力して、部分画像ベクトルと各平均ベ
クトルのマハラノビス距離を算出し(ステップ150
4)、最小の距離を算出した平均ベクトルを持つ部分形
状の形状識別子を出力する。The shape classifying means 2 inputs one partial image from the image cut-out unit 5 and
, And the feature space projection unit 60 calculates
Projects a partial image into the eigenspace as a partial image vector
(Step 1503). The partial shape classifying unit 61 receives the partial image vector from the feature space projecting unit 60 and the average vector and covariance of each part of the sedan a from the shape information database 3, and inputs the partial image vector and each average vector. The Mahalanobis distance is calculated (step 150
4) Output the shape identifier of the partial shape having the average vector for which the minimum distance has been calculated.
【0048】全体形状領域推定部62は、形状識別子の
対象エリアに記述されている左上角座標と、入力の部分
画像の左上角座標との差の座標を出力し、集計部61
が、その座標に一票投票する(ステップ1505)。ここ
で投票する座標は、入力画像中での物体の位置を示して
いる。The whole shape area estimating section 62 outputs the coordinates of the difference between the upper left corner coordinates described in the target area of the shape identifier and the upper left corner coordinates of the input partial image.
Votes for the coordinates (step 1505). Here, the coordinates for voting indicate the position of the object in the input image.
【0049】特徴空間射影部60から集計部63まで
が、入力画像から切り出した全ての部分画像についてス
テップ1503から1505までを行うと(ステップ1
506)、集計部63では図18に示すような集計結果
が得られる。図18では、投票数の多い順に座標と投票
数が表示されている。この集計結果の各座標の投票数の
うち一定値より大きい投票数があれば(ステップ150
7)入力画像のその座標の位置に物体があると判断し(ス
テップ1508)、出力部7は、図8に示すように、入
力画像中の物体のある部分画像の位置に、物体の形状を
表す図を重ねて出力する(ステップ1510)。ステップ
1507で、一定値より大きい投票数がない場合には、
入力画像中に物体はないと判断して(ステップ150
9)、入力画像をそのまま出力する(ステップ151
0)。なお、この出力は、I/Fユニット208を介し
て出力端子213から出力される。When the feature space projection unit 60 to the tallying unit 63 perform steps 1503 to 1505 for all partial images cut out from the input image (step 1).
506), the tallying unit 63 obtains a tallying result as shown in FIG. In FIG. 18, the coordinates and the number of votes are displayed in descending order of the number of votes. If the number of votes of each coordinate of the total result is larger than a certain value (step 150)
7) It is determined that there is an object at the position of the coordinates in the input image (step 1508), and the output unit 7 changes the shape of the object to the position of the partial image of the object in the input image as shown in FIG. The resulting figures are superimposed and output (step 1510). In step 1507, if there is no vote larger than a certain value,
It is determined that there is no object in the input image (step 150
9) Output the input image as it is (step 151)
0). This output is output from the output terminal 213 via the I / F unit 208.
【0050】[0050]
【発明の効果】以上のように本発明によれば、少ないモ
デルデータで、物体表面の色が異なっていても同じ形状
の物体であれば形状特徴で検出でき、また、物体の一部
分が隠蔽されていても精度良く検出できる。また、入力
画像中の物体の形状と位置を高精度に出力することがで
きる。As described above, according to the present invention, even if the object surface has a different color, the object having the same shape can be detected by the shape feature with a small amount of model data, and a part of the object is concealed. Can be detected with high accuracy. Further, the shape and position of the object in the input image can be output with high accuracy.
【図1】本発明の実施の形態1における画像認識装置の
ブロック構成図FIG. 1 is a block diagram of an image recognition device according to a first embodiment of the present invention.
【図2】本発明の実施の形態1におけるコンピュータに
よる画像認識装置のブロック構成図FIG. 2 is a block diagram of a computer-based image recognition device according to the first embodiment of the present invention.
【図3】本発明の実施の形態1におけるモデル生成手段
の処理の流れを示すフローチャートFIG. 3 is a flowchart showing a processing flow of a model generation unit according to the first embodiment of the present invention.
【図4】本発明の実施の形態1における画像入力部から
出力部までの処理の流れを示すフローチャートFIG. 4 is a flowchart showing a flow of processing from an image input unit to an output unit according to the first embodiment of the present invention.
【図5】本発明の実施の形態1における画像データベー
スが保管しているモデル画像と形状識別子の一例を示す
図FIG. 5 is a diagram showing an example of a model image and a shape identifier stored in an image database according to the first embodiment of the present invention.
【図6】本発明の実施の形態1における形状情報データ
ベースが保管しているモデルの平均画像と形状識別子の
一例を示す図FIG. 6 is a diagram showing an example of an average image and a shape identifier of a model stored in a shape information database according to the first embodiment of the present invention;
【図7】画像切り出し部が切り出す矩形領域の例を示す
図FIG. 7 is a diagram illustrating an example of a rectangular area cut out by an image cutout unit;
【図8】出力部が出力する検出結果の一例を示す図FIG. 8 is a diagram illustrating an example of a detection result output from an output unit.
【図9】本発明の実施の形態2における画像認識装置の
ブロック構成図FIG. 9 is a block diagram of an image recognition device according to a second embodiment of the present invention.
【図10】本発明の実施の形態2におけるモデル生成手
段の処理の流れを示すフローチャートFIG. 10 is a flowchart showing a processing flow of a model generation unit according to the second embodiment of the present invention.
【図11】本発明の実施の形態2における画像入力部か
ら出力部までの処理の流れを示すフローチャートFIG. 11 is a flowchart illustrating a flow of processing from an image input unit to an output unit according to the second embodiment of the present invention.
【図12】本発明の実施の形態2における画像データベ
ースが保管しているモデル画像と形状識別子の一例を示
す図FIG. 12 is a diagram showing an example of a model image and a shape identifier stored in an image database according to the second embodiment of the present invention.
【図13】本発明の実施の形態3における画像認識装置
のブロック構成図FIG. 13 is a block diagram of an image recognition device according to a third embodiment of the present invention.
【図14】本発明の実施の形態3におけるモデル生成手
段の処理の流れを示すフローチャートFIG. 14 is a flowchart showing a flow of processing of a model generation unit according to the third embodiment of the present invention.
【図15】本発明の実施の形態3における画像入力部か
ら出力部までの処理の流れを示すフローチャートFIG. 15 is a flowchart showing a flow of processing from an image input unit to an output unit according to the third embodiment of the present invention.
【図16】本発明の実施の形態3における画像データベ
ースが保管しているモデル画像と形状識別子の一例を示
す図FIG. 16 is a diagram showing an example of a model image and a shape identifier stored in an image database according to the third embodiment of the present invention.
【図17】本発明の実施の形態3における画像切り出し
部が切り出す矩形領域の例を示す図FIG. 17 is a diagram showing an example of a rectangular area cut out by an image cutout unit according to the third embodiment of the present invention;
【図18】本発明の実施の形態3における集計部が出力
する集計の一例を示す図FIG. 18 is a diagram illustrating an example of a tally output by a tallying unit according to the third embodiment of the present invention.
【図19】従来の画像認識装置の一例を示すブロック図FIG. 19 is a block diagram showing an example of a conventional image recognition device.
1 画像データベース 2 モデル生成手段 3 形状情報データベース 4 画像入力部 5 画像切り出し部 6 形状分類手段 7 出力部 20 特徴空間生成部 21 特徴量抽出部 60 特徴空間射影部 61 部分形状分類部 62 全体形状領域推定部 63 集計部 201 コンピュータ 202 CPU 203 メモリ 204 キーボード/ディスプレイ 205 蓄積媒体ユニット 206〜208 I/Fユニット 209 CPUバス 210 カメラ 211 画像データベース 212 形状情報データベース 213 出力端子 DESCRIPTION OF SYMBOLS 1 Image database 2 Model generation means 3 Shape information database 4 Image input part 5 Image cutout part 6 Shape classification means 7 Output part 20 Feature space generation part 21 Feature quantity extraction part 60 Feature space projection part 61 Partial shape classification part 62 Overall shape area Estimating unit 63 Totaling unit 201 Computer 202 CPU 203 Memory 204 Keyboard / display 205 Storage medium unit 206-208 I / F unit 209 CPU bus 210 Camera 211 Image database 212 Shape information database 213 Output terminal
フロントページの続き Fターム(参考) 5B057 AA06 BA02 CE09 DA02 DA07 DA16 DC09 DC22 DC33 5L096 BA04 CA02 EA35 FA18 FA32 FA33 FA81 HA08 JA11 KA04Continued on the front page F term (reference) 5B057 AA06 BA02 CE09 DA02 DA07 DA16 DC09 DC22 DC33 5L096 BA04 CA02 EA35 FA18 FA32 FA33 FA81 HA08 JA11 KA04
Claims (8)
置において、検出対象の形状を表す形状識別子とその形
状を持つ物体の画像をモデル画像として予め登録してお
く画像データベースと、各形状ごとに前記モデル画像か
ら形状特徴を予め抽出しておくモデル生成手段と、前記
形状特徴と前記形状識別子を対にして予め格納しておく
形状情報データベースと、物体を検出する画像を入力す
る画像入力部と、入力画像の一部を部分画像として切り
出す画像切り出し部と、前記部分画像と前記形状特徴と
を照合し、前記部分画像内に検出対象の形状があるか否
かを判定する形状分類手段と、前記検出された検出対象
の形状を表す情報とその形状の入力画像中の位置を表す
情報を出力する出力部とを備えることを特徴とする画像
認識装置。An apparatus for detecting an object having a specific shape from an image, an image database in which a shape identifier representing a shape of a detection target and an image of the object having the shape are registered in advance as a model image, Model generating means for previously extracting shape features from the model image; a shape information database for storing the shape features and the shape identifiers in pairs; and an image input unit for inputting an image for detecting an object. And an image cutout unit that cuts out a part of the input image as a partial image, and a shape classification unit that compares the partial image with the shape feature and determines whether or not there is a shape to be detected in the partial image. And an output unit that outputs information indicating the shape of the detected object and information indicating the position of the shape in the input image.
状に属する前記モデル画像の平均画像と前記モデル画像
の各画素の分散を形状特徴として抽出し、、形状ごとに
平均画像と分散と形状識別子とを対にして形状情報デー
ターベースに格納することを特徴とする請求項1記載の
画像認識装置。2. The model generating means extracts, for each shape, an average image of the model image belonging to the shape and a variance of each pixel of the model image as a shape feature, and extracts an average image, a variance and a shape for each shape. 2. The image recognition apparatus according to claim 1, wherein the identifier and the identifier are stored in a pair in the shape information database.
置において、検出対象の形状を表す形状識別子とその形
状を持つ物体の画像をモデル画像として予め登録してお
く画像データベースと、前記全てのモデル画像の画素値
から特徴空間の基底ベクトルを算出し、前記全てのモデ
ル画像を特徴空間内にモデル画像ベクトルとして射影
し、前記形状識別子を付与した各モデル画像ベクトル
と、前記モデル画像ベクトルから形状ごとに特徴的な統
計量を形状特徴パラメタとして算出し、前記形状識別子
を付与するモデル生成手段と、前記モデル生成手段から
の基底ベクトルと形状特徴パラメタを前記形状識別子と
ともに登録しておく形状情報データベースと、物体を検
出する画像を入力する画像入力部と、入力画像の一部を
部分画像として切り出す画像切り出し部と、前記基底ベ
クトルを用いて前記部分画像を前記特徴空間に射影して
部分画像ベクトルを求め、前記形状特徴パラメタを用い
て前記部分画像ベクトルをモデルと照合して前記部分画
像内に検出対象の形状があるかどうかを判定する形状分
類手段と、前記入力画像内に検出対象の形状と一致する
ものがある場合にはその形状を表す情報とその形状の入
力画像中の位置を表す情報を出力する出力部とを備える
ことを特徴とする画像認識装置。3. An apparatus for detecting an object having a specific shape from an image, comprising: a shape identifier representing a shape to be detected and an image database in which an image of the object having the shape is registered in advance as a model image; A basis vector of a feature space is calculated from a pixel value of the model image, all the model images are projected as a model image vector in the feature space, and each model image vector to which the shape identifier is added, and a shape is calculated from the model image vector. A model generating means for calculating a characteristic statistic as a shape feature parameter for each of them, and assigning the shape identifier; and a shape information database for registering the base vector and the shape feature parameter from the model generating means together with the shape identifier. And an image input unit for inputting an image for detecting an object, and cutting out a part of the input image as a partial image An image cutout unit, the partial image is projected onto the feature space using the basis vector to obtain a partial image vector, and the partial image vector is compared with a model using the shape feature parameter to be included in the partial image. A shape classification means for determining whether or not there is a shape to be detected; and, if there is a shape in the input image that matches the shape to be detected, information representing the shape and a position of the shape in the input image. An image recognition device comprising: an output unit that outputs information.
パラメタの算出は、同じ形状の物体のモデル画像から算
出された前記モデル画像ベクトルの平均ベクトルと共分
散から各形状ごとの形状特徴パラメタを算出することを
特徴とする請求項3記載の画像認識装置。4. The method according to claim 1, wherein the calculation of the shape feature parameter for each shape by the model generating means includes calculating the shape feature parameter for each shape from the average vector and the covariance of the model image vector calculated from the model image of the object having the same shape. The image recognition device according to claim 3, wherein the calculation is performed.
デル画像の平均画像を求めて前記全ての平均画像の画素
値から基底ベクトルを算出し、前記全てのモデル画像を
特徴空間内にモデル画像ベクトルとして射影し、各モデ
ル画像ベクトルに前記形状識別子を付与することを特徴
とする請求項3または4記載の画像認識装置。5. The model generating means calculates an average image of the model images for each shape, calculates a base vector from pixel values of all the average images, and stores all the model images in a feature space in a feature space. The image recognition apparatus according to claim 3, wherein the image is projected as a vector, and the shape identifier is assigned to each model image vector.
の部分の形状であるかの情報を含むことを特徴とする請
求項3乃至5のいずれか記載の画像認識装置。6. The image recognition apparatus according to claim 3, wherein the shape identifier includes information indicating which part of the object is the shape.
の形状識別子ごとに少なくとも1つ入力画像中の物体全
体の領域を推定し、入力の各部分画像について推定した
物体全体の領域を集計することにより物体領域の位置を
出力することを特徴とする請求項6記載の画像認識装
置。7. The shape classification unit estimates at least one region of the entire object in the input image for each shape identifier of the determined partial shape, and totals the estimated region of the entire object for each input partial image. 7. The image recognition apparatus according to claim 6, wherein the position of the object area is output by the operation.
法において、検出対象の形状を表す形状識別子とその形
状を持つ物体の画像をモデル画像として予め登録してお
く画像データベースと、各形状ごとに前記モデル画像か
ら形状特徴を予め抽出するステップと、前記形状特徴と
前記形状識別子を対にして予め格納しておく形状情報デ
ータベースと、物体を検出する画像を入力するステップ
と、入力画像の一部を部分画像として切り出すステップ
と、前記部分画像と前記形状特徴とを照合し、前記部分
画像内に検出対象の形状があるか否かを判定するステッ
プと、前記検出された検出対象の形状を表す情報とその
形状の入力画像中の位置を表す情報を出力するステップ
とを備えることを特徴とする画像認識方法。8. A method for detecting an object having a specific shape from an image, comprising: a shape identifier representing a shape to be detected and an image database in which an image of the object having the shape is registered in advance as a model image; Extracting a shape feature from the model image in advance, inputting an image for detecting an object, a shape information database storing the shape feature and the shape identifier in advance, Cutting out the part as a partial image, collating the partial image with the shape feature, determining whether the detection target has a shape in the partial image, and determining the detected detection target shape. And outputting information representing a position of the shape in the input image.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000216946A JP2002032766A (en) | 2000-07-18 | 2000-07-18 | Image recognition apparatus and method |
| EP00121115A EP1089214A3 (en) | 1999-09-30 | 2000-09-28 | Apparatus and method for image recognition |
| US09/676,680 US6999623B1 (en) | 1999-09-30 | 2000-09-29 | Apparatus and method for recognizing an object and determining its position and shape |
| US10/677,866 US7054489B2 (en) | 1999-09-30 | 2003-10-02 | Apparatus and method for image recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000216946A JP2002032766A (en) | 2000-07-18 | 2000-07-18 | Image recognition apparatus and method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2002032766A true JP2002032766A (en) | 2002-01-31 |
Family
ID=18712127
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000216946A Pending JP2002032766A (en) | 1999-09-30 | 2000-07-18 | Image recognition apparatus and method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2002032766A (en) |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004199695A (en) * | 2002-12-18 | 2004-07-15 | Xerox Corp | Method for automatically choosing visual characteristic to highlight target against background |
| WO2010147229A1 (en) | 2009-06-18 | 2010-12-23 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
| JP2011040073A (en) * | 2003-02-28 | 2011-02-24 | Aperio Technologies Inc | System and method for image pattern recognition |
| JP2014505952A (en) * | 2011-02-18 | 2014-03-06 | ナショナル・アイシーティ・オーストラリア・リミテッド | Image quality assessment |
| JP2016001489A (en) * | 2009-06-18 | 2016-01-07 | キヤノン株式会社 | Image recognition method and image recognition apparatus |
| JP2017182606A (en) * | 2016-03-31 | 2017-10-05 | セコム株式会社 | Feature extraction device |
| JP2018067149A (en) * | 2016-10-19 | 2018-04-26 | 三菱重工業株式会社 | Attribute determination device, attribute determination method, computer program, and recording medium |
| CN108073890A (en) * | 2016-11-14 | 2018-05-25 | 安讯士有限公司 | Action recognition in video sequence |
| CN112013921A (en) * | 2019-05-30 | 2020-12-01 | 杭州海康威视数字技术股份有限公司 | A method, device and system for obtaining water level information based on a water level gauge measurement image |
| JPWO2021214991A1 (en) * | 2020-04-24 | 2021-10-28 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07182484A (en) * | 1993-12-24 | 1995-07-21 | Nissan Motor Co Ltd | Moving vehicle front recognition device and vehicle traveling control device |
| JPH07254068A (en) * | 1994-03-14 | 1995-10-03 | N T T Data Tsushin Kk | Item identification system |
| JPH0933232A (en) * | 1995-05-18 | 1997-02-07 | Omron Corp | Object observation method, object observation apparatus using the method, and traffic flow measuring apparatus and parking lot observation apparatus using the apparatus |
| JP2605295B2 (en) * | 1987-08-18 | 1997-04-30 | スズキ株式会社 | Car type identification method |
| JPH11306353A (en) * | 1998-04-21 | 1999-11-05 | Matsushita Electric Ind Co Ltd | Object recognition method and object recognition device |
| JP3004501B2 (en) * | 1993-08-02 | 2000-01-31 | 三菱重工業株式会社 | Vehicle type identification device |
-
2000
- 2000-07-18 JP JP2000216946A patent/JP2002032766A/en active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2605295B2 (en) * | 1987-08-18 | 1997-04-30 | スズキ株式会社 | Car type identification method |
| JP3004501B2 (en) * | 1993-08-02 | 2000-01-31 | 三菱重工業株式会社 | Vehicle type identification device |
| JPH07182484A (en) * | 1993-12-24 | 1995-07-21 | Nissan Motor Co Ltd | Moving vehicle front recognition device and vehicle traveling control device |
| JPH07254068A (en) * | 1994-03-14 | 1995-10-03 | N T T Data Tsushin Kk | Item identification system |
| JPH0933232A (en) * | 1995-05-18 | 1997-02-07 | Omron Corp | Object observation method, object observation apparatus using the method, and traffic flow measuring apparatus and parking lot observation apparatus using the apparatus |
| JPH11306353A (en) * | 1998-04-21 | 1999-11-05 | Matsushita Electric Ind Co Ltd | Object recognition method and object recognition device |
Cited By (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004199695A (en) * | 2002-12-18 | 2004-07-15 | Xerox Corp | Method for automatically choosing visual characteristic to highlight target against background |
| JP2011040073A (en) * | 2003-02-28 | 2011-02-24 | Aperio Technologies Inc | System and method for image pattern recognition |
| US10891329B2 (en) | 2009-06-18 | 2021-01-12 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
| WO2010147229A1 (en) | 2009-06-18 | 2010-12-23 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
| JP2011022991A (en) * | 2009-06-18 | 2011-02-03 | Canon Inc | Image recognition method and apparatus |
| JP2016001489A (en) * | 2009-06-18 | 2016-01-07 | キヤノン株式会社 | Image recognition method and image recognition apparatus |
| US9852159B2 (en) | 2009-06-18 | 2017-12-26 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
| JP2014505952A (en) * | 2011-02-18 | 2014-03-06 | ナショナル・アイシーティ・オーストラリア・リミテッド | Image quality assessment |
| JP2017182606A (en) * | 2016-03-31 | 2017-10-05 | セコム株式会社 | Feature extraction device |
| JP2018067149A (en) * | 2016-10-19 | 2018-04-26 | 三菱重工業株式会社 | Attribute determination device, attribute determination method, computer program, and recording medium |
| CN108073890A (en) * | 2016-11-14 | 2018-05-25 | 安讯士有限公司 | Action recognition in video sequence |
| JP2018125841A (en) * | 2016-11-14 | 2018-08-09 | アクシス アーベー | Action recognition in video sequence |
| CN112013921A (en) * | 2019-05-30 | 2020-12-01 | 杭州海康威视数字技术股份有限公司 | A method, device and system for obtaining water level information based on a water level gauge measurement image |
| CN112013921B (en) * | 2019-05-30 | 2023-06-23 | 杭州海康威视数字技术股份有限公司 | Method, device and system for acquiring water level information based on water level gauge measurement image |
| JPWO2021214991A1 (en) * | 2020-04-24 | 2021-10-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7054489B2 (en) | Apparatus and method for image recognition | |
| Dornaika et al. | Simultaneous facial action tracking and expression recognition in the presence of head motion | |
| JP4946730B2 (en) | Face image processing apparatus, face image processing method, and computer program | |
| US6118887A (en) | Robust multi-modal method for recognizing objects | |
| US7995805B2 (en) | Image matching apparatus, image matching method, computer program and computer-readable storage medium | |
| JP2821348B2 (en) | Fingerprint collation device | |
| JP4479478B2 (en) | Pattern recognition method and apparatus | |
| CN112567384B (en) | System and method for finding and classifying patterns in images using a vision system | |
| US20150193649A1 (en) | Enhanced face detection using depth information | |
| US20120269384A1 (en) | Object Detection in Depth Images | |
| CN102687171A (en) | Character clothing feature extraction device, character retrieval device and processing method thereof | |
| JP2000105829A (en) | Face part detection method and apparatus | |
| JP2002032766A (en) | Image recognition apparatus and method | |
| JP4745207B2 (en) | Facial feature point detection apparatus and method | |
| JP2013218605A (en) | Image recognition device, image recognition method, and program | |
| CN109886213B (en) | Fatigue state determination method, electronic device, and computer-readable storage medium | |
| JP2003044853A (en) | Face detection device, face direction detection device, partial image extraction device, and methods thereof | |
| CN119495113A (en) | A person re-identification method based on cross-temporal data | |
| JP3680658B2 (en) | Image recognition method and image recognition apparatus | |
| JP2007025902A (en) | Image processing apparatus and image processing method | |
| JPH0991432A (en) | Suspicious person extraction method | |
| JP2007026308A (en) | Image processing method and image processing apparatus | |
| JP3659221B2 (en) | Image recognition apparatus and method | |
| JP3796997B2 (en) | Object recognition method and object recognition apparatus | |
| Méndez et al. | Facial landmarks detection using extended profile lbp-based active shape models |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041029 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041102 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041207 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050201 |