JPH0612494A - Image matching device and image search device - Google Patents
Image matching device and image search deviceInfo
- Publication number
- JPH0612494A JPH0612494A JP4168797A JP16879792A JPH0612494A JP H0612494 A JPH0612494 A JP H0612494A JP 4168797 A JP4168797 A JP 4168797A JP 16879792 A JP16879792 A JP 16879792A JP H0612494 A JPH0612494 A JP H0612494A
- Authority
- JP
- Japan
- Prior art keywords
- image
- degree
- unit
- component
- coincidence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 画像の構成要素名が異なる場合でも、構成要
素の画像特徴を用いた画像間の照合が行なえる画像照合
装置と、これを用いることにより検索者の希望する画像
に類似した画像を取り出す画像検索装置を提供する。
【構成】 構成要素名比較部13で構成要素名を比較
し、構成要素名が一致する要素については、対応構成要
素間一致度算出部14において、画像特徴を用いて構成
要素の一致度を算出する。構成要素名が一致しない要素
については、類似度合抽出部16が類似語辞書記憶部1
5に記憶されている構成要素間の類似度合を抽出し、類
似構成要素間一致度算出部17において要素間の一致度
が算出される。それらの一致度を画像間一致度算出部1
8で結合し画像間の一致度とする。求めた画像間の一致
度をもとに画像を検索することにより、検索者の意図す
る検索結果を得ることができる。
(57) [Summary] [Purpose] An image matching device capable of matching images using the image features of the constituent elements even if the constituent element names of the images differ, and the image desired by the searcher by using this. An image retrieval device for retrieving an image similar to. [Structure] The constituent element name comparison unit 13 compares the constituent element names, and for the elements having the same constituent element names, the corresponding constituent element coincidence degree calculation unit 14 calculates the degree of coincidence of the constituent elements using the image feature. To do. For the elements whose component names do not match, the similarity degree extraction unit 16 sets the similar word dictionary storage unit 1
The degree of similarity between the constituent elements stored in 5 is extracted, and the degree of coincidence between the elements is calculated by the similar degree-to-similarity element matching degree calculation unit 17. The degree of coincidence between them is calculated by the inter-image coincidence degree calculation unit 1
The images are combined at 8 to obtain the degree of coincidence between images. By searching for an image based on the obtained degree of coincidence between the images, the search result intended by the searcher can be obtained.
Description
【0001】[0001]
【産業上の利用分野】本発明は、作成された画像データ
ベースから、利用者の希望する画像に類似した画像を検
索する画像検索装置及びその際利用する画像照合装置に
関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image retrieving apparatus for retrieving an image similar to an image desired by a user from a created image database and an image collating apparatus used in that case.
【0002】[0002]
【従来の技術】従来の画像検索手法として、例えば、
「第6回ファジィシステムシンポジウム講演論文集」p
p.341-344に示されているものがある。2. Description of the Related Art As a conventional image retrieval method, for example,
"6th Fuzzy System Symposium Proceedings" p
Some are shown on pages 341-344.
【0003】これは、画像の内容を示した言葉から、意
味ネットワークを作成し、これを画像の索引や検索キー
とする。今、図12に示したような女性、男性、犬が存
在する画像を考え、画像の内容を言葉で表すと、「女性
がいる。女性は男性の左側にいる。女性のほぼ後ろに犬
がいる。」と表せる。これを意味ネットワークで表す
と、図13(a) のようになる。これは、画像の構成要素
を表す節点と節点間の関係を表す矢印から構成され、こ
れを画像の索引や検索キーを表すデータとする。矢印e
のデータ構造は、矢印のラベルL(e)、始点vのラベルL
(v)、終点wのラベルL(w)、メンバーシップ値μ(e)の4つ
の組e:(μ(e),L(e),L(v),L(w))で構成される。この表現
を用いると、図13(a)は、図13(b)のように記述でき
る。This is to create a semantic network from words indicating the contents of an image and use this as an image index or search key. Now, considering an image in which there are women, men, and dogs as shown in FIG. 12, the content of the image is expressed in words: "There is a woman. A woman is on the left side of a man. A dog is almost behind the woman. There is. " This can be represented by a semantic network as shown in FIG. 13 (a). This is composed of nodes that represent the constituent elements of the image and arrows that represent the relationship between the nodes, and this is used as data that represents the index or search key of the image. Arrow e
The data structure of is the label L (e) of the arrow, the label L of the starting point v
(v), the label L (w) of the end point w, and the membership value μ (e) consisting of four groups e: (μ (e), L (e), L (v), L (w)). It Using this expression, FIG. 13 (a) can be described as shown in FIG. 13 (b).
【0004】画像の内容を示めすために用いられた画像
の構成要素や要素間の関係を表現する言葉が、索引と検
索キーとの間で微妙に異なる可能性がある。例えば、
「左側」を「隣」と表すことがある。これは、ファジィ
シソーラスを用いて対応する。ファジィシソーラスの例
を図14に示す。このファジィシソーラスには索引や検
索キーを作成する時に用いられる言葉がすべて含まれて
おり、それらの言葉の間にファジィ関係が与えられてい
る。Words used to indicate the content of an image, which describe the constituent elements of the image and the relationship between the elements, may be slightly different between the index and the search key. For example,
The "left side" may be expressed as "next to". This is dealt with using a fuzzy thesaurus. An example of a fuzzy thesaurus is shown in FIG. This fuzzy thesaurus contains all the words used to create indexes and search keys, and gives a fuzzy relationship between those words.
【0005】索引と検索キーの類似度の算出は、索引と
検索キーの画像をそれぞれ図13(b) のように記述し、
これらのマッチングを行って求める。ここで、索引のグ
ラフの矢印の集合を(数1)、検索キーを(数2)のよ
うに定める。また、索引、検索キーそれぞれの要素を
(数3)のように定める。そして、検索用語として、登
録されている言葉のファジィシソーラスを(数4)とす
ると、索引と検索キーの間の類似度は(数5)により求
められる。The similarity between the index and the search key is calculated by describing the images of the index and the search key as shown in FIG.
These are matched and obtained. Here, the set of arrows in the graph of the index is defined by (Equation 1) and the search key is defined by (Equation 2). Further, the elements of the index and the search key are defined as in (Equation 3). Then, if a fuzzy thesaurus of registered words is used as a search term (Equation 4), the similarity between the index and the search key is obtained by (Equation 5).
【0006】[0006]
【数1】 [Equation 1]
【0007】[0007]
【数2】 [Equation 2]
【0008】[0008]
【数3】 [Equation 3]
【0009】[0009]
【数4】 [Equation 4]
【0010】[0010]
【数5】 [Equation 5]
【0011】以上のようにして、検索キーと画像データ
ベース中の画像の索引との間で、画像間の類似度を算出
する。求められた類似度が最も高い画像を検索結果とし
て出力するか、あるいは、類似度が高い順に出力する。As described above, the similarity between images is calculated between the search key and the index of the image in the image database. The image with the highest calculated similarity is output as a search result, or is output in the descending order of similarity.
【0012】[0012]
【発明が解決しようとする課題】このように、上記のよ
うな従来の画像検索装置では、あらかじめ、画像データ
ベース中の画像について、画像中の構成要素とその位置
関係を意味ネットワークで表し画像の索引としておき、
検索者の想起した画像も同様に意味ネットワークで表し
検索キーとし、画像の索引と検索キーとのグラフマッチ
ングにより類似度を求めている。As described above, in the conventional image retrieval apparatus as described above, regarding the image in the image database, the constituent elements in the image and their positional relationship are represented by a semantic network in advance. As
The image recalled by the searcher is also represented by a semantic network as a search key, and the degree of similarity is obtained by graph matching between the image index and the search key.
【0013】しかし、画像中の構成要素の位置関係の記
述は多数あり、同じ画像でも利用者によって、異なると
考えられる。例えば、図12の画像は、図13(a) の意
味ネットワークで表されたが、図14(a)の意味ネット
ワークでも表すことができる。そのため、画像の記述は
図15(b)のようになり、図13(b)とは異なったものに
なってしまう。すなわち、画像の索引と検索キーの位置
関係の記述が異なると、検索者の希望する検索結果が得
られなくなってしまう。However, there are many descriptions of the positional relationship of the constituent elements in the image, and it is considered that the same image varies depending on the user. For example, the image of FIG. 12 is represented by the semantic network of FIG. 13 (a), but can also be represented by the semantic network of FIG. 14 (a). Therefore, the description of the image is as shown in FIG. 15B, which is different from that in FIG. 13B. That is, if the description of the positional relationship between the image index and the search key is different, the search result desired by the searcher cannot be obtained.
【0014】画像中の構成要素の位置関係の記述は、同
じ画像でも利用者によって異なると考えられるので、画
像の索引の意味ネットワークは、画像中の構成要素のす
べての位置関係を記述してある必要がある。しかし、画
像中の構成要素のすべての位置関係を意味ネットワーク
で表現するとなると、作成が困難で、また、一枚の画像
の索引を記憶するのに多くのメモリ容量を要することに
なる。そのため、実際のシステムでは、画像の索引と検
索キーの構成要素の位置関係の記述が異なると、検索者
の希望する結果が得られないといったことが起こりう
る。Since the description of the positional relationship of the constituent elements in the image is considered to be different depending on the user even in the same image, the semantic network of the index of the image describes all the positional relationships of the constituent elements in the image. There is a need. However, if all the positional relationships of the constituent elements in the image are to be represented by a semantic network, it is difficult to create and a large memory capacity is required to store the index of one image. Therefore, in an actual system, if the description of the positional relationship between the image index and the components of the search key is different, the result desired by the searcher may not be obtained.
【0015】また、上記のような画像検索装置では、デ
ータベース作成者や検索者が言葉で示した画像の内容
を、意味ネットワークで表しているだけであり、実際の
画像における画像特徴量を用いていない。したがって、
構成要素の大きさや色といった画像特徴を指定した検索
は行うことができない。Further, in the above-mentioned image retrieval apparatus, the contents of the image indicated by the database creator or the retriever in words are only represented by the semantic network, and the image feature amount in the actual image is used. Absent. Therefore,
A search that specifies image characteristics such as the size and color of a component cannot be performed.
【0016】本発明はかかる点に鑑み、言語による構成
要素名が異なる場合でも、構成要素の画像特徴を用い
て、2枚の画像の照合が行なえる画像照合装置、また、
構成要素間の関係を考慮して画像間の照合が行なえる画
像照合装置、そして、画像データベースから検索者の希
望する画像に類似した画像をとり出せる画像検索装置を
提供することを目的とする。In view of the above point, the present invention is an image collating apparatus capable of collating two images using the image features of the constituent elements even if the constituent element names in different languages are used, and
An object of the present invention is to provide an image collation device capable of collating images in consideration of relationships between constituent elements, and an image retrieval device capable of retrieving an image similar to an image desired by a searcher from an image database.
【0017】[0017]
【課題を解決するための手段】第1の発明は、照合する
画像を入力する照合画像入力部と、照合される画像を入
力する被照合画像入力部と、照合画像入力部で入力した
照合画像と被照合画像入力部で入力した被照合画像の構
成要素名を比較する構成要素名比較部と、構成要素名が
一致する構成要素ごとに画像特徴の一致度を算出する対
応構成要素間一致度算出部と、構成要素名間の類似度合
の知識を記憶する類似語辞書記憶部と、類似語辞書記憶
部が記憶している知識を用いて構成要素名が一致しない
構成要素間の類似度合を抽出する類似度合抽出部、類似
度合抽出部で抽出された類似度合を用いて構成要素名が
一致しない構成要素間の画像特徴の一致度を算出する類
似構成要素間一致度算出部、対応要素間一致度算出部が
算出した一致度と類似構成要素間一致度算出部が算出し
た一致度から画像間の一致度を求める画像間一致度算出
部とからなる画像特徴照合装置である。According to a first aspect of the present invention, there is provided a collation image input section for inputting an image to be collated, a collated image input section for inputting an image to be collated, and a collation image input by the collation image input section. And the matching factor between the corresponding component that calculates the matching factor of the image features for each matching component name and the matching component name of the matching image input in the matching image input unit The calculation unit, the similar word dictionary storage unit that stores knowledge of the degree of similarity between component names, and the degree of similarity between constituent items whose component names do not match using the knowledge stored in the similar word dictionary storage unit. A similarity degree extraction unit to extract, a similarity degree calculation unit between similar components that calculates the degree of matching of image features between components whose component names do not match using the similarity degree extracted by the similarity degree extraction unit, between corresponding elements The degree of coincidence calculated by the coincidence degree calculation unit An image feature matching system consisting of a degree of coincidence match degree calculating section between similar components is calculated inter-image match degree calculating section for obtaining the degree of similarity between images.
【0018】第2の発明は、照合する画像を入力する照
合画像入力部と、照合される画像を入力する被照合画像
入力部と、照合画像入力部で入力した照合画像と被照合
画像入力部で入力した被照合画像の構成要素名を比較す
る構成要素名比較部と、構成要素名が一致する構成要素
ごとに画像特徴の一致度を算出する対応構成要素間一致
度算出部と、要素名の階層関係を記述する木構造を記憶
する要素名木構造記憶部と、要素名木構造記憶部が記憶
している木構造を用いて構成要素名が一致しない構成要
素名間の距離を求める要素名間距離抽出部と、要素名間
距離抽出部が求めた要素名間の距離を用いて要素名間の
類似度合を算出する類似度合算出部と、類似度合算出部
が求めた類似度合を用いて類似する類似度合抽出部で抽
出された類似度合を用いて構成要素名が一致しない構成
要素間の画像特徴の一致度を算出する類似構成要素間一
致度算出部、対応要素間一致度算出部が算出した一致度
と類似構成要素間一致度算出部が算出した一致度から画
像間の一致度を求める画像間一致度算出部とからなる画
像照合装置である。A second aspect of the present invention is a collation image input section for inputting an image to be collated, a collation image input section for inputting an image to be collated, a collation image input by the collation image input section and a collation image input section. The component name comparison unit that compares the component names of the images to be collated that was input in step 1, and the corresponding inter-component coincidence calculation unit that calculates the image feature matching score for each component whose component name matches, and the element name The element name tree structure storage unit that stores the tree structure that describes the hierarchical relationship of the element and the element that obtains the distance between the component name that does not match the component name using the tree structure stored in the element name tree structure storage unit An inter-name distance extraction unit, a similarity degree calculation unit that calculates the degree of similarity between element names using the distance between element names obtained by the element name distance extraction unit, and a degree of similarity obtained by the similarity degree calculation unit are used. Similarity degree extracted by the similarity degree extraction unit Using the matching degree calculation unit between similar components for calculating the matching degree of the image features between the constituent elements whose constituent element names do not match, the matching degree calculated by the matching degree calculation unit between corresponding elements and the matching degree calculation unit between similar constituent elements The image matching apparatus includes an inter-image matching degree calculation unit that obtains the matching degree between images from the matching degree calculated by.
【0019】第3の発明は、照合する画像を入力する照
合画像入力部と、照合される画像を入力する被照合画像
入力部と、照合画像入力部で入力した照合画像と被照合
画像入力部で入力した被照合画像の構成要素名が一致す
る構成要素を抽出する対応構成要素抽出部と、構成要素
の一致度を構成要素の画像特徴を用いて求める画像特徴
一致度算出部と、構成要素の一致度を他の構成要素との
位置関係を用いて求める相対関係一致度算出部と、画像
特徴一致度算出部が算出した一致度と相対関係一致度算
出部が算出した一致度から対応する構成要素間の一致度
を算出する対応構成要素間一致度算出部と、対応構成要
素間一致度算出部が算出した一致度から画像間の一致度
を求める画像間一致度算出部とからなる画像照合装置で
ある。A third aspect of the invention is a collation image input section for inputting an image to be collated, a collation image input section for inputting an image to be collated, a collation image input by the collation image input section and a collation image input section. The corresponding constituent element extraction unit that extracts constituent elements whose constituent element names of the collated image input in step 1 are extracted, the image feature matching degree calculation unit that obtains the degree of coincidence of the constituent elements using the image characteristics of the constituent elements, and the constituent elements Of the relative relationship matching degree calculation unit that obtains the matching degree of each other by using the positional relationship with other components, and the matching degree calculated by the image feature matching degree calculation unit and the matching degree calculated by the relative relationship matching degree calculation unit. An image including an inter-element coincidence degree calculating unit that calculates the degree of coincidence between the constituent elements and an inter-image coincidence degree calculating unit that obtains the degree of coincidence between images from the degree of coincidence calculated by the corresponding inter-component element degree of coincidence calculating unit It is a matching device.
【0020】第4の発明は、検索要求画像を入力する検
索要求画像入力部と、画像を記憶する画像記憶部と、検
索画像入力部に入力した画像と画像記憶部に記憶した画
像の構成要素を指定する構成要素指定部と、構成要素指
定部で指定された構成要素の画像特徴を抽出する画像特
徴抽出部と、検索要求画像入力部に入力した検索要求画
像と画像記憶部に記憶されている画像の照合を行う第
1、第2もしくは第3の発明の手段からなる画像照合装
置と、画像照合装置の照合結果から前記画像記憶部から
取り出す画像出力部とからなる画像検索装置である。A fourth aspect of the invention is a search request image input section for inputting a search request image, an image storage section for storing images, an image input to the search image input section, and constituent elements of the image stored in the image storage section. A component designating section that designates a component, an image feature extracting unit that extracts the image feature of the component designated by the component designating unit, a search request image input to the search request image input unit, and a storage unit stored in the image storage unit. The image retrieval apparatus comprises an image collation apparatus including the means of the first, second, or third invention for collating existing images, and an image output unit that extracts from the image storage unit from the collation result of the image collation apparatus.
【0021】[0021]
【作用】本発明は上記の構成により、2枚の画像の構成
要素名が一致しない場合でも、同一視できるような要素
やイメージが同じ要素どうしに対して一致度を与えるこ
とにより、画像間の一致度を求めることができる。According to the present invention, even if the constituent element names of two images do not match, the present invention provides a degree of matching between elements that can be identified as one another and elements having the same image, so that the images The degree of coincidence can be calculated.
【0022】また、構成要素間の位置関係を自動的に抽
出し、構成要素間の位置関係を考慮した画像間の一致度
を求めることができる。Further, it is possible to automatically extract the positional relationship between the constituent elements and obtain the degree of coincidence between images in consideration of the positional relationship between the constituent elements.
【0023】また、これらの画像照合装置を画像検索装
置に用いることにより、検索者の希望する画像に類似し
た画像を画像データベースから取り出すことができる。Further, by using these image collating devices in the image searching device, it is possible to retrieve an image similar to the image desired by the searcher from the image database.
【0024】[0024]
【実施例】以下、本発明の実施例について図面を参照し
て説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0025】図1は本発明の第1の実施例である画像照
合装置の構成を示すブロック図である。図1において、
11は照合する画像のデータを入力する照合画像データ
入力部、12は照合される画像のデータを入力する被照
合画像データ入力部、13は構成要素名を比較する構成
要素名比較部、14は対応する構成要素間の一致度を算
出する対応構成要素間一致度算出部、15は要素名間の
類似度合についての知識を記憶する類似語辞書記憶部、
16は類似語辞書記憶部15が記憶している辞書を用い
て要素名間の類似度合を抽出する類似度合抽出部、17
は類似する構成要素間の一致度を算出する類似構成要素
間一致度算出部、18は画像間の一致度を算出する画像
間一致度算出部である。FIG. 1 is a block diagram showing the arrangement of an image collating apparatus according to the first embodiment of the present invention. In FIG.
Reference numeral 11 is a collation image data input unit for inputting data of an image to be collated, 12 is a collation image data input unit for inputting data of an image to be collated, 13 is a component name comparison unit for comparing component names, and 14 is Corresponding component matching score calculation unit for calculating the matching score between corresponding components, 15 is a similar word dictionary storage unit for storing knowledge about the similarity between the element names,
Reference numeral 16 is a similarity degree extraction unit that extracts the degree of similarity between element names using the dictionary stored in the similar word dictionary storage unit 17,
Is an inter-image coincidence degree calculation unit that calculates the degree of coincidence between similar components, and 18 is an inter-image coincidence degree calculation unit that calculates the degree of coincidence between images.
【0026】以上のように構成された第1の実施例の画
像照合装置の動作について説明する。まず、照合画像デ
ータ入力部11に照合する画像のデータを、被照合画像
データ入力部12には照合される画像データを入力す
る。画像のデータは、構成要素名とその構成要素の画像
特徴が与えられる。画像特徴量としては、構成要素の位
置、面積、主要色などが考えられる。ここで、図2(a)
に示すような構成要素として、月、人、家が含まれる画
像が照合画像として照合画像データ入力部11に入力さ
れ、図2(b) に示すような画像が被照合画像として被照
合画像データ入力部12に入力されたとする。構成要素
の特徴量を、例えば構成要素の位置と面積とすると、照
合画像データ入力部11、被照合画像データ入力部12
から、構成要素名として、月、人、家と、それぞれの位
置と面積情報が入力される。The operation of the image collating apparatus of the first embodiment constructed as above will be described. First, the image data to be collated is input to the collation image data input unit 11, and the image data to be collated is input to the collation image data input unit 12. Image data is given a component name and the image feature of the component. As the image feature amount, the position, area, main color, etc. of the component can be considered. Here, FIG. 2 (a)
As the constituent elements shown in Fig. 2, an image including the month, person, and house is input as the collation image to the collation image data input unit 11, and the image as shown in Fig. 2 (b) is the collation image as the collation image data. It is assumed that the data is input to the input unit 12. Assuming that the characteristic amounts of the constituent elements are, for example, the positions and areas of the constituent elements, the collation image data input unit 11 and the collation image data input unit 12 are performed.
From, the month, person, house, and the position and area information of each are input as the component name.
【0027】構成要素名比較部13では、照合画像デー
タ入力部11から入力された照合画像のデータと被照合
画像データ入力部12から入力された被照合画像データ
の構成要素名を比較し、構成要素名が一致するものと、
一致しないものとに分ける。The component name comparison unit 13 compares the data of the collation image input from the collation image data input unit 11 with the component name of the collation image data input from the collation image data input unit 12, and constructs it. If the element names match,
Divide into those that do not match.
【0028】対応構成要素間一致度算出部14では、構
成要素名比較部13で要素名が一致するとみなされた構
成要素ごとに一致度を算出する。一致度の算出は例え
ば、以下のような方法で行なう。入力された構成要素の
画像特徴量に対し、2つの構成要素の画像特徴量の距離
に基づいて定めた一致度のメンバーシップ関数から、各
特徴量ごとの一致度を求める。一致度のメンバーシップ
関数の一例を図3に示す。図3のメンバーシップ関数か
ら求めた各特徴量の一致度を結合することにより構成要
素の一致度とする。各特徴量の一致度の結合には例え
ば、Dempster-Shafer の結合則を用いる。Dempster-Sha
fer 理論によると、p1,p2を独立な証拠に基づいて得
られた基本確率とし、B1q,B2r(q,r=0,1,2,…)をそ
れぞれの焦点要素としたとき、基本確率は(数6)によ
って結合することができる。The corresponding component-to-component matching score calculation unit 14 calculates the matching score for each component that the component name comparison unit 13 has determined to match the element name. The degree of coincidence is calculated, for example, by the following method. With respect to the input image feature amount of the constituent element, the degree of coincidence for each characteristic amount is obtained from the membership function of the degree of coincidence determined based on the distance between the image characteristic amounts of the two constituent elements. An example of the membership function of the degree of coincidence is shown in FIG. The degree of coincidence of the constituents is obtained by combining the degrees of coincidence of the respective feature amounts obtained from the membership function of FIG. For example, the Dempster-Shafer associative rule is used to combine the degrees of coincidence of the feature amounts. Dempster-Sha
According to fer theory, p 1 and p 2 are the basic probabilities obtained based on independent evidence, and B 1q and B 2r (q, r = 0,1,2, ...) are the respective focus elements. , The basic probabilities can be combined by (Equation 6).
【0029】[0029]
【数6】 [Equation 6]
【0030】焦点要素として2個の構成要素が類似して
いることをA、類似していないことをAcとし、ある構
成要素の画像特徴量xiにおいて類似している確信度を
p(i)(A)、類似していない確信度をp(i)(AC)とす
る。また、無知量をp(i)(A,AC)とする。このとき画
像特徴量としてxiが得られたときの、確信度p
(i)(A),p (i)(A,AC)の求め方を説明する。As the focus element, the two components are similar
A means that there is something similar and Ac means that there is no similarity.
Image feature x of componentiThe similarities in
p(i)(A), the dissimilarity is p(i)(AC)
It In addition, p(i)(A, AC). This time the image
X as the image featureiConfidence p when
(i)(A), p (i)(A, AC) Is explained.
【0031】画像特徴量として構成要素の位置と面積を
考える。2つの画像間で対応する構成要素間の位置の差
をx1、面積の差をx2とする。x1、x2からメンバシッ
プ関数を用いて一致度s1、s2をそれぞれ求める。メン
バシップ関数から求めたs1、s2に対し、これらの値を
特徴量数(この場合は2)で割り、これをp(1)(A)、
p(2)(A)とする。さらに無知量p(1)(A,AC)、p
(2)(A,AC) を(数7)から求める。求めたp
(i)(A)、p(i)(A,AC)から(数6)の結合則を用い
て、構成要素の一致度pj(A)を求める。Consider the positions and areas of the constituents as the image feature quantities. It is assumed that the position difference between the corresponding components between the two images is x 1 and the area difference is x 2 . The degrees of coincidence s 1 and s 2 are obtained from x 1 and x 2 using a membership function. For s 1 and s 2 obtained from the membership function, these values are divided by the number of feature quantities (2 in this case), and p (1) (A),
p (2) (A). Furthermore, the ignorance amount p (1) (A, A C ), p
(2) Find (A, A C ) from (Equation 7). Sought p
From (i) (A) and p (i) (A, A C ), the degree of coincidence p j (A) of the constituent elements is obtained using the associative rule of (Equation 6).
【0032】[0032]
【数7】 [Equation 7]
【0033】以上のようにして対応する構成要素間一致
度を求めることができる。なお、ここでは構成要素の複
数の特徴量に対して個々の特徴量ごとに一致度を求め、
それらを結合して構成要素間一致度を求めるためにDemp
ster-Shafer の結合則を用いたが、ルールを用いた結合
などの方法や、構成要素の複数の特徴量に対して多次元
の特徴量空間上での距離を求めた後に一致度のメンバー
シップ関数で構成要素間一致度を求めても良い。As described above, the degree of coincidence between the corresponding constituent elements can be obtained. In addition, here, the degree of coincidence is calculated for each feature amount for a plurality of feature amounts of the constituent elements,
Demp is used to combine them and obtain the degree of agreement between components.
Although the ster-Shafer associative rule was used, the method of combining using rules and the membership of the degree of coincidence after obtaining the distances in the multidimensional feature space for multiple features of the constituent elements The degree of coincidence between constituent elements may be obtained by a function.
【0034】類似語辞書記憶部15では、構成要素名間
の類似度合を定めたファジィシソーラスを記憶してい
る。図4に例として、月、太陽、星の3個の構成要素間
の類似度合を表すファジィシソーラスを示す。図4か
ら、太陽と月は 0.8の度合、星と月は0.6の度合、太陽
と星は0.5の度合で類似する構成要素であることが分か
る。The similar word dictionary storage unit 15 stores a fuzzy thesaurus that defines the degree of similarity between constituent element names. As an example, FIG. 4 shows a fuzzy thesaurus showing the degree of similarity between the three constituent elements of the moon, the sun, and the star. From Fig. 4, it can be seen that the sun and moon are similar components with a degree of 0.8, the stars and moon with a degree of 0.6, and the sun and stars with a degree of 0.5.
【0035】類似度合抽出部16では、構成要素名比較
部13で要素名が一致しないとみなされた構成要素につ
いて、類似語辞書記憶部15に記憶されているファジィ
シソーラスを用いて、類似する構成要素を抽出し、類似
度合s を求める。ここで、図2(a)に示すような画像の
データが照合画像として与えられ、図2(c)に示すよう
な画像のデータが被照合画像として与えられた場合を考
える。図2(a) の画像の構成要素名は、月、人、家であ
るが、図2(c) の画像の構成要素名は、太陽、人、家で
あり、人、家は一致するが、月、太陽は一致しない。そ
こで、構成要素名が一致しないものは、類似語辞書記憶
部15に記憶されているファジィシソーラスを用いて類
似度合を調べる。ここで、照合画像の構成要素の月は、
被照合画像の構成要素の太陽に、0.8の度合で類似して
いることがわかる。The similarity degree extraction unit 16 uses the fuzzy thesaurus stored in the similar word dictionary storage unit 15 for the components whose element names are determined not to match by the component name comparison unit 13 to have similar configurations. Extract the elements and find the similarity s. Here, consider a case where image data as shown in FIG. 2A is given as a collation image and image data as shown in FIG. 2C is given as a collation image. Although the component names of the image in FIG. 2 (a) are moon, person, and house, the component names of the image in FIG. 2 (c) are sun, person, house, and person, house match. , Moon, sun do not match. Therefore, if the constituent element names do not match, the degree of similarity is checked using a fuzzy thesaurus stored in the similar word dictionary storage unit 15. Here, the component month of the matching image is
It can be seen that it is similar to the sun, which is a component of the collated image, with a degree of 0.8.
【0036】類似構成要素間一致度算出部17では、類
似度合抽出部16で抽出された類似する構成要素ごと
に、類似する度合に応じた一致度を求める。まず、対応
構成要素間一致度算出部14と同様の方法で構成要素の
画像特徴から一致度qk(A) を求める。次に、類似度合抽
出部16で求めた類似度合sを用い、一致度qk(A)と類似
度合sから、類似構成要素間一致度psk(A) を求める。
例えば、(数8)のような関数を用いて、類似構成要素
間一致度を求める。The matching degree calculation unit 17 between similar components calculates the matching degree according to the degree of similarity for each of the similar components extracted by the degree of similarity extraction unit 16. First, the degree of coincidence q k (A) is obtained from the image features of the constituent elements by the same method as that of the correspondence degree between corresponding constituents calculation unit 14. Next, using the degree of similarity s obtained by the degree of similarity extraction unit 16, the degree of coincidence p sk (A) between similar components is obtained from the degree of coincidence q k (A) and the degree of similarity s.
For example, the degree of coincidence between similar components is obtained using a function such as (Equation 8).
【0037】[0037]
【数8】 [Equation 8]
【0038】画像間一致度算出部18では、対応構成要
素間一致度算出部14で求めた照合画像と被照合画像で
構成要素名が一致する構成要素間の各一致度と、類似構
成要素間一致度算出部17で求めた構成要素名は一致し
ないが類似している構成要素間の各一致度の結合を行っ
て、照合画像と被照合画像間の一致度を算出する。一致
度の結合には、例えば、Dempster-Shafer の結合則を用
いる。以下、さらに詳細に説明する。The inter-image matching score calculating unit 18 calculates the matching scores between the matching components obtained by the matching matching score calculating unit 14 and the matching target images, and the matching scores between similar components. The degree of coincidence between the matching image and the collated image is calculated by combining the degrees of coincidence between the constituent elements that are similar but do not match the constituent element names obtained by the coincidence degree calculating unit 17. For example, the Dempster-Shafer associative rule is used to combine the coincidences. The details will be described below.
【0039】いま、照合画像の構成要素がN個あると
し、対応構成要素間一致度算出部14で求めたK個の一
致度p1(A)〜pK(A)から、(数9)よりp1'(A)〜p
K'(A)を求める。また、(数10)から無知量p1'(A,
AC)〜pK'(A,AC)を求める。同様に、類似構成要素間
一致度算出部17で求めた(N−K)個の一致度ps(1+
K)(A)〜psN(A)から、(数11)より、ps(1+K)'
(A)〜psN'(A)を、(数12)から無知量ps(1+K)'
(A,AC)〜psN'(A,AC) を求める。求められたpj'
(A),pj'(A,AC),psj'(A),psj'(A,AC) を用
いて、(数6)から画像間一致度Mを求める。Now, assuming that there are N constituent elements of the collation image, from the K coincidences p 1 (A) to p K (A) obtained by the inter-corresponding-element coincidence calculation unit 14, (Equation 9) More p 1 '(A) ~ p
Find K '(A). Also, from (Equation 10), the ignorance amount p 1 '(A,
A C ) -p K '(A, A C ) is calculated. Similarly, the (N−K) number of coincidences p s (1+ ) obtained by the similarity calculation unit 17 between similar components
From K) (A) to p sN (A), from ( Equation 11), p s (1 + K) '
From (A) to p sN '(A), the ignorance amount p s (1 + K) ' from ( Equation 12)
(A, A C ) to p sN '(A, A C ). Sought p j '
Using (A), p j ′ (A, A C ), p sj ′ (A), and p sj ′ (A, A C ), the inter-image matching degree M is obtained from (Equation 6).
【0040】[0040]
【数9】 [Equation 9]
【0041】[0041]
【数10】 [Equation 10]
【0042】[0042]
【数11】 [Equation 11]
【0043】[0043]
【数12】 [Equation 12]
【0044】以上のようにして画像間の一致度Mを求め
ることができる。図5は、照合画像として図2(a)が、
被照合画像として図2(c)が入力された場合の画像間一
致度の求め方を模式的に示したものである。51では、
対応構成要素である「人」と「家」の一致度が、対応構
成要素間一致度算出部14において、構成要素の画像特
徴を用いて算出される。52では、構成要素名の一致し
ない「月」「太陽」間の一致度が、類似構成要素間一致
度算出部において求められる。これらの、「人」の一致
度、「家」の一致度、「月」−「太陽」間の一致度が、
画像間一致度算出部18で結合され、画像間一致度が求
められる。The degree of coincidence M between images can be obtained as described above. In FIG. 5, as a collation image, FIG.
2 schematically shows how to obtain the degree of coincidence between images when FIG. 2 (c) is input as the collated image. At 51,
The degree of coincidence between “person” and “house”, which are the corresponding constituent elements, is calculated in the correspondence degree between-corresponding-element degree-of-coincidence calculation unit 14 using the image characteristics of the constituent elements. In 52, the degree of coincidence between “month” and “sun” in which the element names do not coincide is obtained by the degree-of-similarity element coincidence calculation unit. These "person" coincidence, "house" coincidence, "moon"-"sun" coincidence,
The inter-image coincidence degree calculation unit 18 combines them to obtain the inter-image coincidence degree.
【0045】以上のように本実施例では、2枚の画像間
で構成要素名が一致する構成要素ごとに構成要素の画像
特徴を用いて一致度を求める。このとき、構成要素名が
一致しない構成要素が存在しても、言葉の表現が違うだ
けのものやイメージが同じ要素に対しても、類似語辞書
を用いて、類似度合を求め、その度合に応じた一致度を
求めることができる。2枚の画像間の一致度は、これら
の構成要素間の一致度を結合することにより求められ
る。このため、言葉による構成要素名が異なる場合で
も、構成要素の画像特徴を用いて画像間の一致度を求め
ることができる。As described above, in the present embodiment, the degree of coincidence is obtained by using the image feature of the constituent element for each constituent element having the same constituent element name between the two images. At this time, even if there are constituent elements that do not have the same constituent name, even if the expressions are different or the images are the same, the similarity degree is calculated using the similar word dictionary, and the degree is calculated. The degree of coincidence can be calculated. The degree of coincidence between two images is obtained by combining the degree of coincidence between these constituent elements. Therefore, even if the component names in words are different, it is possible to obtain the degree of coincidence between images using the image features of the components.
【0046】次に本発明の第2の実施例の画像照合装置
について説明する。図6は第2の実施例の画像照合装置
の構成を示すブロック図である。図1と同一のものにつ
いては同一番号を付け、説明は省略する。図6におい
て、61は要素名の階層関係を記述する木構造を記憶す
る要素名木構造記憶部、62は要素名木構造記憶部61
が記憶している木構造を用いて要素名間の距離を求める
要素名間距離抽出部、63は要素名間の類似度合を算出
する類似度合算出部、64は類似する構成要素間の一致
度を算出する類似構成要素間一致度算出部である。Next, an image collating apparatus according to the second embodiment of the present invention will be described. FIG. 6 is a block diagram showing the arrangement of the image collating apparatus according to the second embodiment. The same parts as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. In FIG. 6, 61 is an element name tree structure storage unit that stores a tree structure that describes the hierarchical relationship of element names, and 62 is an element name tree structure storage unit 61.
The inter-element-name distance extraction unit that obtains the distance between the element names using the tree structure stored by, 63 is a similarity degree calculation unit that calculates the degree of similarity between element names, and 64 is the degree of coincidence between similar components. Is a matching degree calculation unit between similar components.
【0047】以上のように構成された第2の実施例の画
像照合装置の動作について説明する。構成要素名比較部
13において、構成要素名が一致するものと、一致しな
いものに分け、構成要素名が一致するものについては、
対応構成要素間一致度算出部14において構成要素ごと
に一致度が算出される過程までは、本発明の第1の実施
例と同様であり、説明は省略する。The operation of the image collating apparatus of the second embodiment constructed as above will be described. In the constituent element name comparison unit 13, the constituent element names are matched and the constituent element names are not matched.
The process up to the process of calculating the matching score for each component in the corresponding matching score calculation unit 14 is the same as in the first embodiment of the present invention, and the description thereof is omitted.
【0048】要素名木構造記憶部61では、構成要素名
の階層関係を記述する木構造を記憶している。図7に構
成要素名の階層関係の例を示す。図7から、三日月、半
月、満月の上位概念は、「月」であり、月の上位概念
は、「天体」であることがわかる。The element name tree structure storage unit 61 stores a tree structure describing the hierarchical relationship of the component element names. FIG. 7 shows an example of the hierarchical relationship of component element names. From FIG. 7, it can be seen that the generic concept of crescent moon, half moon, and full moon is “month”, and the generic concept of moon is “astronomical object”.
【0049】要素名間距離抽出部62では、要素名木構
造記憶部61が記憶している要素名の木構造を用いて、
要素名間の距離を求める。例えば、要素名間の距離は、
1個目の構成要素名から、木構造をたどって2個目の構
成要素名に到達するまでの距離であり、1回上位概念に
移ると1、同様に下位概念に移ると1と考える。したが
って、図6から、要素名「三日月」と「満月」間の距離
は、2となる。The element name distance extraction unit 62 uses the element name tree structure stored in the element name tree structure storage unit 61,
Find the distance between element names. For example, the distance between element names is
It is the distance from the first constituent element name to the second constituent element name through the tree structure, and is considered to be 1 when the upper concept is moved once, and 1 when the lower concept is similarly moved. Therefore, from FIG. 6, the distance between the element names “crescent moon” and “full moon” is 2.
【0050】類似度合算出部63では、要素名間距離抽
出部62で求めた要素名間の距離から、要素名間の類似
度合を算出する。ここでは、あらかじめ要素間の距離か
ら類似度合を算出する関数を用意しておき、この関数に
したがって、類似度合を求める。要素間の距離が大きい
ほど要素名間の類似度合は小さいと考えられるので、類
似度合をy,要素間距離をxとすると、例えば、(数1
3)のような関数を用いて類似度合を求める。要素名間
距離抽出部62で要素名間の距離が、2と求められてい
れば、類似度合は0.5となる。The similarity calculating section 63 calculates the similarity between the element names from the distance between the element names obtained by the element name distance extracting section 62. Here, a function for calculating the degree of similarity from the distance between elements is prepared in advance, and the degree of similarity is obtained according to this function. It is considered that the larger the distance between elements is, the smaller the degree of similarity between element names is. Therefore, when the degree of similarity is y and the distance between elements is x, for example, (Equation 1
The degree of similarity is obtained using a function such as 3). If the distance between the element names is found to be 2 by the element name distance extraction unit 62, the degree of similarity is 0.5.
【0051】[0051]
【数13】 [Equation 13]
【0052】類似構成要素間一致度算出部64では、類
似度合算出部63が求めた、要素名が一致しない要素名
の間の類似度合と画像特徴から求めた一致度を用いて、
第1の実施例の図1の17と同様の方法で、類似構成要
素間の一致度を算出する。The matching degree calculation unit 64 between similar constituent elements uses the degree of similarity between the element names whose element names do not match and the degree of matching obtained from the image features, which is obtained by the similarity degree calculation unit 63.
The degree of coincidence between similar components is calculated by the same method as 17 in FIG. 1 of the first embodiment.
【0053】画像間一致度算出部18の動作は、第1の
実施例と同様であり、照合画像と被照合画像間の一致度
を算出する。The operation of the inter-image matching score calculation unit 18 is the same as that of the first embodiment, and calculates the matching score between the collation image and the collation image.
【0054】以上のようにして、画像間の一致度を求め
ることができる。以上のように本実施例では、2枚の画
像間で構成要素名が一致する構成要素ごとに構成要素の
画像特徴を用いて一致度を求める。このとき、構成要素
名が一致しない構成要素が存在しても、要素名の階層関
係より得られた要素名間の距離から、構成要素の類似度
合を求め、その度合に応じた一致度を求めることができ
る。このため、言葉による構成要素名が異なる場合で
も、構成要素の画像特徴を用いて画像間の一致度を求め
ることができる。The degree of coincidence between images can be obtained as described above. As described above, in the present embodiment, the degree of coincidence is obtained for each constituent element whose constituent element name matches between the two images, by using the image feature of the constituent element. At this time, even if there are constituent elements whose constituent element names do not match, the degree of similarity of the constituent elements is obtained from the distance between the element names obtained from the hierarchical relationship of the element names, and the degree of coincidence according to the degree is obtained. be able to. Therefore, even if the component names in words are different, it is possible to obtain the degree of coincidence between images using the image features of the components.
【0055】次に本発明の第3の実施例の画像照合装置
について説明する。図8は第3の実施例の画像照合装置
の構成を示すブロック図である。図1と同一のものにつ
いては同一番号を付け、説明は省略する。図8におい
て、81は構成要素名を比較し要素名が一致する構成要
素を抽出する対応構成要素抽出部、82は構成要素の一
致度を画像特徴を用いて求める画像特徴一致度算出部、
83は構成要素の一致度をその他の構成要素との相対位
置関係を用いて求める相対関係一致度算出部、84は対
応する構成要素間の一致度を算出する対応構成要素間一
致度算出部、85は画像間の一致度を算出する画像間一
致度算出部である。Next, an image collating apparatus according to the third embodiment of the present invention will be described. FIG. 8 is a block diagram showing the arrangement of the image collating apparatus according to the third embodiment. The same parts as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. In FIG. 8, reference numeral 81 is a corresponding component extraction unit that compares the component names and extracts the components having the same element name, 82 is an image feature matching score calculation unit that obtains the matching score of the components using the image features,
Reference numeral 83 is a relative relationship matching degree calculation unit that obtains the matching degree of the constituent elements by using the relative positional relationship with other constituent elements, and 84 is a corresponding constituent element matching degree calculation unit that calculates the matching degree between corresponding constituent elements, Reference numeral 85 denotes an inter-image coincidence degree calculation unit that calculates the degree of coincidence between images.
【0056】以上のように構成された第3の実施例の画
像照合装置の動作について説明する。照合画像データ入
力部11に照合する画像データを、被照合画像データ入
力部12には照合される画像データを入力する過程は、
本発明の第1の実施例と同様である。ここで、説明のた
め、図9(a)に示したような構成要素名E1,E2,E3 が含ま
れる画像が照合画像として、図9(b)に示したような構
成要素名F1,F2,F3 の要素が含まれる画像が被照合画像
として入力されたとする。The operation of the image collating apparatus of the third embodiment constructed as above will be described. The process of inputting the image data to be collated into the collation image data input unit 11 and the image data to be collated into the collation target image data input unit 12 is as follows.
This is similar to the first embodiment of the present invention. Here, for the sake of explanation, the images including the component element names E1, E2, E3 as shown in FIG. 9A are used as the matching images, and the component element names F1, F2 as shown in FIG. 9B are used. It is assumed that an image including the F3 element is input as the collation image.
【0057】対応構成要素抽出部81では、照合画像デ
ータ入力部11から入力された照合画像のデータと被照
合画像データ入力部12から入力された被照合画像のデ
ータの構成要素名を比較し、構成要素名が一致する構成
要素を抽出する。ここでは、照合画像の構成要素名E1,E
2,E3と被照合画像の構成要素名F1,F2,F3が比較され、E1
とF1、E2とF2、E3とF3の構成要素名が一致したとする。
このような場合の画像間一致度の求め方を図10に示
す。The corresponding component extraction unit 81 compares the data of the collation image input from the collation image data input unit 11 with the component name of the data of the collation image input from the collation image data input unit 12, Extract the component with the same component name. Here, the matching image component names E1, E
2, E3 and the component names F1, F2, F3 of the collated image are compared, and E1
And the component names of F1, E2 and F2, E3 and F3 match.
FIG. 10 shows how to obtain the degree of coincidence between images in such a case.
【0058】ここで、説明のためにまず対応構成要素E1
−F1間の一致度を求めることを考える。対応構成要素間
の一致度は、対応構成要素間の画像特徴から求めた一致
度と、その他の構成要素に対する相対位置関係から求め
た一致度を結合することにより算出する。For the sake of explanation, first, the corresponding constituent element E1
Consider finding the degree of agreement between −F1. The degree of coincidence between the corresponding constituent elements is calculated by combining the degree of coincidence obtained from the image feature between the corresponding constituent elements and the degree of coincidence obtained from the relative positional relationship with other constituent elements.
【0059】まず、画像特徴一致度算出部82におい
て、構成要素E1, F1の画像特徴を用いた構成要素E1−F1
間の一致度が、第1の実施例の対応構成要素間一致度算
出部14と同様の方法で求められる。これを101に示
す。First, in the image feature matching score calculation unit 82, the constituent elements E1-F1 using the image characteristics of the constituent elements E1, F1.
The degree of coincidence between the corresponding constituent elements is obtained by the same method as that used by the degree-of-correspondence calculation section 14 between corresponding constituent elements of the first embodiment. This is shown at 101.
【0060】次に、相対関係一致度算出部83におい
て、一致度を求める構成要素と、それ以外のすべての要
素との相対位置関係を用いた構成要素E1−F1間の一致度
が求められる。照合画像中の要素E1とその他の要素の組
み合わせは、91に示した(E1,E2)、92に示した(E1,E
3)である。被照合画像でこれに対応するのは、93に示
した(F1,F2)、94に示した(F1,F3)である。各組み合わ
せの相対位置関係は、一致度を求める要素からみた、他
の要素までの距離とその方向で表される。ここでは、位
置関係91は、E1からみたE2までの距離DEと方向R
Eで、また位置関係93は、F1からみたF2までの距離DF
と方向RFで表される。103において、位置関係91
と位置関係93の一致度を求める。まず、位置関係91
と位置関係93の距離の差(DE−DF)と方向の差(R
E−RF)に基づいて定められた図3と同様の一致度のメ
ンバーシップ関数から、距離と方向の一致度を求める。
そして、それらを第1の実施例の対応構成要素間一致度
算出部14と同様の方法で結合すると、位置関係91と
位置関係93の一致度が求められる。同様にして、位置
関係92と位置関係94の一致度が104のように求め
られる。次に、102に示したように、103、104
で求められた相対位置関係の一致度が第1の実施例の対
応構成要素間一致度算出部14と同様の方法で結合さ
れ、要素E1-F1間の相対関係を用いた一致度が求められ
る。Next, in the relative relationship coincidence calculation unit 83, the coincidence between the constituent elements E1 to F1 is calculated using the relative positional relationship between the constituent element for which the matching degree is obtained and all other elements. The combination of the element E1 and other elements in the matching image is shown in 91 (E1, E2) and 92 (E1, E2).
3). Corresponding images in the collated image are (F1, F2) shown in 93 and (F1, F3) shown in 94. The relative positional relationship of each combination is represented by the distance to the other element and its direction as seen from the element for which the degree of coincidence is obtained. Here, the positional relationship 91 is the distance D E and the direction R from E1 to E2.
In E , the positional relationship 93 is the distance D F from F1 to F2.
And the direction R F. In 103, the positional relationship 91
And the degree of coincidence of the positional relationship 93 is obtained. First, the positional relationship 91
And the positional relationship 93 (D E −D F ) and the direction difference (R
The degree of coincidence between the distance and the direction is obtained from the membership function of the degree of coincidence similar to that shown in FIG. 3 determined based on E− R F ).
Then, when they are combined by the same method as the corresponding component matching degree calculation unit 14 of the first embodiment, the matching degree of the positional relationship 91 and the positional relationship 93 is obtained. Similarly, the degree of coincidence between the positional relationship 92 and the positional relationship 94 is obtained as 104. Next, as shown at 102, 103, 104
The degree of coincidence of the relative positional relationship obtained in step S1 is combined in the same manner as the corresponding degree of coincidence between constituent elements calculating unit 14 of the first embodiment to obtain the degree of coincidence using the relative relationship between the elements E1 and F1. .
【0061】次に対応構成要素間一致度算出部84で、
画像特徴一致度算出部82で求められた要素E1−F1間の
画像特徴における一致度と、相対関係一致度算出部83
で求められた相対関係における一致度が第1の実施例の
対応構成要素間一致度算出部14と同様の方法で結合さ
れ、対応構成要素E1−F1間の一致度が求められる。10
5は要素E1-F1間の一致度が求められる過程が示されて
いる。Next, in the matching degree calculation unit 84 between corresponding constituent elements,
The matching degree in the image feature between the elements E1 and F1 obtained by the image feature matching degree calculating section 82 and the relative relationship matching degree calculating section 83
The degree of coincidence in the relative relationship obtained in (1) is combined by the same method as that of the inter-corresponding-element coincidence calculation unit 14 of the first embodiment, and the degree of coincidence between corresponding constituents E1 to F1 is obtained. 10
5 shows the process in which the degree of coincidence between the elements E1 and F1 is obtained.
【0062】要素E2-F2間、要素E3-F3間も同様に、画像
特徴一致度算出部82で画像特徴の一致度を求め、相対
関係一致度算出部83で相対関係の一致度を求める。こ
れらが対応構成要素間一致度算出部84において結合さ
れ、要素E2-F2間、要素E3-F3間の一致度が求められる。Similarly, between the elements E2 and F2 and between the elements E3 and F3, the image feature matching degree calculating unit 82 obtains the image feature matching degree, and the relative relationship matching degree calculating unit 83 obtains the relative relationship matching degree. These are combined in the corresponding component matching degree calculation unit 84, and the matching degrees between the elements E2-F2 and between the elements E3-F3 are obtained.
【0063】画像間一致度算出部85では、対応構成要
素間一致度算出部84で求められた対応構成要素間の一
致度が第1の実施例の画像間一致度算出部18と同様の
方法で結合され、画像間の一致度が求められる。図10
に示したように、要素E1−F1間、要素E2-F2間、要素E3-
F3間の一致度が結合されて画像間一致度が求められる。In the inter-image matching score calculating unit 85, the matching score between the corresponding constituent elements obtained by the corresponding inter-component matching score calculating unit 84 is the same as that in the inter-image matching score calculating unit 18 of the first embodiment. And the degree of coincidence between the images is obtained. Figure 10
As shown in, between elements E1-F1, between elements E2-F2, and elements E3-
The degree of coincidence between F3s is combined to obtain the degree of coincidence between images.
【0064】以上のように本実施例では、ユーザが構成
要素間の関係の記述を行わなくても、自動的に構成要素
間の位置関係を抽出し、構成要素の画像特徴と共に画像
間の照合に用いるため、画像特徴と共に構成要素間の位
置関係も考慮した画像間の照合が行える。As described above, in this embodiment, even if the user does not describe the relationship between the constituent elements, the positional relationship between the constituent elements is automatically extracted, and the image characteristics of the constituent elements and the matching between the images are compared. Therefore, it is possible to perform matching between images in consideration of the positional relationship between the constituent elements as well as the image characteristics.
【0065】次に本発明の第4の実施例の画像検索装置
について説明する。図11は第4の実施例の画像検索装
置の構成を示すブロック図である。図11において、1
10は画像データベースとして蓄積する画像を取り込む
画像入力部、111は入力された画像の構成要素を指定
する構成要素指定部、112は構成要素指定部111で
指定された構成要素の領域から画像特徴量を抽出する画
像特徴抽出部、113は画像特徴抽出部112が抽出し
た画像特徴を記憶する画像特徴記憶部、114は画像入
力部110から入力された蓄積画像を記憶する画像記憶
部、115はユーザが検索を要求している画像を入力す
る検索要求画像入力部、116は入力された検索要求画
像の構成要素を指定する構成要素指定部、117は構成
要素指定部116で指定された構成要素の領域から画像
特徴量を抽出する画像特徴抽出部、118は検索要求画
像入力部115から入力された検索要求画像の画像特徴
と画像特徴記憶部113が記憶している蓄積画像の画像
特徴を比較して画像の一致度を求める画像照合装置であ
り、上記第1、第2又は第3の実施例の画像照合装置を
用いる。119は画像照合装置118が求めた画像の一
致度から候補画像を求め画像記憶部114より取り出し
出力する画像出力部である。Next, an image search apparatus according to the fourth embodiment of the present invention will be described. FIG. 11 is a block diagram showing the arrangement of the image search apparatus of the fourth embodiment. In FIG. 11, 1
Reference numeral 10 is an image input unit for capturing an image to be stored as an image database, 111 is a component designating unit for designating the components of the input image, and 112 is an image feature amount from the region of the component designated by the component designating unit 111. An image feature extraction unit for extracting the image features, 113 an image feature storage unit for storing the image features extracted by the image feature extraction unit 112, 114 an image storage unit for storing the accumulated image input from the image input unit 110, and 115 a user Is a search request image input unit for inputting an image requesting a search, 116 is a component specifying unit for specifying a component of the input search request image, 117 is a component specifying unit specified by the component specifying unit 116. An image feature extraction unit for extracting an image feature amount from the area, and 118 an image feature and an image feature storage unit of the search request image input from the search request image input unit 115. 13 compares the image feature of the storage image stored an image matching system for determining the degree of matching of images, using the first, the image matching system of the second or third embodiment. An image output unit 119 obtains a candidate image from the image matching degree obtained by the image matching apparatus 118, extracts it from the image storage unit 114, and outputs it.
【0066】以上のように構成された第4の実施例の画
像検索装置の動作について説明する。The operation of the image retrieval apparatus of the fourth embodiment constructed as above will be described.
【0067】画像蓄積時には、画像データベースとして
蓄積する画像を画像入力部110が取り込み、画像記憶
部114がその画像を記憶する。構成要素指定部111
において、データベース作成者等が入力された画像の構
成要素の領域を指定すると共に、その構成要素名を入力
する。構成要素指定部111で指定された構成要素の領
域から、画像特徴抽出部112が画像特徴を抽出し、抽
出された画像特徴は画像特徴記憶部113で記憶され
る。When storing images, the image input unit 110 takes in the images to be stored as the image database, and the image storage unit 114 stores the images. Component designation section 111
At, the database creator or the like specifies the area of the constituent element of the input image and inputs the constituent element name. The image feature extraction unit 112 extracts an image feature from the region of the component designated by the component designation unit 111, and the extracted image feature is stored in the image feature storage unit 113.
【0068】画像検索時は、検索要求画像入力部115
がユーザの示した検索を要求する画像を取り込む。検索
要求画像は、検索したい画像のイメージをユーザが手書
きで表したものや、類似した画像、もしくは構成要素の
領域を示した画像で与えられる。構成要素指定部116
において、ユーザ等が入力された画像の構成要素の領域
を指定すると共に、その構成要素名を入力し、画像特徴
抽出部117が指定された構成要素の領域から画像特徴
を抽出する。画像照合装置118では、第1もしくは第
2もしくは第3の実施例と同様に、画像蓄積時に抽出さ
れ画像特徴記憶部113に記憶されている蓄積画像の画
像特徴と検索要求画像の画像特徴の比較が行われ、画像
の一致度が求められる。そして、画像出力部119が求
められた一致度の中で最も一致度が高いもの、あるいは
一致度の高いものから複数個を候補画像として出力す
る。At the time of image retrieval, retrieval request image input section 115
Captures the image requested by the user for the search. The search request image is given as a handwritten image of the image to be searched by the user, a similar image, or an image showing the region of the constituent element. Component designation section 116
At, the user or the like specifies the area of the constituent element of the input image, inputs the constituent element name, and the image feature extraction unit 117 extracts image characteristics from the specified constituent element area. Similar to the first, second, or third embodiment, the image matching device 118 compares the image features of the accumulated image extracted at the time of image accumulation and stored in the image feature storage unit 113 with the image features of the search request image. Is performed, and the degree of coincidence of the images is obtained. Then, the image output unit 119 outputs, as candidate images, the one having the highest degree of coincidence among the obtained degrees of coincidence or a plurality of those having the highest degree of coincidence.
【0069】以上のように本実施例の指定された画像中
の構成要素の領域から画像特徴を抽出し、構成要素の画
像特徴を用いるため、画像中の構成要素の大きさや色と
いった画像特徴を指定した画像検索を行うことができ
る。また、第1の実施例、第2の実施例の画像照合装置
を用いると、構成要素名が一致しない場合でも、言葉の
表現が違うだけの要素やイメージが同じ要素について一
致度を求めるので、ユーザの検索要求に近い画像を検索
することができる。また、第3の実施例の画像照合装置
を用いると、ユーザが構成要素間の位置関係の記述を行
わなくても、検索要求画像から構成要素間の位置関係を
自動的に抽出し、画像特徴と共に検索に用いるので、ユ
ーザの検索要求画像に近い検索結果を得ることができ
る。As described above, since the image features are extracted from the regions of the constituent elements in the designated image in this embodiment and the image characteristics of the constituent elements are used, the image characteristics such as the size and color of the constituent elements in the image are determined. The specified image search can be performed. Further, if the image collating apparatus of the first and second embodiments is used, even if the component element names do not match, the degree of matching is obtained for elements with different word expressions or elements with the same image. Images similar to the user's search request can be searched. Further, when the image collating apparatus according to the third embodiment is used, even if the user does not describe the positional relationship between the constituent elements, the positional relationship between the constituent elements is automatically extracted from the search request image, and the image characteristic Since it is used for the search together with the search result, a search result close to the search request image of the user can be obtained.
【0070】[0070]
【発明の効果】以上のように本発明の画像照合装置で
は、2枚の画像間で構成要素名が一致する構成要素ごと
に構成要素の画像特徴を用いて一致度を求める際に、構
成要素名が一致しなくても、言葉の表現が違うだけの要
素やイメージが同じ要素に対して一致度を求めるため、
2枚の画像間の一致度を求めることができる。As described above, in the image collating apparatus according to the present invention, when the degree of coincidence is obtained by using the image feature of the constituent element for each constituent element whose constituent element name matches between the two images, the constituent element Even if the names do not match, the degree of matching is calculated for elements with different word expressions or elements with the same image,
The degree of coincidence between two images can be obtained.
【0071】また、本発明の画像照合装置は、ユーザが
構成要素間の位置関係の記述を行わなくても、検索要求
画像から構成要素間の位置関係を自動的に抽出し、画像
特徴と共に画像間の照合に用いるため、構成要素の位置
関係を考慮した一致度を求めることができる。Further, the image collating apparatus of the present invention automatically extracts the positional relationship between the constituents from the search request image without the user having to describe the positional relationship between the constituents, and the image feature and the image are also extracted. Since it is used for matching between the elements, it is possible to obtain the degree of coincidence in consideration of the positional relationship of the constituent elements.
【0072】また、本発明の画像検索装置は、指定され
た画像中の構成要素の領域から画像特徴を抽出し、構成
要素の画像特徴を用いるため、画像中の構成要素の大き
さや色といった画像特徴を指定した画像検索が行える。
このとき、構成要素名が一致しない場合でも、言葉の表
現が違うだけの要素やイメージが同じ要素について一致
度を求めるので、ユーザの検索要求に近い画像を検索す
ることができる。また、ユーザが構成要素間の位置関係
の記述を行わなくても、検索要求画像から構成要素間の
位置関係を自動的に抽出し、画像特徴と共に検索に用い
るので、ユーザの検索要求画像に近い検索結果を得るこ
とができる。Further, since the image retrieving apparatus of the present invention extracts the image feature from the region of the component in the specified image and uses the image feature of the component, the image such as the size and color of the component in the image is extracted. Image search with specified features can be performed.
At this time, even if the constituent element names do not match, the degree of matching is obtained for elements having different word expressions or elements having the same image, so that an image close to the user's search request can be searched. Further, even if the user does not describe the positional relationship between the constituent elements, the positional relationship between the constituent elements is automatically extracted from the search request image and is used for the search together with the image feature, so that it is close to the user's search request image. You can get the search results.
【図1】本発明の第1の実施例の画像照合装置の構成を
示すブロック図FIG. 1 is a block diagram showing a configuration of an image matching device according to a first embodiment of the present invention.
【図2】同実施例における入力画像の例を示す図FIG. 2 is a diagram showing an example of an input image in the same embodiment.
【図3】同実施例における一致度を示すメンバーシップ
関数の例を示す図FIG. 3 is a diagram showing an example of a membership function showing the degree of coincidence in the embodiment.
【図4】同実施例における構成要素間の類似度合を定め
た辞書の例を示す図FIG. 4 is a diagram showing an example of a dictionary defining a degree of similarity between constituent elements in the same embodiment.
【図5】同実施例における画像照合装置の画像間の一致
度の求め方を示した図FIG. 5 is a diagram showing how to determine the degree of coincidence between images by the image matching apparatus in the embodiment.
【図6】本発明の第2の実施例の画像照合装置の構成を
示すブロック図FIG. 6 is a block diagram showing a configuration of an image matching device according to a second embodiment of the present invention.
【図7】同実施例における構成要素名の階層関係の例を
示す図FIG. 7 is a diagram showing an example of a hierarchical relationship of component name in the same embodiment.
【図8】本発明の第3の実施例の画像照合装置の構成を
示すブロック図FIG. 8 is a block diagram showing a configuration of an image matching device according to a third embodiment of the present invention.
【図9】同実施例における入力画像の例を示した図FIG. 9 is a diagram showing an example of an input image in the embodiment.
【図10】同実施例における画像照合装置の画像間の一
致度の求め方を示した図FIG. 10 is a diagram showing how to determine the degree of coincidence between images by the image matching apparatus in the embodiment.
【図11】本発明の第4の実施例の画像検索装置の構成
を示すブロック図FIG. 11 is a block diagram showing a configuration of an image search device according to a fourth embodiment of the present invention.
【図12】従来の画像検索手法を説明するための画像を
示す図FIG. 12 is a diagram showing an image for explaining a conventional image search method.
【図13】従来の画像検索手法で用いる画像の内容を表
現する意味ネットワークを示した図FIG. 13 is a diagram showing a semantic network that expresses the content of an image used in a conventional image search method.
【図14】従来の画像検索装置で用いられるファジィシ
ソーラスの例を示す図FIG. 14 is a diagram showing an example of a fuzzy thesaurus used in a conventional image retrieval device.
【図15】従来の画像検索手法の課題を説明するための
意味ネットワークの図FIG. 15 is a diagram of a semantic network for explaining the problems of the conventional image search method.
11 照合画像データ入力部 12 被照合画像データ入力部 13 構成要素名比較部 14 対応構成要素間一致度算出部 15 類似語辞書記憶部 16 類似度合抽出部 17 類似構成要素間一致度算出部 18,85 画像間一致度算出部 61 要素名木構造記憶部 62 要素名間距離抽出部 63 類似度合算出部 64 類似構成要素間一致度算出部 81 対応構成要素抽出部 82 画像特徴一致度算出部 83 相対関係一致度算出部 84 対応構成要素間一致度算出部 110 画像入力部 111,116 構成要素指定部 112,117 画像特徴抽出部 113 画像特徴記憶部 114 画像記憶部 118 画像照合装置 119 画像出力部 11 collation image data input unit 12 collation image data input unit 13 component name comparison unit 14 corresponding component inter-matching degree calculation unit 15 similar word dictionary storage unit 16 similarity degree extraction unit 17 similar component inter-matching degree calculation unit 18, 85 inter-image matching score calculation unit 61 element name tree structure storage unit 62 element name distance extraction unit 63 similarity degree calculation unit 64 similar component matching score calculation unit 81 corresponding component extraction unit 82 image feature matching score calculation unit 83 relative Relationship matching degree calculation unit 84 Corresponding component matching degree calculation unit 110 Image input unit 111, 116 Component designation unit 112, 117 Image feature extraction unit 113 Image feature storage unit 114 Image storage unit 118 Image matching device 119 Image output unit
Claims (4)
と、照合される画像を入力する被照合画像入力部と、前
記照合画像入力部で入力した照合画像と前記被照合画像
入力部で入力した被照合画像の構成要素名を比較する構
成要素名比較部と、構成要素名が一致する構成要素ごと
に画像特徴の一致度を算出する対応構成要素間一致度算
出部と、構成要素名間の類似度合の知識を記憶する類似
語辞書記憶部と、前記類似語辞書記憶部が記憶している
知識を用いて構成要素名が一致しない構成要素間の類似
度合を抽出する類似度合抽出部、前記類似度合抽出部で
抽出された類似度合を用いて構成要素名が一致しない構
成要素間の画像特徴の一致度を算出する類似構成要素間
一致度算出部、前記対応要素間一致度算出部が算出した
一致度と前記類似構成要素間一致度算出部が算出した一
致度から画像間の一致度を求める画像間一致度算出部と
を備えたことを特徴とする画像特徴照合装置。1. A collation image input unit for inputting an image to be collated, a collation image input unit for inputting an image to be collated, a collation image input by the collation image input unit, and an input by the collation image input unit. The component name comparison unit that compares the component name of the collated image, the corresponding inter-component coincidence calculation unit that calculates the image feature matching score for each component whose component name matches, and between the component names A similar word dictionary storage unit that stores knowledge of the similarity degree of, and a similarity degree extraction unit that uses the knowledge stored in the similar word dictionary storage unit to extract the similarity degree between constituent elements whose constituent element names do not match, The similar component-to-component matching score calculation unit that calculates the matching score of the image characteristics between the components whose component name does not match using the similarity score extracted by the similarity score extraction unit, and the corresponding-element matching score calculation unit, The calculated coincidence and the similar structure Image feature matching system is characterized in that an inter-image match degree calculating section for determining the degree of coincidence between the images from the degree of matching between elements match degree calculating section is calculated.
と、照合される画像を入力する被照合画像入力部と、前
記照合画像入力部で入力した照合画像と前記被照合画像
入力部で入力した被照合画像の構成要素名を比較する構
成要素名比較部と、構成要素名が一致する構成要素ごと
に画像特徴の一致度を算出する対応構成要素間一致度算
出部と、要素名の階層関係を記述する木構造を記憶する
要素名木構造記憶部と、前記要素名木構造記憶部が記憶
している木構造を用いて構成要素名が一致しない構成要
素名間の距離を求める要素名間距離抽出部と、前記要素
名間距離抽出部が求めた要素名間の距離を用いて要素名
間の類似度合を算出する類似度合算出部と、前記類似度
合算出部が求めた類似度合を用いて類似する前記類似度
合抽出部で抽出された類似度合を用いて構成要素名が一
致しない構成要素間の画像特徴の一致度を算出する類似
構成要素間一致度算出部、前記対応要素間一致度算出部
が算出した一致度と前記類似構成要素間一致度算出部が
算出した一致度から画像間の一致度を求める画像間一致
度算出部とを備えたことを特徴とする画像照合装置。2. A collation image input unit for inputting an image to be collated, a collation image input unit for inputting an image to be collated, a collation image input by the collation image input unit, and an input by the collation image input unit. A component name comparison unit that compares the component names of the compared images, a corresponding inter-component matching score calculation unit that calculates the matching score of the image features for each matching component name, and a hierarchy of element names An element name tree structure storage unit that stores a tree structure that describes a relationship, and an element name that obtains a distance between component element names that do not match the component name using the tree structure stored in the element name tree structure storage unit An inter-distance extraction unit, a similarity degree calculation unit that calculates the degree of similarity between element names using the distance between element names obtained by the element name distance extraction unit, and a similarity degree obtained by the similarity degree calculation unit. Is extracted by the similarity degree extraction unit that is similar using Similarity factor between similar components that calculates the degree of matching of image features between components whose component names do not match using the degree of similarity, the matching factor calculated by the corresponding factor matching factor calculation unit, and the similar component An image matching device, comprising: an inter-image matching degree calculating unit that obtains a matching degree between images from the matching degree calculated by the inter-matching degree calculating unit.
と、照合される画像を入力する被照合画像入力部と、前
記照合画像入力部で入力した照合画像と前記被照合画像
入力部で入力した被照合画像の構成要素名が一致する構
成要素を抽出する対応構成要素抽出部と、構成要素の一
致度を構成要素の画像特徴を用いて求める画像特徴一致
度算出部と、構成要素の一致度を他の構成要素との位置
関係を用いて求める相対関係一致度算出部と、前記画像
特徴一致度算出部が算出した一致度と前記相対関係一致
度算出部が算出した一致度から対応する構成要素間の一
致度を算出する対応構成要素間一致度算出部と、前記対
応構成要素間一致度算出部が算出した一致度から画像間
の一致度を求める画像間一致度算出部とを備えたことを
特徴とする画像照合装置。3. A collation image input unit for inputting an image to be collated, a collation image input unit for inputting an image to be collated, a collation image input by the collation image input unit, and an input by the collation image input unit. Corresponding component extraction unit that extracts a component whose component name of the collated image matches, an image feature matching score calculation unit that obtains the matching score of the component using the image feature of the component, and the matching of the component And the degree of coincidence calculated by the image feature coincidence degree calculation unit and the degree of coincidence calculated by the relative relation coincidence degree calculation unit. An inter-element coincidence degree calculation unit that calculates the degree of coincidence between constituent elements and an inter-image coincidence degree calculation unit that obtains the degree of coincidence between images from the degree of coincidence calculated by the corresponding inter-component element coincidence degree calculation unit Image matching characterized by Location.
部と、画像を記憶する画像記憶部と、前記検索画像入力
部に入力した画像と前記画像記憶部に記憶した画像の構
成要素を指定する構成要素指定部と、前記構成要素指定
部で指定された構成要素の画像特徴を抽出する画像特徴
抽出部と、前記検索要求画像入力部に入力した検索要求
画像と前記画像記憶部に記憶されている画像の照合を行
う請求項1〜3のいずれかに記載の画像照合装置と、前
記画像照合装置の照合結果から前記画像記憶部から取り
出す画像出力部とを備えたことを特徴とする画像検索装
置。4. A search request image input unit for inputting a search request image, an image storage unit for storing images, an image input to the search image input unit and constituent elements of the image stored in the image storage unit. A component designating unit, an image feature extracting unit that extracts image features of the component designated by the component designating unit, a search request image input to the search request image input unit, and the image storage unit. The image collating apparatus according to any one of claims 1 to 3 for collating images, and an image output section for taking out from the image storage section from a collation result of the image collating apparatus. Search device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4168797A JPH0612494A (en) | 1992-06-26 | 1992-06-26 | Image matching device and image search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4168797A JPH0612494A (en) | 1992-06-26 | 1992-06-26 | Image matching device and image search device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0612494A true JPH0612494A (en) | 1994-01-21 |
Family
ID=15874658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4168797A Pending JPH0612494A (en) | 1992-06-26 | 1992-06-26 | Image matching device and image search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0612494A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7054861B2 (en) | 1998-09-30 | 2006-05-30 | Canon Kabushiki Kaisha | Information search apparatus and method, and computer readable memory |
WO2007116500A1 (en) * | 2006-03-31 | 2007-10-18 | Olympus Corporation | Information presenting system, information presenting terminal, and server |
US8599251B2 (en) | 2006-09-14 | 2013-12-03 | Olympus Imaging Corp. | Camera |
-
1992
- 1992-06-26 JP JP4168797A patent/JPH0612494A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7054861B2 (en) | 1998-09-30 | 2006-05-30 | Canon Kabushiki Kaisha | Information search apparatus and method, and computer readable memory |
US7664803B2 (en) | 1998-09-30 | 2010-02-16 | Canon Kabushiki Kaisha | Information search apparatus and method, and computer readable memory |
WO2007116500A1 (en) * | 2006-03-31 | 2007-10-18 | Olympus Corporation | Information presenting system, information presenting terminal, and server |
JPWO2007116500A1 (en) * | 2006-03-31 | 2009-08-20 | オリンパス株式会社 | Information presentation system, information presentation terminal and server |
US7992181B2 (en) | 2006-03-31 | 2011-08-02 | Olympus Corporation | Information presentation system, information presentation terminal and server |
US8599251B2 (en) | 2006-09-14 | 2013-12-03 | Olympus Imaging Corp. | Camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444722B (en) | Intention classification method, device, equipment and storage medium based on voting decision | |
JP3673487B2 (en) | Hierarchical statistical analysis system and method | |
US8341112B2 (en) | Annotation by search | |
CN108563773B (en) | Knowledge graph-based legal provision accurate search ordering method | |
US20040049499A1 (en) | Document retrieval system and question answering system | |
Djeraba | Association and content-based retrieval | |
CN111104437A (en) | Test data unified retrieval method and system based on object model | |
CN110442702A (en) | Searching method, device, readable storage medium storing program for executing and electronic equipment | |
CN117808923B (en) | Image generation method, system, electronic device and readable storage medium | |
CN115544225A (en) | Digital archive information association retrieval method based on semantics | |
CN119862287A (en) | Intelligent legal document retrieval system based on vector technology | |
CN113656429A (en) | Keyword extraction method and device, computer equipment and storage medium | |
JPH0782504B2 (en) | Information retrieval processing method and retrieval file creation device | |
CN119377490A (en) | A person-job matching recommendation method based on BERT and latent semantic algorithm model | |
CN118349621A (en) | Index establishment method, index retrieval method and electronic equipment | |
CN118606268A (en) | A digital and intelligent archive management system | |
JPH0612494A (en) | Image matching device and image search device | |
JPH05242160A (en) | Image feature extraction device, image collation device, and image retrieval device | |
Chala et al. | A Framework for Enriching Job Vacancies and Job Descriptions Through Bidirectional Matching. | |
JPH1166078A (en) | Search request materializing method and apparatus, and storage medium storing search request materializing program | |
JP2002183195A (en) | Concept search method | |
CN114461827A (en) | Method and device for searching picture by picture | |
JP3579945B2 (en) | Hierarchical item search device and hierarchical item search method | |
Hassini et al. | A hybrid approach for spatial information extraction from natural language text | |
CN114547259B (en) | Automatic formula description generation method and system based on topic relation graph |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20051222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Effective date: 20060509 Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Effective date: 20060522 Free format text: JAPANESE INTERMEDIATE CODE: A61 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100609 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110609 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110609 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120609 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130609 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |