[go: up one dir, main page]

JP2013114597A - Information processing device, control method thereof, and program - Google Patents

Information processing device, control method thereof, and program Download PDF

Info

Publication number
JP2013114597A
JP2013114597A JP2011262567A JP2011262567A JP2013114597A JP 2013114597 A JP2013114597 A JP 2013114597A JP 2011262567 A JP2011262567 A JP 2011262567A JP 2011262567 A JP2011262567 A JP 2011262567A JP 2013114597 A JP2013114597 A JP 2013114597A
Authority
JP
Japan
Prior art keywords
image
search
search target
approximation
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011262567A
Other languages
Japanese (ja)
Other versions
JP5862243B2 (en
Inventor
Yasuhiro Tanaka
泰洋 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Canon IT Solutions Inc
Canon MJ IT Group Holdings Inc
Original Assignee
Canon Marketing Japan Inc
Canon IT Solutions Inc
Canon MJ IT Group Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc, Canon IT Solutions Inc, Canon MJ IT Group Holdings Inc filed Critical Canon Marketing Japan Inc
Priority to JP2011262567A priority Critical patent/JP5862243B2/en
Publication of JP2013114597A publication Critical patent/JP2013114597A/en
Application granted granted Critical
Publication of JP5862243B2 publication Critical patent/JP5862243B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable, upon receipt of a change, made by a user's manipulation, in position of an image displayed on a map, proper changing of weight on each feature value to be used for a search, thereby enabling searching of a similar image.SOLUTION: Arrangement information indicating a position displayed on a map is generated according to: an approximate degree between multiple feature values of a search image and multiple feature values of a search target image; and weight information indicating weight on the multiple feature values. Then, the search target image is displayed at a position indicated by the arrangement information generated. Further, in response to a user's operation, when a change in position of the search target image displayed on the map is accepted, weight information is generated according to the arrangement information of the search target image to which the change acceptance is made and the approximate degree calculated. Then, according to the approximate degree and the weight information generated, arrangement information of the search target image is generated again.

Description

本発明は、情報処理装置、及びその制御方法、プログラムに関し、特に、近似画像検索技術に関するものである。   The present invention relates to an information processing apparatus, a control method thereof, and a program, and more particularly to an approximate image search technique.

インターネット上から文書情報を探し出すためにキーワード(文字情報)を元にした検索システム(全文検索システムと呼ばれる)は、既に広く一般的に使われており、その基本的な技術に関しては、確立、成熟しているといえる。それに対して文字列情報ではない画像情報に関しては、その検索手法は全文検索システムほど確立しておらず、様々な手法が研究されている段階にある。   Search systems (called full-text search systems) based on keywords (character information) for searching document information on the Internet are already widely used, and the basic technology has been established and matured. It can be said that. On the other hand, for image information that is not character string information, the search method is not established as much as the full-text search system, and various methods are being studied.

現在普及している手法としては、画像に付帯させた文字列情報(キーワードやタグと呼ばれる)を元に全文検索システムと同じ手法で検索するものがある。また、近年では、探したい画像の元となる画像(クエリー画像と呼ばれる)を提示し、このクエリー画像に近い画像を検索する仕組みが提供されるようになってきた。このシステムでは、クエリー画像の特徴量と類似する特徴量をもつ画像を検索する。   A currently popular technique is to perform a search using the same technique as a full-text search system based on character string information (called keywords or tags) attached to an image. In recent years, a mechanism for presenting an image (referred to as a query image) that is a source of an image to be searched for and searching for an image close to the query image has been provided. In this system, an image having a feature amount similar to the feature amount of the query image is searched.

また、一般にキーワードによる検索システムでは、文書が単に検索文字列(クエリーキーワード)そのもの、または同義語、もしくは類義語を、含むか否かを検索結果の妥当性の指標として用いることができる。これに対して画像を元に類似画像を探す類似画像検索システムの場合は、どのような指標(画像のどの特徴量)に基づいてクエリー画像と検索対象の画像が類似すると判定していいのか、を一意に決定することが困難である。   In general, in a search system using keywords, whether or not a document simply includes a search character string (query keyword) itself, a synonym, or a synonym can be used as an index of validity of a search result. On the other hand, in the case of a similar image search system that searches for similar images based on images, it is possible to determine that the query image and the image to be searched are similar based on what index (which feature amount of the image), Is difficult to determine uniquely.

たとえば、ある利用者がAという写真を元に検索する場合は、該利用者はAの風景と同じような風景が写っている写真を結果として期待しているケースが考えられる。また、別の利用者は同じAという写真を元にして写真に写っているオブジェクト(例えば椅子)と同じようなオブジェクトが写っている写真を結果として期待しているケースも考えられる。このようにあるクエリー画像から利用者が期待する結果を一意に決定すること、つまりクエリー画像のどの特徴に着目して類似性を判断すればよいのかを決定することが難しい。   For example, when a user searches based on a photo A, the user may expect a photo showing a landscape similar to the landscape of A as a result. Another user may expect a photo that shows an object similar to an object (for example, a chair) in the photo based on the photo A. As described above, it is difficult to uniquely determine a result expected by the user from a certain query image, that is, to determine which feature of the query image should be used to determine similarity.

特許文献1の画像検索システムでは、検索に利用する特徴量として複数の種類を組み合わせて利用することができるようになっている。また、複数の特徴量を用いて検索する場合は、それらの重みを利用者が指定することができるようになっている。さらに、検索結果を利用者が把握し易くするために、検索結果となった画像を3次元上に配置して表示することができる。各次元には検索に使用した特徴量を対応させている。   In the image search system of Patent Document 1, a plurality of types can be used in combination as feature quantities used for search. When searching using a plurality of feature amounts, the user can specify the weights. Furthermore, in order to make it easy for the user to grasp the search result, the image that is the search result can be arranged and displayed in a three-dimensional manner. Each dimension is associated with the feature value used for the search.

特開平11−175556号公報JP-A-11-175556

しかしながら、上記特許文献1では、利用者が明示的に検索に利用する特徴量の種別を指定しなければならない。
そのため、利用者は、自身がクエリー画像に着目している特徴についての特徴量の種別を認識し、その種別を指定しなければならないばかりでなく、検索に利用する各特徴量の配分(重み)についても指定しなければならず、その確認作業、及び、その指定が煩雑であった。また、適切に、特徴量の種別、及び重みを指定しなければ類似する画像を検索することはできず、利用者は、一目で直感的に画像を検索することが困難であった。
However, in Patent Document 1, the user must explicitly specify the type of feature amount used for the search.
Therefore, the user not only has to recognize and specify the type of the feature quantity of the feature he or she pays attention to the query image, but also distributes (weights) each feature quantity used for the search. Also, the confirmation work and the designation were complicated. In addition, it is difficult to search for a similar image unless the type and weight of the feature amount are appropriately specified, and it is difficult for the user to search the image intuitively at a glance.

さらに、上記特許文献1では、検索結果の表示画面において利用することができる特徴量は3つまでに制限されている。これは、X,Y,Zの最大3つの軸でしか表示することが出来ない為、特徴量の座標軸は3つまでに制限されてしまっている。   Furthermore, in Patent Document 1, the number of feature quantities that can be used on the search result display screen is limited to three. Since this can be displayed only with a maximum of three axes of X, Y, and Z, the coordinate axes of feature amounts are limited to three.

そのため、4つ目以上の特徴量については表示画面に表すことができず、クエリー画像に類似した画像を見落としてしまうおそれも考えられる。   For this reason, the fourth or more feature quantities cannot be displayed on the display screen, and an image similar to the query image may be overlooked.

そこで、本発明の目的は、利用者の操作による、マップ上に表示される画像の位置の変更を受け付けることで、検索に用いられる各特徴量の重みを適切に変更し、類似の画像を検索する仕組みを提供することである。   Therefore, an object of the present invention is to accept a change in the position of an image displayed on a map by a user's operation, thereby appropriately changing the weight of each feature amount used for the search and searching for a similar image. It is to provide a mechanism to do.

本発明は、検索画像に基づき検索される対象の画像である複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置であって、前記複数の検索対象画像を記憶する記憶手段と、ユーザによる検索画像の入力を受け付ける受付手段と、前記受付手段により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出手段と、前記算出手段により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成手段と、前記生成手段により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示手段と、ユーザの操作により、前記表示手段で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付手段と、前記変更受付手段により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出手段により算出された近似度とに従って、重み情報を生成する重み情報生成手段と、を備え、前記生成手段は、更に、前記算出手段により算出された近似度と、前記重み情報生成手段により生成された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像の配置情報を生成することを特徴とする。   The present invention is an information processing apparatus that displays the search target image on a map indicating a relationship between a plurality of search target images that are target images to be searched based on the search image, and stores the plurality of search target images. Storage means, receiving means for receiving a search image input by a user, a plurality of feature amounts of the search image received by the receiving means, and a plurality of feature amounts of the search target image stored in the storage means According to the calculation means for calculating the degree of approximation, the degree of approximation calculated by the calculation means, and weight information indicating the weights for the plurality of feature amounts, the search target image whose degree of approximation is calculated by the calculation means Generating means for generating arrangement information indicating a position to be displayed on the map; and the search target image at a position on the map indicated by the arrangement information generated by the generating means. Display means for outputting to display, a change accepting means for accepting a change in the position of the search target image displayed on the map by the display means by a user operation, and a search accepting the change by the change accepting means Weight information generating means for generating weight information according to the arrangement information indicating the position of the target image and the degree of approximation calculated by the calculating means, and the generating means is further calculated by the calculating means According to the degree of approximation and the weight information generated by the weight information generating unit, the arrangement information of the search target image in which the degree of approximation is calculated by the calculating unit is generated.

また、本発明は、検索画像に基づき検索される対象の画像である複数の検索対象画像を記憶する記憶手段を備え、前記複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置における制御方法であって、前記情報処理装置の受付手段が、ユーザによる検索画像の入力を受け付ける受付工程と、前記情報処理装置の算出手段が、前記受付工程により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出工程と、前記情報処理装置の生成手段が、前記算出工程により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出工程により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成工程と、前記情報処理装置の表示手段が、前記生成工程により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示工程と、前記情報処理装置の変更受付手段が、ユーザの操作により、前記表示工程で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付工程と、前記情報処理装置の重み情報生成手段が、前記変更受付工程により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出工程により算出された近似度とに従って、重み情報を生成する重み情報生成工程と、を備え、前記生成工程は、更に、前記算出工程により算出された近似度と、前記重み情報生成工程により生成された重み情報とに従って、前記算出工程により該近似度が算出された検索対象画像の配置情報を生成することを特徴とする。   In addition, the present invention includes storage means for storing a plurality of search target images that are images to be searched based on the search image, and displays the search target images on a map indicating a relationship between the plurality of search target images. The information processing apparatus has a control method in which the reception unit of the information processing apparatus receives a search image input by a user, and the calculation unit of the information processing apparatus receives the search image received in the reception process. The calculation step of calculating the degree of approximation between each of the plurality of feature amounts and the plurality of feature amounts of the search target image stored in the storage unit, and the generation unit of the information processing apparatus are calculated by the calculation step. In accordance with the degree of approximation and the weight information indicating the weights for the plurality of feature quantities, the search target image whose degree of approximation is calculated by the calculation step is displayed on the map. And a display step in which the display unit of the information processing apparatus outputs the search target image to be displayed at a position on the map indicated by the arrangement information generated by the generation step. A change accepting unit for accepting a change in the position of the search target image displayed on the map in the display step by a user operation; and generating weight information for the information processing device. A weight information generating step for generating weight information according to arrangement information indicating the position of the search target image whose change has been received by the change receiving step and the degree of approximation calculated by the calculating step; The generation step further includes the calculation step according to the approximation degree calculated in the calculation step and the weight information generated in the weight information generation step. Similarity score, characterized in that to generate the arrangement information of the search target image calculated.

また、本発明は、検索画像に基づき検索される対象の画像である複数の検索対象画像を記憶する記憶手段を備え、前記複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置が読み取り実行可能なプログラムであって、前記情報処理装置を、ユーザによる検索画像の入力を受け付ける受付手段と、前記受付手段により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出手段と、前記算出手段により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成手段と、前記生成手段により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示手段と、ユーザの操作により、前記表示手段で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付手段と、前記変更受付手段により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出手段により算出された近似度とに従って、重み情報を生成する重み情報生成手段として機能させ、前記生成手段は、更に、前記算出手段により算出された近似度と、前記重み情報生成手段により生成された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像の配置情報を生成することを特徴とする。   In addition, the present invention includes storage means for storing a plurality of search target images that are images to be searched based on the search image, and displays the search target images on a map indicating a relationship between the plurality of search target images. An information processing apparatus that can be read and executed by the information processing apparatus, wherein the information processing apparatus receives a search image input by a user, a plurality of feature amounts of the search image received by the reception unit, and the storage unit According to the calculation means for calculating the degree of approximation with each of the plurality of feature amounts of the search target image stored in the image, the degree of approximation calculated by the calculation means, and weight information indicating a weight for the plurality of feature quantities, Generating means for generating arrangement information indicating a position at which the search target image whose degree of approximation has been calculated by the calculating means is displayed on the map; and Display means for outputting the search target image to be displayed at a position on the map indicated by the generated arrangement information, and the position of the search target image displayed on the map by the display means by a user operation. As a weight information generation unit that generates weight information according to a change reception unit that receives a change, arrangement information that indicates a position of a search target image that has received a change by the change reception unit, and the degree of approximation calculated by the calculation unit The generating means is further configured to search for the search target image whose degree of approximation has been calculated by the calculating means according to the degree of approximation calculated by the calculating means and the weight information generated by the weight information generating means. Arrangement information is generated.

本発明によれば、利用者の操作による、マップ上に表示される画像の位置の変更を受け付けることで、検索に用いられる各特徴量の重みを適切に変更し、類似の画像を検索することが可能になる。   According to the present invention, by accepting a change in the position of an image displayed on a map by a user's operation, appropriately changing the weight of each feature amount used for the search, and searching for a similar image Is possible.

本発明の画像検索システムの構成の一例を示すシステム構成図である。1 is a system configuration diagram showing an example of a configuration of an image search system of the present invention. 図1に示した利用者端末101,画像検索装置102に適用可能な情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus applicable to the user terminal 101 and the image search apparatus 102 shown in FIG. 図1に示した利用者端末101、画像検索装置102の機能ブロックの構成を表す図である。It is a figure showing the structure of the functional block of the user terminal 101 and the image search apparatus 102 which were shown in FIG. 図3に示した特徴量抽出部503の内部の機能ブロックを表す図である。It is a figure showing the function block inside the feature-value extraction part 503 shown in FIG. 図3に示した特徴量データベース505における特徴量テーブルの一例を示す図である。It is a figure which shows an example of the feature-value table in the feature-value database 505 shown in FIG. 本発明における画像検索システムにおける検索対象画像の登録手順の一例を示すフローチャートである。It is a flowchart which shows an example of the registration procedure of the search object image in the image search system in this invention. 本発明における画像検索システムにおける検索処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the search process in the image search system in this invention. 本発明における画像検索システムにおける検索結果の更新処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the update process of the search result in the image search system in this invention. 本発明における画像検索システムにおける検索結果の利用者端末101のマップ表示部302における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the map display part 302 of the user terminal 101 of the search result in the image search system in this invention. 本発明における画像検索システムにおける検索結果の利用者端末101のマップ表示部302における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the map display part 302 of the user terminal 101 of the search result in the image search system in this invention. 本発明における画像検索システムにおける検索結果の利用者端末101のマップ表示部302における表示画面の一例を示す図である。It is a figure which shows an example of the display screen in the map display part 302 of the user terminal 101 of the search result in the image search system in this invention. 本発明における画像検索システムにおける類似画像の近似度ベクトルを座標ベクトルへ変換する式の一例を示す図である。It is a figure which shows an example of the type | formula which converts the approximation vector of the similar image in the image search system in this invention into a coordinate vector. 本発明における画像検索システムにおける類似画像の座標ベクトルを元に変換行列を求めるための式の一例を示す図である。It is a figure which shows an example of the type | formula for calculating | requiring a conversion matrix based on the coordinate vector of the similar image in the image search system in this invention. 本発明における画像検索システムにおける類似画像の座標ベクトルを元に変換行列を求めるための式の一例を示す図である。It is a figure which shows an example of the type | formula for calculating | requiring a conversion matrix based on the coordinate vector of the similar image in the image search system in this invention. 本発明の画像検索システムの構成の一例を示すシステム構成図である。1 is a system configuration diagram showing an example of a configuration of an image search system of the present invention.

<第1の実施形態>
図1は、本発明の画像検索システムの構成の一例を示すシステム構成図である。
<First Embodiment>
FIG. 1 is a system configuration diagram showing an example of the configuration of the image search system of the present invention.

図1は、ひとつ又は複数の利用者端末101と、画像検索装置102とがローカルエリアネットワーク(LAN)103を介して相互に通信可能に接続される構成となっている。   FIG. 1 shows a configuration in which one or a plurality of user terminals 101 and an image search apparatus 102 are connected to each other via a local area network (LAN) 103 so that they can communicate with each other.

利用者端末101は、画像の検索を行う利用者が使用する情報処理装置であって、検索要求を発信する機能と検索結果を受信して表示する機能を有する。   The user terminal 101 is an information processing apparatus used by a user who searches for an image, and has a function of transmitting a search request and a function of receiving and displaying a search result.

画像検索装置102は、検索の対象となる複数の画像を記憶しており、利用者端末101からの検索要求を受け付け、画像の検索処理を行い、検索結果を応答する機能を有する。また、外部から検索対象とする画像を入力する手段を備えている。画像検索装置102は、本発明の情報処理装置の適用例である。   The image search apparatus 102 stores a plurality of images to be searched, and has a function of receiving a search request from the user terminal 101, performing an image search process, and responding to a search result. In addition, a means for inputting an image to be searched from outside is provided. The image search apparatus 102 is an application example of the information processing apparatus of the present invention.

以下、図2を用いて、図1に示した利用者端末101,画像検索装置102に適用可能な情報処理装置のハードウェア構成について説明する。   Hereinafter, the hardware configuration of the information processing apparatus applicable to the user terminal 101 and the image search apparatus 102 illustrated in FIG. 1 will be described with reference to FIG.

図2は、図1に示した利用者端末101,画像検索装置102に適用可能な情報処理装置のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a hardware configuration of an information processing apparatus applicable to the user terminal 101 and the image search apparatus 102 illustrated in FIG.

図2において、201はCPUであり、RAM202やROM203に格納されているプログラムやデータを用いて情報処理装置全体の制御を行うと共に、情報処理装置行う後述の各処理を実行する。   In FIG. 2, reference numeral 201 denotes a CPU that controls the entire information processing apparatus using programs and data stored in a RAM 202 and a ROM 203, and executes each process described later performed by the information processing apparatus.

202はRAMであり、HDD204や記録媒体ドライブ206からロードされたプログラムやデータ、ネットワークI/F(インターフェース)205を介して受信したデータを一時的に記憶するためのエリアを備えると共に、CPU201が各種の処理を実行する際に使用するワークエリーアを備える。   A RAM 202 includes an area for temporarily storing programs and data loaded from the HDD 204 and the recording medium drive 206, and data received via the network I / F (interface) 205, and the CPU 201 has various types of data. It is provided with a word query used for executing the process.

203はROMであり、情報処理装置の設定データやブートプログラムなどを格納する。   A ROM 203 stores setting data, a boot program, and the like of the information processing apparatus.

204はHDDであり、ここにOS(オペレーティングシステム)や、情報処理装置が行う後述の各処理をCPU201に実行させるためのプログラムやデータが保存されている。これらのプログラムやデータの一部もしくは全部はCPU201による制御に従ってRAM202にロードされ、これを用いてCPU201が処理を行うことで、情報処理装置は以下説明する各処理を実行することになる。   Reference numeral 204 denotes an HDD, which stores an OS (operating system) and programs and data for causing the CPU 201 to execute each process described later performed by the information processing apparatus. Some or all of these programs and data are loaded into the RAM 202 in accordance with the control of the CPU 201, and the CPU 201 performs processing using this, whereby the information processing apparatus executes each processing described below.

205はネットワークI/Fで、情報処理装置をネットワーク103に接続するためのものであり、このネットワークI/F205を介して情報処理装置は外部機器とデータ通信を行うことができる。   Reference numeral 205 denotes a network I / F for connecting the information processing apparatus to the network 103, and the information processing apparatus can perform data communication with an external device via the network I / F 205.

206は記録媒体ドライブであり、CD−ROM、CD−R/RW、DVD―ROM、DVD−R/RW、DVD−RAM等の記憶媒体に記録されたプログラムやデータを読み出し、RAM202に出力する。この読み出し動作はCPU201によって制御される。   Reference numeral 206 denotes a recording medium drive, which reads out programs and data recorded on a storage medium such as a CD-ROM, CD-R / RW, DVD-ROM, DVD-R / RW, and DVD-RAM and outputs them to the RAM 202. This reading operation is controlled by the CPU 201.

207はキーボードであり、各種の指示をCPU201に対して入力することができる。208はマウス等のポインティングデバイスであり、各種の指示をCPU201に対して入力することができる。   A keyboard 207 can input various instructions to the CPU 201. A pointing device 208 such as a mouse can input various instructions to the CPU 201.

209はビデオI/F(インターフェース)であり、ディスプレイ装置210に表示すべき画像を信号としてディスプレイ装置210に供給するためのI/Fとして機能するものである。   Reference numeral 209 denotes a video I / F (interface) which functions as an I / F for supplying an image to be displayed on the display device 210 to the display device 210 as a signal.

210はディスプレイ装置であり、CRTや液晶画面等により構成されており、CPU201による処理結果を画像や文字等でもって表示することができる。   A display device 210 includes a CRT, a liquid crystal screen, and the like, and can display a processing result by the CPU 201 using an image, characters, or the like.

211は周辺機器I/Fであり、USBポートやIEEE1394ポート等によって構成されており、この周辺機器I/F211を介して周辺機器との接続することが可能である。周辺機器との接続形態は有線/無線を問わない。212は上述の各部を繋ぐバスである。   Reference numeral 211 denotes a peripheral device I / F, which includes a USB port, an IEEE1394 port, and the like, and can be connected to the peripheral device via the peripheral device I / F 211. The connection form with the peripheral device may be wired or wireless. A bus 212 connects the above-described units.

次に、図3を用いて、本発明の画像検索システムの機能ブロックの構成について説明する。   Next, the functional block configuration of the image search system of the present invention will be described with reference to FIG.

画像検索システムは、利用者端末101と画像検索装置102と画像ソース600から構成される。利用者端末101と画像検索装置102と画像ソース600とはそれぞれネットワークを介して相互に通信可能に接続されている。   The image search system includes a user terminal 101, an image search device 102, and an image source 600. The user terminal 101, the image search device 102, and the image source 600 are connected to each other via a network so that they can communicate with each other.

利用者端末101は、画像検索装置102に対して、画像の検索要求を送り、また検索結果を受信し表示するための情報処理装置である。利用者端末101は、検索クエリー部301と、マップ表示部302と、配置指示部303と、から構成される。   The user terminal 101 is an information processing device for sending an image search request to the image search device 102 and receiving and displaying the search result. The user terminal 101 includes a search query unit 301, a map display unit 302, and an arrangement instruction unit 303.

検索クエリー部301は、利用者から検索要求としてのクエリー画像を受け付ける入力手段を有し、当該クエリー画像を、ネットワークを通じて、画像検索装置102の検索処理部503へ送信する手段をもつ機能処理部である。   The search query unit 301 includes an input unit that receives a query image as a search request from a user. The search query unit 301 is a function processing unit that includes a unit that transmits the query image to the search processing unit 503 of the image search apparatus 102 via the network. is there.

マップ表示部302は、画像検索装置102から応答される検索結果を受信する手段と、該検索結果を表示する手段を有する機能処理部である。図9、図10、図11に表示画面の例を示す。   The map display unit 302 is a function processing unit having means for receiving a search result returned from the image search apparatus 102 and means for displaying the search result. Examples of display screens are shown in FIGS.

配置指示部303は、マップ表示部302に検索結果として表示された座標平面上の類似画像の配置を、利用者がマウス等のデバイスを使用して変更した際の該変更情報を収集する手段と、該変更情報を画像検索装置102の変換行列計算部507へ送信する手段を有する機能処理部である。   The arrangement instructing unit 303 collects the change information when the user changes the arrangement of similar images on the coordinate plane displayed as a search result on the map display unit 302 by using a device such as a mouse. , A function processing unit having means for transmitting the change information to the transformation matrix calculation unit 507 of the image search apparatus 102.

画像検索装置102は、利用者端末101から、画像の検索要求を受信し、蓄積された画像に対して要求された検索処理を実行し、検索結果情報を利用者端末101へ送信する情報処理装置である。画像検索装置102は、画像登録部501と、特徴量抽出部502と、検索処理部503と、特徴量近似度計算部504と、次元圧縮部505と、マップ生成部506と、変換行列計算部507と、画像データベース508と、特徴量データベース509と、から構成される。   The image search apparatus 102 receives an image search request from the user terminal 101, executes the requested search process on the stored image, and transmits search result information to the user terminal 101. It is. The image search device 102 includes an image registration unit 501, a feature amount extraction unit 502, a search processing unit 503, a feature amount approximation degree calculation unit 504, a dimension compression unit 505, a map generation unit 506, and a transformation matrix calculation unit. 507, an image database 508, and a feature amount database 509.

画像登録部501は、検索対象となる画像を本システムへ登録する機能処理部である。画像ソース600で指示されるシステムの外部のアクターから、検索対象とする画像データを受信または取得し、当該画像データの特徴量を特徴量データベース509へ保存し、当該画像データ自体を画像データベース508へ保存する機能を有する。   The image registration unit 501 is a function processing unit that registers an image to be searched into the system. Image data to be searched is received or acquired from an actor outside the system specified by the image source 600, the feature amount of the image data is stored in the feature amount database 509, and the image data itself is stored in the image database 508. Has the function of saving.

特徴量抽出部502は、画像データを入力として受け取り、該画像データの各種特徴量を抽出する機能処理部である。図4は、特徴量抽出部502の内部の機能ブロックの一例を示す図である。図4で示されるように、特徴量抽出部502は、複数の特徴量抽出部から構成される。図4の5021から5024で指示される特徴量抽出部は、各々異なる種類の画像特徴量を抽出する機能処理部である。例えば、スケーラブルカラー特徴量(画像全体における色の分布状態を表す特徴量)、カラーレイアウト特徴量(画像の領域毎の色の分布状態を表す特徴量)、エッジヒストグラム特徴量(画像中の境界線に関する特徴量)、SIFT(Scale Invariant Feature Transform)特徴量(局所的な領域の濃度変化特徴を表す特徴量)などの特徴量を抽出する実装をそれぞれに当てはめることが考えられる。また、個別特徴量抽出部の個数は図4では4つであるが特に制限されるものではなく、利用する画像特徴量の数だけ実装されればよい。   The feature amount extraction unit 502 is a function processing unit that receives image data as input and extracts various feature amounts of the image data. FIG. 4 is a diagram illustrating an example of functional blocks inside the feature amount extraction unit 502. As shown in FIG. 4, the feature quantity extraction unit 502 includes a plurality of feature quantity extraction units. The feature amount extraction units indicated by 5021 to 5024 in FIG. 4 are function processing units that extract different types of image feature amounts. For example, scalable color feature quantities (feature quantities representing the color distribution state in the entire image), color layout feature quantities (feature quantities representing the color distribution state for each area of the image), edge histogram feature quantities (boundary lines in the image) For example, it is possible to apply an implementation for extracting feature amounts such as a feature amount (SIFT) and a scale inverse feature transform (SIFT) feature amount (a feature amount representing a density change feature of a local region). The number of individual feature amount extraction units is four in FIG. 4, but is not particularly limited, and may be implemented by the number of image feature amounts to be used.

すなわち、画像の特徴量としては、例えば、色(色相、彩度、明度等から構成される)に関する統計量、模様(テクスチャー)、局所的な領域の濃度変化特徴、写っているオブジェクトの形状、撮影日時、撮影場所などの様々の種類のものがあるため、このような種々の特徴量を、特徴量抽出部502は、抽出するように実装することもできる。   That is, as the feature amount of the image, for example, a statistic regarding a color (consisting of hue, saturation, brightness, etc.), a pattern (texture), a local area density change feature, a shape of an imaged object, Since there are various types such as the shooting date and time, the shooting location, etc., the feature amount extraction unit 502 can also be implemented so as to extract such various feature amounts.

検索処理部503は、検索要求としてクエリー画像の受け付け、当該画像データの特徴量抽出処理を特徴量抽出部502へ指示し、その結果として受け取る特徴量情報を、特徴量近似度計算部504へ渡し、蓄積された画像との近似度ベクトルの算出を指示し、その近似度ベクトルデータを次元圧縮部505へ渡し、位置ベクトル群の生成を指示する、機能処理部である。   The search processing unit 503 accepts a query image as a search request, instructs the feature amount extraction unit 502 to perform feature amount extraction processing of the image data, and passes the feature amount information received as a result to the feature amount approximation degree calculation unit 504. The function processing unit instructs the calculation of the approximation vector with the accumulated image, passes the approximation vector data to the dimension compression unit 505, and instructs the generation of the position vector group.

特徴量近似度計算部504は、検索処理部503からある画像に関する複数種類の画像特徴量を受け取り、当該画像特徴量と特徴量データベース509の中に保存されている特徴量を比較して各々との近似度を計算し近似度ベクトルを生成する機能処理部である。   The feature amount approximation degree calculation unit 504 receives a plurality of types of image feature amounts related to an image from the search processing unit 503, compares the image feature amounts with the feature amounts stored in the feature amount database 509, and compares them. Is a function processing unit that calculates the degree of approximation and generates an approximation vector.

次元圧縮部505は、検索処理部503から検索結果となる画像群の近似度ベクトルデータを受け取り、該データへ主成分分析を適用し、該データ(近似度ベクトル)をマップ生成部506で表現可能な次元数へ次元縮小した位置ベクトル(配置情報)を生成する機能処理部である。   The dimension compression unit 505 can receive the approximation vector data of the image group as a search result from the search processing unit 503, apply principal component analysis to the data, and can express the data (approximation vector) by the map generation unit 506 This is a function processing unit that generates a position vector (placement information) that has been reduced in dimension to a smaller number of dimensions.

マップ生成部506は、検索結果である画像群の配置情報を受け取り、それを2次元座標平面上に配置し視覚化したイメージ情報(検索結果マップ情報)を生成し、利用者端末101のマップ表示部302へ送信する機能処理部である。   The map generation unit 506 receives the arrangement information of the image group as the search result, generates image information (search result map information) that is arranged on the two-dimensional coordinate plane and visualized, and displays the map on the user terminal 101. This is a function processing unit that transmits to the unit 302.

すなわち、画像検索装置102は、クエリー画像(検索画像)と共に、クエリー画像(検索画像)に基づき検索される対象の画像である複数の検索対象画像の近似の関係を示すマップ(図9、図10、図11)(検索結果マップ情報)上に検索対象画像を表示する。   That is, the image search apparatus 102 maps the query image (search image) and the approximate relationship of a plurality of search target images, which are target images searched based on the query image (search image) (FIGS. 9 and 10). FIG. 11) The search target image is displayed on (search result map information).

変換行列計算部507は、利用者端末101の配置指示部303から、画像の配置情報の変更情報(配置変更情報)を受け付け、該配置変更情報を反映する変換行列(近似度ベクトルから位置ベクトルを算出する関数)を算出する機能処理部である。   The transformation matrix calculation unit 507 receives change information (location change information) of image arrangement information from the arrangement instruction unit 303 of the user terminal 101, and converts a transformation matrix (position vector from the approximation vector) that reflects the arrangement change information. It is a function processing unit that calculates a function to be calculated.

画像データベース508は、検索対象となる画像データ(検索対象画像)群を保存する記憶領域である。保存された画像データはID(識別子)によって直接アクセスできる手段を有する。画像データベース508は、複数の検索対象画像を記憶する記憶手段の適用例である。   The image database 508 is a storage area for storing a group of image data (search target images) to be searched. The stored image data has means that can be directly accessed by an ID (identifier). The image database 508 is an application example of a storage unit that stores a plurality of search target images.

特徴量データベース509は、検索対象となる画像データの各種特徴量のデータ(図5)を保存する記憶領域である。その特徴量データは図5で例示されるテーブルで管理されている。   The feature amount database 509 is a storage area for storing various feature amount data (FIG. 5) of image data to be searched. The feature amount data is managed in the table illustrated in FIG.

図5のテーブルは、1行が画像データベース508に蓄えられている1つの画像データを表し、画像データのID(識別子)(画像NOとも言う)とともに特徴量Aから特徴量Dの列名で指示されるカラムに、当該画像のそれぞれの特徴量データが保存されていることを表している。   In the table of FIG. 5, one row represents one image data stored in the image database 508, and is indicated by a column name from feature amount A to feature amount D together with an image data ID (identifier) (also referred to as image NO). In this column, each feature amount data of the image is stored.

画像ソース600は、本画像検索システムにおける検索対象画像の出所(入力ソース)を表す外部アクターである。例えば、インターネット上のFlickrやFacebook等の写真共有機能を有するサイトであったり、直接写真データを提供する利用者そのもの、各種カメラやスキャナー等の映像入力機器なども考えられる。   The image source 600 is an external actor that represents the source (input source) of the search target image in the image search system. For example, a site having a photo sharing function such as Flickr and Facebook on the Internet, a user who directly provides photo data, and video input devices such as various cameras and scanners are also conceivable.

次に、図6を用いて、検索対象となる画像データを本画像検索システムへ登録する処理を説明する。   Next, processing for registering image data to be searched for in the image search system will be described with reference to FIG.

図6に示す各ステップは、画像検索装置102のCPU201により実行される。   Each step shown in FIG. 6 is executed by the CPU 201 of the image search apparatus 102.

以下で説明する画像ソース600(外部装置)は、上記で説明したようにいくつも種類が考えられるが、ここではシステムの管理者が操作する管理者端末とした場合の例で説明する。   The image source 600 (external device) described below can be of various types as described above. Here, an example in which an administrator terminal operated by a system administrator is used will be described.

ステップS601では、画像登録部501は、画像ソース600で表わされるシステム管理者が操作する管理者端末から検索対象となる画像データを受信する。   In step S601, the image registration unit 501 receives image data to be searched from an administrator terminal operated by a system administrator represented by the image source 600.

ステップS602では、画像登録部501は、前記受信した画像データを、特徴量抽出部502へ入力する。特徴量抽出部502は、前記画像データを解析して、図4の5021から5024で例示される各個別の特徴量抽出部にかけて当該画像データのAからDの特徴量を算出する。通常これらの特徴量は一次元数値ベクトルとして表現される。特徴量抽出部502は、抽出した前記特徴量データ(AからDの4つ)を、画像登録部501へ入力する。   In step S <b> 602, the image registration unit 501 inputs the received image data to the feature amount extraction unit 502. The feature quantity extraction unit 502 analyzes the image data, and calculates the feature quantities A to D of the image data through the individual feature quantity extraction units exemplified by 5021 to 5024 in FIG. Usually, these feature quantities are expressed as a one-dimensional numerical vector. The feature amount extraction unit 502 inputs the extracted feature amount data (four from A to D) to the image registration unit 501.

ステップS603では、画像登録部501は、ステップS602で取得した特徴量データを、特徴量データベース509へ登録する。特徴量データは、図5で例示されるようなテーブル構造で保存される。   In step S603, the image registration unit 501 registers the feature amount data acquired in step S602 in the feature amount database 509. The feature amount data is stored in a table structure as illustrated in FIG.

図5を用いて特徴量データを保存するテーブル構造(特徴量データベース509)を説明する。   A table structure (feature amount database 509) for storing feature amount data will be described with reference to FIG.

既に説明したように、ある1つの画像に対して、複数種類の特徴量が抽出される。各種特徴量は数値(整数や浮動小数点)の多次元ベクトルで表現される。例えば、局所特徴量の1つであるSIFT特徴量は、浮動小数点の128次元ベクトルとして表現されている。この実施例で説明する画像検索システムでは、図4で示しているように特徴量Aから特徴量Dまでの4つの種類の画像特徴量を取得するものとする。図5のテーブルは、1つの行が1つの検索対象画像に関する特徴量データを格納している。列名が特徴量Aから特徴量Dまでの各々のカラムに各特徴量データが格納されている。それぞれの特徴量は、次元数や数値の型が特徴量の種類によって異なっているが、基本的には数値の多次元ベクトルデータとして保存されている。   As already described, a plurality of types of feature amounts are extracted for a certain image. Various feature quantities are expressed as numerical (integer or floating point) multidimensional vectors. For example, a SIFT feature value, which is one of the local feature values, is expressed as a floating-point 128-dimensional vector. In the image search system described in this embodiment, four types of image feature amounts from feature amount A to feature amount D are acquired as shown in FIG. In the table of FIG. 5, one row stores feature amount data related to one search target image. Each feature amount data is stored in each column whose column names are feature amount A to feature amount D. Each feature quantity is basically stored as numeric multidimensional vector data, although the number of dimensions and the type of numeric value differ depending on the type of feature quantity.

ステップS604では、画像登録部501は、前記受信した画像データを画像データベース508に保存する。   In step S <b> 604, the image registration unit 501 stores the received image data in the image database 508.

以上で、画像登録の処理は終了する。   This completes the image registration process.

次に、図7を用いて、画像検索における処理のフローを説明する。   Next, a processing flow in image search will be described with reference to FIG.

ステップS701では、検索処理部503は、利用者端末101の検索クエリー部301から送信されるクエリー画像を受信する。   In step S <b> 701, the search processing unit 503 receives a query image transmitted from the search query unit 301 of the user terminal 101.

すなわち、ステップS701では、利用者端末101を操作する利用者(ユーザ)による操作により、クエリー画像(検索画像)の入力を受け付ける(受付手段)。ここでは、クエリー画像自体を利用者端末101から受信して入力を受け付けても良いし、画像データベース508に記憶されている画像から、クエリー画像としてユーザに選択されたクエリー画像の入力を受け付けてもよい。   That is, in step S701, an input of a query image (search image) is received by an operation by a user (user) who operates the user terminal 101 (accepting means). Here, the query image itself may be received from the user terminal 101 and input may be received, or input of a query image selected by the user as a query image from an image stored in the image database 508 may be received. Good.

ステップS702では、検索処理部503は、クエリー画像データを解析して、特徴量抽出部502へ入力し、該画像の特徴量データ(この実施例では4つの特徴量ベクトル)を取得する。   In step S702, the search processing unit 503 analyzes the query image data, inputs the query image data to the feature amount extraction unit 502, and acquires feature amount data (four feature amount vectors in this embodiment) of the image.

ステップS703では、検索処理部503は、ステップS702で取得した特徴量データを、特徴量近似度計算部504に入力する。特徴量近似度計算部504は受け取った特徴量データを、特徴量データベース509に保存されている全ての特徴量データ群とそれぞれ比較して、それぞれとの近似度を算出する。1つの特徴量に関する近似度は、例えば数値ベクトル間のユーグリッド距離で表現される。検索対象画像1つに対するクエリー画像の近似度は、特徴量種類(この実施例ではAからD)毎のユーグリッド距離の配列、つまり多次元数値ベクトルとして表現される。特徴量近似度計算部504は、検索対象画像全てに対してクエリー画像との近似度を表す多次元数値ベクトル(以降近似度ベクトルと呼ぶ)を生成し、該近似度ベクトル群を検索処理部503へ応答する。   In step S <b> 703, the search processing unit 503 inputs the feature amount data acquired in step S <b> 702 to the feature amount approximation degree calculation unit 504. The feature amount approximation degree calculation unit 504 compares the received feature amount data with all the feature amount data groups stored in the feature amount database 509, and calculates the degree of approximation of each. The degree of approximation related to one feature amount is expressed by, for example, a Eugrid distance between numerical vectors. The degree of approximation of the query image with respect to one search target image is expressed as an array of Eugrid distances for each feature quantity type (A to D in this embodiment), that is, a multidimensional numerical vector. The feature amount approximation degree calculation unit 504 generates a multidimensional numerical vector (hereinafter referred to as an approximation degree vector) representing the degree of approximation with the query image for all the search target images, and the search processing unit 503 uses the approximation degree vector group. To respond.

すなわち、ステップS703では、ステップS701で受け付けたクエリー画像の複数の特徴量と、画像データベース508に記憶されている各画像の複数の特徴量との近似度をそれぞれ算出する(算出手段)。   That is, in step S703, the degree of approximation between the plurality of feature amounts of the query image received in step S701 and the plurality of feature amounts of each image stored in the image database 508 is calculated (calculation means).

ステップS704では、検索処理部503は、ステップS703で取得した近似度ベクトル群を、次元圧縮部505へ入力する。次元圧縮部505は、前記近似度ベクトル群に対して主成分分析処理を行い、近似度ベクトル群のそれぞれの次元を2次元に圧縮する。2次元化した近似度ベクトルを以降配置情報と呼ぶ。   In step S704, the search processing unit 503 inputs the approximation vector group acquired in step S703 to the dimension compression unit 505. The dimension compression unit 505 performs principal component analysis processing on the approximation vector group, and compresses each dimension of the approximation vector group into two dimensions. Hereinafter, the two-dimensional approximation vector is referred to as arrangement information.

すなわち、ステップS704では、ステップS703で算出された各近似度を図12の1203に代入し、図12の変換行列1202(初期値)と演算して、配置情報1201を算出して生成する。ここで、図12の変換行列1202は、本発明における重み情報の適用例であって、複数種類の特徴量における各近似度を合成すると共に複数種類の特徴量に対する重みを示す情報である。また、ここで生成される配置情報は、算出された各近似度が算出された検索対象画像をマップ上に表示する位置を示す情報である。   That is, in step S704, each degree of approximation calculated in step S703 is substituted for 1203 in FIG. 12, and is calculated with the transformation matrix 1202 (initial value) in FIG. 12, thereby calculating and generating arrangement information 1201. Here, the transformation matrix 1202 in FIG. 12 is an application example of the weight information in the present invention, and is information that combines the approximations of the plurality of types of feature values and indicates the weights for the plurality of types of feature values. Further, the arrangement information generated here is information indicating a position at which the search target image in which each calculated degree of approximation is calculated is displayed on the map.

このように、ステップS704では、算出された複数種類の特徴量における各近似度を合成して、当該複数の特徴量の種類よりも少ない数の次元のマップ上に表示する位置を示す配置情報を生成する。   As described above, in step S704, arrangement information indicating positions to be displayed on a map having a smaller number of dimensions than the plurality of types of feature quantities is synthesized by combining the degrees of approximation of the calculated types of feature quantities. Generate.

(次元圧縮の手段について)
図12にこの次元圧縮を行うベクトル変換の式を示す。1203で指示されるベクトルがクエリー画像と検索対象画像との近似度ベクトルを表す。F0、F1、F2、F3の値はそれぞれ特徴量Aから特徴量Dに関するクエリー画像と検索対象画像との距離(差)を表している。1202で指示される行列は、上記の主成分分析処理において算出されるもので、変換行列(次元圧縮関数)を表す。この変換行列の1行目(T00、T01、T02、T03)の値は第1主成分を表し、2行目(T10、T11、T12、T13)の値は第2主成分を表している。1201で指示されるベクトルは近似度ベクトルが2次元化された配置情報(位置ベクトル)を表している。1201のX、Yの値はどちらも、複数の(この実施例ではF0からF3の)画像特徴量の距離の線形合成になっている。
(Dimensional compression means)
FIG. 12 shows a vector conversion formula for performing the dimensional compression. A vector indicated by 1203 represents an approximation vector between the query image and the search target image. The values of F0, F1, F2, and F3 represent the distance (difference) between the query image and the search target image regarding the feature amount A to the feature amount D, respectively. The matrix indicated by 1202 is calculated in the above principal component analysis process, and represents a transformation matrix (dimensional compression function). The value of the first row (T00, T01, T02, T03) of this transformation matrix represents the first principal component, and the value of the second row (T10, T11, T12, T13) represents the second principal component. A vector indicated by 1201 represents arrangement information (position vector) obtained by two-dimensionalizing the approximation vector. Both X and Y values of 1201 are a linear combination of the distances of a plurality of image feature amounts (F0 to F3 in this embodiment).

複数の特徴量の近似度からなる多次元数値ベクトルデータ(近似度ベクトル)を主成分分析により2次元化することによって、類似性が高い検索対象画像の集合(近似度ベクトル空間において原点に近い画像セット)を、それらの特徴が効率良く表現された配置で(情報量がなるべく落ちないように次元削減された表現で)視覚化することができる。2次元データのそれぞれの成分は各種特徴量の近似度を結合した値を表すが、各成分は互いに独立した類似度表現を表す尺度になっている。   A set of search target images with high similarity (images close to the origin in the approximation vector space) by two-dimensionalizing multidimensional numerical vector data (approximation vector) consisting of approximations of a plurality of feature quantities by principal component analysis The set) can be visualized in an arrangement in which those features are efficiently expressed (in an expression reduced in dimension so that the amount of information is not reduced as much as possible). Each component of the two-dimensional data represents a value obtained by combining the approximations of various feature amounts, but each component is a scale representing a similarity expression independent of each other.

ステップS705では、次元圧縮部505は、ステップS704で算出した配置情報群を、マップ生成部506へ入力する。マップ生成部506は、配置情報群のうち原点から一定の範囲内の距離にある配置情報を対象に、その配置情報に対応する画像のサムネイル画像(類似画像のサムネイル)を2次元座標平面上に配置した視覚化情報(マップとも言う)を作成する。この視覚化情報は図9の900で指示される領域で例示される。以降、この視覚化情報を類似画像マップと呼び、2次元座標平面上に表示された画像を類似画像と呼ぶ。   In step S <b> 705, the dimension compression unit 505 inputs the arrangement information group calculated in step S <b> 704 to the map generation unit 506. The map generation unit 506 targets the arrangement information within a certain range from the origin in the arrangement information group, and displays a thumbnail image of the image corresponding to the arrangement information (similar image thumbnail) on the two-dimensional coordinate plane. Create arranged visualization information (also called map). This visualization information is illustrated in the area indicated by 900 in FIG. Hereinafter, this visualization information is called a similar image map, and an image displayed on a two-dimensional coordinate plane is called a similar image.

ステップS705において、マップ上の所定の範囲内の位置を示す配置情報の検索対象画像のみをマップ上に配置するため、ステップS706では、マップ上の所定の範囲内の位置を示す配置情報の検索対象画像のみをマップ上に表示するべく出力する。   In step S705, only the arrangement information search target image indicating the position within the predetermined range on the map is arranged on the map. Therefore, in step S706, the arrangement information search target indicating the position within the predetermined range on the map. Output only the image to be displayed on the map.

ステップS706では、マップ生成部506は作成された類似画像マップを、利用者端末101のマップ表示部302へ送信する。   In step S <b> 706, the map generation unit 506 transmits the generated similar image map to the map display unit 302 of the user terminal 101.

すなわち、ステップS706では、生成された配置情報に示される類似画像マップ(単にマップとも言う)上の位置に該検索対象画像を表示するべく出力する。   That is, in step S706, the search target image is output to be displayed at a position on a similar image map (also simply referred to as a map) indicated by the generated arrangement information.

以上で、利用者が検索要求を発信してから検索結果が応答されるまでの処理を説明した。   The processing from when the user sends a search request to when the search result is responded has been described above.

次に、図8を用いて利用者の指示によって検索結果を改善する処理のフローを説明する。   Next, a flow of processing for improving a search result according to a user instruction will be described with reference to FIG.

ステップS801では、S706においてマップ生成部506から送信された類似画像マップを、利用者端末101のマップ表示部302において受信する。   In step S801, the map display unit 302 of the user terminal 101 receives the similar image map transmitted from the map generation unit 506 in S706.

ステップS802では、類似画像マップをマップ表示部302において表示する。   In step S <b> 802, the similar image map is displayed on the map display unit 302.

(図9の説明)
図9は、類似画像マップを表示しているマップ表示部302の画面例である。900で指示される領域に類似画像マップが表示されている。類似画像マップは2次元座標平面上にクエリー画像と類似すると計算された画像(類似画像)のサムネイルが配置されたものである。901で指示しているオブジェクトはクエリー画像のサムネイルを表しており、座標平面の原点に配置されている。904から909で指示されるオブジェクトは類似画像のサムネイルを表しており、ステップS704で算出された配置情報の座標に表示されている。
(Explanation of FIG. 9)
FIG. 9 is a screen example of the map display unit 302 displaying a similar image map. A similar image map is displayed in the area indicated by 900. The similar image map is obtained by arranging thumbnails of images (similar images) calculated to be similar to the query image on a two-dimensional coordinate plane. The object indicated by 901 represents a thumbnail of the query image, and is arranged at the origin of the coordinate plane. The objects designated in steps 904 to 909 represent thumbnails of similar images, and are displayed at the coordinates of the arrangement information calculated in step S704.

類似画像の配置場所はクエリー画像と各々の類似画像との各種特徴量の距離(差)を2次元座標化したものであるので、クエリー画像と類似性が高い類似画像ほど原点の近くに配置される。   Since the similar image is arranged at a distance (difference) between various feature amounts of the query image and each similar image into a two-dimensional coordinate, a similar image having a higher similarity to the query image is arranged closer to the origin. The

902は、利用者が類似画像の位置をドラッグするなどして変更した場合に、その更新内容を含む更新情報を、画像検索装置102へ送出するためのボタンを表している。また、903は、利用者が類似画像の配置に関して、これ以上変更の余地はないことを画像検索装置102へ通知するためのボタンを表している。   Reference numeral 902 denotes a button for sending update information including the update contents to the image search apparatus 102 when the user changes the position of the similar image by dragging or the like. Reference numeral 903 denotes a button for notifying the image search apparatus 102 that there is no room for further change regarding the arrangement of similar images.

(類似画像の配置の変更について)
利用者は、ステップS802の後、利用者端末101のマップ表示部302に表示された類似画像マップを視認し、904から909で指示されるようなサムネイルを、901のクエリー画像のサムネイルと見比べて、該サムネイルの配置場所をマウスでドラッグするなどの操作で変更する。
(About changing the arrangement of similar images)
After step S802, the user visually recognizes the similar image map displayed on the map display unit 302 of the user terminal 101, and compares the thumbnail as indicated by 904 to 909 with the thumbnail of the query image 901. The thumbnail placement location is changed by dragging with the mouse.

すなわち、901のクエリー画像のサムネイルと類似していると利用者が判断した検索対象画像のサムネイルの配置場所を、利用者がマウスでドラッグするなどの操作を行い、類似していると判断した検索対象画像のサムネイルの配置場所を変更する。具体的には、類似していると判断する検索対象画像のサムネイルの配置場所を、マップの中心(クエリー画像のサムネイルが配置されている2つの座標軸の原点)に近くなるように、近似している判断する度合に応じた距離を移動する。一方、類似していないと判断する検索対象画像のサムネイルの配置場所を、マップの中心(クエリー画像のサムネイルが配置されている2つの座標軸の原点)から離れるように、近似していない判断する度合に応じた距離を移動する。   That is, a search that is determined to be similar by performing an operation such as the user dragging the location of the thumbnail of the search target image that the user has determined to be similar to the thumbnail of the query image 901 with the mouse. Change the location of thumbnails for the target image. Specifically, the location of the thumbnails of the search target images that are determined to be similar is approximated so as to be close to the center of the map (the origin of the two coordinate axes where the thumbnails of the query image are arranged). Move the distance according to the degree of judgment. On the other hand, the degree of determination that the location of the thumbnail of the search target image that is determined not to be similar is not approximated so as to be away from the center of the map (the origin of the two coordinate axes where the thumbnail of the query image is positioned). Move according to the distance.

このように、利用者端末101は、ユーザの操作により、マップ上に表示された検索対象画像の位置の変更を受け付ける(変更受付手段)。   Thus, the user terminal 101 receives a change in the position of the search target image displayed on the map by a user operation (change receiving unit).

上述したようにサムネイルの配置の各軸は、各特徴量に関する距離成分の線形合成された値を表すものである。前記線形合成のパラメータ(図12の変換行列1202)の初期値は、主成分分析によって導出され、次元圧縮に際してできるだけ情報量が減らないように決定されるようにする。すなわち、ステップS703で算出された各近似度ベクトル(本実施例では、5021、5022、5023、5024のそれぞれの部で抽出された特徴量A、特徴量B、特徴量C、特徴量Dについての近似度ベクトル)について、主成分分析を行い、各近似度ベクトル(本実施例では4つの近似度ベクトル)を2つの成分(次元)になるよう合成して図12の変換行列1202(初期値)を算出して生成する。ここで、主成分分析による2次元への次元圧縮では、近似度ベクトル群の情報量をできるだけ落とさないように成分(次元)が2つ選択される。   As described above, each axis of the thumbnail arrangement represents a linearly synthesized value of the distance component related to each feature amount. The initial values of the linear synthesis parameters (conversion matrix 1202 in FIG. 12) are derived by principal component analysis, and are determined so as not to reduce the amount of information as much as possible during dimension compression. That is, the approximation vectors calculated in step S703 (in this embodiment, the feature quantity A, feature quantity B, feature quantity C, and feature quantity D extracted in the respective units 5021, 5022, 5023, and 5024) Principal component analysis is performed on the approximation vectors), and each approximation vector (four approximation vectors in the present embodiment) is combined into two components (dimensions) to form a transformation matrix 1202 (initial value) in FIG. Is calculated and generated. Here, in dimension compression to two dimensions by principal component analysis, two components (dimensions) are selected so as not to reduce the information amount of the approximation vector group as much as possible.

このようにして決定された座標系上の類似画像群に対して、利用者はそれらの相対的位置関係と原点からの距離を考慮して、位置調整を実施する。この結果、線形合成のパラメータが、利用者が画像の類似性に期待する各種特徴量の重みを近づくものと考えられる。   For similar image groups on the coordinate system determined in this way, the user adjusts the position in consideration of their relative positional relationship and the distance from the origin. As a result, it is considered that the parameters of the linear synthesis approach the weights of various feature amounts that the user expects from the similarity of images.

配置の変更手段に関しては、各類似画像を利用者が画像を確認し易くするため904から909のサムネイルをクリックするとより大きなサイズの画像がその場で表示されるといった工夫があってもよい。   With regard to the arrangement changing means, in order to make it easier for the user to check each similar image, there may be a device such that when a thumbnail from 904 to 909 is clicked, a larger size image is displayed on the spot.

サムネイルの配置位置を更新したマップ表示部302の例を図10に示す。   An example of the map display unit 302 in which the thumbnail arrangement position is updated is shown in FIG.

図10では、利用者が、画像Bを905で指示される場所(配置位置)から910で指示される場所(配置位置)へ移動し、画像Cを906で指示される場所(配置位置)から911で指示される場所(配置位置)へ移動し、画像Eを908で指示される場所(配置位置)から912で指示される場所(配置位置)へ移動し、画像Fを909で指示される場所(配置位置)から913で指示される場所(配置位置)へ移動したことを表している。   In FIG. 10, the user moves the image B from the location (arrangement position) indicated by 905 to the location (arrangement position) indicated by 910, and the image C from the location (arrangement position) indicated by 906. Move to the location (arrangement position) indicated by 911, move the image E from the location (arrangement position) indicated by 908 to the location (arrangement position) indicated by 912, and instruct the image F by 909. This indicates that the user has moved from the place (arrangement position) to the place (arrangement position) indicated by 913.

ステップS803では、マップ表示部302が利用者によって903で指示される更新なしボタン903が押下されたことを検知した場合は処理を終了する。マップ表示部302が902で指示される更新ボタン902の押下を検知した場合はステップS804へ進む。   In step S803, if the map display unit 302 detects that the no-update button 903 designated by the user in 903 has been pressed, the process ends. If the map display unit 302 detects that the update button 902 indicated by 902 is pressed, the process proceeds to step S804.

ステップS804では、配置指示部303は、マップ表示部302で変更されたサムネイル画像の位置を示す変更情報(配置変更情報)を203で指示されるRAMの中に蓄積させる。上記の例で説明すると、画像B、画像C、画像E、画像Fの新しい位置情報を位置ベクトルデータとしてRAM202の中に保存する。   In step S804, the arrangement instruction unit 303 stores change information (arrangement change information) indicating the position of the thumbnail image changed in the map display unit 302 in the RAM instructed in 203. In the above example, new position information of the image B, the image C, the image E, and the image F is stored in the RAM 202 as position vector data.

ステップS805では、配置指示部303は、ステップS804で保存した複数の位置ベクトルデータ(配置変更情報)を、画像検索装置102の変換行列計算部507へ送信する。   In step S805, the arrangement instruction unit 303 transmits the plurality of position vector data (arrangement change information) stored in step S804 to the transformation matrix calculation unit 507 of the image search apparatus 102.

ステップS806では、画像検索装置102の変換行列計算部507は、ステップS805で送信された位置ベクトルデータ(配置変更情報)を受信する。   In step S806, the transformation matrix calculation unit 507 of the image search apparatus 102 receives the position vector data (arrangement change information) transmitted in step S805.

すなわち、画像検索装置102は、ユーザの操作により、マップ上に表示された検索対象画像の位置が変更された内容として配置変更情報を受け付ける。配置変更情報は、変更された検索対象画像の位置を示す配置情報である。   In other words, the image search device 102 receives the arrangement change information as the content in which the position of the search target image displayed on the map has been changed by a user operation. The arrangement change information is arrangement information indicating the position of the changed search target image.

(位置更新情報からの変換行列の計算)
ステップS807では、変換行列計算部507は、位置ベクトルデータ(配置変更情報)を入力して次元圧縮行列を計算する。これは、ステップS704の処理を説明した際に出てきた図12の1202で指示される変換行列を、1201の位置ベクトルと1203の近似度ベクトルを元にして、求める処理となる。例えば、位置ベクトルデータが4つあった場合には、それらと新しい変換行列T’の関係は、図13の式で表わされる。これは4つの配置情報の変換式を1つにまとめた式である。
(Calculation of transformation matrix from location update information)
In step S807, the transformation matrix calculation unit 507 inputs position vector data (placement change information) and calculates a dimensional compression matrix. This is a process for obtaining the transformation matrix indicated by 1202 in FIG. 12 that came out when the process of step S704 was described, based on the position vector 1201 and the approximation vector 1203. For example, when there are four position vector data, the relationship between them and the new transformation matrix T ′ is expressed by the equation of FIG. This is an expression in which four conversion information of the arrangement information are combined into one.

図13において1301から1304の部分は、それぞれが利用者が移動した類似画像の配置情報(位置ベクトルデータ)を表している。また、1305から1308の部分は、1301から1304に対応する画像の前記クエリー画像との近似度ベクトル(ステップS703において生成されている値)を表している。例えば、1301で指示された部分は図10において利用者が移動したBの画像の新しい位置(910)のデータ(配置情報(位置ベクトル))を表し、その時の1305で指示される部分は1301に対応する画像Bの近似度ベクトルを表している。1302から1304と1305から1308も同様にぞれぞれ新しい位置ベクトルデータとそれに対応する画像の近似度ベクトルデータを表している。   In FIG. 13, portions 1301 to 1304 represent arrangement information (position vector data) of similar images each moved by the user. Further, portions 1305 to 1308 represent approximation vectors (values generated in step S703) of the images corresponding to 1301 to 1304 with the query image. For example, the part indicated by 1301 represents data (placement information (position vector)) of the new position (910) of the image B moved by the user in FIG. 10, and the part indicated by 1305 at that time is 1301. The approximation vector of the corresponding image B is represented. Similarly, reference numerals 1302 to 1304 and 1305 to 1308 respectively represent new position vector data and image approximation vector data corresponding to the new position vector data.

この式を変形してT’について解くことによって、変換行列T’を算出できる。図13の式の両辺の右から、1310で指示される行列の逆行列を掛けることによって、図14で表わされる式に変形し、T’を計算する。この場合、1301から1304までの位置ベクトルデータは、必ずしも利用者が位置を変更した画像のものでなくてよい。位置を変更した画像に加え、位置を変更しなかった画像でも利用者がその位置を重視することを示している画像の位置ベクトルデータをこの式に利用すればよい。   By transforming this equation and solving for T ′, the transformation matrix T ′ can be calculated. 13 is multiplied from the right of both sides of the equation of FIG. 13 by the inverse matrix of the matrix indicated by 1310 to be transformed into the equation represented in FIG. 14, and T ′ is calculated. In this case, the position vector data 1301 to 1304 do not necessarily have to be the images whose positions have been changed by the user. In addition to the image whose position has been changed, the position vector data of an image indicating that the user attaches importance to the position of the image whose position has not been changed may be used in this expression.

上記のように計算されたT’は、利用者がクエリー画像と検索対象画像群との類似度の計算に、どの特徴量をどれ位重み付けするかが表現されたもの(特徴量重み付け行列)になっている。   T ′ calculated as described above is expressed as a feature amount weighting matrix in which the feature amount is weighted in calculating the similarity between the query image and the search target image group. It has become.

このように、ステップS807では、変更された検索対象画像の位置を示す配置情報と、ステップS703で算出された近似度とに従って、変換行列(重み情報)を生成する(重み情報生成手段)。   As described above, in step S807, a transformation matrix (weight information) is generated according to the arrangement information indicating the changed position of the search target image and the degree of approximation calculated in step S703 (weight information generation unit).

ステップS808では、変換行列生成部507は、図12に示す式を用いて、ステップS703において生成していた近似度ベクトル群のそれぞれに対して、ステップS807で生成した変換行列を適用して、新たな位置ベクトル群(配置情報)をそれぞれ生成する。   In step S808, the transformation matrix generation unit 507 applies the transformation matrix generated in step S807 to each of the approximation vector groups generated in step S703 using the equation shown in FIG. Each position vector group (placement information) is generated.

すなわち、ステップS808では、ステップS703で算出された近似度と、ステップS807で生成された変換行列とに従って、該近似度が算出された検索対象画像の配置情報を生成する。   That is, in step S808, according to the degree of approximation calculated in step S703 and the transformation matrix generated in step S807, arrangement information of the search target image whose degree of approximation is calculated is generated.

具体的には、ステップS703で算出される近似度ベクトルは、クエリー画像の特徴量データと、特徴量データベース509に保存されている全ての特徴量データ群とそれぞれ比較して、それぞれ算出されたものであり、これら全ての近似度ベクトルのそれぞれを1203に代入し、更に、ステップS807で生成した変換行列を1202に代入し、画像データベース508に記憶されている画像全てについての新たな配置情報(位置ベクトル)1201を算出する。   Specifically, the approximation vector calculated in step S703 is calculated by comparing the feature amount data of the query image with all the feature amount data groups stored in the feature amount database 509, respectively. Each of these approximation vectors is assigned to 1203, and the transformation matrix generated in step S807 is assigned to 1202, and new arrangement information (positions) for all the images stored in the image database 508 is obtained. Vector) 1201 is calculated.

この新たな位置ベクトルは、利用者が期待する各検索対象画像の類似度をより正確に2次元座標空間上に表現するものとなっている。   This new position vector represents the degree of similarity of each search target image expected by the user more accurately in the two-dimensional coordinate space.

すなわち、ここでは、ユーザの操作(画像の配置位置の変更指示)により、どの特徴量についてどれ位重み付けするかを示す値が加味された配置情報が生成される。   That is, here, arrangement information including a value indicating how much weight is assigned to which feature amount is generated by the user's operation (instruction to change the arrangement position of the image).

ステップS809では、変換行列生成部507は、ステップS808で算出した各検索対象画像の配置情報を、マップ生成部506へ入力する。マップ生成部506では、原点から一定の範囲内の距離にある画像を対象にして、それらの画像のサムネイル画像を2次元座標平面上に配置した新しい類似画像マップを作成する。   In step S809, the transformation matrix generation unit 507 inputs the arrangement information of each search target image calculated in step S808 to the map generation unit 506. The map generation unit 506 creates a new similar image map in which thumbnail images of these images are arranged on a two-dimensional coordinate plane for images within a certain distance from the origin.

(更新された類似画像マップの説明)
図11で例示されている類似画像マップを使って、更新された検索結果について説明する。図10において示されているように、場所を変更した画像は、B、C、E、Fである。これら4つの画像に関しては、図11においてほぼ変更した場所に近い位置に配置されている。ただし、画像Eに関しては領域外へ移動されている。また、変換行列を算出する際に勘案されなかった画像、例えば画像Aについては図11では領域に表示されていない。これは画像Aの近似度ベクトルへ新しい変換行列を適用した後の位置が原点に対して一定距離の中に出現しなったことを意味する。また、画像Dに関しては、図10の時点の位置より原点に近づいている。さらに、図11の座標平面では、新しい画像Gと画像Hが領域内に出現している。どちらも新しい変換行列によって各種特徴量毎の近似度への重みが変更された結果、よりクエリー画像に近いと判定された結果を示している。
(Description of updated similar image map)
The updated search result will be described using the similar image map illustrated in FIG. As shown in FIG. 10, the images with changed locations are B, C, E, and F. Regarding these four images, they are arranged at positions close to the places almost changed in FIG. However, the image E has been moved out of the region. Further, an image that is not taken into account when calculating the transformation matrix, for example, the image A, is not displayed in the area in FIG. This means that the position after applying the new transformation matrix to the approximation vector of the image A does not appear within a certain distance from the origin. Further, the image D is closer to the origin than the position at the time of FIG. Furthermore, on the coordinate plane of FIG. 11, new images G and H appear in the region. In both cases, the result of having been determined to be closer to the query image as a result of changing the weight to the degree of approximation for each feature amount by the new transformation matrix is shown.

上記のS807で説明したような逆行列を使って変換行列を算出した場合には、計算に使用した新しい位置は変更位置と厳密に一致するように計算されるが、必ずしもそうする必要はなく、新しいパラメータを乱数などを用いて複数回試行し、複数の位置の変更が最もバランスよく実現されるものを選択するなどの異なる手法をとってもよい。図11では、このような計算によって算出された場合の結果を表している。   When the transformation matrix is calculated using the inverse matrix as described in S807 above, the new position used for the calculation is calculated so as to exactly match the changed position, but it is not always necessary to do so. Different methods may be used, such as trialing a new parameter a plurality of times using a random number or the like, and selecting a parameter in which a plurality of position changes are realized in the most balanced manner. FIG. 11 shows the result when calculated by such a calculation.

ステップS810では、マップ生成部506は前記類似画像マップを、利用者端末101のマップ表示部302へ送信する。   In step S810, the map generation unit 506 transmits the similar image map to the map display unit 302 of the user terminal 101.

ステップS810の後は、利用者端末101においてステップS801の処理へ続く。   After step S810, the user terminal 101 continues to the process of step S801.

以上図8を用いて説明したように、2次元座標平面上に表示される類似画像に対して、利用者が自らの意図を反映するよう位置の変更を繰り返すことによって、利用者が期待する特徴を備えたクエリー画像と類似する画像を取得することが可能となる。   As described above with reference to FIG. 8, the characteristics expected by the user by repeatedly changing the position of the similar image displayed on the two-dimensional coordinate plane so that the user reflects his intention. It is possible to acquire an image similar to the query image provided with

このようにして、一度、マップ上に表示された画像の配置位置を変更することで、類似の画像を、画像データベース508に記憶されている画像の中から絞り込んで検索することが可能となる。   In this way, once the arrangement position of the image displayed on the map is changed, it is possible to search for similar images by narrowing down the images stored in the image database 508.

以上、図8を用いて説明した手順により、視覚的に表現された各検索対象画像の類似度を、利用者の指示で更新することにより、各種特徴量の近似度を合成する時のパラメータ(変換行列)を逆算し、これにより利用者がより自分の期待する近似度表現を生成することが可能となる。   As described above, according to the procedure described with reference to FIG. 8, the parameters (when the similarities of various feature amounts are combined by updating the similarity of each search target image visually represented by a user instruction ( Conversion matrix), and the user can generate an approximation expression that the user expects more.

すなわち、上述のように、類似していると判断する検索対象画像のサムネイルの配置場所を、マップの中心(クエリー画像のサムネイルが配置されている2つの座標軸の原点)に近くなるように、近似している判断する度合に応じた距離だけ移動し、また、類似していないと判断する検索対象画像のサムネイルの配置場所を、マップの中心(クエリー画像のサムネイルが配置されている2つの座標軸の原点)から離れるように、近似していない判断する度合に応じた距離だけ移動し、再度、検索を行うことで、移動された検索対象画像のサムネイルの配置場所(配置位置)に応じて、クエリー画像のどの特徴に着目して類似性を判断すればよいのかを自動的に判断して、その判断結果を反映するように、各特徴量の重み(変換行列)を自動的に最適化して、類似の画像を再検索するため、煩雑な操作を軽減することが可能となる。   That is, as described above, the location of the thumbnails of the search target images that are determined to be similar is approximated so as to be close to the center of the map (the origin of the two coordinate axes where the thumbnails of the query image are arranged). The position of the thumbnail of the search target image that is determined not to be similar is moved to the center of the map (the two coordinate axes where the query image thumbnail is placed). Move away from the origin) by a distance corresponding to the degree of judgment that is not approximate, and perform the search again, so that the query is changed according to the arrangement location (arrangement position) of the thumbnail of the moved search target image. Automatically determine which feature of the image should be used to determine similarity, and automatically weight each feature value (transformation matrix) to reflect the determination result Optimized, to search for similar images, it is possible to reduce a complicated operation.

<第2の実施形態>
本発明の第2の実施形態について説明する。
<Second Embodiment>
A second embodiment of the present invention will be described.

図15に実施例2の画像検索システムの機能ブロック図を示す。図15は図3で示される第1の実施形態の構成に510で指示される変換行列蓄積部を追加したものである。   FIG. 15 is a functional block diagram of the image search system according to the second embodiment. FIG. 15 is obtained by adding a transformation matrix accumulating unit designated by 510 to the configuration of the first embodiment shown in FIG.

変換行列蓄積部510は、クエリー画像の各種特徴量データと変換行列の値とを対で保存する記憶部である。   The transformation matrix accumulation unit 510 is a storage unit that stores various feature amount data of the query image and the transformation matrix value in pairs.

変換行列蓄積部510は、本発明の情報記憶手段の適用例である。すなわち、変換行列蓄積部510は、ステップS807で生成された変換行列(重み情報)と、ステップS701で受け付けた検索画像の複数の特徴量とを関連付けて記憶する記憶部である。   The transformation matrix accumulation unit 510 is an application example of the information storage means of the present invention. That is, the transformation matrix accumulation unit 510 is a storage unit that stores the transformation matrix (weight information) generated in step S807 and the plurality of feature amounts of the search image received in step S701 in association with each other.

第2の実施形態では、第1の実施形態と異なる処理のみを下記に説明する。すなわち、第2の実施形態では、第1の実施形態と同様の構成については、説明を省略する。   In the second embodiment, only processing different from the first embodiment will be described below. That is, in the second embodiment, the description of the same configuration as in the first embodiment is omitted.

(クエリー画像の特徴量データと変換行列の蓄積処理)
図8のフローチャートのステップS803において、更新なしの指示が利用者からあった場合に、配置指示部303は変換行列が確定したことを画像検索装置102の変換行列計算部507へ通知し、変換行列計算部507は、クエリー画像の各種特徴量データと、ステップS807で最終的に算出された変換行列のデータを、変換行列蓄積部510へ保存する。
(Query image feature data and transformation matrix storage processing)
In step S803 in the flowchart of FIG. 8, when there is an instruction not to be updated from the user, the arrangement instruction unit 303 notifies the conversion matrix calculation unit 507 of the image search apparatus 102 that the conversion matrix has been determined, and the conversion matrix. The calculation unit 507 stores the various feature amount data of the query image and the data of the transformation matrix finally calculated in step S807 in the transformation matrix storage unit 510.

(変換行列の初期値の算出)
第2の実施形態では、図7のフローチャートのステップS704において、第1の実施形態で主成分分析によって変換行列を求めている処理を、前述した変換行列蓄積部510に保存されている変換行列の値を利用するように変更する。
(Calculation of initial value of transformation matrix)
In the second embodiment, in step S704 of the flowchart of FIG. 7, the process of obtaining the transformation matrix by the principal component analysis in the first embodiment is performed using the transformation matrix stored in the transformation matrix accumulation unit 510 described above. Change to use the value.

具体的には、次元圧縮部505は、クエリー画像の各種特徴量データセット(各特徴量)と最も近い特徴量データセットをもつエントリを変換行列蓄積部510から検索し、該エントリの変換行列のデータを用いて配置情報の生成処理を実施する。   Specifically, the dimension compression unit 505 searches the transformation matrix storage unit 510 for an entry having a feature amount data set that is closest to the various feature amount data sets (each feature amount) of the query image. The arrangement information is generated using the data.

すなわち、ステップS704では、ステップS701で新たに受け付けた検索画像から取得された複数の特徴量に最も類似(近似)する複数の特徴量に関連付けられて変換行列蓄積部510により記憶されている変換行列(重み情報)を特定する(特定手段)。変換行列蓄積部510には、前回(過去)に検索を行った際に用いられた、前回(過去)のクエリー画像の各種特徴量データと、前回(過去)のステップS807で最終的に算出された変換行列のデータとが関連付けられて記憶されているため、ステップS701で新たにクエリー画像(検索画像)を受け付けた際には、該検索画像から取得された複数の特徴量に最も類似(近似)する複数の特徴量に関連付けられて変換行列蓄積部510により記憶されている変換行列(重み情報)を特定することができる。   That is, in step S704, the transformation matrix stored in the transformation matrix accumulating unit 510 in association with a plurality of feature amounts most similar (approximate) to the plurality of feature amounts acquired from the search image newly received in step S701. (Weight information) is identified (identifying means). The transformation matrix accumulation unit 510 finally calculates various feature amount data of the previous (past) query image used in the previous (past) search and the previous (past) step S807. Therefore, when a new query image (search image) is received in step S701, it is most similar (approximate to the plurality of feature amounts acquired from the search image). ) To identify the transformation matrix (weight information) stored in the transformation matrix storage unit 510 in association with a plurality of feature quantities.

そして、ステップS703で算出された近似度と、当該特定された重み情報とを、それぞれ図12の1203、1202に代入することで、検索対象画像をマップ上に表示する位置を示す配置情報を生成する(ステップS704)。   Then, by substituting the degree of approximation calculated in step S703 and the specified weight information into 1203 and 1202 in FIG. 12, respectively, arrangement information indicating the position where the search target image is displayed on the map is generated. (Step S704).

ただし、クエリー画像の各種特徴量データセットに対して距離がある範囲内にあるエントリがなかった場合は、第1の実施形態と同様に主成分分析によって変換行列を算出するものとする。
すなわち、ステップS704により生成された配置情報に従って、マップ上の所定の範囲内に所定数の検索対象画像があるか否かを判定し(画像数判定手段)、あると判定された場合には、ステップS703で算出された近似度と、ステップS704で特定された変換行列を、それぞれ図12の1203、1202に代入することで、検索対象画像をマップ上に表示する位置を示す配置情報を生成する。
However, if there is no entry within a certain distance with respect to the various feature data sets of the query image, the transformation matrix is calculated by principal component analysis as in the first embodiment.
That is, according to the arrangement information generated in step S704, it is determined whether there is a predetermined number of search target images within a predetermined range on the map (image number determination means). By substituting the degree of approximation calculated in step S703 and the transformation matrix specified in step S704 into 1203 and 1202 in FIG. 12, respectively, arrangement information indicating the position where the search target image is displayed on the map is generated. .

一方、マップ上の所定の範囲内に所定数の検索対象画像がないと判定された場合には、第1の実施形態で説明した通り、ステップS703で算出された近似度と、初期値の変換行列(重み情報)とをそれぞれ図12の1203、1202に代入することで、配置情報を生成する。   On the other hand, if it is determined that there is no predetermined number of search target images within a predetermined range on the map, the degree of approximation calculated in step S703 and the conversion of the initial value are converted as described in the first embodiment. Arrangement information is generated by substituting the matrix (weight information) into 1203 and 1202 in FIG.

ここで、初期値の変換行列(重み情報)は、上述した通り、主成分分析を行うことで得られる変換行列であって、ステップS703で算出された複数の特徴量についての近似度に従って、当該複数の特徴量に対する重みを示す変換行列(重み情報)を決定した(決定手段)ものである。   Here, as described above, the initial value conversion matrix (weight information) is a conversion matrix obtained by performing principal component analysis, and according to the degree of approximation of the plurality of feature amounts calculated in step S703, A transformation matrix (weight information) indicating weights for a plurality of feature quantities is determined (decision means).

以上の変更を加えることによって、過去に同じような特徴量を有するクエリー画像の検索があった場合は、その際に作成された変換行列を再利用することによって、利用者の配置変更作業の負担を省略することができ、効率的に類似画像を見つけることができる。   By making the above changes, if a query image having a similar feature amount has been searched in the past, the transformation matrix created at that time can be reused to burden the user to change the layout. Can be omitted, and a similar image can be found efficiently.

すなわち、クエリー画像の特徴量と、該クエリー画像に類似した画像を検索するために適した変換行列とを学習することで、効率的に、且つ迅速に類似画像を見つけることが可能となる。   That is, it is possible to find a similar image efficiently and quickly by learning the feature amount of the query image and a transformation matrix suitable for searching for an image similar to the query image.

<第3の実施形態>
第1の実施形態、及び、第2の実施形態では、利用者端末101と画像検索装置102とを別々の筐体で記載しているが、これらを合体して1つの情報処理装置として構成することが可能である。すなわち、後述する利用者端末101が備える検索クエリー部301と、配置指示部303と、マップ表示部302とが、画像検索装置102内に含めて、画像検索装置102を1つの情報処理装置として構成することができる。
<Third Embodiment>
In the first embodiment and the second embodiment, the user terminal 101 and the image search device 102 are described in separate housings, but they are combined to form a single information processing device. It is possible. That is, a search query unit 301, an arrangement instruction unit 303, and a map display unit 302 included in a user terminal 101 to be described later are included in the image search device 102, and the image search device 102 is configured as one information processing device. can do.

以上、本発明によれば、利用者の操作による、マップ上に表示される画像の位置の変更を受け付けることで、検索に用いられる各特徴量の重みを適切に変更し、類似の画像を検索することが可能になる。   As described above, according to the present invention, by accepting a change in the position of an image displayed on a map by a user's operation, the weight of each feature amount used for the search is appropriately changed to search for a similar image. It becomes possible to do.

また、本発明によれば、利用者が明示的に検索に利用する特徴量を指定することなく、検索された画像を確認して、直感的に、その画像の位置を移動するだけで、各特徴量の重みを自動的に最適化して、類似の画像を検索するため、煩雑な操作を軽減することが可能となる。   Further, according to the present invention, the user can confirm the searched image without explicitly specifying the feature amount used for the search, and intuitively move the position of the image. Since the weight of the feature amount is automatically optimized and a similar image is searched, it is possible to reduce complicated operations.

また、本発明によれば、結果表示に利用される特徴量は3つに制限されることなく、4つ目以上の特徴量についても考慮された座標軸(複数の特徴量の重みを織り込まれている2次元の座標軸)を含むマップに、検索された結果、得られた画像が表示されるため、クエリー画像に類似した画像を見落としてしまうおそれも低減可能となる。   In addition, according to the present invention, the feature quantity used for the result display is not limited to three, and coordinate axes (including a plurality of feature quantity weights) that take into consideration the fourth or more feature quantities are also included. Since the image obtained as a result of the search is displayed on the map including the two-dimensional coordinate axis), the possibility of overlooking an image similar to the query image can be reduced.

また、本発明によれば、類似性の指標を利用者が明示的に指定することなく、また複数の指標を用いる場合においても、利用者との相互作用を通じて、各指標の重みを自動的に最適化することが可能な画像検索の仕組みを提供することである。   Further, according to the present invention, the weight of each index is automatically set through the interaction with the user without the user explicitly specifying the similarity index, and even when a plurality of indices are used. It is to provide an image search mechanism that can be optimized.

また、本発明によれば、大量の画像の中から、利用者が所望する特徴を備えた画像を、迅速に、効率的に、検索し、発見することが可能になる。   Further, according to the present invention, it is possible to quickly and efficiently search for and find an image having features desired by a user from a large number of images.

以上、本発明の実施形態を詳述したが、本発明は、例えば、システム、装置、方法、装置で読み取り実行可能なプログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。上述した実施例では、利用者端末101と、画像検索装置102とをそれぞれ別の筐体として説明したが、利用者端末101と、画像検索装置102と組み合わせて1つの情報処理装置とすることができる。すなわち、このように、利用者端末101と、画像検索装置102と組み合わせて1つの情報処理装置とした場合でも、本発明の範囲内にあることは言うまでもない。   The embodiment of the present invention has been described in detail above. However, the present invention can take an embodiment as a system, an apparatus, a method, a program that can be read and executed by the apparatus, a storage medium, or the like. In addition, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device. In the above-described embodiments, the user terminal 101 and the image search device 102 have been described as separate cases. However, the user terminal 101 and the image search device 102 may be combined into one information processing device. it can. That is, it goes without saying that even when the information processing apparatus is combined with the user terminal 101 and the image search apparatus 102 as described above, it is within the scope of the present invention.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。   Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium. Needless to say, this can also be achieved by reading and executing the program code stored in.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile card, a ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (basic system or operating system) running on the computer based on the instruction of the program code. Needless to say, a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

101 利用者端末
102 画像検索装置
103 LAN
301 検索クエリー部
302 マップ表示部
303 配置指示部
501 画像登録部
502 特徴量抽出部
503 検索処理部
504 特徴量近似度計算部
505 次元圧縮部
506 マップ生成部
507 変換行列計算部
508 画像データベース
509 特徴量データベース
510 変換行列蓄積部
600 画像ソース

101 User terminal 102 Image search device 103 LAN
301 Search Query Unit 302 Map Display Unit 303 Arrangement Instruction Unit 501 Image Registration Unit 502 Feature Amount Extraction Unit 503 Search Processing Unit 504 Feature Amount Approximation Calculation Unit 505 Dimensional Compression Unit 506 Map Generation Unit 507 Transformation Matrix Calculation Unit 508 Image Database 509 Feature Quantity database 510 Transformation matrix storage 600 Image source

Claims (8)

検索画像に基づき検索される対象の画像である複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置であって、
前記複数の検索対象画像を記憶する記憶手段と、
ユーザによる検索画像の入力を受け付ける受付手段と、
前記受付手段により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出手段と、
前記算出手段により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成手段と、
前記生成手段により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示手段と、
ユーザの操作により、前記表示手段で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付手段と、
前記変更受付手段により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出手段により算出された近似度とに従って、重み情報を生成する重み情報生成手段と、
を備え、
前記生成手段は、更に、前記算出手段により算出された近似度と、前記重み情報生成手段により生成された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像の配置情報を生成することを特徴とする情報処理装置。
An information processing apparatus that displays the search target image on a map indicating a relationship between a plurality of search target images that are target images to be searched based on the search image,
Storage means for storing the plurality of search target images;
Accepting means for accepting input of a search image by a user;
Calculating means for calculating a degree of approximation between a plurality of feature amounts of the search image received by the receiving means and a plurality of feature amounts of the search target image stored in the storage unit;
Arrangement indicating a position at which the search target image whose degree of approximation is calculated by the calculating unit is displayed on the map according to the degree of approximation calculated by the calculating unit and weight information indicating weights for the plurality of feature amounts Generating means for generating information;
Display means for outputting the search target image to be displayed at a position on the map indicated by the arrangement information generated by the generation means;
Change accepting means for accepting a change in the position of the search target image displayed on the map by the display means by a user operation;
Weight information generating means for generating weight information according to the arrangement information indicating the position of the search target image whose change has been received by the change receiving means and the degree of approximation calculated by the calculating means;
With
The generation means further includes, based on the approximation degree calculated by the calculation means and the weight information generated by the weight information generation means, the arrangement information of the search target image whose approximation degree is calculated by the calculation means. An information processing apparatus that generates the information processing apparatus.
前記算出手段は、前記受付手段により受け付けた検索画像の複数種類の特徴量と、前記記憶手段に記憶されている検索対象画像の複数種類の特徴量との近似度をそれぞれ算出し、
前記生成手段は、前記複数種類の特徴量における各近似度を合成すると共に前記複数種類の特徴量に対する重みを示す重み情報に従って、前記算出手段により算出された前記複数種類の特徴量における各近似度を合成して、当該複数の特徴量の種類よりも少ない数の次元の前記マップ上に表示する位置を示す配置情報を生成することを特徴とする請求項1に記載の情報処理装置。
The calculating means calculates the approximate degree of the plurality of types of feature quantities of the search image received by the receiving means and the plurality of types of feature quantities of the search target image stored in the storage means,
The generating unit synthesizes each degree of approximation in the plurality of types of feature quantities and, according to weight information indicating weights for the plurality of types of feature quantities, each degree of approximation in the plurality of types of feature quantities calculated by the calculation unit. The information processing apparatus according to claim 1, wherein arrangement information indicating positions to be displayed on the map having a smaller number of dimensions than the plurality of feature amount types is generated.
前記重み情報生成手段により生成された重み情報と、前記受付手段により受け付けた検索画像の複数の特徴量とを関連付けて記憶する情報記憶手段と、
前記受付手段により受け付けた新たに受け付けた検索画像の複数の特徴量に類似する複数の特徴量に関連付けられて前記情報記憶手段により記憶されている重み情報を特定する特定手段と、
を更に備え、
前記生成手段は、前記算出手段により算出された近似度と、前記特定手段により特定された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成することを特徴とする請求項1又は2に記載の情報処理装置。
Information storage means for storing the weight information generated by the weight information generation means in association with a plurality of feature amounts of the search image received by the reception means;
A specifying unit that specifies weight information stored in the information storage unit in association with a plurality of feature amounts similar to the plurality of feature amounts of the newly received search image received by the receiving unit;
Further comprising
The generation means is a position for displaying, on the map, a search target image whose approximation degree is calculated by the calculation means according to the approximation degree calculated by the calculation means and the weight information specified by the specifying means. The information processing apparatus according to claim 1, wherein arrangement information indicating the information is generated.
前記表示手段は、前記マップ上の所定の範囲内の位置を示す配置情報の検索対象画像のみを前記マップ上に表示するべく出力することを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。   4. The display device according to claim 1, wherein the display unit outputs only a search target image of arrangement information indicating a position within a predetermined range on the map so as to be displayed on the map. 5. The information processing apparatus described. 前記生成手段により生成された配置情報に従って、前記マップ上の所定の範囲内に所定数の検索対象画像があるか否かを判定する画像数判定手段を更に備え、
前記生成手段は、前記画像数判定手段により、前記マップ上の所定の範囲内に所定数の検索対象画像があると判定された場合には、前記算出手段により算出された近似度と、前記特定手段により特定された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成することを特徴とする請求項3に記載の情報処理装置。
According to the arrangement information generated by the generation means, further comprising an image number determination means for determining whether or not there is a predetermined number of search target images within a predetermined range on the map,
When the image number determination unit determines that there are a predetermined number of search target images within a predetermined range on the map, the generation unit determines the degree of approximation calculated by the calculation unit and the identification 4. The arrangement information according to claim 3, wherein arrangement information indicating a position at which the search target image whose degree of approximation is calculated by the calculation unit is displayed on the map is generated according to the weight information specified by the unit. Information processing device.
前記算出手段により算出された、前記複数の特徴量についての近似度に従って、前記複数の特徴量に対する重みを示す重み情報を決定する決定手段を更に備え、
前記画像数判定手段により、前記マップ上の所定の範囲内に所定数の検索対象画像がないと判定された場合には、前記生成手段は、前記算出手段により算出された近似度と、前記決定手段により決定された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成することを特徴とする請求項5に記載の情報処理装置。
A determination unit configured to determine weight information indicating a weight for the plurality of feature amounts according to the degree of approximation of the plurality of feature amounts calculated by the calculation unit;
When the image number determination unit determines that there is no predetermined number of search target images within a predetermined range on the map, the generation unit determines the degree of approximation calculated by the calculation unit and the determination 6. The arrangement information according to claim 5, wherein, according to the weight information determined by the means, arrangement information indicating a position where the search target image whose degree of approximation is calculated is displayed on the map is generated. Information processing device.
検索画像に基づき検索される対象の画像である複数の検索対象画像を記憶する記憶手段を備え、前記複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置における制御方法であって、
前記情報処理装置の受付手段が、ユーザによる検索画像の入力を受け付ける受付工程と、
前記情報処理装置の算出手段が、前記受付工程により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出工程と、
前記情報処理装置の生成手段が、前記算出工程により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出工程により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成工程と、
前記情報処理装置の表示手段が、前記生成工程により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示工程と、
前記情報処理装置の変更受付手段が、ユーザの操作により、前記表示工程で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付工程と、
前記情報処理装置の重み情報生成手段が、前記変更受付工程により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出工程により算出された近似度とに従って、重み情報を生成する重み情報生成工程と、
を備え、
前記生成工程は、更に、前記算出工程により算出された近似度と、前記重み情報生成工程により生成された重み情報とに従って、前記算出工程により該近似度が算出された検索対象画像の配置情報を生成することを特徴とする制御方法。
Control in an information processing apparatus that includes a storage unit that stores a plurality of search target images that are images to be searched based on the search image, and displays the search target images on a map that indicates a relationship between the plurality of search target images. A method,
A receiving step in which a receiving unit of the information processing apparatus receives an input of a search image by a user;
A calculation step in which the calculation unit of the information processing apparatus calculates the degree of approximation between the plurality of feature amounts of the search image received in the reception step and the plurality of feature amounts of the search target image stored in the storage unit, respectively. When,
The generation unit of the information processing apparatus uses the approximation degree calculated in the calculation step and the weight information indicating the weights for the plurality of feature amounts to obtain the search target image in which the approximation degree is calculated in the calculation step. A generation step for generating arrangement information indicating a position to be displayed on the map;
A display step in which display means of the information processing apparatus outputs to display the search target image at a position on the map indicated by the arrangement information generated by the generation step;
A change accepting step in which the change accepting means of the information processing device accepts a change in the position of the search target image displayed on the map in the display step by a user operation;
Weight information in which the weight information generating means of the information processing device generates weight information according to the arrangement information indicating the position of the search target image whose change has been received by the change receiving step and the approximation calculated by the calculating step Generation process;
With
The generation step further includes the placement information of the search target image whose approximation degree is calculated by the calculation step according to the approximation degree calculated by the calculation step and the weight information generated by the weight information generation step. A control method characterized by generating.
検索画像に基づき検索される対象の画像である複数の検索対象画像を記憶する記憶手段を備え、前記複数の検索対象画像の関係を示すマップ上に前記検索対象画像を表示する情報処理装置が読み取り実行可能なプログラムであって、
前記情報処理装置を、
ユーザによる検索画像の入力を受け付ける受付手段と、
前記受付手段により受け付けた検索画像の複数の特徴量と、前記記憶手段に記憶されている検索対象画像の複数の特徴量との近似度をそれぞれ算出する算出手段と、
前記算出手段により算出された近似度と、前記複数の特徴量に対する重みを示す重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像を前記マップ上に表示する位置を示す配置情報を生成する生成手段と、
前記生成手段により生成された配置情報に示される前記マップ上の位置に該検索対象画像を表示するべく出力する表示手段と、
ユーザの操作により、前記表示手段で前記マップ上に表示された検索対象画像の位置の変更を受け付ける変更受付手段と、
前記変更受付手段により変更を受け付けた検索対象画像の位置を示す配置情報と、前記算出手段により算出された近似度とに従って、重み情報を生成する重み情報生成手段として機能させ、
前記生成手段は、更に、前記算出手段により算出された近似度と、前記重み情報生成手段により生成された重み情報とに従って、前記算出手段により該近似度が算出された検索対象画像の配置情報を生成することを特徴とするプログラム。


An information processing device that includes a storage unit that stores a plurality of search target images that are images to be searched based on the search image, and that displays the search target images on a map indicating a relationship between the plurality of search target images is read An executable program,
The information processing apparatus;
Accepting means for accepting input of a search image by a user;
Calculating means for calculating a degree of approximation between a plurality of feature amounts of the search image received by the receiving means and a plurality of feature amounts of the search target image stored in the storage unit;
Arrangement indicating a position at which the search target image whose degree of approximation is calculated by the calculating unit is displayed on the map according to the degree of approximation calculated by the calculating unit and weight information indicating weights for the plurality of feature amounts Generating means for generating information;
Display means for outputting the search target image to be displayed at a position on the map indicated by the arrangement information generated by the generation means;
Change accepting means for accepting a change in the position of the search target image displayed on the map by the display means by a user operation;
According to the arrangement information indicating the position of the search target image whose change has been received by the change receiving means, and the approximation calculated by the calculating means, function as weight information generating means for generating weight information,
The generation means further includes, based on the approximation degree calculated by the calculation means and the weight information generated by the weight information generation means, the arrangement information of the search target image whose approximation degree is calculated by the calculation means. A program characterized by generating.


JP2011262567A 2011-11-30 2011-11-30 Information processing apparatus, control method therefor, and program Expired - Fee Related JP5862243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011262567A JP5862243B2 (en) 2011-11-30 2011-11-30 Information processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011262567A JP5862243B2 (en) 2011-11-30 2011-11-30 Information processing apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2013114597A true JP2013114597A (en) 2013-06-10
JP5862243B2 JP5862243B2 (en) 2016-02-16

Family

ID=48710060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011262567A Expired - Fee Related JP5862243B2 (en) 2011-11-30 2011-11-30 Information processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5862243B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011411A (en) * 2013-06-26 2015-01-19 日本電信電話株式会社 Information processing apparatus, feature amount conversion system, conversion rule generation method, and conversion rule generation program
JP2015230578A (en) * 2014-06-05 2015-12-21 株式会社日立製作所 Image search device, image search method, and search system
JP2017010468A (en) * 2015-06-25 2017-01-12 Kddi株式会社 System and method for searching for an object in a captured image
WO2021153375A1 (en) * 2020-01-29 2021-08-05 ダイキン工業株式会社 Node processing device, node processing method, and program
JP2024035909A (en) * 2022-09-05 2024-03-15 株式会社日立製作所 Computer systems and information presentation methods to support user discussions
WO2024062912A1 (en) * 2022-09-20 2024-03-28 富士フイルム株式会社 Display control device, method for operating display control device, and program for operating display control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342016A (en) * 2003-05-19 2004-12-02 Ult Research Co Ltd Information search program and medium recording information search program
JP2008052665A (en) * 2006-08-28 2008-03-06 Sony Computer Entertainment Inc Content display device and content display method
JP2009294993A (en) * 2008-06-06 2009-12-17 Konica Minolta Holdings Inc Related document extraction method, related document extraction system, and related document extraction program
US20100100549A1 (en) * 2007-02-19 2010-04-22 Sony Computer Entertainment Inc. Contents space forming apparatus, method of the same, computer, program, and storage media
WO2010053160A1 (en) * 2008-11-07 2010-05-14 国立大学法人 北海道大学 Content search device and content search program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342016A (en) * 2003-05-19 2004-12-02 Ult Research Co Ltd Information search program and medium recording information search program
JP2008052665A (en) * 2006-08-28 2008-03-06 Sony Computer Entertainment Inc Content display device and content display method
US20100100549A1 (en) * 2007-02-19 2010-04-22 Sony Computer Entertainment Inc. Contents space forming apparatus, method of the same, computer, program, and storage media
JP2009294993A (en) * 2008-06-06 2009-12-17 Konica Minolta Holdings Inc Related document extraction method, related document extraction system, and related document extraction program
WO2010053160A1 (en) * 2008-11-07 2010-05-14 国立大学法人 北海道大学 Content search device and content search program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015030988; 西村剛: '陶磁器を対象とした3次元実物体の類似検索' 電子情報通信学会技術研究報告 Vol.101 No.192, 20010711, P.199-206, 社団法人電子情報通信学会 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011411A (en) * 2013-06-26 2015-01-19 日本電信電話株式会社 Information processing apparatus, feature amount conversion system, conversion rule generation method, and conversion rule generation program
JP2015230578A (en) * 2014-06-05 2015-12-21 株式会社日立製作所 Image search device, image search method, and search system
JP2017010468A (en) * 2015-06-25 2017-01-12 Kddi株式会社 System and method for searching for an object in a captured image
WO2021153375A1 (en) * 2020-01-29 2021-08-05 ダイキン工業株式会社 Node processing device, node processing method, and program
JP2021117871A (en) * 2020-01-29 2021-08-10 ダイキン工業株式会社 Node processing device, node processing method and program
JP7093021B2 (en) 2020-01-29 2022-06-29 ダイキン工業株式会社 Node processing device, node processing method and program
CN114981798A (en) * 2020-01-29 2022-08-30 大金工业株式会社 Node processing device, node processing method, and program
US20230043772A1 (en) * 2020-01-29 2023-02-09 Daikin Industries, Ltd. Node processing apparatus, node processing method and program
US12210554B2 (en) 2020-01-29 2025-01-28 Daikin Industries, Ltd. Node processing apparatus, node processing method and program
CN114981798B (en) * 2020-01-29 2025-05-09 大金工业株式会社 Node processing device, node processing method and program
JP2024035909A (en) * 2022-09-05 2024-03-15 株式会社日立製作所 Computer systems and information presentation methods to support user discussions
WO2024062912A1 (en) * 2022-09-20 2024-03-28 富士フイルム株式会社 Display control device, method for operating display control device, and program for operating display control device

Also Published As

Publication number Publication date
JP5862243B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
US7188103B2 (en) Similarity search of three-dimensional model using two-dimensional image as search key
JP5862243B2 (en) Information processing apparatus, control method therefor, and program
US8200027B2 (en) Methods and apparatus for retrieving images from a large collection of images
WO2013145654A1 (en) Information processing method to calculate a similarity between a posture model and posture data
US20190065913A1 (en) Search method and information processing apparatus
JP2004240750A (en) Image retrieval device
JP4785598B2 (en) Similar shape search device
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
CN108536467B (en) Code positioning processing method, device, terminal device and storage medium
US20240212228A1 (en) Image generating and retrieving apparatus, image generating and retrieving system, and image generating and retrieving method
CN107229741A (en) Information search method, device, equipment and storage medium
WO2012164685A1 (en) Information providing device, information providing method, information providing processing program, recording medium recording information providing processing program, and information providing system
Zhang et al. Research on 3D architectural scenes construction technology based on augmented reality
CN111832826A (en) Augmented reality-based library management method, device and storage medium
JP2012230676A (en) Device and program for embedded media marker identification
Wu et al. Iterative closest point registration for fast point feature histogram features of a volume density optimization algorithm
JPWO2009031297A1 (en) Image search device, image classification device and method, and program
JP5408241B2 (en) Information processing apparatus, information processing method, and program
Gao et al. Pose detection of parallel robot based on improved RANSAC algorithm
JP2000305946A (en) Information retrieval apparatus, information retrieval method, and storage medium
KR20230053361A (en) Method, apparatus and computer-readable recording medium for generating product images displayed in an internet shopping mall based on an input image
JP5772908B2 (en) Information processing apparatus, information processing system, control method thereof, and program
JP2008102594A (en) Content search method and search device
JP2014010640A (en) Image search device, and information processing method and program
WO2021145030A1 (en) Video search system, video search method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141128

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees