[go: up one dir, main page]

JP2018018339A - Determination apparatus, determination method, and determination program - Google Patents

Determination apparatus, determination method, and determination program Download PDF

Info

Publication number
JP2018018339A
JP2018018339A JP2016148750A JP2016148750A JP2018018339A JP 2018018339 A JP2018018339 A JP 2018018339A JP 2016148750 A JP2016148750 A JP 2016148750A JP 2016148750 A JP2016148750 A JP 2016148750A JP 2018018339 A JP2018018339 A JP 2018018339A
Authority
JP
Japan
Prior art keywords
image
ranking
information
target
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016148750A
Other languages
Japanese (ja)
Other versions
JP6742186B2 (en
Inventor
洋輔 早川
Yosuke Hayakawa
洋輔 早川
智大 田中
Tomohiro Tanaka
智大 田中
直晃 山下
Naoaki Yamashita
直晃 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016148750A priority Critical patent/JP6742186B2/en
Publication of JP2018018339A publication Critical patent/JP2018018339A/en
Application granted granted Critical
Publication of JP6742186B2 publication Critical patent/JP6742186B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像のランキングを適切に決定すること。【解決手段】本願に係る検索装置は、取得部と、決定部とを有する。取得部は、画像検索におけるクエリを取得する。決定部は、各画像におけるクエリに対応する対象のサイズに関する情報に基づいて、各画像のランキングを決定する。例えば、決定部は、各画像における対象のサイズに関する情報と、各画像のサイズに関する情報とに基づく各画像における対象の占有率に関する情報に応じて、各画像のランキングを決定する。【選択図】図3An image ranking is appropriately determined. A search device according to the present application includes an acquisition unit and a determination unit. The acquisition unit acquires a query in image search. The determination unit determines the ranking of each image based on information regarding the size of the target corresponding to the query in each image. For example, the determination unit determines the ranking of each image according to information regarding the object occupancy ratio in each image based on information regarding the size of the object in each image and information regarding the size of each image. [Selection] Figure 3

Description

本発明は、決定装置、決定方法、及び決定プログラムに関する。   The present invention relates to a determination device, a determination method, and a determination program.

従来、画像検索に関する種々の技術が提供されている。例えば、オブジェクトの内容やレイアウトを考慮した画像検索に関する技術が提供されている。また、従来、ニューラルネットワークによる画像の特徴抽出に関する技術が提供されている。例えば、畳み込みニューラルネットワーク(Convolutional Neural Network)により、画像に含まれる対象を識別する技術が提供されている。   Conventionally, various techniques relating to image retrieval have been provided. For example, a technique related to image search in consideration of the contents and layout of an object is provided. Conventionally, a technique related to image feature extraction using a neural network has been provided. For example, a technique for identifying an object included in an image is provided by a convolutional neural network.

特開2011−197892号公報JP 2011-197892 A

しかしながら、上記の従来技術では、クエリに対する検索結果として提供する画像のランキングを適切に決定することは難しい。例えば、画像に含まれるオブジェクト(対象)の内容に基づくだけでは、画像のランキングが適切に決定されるとは限らない。   However, with the above-described conventional technology, it is difficult to appropriately determine the ranking of images to be provided as a search result for a query. For example, just based on the contents of an object (target) included in an image, the ranking of the image is not always determined appropriately.

本願は、上記に鑑みてなされたものであって、クエリに対する検索結果における画像のランキングを適切に決定する決定装置、決定方法、及び決定プログラムを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide a determination device, a determination method, and a determination program that appropriately determine the ranking of images in a search result for a query.

本願に係る決定装置は、画像検索におけるクエリを取得する取得部と、各画像における前記クエリに対応する対象のサイズに関する情報に基づいて、前記各画像のランキングを決定する決定部と、を備えたことを特徴とする。   The determination device according to the present application includes an acquisition unit that acquires a query in an image search, and a determination unit that determines a ranking of each image based on information on a size of a target corresponding to the query in each image. It is characterized by that.

実施形態の一態様によれば、クエリに対する検索結果における画像のランキングを適切に決定することができるという効果を奏する。   According to the aspect of the embodiment, there is an effect that the ranking of the image in the search result for the query can be appropriately determined.

図1は、実施形態に係る検索処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a search process according to the embodiment. 図2は、実施形態に係る検索処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of a search process according to the embodiment. 図3は、実施形態に係る検索装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the search device according to the embodiment. 図4は、実施形態に係る学習情報記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a learning information storage unit according to the embodiment. 図5は、実施形態に係る画像情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the image information storage unit according to the embodiment. 図6は、実施形態に係る一覧情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the list information storage unit according to the embodiment. 図7は、実施形態に係る占有率情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of the occupation rate information storage unit according to the embodiment. 図8は、実施形態に係る画像における対象の占有率の推定の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the estimation of the occupation ratio of the object in the image according to the embodiment. 図9は、実施形態に係るランキングの決定の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of ranking determination according to the embodiment. 図10は、実施形態に係る学習処理の一例を示す図である。FIG. 10 is a diagram illustrating an example of learning processing according to the embodiment. 図11は、実施形態に係る学習処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of learning processing according to the embodiment. 図12は、実施形態に係る学習処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a learning process according to the embodiment. 図13は、実施形態に係るランキングの決定の一例を示す図である。FIG. 13 is a diagram illustrating an example of ranking determination according to the embodiment. 図14は、検索装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 14 is a hardware configuration diagram illustrating an example of a computer that implements the function of the search device.

以下に、本願に係る決定装置、決定方法、及び決定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る決定装置、決定方法、及び決定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a determination apparatus, a determination method, and a mode for executing a determination program according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the determination device, the determination method, and the determination program according to the present application are not limited to the embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

(実施形態)
〔1.検索処理〕
図1及び図2を用いて、実施形態に係る検索処理の一例について説明する。図1及び図2は、実施形態に係る検索処理の一例を示す図である。具体的には、図1は、後述する検索の対象となる画像群の各々における対象の占有率の推定の一例を示す図である。図1に示す検索装置100は、画像における対象の占有率を出力(推定)する学習器(モデル)を用いて、検索の対象となる画像群の各々における対象の占有率を推定する。
(Embodiment)
[1. Search process)
An example of search processing according to the embodiment will be described with reference to FIGS. 1 and 2. 1 and 2 are diagrams illustrating an example of search processing according to the embodiment. Specifically, FIG. 1 is a diagram illustrating an example of estimation of the occupancy rate of a target in each of image groups to be searched, which will be described later. 1 uses a learning device (model) that outputs (estimates) an occupancy rate of an object in an image, and estimates the occupancy rate of the object in each image group to be searched.

また、具体的には、図2は、クエリを取得した場合に、クエリに対応する対象を含む画像を占有率に応じてランキング(順位付け)した検索結果の提供の一例を示す図である。また、画像における対象の占有率を出力(推定)する学習器LEは、入力画像とその入力画像における対象等の占有率を示す正解情報とを用いることにより生成されるが、詳細は後述する。また、図1及び図2に示す例においては、占有率を推定する対象が猫である場合を示すが、対象は、猫に限らず、犬や人間等の他の生物や植物や車等の種々の物体等であってもよい。また、ここでいう対象は、識別可能であれば種々の対象が含まれてもよく、例えば火や海の波など種々の現象等が含まれてもよい。また、図2では、説明を簡単にするために、検索装置100が対象「猫」を含む画像に対するユーザによるクリック率のみを指標として、対象「猫」を含む画像のランキング(順位)を決定する場合を示す。具体的には、図2では、検索装置100は、画像における猫の占有率を複数の区分に分割し、各区分の占有率に対応する画像に対するユーザによるクリック率の平均を指標として、対象「猫」を含む画像のランキングを決定する。   Specifically, FIG. 2 is a diagram illustrating an example of providing search results obtained by ranking (ranking) images including objects corresponding to a query according to an occupation ratio when a query is acquired. Further, the learning device LE that outputs (estimates) the occupancy ratio of the object in the image is generated by using the input image and correct information indicating the occupancy ratio of the object in the input image, which will be described in detail later. Moreover, in the example shown in FIG.1 and FIG.2, although the object which estimates an occupation rate shows the case of a cat, a target is not only a cat but other living things, such as a dog and a human, a plant, a car, etc. Various objects may be used. In addition, the object referred to here may include various objects as long as they can be identified, and may include various phenomena such as fire and sea waves. In FIG. 2, for ease of explanation, the search apparatus 100 determines the ranking (rank) of images including the target “cat” using only the click rate by the user for the image including the target “cat” as an index. Show the case. Specifically, in FIG. 2, the search device 100 divides the cat occupancy rate in the image into a plurality of sections, and uses the average click rate by the user for the image corresponding to the occupancy ratio of each section as an index. The ranking of images including “cat” is determined.

ここで、検索装置100が用いる学習器について簡単に説明する。検索装置100が用いる学習器は、例えば、入力されたデータに対する演算結果を出力する複数のノードを多層に接続した学習器であって、教師あり学習により抽象化された画像の特徴を学習された学習器である。例えば、学習器は、複数のノードを有する層を多段に接続したニューラルネットワークであり、いわゆるディープラーニングの技術により実現されるDNN(Deep Neural Network)であってもよい。また、画像の特徴とは、画像に含まれる文字の有無、色、構成等、画像内に現れる具体的な特徴のみならず、撮像されている物体が何であるか、画像がどのような利用者に好かれるか、画像の雰囲気等、抽象化(メタ化)された画像の特徴をも含む概念である。   Here, the learning device used by the search device 100 will be briefly described. The learning device used by the search apparatus 100 is, for example, a learning device in which a plurality of nodes that output calculation results for input data are connected in multiple layers, and has learned the features of an image abstracted by supervised learning. It is a learning device. For example, the learning device is a neural network in which layers having a plurality of nodes are connected in multiple stages, and may be a DNN (Deep Neural Network) realized by a so-called deep learning technique. Image features include not only the specific features that appear in the image, such as the presence / absence of characters in the image, color, composition, etc., but also what the object is being imaged and what kind of user the image is It is a concept that also includes the characteristics of an abstracted (meta-) image such as the atmosphere of the image.

例えば、学習器は、ディープラーニングの技術により、以下のような学習手法により生成される。例えば、学習器は、各ノードの間の接続係数が初期化され、様々な特徴を有する画像が入力される。そして、学習器は、学習器における出力と、入力した画像との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション(誤差逆伝播法)等の処理により生成される。例えば、学習器は、誤差関数等、所定の損失(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより生成される。上述のような処理を繰り返すことで、学習器は、入力された画像をより良く再現できる出力、すなわち入力された画像の特徴を出力することができる。   For example, the learning device is generated by the following learning method using a deep learning technique. For example, in the learning device, the connection coefficient between the nodes is initialized, and images having various characteristics are input. The learning device is generated by a process such as back propagation (error back propagation method) for correcting a parameter (connection coefficient) so that an error between the output from the learning device and the input image is reduced. For example, the learning device is generated by performing a process such as back propagation so as to minimize a predetermined loss function such as an error function. By repeating the processing as described above, the learning device can output an output that can better reproduce the input image, that is, a feature of the input image.

なお、学習器の学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。また、学習器の学習を行う際に用いられる情報は、画像及びその画像に含まれる対象等の種々の画像のデータセットを利用してもよい。学習器の学習を行う際に用いられる情報は、対象が1つ含まれる画像及び対象が1つであることを示す情報のセットや、対象が複数(例えば2つ)含まれる画像及び対象が複数(例えば2つ)であることを示す情報のセットや、対象が含まれない画像及び対象が含まれない(0である)ことを示す情報のセット等を利用してもよい。また、学習器に対する画像の入力方法、学習器が出力するデータの形式、学習器に対して明示的に学習させる特徴の内容等は、任意の手法が適用できる。すなわち、検索装置100は、画像から抽象化された特徴を示す特徴量を算出できるのであれば、任意の学習器を用いることができる。   Note that the learning method of the learning device is not limited to the method described above, and any known technique can be applied. Information used when learning by the learning device may use a data set of various images such as an image and a target included in the image. Information used when learning by the learning device includes an image including one target and a set of information indicating that there is one target, and a plurality of images and targets including a plurality of (for example, two) targets. A set of information indicating (for example, two), an image that does not include a target, a set of information that indicates that a target is not included (zero), and the like may be used. In addition, any method can be applied to the image input method to the learning device, the format of data output from the learning device, the content of features that are explicitly learned by the learning device, and the like. In other words, the search device 100 can use any learning device as long as it can calculate a feature value indicating a feature abstracted from an image.

図1では、検索装置100は、入力画像の局所領域の畳み込みとプーリングとを繰り返す、いわゆる畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)による学習器LEを用いるものとする。以下では、畳み込みニューラルネットワークをCNNと記載する場合がある。例えば、CNNによる学習器LEは、画像から特徴を抽出して出力する機能に加え、画像内に含まれる文字や撮像対象等の位置的変異に対し、出力の不変性を有する。このため、学習器LEは、画像の抽象化された特徴を精度良く算出することができる。   In FIG. 1, the search device 100 uses a learning device LE based on a so-called convolutional neural network (CNN) that repeats convolution and pooling of a local region of an input image. Hereinafter, the convolutional neural network may be referred to as CNN. For example, in addition to the function of extracting and outputting features from an image, the learning device LE by CNN has invariance of output with respect to positional variations such as characters and imaging objects included in the image. For this reason, the learning device LE can calculate the abstract feature of the image with high accuracy.

例えば、図1では、検索装置100は、画像における対象(猫)の占有率に関する情報を出力する識別器(モデル)である学習器LEを用いる。すなわち、図1では、検索装置100は、上述のような所定の学習処理により生成済みの学習器LEを用いるものとする。なお、図1では、検索装置100が画像に含まれる対象を識別する学習器LEを用いる場合を示すが、検索装置100は、所定の対象の占有率を推定可能であれば、どのような学習器を用いてもよい。また、学習器LEを生成(学習)する際には、所定の損失関数や正解情報等を用いるが詳細は後述する。   For example, in FIG. 1, the search device 100 uses a learning device LE that is a discriminator (model) that outputs information related to the occupancy rate of a target (cat) in an image. That is, in FIG. 1, it is assumed that the search device 100 uses the learning device LE that has been generated by the predetermined learning process as described above. Note that FIG. 1 shows a case where the search device 100 uses a learning device LE that identifies a target included in an image. However, the search device 100 can perform any learning as long as the occupancy of a predetermined target can be estimated. A vessel may be used. Further, when generating (learning) the learning device LE, a predetermined loss function, correct answer information, and the like are used, but details will be described later.

図2に示すように、検索システム1には、端末装置10と、検索装置100とが含まれる。端末装置10と、検索装置100とは図示しない所定の通信網を介して、有線または無線により通信可能に接続される。また、図2に示した検索システム1には、複数台の端末装置10や、複数台の検索装置100が含まれてもよい。   As shown in FIG. 2, the search system 1 includes a terminal device 10 and a search device 100. The terminal device 10 and the search device 100 are communicably connected via a predetermined communication network (not shown) in a wired or wireless manner. In addition, the search system 1 illustrated in FIG. 2 may include a plurality of terminal devices 10 and a plurality of search devices 100.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図2に示す例においては、端末装置10がスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。   The terminal device 10 is an information processing device used by a user. The terminal device 10 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. In the example shown in FIG. 2, the case where the terminal device 10 is a smartphone is shown. Hereinafter, the terminal device 10 may be referred to as a user. That is, hereinafter, the user can be read as the terminal device 10.

検索装置100は、入力画像中における所定の対象の占有率を出力する学習器LEを用いて、取得した画像における所定の対象の占有率を推定する情報処理装置である。また、検索装置100は、各画像におけるクエリに対応する対象のサイズに関する情報に基づいて、各画像のランキングを決定する決定装置である。   The search device 100 is an information processing device that estimates an occupancy ratio of a predetermined object in an acquired image using a learning device LE that outputs the occupancy ratio of the predetermined object in an input image. The search device 100 is a determination device that determines the ranking of each image based on information about the size of the target corresponding to the query in each image.

まず、図1を用いて、検索装置100による検索対象となる各画像における対象(猫)の占有率の推定について説明する。例えば、図1に示す画像IM11〜IM15等は、画像情報記憶部122(図5)に記憶される。以下では、画像IM11〜IM15等を区別せずに説明する場合、「画像IM」と記載する場合がある。   First, the estimation of the occupancy rate of the target (cat) in each image to be searched by the search device 100 will be described with reference to FIG. For example, the images IM11 to IM15 shown in FIG. 1 are stored in the image information storage unit 122 (FIG. 5). Hereinafter, when the images IM11 to IM15 and the like are described without being distinguished, they may be described as “image IM”.

例えば、検索装置100は、画像IMを学習器LEに入力することにより、画像IMにおける猫の占有率を推定する。具体的には、画像IMが入力された学習器LEは、入力された画像IMにおける猫の占有率を示す情報を出力し、検索装置100は、学習器LEが出力した画像IMにおける猫の占有率を示す情報に基づいて、画像IMにおける猫の占有率を推定する。画像IMが入力された学習器LEは、猫のみではなく、入力された画像IMにおける種々の対象の占有率を示す情報を出力する。図1及び図2では、説明を簡単にするために、猫と背景の2つのクラスの占有率のみを図示するが、学習器LEは、他のクラスに関する占有率を示す情報を出力してもよい。なお、ここでいうクラスとは、機械学習におけるクラスであり、学習器により分類される種別等であってもよい。例えば、学習器LEは、20個のクラスに関する占有率を示す情報を出力してもよい。この場合、学習器LEは、猫や背景に対応する2つのクラスに加えて、犬や飛行機や自転車等のクラスに関する占有率を示す情報を出力してもよい。なお、学習器LEが、どの対象(クラス)の占有率を示す情報を出力するかは、学習によるが詳細は後述する。   For example, the search device 100 inputs the image IM to the learning device LE to estimate the occupation ratio of the cat in the image IM. Specifically, the learning device LE to which the image IM is input outputs information indicating the occupancy ratio of the cat in the input image IM, and the search device 100 occupies the cat in the image IM output from the learning device LE. Based on the information indicating the rate, the occupation rate of the cat in the image IM is estimated. The learning device LE to which the image IM is input outputs information indicating the occupation rates of various objects in the input image IM as well as the cat. In FIG. 1 and FIG. 2, only the occupancy ratios of the two classes of cat and background are shown for simplicity of explanation, but the learning device LE may output information indicating the occupancy ratios of other classes. Good. The class here is a class in machine learning, and may be a type classified by a learning device. For example, the learning device LE may output information indicating occupancy rates for 20 classes. In this case, the learning device LE may output information indicating the occupancy rate for classes such as dogs, airplanes, and bicycles in addition to the two classes corresponding to the cat and the background. It should be noted that although the learning device LE outputs information indicating the occupancy rate of which object (class) depends on learning, details will be described later.

また、検索装置100は、検索対象となる全画像IMを学習器LEに入力することにより、画像IMにおける猫の占有率を推定してもよいが、対象である猫が含まれると想定される画像IMのみを学習器LEに入力して、画像IMにおける猫の占有率を示す情報を出力してもよい。例えば、検索装置100は、画像情報記憶部122(図5)中の画像IMのうち、タグ「猫」が対応付けられた画像IMのみを学習器LEに入力して、画像IMにおける猫の占有率を示す情報を出力してもよい。例えば、図1に示す画像IM11〜IM15等にタグ「猫」が対応付けられている場合、検索装置100は、画像IM11〜IM15等を学習器LEに入力して、画像IMにおける猫の占有率を示す情報を出力してもよい。   Further, the search device 100 may estimate the occupancy rate of cats in the image IM by inputting all the images IM to be searched to the learning device LE, but it is assumed that the target cat is included. Only the image IM may be input to the learning device LE, and information indicating the occupancy rate of the cat in the image IM may be output. For example, the search device 100 inputs only the image IM associated with the tag “cat” among the images IM in the image information storage unit 122 (FIG. 5) to the learning device LE, and occupies the cat in the image IM. Information indicating the rate may be output. For example, when the tag “cat” is associated with the images IM11 to IM15 and the like illustrated in FIG. 1, the search device 100 inputs the images IM11 to IM15 and the like to the learning device LE, and occupies the cats in the image IM. May be output.

図1の例では、検索装置100は、画像IM11を学習器LEに入力する(ステップS11−1)。例えば、検索装置100は、画像情報記憶部122(図5)から画像IM11を取得し、画像IM11を学習器LEに入力する。その後、検索装置100は、学習器LEの出力に基づいて、画像IM11における猫の占有率を推定する(ステップS12−1)。例えば、検索装置100は、推定情報OC11に示すように、学習器LEの出力に基づいて、画像IM11における猫の占有率を80%(0.8)と推定し、画像IM11における背景の占有率を18%(0.18)と推定する。例えば、検索装置100は、各対象(クラス)の占有率の合計が100%になるように各対象の占有率を推定する。例えば、検索装置100は、猫や背景以外の対象(クラス)の各々の占有率の合計が2%となるように推定する。なお、本実施形態においては、占有率を百分率「%」(例えば、80%等)で表記するが、小数点(例えば、0.8等)であってもよい。例えば、学習器LEは、各対象(クラス)の占有率を示す0〜1の範囲内の数値を出力してもよい。   In the example of FIG. 1, the search device 100 inputs the image IM11 to the learning device LE (step S11-1). For example, the search device 100 acquires the image IM11 from the image information storage unit 122 (FIG. 5), and inputs the image IM11 to the learning device LE. Thereafter, the search device 100 estimates the occupancy rate of the cat in the image IM11 based on the output of the learning device LE (step S12-1). For example, as shown in the estimation information OC11, the search device 100 estimates the occupancy rate of the cat in the image IM11 as 80% (0.8) based on the output of the learning device LE, and occupies the background rate in the image IM11. Is estimated to be 18% (0.18). For example, the search device 100 estimates the occupancy rate of each target so that the total occupancy rate of each target (class) is 100%. For example, the search device 100 estimates that the total occupancy rate of each target (class) other than a cat or background is 2%. In the present embodiment, the occupation ratio is expressed as a percentage “%” (for example, 80%), but may be a decimal point (for example, 0.8). For example, the learning device LE may output a numerical value within a range of 0 to 1 indicating the occupancy rate of each target (class).

また、図1の例では、検索装置100は、画像IM12を学習器LEに入力する(ステップS11−2)。例えば、検索装置100は、画像情報記憶部122(図5)から画像IM12を取得し、画像IM12を学習器LEに入力する。その後、検索装置100は、学習器LEの出力に基づいて、画像IM12における猫の占有率を推定する(ステップS12−2)。例えば、検索装置100は、推定情報OC12に示すように、学習器LEの出力に基づいて、画像IM12における猫の占有率を60%と推定し、画像IM12における背景の占有率を36%と推定する。   In the example of FIG. 1, the search device 100 inputs the image IM12 to the learning device LE (step S11-2). For example, the search device 100 acquires the image IM12 from the image information storage unit 122 (FIG. 5), and inputs the image IM12 to the learning device LE. Thereafter, the search device 100 estimates the occupancy rate of the cat in the image IM12 based on the output of the learning device LE (step S12-2). For example, as shown in the estimation information OC12, the search device 100 estimates the occupancy rate of the cat in the image IM12 as 60% and estimates the occupancy rate of the background in the image IM12 as 36% based on the output of the learning device LE. To do.

また、図1の例では、検索装置100は、画像IM13を学習器LEに入力する(ステップS11−3)。例えば、検索装置100は、画像情報記憶部122(図5)から画像IM13を取得し、画像IM13を学習器LEに入力する。その後、検索装置100は、学習器LEの出力に基づいて、画像IM13における猫の占有率を推定する(ステップS12−3)。例えば、検索装置100は、推定情報OC13に示すように、学習器LEの出力に基づいて、画像IM13における猫の占有率を20%と推定し、画像IM13における背景の占有率を75%と推定する。   In the example of FIG. 1, the search device 100 inputs the image IM13 to the learning device LE (step S11-3). For example, the search device 100 acquires the image IM13 from the image information storage unit 122 (FIG. 5), and inputs the image IM13 to the learning device LE. Thereafter, the search device 100 estimates the occupancy rate of the cat in the image IM13 based on the output of the learning device LE (step S12-3). For example, as shown in the estimation information OC13, the search device 100 estimates the occupancy rate of the cat in the image IM13 as 20% and estimates the occupancy rate of the background in the image IM13 as 75% based on the output of the learning device LE. To do.

また、図1の例では、検索装置100は、画像IM14を学習器LEに入力する(ステップS11−4)。例えば、検索装置100は、画像情報記憶部122(図5)から画像IM14を取得し、画像IM14を学習器LEに入力する。その後、検索装置100は、学習器LEの出力に基づいて、画像IM14における猫の占有率を推定する(ステップS12−4)。例えば、検索装置100は、推定情報OC14に示すように、学習器LEの出力に基づいて、画像IM14における猫の占有率を90%と推定し、画像IM14における背景の占有率を9%と推定する。   In the example of FIG. 1, the search device 100 inputs the image IM14 to the learning device LE (step S11-4). For example, the search device 100 acquires the image IM14 from the image information storage unit 122 (FIG. 5), and inputs the image IM14 to the learning device LE. Thereafter, the search device 100 estimates the occupancy rate of the cat in the image IM14 based on the output of the learning device LE (step S12-4). For example, as shown in the estimation information OC14, the search device 100 estimates the occupancy rate of the cat in the image IM14 as 90% and estimates the occupancy rate of the background in the image IM14 as 9% based on the output of the learning device LE. To do.

また、図1の例では、検索装置100は、画像IM15を学習器LEに入力する(ステップS11−5)。例えば、検索装置100は、画像情報記憶部122(図5)から画像IM15を取得し、画像IM15を学習器LEに入力する。その後、検索装置100は、学習器LEの出力に基づいて、画像IM15における猫の占有率を推定する(ステップS12−5)。例えば、検索装置100は、推定情報OC15に示すように、学習器LEの出力に基づいて、画像IM15における猫の占有率を70%と推定し、画像IM15における背景の占有率を27%と推定する。   In the example of FIG. 1, the search device 100 inputs the image IM15 to the learning device LE (step S11-5). For example, the search device 100 acquires the image IM15 from the image information storage unit 122 (FIG. 5), and inputs the image IM15 to the learning device LE. Thereafter, the search device 100 estimates the occupancy rate of the cat in the image IM15 based on the output of the learning device LE (step S12-5). For example, as shown in the estimation information OC15, the search device 100 estimates the occupancy rate of the cat in the image IM15 as 70% and estimates the occupancy rate of the background in the image IM15 as 27% based on the output of the learning device LE. To do.

また、検索装置100は、タグ「猫」が対応付けられた他の画像IMについても学習器LEに入力し、各画像IMにおける猫の占有率を推定する。その後、検索装置100は、推定した各画像IMにおける猫の占有率を示す一覧情報を生成する(ステップS13)。図1の例では、検索装置100は、画像IM11〜IM15等における猫の占有率を示す一覧情報LT11を生成する。なお、図1の例では、検索装置100が説明のために、一覧情報LT11を生成する場合を一例とするが、ステップS12−1〜S12−5等において推定した各画像IMにおける猫の占有率を示す情報を、各画像に対応付けて画像情報記憶部122(図5)に記憶してもよい。   The search device 100 also inputs other images IM associated with the tag “cat” to the learning device LE, and estimates the occupation ratio of the cats in each image IM. Thereafter, the search device 100 generates list information indicating the occupancy rate of cats in each estimated image IM (step S13). In the example of FIG. 1, the search device 100 generates list information LT11 indicating the occupation ratio of cats in the images IM11 to IM15 and the like. In the example of FIG. 1, the case where the search device 100 generates the list information LT11 is described as an example for the sake of explanation, but the occupancy rate of cats in each image IM estimated in steps S12-1 to S12-5 and the like. May be stored in the image information storage unit 122 (FIG. 5) in association with each image.

次に、図2を用いて、クエリを取得した場合における、検索装置100による検索結果の提供について説明する。まず、検索装置100は、ユーザU1が利用する端末装置10からクエリを取得する(ステップS14)。図2の例では、検索装置100は、クエリとして文字列「猫」を取得する。なお、検索装置100は、文字列に変えてクエリ画像を取得してもよい。クエリとして画像を取得した場合、検索装置100は、取得した画像を学習器LEに入力する。そして、検索装置100は、学習器LEの出力に基づいて、画像に含まれる対象を猫と推定してもよい。なお、ここでいうクエリ画像とは、検索において指定する条件を示す画像を意味し、クエリ画像との間において所定の条件を満たす画像を取り出すための処理の要求(問い合わせ)を含んでもよい。   Next, providing search results by the search device 100 when a query is acquired will be described with reference to FIG. First, the search device 100 acquires a query from the terminal device 10 used by the user U1 (step S14). In the example of FIG. 2, the search device 100 acquires a character string “cat” as a query. Note that the search device 100 may acquire a query image instead of a character string. When an image is acquired as a query, the search device 100 inputs the acquired image to the learning device LE. Then, the search device 100 may estimate the target included in the image as a cat based on the output of the learning device LE. The query image here means an image indicating a condition specified in the search, and may include a processing request (inquiry) for extracting an image satisfying a predetermined condition with the query image.

その後、検索装置100は、クエリ「猫」に対応する画像を抽出する。例えば、検索装置100は、画像情報記憶部122(図5参照)からタグ「猫」が付された画像IMを抽出する。その後、検索装置100は、クエリに対応する占有率情報を取得する。例えば、検索装置100は、占有率情報記憶部124からクエリ「猫」に対応する占有率情報を取得する。ここでいう占有率情報は、対象の検索結果としてユーザに提供された画像がユーザにより選択された場合に、その画像における対象の占有率に関する情報を示す。   Thereafter, the search device 100 extracts an image corresponding to the query “cat”. For example, the search device 100 extracts the image IM with the tag “cat” from the image information storage unit 122 (see FIG. 5). Thereafter, the search device 100 acquires occupancy information corresponding to the query. For example, the search device 100 acquires occupancy rate information corresponding to the query “cat” from the occupancy rate information storage unit 124. The occupancy rate information here indicates information related to the occupancy rate of the object in the image when the image provided to the user as a target search result is selected by the user.

例えば、図2中の占有率情報記憶部124に示すように、対象「猫」を含む画像は、画像における猫の占有率が0−20%である場合、クリック率順位が「5」位であり、最もクリック率が低いことを示す。例えば、0−20%は、0より大きく20以下の範囲を示すものとする。また、対象「猫」を含む画像は、画像における猫の占有率が20−40%である場合、クリック率順位が「3」位であることを示す。例えば、20−40%は、20より大きく40以下の範囲を示すものとする。   For example, as shown in the occupancy rate information storage unit 124 in FIG. 2, an image including the target “cat” has a click rate rank of “5” when the occupancy rate of the cat in the image is 0-20%. Yes, indicates the lowest click rate. For example, 0-20% indicates a range greater than 0 and 20 or less. An image including the target “cat” indicates that the click rate ranking is “3” when the occupancy rate of the cat in the image is 20-40%. For example, 20-40% indicates a range greater than 20 and 40 or less.

また、対象「猫」を含む画像は、画像における猫の占有率が40−60%である場合、クリック率順位が「2」位であることを示す。例えば、40−60%は、40より大きく60以下の範囲を示すものとする。また、対象「猫」を含む画像は、画像における猫の占有率が60−80%である場合、クリック率順位が「1」位であり、最もクリック率が高いことを示す。例えば、60−80%は、60より大きく80以下の範囲を示すものとする。また、対象「猫」を含む画像は、画像における猫の占有率が80−100%である場合、クリック率順位が「4」位であることを示す。例えば、80−100%は、80より大きく100以下の範囲を示すものとする。   An image including the target “cat” indicates that the click rate rank is “2” when the occupation ratio of the cat in the image is 40-60%. For example, 40-60% indicates a range greater than 40 and 60 or less. An image including the target “cat” has a click rate rank of “1” when the cat occupation ratio in the image is 60-80%, indicating that the click rate is the highest. For example, 60-80% indicates a range greater than 60 and 80 or less. An image including the target “cat” indicates that the click rate rank is “4” when the occupancy ratio of the cat in the image is 80-100%. For example, 80-100% indicates a range greater than 80 and 100 or less.

このように、図2の例では、対象「猫」を含む画像は、画像における猫の占有率が60−80%である場合、ユーザがクリックする確率が最も高いことを示す。すなわち、図2の例では、ユーザによるクリック率を指標とした場合、対象が「猫」である場合は、60−80%の範囲内が最適な占有率であるものとする。   Thus, in the example of FIG. 2, the image including the target “cat” indicates that the probability of the user clicking is the highest when the occupation ratio of the cat in the image is 60-80%. That is, in the example of FIG. 2, when the click rate by the user is used as an index, when the target is “cat”, the optimal occupation rate is within a range of 60-80%.

その後、検索装置100は、画像IMのランキングを決定する(ステップS15)。例えば、検索装置100は、ランキング情報LT12に示すように、最もクリック率順位が高い占有率の範囲である「60−80」%の範囲に含まれる画像IMのランキングが高くなるようにランキングを決定する。例えば、検索装置100は、60−80%の中央値「70%」の占有率である画像IM15を1位とし、画像IM15の次に「70%」に近い画像IM19を2位とし、画像IM19の次に「70%」に近い画像IM17を3位とし、画像IM17の次に「70%」に近い画像IM11を4位とする。   Thereafter, the search device 100 determines the ranking of the image IM (step S15). For example, as shown in the ranking information LT12, the search device 100 determines the ranking so that the ranking of the image IM included in the range of “60-80”%, which is the range of the occupation rate with the highest click rate ranking, is high. To do. For example, the search device 100 places the image IM15 having an occupancy of the median “70%” of 60-80% as the first place, places the image IM19 closest to “70%” next to the image IM15 as the second place, and sets the image IM19. Next, the image IM17 closest to “70%” is ranked third, and the image IM11 closest to “70%” next to the image IM17 is ranked fourth.

その後、検索装置100は、決定したランキングに基づいた検索結果をユーザU1に提供する(ステップS16)。図2の例では、検索装置100は、画像IM15を1位とし、画像IM19を2位とし、画像IM17を3位とし、画像IM11を4位とするランキングに基づいた表示順の検索結果をユーザU1が利用する端末装置10に提供する。例えば、検索装置100は、決定したランキングに基づいた検索結果をユーザU1が利用する端末装置10に送信する。   Thereafter, the search device 100 provides a search result based on the determined ranking to the user U1 (step S16). In the example of FIG. 2, the search device 100 displays search results in display order based on the ranking in which the image IM15 is ranked first, the image IM19 is ranked second, the image IM17 is ranked third, and the image IM11 is ranked fourth. Provided to the terminal device 10 used by U1. For example, the search device 100 transmits a search result based on the determined ranking to the terminal device 10 used by the user U1.

上述したように、検索装置100は、画像における対象の占有率を出力する学習器を用いることにより、画像に対象が含まれる態様、すなわち画像において対象がどれくらいの割合を占めるかを適切に推定することができる。また、検索装置100は、クエリを取得した場合に、そのクエリに対応する対象を含む画像に対するユーザ操作に関する情報に基づいて、画像のランキングを決定する。これにより、検索装置100は、クエリを取得した場合に、そのクエリに対応する対象を含む画像のランキングを適切に決定することができる。図2に示すように、検索装置100は、クエリに対応する対象を含む画像に対するクリック率順位に応じて、画像のランキングを決定することにより、ユーザの意図をより適切に反映した検索結果をユーザに提供することができる。なお、検索装置100は、占有率に関する情報に限らず種々の情報を適宜用いて画像のランキングを決定してもよい。例えば、検索装置100は、対象が鮮明に映っている画像のランキングが高くなるように、ランキングを決定してもよい。また、例えば、検索装置100は、画像の画質(ピクセル数)等に関する情報を加味して、ランキングを決定してもよい。   As described above, the search device 100 appropriately estimates the manner in which the target is included in the image, that is, the proportion of the target in the image, by using the learning device that outputs the occupation ratio of the target in the image. be able to. In addition, when the search device 100 acquires a query, the search device 100 determines the ranking of the image based on information related to a user operation on an image including an object corresponding to the query. Thereby, when the search device 100 acquires a query, the search device 100 can appropriately determine the ranking of the image including the target corresponding to the query. As illustrated in FIG. 2, the search device 100 determines the ranking of the image according to the click rate ranking for the image including the target corresponding to the query, thereby obtaining a search result that more appropriately reflects the user's intention. Can be provided. Note that the search device 100 may determine the ranking of images using various information as appropriate without being limited to the information related to the occupation ratio. For example, the search device 100 may determine the ranking so that the ranking of an image in which the target is clearly reflected is high. For example, the search device 100 may determine the ranking in consideration of information related to the image quality (number of pixels) of the image.

なお、上記例では、検索装置100がクエリ「猫」を対象として含む画像に対するユーザのクリック率に応じて画像のランキングを決定する例を示したが、検索装置100は、種々の情報を適宜用いてランキングを決定してもよい。検索装置100は、対象の占有率を1つの素性として、他の種々の素性と各々の重みとに基づいて画像のランキングを決定してもよい。例えば、検索装置100は、各画像のクリック率やユーザごとのクリック率等を加味して、画像のランキングを決定してもよい。また、上記例では、検索装置100が対象ごとのクリック率に基づいてランキングを決定する場合を示したが、検索装置100は、カテゴリごとのクリック率に基づいてランキングを決定してもよい。例えば、検索装置100は、対象「猫」を含む画像のランキングを決定する場合、例えばカテゴリ「動物」に属する対象全体のクリック率に基づいて、ランキングを決定してもよい。例えば、検索装置100は、対象「猫」を含む画像のランキングを決定する場合、犬や馬等の猫以外の対象を含むカテゴリ「動物」に属する対象全体のクリック率に基づいて、ランキングを決定してもよい。これにより、検索装置100は、猫の画像に対するユーザ操作に関する情報が少ない場合であっても、ランキングを適切に決定することができる。   In the above example, the search device 100 determines the ranking of the image according to the click rate of the user with respect to the image including the query “cat”, but the search device 100 uses various information as appropriate. You may decide the ranking. The search apparatus 100 may determine the ranking of the image based on other various features and respective weights, with the occupation ratio of the object as one feature. For example, the search device 100 may determine the ranking of images in consideration of the click rate of each image, the click rate for each user, and the like. Moreover, although the case where the search device 100 determines the ranking based on the click rate for each target has been described in the above example, the search device 100 may determine the ranking based on the click rate for each category. For example, when determining the ranking of the image including the target “cat”, the search device 100 may determine the ranking based on, for example, the click rate of the entire target belonging to the category “animal”. For example, when determining the ranking of an image including the target “cat”, the search device 100 determines the ranking based on the click rate of the entire target belonging to the category “animal” including targets other than cats such as dogs and horses. May be. Accordingly, the search device 100 can appropriately determine the ranking even when there is little information regarding the user operation on the cat image.

また、例えば、検索装置100は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザに選択された画像に含まれる対象の占有率の平均を用いて、画像のランキングを決定してもよい。例えば、検索装置100は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザにクリックされた各画像に含まれる複数の対象の占有率の分布に基づいて、画像のランキングを決定してもよい。例えば、検索装置100は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザにクリックされた全画像の複数の対象の占有率の平均の分布(以下、「最適分布」とする)を、クエリ「猫」に対応する画像の最適値として、画像のランキングを決定してもよい。また、例えば、検索装置100は、学習により画像における各対象の占有率の最適値を推定するモデルを生成してもよい。この場合、検索装置100は、モデルにより推定される対象の占有率の最適値に基づいて、画像のランキングを決定してもよい。また、検索装置100は、クリック率順位が「1」〜「5」位の占有率に対応する画像が繰り返し並ぶようにランキングを決定してもよい。例えば、検索装置100は、占有率60−80%に対応する画像のランキングを1位や6位等とし、占有率40−60%に対応する画像のランキングを2位や7位等とし、占有率20−40%に対応する画像のランキングを3位や8位等とし、占有率80−100%に対応する画像のランキングを4位や9位等とし、占有率0−20%に対応する画像のランキングを5位や10位等としてもよい。この場合、検索装置100は、連続する順位の画像の占有率が変動するようにランキングを決定することができる。これにより、検索装置100は、多様な占有率の画像が並ぶように画像のランキングを決定することができる。   Further, for example, the search device 100 determines the ranking of the image using the average of the occupancy ratios of the objects included in the image selected by the user as search results corresponding to the query “cat” in the past. May be. For example, the search device 100 provides the user with a search result corresponding to the query “cat” in the past, and ranks the images based on the distribution of the occupancy rates of a plurality of objects included in each image clicked by the user. You may decide. For example, the search device 100 is provided to the user as a search result corresponding to the query “cat” in the past, and the average distribution of the occupancy ratios of a plurality of objects clicked by the user (hereinafter referred to as “optimal distribution”). ) May be determined as the optimum value of the image corresponding to the query “cat”. Further, for example, the search device 100 may generate a model that estimates the optimum value of the occupancy rate of each object in the image by learning. In this case, the search device 100 may determine the ranking of the image based on the optimum value of the occupation rate of the target estimated by the model. Further, the search device 100 may determine the ranking so that images corresponding to the occupation ratios of the click rate ranks “1” to “5” are repeatedly arranged. For example, the search apparatus 100 sets the ranking of images corresponding to the occupation ratio of 60-80% to the first and sixth ranks, and ranks the images corresponding to the occupation ratio of 40-60% to the second and seventh ranks. The ranking of images corresponding to the rate 20-40% is 3rd or 8th, etc. The ranking of images corresponding to the occupation rate 80-100% is 4th or 9th, etc., corresponding to the occupation rate 0-20% The ranking of the image may be 5th or 10th. In this case, the search device 100 can determine the ranking so that the occupancy ratio of images having consecutive ranks varies. Thereby, the search apparatus 100 can determine the ranking of images so that images with various occupation ratios are arranged.

例えば、検索装置100は、画像情報記憶部122(図5参照)から抽出したクエリ「猫」に対応する各画像に含まれる複数の対象の占有率の分布と、最適分布とのKLダイバージェンス等の指標値に基づいて画像のランキングを決定してもよい。例えば、検索装置100は、クエリ「猫」に対応する各画像に含まれる複数の対象の占有率の分布と、最適分布とのKLダイバージェンスの値が小さい程、画像のランキングを高く決定してもよい。なお、検索装置100は、KLダイバージェンスに限らず、各画像における分布の類似度に基づく指標値であれば、種々の指標値を適宜用いて、画像のランキングを決定してもよい。   For example, the search device 100 can determine the KL divergence between the distribution of the occupancy ratio of a plurality of targets included in each image corresponding to the query “cat” extracted from the image information storage unit 122 (see FIG. 5), and the optimal distribution. Image ranking may be determined based on the index value. For example, the search device 100 may determine a higher image ranking as the KL divergence value between the distribution of the occupancy ratio of the plurality of objects included in each image corresponding to the query “cat” and the optimal distribution is smaller. Good. Note that the search device 100 is not limited to KL divergence, and the index ranking may be determined by appropriately using various index values as long as the index value is based on the similarity of distribution in each image.

また、上述した例では、検索装置100が1つの学習器LEを用いる場合を示したが、検索装置100は、対象ごとに学習器を使い分けてもよい。例えば、検索装置100は、犬を対象とする学習器を、猫を対象とする学習器と別に用いてもよい。また、上述した例では、クエリの入力に対する画像検索における画像のランキングの決定に対象の占有率に関する情報を用いる場合を示したが、対象の占有率に関する情報を利用可能であれば、どのようなサービスにおいて対象の占有率に関する情報を用いてもよい。例えば、検索装置100は、電子商取引等における商品の表示順(ランキング)の決定に対象の占有率に関する情報を用いてもよい。えば、検索装置100は、ショッピングサイト等における商品の検索結果の表示順(ランキング)の決定に対象の占有率に関する情報を用いてもよい。例えば、検索装置100は、対象である商品が大きく映っている、すなわち商品の占有率が大きい画像のランキングが高くなるように、ランキングを決定してもよい。例えば、検索装置100は、対象である商品以外の他の対象が映っていない画像のランキングが高くなるように、ランキングを決定してもよい。   Moreover, although the case where the search device 100 uses one learning device LE is shown in the above-described example, the search device 100 may use a learning device for each target. For example, the search device 100 may use a learning device for a dog separately from a learning device for a cat. Further, in the above-described example, the case where the information regarding the target occupancy is used for determining the ranking of the image in the image search with respect to the input of the query is shown. However, any information regarding the target occupancy can be used. Information regarding the occupation rate of the target may be used in the service. For example, the search device 100 may use information regarding the occupancy rate of the object in determining the display order (ranking) of products in electronic commerce or the like. For example, the search device 100 may use information regarding the target occupancy rate in determining the display order (ranking) of the search results of the products on a shopping site or the like. For example, the search device 100 may determine the ranking so that the ranking of an image in which a target product is large, that is, an image with a large occupancy rate of the product is high. For example, the search device 100 may determine the ranking so that the ranking of images in which other objects other than the target product are not reflected is high.

〔2.検索装置の構成〕
次に、図3を用いて、実施形態に係る検索装置100の構成について説明する。図3は、実施形態に係る検索装置100の構成例を示す図である。図3に示すように、検索装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、検索装置100は、検索装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. (Configuration of search device)
Next, the configuration of the search device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the search device 100 according to the embodiment. As illustrated in FIG. 3, the search device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The search device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the search device 100 and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば検索システム1に含まれる端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information to and from the terminal device 10 included in the search system 1, for example.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、学習情報記憶部121と、画像情報記憶部122と、一覧情報記憶部123と、占有率情報記憶部124とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 3, the storage unit 120 according to the embodiment includes a learning information storage unit 121, an image information storage unit 122, a list information storage unit 123, and an occupation rate information storage unit 124.

(学習情報記憶部121)
実施形態に係る学習情報記憶部121は、学習に関する各種情報を記憶する。例えば、図4では、学習情報記憶部121は、所定の学習処理により生成された学習器LEに関する学習情報(モデル)を記憶する。図4に、実施形態に係る学習情報記憶部121の一例を示す。図4に示す学習情報記憶部121は、「重み(wij)」を記憶する。
(Learning information storage unit 121)
The learning information storage unit 121 according to the embodiment stores various types of information related to learning. For example, in FIG. 4, the learning information storage unit 121 stores learning information (model) related to the learning device LE generated by a predetermined learning process. FIG. 4 shows an example of the learning information storage unit 121 according to the embodiment. The learning information storage unit 121 illustrated in FIG. 4 stores “weight (w ij )”.

例えば、図4に示す例において、「重み(w11)」は「0.2」であり、「重み(w12)」は「−0.3」であることを示す。また、図4に示す例において、「重み(w21)」は「0.5」であり、「重み(w22)」は「1.3」であることを示す。 For example, in the example illustrated in FIG. 4, “weight (w 11 )” is “0.2”, and “weight (w 12 )” is “−0.3”. In the example illustrated in FIG. 4, “weight (w 21 )” is “0.5”, and “weight (w 22 )” is “1.3”.

なお、「重み(wij)」は、例えば、学習器LEにおけるニューロンyからニューロンxへのシナプス結合係数であってもよい。また、学習情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、検索装置100は、対象ごとに学習器を使い分ける場合、複数の学習器に関する情報を記憶してもよい。例えば、検索装置100は、犬を対象とする学習器を、猫を対象とする学習器と別に用いる場合、犬を対象とする学習器に関する情報も記憶してもよい。 The “weight (w ij )” may be, for example, a synapse coupling coefficient from the neuron y i to the neuron x j in the learning device LE. The learning information storage unit 121 is not limited to the above, and may store various types of information according to the purpose. Moreover, the search apparatus 100 may memorize | store the information regarding a some learning device, when using the learning device properly for every object. For example, when using a learning device for a dog separately from a learning device for a cat, the search device 100 may also store information related to the learning device for the dog.

(画像情報記憶部122)
実施形態に係る画像情報記憶部122は、画像に関する各種情報を記憶する。図5に、実施形態に係る画像情報記憶部122の一例を示す。例えば、画像情報記憶部122には、検索対象となる画像が記憶される。図5に示す画像情報記憶部122は、「画像ID」、「画像」、「タグ」といった項目を有する。
(Image information storage unit 122)
The image information storage unit 122 according to the embodiment stores various types of information related to images. FIG. 5 shows an example of the image information storage unit 122 according to the embodiment. For example, the image information storage unit 122 stores an image to be searched. The image information storage unit 122 illustrated in FIG. 5 includes items such as “image ID”, “image”, and “tag”.

「画像ID」は、画像を識別するための識別情報を示す。「画像」は、画像情報を示す。具体的には、「画像」は、検索対象となる画像を示す。図5では、説明のため画像IDにより識別される画像を図示するが、「画像」としては、画像の格納場所を示すファイルパス名などが格納されてもよい。「タグ」は、画像に対応付けて付される情報であり、画像に含まれる対象を示す。   “Image ID” indicates identification information for identifying an image. “Image” indicates image information. Specifically, “image” indicates an image to be searched. In FIG. 5, an image identified by the image ID is illustrated for explanation, but a file path name indicating the storage location of the image may be stored as “image”. “Tag” is information attached in association with an image, and indicates a target included in the image.

例えば、図5に示す例において、画像ID「IM11」により識別される画像は、猫を含む画像IM11であり、タグ「猫」が対応付けて記憶されることを示す。なお、各画像に付されるタグは、画像を登録する管理者等が付してもよいし、画像認識の種々の技術を適宜用いて対象を識別することにより、自動で付されてもよい。   For example, in the example illustrated in FIG. 5, the image identified by the image ID “IM11” is the image IM11 including a cat, and indicates that the tag “cat” is associated and stored. Note that a tag attached to each image may be attached by an administrator who registers the image, or may be automatically attached by identifying a target using various image recognition techniques as appropriate. .

なお、画像情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、画像情報記憶部122は、画像を生成した日時に関する情報を記憶してもよい。また、例えば、画像情報記憶部122は、画像に含まれる対象に関する情報を記憶してもよい。また、例えば、画像情報記憶部122は、取得した元となる画像を記憶してもよい。   The image information storage unit 122 is not limited to the above, and may store various types of information according to the purpose. For example, the image information storage unit 122 may store information related to the date and time when the image is generated. Further, for example, the image information storage unit 122 may store information related to a target included in the image. For example, the image information storage unit 122 may store the acquired original image.

(一覧情報記憶部123)
実施形態に係る一覧情報記憶部123は、画像における対象の占有率等に関する各種情報を記憶する。例えば、一覧情報記憶部123は、対象ごとに画像における対象の占有率等に関する各種情報を記憶する。図6は、実施形態に係る一覧情報記憶部の一例を示す図である。図6に示す例においては、一覧情報記憶部123は、一覧情報LT11や一覧情報LT21といった含まれる対象ごとに情報(テーブル)を記憶する。例えば、一覧情報LT11や一覧情報LT21は、「画像ID」や「占有率(%)」といった項目を有する。
(List information storage unit 123)
The list information storage unit 123 according to the embodiment stores various types of information related to the occupancy ratio of objects in the image. For example, the list information storage unit 123 stores various types of information regarding the occupancy rate of the object in the image for each object. FIG. 6 is a diagram illustrating an example of the list information storage unit according to the embodiment. In the example illustrated in FIG. 6, the list information storage unit 123 stores information (table) for each target that is included, such as the list information LT11 and the list information LT21. For example, the list information LT11 and the list information LT21 have items such as “image ID” and “occupancy (%)”.

「画像ID」は、画像を識別するための識別情報を示す。「画像」は、画像情報を示す。一覧情報LT11の「占有率(%)」には、「猫」や「背景」といった項目が含まれる。また、一覧情報LT21の「占有率(%)」には、「犬」や「背景」といった項目が含まれる。   “Image ID” indicates identification information for identifying an image. “Image” indicates image information. The “occupation rate (%)” of the list information LT11 includes items such as “cat” and “background”. Further, “occupation rate (%)” of the list information LT21 includes items such as “dog” and “background”.

例えば、図6中の一覧情報LT11に示すように、画像ID「IM11」により識別される画像(IM11)は、対象「猫」の占有率が「80」%であり、対象「背景」の占有率が「18」%であることを示す。また、例えば、図6中の一覧情報LT11に示すように、画像ID「IM12」により識別される画像(IM12)は、対象「猫」の占有率が「60」%であり、対象「背景」の占有率が「36」%であることを示す。   For example, as shown in the list information LT11 in FIG. 6, the image (IM11) identified by the image ID “IM11” has the occupation rate of the target “cat” is “80”% and the occupation of the target “background” The rate is “18”%. For example, as shown in the list information LT11 in FIG. 6, the image (IM12) identified by the image ID “IM12” has an occupancy rate of “60”% for the target “cat” and the target “background”. Indicates that the occupation ratio is “36”%.

なお、一覧情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、一覧情報記憶部123は、対象の画像における位置に関する情報を記憶してもよい。例えば、一覧情報記憶部123は、対象が画像の中央、上、下、右、左、全体等のどの部分に位置するかに関する種々の情報を記憶してもよい。例えば、一覧情報記憶部123は、各画像IDに対応する画像や画像の格納場所を示すファイルパス名などを記憶してもよい。また、図6の例では、一覧情報記憶部123は、一覧情報LT11や一覧情報LT21といったように、対象ごとにテーブルを分けて記憶する場合を示したが、対象の占有率等に関する各種情報を1つのテーブルに記憶してもよい。例えば、一覧情報記憶部123は、「占有率(%)」に全対象の項目を含ませることにより、1つのテーブルに記憶してもよい。   The list information storage unit 123 is not limited to the above, and may store various types of information according to the purpose. For example, the list information storage unit 123 may store information regarding the position in the target image. For example, the list information storage unit 123 may store various pieces of information regarding which part of the image is located in the center, top, bottom, right, left, whole, or the like. For example, the list information storage unit 123 may store an image corresponding to each image ID, a file path name indicating the storage location of the image, and the like. In the example of FIG. 6, the list information storage unit 123 shows a case where the table is divided and stored for each target such as the list information LT11 and the list information LT21. You may memorize | store in one table. For example, the list information storage unit 123 may store all items in “occupation rate (%)” in one table.

(占有率情報記憶部124)
実施形態に係る占有率情報記憶部124は、画像における対象の占有率等に関する各種情報を記憶する。例えば、占有率情報記憶部124は、対象ごとに占有率の最適値に関する各種情報を記憶する。図7は、実施形態に係る占有率情報記憶部の一例を示す図である。図7に示す例においては、占有率情報記憶部124は、「対象」、「占有率(%)」、「クリック率順位」といった項目を有する。
(Occupancy rate information storage unit 124)
The occupancy rate information storage unit 124 according to the embodiment stores various types of information regarding the occupancy rate of the target in the image. For example, the occupancy rate information storage unit 124 stores various types of information related to the optimal value of the occupancy rate for each target. FIG. 7 is a diagram illustrating an example of the occupation rate information storage unit according to the embodiment. In the example illustrated in FIG. 7, the occupation rate information storage unit 124 includes items such as “target”, “occupation rate (%)”, and “click rate ranking”.

「対象」は、対象を識別するための情報を示す。「対象」には、対象を識別するためのIDが記憶されてもよい。「占有率(%)」は、占有率の範囲を示す。「クリック率順位」は、占有率の各範囲に対応するクリック率の順位を示す。   “Target” indicates information for identifying a target. In “target”, an ID for identifying the target may be stored. “Occupancy rate (%)” indicates the range of the occupation rate. “Click rate ranking” indicates the ranking of the click rate corresponding to each range of the occupation rate.

例えば、図7に示す例において、対象「猫」を含む画像は、画像における猫の占有率が「0−20」(%)である場合、クリック率順位が「5」位であり、最もクリック率が低いことを示す。また、対象「猫」を含む画像は、画像における猫の占有率が「20−40」(%)である場合、クリック率順位が「3」位であることを示す。また、対象「猫」を含む画像は、画像における猫の占有率が「40−60」(%)である場合、クリック率順位が「2」位であることを示す。また、対象「猫」を含む画像は、画像における猫の占有率が「60−80」(%)である場合、クリック率順位が「1」位であり、最もクリック率が高いことを示す。また、対象「猫」を含む画像は、画像における猫の占有率が「80−100」(%)である場合、クリック率順位が「4」位であることを示す。   For example, in the example shown in FIG. 7, an image including the target “cat” has a click rate rank of “5” when the occupancy rate of the cat in the image is “0-20” (%), and is most clicked. The rate is low. An image including the target “cat” indicates that the click rate ranking is “3” when the occupation ratio of the cat in the image is “20-40” (%). An image including the target “cat” indicates that the click rate rank is “2” when the occupation ratio of the cat in the image is “40-60” (%). An image including the target “cat” has a click rate rank of “1” when the cat occupation ratio in the image is “60-80” (%), indicating that the click rate is the highest. An image including the target “cat” indicates that the click rate ranking is “4” when the occupation ratio of the cat in the image is “80-100” (%).

なお、占有率情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、占有率情報記憶部124は、ユーザにクリックされた画像とその画像における対象の占有率を対応付けた情報を記憶してもよい。   Note that the occupation rate information storage unit 124 is not limited to the above, and may store various types of information according to the purpose. For example, the occupation rate information storage unit 124 may store information in which the image clicked by the user is associated with the occupation rate of the target in the image.

(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、検索装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 is a controller, and is stored in a storage device inside the search device 100 by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs (corresponding to an example of a determination program) are implemented by using the RAM as a work area. The control unit 130 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図3に示すように、制御部130は、取得部131と、学習部132と、推定部133と、抽出部134と、決定部135と、提供部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。   As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, a learning unit 132, an estimation unit 133, an extraction unit 134, a determination unit 135, and a provision unit 136. Information described below Implement or execute a processing function or action.

(取得部131)
例えば、取得部131は、各種情報を取得する。例えば、取得部131は、画像を取得する。例えば、取得部131は、画像情報記憶部122から画像を取得する。図1では、取得部131は、画像情報記憶部122から画像IM11〜IM15等を取得する。なお、取得部131は、外部の情報処理装置から画像IM11〜IM15等を取得してもよい。
(Acquisition part 131)
For example, the acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires an image. For example, the acquisition unit 131 acquires an image from the image information storage unit 122. In FIG. 1, the acquisition unit 131 acquires the images IM11 to IM15 and the like from the image information storage unit 122. Note that the acquisition unit 131 may acquire the images IM11 to IM15 and the like from an external information processing apparatus.

また、取得部131は、画像検索におけるクエリを取得する。図2では、取得部131は、ユーザU1が利用する端末装置10からクエリを取得する。図2では、取得部131は、クエリとして文字列「猫」を取得する。例えば、取得部131は、文字列に変えてクエリ画像を取得してもよい。   The acquisition unit 131 acquires a query for image search. In FIG. 2, the acquisition unit 131 acquires a query from the terminal device 10 used by the user U1. In FIG. 2, the acquisition unit 131 acquires a character string “cat” as a query. For example, the acquisition unit 131 may acquire a query image instead of a character string.

(学習部132)
学習部132は、種々の情報を学習する。また、学習部132は、学習により種々の情報を生成する。例えば、学習部132は、学習器(モデル)を学習する。言い換えると、学習部132は、学習を行うことにより学習器(モデル)を生成する。例えば、学習部132は、学習器LEを学習する。例えば、学習部132は、画像と当該画像における所定の対象の占有率との組み合わせにより学習器を学習する。また、学習部132は、所定の評価関数を最小化するように学習器を学習する。なお、学習部132が行う学習処理の詳細は後述する。
(Learning unit 132)
The learning unit 132 learns various information. The learning unit 132 generates various information by learning. For example, the learning unit 132 learns a learning device (model). In other words, the learning unit 132 generates a learning device (model) by performing learning. For example, the learning unit 132 learns the learning device LE. For example, the learning unit 132 learns a learning device based on a combination of an image and an occupation ratio of a predetermined target in the image. The learning unit 132 learns the learning device so as to minimize a predetermined evaluation function. Details of the learning process performed by the learning unit 132 will be described later.

(推定部133)
推定部133は、各種情報を推定する。例えば、推定部133は、入力画像に応じて当該入力画像中における所定の対象の占有率を出力する学習器と、取得部131により取得された画像とに基づいて、取得部131により取得された画像における所定の対象の占有率を推定する。例えば、推定部133は、所定のデータ(教師データ)により学習されたニューラルネットワークである学習器に基づいて、取得部131により取得された画像における所定の対象の占有率を推定する。例えば、推定部133は、画像と当該画像中における所定の対象の占有率との組み合わせにより学習されたニューラルネットワークである学習器に基づいて、取得部131により取得された画像における所定の対象の占有率を推定する。例えば、推定部133は、畳み込み処理及びプーリング処理を行うニューラルネットワークである学習器に基づいて、取得部131により取得された画像における所定の対象の占有率を推定する。
(Estimation unit 133)
The estimation unit 133 estimates various information. For example, the estimation unit 133 is acquired by the acquisition unit 131 based on a learning device that outputs an occupation ratio of a predetermined target in the input image according to the input image and an image acquired by the acquisition unit 131. Estimate the occupancy of a given object in the image. For example, the estimation unit 133 estimates the occupancy rate of a predetermined target in the image acquired by the acquisition unit 131 based on a learning device that is a neural network learned from predetermined data (teacher data). For example, the estimation unit 133 occupies the predetermined object in the image acquired by the acquisition unit 131 based on a learning device that is a neural network learned by a combination of the image and the occupation ratio of the predetermined object in the image. Estimate the rate. For example, the estimation unit 133 estimates an occupancy ratio of a predetermined target in the image acquired by the acquisition unit 131 based on a learning device that is a neural network that performs convolution processing and pooling processing.

図1では、推定部133は、画像IMを学習器LEに入力することにより、画像IMにおける猫の占有率を推定する。具体的には、画像IMが入力された学習器LEは、入力された画像IMにおける猫の占有率を示す情報を出力し、推定部133は、学習器LEが出力した画像IMにおける猫の占有率を示す情報に基づいて、画像IMにおける猫の占有率を推定する。例えば、推定部133は、学習器LEの出力に基づいて、画像IM11における猫の占有率を推定する。図1では、推定部133は、推定情報OC11に示すように、学習器LEの出力に基づいて、画像IM11における猫の占有率を80%と推定し、画像IM11における背景の占有率を18%と推定する。また、図1では、推定部133は、学習器LEの出力に基づいて、画像IM12〜IM15等における猫の占有率を推定する。例えば、推定部133は、タグ「猫」が対応付けられた画像IMを学習器LEに入力することにより、各画像IMにおける猫の占有率を推定する。   In FIG. 1, the estimation unit 133 estimates the occupancy rate of the cat in the image IM by inputting the image IM to the learning device LE. Specifically, the learning device LE to which the image IM is input outputs information indicating the occupancy rate of the cat in the input image IM, and the estimation unit 133 occupies the cat in the image IM output from the learning device LE. Based on the information indicating the rate, the occupation rate of the cat in the image IM is estimated. For example, the estimation unit 133 estimates the occupancy rate of the cat in the image IM11 based on the output of the learning device LE. In FIG. 1, the estimation unit 133 estimates the occupancy rate of the cat in the image IM11 as 80% based on the output of the learning device LE as shown in the estimation information OC11, and the occupancy rate of the background in the image IM11 as 18%. Estimated. Moreover, in FIG. 1, the estimation part 133 estimates the occupancy rate of the cat in image IM12-IM15 etc. based on the output of the learning device LE. For example, the estimation unit 133 estimates the occupancy of the cat in each image IM by inputting the image IM associated with the tag “cat” to the learning device LE.

なお、検索装置100が一覧情報記憶部123に記憶される占有率に関する情報を外部の情報処理装置から取得する場合は、検索装置100は、学習部132や推定部133を有しなくてもよい。すなわち、クエリに対して検索結果を提供する検索装置100と、学習処理等を行う情報処理装置とは、別体であってもよい。   Note that when the search device 100 acquires information on the occupation ratio stored in the list information storage unit 123 from an external information processing device, the search device 100 may not include the learning unit 132 or the estimation unit 133. . That is, the search device 100 that provides a search result for a query and the information processing device that performs a learning process or the like may be separate.

(抽出部134)
抽出部134は、種々の情報を抽出する。例えば、抽出部134は、画像情報記憶部122や一覧情報記憶部123から画像に関する情報を抽出する。例えば、抽出部134は、画像情報記憶部122や一覧情報記憶部123に記憶された所定の画像群から条件を満たす画像を抽出する。図2では、抽出部134は、クエリ「猫」に対応する画像を抽出する。
(Extractor 134)
The extraction unit 134 extracts various information. For example, the extraction unit 134 extracts information about an image from the image information storage unit 122 or the list information storage unit 123. For example, the extraction unit 134 extracts an image that satisfies a condition from a predetermined image group stored in the image information storage unit 122 or the list information storage unit 123. In FIG. 2, the extraction unit 134 extracts an image corresponding to the query “cat”.

(決定部135)
決定部135は、種々の情報を決定する。例えば、決定部135は、各画像におけるクエリに対応する対象のサイズに関する情報に基づいて、各画像のランキングを決定する。例えば、決定部135は、各画像における対象のサイズに関する情報と、各画像のサイズに関する情報とに基づく各画像における対象の占有率に関する情報に応じて、各画像のランキングを決定する。例えば、決定部135は、対象に応じて変動する占有率に関する情報に基づいて、各画像のランキングを決定する。例えば、決定部135は、推定部133により推定された複数の画像の各々におけるクエリに対応する対象の占有率に基づいて、複数の画像のランキングを決定する。
(Determining unit 135)
The determination unit 135 determines various information. For example, the determination unit 135 determines the ranking of each image based on information regarding the size of the target corresponding to the query in each image. For example, the determination unit 135 determines the ranking of each image according to information regarding the object occupancy ratio in each image based on information regarding the size of the object in each image and information regarding the size of each image. For example, the determination unit 135 determines the ranking of each image based on information regarding the occupation ratio that varies depending on the target. For example, the determination unit 135 determines the ranking of the plurality of images based on the occupancy rate of the target corresponding to the query in each of the plurality of images estimated by the estimation unit 133.

例えば、決定部135は、対象に応じて変動する占有率に関する情報に基づいて、各画像のランキングを決定する。例えば、決定部135は、対象の検索結果としてユーザに提供された画像であって、ユーザにより選択された画像における対象の占有率に応じて決定される占有率に関する情報に基づいて、各画像のランキングを決定する。   For example, the determination unit 135 determines the ranking of each image based on information regarding the occupation ratio that varies depending on the target. For example, the determination unit 135 is an image provided to the user as a target search result, and is based on information about the occupancy rate determined according to the occupancy rate of the object in the image selected by the user. Determine the ranking.

図2では、決定部135は、画像IMのランキングを決定する。例えば、決定部135は、最もクリック率順位が高い占有率の範囲である「60−80」%の範囲に含まれる画像IMのランキングが高くなるようにランキングを決定する。例えば、決定部135は、「60−80」%の範囲の中央値「70%」の占有率である画像IM15を1位とし、画像IM15の次に「70%」に近い画像IM19を2位とし、画像IM19の次に「70%」に近い画像IM17を3位とし、画像IM17の次に「70%」に近い画像IM11を4位とする。   In FIG. 2, the determination unit 135 determines the ranking of the image IM. For example, the determination unit 135 determines the ranking so that the ranking of the image IM included in the range of “60-80”%, which is the occupancy range with the highest click rate ranking, is high. For example, the determination unit 135 sets the image IM15 having the median value “70%” in the range of “60-80”% as the first position and the image IM19 closest to “70%” next to the image IM15 as the second position. The image IM17 closest to “70%” next to the image IM19 is ranked third, and the image IM11 closest to “70%” next to the image IM17 is ranked fourth.

また、例えば、決定部135は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザに選択された画像に含まれる対象の占有率の平均を用いて、画像のランキングを決定してもよい。例えば、決定部135は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザにクリックされた各画像に含まれる複数の対象の占有率の分布に基づいて、画像のランキングを決定してもよい。例えば、決定部135は、過去にクエリ「猫」に対応する検索結果としてユーザに提供され、ユーザにクリックされた全画像の複数の対象の占有率の平均の分布である最適分布を、クエリ「猫」に対応する画像の最適値として、画像のランキングを決定してもよい。   Further, for example, the determination unit 135 determines the ranking of the image using the average of the occupancy ratios of the objects included in the image selected by the user as search results corresponding to the query “cat” in the past. May be. For example, the determination unit 135 provides the ranking of the images based on the distribution of the occupancy ratios of a plurality of objects provided to the user as search results corresponding to the query “cat” in the past and included in each image clicked by the user. You may decide. For example, the determination unit 135 provides an optimal distribution, which is an average distribution of the occupancy ratios of a plurality of objects of all images clicked by the user as search results corresponding to the query “cat” in the past. Image ranking may be determined as the optimum value of the image corresponding to “cat”.

例えば、決定部135は、画像情報記憶部122から抽出したクエリ「猫」に対応する各画像に含まれる複数の対象の占有率の分布と、最適分布とのKLダイバージェンス等の指標値に基づいて画像のランキングを決定してもよい。例えば、決定部135は、クエリ「猫」に対応する各画像に含まれる複数の対象の占有率の分布と、最適分布とのKLダイバージェンスの値が小さい程、画像のランキングを高く決定してもよい。なお、決定部135は、KLダイバージェンスに限らず、各画像における分布の類似度に基づく指標値であれば、種々の指標値を適宜用いて、画像のランキングを決定してもよい。   For example, the determination unit 135 is based on an index value such as KL divergence between the distribution of the occupation ratio of a plurality of targets included in each image corresponding to the query “cat” extracted from the image information storage unit 122 and the optimal distribution. Image ranking may be determined. For example, the determination unit 135 may determine the higher the ranking of the image as the KL divergence value between the distribution of the occupation ratio of the plurality of objects included in each image corresponding to the query “cat” and the optimal distribution is smaller. Good. Note that the determination unit 135 is not limited to KL divergence, and may use various index values to determine the ranking of images as long as the index value is based on the similarity of distribution in each image.

例えば、決定部135は、画像の各々のランキングにおける画像の各々の占有率の差に応じて、画像の各々のランキングを決定してもよい。例えば、決定部135は、画像の各々のランキングにおいて連続する画像の各々の占有率の差が所定の条件を満たすように、画像の各々のランキングを決定してもよい。例えば、決定部135は、連続するランキング間の画像IMにおける対象の占有率の差が5%以上になるように、画像のランキングを決定してもよい。例えば、決定部135は、ランキングが1位の画像IMにおける猫の占有率が「70」%である場合、ランキングが2位の画像IMにおける猫の占有率が「75」%より大きいか、または「65」%未満となるようにランキングが2位の画像IMを決定してもよい。   For example, the determination unit 135 may determine the ranking of each image according to the difference in the occupation ratio of each image in each ranking of the image. For example, the determination unit 135 may determine the ranking of each image so that the difference in the occupancy rate of each successive image in each ranking of the image satisfies a predetermined condition. For example, the determination unit 135 may determine the ranking of the images so that the difference in the occupancy rate of the object in the image IM between successive rankings is 5% or more. For example, when the occupancy rate of the cat in the image IM ranked first is “70”%, the deciding unit 135 determines that the occupancy rate of the cat in the image IM ranked second is greater than “75”%, The image IM with the second ranking may be determined so as to be less than “65”%.

例えば、決定部135は、画像の各々に検索対象以外の対象が含まれるか否かに応じて、画像の各々のランキングを決定してもよい。例えば、決定部135は、検索対象が「猫」である場合、画像に猫以外の対象(例えば、「犬」等)が含まれる場合、その画像のランキングが低くなるように、画像の各々のランキングを決定してもよい。例えば、決定部135は、画像の各々に文字情報が含まれるか否かに応じて、画像の各々のランキングを決定してもよい。例えば、決定部135は、画像の各々に文字情報が含まれる画像のランキングが低くなるように、画像の各々のランキングを決定してもよい。この場合、例えば、決定部135は、文字を認識する種々の従来技術を適宜用いて、画像の各々に文字情報が含まれるかを判別してもよい。   For example, the determination unit 135 may determine the ranking of each image depending on whether or not each image includes a target other than the search target. For example, when the search target is “cat” and the image includes an object other than a cat (for example, “dog”, etc.), the determination unit 135 causes each of the images to have a low ranking. A ranking may be determined. For example, the determination unit 135 may determine the ranking of each image according to whether or not character information is included in each image. For example, the determination unit 135 may determine the ranking of each image so that the ranking of the image in which character information is included in each image is low. In this case, for example, the determining unit 135 may determine whether character information is included in each image by appropriately using various conventional techniques for recognizing characters.

例えば、決定部135は、各画像における検索対象の位置に応じて、各画像のランキングを決定してもよい。例えば、決定部135は、クエリに対応する対象の位置が右である場合にクリック率が高くなる場合、対象が右に位置する画像のランキングが高くなるように、各画像のランキングを決定してもよい。この場合、例えば、決定部135は、取得部131により取得された各画像における対象の位置を示す情報に基づいて、各画像における検索対象の位置を判別してもよい。また、例えば、決定部135は、位置情報を保持する学習器から出力される各画像における対象の位置を示す情報に基づいて、各画像における検索対象の位置を判別してもよい。なお、上記は一例であり、決定部135は、各画像における検索対象の位置を判別可能であれば、どのような情報を用いてもよい。   For example, the determination unit 135 may determine the ranking of each image according to the position of the search target in each image. For example, the determination unit 135 determines the ranking of each image so that the ranking of the image in which the target is located on the right is high when the click rate is high when the position of the target corresponding to the query is on the right. Also good. In this case, for example, the determination unit 135 may determine the position of the search target in each image based on information indicating the position of the target in each image acquired by the acquisition unit 131. For example, the determination unit 135 may determine the position of the search target in each image based on information indicating the position of the target in each image output from the learning device that holds the position information. Note that the above is an example, and the determination unit 135 may use any information as long as it can determine the position of the search target in each image.

(提供部136)
提供部136は、外部の情報処理装置へ各種情報を提供する。例えば、提供部136は、決定部135により決定された複数の画像のランキングに基づく情報を提供する。図2では、提供部136は、決定したランキングに基づいた検索結果をユーザU1に提供する。例えば、提供部136は、画像IM15を1位とし、画像IM19を2位とし、画像IM17を3位とし、画像IM11を4位とするランキングに基づいた表示順の検索結果をユーザU1が利用する端末装置10に提供する。例えば、提供部136は、決定したランキングに基づいた検索結果を端末装置10に送信する。
(Providing unit 136)
The providing unit 136 provides various types of information to an external information processing apparatus. For example, the providing unit 136 provides information based on the ranking of a plurality of images determined by the determining unit 135. In FIG. 2, the providing unit 136 provides the search result based on the determined ranking to the user U1. For example, the providing unit 136 uses the search result in the display order based on the ranking in which the image IM15 is ranked first, the image IM19 is ranked second, the image IM17 is ranked third, and the image IM11 is ranked fourth. Provided to the terminal device 10. For example, the providing unit 136 transmits a search result based on the determined ranking to the terminal device 10.

〔3.占有率の推定処理のフロー〕
ここで、図8を用いて、実施形態に係る検索装置100による占有率の推定処理の手順について説明する。図8は、実施形態に係る画像における対象の占有率の推定の一例を示すフローチャートである。
[3. Occupancy rate estimation process flow)
Here, the procedure of the occupation rate estimation process performed by the search device 100 according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the estimation of the occupation ratio of the object in the image according to the embodiment.

図8に示すように、検索装置100は、画像を取得する(ステップS101)。図1では、検索装置100は、画像IM11〜IM15等を取得する。その後、検索装置100は、ステップS101で取得した画像を学習器に入力する(ステップS102)。図1では、検索装置100は、取得した画像IM11〜IM15等を学習器LEに入力する。   As shown in FIG. 8, the search device 100 acquires an image (step S101). In FIG. 1, the search device 100 acquires images IM11 to IM15 and the like. Thereafter, the search device 100 inputs the image acquired in step S101 to the learning device (step S102). In FIG. 1, the search device 100 inputs the acquired images IM11 to IM15 and the like to the learning device LE.

その後、検索装置100は、学習器の出力に基づいて入力画像における対象の占有率を推定する(ステップS103)。図1では、検索装置100は、学習器LEの出力に基づいて、入力した画像IM11〜IM15等における猫の占有率を推定する。   Thereafter, the search device 100 estimates the occupation ratio of the target in the input image based on the output of the learning device (step S103). In FIG. 1, the search device 100 estimates the occupancy rate of cats in the input images IM11 to IM15 and the like based on the output of the learning device LE.

その後、検索装置100は、占有率を含む画像の一覧情報を生成する(ステップS104)。図1では、検索装置100は、画像IM11〜IM15等における猫の占有率を示す一覧情報LT11を生成する。   Thereafter, the search device 100 generates image list information including the occupation ratio (step S104). In FIG. 1, the search device 100 generates list information LT11 indicating the occupancy rate of cats in the images IM11 to IM15 and the like.

〔4.ランキングの決定処理のフロー〕
次に、図9を用いて、実施形態に係る検索装置100によるランキングの決定処理の手順について説明する。図9は、実施形態に係るランキングの決定の一例を示すフローチャートである。
[4. (Ranking decision process flow)
Next, the procedure of the ranking determination process performed by the search device 100 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of ranking determination according to the embodiment.

図9に示すように、検索装置100は、クエリを取得する(ステップS201)。図2では、検索装置100は、クエリとして文字列「猫」取得する。なお、検索装置100は、ステップS201では、文字列に変えてクエリ画像を取得してもよい。   As shown in FIG. 9, the search device 100 acquires a query (step S201). In FIG. 2, the search device 100 acquires a character string “cat” as a query. In step S201, the search device 100 may acquire a query image instead of a character string.

その後、検索装置100は、クエリに対応する画像を抽出する(ステップS202)。例えば、検索装置100は、画像情報記憶部122からタグ「猫」が付された画像IMを抽出する。   Thereafter, the search device 100 extracts an image corresponding to the query (step S202). For example, the search device 100 extracts the image IM with the tag “cat” from the image information storage unit 122.

その後、検索装置100は、クエリに対応する占有率情報を取得する(ステップS203)。図2では、検索装置100は、占有率情報記憶部124からクエリ「猫」に対応する占有率情報を取得する。   Thereafter, the search device 100 acquires occupancy information corresponding to the query (step S203). In FIG. 2, the search device 100 acquires occupancy rate information corresponding to the query “cat” from the occupancy rate information storage unit 124.

その後、検索装置100は、クエリに対応する画像と、クエリに対応する占有率情報とに基づいてランキングを決定する(ステップS204)。図2の例では、検索装置100は、最もクリック率順位が高い占有率の範囲である「60−80」%の範囲に含まれる画像IMのランキングが高くなるようにランキングを決定する。   Thereafter, the search device 100 determines the ranking based on the image corresponding to the query and the occupation rate information corresponding to the query (step S204). In the example of FIG. 2, the search device 100 determines the ranking so that the ranking of the image IM included in the range of “60-80”% that is the range of the occupation rate with the highest click rate ranking is high.

その後、検索装置100は、決定したランキングに基づく、検索結果を提供する(ステップS205)。図2の例では、検索装置100は、画像IM15を1位とし、画像IM19を2位とし、画像IM17を3位とし、画像IM11を4位とするランキングに基づいた表示順の検索結果をユーザU1が利用する端末装置10に提供する。   Thereafter, the search device 100 provides a search result based on the determined ranking (step S205). In the example of FIG. 2, the search device 100 displays search results in display order based on the ranking in which the image IM15 is ranked first, the image IM19 is ranked second, the image IM17 is ranked third, and the image IM11 is ranked fourth. Provided to the terminal device 10 used by U1.

〔5.学習処理〕
ここで、検索装置100の学習部132における学習処理について、図10及び図11を用いて説明する。図10及び図11は、実施形態に係る学習処理の一例を示す図である。
[5. Learning process)
Here, the learning process in the learning unit 132 of the search device 100 will be described with reference to FIGS. 10 and 11. 10 and 11 are diagrams illustrating an example of the learning process according to the embodiment.

まず、図10を用いて説明する。図10に示す例は、検索装置100は、猫を含む画像IM21と画像中における猫等の占有率を示す情報RO21(以下、「正解情報RO21」と記載する場合がある)との組み合わせを教師データとして取得する(ステップS21)。図10では、説明を簡単にするために、正解情報RO21中には猫と背景の2つのクラスの占有率のみを図示するが、正解情報RO21中には学習器LEが出力するクラスに対応する占有率を含んでもよい。例えば、学習器LEが20個のクラスに関する占有率を示す情報を出力する場合、正解情報RO21は、猫と背景の2つのクラスの占有率に加えて他のクラスの占有率を示す情報を含んでもよい。学習器LEが猫や背景に対応する2つのクラスに加えて、犬や飛行機や自転車等のクラスに関する占有率を示す情報を出力する場合、正解情報RO21には、犬の占有率「0」や飛行機の占有率「0」や自転車の占有率「0」を示す情報を含んでもよい。   First, it demonstrates using FIG. In the example illustrated in FIG. 10, the search device 100 teaches a combination of an image IM21 including a cat and information RO21 indicating the occupation ratio of a cat or the like in the image (hereinafter, sometimes described as “correct answer information RO21”). Obtained as data (step S21). In FIG. 10, only the occupancy ratios of the two classes of cat and background are illustrated in the correct answer information RO21 for the sake of simplicity, but the correct answer information RO21 corresponds to the class output by the learning device LE. Occupancy rate may be included. For example, when the learning device LE outputs information indicating occupancy rates for 20 classes, the correct answer information RO21 includes information indicating occupancy rates of other classes in addition to the occupancy rates of two classes of cat and background. But you can. In a case where the learning device LE outputs information indicating an occupation rate regarding a class such as a dog, an airplane, or a bicycle in addition to two classes corresponding to a cat and a background, the correct answer information RO21 includes an occupation rate “0” of the dog, Information indicating the plane occupancy “0” or the bicycle occupancy “0” may be included.

そして、学習器LEには、猫を含む画像IM21が入力される(ステップS22)。その後、出力情報OC21−1に示すような対象の占有率を示す情報が学習器LEから出力される(ステップS23)。図10では、説明を簡単にするために、猫と背景の2つのクラスの占有率のみを図示するが、学習器LEは、他のクラスに関する占有率を示す情報を出力してもよい。例えば、学習器LEが20個のクラスに関する占有率を示す情報を出力する場合、学習器LEは、猫や背景に対応する2つのクラスに加えて、犬や飛行機や自転車等のクラスに関する占有率を示す情報を出力してもよい。   Then, an image IM21 including a cat is input to the learning device LE (step S22). Thereafter, information indicating the occupation rate of the target as indicated by the output information OC21-1 is output from the learning device LE (step S23). In FIG. 10, only the occupancy ratios of the two classes of cat and background are shown for simplicity of explanation, but the learning device LE may output information indicating the occupancy ratios of other classes. For example, when the learning device LE outputs information indicating the occupancy rates for 20 classes, the learning device LE occupies the occupancy rates for classes such as dogs, airplanes, and bicycles in addition to two classes corresponding to cats and backgrounds. May be output.

上述したように、例えば、学習部132は、ディープラーニングの技術により、学習器LEを学習し、生成する。例えば、学習部132は、画像と当該画像中における所定の対象の占有率との組み合わせを教師データとして用いる。例えば、学習部132は、学習器LEにおける出力と、教師データに含まれる所定の対象の占有率との誤差が少なくなるようにパラメータ(接続係数)を補正するバックプロパゲーション(誤差逆伝播法)等の処理を行うことにより、学習器LEを学習する。例えば、学習部132は、所定の誤差(ロス)関数を最小化するようにバックプロパゲーション等の処理を行うことにより学習器LEを生成する。   As described above, for example, the learning unit 132 learns and generates the learning device LE using a deep learning technique. For example, the learning unit 132 uses a combination of an image and an occupation ratio of a predetermined target in the image as teacher data. For example, the learning unit 132 performs backpropagation (error back propagation method) for correcting a parameter (connection coefficient) so that an error between an output from the learning device LE and an occupation ratio of a predetermined target included in the teacher data is reduced. The learning device LE is learned by performing the above processes. For example, the learning unit 132 generates the learning device LE by performing processing such as back propagation so as to minimize a predetermined error (loss) function.

例えば、学習部132は、下記の式(1)に示すような、誤差関数Lを用いる。下記の式(1)に示すように、学習部132は、例えば、N−クラス分類問題の場合、交差エントロピーを誤差関数として用いる。なお、誤差関数Lは、識別結果の確信度を表すものであれば、どのような関数であっても良い。例えば、誤差関数Lは、識別確率から求められるエントロピーであってもよい。また、例えば、誤差関数Lは、学習器LEの認識の精度を示すものであれば、どのような関数であってもよい。   For example, the learning unit 132 uses an error function L as shown in the following equation (1). As shown in the following equation (1), the learning unit 132 uses cross entropy as an error function in the case of an N-class classification problem, for example. The error function L may be any function as long as it represents the certainty of the identification result. For example, the error function L may be entropy obtained from the identification probability. For example, the error function L may be any function as long as it indicates the recognition accuracy of the learning device LE.

Figure 2018018339
Figure 2018018339

ここで、上記式(1)や下記の式(2)〜(4)中の「x」は画像を示す。例えば、図10に示す例において、上記式(1)や下記の式(2)〜(4)中の「x」は、画像IMに対応する。また、変数「n」に代入される1〜Nは、学習器LEが識別(分類)する各クラスに対応する。例えば、上記式(1)に対応する学習器LEは、N個のクラスを識別することを示す。例えば、各クラスには、「猫」や「背景」等が各々対応する。   Here, “x” in the above formula (1) and the following formulas (2) to (4) indicates an image. For example, in the example shown in FIG. 10, “x” in the above formula (1) and the following formulas (2) to (4) corresponds to the image IM. Also, 1 to N assigned to the variable “n” correspond to each class identified (classified) by the learning device LE. For example, the learning device LE corresponding to the above equation (1) indicates that N classes are identified. For example, “Cat” and “Background” correspond to each class.

また、上記式(1)や下記の式(3)、(4)中の「t(x)」は、画像IM21におけるクラスn(1〜Nのいずれか)に対応する対象の占有率を示す。例えば、上記式(1)中の「t(x)」は、正解情報RO21に示すような、クラスnに対応する対象の占有率を示す。この場合、例えば、クラス1に対応する対象を「猫」とした場合、「t(x)」は、「0.53(53%)」となる。また、例えば、上記式(1)中の「t(x)」は、正解クラスの時のみ1を取り、それ以外では0を取るように定義してもよい。 In addition, “t n (x)” in the above formula (1) and the following formulas (3) and (4) represents the occupancy rate of the object corresponding to the class n (any one of 1 to N) in the image IM21. Show. For example, “t n (x)” in the above formula (1) indicates the occupation rate of the object corresponding to the class n as shown in the correct answer information RO21. In this case, for example, when the target corresponding to class 1 is “cat”, “t 1 (x)” is “0.53 (53%)”. Further, for example, “t n (x)” in the above formula (1) may be defined to take 1 only in the correct class and to take 0 otherwise.

また、上記式(1)や下記の式(2)、(3)中の「p(x)」は、画像IM21におけるクラスn(1〜Nのいずれか)に対応する対象について、学習器LEの出力に基づく占有率を示す。例えば、上記式(1)中の「p(x)」は、出力情報OC21−1に示すような、学習器LEが出力するクラスnに対応する対象の占有率を示す。この場合、例えば、クラス1に対応する対象を「猫」とした場合、「p(x)」は、「0.64(64%)」となる。 Further, “p n (x)” in the above formula (1) and the following formulas (2) and (3) is a learning device for the object corresponding to the class n (any one of 1 to N) in the image IM21. The occupation rate based on the output of LE is shown. For example, “p n (x)” in the above formula (1) indicates the occupation rate of the object corresponding to the class n output by the learning device LE as shown in the output information OC21-1. In this case, for example, when the target corresponding to class 1 is “cat”, “p 1 (x)” is “0.64 (64%)”.

また、上記式(1)中の「p(x)」は、xに対するクラスnの確率で以下の式(2)に示すようなSoftmax関数で定義される。 Further, “p n (x)” in the above equation (1) is defined by a Softmax function as shown in the following equation (2) with the probability of class n with respect to x.

Figure 2018018339
Figure 2018018339

上記式(2)の関数「f」は、CNN(学習器LE)が出力するクラスnのスコアである。「θ」は、CNN(学習器LE)のパラメータである。また、関数「exp」は、指数関数(exponential function)である。この場合、上記式(1)に示す誤差関数L(1)の勾配は、下記の式(3)により算出される。 The function “f n ” in the above equation (2) is a score of class n output from the CNN (learning device LE). “Θ” is a parameter of CNN (learning device LE). The function “exp” is an exponential function. In this case, the gradient of the error function L (1) shown in the above equation (1) is calculated by the following equation (3).

Figure 2018018339
Figure 2018018339

上記式(3)に示すように、1〜Nまでの全クラスにおいて、p(x)=t(x)である場合、誤差関数L(x)の勾配は0になり極値になる。例えば、学習部132は、誤差関数L(x)の勾配が0になるように、フィードバック処理を行う(ステップS24)。例えば、学習部132が上述のような処理を繰り返すことにより、学習器LEは、入力された画像における対象の占有率を適切に出力することができる。なお、図10は、学習器LEの出力を正解情報RO21に近づけるために、誤差関数L等を最小化するように処理を繰り返すことを視覚的に示すためのものであり、学習器LE内において自動で行われてもよい。 As shown in the above equation (3), in all classes 1 to N, when p n (x) = t n (x), the gradient of the error function L (x) becomes 0 and becomes an extreme value. . For example, the learning unit 132 performs feedback processing so that the gradient of the error function L (x) becomes 0 (step S24). For example, when the learning unit 132 repeats the processing as described above, the learning device LE can appropriately output the occupation ratio of the target in the input image. FIG. 10 is for visually showing that the processing is repeated so as to minimize the error function L and the like in order to make the output of the learning device LE close to the correct answer information RO21. It may be done automatically.

上述のように、「t(x)」は、画像全体を1としたときのクラスnの占有率と定義すると、例えば、以下のような式(4)で示される。 As described above, if “t n (x)” is defined as the occupation rate of class n when the entire image is 1, for example, it is expressed by the following equation (4).

Figure 2018018339
Figure 2018018339

「δi,j」はクロネッカーのデルタであり、「j」はピクセルpのラベルである。例えば、「j」は、猫や背景等の複数のクラスのいずれかに対応するラベルである。例えば、各ピクセルのラベルは、そのピクセルがどの対象に関するピクセルであるかを示す。あるピクセルのラベルが猫に対応するラベルである場合、そのピクセルは対象「猫」に関するピクセルであることを示す。例えば、上記式(4)の分母は、画像「x」の全ピクセルの合計値となる。また、例えば、上記式(4)の分子は、画像「x」におけるクラスnのラベルが付されたピクセル数となる。このように、上記式(4)の「t(x)」は、0〜1の値となる。上記式(4)により、画像における各クラスに対応する対象の占有率が算出される。なお、各ピクセルへのラベル付けは、例えば検索装置100の管理者や画像の所有者等により行われてもよい。 “Δ i, j ” is the Kronecker delta and “j p ” is the label for pixel p. For example, “j p ” is a label corresponding to one of a plurality of classes such as a cat and a background. For example, the label for each pixel indicates which object the pixel is for. If the label of a pixel is a label corresponding to a cat, this indicates that the pixel is related to the object “cat”. For example, the denominator of the above equation (4) is the total value of all the pixels of the image “x”. Further, for example, the numerator of the above formula (4) is the number of pixels labeled with the class n in the image “x”. Thus, “t n (x)” in the above formula (4) is a value between 0 and 1. The occupancy rate of the object corresponding to each class in the image is calculated by the above equation (4). Note that the labeling of each pixel may be performed by, for example, the administrator of the search device 100 or the owner of the image.

次に、図11を用いて説明する。図11では、検索装置100は、学習器LEとは別の学習器LE31の学習を行う場合を示す。図11に示す例は、検索装置100は、人やボトルを含む画像IM31と画像中における人やボトル等の占有率を示す情報RO31(以下、「正解情報RO31」と記載する場合がある)との組み合わせを教師データとして取得する(ステップS31)。そして、学習器LE31には、人やボトルを含む画像IM31が入力される(ステップS32)。その後、出力情報OC31−1に示すような対象の占有率を示す情報が学習器LE31から出力される(ステップS33)。図11に示す例においても、図10に示す例と同様に、学習部132は、上記式(1)〜(3)を用いて、誤差関数L(x)の勾配が0になるように、フィードバック処理を行う(ステップS34)。例えば、学習部132が上述のような処理を繰り返すことにより、対象が複数ある場合であっても、学習器LE31は、入力された画像における対象の占有率を適切に出力することができる。なお、図11は、学習器LE31の出力を正解情報RO31に近づけるために、誤差関数L等を最小化するように処理を繰り返すことを視覚的に示すためのものであり、学習器LE31内において自動で行われてもよい。   Next, a description will be given with reference to FIG. In FIG. 11, the search device 100 illustrates a case where learning is performed by a learning device LE31 that is different from the learning device LE. In the example illustrated in FIG. 11, the search apparatus 100 includes an image IM31 including a person and a bottle, and information RO31 (hereinafter, sometimes referred to as “correct answer information RO31”) indicating the occupation ratio of the person and the bottle in the image. Are obtained as teacher data (step S31). Then, the image IM31 including a person and a bottle is input to the learning device LE31 (step S32). Thereafter, information indicating the occupation rate of the target as indicated by the output information OC31-1 is output from the learning device LE31 (step S33). Also in the example shown in FIG. 11, as in the example shown in FIG. 10, the learning unit 132 uses the above equations (1) to (3) so that the gradient of the error function L (x) becomes zero. A feedback process is performed (step S34). For example, when the learning unit 132 repeats the above-described processing, the learning device LE31 can appropriately output the occupation ratio of the object in the input image even when there are a plurality of objects. FIG. 11 is for visually showing that the processing is repeated so as to minimize the error function L and the like in order to bring the output of the learning device LE31 closer to the correct answer information RO31. In the learning device LE31, FIG. It may be done automatically.

〔6.学習処理のフロー〕
ここで、図12を用いて、実施形態に係る検索装置100による学習処理の手順について説明する。図12は、実施形態に係る学習処理の一例を示すフローチャートである。
[6. Learning process flow)
Here, the procedure of the learning process performed by the search device 100 according to the embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a learning process according to the embodiment.

図12に示すように、検索装置100は、画像と画像中の各対象の占有率に関する正解情報とを取得する(ステップS301)。図10では、検索装置100は、猫を含む画像IM21と画像中における猫等の占有率を示す正解情報RO21とを取得する。その後、検索装置100は、ステップS301で取得した画像を学習器に入力する(ステップS302)。図10では、検索装置100は、取得した画像IM21を学習器LEに入力する。   As illustrated in FIG. 12, the search device 100 acquires an image and correct information regarding the occupancy rate of each target in the image (step S301). In FIG. 10, the search device 100 acquires an image IM <b> 21 including a cat and correct answer information RO <b> 21 indicating the occupation ratio of a cat or the like in the image. Thereafter, the search device 100 inputs the image acquired in step S301 to the learning device (step S302). In FIG. 10, the search device 100 inputs the acquired image IM21 to the learning device LE.

その後、検索装置100は、学習器の出力に基づく占有率と、正解情報の占有率との誤差が小さくなるように学習する(ステップS303)。図10では、検索装置100は、学習器LEの出力に基づく出力情報OC21−1に示す各対象の占有率と、正解情報RO21に示す各対象の占有率とに基づいて学習する。   After that, the search device 100 learns so that an error between the occupation rate based on the output of the learning device and the occupation rate of the correct answer information becomes small (step S303). In FIG. 10, the search device 100 learns based on the occupancy rate of each target indicated in the output information OC21-1 based on the output of the learning device LE and the occupancy rate of each target indicated in the correct answer information RO21.

その後、検索装置100は、所定の条件を満たす場合(ステップS304:Yes)、処理を終了する。例えば、検索装置100は、学習器の出力に基づく占有率と正解情報の占有率との誤差が所定の閾値以内である場合や、学習を開始してから所定の時間が経過した場合に所定の条件を満たすとして、処理を終了してもよい。また、検索装置100は、所定の条件を満たさない場合(ステップS304:No)、ステップS303の処理を繰り返す。例えば、検索装置100は、学習器の出力に基づく占有率と正解情報の占有率との誤差が所定の閾値より大きい場合や、学習を開始してから所定の時間が経過していない場合に所定の条件を満たさないとして、ステップS303の処理を繰り返してもよい。なお、お、上記の学習処理は一例であり、検索装置100は、種々の手順により学習を行ってもよい。   Thereafter, when the predetermined condition is satisfied (step S304: Yes), the search device 100 ends the process. For example, when the error between the occupation rate based on the output of the learning device and the occupation rate of the correct answer information is within a predetermined threshold or when a predetermined time has elapsed after starting learning, the search device 100 If the condition is satisfied, the process may be terminated. In addition, when the predetermined condition is not satisfied (step S304: No), the search device 100 repeats the process of step S303. For example, the search device 100 is predetermined when the error between the occupation rate based on the output of the learning device and the occupation rate of the correct information is larger than a predetermined threshold or when a predetermined time has not elapsed since the start of learning. The process of step S303 may be repeated assuming that the above condition is not satisfied. Note that the learning process described above is merely an example, and the search device 100 may perform learning according to various procedures.

〔7.ランキングの決定〕
上述したように、検索装置100は、種々の情報を適宜用いて画像のランキングを決定してもよい。例えば、検索装置100は、各画像のランキングにおける各画像間の占有率の多様性に応じて、各画像のランキングを決定してもよい。この点について、図13を用いて、実施形態に係る検索装置100によるランキングの決定について説明する。図13は、実施形態に係るランキングの決定の一例を示す図である。
[7. (Ranking)
As described above, the search device 100 may determine the ranking of images using various information as appropriate. For example, the search device 100 may determine the ranking of each image according to the diversity of the occupation ratio between the images in the ranking of each image. With respect to this point, determination of ranking by the search device 100 according to the embodiment will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of ranking determination according to the embodiment.

図11に示す例においては、図2に示す例と同様に、占有率情報記憶部124や猫の占有率を示す一覧情報LT11に基づいて画像のランキングを決定する場合を示す。図11に示す例においては、検索装置100は、画像のランキングにおいて連続する画像の占有率が多様になるように画像のランキングを決定する(ステップS41)。例えば、検索装置100は、ランキング情報LT41に示すように、クリック率順位が「1」〜「5」位の占有率に対応する画像が、1位〜5位の順に繰り返し並ぶようにランキングを決定する。   In the example illustrated in FIG. 11, as in the example illustrated in FIG. 2, the ranking of images is determined based on the occupation rate information storage unit 124 and the list information LT <b> 11 indicating the occupation rate of cats. In the example illustrated in FIG. 11, the search device 100 determines the ranking of images so that the occupancy ratio of consecutive images varies in the ranking of images (Step S <b> 41). For example, as shown in the ranking information LT41, the search device 100 determines the ranking so that the images corresponding to the occupancy rates with the click rate ranks “1” to “5” are repeatedly arranged in the order of 1st to 5th. To do.

図11の例では、検索装置100は、クリック率順位が「1」である占有率60−80%に対応する画像IM15のランキングを1位に決定する。例えば、検索装置100は、猫の占有率が占有率60−80%の範囲内の70%である画像IM15のランキングを1位に決定する。また、図11の例では、検索装置100は、クリック率順位が「2」である占有率40−60%に対応する画像IM41のランキングを2位に決定する。例えば、検索装置100は、猫の占有率が占有率40−60%の範囲内の51%である画像IM41のランキングを2位に決定する。   In the example of FIG. 11, the search device 100 determines the ranking of the image IM15 corresponding to the occupation rate 60-80% with the click rate rank “1” as the first rank. For example, the search device 100 determines the ranking of the image IM15 in which the occupancy rate of the cat is 70% within the range of the occupancy rate of 60-80% as the first ranking. In the example of FIG. 11, the search device 100 determines the ranking of the image IM41 corresponding to the occupation rate 40-60% with the click rate ranking “2” as the second ranking. For example, the search device 100 determines the ranking of the image IM41 whose cat occupancy rate is 51% within the range of the occupancy rate 40-60% as the second ranking.

また、図11の例では、検索装置100は、クリック率順位が「3」である占有率20−40%に対応する画像IM45のランキングを3位に決定する。例えば、検索装置100は、猫の占有率が占有率20−40%の範囲内の28%である画像IM45のランキングを3位に決定する。また、図11の例では、検索装置100は、クリック率順位が「4」である占有率80−100%に対応する画像IM14のランキングを2位に決定する。例えば、検索装置100は、猫の占有率が占有率80−100%の範囲内の90%である画像IM14のランキングを4位に決定する。また、図11の例では、検索装置100は、クリック率順位が「5」である占有率0−20%に対応する画像IM49のランキングを5位に決定する。例えば、検索装置100は、猫の占有率が占有率0−20%の範囲内の11%である画像IM49のランキングを5位に決定する。そして、検索装置100は、ランキング6位から下の画像をクリック率順位が「1」から順に繰り返し決定する。   In the example of FIG. 11, the search device 100 determines that the ranking of the image IM45 corresponding to the occupation rate of 20-40% with the click rate ranking “3” is third. For example, the search device 100 determines the ranking of the image IM45 in which the cat occupation ratio is 28% within the range of the occupation ratio of 20-40% as the third place. In the example of FIG. 11, the search device 100 determines the ranking of the image IM14 corresponding to the occupation rate 80-100% with the click rate ranking “4” as the second ranking. For example, the search device 100 determines the ranking of the image IM14 in which the cat occupancy rate is 90% within the range of the occupancy rate 80-100% as the fourth place. In the example of FIG. 11, the search device 100 determines the ranking of the image IM49 corresponding to the occupation rate 0-20% with the click rate rank “5” as the fifth rank. For example, the search device 100 determines the ranking of the image IM49 in which the cat occupation ratio is 11% within the range of the occupation ratio 0-20% as the fifth place. Then, the search device 100 repeatedly determines the click rate order from the sixth place in the ranking in order starting from “1”.

図11の例では、検索装置100は、クリック率順位が「1」である占有率60−80%に対応する画像IM19のランキングを6位に決定する。例えば、検索装置100は、猫の占有率が占有率60−80%の範囲内の65%である画像IM19のランキングを6位に決定する。また、図11の例では、検索装置100は、クリック率順位が「2」である占有率40−60%に対応する画像IM47のランキングを7位に決定する。例えば、検索装置100は、猫の占有率が占有率40−60%の範囲内の55%である画像IM47のランキングを7位に決定する。また、図11の例では図示を省略するが、検索装置100は、占有率20−40%に対応する画像のランキングを8位とし、占有率80−100%に対応する画像のランキングを9位とし、占有率0−20%に対応する画像のランキングを10位とする。   In the example of FIG. 11, the search device 100 determines that the ranking of the image IM19 corresponding to the occupation rate 60-80% with the click rate ranking “1” is sixth. For example, the search device 100 determines the ranking of the image IM19 in which the occupancy rate of the cat is 65% within the range of the occupancy rate of 60-80% as the 6th place. In the example of FIG. 11, the search device 100 determines the ranking of the image IM47 corresponding to the occupation rate of 40-60% with the click rate ranking “2” as the seventh ranking. For example, the search device 100 determines the ranking of the image IM47 whose cat occupancy rate is 55% within the range of the occupancy rate 40-60% as the seventh place. Although not shown in the example of FIG. 11, the search device 100 ranks the image corresponding to the occupancy rate 20-40% as the eighth rank and ranks the image corresponding to the occupancy ratio 80-100% as the ninth rank. And the ranking of the image corresponding to the occupation rate of 0-20% is 10th.

上述のように、検索装置100は、クリック率順位が「1」〜「5」位の占有率に対応する画像が繰り返し並ぶようにランキングを決定することにより、画像のランキングにおいて連続する画像の占有率が多様になるように画像のランキングを決定することができる。なお、上記ランキングの決定は一例であり、検索装置100は、多様な占有率の画像が並ぶように画像のランキングを決定することができれば、どのような情報を用いて画像のランキングを決定してもよい。   As described above, the search device 100 determines the ranking so that images corresponding to the occupancy rates with the click rate ranks “1” to “5” are repeatedly arranged, thereby occupying consecutive images in the image ranking. The ranking of images can be determined so that the rate varies. Note that the above-described determination of the ranking is an example, and the search apparatus 100 determines the ranking of the image using any information as long as the ranking of the image can be determined so that images with various occupation ratios are arranged. Also good.

〔8.効果〕
上述してきたように、実施形態に係る検索装置100は、取得部131と、決定部135とを有する。取得部131は、画像検索におけるクエリを取得する。決定部135は、
各画像におけるクエリに対応する対象(実施形態においては「猫」。以下、同じ)のサイズに関する情報に基づいて、各画像のランキングを決定する。
[8. effect〕
As described above, the search device 100 according to the embodiment includes the acquisition unit 131 and the determination unit 135. The acquisition unit 131 acquires a query for image search. The determination unit 135
The ranking of each image is determined based on the information regarding the size of the target corresponding to the query in each image ("cat" in the embodiment, the same applies hereinafter).

これにより、実施形態に係る検索装置100は、各画像におけるクエリに対応する対象のサイズに関する情報に基づくことにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment can appropriately determine the ranking of the image in the search result for the query based on the information regarding the size of the target corresponding to the query in each image.

また、実施形態に係る検索装置100において、決定部135は、各画像における対象のサイズに関する情報と、各画像のサイズに関する情報とに基づく各画像における対象の占有率に関する情報に応じて、各画像のランキングを決定する。   Further, in the search device 100 according to the embodiment, the determination unit 135 determines each image according to information regarding the occupancy rate of each object based on information regarding the size of the object in each image and information regarding the size of each image. Determine the ranking.

これにより、実施形態に係る検索装置100は、各画像における対象のサイズに関する情報と、各画像のサイズに関する情報とに基づく各画像における対象の占有率に関する情報を用いることにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment uses the information about the occupancy rate of each object based on the information about the size of the object in each image and the information about the size of each image, so that The ranking of the image can be determined appropriately.

また、実施形態に係る検索装置100において、決定部135は、対象に応じて変動する占有率に関する情報に基づいて、画像のランキングを決定する。   Further, in the search device 100 according to the embodiment, the determination unit 135 determines the ranking of the image based on information on the occupation ratio that varies depending on the target.

これにより、実施形態に係る検索装置100は、対象に応じて変動する占有率に関する情報に基づくことにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment can appropriately determine the ranking of the image in the search result with respect to the query, based on the information on the occupation ratio that varies depending on the target.

また、実施形態に係る検索装置100において、決定部135は、対象の検索結果としてユーザに提供された画像であって、ユーザにより選択された画像における対象の占有率に応じて決定される占有率に関する情報に基づいて、各画像のランキングを決定する。   In the search device 100 according to the embodiment, the determination unit 135 is an image provided to the user as a target search result, and is determined according to the target occupancy in the image selected by the user. The ranking of each image is determined based on the information regarding.

これにより、実施形態に係る検索装置100は、対象の検索結果としてユーザに提供された画像であって、ユーザにより選択された画像における対象の占有率に応じて決定される占有率に関する情報に基づくことにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment is an image provided to the user as a target search result, and is based on information on the occupancy rate determined according to the occupancy rate of the target in the image selected by the user. Thus, it is possible to appropriately determine the ranking of images in the search result for the query.

また、実施形態に係る検索装置100において、決定部135は、各画像のランキングにおける各画像間の占有率の多様性に応じて、各画像のランキングを決定する。   Also, in the search device 100 according to the embodiment, the determination unit 135 determines the ranking of each image according to the diversity of the occupation ratio between the images in the ranking of each image.

これにより、実施形態に係る検索装置100は、各画像のランキングにおける各画像の占有率の差に基づいて、画像のランキングを決定することにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment appropriately determines the ranking of the image in the search result for the query by determining the ranking of the image based on the difference in the occupation ratio of each image in the ranking of each image. be able to.

また、実施形態に係る検索装置100において、決定部135は、各画像のランキングにおいて連続する各画像の占有率の差が所定の条件を満たすように、各画像のランキングを決定する。   Further, in the search device 100 according to the embodiment, the determination unit 135 determines the ranking of each image so that the difference between the occupancy rates of consecutive images in the ranking of each image satisfies a predetermined condition.

これにより、実施形態に係る検索装置100は、各画像のランキングにおいて連続する各画像の占有率の差が所定の条件を満たすように、各画像のランキングを決定することにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment determines the ranking of each image so that the difference in the occupancy rate of each successive image in the ranking of each image satisfies a predetermined condition. The ranking of the image can be determined appropriately.

また、実施形態に係る検索装置100において、決定部135は、各画像に対象以外の対象が含まれるか否かに応じて、各画像のランキングを決定する。   Further, in the search device 100 according to the embodiment, the determination unit 135 determines the ranking of each image according to whether or not each image includes a target other than the target.

これにより、実施形態に係る検索装置100は、各画像に検索対象以外の対象が含まれるか否かに応じて、各画像のランキングを決定することにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment appropriately determines the ranking of the images in the search result for the query by determining the ranking of each image according to whether each image includes a target other than the search target. Can be determined.

また、実施形態に係る検索装置100において、決定部135は、各画像に文字情報が含まれるか否かに応じて、各画像のランキングを決定する。   In the search device 100 according to the embodiment, the determination unit 135 determines the ranking of each image according to whether or not each image includes character information.

これにより、実施形態に係る検索装置100は、各画像に文字情報が含まれるか否かに応じて、各画像のランキングを決定することにより、クエリに対する検索結果における画像のランキングを適切に決定することができる。   Thereby, the search device 100 according to the embodiment appropriately determines the ranking of the images in the search result for the query by determining the ranking of each image according to whether or not the character information is included in each image. be able to.

また、実施形態に係る検索装置100は、提供部136を有する。提供部136は、決定部135により決定された各画像のランキングに基づく情報を提供する。   In addition, the search device 100 according to the embodiment includes a providing unit 136. The providing unit 136 provides information based on the ranking of each image determined by the determining unit 135.

これにより、実施形態に係る検索装置100は、対象のサイズに関する情報を用いて決定された画像のランキングに基づく情報を提供することにより、より適切な情報をユーザに提供することができる。   Thereby, the search device 100 according to the embodiment can provide the user with more appropriate information by providing information based on the ranking of the image determined using the information regarding the target size.

〔9.ハードウェア構成〕
上述してきた実施形態に係る検索装置100は、例えば図14に示すような構成のコンピュータ1000によって実現される。図14は、検索装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[9. Hardware configuration)
The search device 100 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in FIG. 14, for example. FIG. 14 is a hardware configuration diagram illustrating an example of a computer that implements the function of the search device. The computer 1000 includes a CPU 1100, RAM 1200, ROM 1300, HDD (Hard Disk Drive) 1400, communication interface (I / F) 1500, input / output interface (I / F) 1600, and media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ提供する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and provides the data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る検索装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the search device 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 130 by executing a program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them. However, as another example, these programs may be acquired from other devices via the network N.

以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although the embodiments of the present application have been described in detail with reference to the drawings, these are merely examples, and various modifications and improvements have been made based on the knowledge of those skilled in the art including the aspects described in the disclosure line of the invention. The present invention can be implemented in other forms.

〔10.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[10. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Further, the above-described embodiments can be appropriately combined within a range in which processing contents are not contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 検索システム
100 検索装置(決定装置)
121 学習情報記憶部
122 画像情報記憶部
123 一覧情報記憶部
124 占有率情報記憶部
130 制御部
131 取得部
132 学習部
133 推定部
134 抽出部
135 決定部
136 提供部
10 端末装置
N ネットワーク
1 Search System 100 Search Device (Determination Device)
REFERENCE SIGNS LIST 121 Learning information storage unit 122 Image information storage unit 123 List information storage unit 124 Occupancy rate information storage unit 130 Control unit 131 Acquisition unit 132 Learning unit 133 Estimation unit 134 Extraction unit 135 Determination unit 136 Providing unit 10 Terminal device N network

Claims (11)

画像検索におけるクエリを取得する取得部と、
各画像における前記クエリに対応する対象のサイズに関する情報に基づいて、前記各画像のランキングを決定する決定部と、
を備えることを特徴とする決定装置。
An acquisition unit for acquiring a query in image search;
A determination unit that determines a ranking of each image based on information on a size of a target corresponding to the query in each image;
A determination device comprising:
前記決定部は、
前記各画像における前記対象のサイズに関する情報と、前記各画像のサイズに関する情報とに基づく前記各画像における前記対象の占有率に関する情報に応じて、前記各画像のランキングを決定する
ことを特徴とする請求項1に記載の決定装置。
The determination unit
The ranking of each image is determined according to information on the occupancy rate of the target in each image based on information on the size of the target in each image and information on the size of each image. The determination device according to claim 1.
前記決定部は、
前記対象に応じて変動する占有率に関する情報に基づいて、前記各画像のランキングを決定する
ことを特徴とする請求項2に記載の決定装置。
The determination unit
The determination apparatus according to claim 2, wherein the ranking of each image is determined based on information regarding an occupation ratio that varies depending on the target.
前記決定部は、
前記対象の検索結果としてユーザに提供された画像であって、前記ユーザにより選択された画像における前記対象の占有率に応じて決定される占有率に関する情報に基づいて、前記各画像のランキングを決定する
ことを特徴とする請求項3に記載の決定装置。
The determination unit
The image provided to the user as a search result of the target, and the ranking of each image is determined based on information on the occupancy determined according to the occupancy of the target in the image selected by the user The determination device according to claim 3, wherein:
前記決定部は、
前記各画像のランキングにおける前記各画像間の占有率の多様性に応じて、前記各画像のランキングを決定する
ことを特徴とする請求項2〜4のいずれか1項に記載の決定装置。
The determination unit
5. The determination device according to claim 2, wherein the ranking of each image is determined in accordance with the diversity of the occupation ratio between the images in the ranking of the images.
前記決定部は、
前記各画像のランキングにおいて連続する前記各画像の占有率の差が所定の条件を満たすように、前記各画像のランキングを決定する
ことを特徴とする請求項5に記載の決定装置。
The determination unit
The determination apparatus according to claim 5, wherein the ranking of each image is determined so that a difference in occupancy between the images that are consecutive in the ranking of the images satisfies a predetermined condition.
前記決定部は、
前記各画像に前記対象以外の対象が含まれるか否かに応じて、前記各画像のランキングを決定する
ことを特徴とする請求項1〜6のいずれか1項に記載の決定装置。
The determination unit
The determination apparatus according to claim 1, wherein the ranking of each image is determined according to whether or not each image includes a target other than the target.
前記決定部は、
前記各画像に文字情報が含まれるか否かに応じて、前記各画像のランキングを決定する
ことを特徴とする請求項1〜7のいずれか1項に記載の決定装置。
The determination unit
The determination apparatus according to claim 1, wherein ranking of each image is determined according to whether or not character information is included in each image.
前記決定部により決定された前記各画像のランキングに基づく情報を提供する提供部、
をさらに備えることを特徴とする請求項1〜8のいずれか1項に記載の決定装置。
A providing unit for providing information based on the ranking of each image determined by the determining unit;
The decision device according to claim 1, further comprising:
コンピュータが実行する決定方法であって、
画像検索におけるクエリを取得する取得工程と、
各画像における前記クエリに対応する対象のサイズに関する情報に基づいて、前記各画像のランキングを決定する決定工程と、
を含むことを特徴とする決定方法。
A decision method performed by a computer,
An acquisition step of acquiring a query in image search;
A determination step of determining a ranking of each image based on information about a size of a target corresponding to the query in each image;
A determination method characterized by comprising:
画像検索におけるクエリを取得する取得手順と、
各画像における前記クエリに対応する対象のサイズに関する情報に基づいて、前記各画像のランキングを決定する決定手順と、
をコンピュータに実行させることを特徴とする決定プログラム。
An acquisition procedure for acquiring a query in image search;
A determination procedure for determining a ranking of each image based on information about a size of an object corresponding to the query in each image;
A determination program characterized by causing a computer to execute.
JP2016148750A 2016-07-28 2016-07-28 Determination device, determination method, and determination program Active JP6742186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016148750A JP6742186B2 (en) 2016-07-28 2016-07-28 Determination device, determination method, and determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148750A JP6742186B2 (en) 2016-07-28 2016-07-28 Determination device, determination method, and determination program

Publications (2)

Publication Number Publication Date
JP2018018339A true JP2018018339A (en) 2018-02-01
JP6742186B2 JP6742186B2 (en) 2020-08-19

Family

ID=61081882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148750A Active JP6742186B2 (en) 2016-07-28 2016-07-28 Determination device, determination method, and determination program

Country Status (1)

Country Link
JP (1) JP6742186B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7738705B1 (en) 2024-05-14 2025-09-12 楽天グループ株式会社 Product information providing device, product information providing method, and product information providing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242160A (en) * 1992-02-27 1993-09-21 Matsushita Electric Ind Co Ltd Image feature extraction device, image collation device, and image retrieval device
JP2005148900A (en) * 2003-11-12 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Image classification device, image classification method, and program
JP2011081763A (en) * 2009-09-09 2011-04-21 Sony Corp Information processing apparatus, information processing method and information processing program
US20110317928A1 (en) * 2010-02-10 2011-12-29 Hiroshi Yabu Image evaluating device, image evaluating method, program, and integrated circuit
US20120123976A1 (en) * 2010-11-16 2012-05-17 Microsoft Corporation Object-Sensitive Image Search
JP2012133516A (en) * 2010-12-21 2012-07-12 Yahoo Japan Corp Image retrieval apparatus, image retrieval method and program
JP2012155367A (en) * 2011-01-21 2012-08-16 Mitsubishi Electric Corp Screen data editing device for programmable display unit

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242160A (en) * 1992-02-27 1993-09-21 Matsushita Electric Ind Co Ltd Image feature extraction device, image collation device, and image retrieval device
JP2005148900A (en) * 2003-11-12 2005-06-09 Nippon Telegr & Teleph Corp <Ntt> Image classification device, image classification method, and program
JP2011081763A (en) * 2009-09-09 2011-04-21 Sony Corp Information processing apparatus, information processing method and information processing program
US20110317928A1 (en) * 2010-02-10 2011-12-29 Hiroshi Yabu Image evaluating device, image evaluating method, program, and integrated circuit
JP2012053889A (en) * 2010-02-10 2012-03-15 Panasonic Corp Image evaluation device, image evaluation method, program and integrated circuit
US20120123976A1 (en) * 2010-11-16 2012-05-17 Microsoft Corporation Object-Sensitive Image Search
JP2012133516A (en) * 2010-12-21 2012-07-12 Yahoo Japan Corp Image retrieval apparatus, image retrieval method and program
JP2012155367A (en) * 2011-01-21 2012-08-16 Mitsubishi Electric Corp Screen data editing device for programmable display unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7738705B1 (en) 2024-05-14 2025-09-12 楽天グループ株式会社 Product information providing device, product information providing method, and product information providing program
JP2025173136A (en) * 2024-05-14 2025-11-27 楽天グループ株式会社 Product information providing device, product information providing method, and product information providing program

Also Published As

Publication number Publication date
JP6742186B2 (en) 2020-08-19

Similar Documents

Publication Publication Date Title
CN110969516B (en) A product recommendation method and device
CN110276406B (en) Expression classification method, apparatus, computer device and storage medium
US10282462B2 (en) Systems, method, and non-transitory computer-readable storage media for multi-modal product classification
JP6862579B2 (en) Acquisition of image features
JP6741357B2 (en) Method and system for generating multi-association label
CN110555469B (en) Method and device for processing interactive sequence data
CN113807399A (en) Neural network training method, neural network detection method and neural network detection device
US10650290B2 (en) Sketch completion using machine learning
US20190325616A1 (en) Makeup Identification Using Deep Learning
JP2018517959A (en) Selecting a representative video frame for the video
US10204090B2 (en) Visual recognition using social links
WO2016199405A1 (en) Shelf allocation assistance device, shelf allocation assistance system, shelf allocation assistance method, and recording medium
CN112200210B (en) System and method for adapting a base classifier to a novel class
CN115906962A (en) A system for general hardware-neural network architecture search
JP2016004549A (en) Specific apparatus, specific method, and specific program
CN113609337A (en) Pre-training method, device, equipment and medium of graph neural network
JP6882116B2 (en) Generator, generation method, generation program, training data, and model
CN114724174A (en) Pedestrian attribute recognition model training method and device based on incremental learning
CN110598084A (en) Object sorting method, commodity sorting device and electronic equipment
Zhang et al. Image tweet popularity prediction with convolutional neural network
JP6826389B2 (en) Estimator, estimation method, and estimation program
JP2020047126A (en) Information processing apparatus, information processing method, and information processing program
JP6742186B2 (en) Determination device, determination method, and determination program
JP7491308B2 (en) OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD, PROGRAM, AND RECORDING MEDIUM
JP6985059B2 (en) Generator, generation method, and generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250