[go: up one dir, main page]

JP2009282660A - Image dictionary generation device, image dictionary generation method, and image dictionary generation program - Google Patents

Image dictionary generation device, image dictionary generation method, and image dictionary generation program Download PDF

Info

Publication number
JP2009282660A
JP2009282660A JP2008132711A JP2008132711A JP2009282660A JP 2009282660 A JP2009282660 A JP 2009282660A JP 2008132711 A JP2008132711 A JP 2008132711A JP 2008132711 A JP2008132711 A JP 2008132711A JP 2009282660 A JP2009282660 A JP 2009282660A
Authority
JP
Japan
Prior art keywords
image
dictionary
positive case
positive
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008132711A
Other languages
Japanese (ja)
Other versions
JP4995770B2 (en
Inventor
Yongqing Sun
泳青 孫
Satoshi Shimada
聡 嶌田
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008132711A priority Critical patent/JP4995770B2/en
Publication of JP2009282660A publication Critical patent/JP2009282660A/en
Application granted granted Critical
Publication of JP4995770B2 publication Critical patent/JP4995770B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】高精度な画像辞書の生成を,学習データの収集に負荷をかけることなく実現する。
【解決手段】画像領域分割処理部12は,与えられた辞書用画像群の各画像を領域分割する。クラスタリング処理部13は,その分割された領域をクラスタリングする。正事例領域クラスタ選定部14は,クラスタリング結果の領域クラスタを利用者に提示し,正事例となる領域クラスタを利用者からの指示により選定する。負事例選択部15は,正事例領域クラスタに属する領域を含む画像を除いた画像における分割領域群から正事例データの近傍にある分割領域を負事例データとして選定する。画像辞書生成部16は,選定した正事例データと負事例データとから画像辞書を生成し,辞書記憶部17に格納する。
【選択図】図1
A highly accurate image dictionary is generated without imposing a burden on learning data collection.
An image area division processing unit 12 divides each image of a given dictionary image group. The clustering processing unit 13 clusters the divided areas. The correct case region cluster selection unit 14 presents the region cluster as a clustering result to the user, and selects a region cluster to be a correct case according to an instruction from the user. The negative case selection unit 15 selects a divided region in the vicinity of the positive case data from the divided region group in the image excluding the image including the region belonging to the positive case region cluster as the negative case data. The image dictionary generation unit 16 generates an image dictionary from the selected positive case data and negative case data, and stores it in the dictionary storage unit 17.
[Selection] Figure 1

Description

本発明は,画像や映像中のオブジェクトやシーンがどのような概念であるかを認識するときに必要となる画像辞書を生成する画像辞書生成装置,画像辞書生成方法,および画像辞書生成プログラムに関する。   The present invention relates to an image dictionary generating apparatus, an image dictionary generating method, and an image dictionary generating program for generating an image dictionary necessary for recognizing what concept an object or scene in an image or video has.

予め定義しておいた意味ラベルと画像内容との関係に基づいて画像辞書を生成する従来技術として,大量の正事例データと負事例データを手動で収集し,収集したデータを学習することで求めた識別関数により,画像辞書を生成する方法がある。   As a conventional technique for generating an image dictionary based on the relationship between predefined semantic labels and image content, a large amount of positive case data and negative case data are collected manually and learned by learning the collected data. There is a method of generating an image dictionary by using a discriminant function.

例えば,非特許文献1に記載されている技術では,まず,ある意味に関する画像群を学習データとして収集し,次に学習データから色,テクスチャ,形状などの特徴量(L個)を別々に抽出し,その後,学習手法を用いて,個々の特徴空間においてL個の特徴識別モデルを構築する。このようにして学習データから求めた特徴識別モデルと各モデルの重み付け係数とをもとに画像辞書を生成する。   For example, in the technique described in Non-Patent Document 1, first, an image group related to a certain meaning is collected as learning data, and then feature quantities (L) such as color, texture, and shape are extracted separately from the learning data. Thereafter, L feature identification models are constructed in each feature space using a learning method. Thus, an image dictionary is generated based on the feature identification model obtained from the learning data and the weighting coefficient of each model.

また,正事例と負事例を自動で収集する方法として,ウェブ画像を自動収集してから,その中から選択した正事例とランダムに生成した負事例とを学習データとして用いて,その学習データを学習することで求めた識別関数により画像辞書を生成する方法がある(非特許文献2参照)。   In addition, as a method of automatically collecting positive and negative cases, web images are automatically collected, and positive data selected from them and randomly generated negative cases are used as learning data. There is a method of generating an image dictionary by using an identification function obtained by learning (see Non-Patent Document 2).

なお,後述する本発明の実施例で用いることができる領域分割方法の一例としては,非特許文献3に示されている技術がある。
A.Yanagawa, S.-F.Chang, L.Kennedy, and W.Hsu: "Columbia University's Baseline detectors for 374 LSCOM Semantic Visual Concepts", Columbia University ADVENT Technical Report #222-2006-8, March 20, 2007. Keiji Yanai, Kobus Barnard: Probabilistic Web Image Gatheringp, Proc. of ACM Multimedia Workshop on Multimedia Information Retrieval, pp.57-64, Nov. 2005. Yongqing Sun, Shinji Ozawa: "HIRBIA: A Hierarchical Approach for Region-based Image Retrival", ACM Multimedia System Journal, 10(6): 559-569(2005).
As an example of a region dividing method that can be used in an embodiment of the present invention described later, there is a technique shown in Non-Patent Document 3.
A. Yanagawa, S.-F.Chang, L. Kennedy, and W. Hsu: "Columbia University's Baseline detectors for 374 LSCOM Semantic Visual Concepts", Columbia University ADVENT Technical Report # 222-2006-8, March 20, 2007. Keiji Yanai, Kobus Barnard: Probabilistic Web Image Gatheringp, Proc. Of ACM Multimedia Workshop on Multimedia Information Retrieval, pp.57-64, Nov. 2005. Yongqing Sun, Shinji Ozawa: "HIRBIA: A Hierarchical Approach for Region-based Image Retrival", ACM Multimedia System Journal, 10 (6): 559-569 (2005).

従来の大量の正事例と負事例の学習データを手動で収集しておくことを前提とした技術は,学習データの収集に多大のコストと時間がかかることと,意味ラベルと画像内容との関係が変動する場合に適用できないことが問題である。   The conventional technology based on the premise of manually collecting a large amount of learning data for positive and negative cases requires a great deal of cost and time to collect learning data, and the relationship between semantic labels and image content. It is a problem that it cannot be applied when fluctuates.

例えば,ウェブ上にある画像の検索を行う場合,利用者の検索要求が生じるたびに,その定義ラベルを表す画像を大量に収集する必要がある。意味ラベルと画像内容の関係が変動するケースとして,(1)話題の変化によって意味ラベルの指し示す内容が変化するケース(例えば,Tigerという意味ラベルに対して,TigerWoodsが優勝した日のTigerWoods),(2)アナウンサーシーンという意味ラベルに対して,ニュース映像におけるアナウンサーのシーンを対応づける場合に,ニューススタジオが変わると,意味ラベルと画像内容の関係が変化するというようなケースがある。このような場合にその都度,改めて大量の学習データを収集して学習しなおす必要がある。このように,手動で学習データを収集する方法は,学習にコストと時間がかかるために適用領域が限定されるという問題があった。   For example, when searching for an image on the web, it is necessary to collect a large amount of images representing the definition label each time a user search request occurs. As a case where the relationship between the semantic label and the image content fluctuates, (1) a case where the content indicated by the semantic label changes due to a change in topic (for example, Tiger Woods on the day when Tiger Woods won the title against the semantic label of Tiger), ( 2) When the announcer scene in the news video is associated with the semantic label of the announcer scene, there are cases where the relationship between the semantic label and the image content changes when the news studio changes. In such a case, it is necessary to collect and re-learn a large amount of learning data each time. As described above, the method of manually collecting learning data has a problem in that the application area is limited because learning takes cost and time.

また,正事例と負事例を自動で収集する従来技術においては,負事例がランダムに収集されているので,負事例には正事例も混じる可能性が高く,画像辞書の精度が低くなることが問題であった。   Also, in the conventional technology that automatically collects positive and negative cases, negative cases are collected randomly, so there is a high possibility that positive cases will be mixed with negative cases, and the accuracy of the image dictionary will be low. It was a problem.

本発明は,上記課題の解決を図り,学習データの収集に負荷をかけることなく,かつ高精度に画像辞書を生成することができる技術を提供することを目的とする。   An object of the present invention is to solve the above-described problems and provide a technique capable of generating an image dictionary with high accuracy without imposing a burden on learning data collection.

画像辞書を高精度に生成するためには,負事例データをランダムに収集するのではなく,正事例データのできるだけ近くに分布するが,正事例ではないデータを負事例とすればよい結果が得られる。   In order to generate an image dictionary with high accuracy, negative case data is not collected at random, but is distributed as close as possible to positive case data. It is done.

そこで,本発明は,辞書用画像群から意味ラベルを表現している正事例データを選定する手段と,選定した正事例データを利用して,意味ラベルを表していない負事例データを辞書用画像群から選定する手段とを備えることを主要な特徴とする。すなわち,選定した正事例データを利用して,同じ辞書用画像群から意味ラベルを表していない負事例データを選定する手段を備えることにより,識別精度の高い画像辞書の生成が可能になる点が従来技術と大きく異なる。   Therefore, the present invention uses means for selecting positive case data expressing a semantic label from a dictionary image group, and negative case data that does not represent a semantic label using the selected positive case data. And a means for selecting from a group. In other words, it is possible to generate an image dictionary with high identification accuracy by providing means for selecting negative case data that does not represent a semantic label from the same dictionary image group using the selected positive case data. It is very different from the prior art.

また,一般的に,画像は複数の対象物で構成されていることが多いので,画像を領域分割して得られる部分領域から意味ラベルを表す辞書を生成する方法が有効である。意味ラベルを表す画像情報が多く含まれた辞書用画像群が与えられたときに,これらの辞書用画像の中で,画像の特徴が類似した部分領域が頻出していれば,その中に意味ラベルをよく表現した領域があるとすることは妥当である。   In general, since an image is often composed of a plurality of objects, a method of generating a dictionary representing a semantic label from a partial region obtained by dividing an image into regions is effective. When a dictionary image group containing a lot of image information representing a semantic label is given, if there are frequent partial regions with similar image characteristics in these dictionary images, the meaning is included in that image. It is reasonable to have an area that well represents the label.

したがって,さらに本発明では,頻出する類似の部分領域を求め,その中から正事例を選定する。負事例については,前述したように正事例を利用して適切に選定できるとよい。例えば,辞書用画像群が主要な被写体と背景で構成されていて,主要な被写体が正事例として選定されたときに,背景が似たシーンの中には正事例と類似しているが正事例ではない被写体が出現することが多い。このような部分領域の共起関係に着目し,正事例として選定された部分領域を利用して負事例を選定する方法が有効である。   Therefore, in the present invention, similar partial areas that frequently appear are obtained, and a positive case is selected from them. As described above, negative cases should be selected appropriately using positive cases. For example, when a dictionary image group is composed of a main subject and a background, and the main subject is selected as a positive case, it is similar to the positive case in a scene with a similar background, but the positive case Non-subject subjects often appear. Paying attention to such co-occurrence relationships of partial areas, it is effective to select a negative case using a partial area selected as a positive case.

以上の点に鑑み,本発明では,さらに辞書用画像群の各画像に対して領域分割を行う画像領域分割処理手段と前記得られた領域群が類似している領域クラスタを検出するクラスタリング処理手段を用いて,領域クラスタの中から正事例を選定し,辞書用画像群の中から正事例領域クラスタに属する画像領域を含む画像を除いた画像における分割領域群から負事例データを選定する。この発明では,画像領域分割手段により画像領域分割した領域群にクラスタリング処理を行うことで自動的に領域クラスタを求め,その中のどれを正事例にするかを利用者が選択する簡単な指示を行うだけで,適切な正事例データと負事例データとを選定できるので,負荷をかけることなく高精度な画像辞書が生成できる。   In view of the above points, in the present invention, an image area division processing unit that performs area division on each image in the dictionary image group and a clustering processing unit that detects an area cluster in which the obtained area group is similar. Is used to select a positive case from the region cluster and to select negative case data from the divided region group in the image excluding the image including the image region belonging to the positive case region cluster from the dictionary image group. In the present invention, a clustering process is performed on a group of regions divided by the image region dividing means to automatically obtain region clusters, and a simple instruction for the user to select which one of them is to be the correct case. It is possible to select appropriate positive case data and negative case data simply by doing so, and a highly accurate image dictionary can be generated without applying a load.

また,辞書用画像群が映像として与えられたときには,時間的に連続していて,被写体の動きやカメラの動きなどで見かけの変動があるが,同一の被写体が写っている場合や背景が同じ場合など,画像内容が類似している区間をショット区間として検出し,ショット単位で一括して正事例および負事例を選定すれば,効率よく画像辞書が生成できる。例えば,10秒間のショットから0.1秒間隔で画像を選択すれば,一つのショットを選定するだけで100枚の学習用の画像データを選定でき,学習データ収集の負荷を軽減することができる。   Also, when a dictionary image group is given as a video, it is continuous in time, and there is an apparent variation due to subject movement or camera movement, but the same subject or background is the same. For example, if a section having similar image contents is detected as a shot section and a positive case and a negative case are selected in a shot unit, an image dictionary can be generated efficiently. For example, if images are selected at intervals of 0.1 seconds from 10-second shots, 100 pieces of image data for learning can be selected by selecting only one shot, and the load of learning data collection can be reduced. .

そこで,本発明は,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出手段を備え,ショット単位で,正事例データおよび負事例データを選定する。   Therefore, the present invention is provided with shot detection means for detecting, as shots, time-sequential intervals in which image contents are similar from given dictionary video, and positive case data and negative data are shot by shot. Select case data.

上記のように本発明によれば,辞書生成に用いる辞書用画像群が与えられたときに,その辞書用画像群から意味ラベルを表現している正事例データを選定し,その選定した正事例データを利用して負事例データを選定するので,学習データを簡単に効率よく取得することができる。   As described above, according to the present invention, when a dictionary image group used for generating a dictionary is given, positive case data expressing a semantic label is selected from the dictionary image group, and the selected positive case is selected. Since negative data is selected using data, learning data can be acquired easily and efficiently.

また,正事例選定手段では,利用者の要求に応じた正事例を選択することにより,意味ラベルと画像内容との関係が変動する場合の辞書生成に適用できる。   In addition, the correct case selection means can be applied to generation of a dictionary when the relationship between the semantic label and the image content varies by selecting the correct case according to the user's request.

また,正事例を含まない辞書用画像群の中で意味ラベルを表してない負事例データを選定する手段を設けることで,高精度な辞書を生成することができる。   In addition, by providing means for selecting negative case data that does not represent a semantic label among dictionary images that do not include positive cases, a highly accurate dictionary can be generated.

以下,図面を参照しながら,本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔第1の例〕
第1の例の画像辞書生成装置は,与えられた辞書用画像群の各画像を領域分割し,クラスタリングをしてユーザに提示する。ユーザは,提示されたクラスタリング結果から正事例をポインティングデバイスなどにより指示する。その指示を入力して正事例データを選定し,次に,正事例でない他の領域をクラスタリングし,そのクラスタ領域を含む他の画像を得る。正事例のクラスタと距離が近い他のクラスタの領域を負事例とする。
[First example]
The image dictionary generation apparatus of the first example divides each image of a given dictionary image group into regions, performs clustering, and presents it to the user. The user instructs a positive case from the presented clustering result using a pointing device or the like. The instruction is input to select positive case data, and then other regions that are not positive cases are clustered to obtain another image including the cluster region. Regions of other clusters that are close to the positive case cluster are defined as negative cases.

第1の例の画像辞書生成装置の構成図を,図1に示す。本例の画像辞書生成装置は,辞書用画像群蓄積部11と,画像領域分割処理部12と,クラスタリング処理部13と,正事例領域クラスタ選定部14と,負事例選択部15と,画像辞書生成部16と,辞書記憶部17とから構成される。これらは,CPU,メモリ,外部記憶装置等からなるコンピュータとソフトウェアプログラム等によって実現される。各部の処理内容について以下に説明する。   FIG. 1 shows a configuration diagram of the image dictionary generating apparatus of the first example. The image dictionary generation apparatus of this example includes a dictionary image group storage unit 11, an image region division processing unit 12, a clustering processing unit 13, a positive case region cluster selection unit 14, a negative case selection unit 15, an image dictionary The generation unit 16 and the dictionary storage unit 17 are configured. These are realized by a computer including a CPU, a memory, an external storage device, and the like, a software program, and the like. The processing content of each part is demonstrated below.

辞書用画像群蓄積部11は,事前に取得しておいた辞書用の画像を蓄積・管理しておき,画像領域分割処理部12からの要求に応じて辞書用画像を画像領域分割処理部12に出力する。辞書用画像群蓄積部11には,例えば意味ラベルを検索ワードとしてウェブ画像検索エンジンから収集した画像群を収集して,辞書用画像群として格納すればよい。   The dictionary image group accumulating unit 11 accumulates and manages a dictionary image acquired in advance, and converts the dictionary image into the image region division processing unit 12 in response to a request from the image region division processing unit 12. Output to. The dictionary image group storage unit 11 may collect, for example, an image group collected from a web image search engine using a semantic label as a search word and store it as a dictionary image group.

画像領域分割処理部12は,辞書用画像群蓄積部11に読み取り要求を出して辞書用画像群蓄積部11から受け取ったある意味ラベルに関する辞書用画像群の個々の画像について,領域分割を行う。領域分割については,非特許文献3に示されているような従来の技術を用いることをができる。領域分割により得られた領域群をクラスタリング処理部13へ出力する。   The image region division processing unit 12 issues a read request to the dictionary image group storage unit 11 and performs region division on each image in the dictionary image group related to a certain semantic label received from the dictionary image group storage unit 11. For area division, a conventional technique as shown in Non-Patent Document 3 can be used. The area group obtained by the area division is output to the clustering processing unit 13.

クラスタリング処理部13は,画像領域分割処理部12から辞書用画像群の領域群を受け取って,クラスタリングを行う。求められた領域クラスタを正事例領域クラスタ選定部14へ出力する。   The clustering processing unit 13 receives the region group of the dictionary image group from the image region division processing unit 12 and performs clustering. The obtained area cluster is output to the positive case area cluster selection unit 14.

正事例領域クラスタ選定部14は,クラスタリング処理部13から受け取った領域クラスタをディスプレイに表示し,利用者に提示する。ポインティングデバイス等により入力した利用者の指示に応じた一つの領域クラスタを正事例領域クラスタとして選択する。その正事例領域クラスタを負事例選択部15へ出力する。   The correct case region cluster selection unit 14 displays the region cluster received from the clustering processing unit 13 on the display and presents it to the user. One area cluster corresponding to the user's instruction input by a pointing device or the like is selected as a positive case area cluster. The positive case region cluster is output to the negative case selection unit 15.

負事例選択部15は,正事例領域クラスタ選定部14から正事例領域クラスタを受け取ると,正事例領域クラスタにおける各正事例領域を含む画像を除いた辞書用画像群の中で,負事例を選択する。   When the negative case selection unit 15 receives the positive case region cluster from the positive case region cluster selection unit 14, the negative case selection unit 15 selects a negative case from the dictionary image group excluding images including each positive case region in the positive case region cluster. To do.

画像辞書生成部16は,負事例選択部15から受け取った正事例と負事例を学習データとして用いて,従来技術と同様な学習手法によりモデルを求めて,辞書記憶部17へ出力する。辞書記憶部17は,画像辞書生成部16から受け取ったモデルと意味ラベルを組にして画像辞書として記憶する。   The image dictionary generation unit 16 uses the positive case and the negative case received from the negative case selection unit 15 as learning data, obtains a model by a learning method similar to the conventional technique, and outputs the model to the dictionary storage unit 17. The dictionary storage unit 17 stores the model and the semantic label received from the image dictionary generation unit 16 as an image dictionary.

次に,上記の構成における処理手順を説明する。図2は,図1に示す画像辞書生成装置の基本動作のフローチャートである。   Next, a processing procedure in the above configuration will be described. FIG. 2 is a flowchart of the basic operation of the image dictionary generation apparatus shown in FIG.

・ステップS21:辞書用画像群蓄積部11で管理されている辞書用画像群を読み込む。   Step S21: The dictionary image group managed by the dictionary image group storage unit 11 is read.

・ステップS22:ステップS21において収集した辞書用画像群の個々の画像に対して領域分割を行う。領域分割の手法については,例えば非特許文献3に記載されているような従来技術を用いればよい。このような領域分割の手法は,よく知られている技術であるので,ここでの詳細な説明は省略する。   Step S22: Region division is performed on each image in the dictionary image group collected in step S21. As a method of area division, for example, a conventional technique as described in Non-Patent Document 3 may be used. Since such a region division method is a well-known technique, a detailed description thereof is omitted here.

・ステップS23:ステップS22で得られた領域群をクラスタリング手法に基づいて領域クラスタに分類する。この領域の分類は,Fuzzy K−meansなどのクラスタリングにより実現できる。この領域の分類手法についても,画像処理技術の分野ではよく知られている手法であるので,その詳細な手順の説明は省略する。   Step S23: The region group obtained in step S22 is classified into region clusters based on the clustering method. This area classification can be realized by clustering such as Fuzzy K-means. Since this region classification method is also a well-known method in the field of image processing technology, a detailed description of the procedure is omitted.

・ステップS24:ステップS23で求められた領域クラスタを利用者に提示し,利用者からの指示により正事例領域クラスタを選定する。   Step S24: The area cluster obtained in step S23 is presented to the user, and the correct case area cluster is selected according to an instruction from the user.

図3に,利用者からの指示を入力し,正事例領域クラスタを選定するためのGUI(Graphical User Interface)の例を示す。例えば,図3(A)に示すような辞書用画像群の各画像31〜34を,ステップS22において領域分割することにより,画像31については分割領域31a〜31dが,画像32については分割領域32a〜32dが,画像33については分割領域33a〜33dが,画像34については分割領域34a〜34dが,それぞれ得られたとする。   FIG. 3 shows an example of a GUI (Graphical User Interface) for inputting an instruction from the user and selecting a correct case area cluster. For example, the images 31 to 34 of the dictionary image group as shown in FIG. 3A are divided into regions in step S22, so that the divided regions 31a to 31d for the image 31 and the divided region 32a for the image 32 are obtained. ˜32d, divided regions 33a to 33d for the image 33, and divided regions 34a to 34d for the image 34, respectively.

ステップS23では,これらの各分割領域31a〜34dについて,類似する特徴を有するものをグループ化し,クラスタリングする。ここで,分割領域31a,33d,34cが領域クラスタCluster1に,分割領域32d,33aが領域クラスタCluster2に,分割領域31c,33c,34aが領域クラスタCluster3にクラスタリングされたとすると,そのクラスタリング結果の三つの領域クラスタを,図3(B)に示す表示画面35のようにディスプレイに一覧表示し,この中から利用者が正事例領域クラスタとみなすクラスタをポインティングデバイスでクリックすることにより指示できるようにする。ステップS24では,この指示を入力し,正事例領域クラスタを選定する。この例では,領域クラスタCluster1が正事例領域クラスタとして選定されている。これらの領域の画像を正事例とする。   In step S23, those divided regions 31a to 34d having similar characteristics are grouped and clustered. Here, if the divided areas 31a, 33d, and 34c are clustered in the area cluster Cluster1, the divided areas 32d and 33a are clustered in the area cluster Cluster2, and the divided areas 31c, 33c, and 34a are clustered in the area cluster Cluster3, three clustering results are obtained. The area clusters are displayed as a list on the display as shown in the display screen 35 shown in FIG. 3B, and the user can designate the cluster by clicking with the pointing device the cluster regarded as the correct case area cluster. In step S24, this instruction is input, and a positive case area cluster is selected. In this example, the area cluster Cluster1 is selected as the positive case area cluster. Images of these areas are taken as positive examples.

・ステップS25:次に,正事例領域クラスタの選定結果を利用して,正事例の分布の近傍にある負事例を選択する処理を行う。この処理内容の詳細については,図4に従って後述する。   Step S25: Next, using the selection result of the positive case region cluster, a process of selecting a negative case near the positive case distribution is performed. Details of this processing will be described later with reference to FIG.

・ステップS26:ステップS24,S25で求められた正事例と負事例とを用いて,モデルを学習する。学習手法の実施例として,サポートベクターマシン(SVM:Suport Vector Machine )を用いればよい。もちろん,他の学習器を用いることも可能である。   Step S26: The model is learned using the positive case and the negative case obtained in Steps S24 and S25. As an example of the learning method, a support vector machine (SVM) may be used. Of course, other learning devices can be used.

・ステップS27:ステップS26で得られたモデルとそれに関する意味ラベルを画像辞書として辞書記憶部17に格納する。以上の処理により,画像辞書が生成される。   Step S27: The model obtained in step S26 and the semantic label related thereto are stored in the dictionary storage unit 17 as an image dictionary. With the above processing, an image dictionary is generated.

次に,上記ステップS25における負事例選択処理の詳細について,図4に示すフローチャートに従って説明する。ここで,図5に示す辞書用画像群を説明の例として用いる。図5において,Aは画像辞書生成の対象となる被写体で,C,DはAと似ている被写体で,B1〜B6は画像の中の背景である。例えば,A,C,Dはゴルフ選手であり,B1,B2,B3はゴルフ場の芝生,空などの背景であるが,この場合のように似ている背景の被写体は類似していることが多い。   Next, details of the negative case selection process in step S25 will be described with reference to the flowchart shown in FIG. Here, the dictionary image group shown in FIG. 5 is used as an example for explanation. In FIG. 5, A is a subject to be image dictionary generated, C and D are subjects similar to A, and B1 to B6 are backgrounds in the image. For example, A, C, and D are golf players, and B1, B2, and B3 are backgrounds of golf course lawn, sky, etc., but similar background subjects are similar as in this case. Many.

・ステップS31:図2のステップS24にて得られた正事例領域クラスタ(Aの領域で構成されるクラスタ)を読み込む。   Step S31: The positive case area cluster (cluster composed of area A) obtained in step S24 of FIG. 2 is read.

・ステップS32:辞書用画像群の中で正事例領域を含む画像(Aの領域を含む画像1,画像2)を収集する。   Step S32: Collect images including the positive case region (image 1, image 2 including region A) in the dictionary image group.

・ステップS33:ステップS32で得られた画像群(画像1,画像2)における,正事例でない領域群のクラスタを抽出する。なお,ここで正事例でない領域群に対してクラスタリングを行って,クラスタ内の領域数や領域の面積により(ステップS35の説明参照),主要なクラスタ(B1,B2,B3の領域で構成されるクラスタ)を求めてもよい。   Step S33: Extract a cluster of a region group that is not a positive case in the image group (image 1, image 2) obtained in step S32. Here, clustering is performed on a group of non-positive examples, and the main cluster (B1, B2, and B3 areas are configured according to the number of areas in the cluster and the area of the area (see the description of step S35). Cluster).

・ステップS34:辞書用画像群の中から,ステップS33で求められたクラスタにおける領域(B1,B2,B3の領域)を含み,かつ正事例(Aの領域)を含まない画像(画像3,画像4,画像5,画像6)を取得する。   Step S34: An image (image 3, image) that includes the area (B1, B2, B3 area) in the cluster obtained in step S33 from the dictionary image group and does not include the correct case (A area). 4, image 5, image 6) are acquired.

・ステップS35:ステップS34で得られた画像の領域群(ステップS22の領域分割で得られた領域群のうち画像3〜6の領域群)を再度クラスタリングし,クラスタリング結果から主要なクラスタ(例えばC,Dの領域で構成されるクラスタ)を抽出する。ここでは,例えばクラスタ内の領域数が多いクラスタ,もしくはその領域数がある閾値以上のクラスタ,または,クラスタ内の領域の面積が大きいクラスタというような,負事例の候補として適切であると考えられるクラスタを,主要なクラスタとして抽出する。また,ここで抽出するクラスタとして,そのクラスタの中心と正事例領域クラスタの中心との特徴空間における距離が最も小さいクラスタを選んでもよい。   Step S35: The area group of the image obtained in Step S34 (the area group of the images 3 to 6 among the area groups obtained by the area division in Step S22) is clustered again, and the main cluster (for example, C , D). Here, it is considered appropriate as a candidate for a negative case, for example, a cluster having a large number of regions in the cluster, a cluster having a certain number of regions or more, or a cluster having a large area in the cluster. The cluster is extracted as the main cluster. Further, as a cluster to be extracted here, a cluster having the smallest distance in the feature space between the center of the cluster and the center of the positive example area cluster may be selected.

・ステップS36:ステップS35で得られたクラスタ(この例では,C,Dの領域で構成されるクラスタ)にある各領域と正事例領域クラスタの中心との距離を算出する。距離の小さい順に正事例と同数の領域を選択して負事例とする。選択する負事例は,必ずしも正事例と同数でなくてもよいが,同数に近いほうが学習結果の精度がよくなる。   Step S36: The distance between each region in the cluster obtained in step S35 (in this example, a cluster composed of regions C and D) and the center of the positive case region cluster is calculated. The same number of regions as the positive case are selected in ascending order of distance to make the negative case. The number of negative cases to select is not necessarily the same as the number of positive cases, but the closer the number is, the better the accuracy of the learning result.

以上のステップS31からステップS36に至る処理により,正事例の分布の近傍にある負事例を選択することができる。それらの負事例を学習に用いることで,誤認識を抑えることができる。なお,上記ステップS36において,図3(B)と同じようなGUIによる一覧表示により,利用者に負事例を選択させることも可能である。   By the processes from step S31 to step S36, a negative case near the positive case distribution can be selected. By using these negative cases for learning, misrecognition can be suppressed. In step S36, it is possible to allow the user to select a negative case by displaying a list by GUI similar to that shown in FIG.

〔第2の例〕
第2の例の画像辞書生成装置は,辞書生成に用いる辞書用画像群が映像として与えられたときに,映像をショットに分割し,ショット単位で正事例を利用者に指定させ,他を負事例として学習することにより,画像辞書を生成する。
[Second example]
The image dictionary generation device of the second example divides the video into shots when a group of dictionary images used for dictionary generation is given as video, allows the user to specify positive cases in shot units, and negatives the others. By learning as an example, an image dictionary is generated.

第2の例の画像辞書生成装置の構成図を,図6に示す。本例の画像辞書生成装置は,辞書用画像群蓄積部40,ショット分割部41,正事例選定部42,負事例選択部43,画像辞書生成部44,辞書記憶部45で構成される。これらは,CPU,メモリ,外部記憶装置等からなるコンピュータとソフトウェアプログラム等によって実現される。各部の処理内容について以下に説明する。   FIG. 6 shows a configuration diagram of the image dictionary generation apparatus of the second example. The image dictionary generation apparatus of this example includes a dictionary image group storage unit 40, a shot division unit 41, a positive case selection unit 42, a negative case selection unit 43, an image dictionary generation unit 44, and a dictionary storage unit 45. These are realized by a computer including a CPU, a memory, an external storage device, and the like, a software program, and the like. The processing content of each part is demonstrated below.

辞書用画像群蓄積部40は,事前に取得しておいた辞書用の映像を蓄積・管理しておき,ショット分割部41からの要求に応じて辞書用映像をショット分割部41に出力する。   The dictionary image group accumulating unit 40 accumulates and manages a dictionary image acquired in advance, and outputs the dictionary image to the shot dividing unit 41 in response to a request from the shot dividing unit 41.

ショット分割部41は,辞書用画像群蓄積部40に読み取り要求を出して,辞書用画像群蓄積部40から受け取った辞書用映像において,画像内容が類似している,時間的に連続した区間をショットとして検出する。検出したショット区間情報を正事例選定部42へ出力する。   The shot division unit 41 issues a read request to the dictionary image group storage unit 40, and in the dictionary video received from the dictionary image group storage unit 40, temporally continuous sections in which the image contents are similar are displayed. Detect as a shot. The detected shot section information is output to the correct case selection unit 42.

正事例選定部42は,ショット分割部41から受け取ったショット区間情報を利用者に提示する。利用者から指示により正事例を選定する。   The correct case selection unit 42 presents the shot section information received from the shot division unit 41 to the user. Select positive cases according to instructions from users.

図7に,利用者からの指示を入力し,学習データを選定するためのGUI(Graphical User Interface)の例を示す。図7に示すように,ディスプレイに各ショットの先頭画像を一覧表示し,その中から利用者にマウス等のポインティングデバイスで正事例を指示させることにより,正事例を選定する。   FIG. 7 shows an example of a GUI (Graphical User Interface) for inputting an instruction from a user and selecting learning data. As shown in FIG. 7, a list of the top images of each shot is displayed on the display, and the correct case is selected by instructing the correct case with a pointing device such as a mouse.

ここで,二つの選定方法が有効である。一つは,各ショットの先頭画像の下にある“正解”をクリックさせることにより,クリックされたショットを正事例データとして選定する方法である。この選定方法を用いれば,映像の中の「人物顔」などのオブジェクトに関する正事例を選定することができる。二つ目の方法は,各ショットの先頭画像の下にある“In”または“Out”を利用者にクリックさせることにより,“In”から“Out”までの間のショットを正事例として選定する方法である。例えば,図7において,画像3の下にある“In”のボタンと,画像5の下にある“Out”のボタンがクリックされると,画像3から画像5の前までの間の全ショットを正事例として選定する。この選定方法により,映像の中の「サッカーのシュートシーン」などの動的なイベントシーンに関する正事例を,効率よく選定することが可能になる。   Here, two selection methods are effective. One is a method of selecting the clicked shot as correct case data by clicking the “correct answer” below the head image of each shot. By using this selection method, it is possible to select a positive case related to an object such as a “human face” in a video. The second method is to select a shot between “In” and “Out” as a positive case by letting the user click “In” or “Out” below the first image of each shot. Is the method. For example, in FIG. 7, when an “In” button below the image 3 and an “Out” button below the image 5 are clicked, all shots from the image 3 to the front of the image 5 are displayed. Select as a positive case. With this selection method, it is possible to efficiently select positive examples related to dynamic event scenes such as “soccer shoot scenes” in the video.

負事例選択部43は,正事例選定部42で選定した正事例以外の区間を負事例として選定する。   The negative case selection unit 43 selects a section other than the positive case selected by the positive case selection unit 42 as a negative case.

画像辞書生成部44は,正事例選定部42と負事例選択部43によって求められた正事例と負事例を用いて,モデルを学習する。学習手法の実施例としてSVMを用いればよい。もちろん,他の学習器を用いることも可能である。   The image dictionary generation unit 44 learns a model using the positive case and the negative case obtained by the positive case selection unit 42 and the negative case selection unit 43. An SVM may be used as an example of the learning method. Of course, other learning devices can be used.

画像辞書生成部44によって得られたモデルとそれに関する意味ラベルは,画像辞書として辞書記憶部45に格納される。   The model obtained by the image dictionary generation unit 44 and the semantic label related thereto are stored in the dictionary storage unit 45 as an image dictionary.

次に,上記の構成における処理手順について説明する。図8は,図6に示す画像辞書生成装置の基本動作のフローチャートである。   Next, a processing procedure in the above configuration will be described. FIG. 8 is a flowchart of the basic operation of the image dictionary generation apparatus shown in FIG.

・ステップS51:辞書用画像群蓄積部40で管理されている映像を辞書用画像群として読み込む。   Step S51: The video managed by the dictionary image group storage unit 40 is read as a dictionary image group.

・ステップS52:ステップS51で読み込んだ辞書用映像において,画像内容が類似している,時間的に連続した区間をショットとして検出する。   Step S52: In the dictionary video read in step S51, temporally continuous sections with similar image contents are detected as shots.

・ステップS53:ステップS52から受け取ったショット区間情報を利用者に提示する。図7に示すようなGUIにより利用者から指示された正事例を選択する。   Step S53: The shot section information received from Step S52 is presented to the user. The correct case designated by the user is selected by the GUI as shown in FIG.

・ステップS54:ステップS53で選定した正事例以外の区間を負事例として選択する。   Step S54: A section other than the positive case selected in Step S53 is selected as a negative case.

・ステップS55:求められた正事例と負事例を用いて,モデルを学習する。学習手法の一例としては,SVMを用いる方法があるが,他の学習器を用いることもできる。   Step S55: A model is learned using the obtained positive case and negative case. As an example of the learning method, there is a method using SVM, but other learning devices can also be used.

・ステップS56:学習によって得られたモデルとそれに関する意味ラベルの組を画像辞書として辞書記憶部45に格納する。以上の処理により,画像辞書が生成できる。   Step S56: A set of a model obtained by learning and a semantic label related thereto is stored in the dictionary storage unit 45 as an image dictionary. An image dictionary can be generated by the above processing.

以上の画像辞書生成の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The above image dictionary generation processing can be realized by a computer and a software program, and the program can be provided by being recorded on a computer-readable recording medium or provided via a network.

画像辞書生成装置の構成図である。It is a block diagram of an image dictionary production | generation apparatus. 画像辞書生成装置の基本動作のフローチャートである。It is a flowchart of the basic operation | movement of an image dictionary production | generation apparatus. 正事例領域クラスタを選定するためのGUIの例を示す図である。It is a figure which shows the example of GUI for selecting a right case area | region cluster. 負事例選択処理を示すフローチャートである。It is a flowchart which shows a negative case selection process. 辞書用画像群の例を示す図である。It is a figure which shows the example of the image group for dictionary. 画像辞書生成装置の構成図である。It is a block diagram of an image dictionary production | generation apparatus. 正事例を選定するためのGUIの例を示す図である。It is a figure which shows the example of GUI for selecting a positive example. 画像辞書生成装置の基本動作のフローチャートである。It is a flowchart of the basic operation | movement of an image dictionary production | generation apparatus.

符号の説明Explanation of symbols

11,40 辞書用画像群蓄積部
12 画像領域分割処理部
13 クラスタリング処理部
14 正事例領域クラスタ選定部
15,43 負事例選択部
16,44 画像辞書生成部
17,45 辞書記憶部
41 ショット分割部
42 正事例選定部
DESCRIPTION OF SYMBOLS 11,40 Dictionary image group storage part 12 Image area division | segmentation process part 13 Clustering process part 14 Positive example area cluster selection part 15,43 Negative case selection part 16,44 Image dictionary production | generation part 17,45 Dictionary storage part 41 Shot division part 42 Positive Case Selection Department

Claims (7)

概念を表す言葉である意味ラベルと,当該意味ラベルの概念を表す画像情報とを組とする画像辞書を生成する画像辞書生成装置であって,
与えられた辞書生成に用いる辞書用画像群から,画像辞書生成の対象となっている特定の意味ラベルを表現している正事例データを選定する正事例選定手段と,
前記正事例選定手段により選定した正事例データを利用して,前記辞書用画像群の中の正事例データを含まない画像群から,意味ラベルを表していない負事例データを選定する負事例選定手段と,
前記正事例選定手段と前記負事例選定手段により選定した正事例データと負事例データとから画像辞書を生成する画像辞書生成手段と,
前記画像辞書生成手段が生成した画像辞書を記憶する辞書記憶手段とを備える
ことを特徴とする画像辞書生成装置。
An image dictionary generation device that generates an image dictionary that includes a meaning label that is a word representing a concept and image information that represents the concept of the meaning label,
A positive case selection means for selecting positive case data representing a specific semantic label that is a target of image dictionary generation from a dictionary image group used for generating a dictionary;
Negative case selection means for selecting negative case data that does not represent a semantic label from an image group that does not include positive case data in the dictionary image group by using the positive case data selected by the positive case selection means When,
Image dictionary generating means for generating an image dictionary from positive case data and negative case data selected by the positive case selecting means and the negative case selecting means;
An image dictionary generation apparatus comprising: dictionary storage means for storing the image dictionary generated by the image dictionary generation means.
前記正事例選定手段は,
前記辞書用画像群の各画像に対して領域分割を行う画像領域分割処理手段と,
前記得られた領域群をクラスタリングし,類似している領域群からなるクラスタを検出するクラスタリング処理手段と,
前記クラスタの中から,正事例となる正事例領域クラスタを,利用者からの指示により特定することで正事例データを選定する正事例領域クラスタ選定手段とを備え,
前記負事例選定手段は,
前記辞書用画像群の中から前記正事例領域クラスタに属する画像領域を含む画像を除いた画像における前記分割された領域群から正事例データの近傍にある領域を負事例データとして選定する手段を備える
ことを特徴とする請求項1に記載の画像辞書生成装置。
The positive case selection means is:
Image region division processing means for performing region division on each image of the dictionary image group;
Clustering processing means for clustering the obtained area group and detecting a cluster composed of similar area groups;
A positive case area cluster selecting means for selecting positive case data by specifying a positive case area cluster as a positive case from the cluster according to an instruction from a user;
The negative case selection means is:
Means for selecting, as negative case data, a region in the vicinity of positive case data from the divided region group in an image obtained by removing an image including an image region belonging to the positive case region cluster from the dictionary image group; The image dictionary generation device according to claim 1.
辞書生成に用いる辞書用画像群が映像として与えられたときに,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出手段を備え,
前記正事例選定手段および前記負事例選定手段は,前記ショット検出手段が検出したショット単位で正事例データおよび負事例データを選定する
ことを特徴とする請求項1に記載の画像辞書生成装置。
Shot detection means for detecting, as shots, time-sequential intervals in which image contents are similar from given dictionary videos when a dictionary image group used for dictionary generation is given as videos. Prepared,
The image dictionary generation device according to claim 1, wherein the positive case selection unit and the negative case selection unit select positive case data and negative case data in units of shots detected by the shot detection unit.
概念を表す言葉である意味ラベルと,当該意味ラベルの概念を表す画像情報とを組とする画像辞書を生成する画像辞書生成方法であって,
与えられた辞書生成に用いる辞書用画像群から,画像辞書生成の対象となっている特定の意味ラベルを表現している正事例データを選定する正事例選定過程と,
前記正事例選定手段により選定した正事例データを利用して,前記辞書用画像群の中の正事例データを含まない画像群から,意味ラベルを表していない負事例データを選定する負事例選定過程と,
前記正事例選定過程と前記負事例選定過程において選定した正事例データと負事例データとから画像辞書を生成する画像辞書生成過程と,
前記画像辞書生成過程が生成した画像辞書を辞書記憶装置に記憶する辞書記憶過程とを有する
ことを特徴とする画像辞書生成方法。
An image dictionary generation method for generating an image dictionary that includes a meaning label that is a word representing a concept and image information that represents the concept of the meaning label,
A positive case selection process for selecting positive case data representing a specific semantic label that is a target of image dictionary generation from a dictionary image group used for generating a dictionary;
A negative case selection process for selecting negative case data that does not represent a semantic label from an image group that does not include positive case data in the dictionary image group, using the positive case data selected by the positive case selection means. When,
An image dictionary generation process for generating an image dictionary from the positive case data and the negative case data selected in the positive case selection process and the negative case selection process;
An image dictionary generation method comprising: a dictionary storage step of storing the image dictionary generated by the image dictionary generation step in a dictionary storage device.
前記正事例選定過程は,
前記辞書用画像群の各画像に対して領域分割を行う画像領域分割処理過程と,
前記得られた領域群をクラスタリングし,類似している領域群からなるクラスタを検出するクラスタリング処理過程と,
前記領域クラスタの中から,正事例となる正事例領域クラスタを,利用者からの指示により特定することで正事例データを選定する正事例領域クラスタ選定過程とを有し,
前記負事例選定過程は,
前記辞書用画像群の中から前記正事例領域クラスタに属する画像領域を含む画像を除いた画像における前記分割された領域群から正事例データの近傍にある領域を負事例データとして選定する過程を有する
ことを特徴とする請求項4に記載の画像辞書生成方法。
The positive case selection process is as follows:
An image region dividing process for dividing the region of each image in the dictionary image group;
A clustering process for clustering the obtained area groups and detecting clusters composed of similar area groups;
A positive case area cluster selection process for selecting positive case data by specifying a positive case area cluster to be a positive case from the area cluster by an instruction from a user;
The negative case selection process is:
Selecting a region in the vicinity of the positive case data as the negative case data from the divided region group in the image excluding the image including the image region belonging to the positive case region cluster from the dictionary image group. The image dictionary generation method according to claim 4.
辞書生成に用いる辞書用画像群が映像として与えられたときに,与えられた辞書用映像の中から,画像内容が類似している,時間的に連続した区間をショットとして検出するショット検出過程を有し,
前記正事例選定過程および前記負事例選定過程では,前記ショット検出過程において検出したショット単位で正事例データおよび負事例データを選定する
ことを特徴とする請求項4に記載の画像辞書生成方法。
When a dictionary image group to be used for dictionary generation is given as a video, a shot detection process for detecting, as shots, temporally continuous sections from the given dictionary video with similar image contents Have
5. The image dictionary generation method according to claim 4, wherein, in the positive case selection process and the negative case selection process, positive case data and negative case data are selected for each shot detected in the shot detection process.
請求項4,請求項5または請求項6に記載の画像辞書生成方法を,コンピュータに実行させるための画像辞書生成プログラム。   An image dictionary generation program for causing a computer to execute the image dictionary generation method according to claim 4, 5 or 6.
JP2008132711A 2008-05-21 2008-05-21 Image dictionary generation device, image dictionary generation method, and image dictionary generation program Expired - Fee Related JP4995770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008132711A JP4995770B2 (en) 2008-05-21 2008-05-21 Image dictionary generation device, image dictionary generation method, and image dictionary generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008132711A JP4995770B2 (en) 2008-05-21 2008-05-21 Image dictionary generation device, image dictionary generation method, and image dictionary generation program

Publications (2)

Publication Number Publication Date
JP2009282660A true JP2009282660A (en) 2009-12-03
JP4995770B2 JP4995770B2 (en) 2012-08-08

Family

ID=41453075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008132711A Expired - Fee Related JP4995770B2 (en) 2008-05-21 2008-05-21 Image dictionary generation device, image dictionary generation method, and image dictionary generation program

Country Status (1)

Country Link
JP (1) JP4995770B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161295A (en) * 2012-02-06 2013-08-19 Canon Inc Label addition device, label addition method, and program
JP2015194927A (en) * 2014-03-31 2015-11-05 セコム株式会社 Object identification device
JP2016001387A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Image classification preprocessing device, image classification device, image classification preprocessing method, image classification method, and program
JP2018180849A (en) * 2017-04-11 2018-11-15 株式会社Nttドコモ Information processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332206A (en) * 2004-05-20 2005-12-02 Nippon Hoso Kyokai <Nhk> Video event discrimination device and program thereof, and video event discrimination learning data generation device and program thereof
JP2007317133A (en) * 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> Image classification method, apparatus and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332206A (en) * 2004-05-20 2005-12-02 Nippon Hoso Kyokai <Nhk> Video event discrimination device and program thereof, and video event discrimination learning data generation device and program thereof
JP2007317133A (en) * 2006-05-29 2007-12-06 Nippon Telegr & Teleph Corp <Ntt> Image classification method, apparatus and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161295A (en) * 2012-02-06 2013-08-19 Canon Inc Label addition device, label addition method, and program
JP2015194927A (en) * 2014-03-31 2015-11-05 セコム株式会社 Object identification device
JP2016001387A (en) * 2014-06-11 2016-01-07 日本電信電話株式会社 Image classification preprocessing device, image classification device, image classification preprocessing method, image classification method, and program
JP2018180849A (en) * 2017-04-11 2018-11-15 株式会社Nttドコモ Information processing device

Also Published As

Publication number Publication date
JP4995770B2 (en) 2012-08-08

Similar Documents

Publication Publication Date Title
Tiwari et al. A survey of recent work on video summarization: approaches and techniques
US9176987B1 (en) Automatic face annotation method and system
US10394878B2 (en) Associating still images and videos
US10867183B2 (en) Selecting and presenting representative frames for video previews
Vasudevan et al. Query-adaptive video summarization via quality-aware relevance estimation
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
US8804999B2 (en) Video recommendation system and method thereof
US10282616B2 (en) Visual data mining
US8364698B2 (en) Apparatus and software system for and method of performing a visual-relevance-rank subsequent search
WO2022116888A1 (en) Method and device for video data processing, equipment, and medium
Cooper et al. Video segmentation via temporal pattern classification
US20150378544A1 (en) Automated Content Detection, Analysis, Visual Synthesis and Repurposing
Asghar et al. Video indexing: a survey
CN113766330A (en) Method and device for generating recommendation information based on video
KR20070118635A (en) Thermalization of Audio and / or Visual Data
Fei et al. Creating memorable video summaries that satisfy the user’s intention for taking the videos
JP5226651B2 (en) Similar image retrieval device, similar image retrieval method, and similar image retrieval program
JP4995770B2 (en) Image dictionary generation device, image dictionary generation method, and image dictionary generation program
Dumont et al. Rushes video summarization and evaluation
JP2006217046A (en) Video index image generator and generation program
Chu et al. Enabling portable animation browsing by transforming animations into comics
Tapu et al. TV news retrieval based on story segmentation and concept association
US20140189769A1 (en) Information management device, server, and control method
Choi et al. A framework for automatic static and dynamic video thumbnail extraction
Salehin et al. Adaptive fusion of human visual sensitive features for surveillance video summarization

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120508

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees