[go: up one dir, main page]

JP2006217046A - Video index image generator and generation program - Google Patents

Video index image generator and generation program Download PDF

Info

Publication number
JP2006217046A
JP2006217046A JP2005025224A JP2005025224A JP2006217046A JP 2006217046 A JP2006217046 A JP 2006217046A JP 2005025224 A JP2005025224 A JP 2005025224A JP 2005025224 A JP2005025224 A JP 2005025224A JP 2006217046 A JP2006217046 A JP 2006217046A
Authority
JP
Japan
Prior art keywords
index image
video
search
image
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005025224A
Other languages
Japanese (ja)
Inventor
Hiroshi Matsuzaki
弘 松▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2005025224A priority Critical patent/JP2006217046A/en
Publication of JP2006217046A publication Critical patent/JP2006217046A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video index image generator for generating and redisplaying the main scene of a video image effectively, and to provide a program for generating a video index image. <P>SOLUTION: A plurality of frames belonging to each segment of a video image segmented, based on the feature of a frame are stored in a database (1)16, and a frame satisfying predetermined conditions is extracted among the plurality of frames as a representative image for that segment at analysis in a segment/main frame-extracting section 24 in a processing unit 10. The representative image thus extracted is displayed on a display 12 and then a new representative image for each segment is searched at a subjectivity/taste-inferring section 26, based on the taste of a user among the plurality of frames stored in the database (1)16. The representative image thus searched is displayed on the display 12. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、連続する複数のフレームから成る映像からインデックス画像を生成するインデックス画像生成装置及びインデックス画像を生成するプログラムに関するものである。   The present invention relates to an index image generating apparatus that generates an index image from video composed of a plurality of continuous frames, and a program that generates an index image.

近年、デジタル情報が至る場面で利用されている。これらの情報はテキスト情報のみならず、画像、映像等の容量の膨大なデータに関しても様々な分野で利用されている。そして、今後、ストレージデバイスの容量増大に伴い、大量の画像・映像の中からユーザの要求に満足するデータを検索・表示する技術の重要性は、益々高まることが必至である。   In recent years, digital information has been used in various situations. Such information is used in various fields not only for text information but also for enormous data such as images and videos. In the future, as the capacity of storage devices increases, the importance of technology for searching and displaying data satisfying user requirements from a large number of images and videos will inevitably increase.

ところで、画像を検索する場合、キーワードによらず、画像からその様々な特徴を算出し、これらの特徴を比較することにより類似する特徴を有する画像を検索する類似画像検索システムも多数提案されている。この技術は静止画像に限ることなく、動画像からの類似シーン検索や、特徴画像の抽出によるダイジェスト画像生成技術にも応用されている。   By the way, when searching for an image, many similar image search systems have been proposed that search for images having similar features by calculating various features from the images and comparing these features regardless of keywords. . This technology is not limited to still images, but is also applied to digest image generation technology by searching for similar scenes from moving images and extracting feature images.

パーソナルなダイジェスト映像を生成する場合に、イベント情報を参照して映像の意味的な区間を抽出し、その区間の意味的特徴量計算を行い、特徴量の大きな映像シーンを選択してダイジェストの生成を行う技術が知られている。更に、特徴量計算の際に、同時に各属性に関連付けられたカテゴリの嗜好情報を参照し、対応する嗜好情報の好きな度合いを用いて特徴量の値を増減させることにより、ユーザの嗜好を反映させたダイジェストを生成するものである(例えば、特許文献1参照)。   When generating a personal digest video, refer to the event information to extract the semantic section of the video, perform the semantic feature calculation of that section, select a video scene with a large feature, and generate the digest Techniques for performing are known. Furthermore, at the time of calculating the feature value, the preference information of the category associated with each attribute is referred to at the same time, and the preference value of the corresponding preference information is used to increase or decrease the feature value to reflect the user's preference. The generated digest is generated (see, for example, Patent Document 1).

また、複数の視聴者が同一の番組を個別に再生視聴する際に、視聴者が順次再生順序を変更する操作を行った場面とその操作のタイミングの操作履歴に基づいてクラスタ分析を行ったクラスタ分析結果が入力されたときに、クラスタ内の時間軸上で操作履歴に基づいたクラスタの代表点をインデックス画像として生成したり、クラスタ分析結果及び映像特徴によるカット点が入力されたときにクラスタの代表点との差を閾値により判断してインデックスを生成する技術が知られている(例えば、特許文献2参照)。
特開2002−232828号公報 特開2004−157786号公報
In addition, when multiple viewers individually play and watch the same program, a cluster is analyzed based on the scenes in which the viewers have sequentially changed the playback order and the operation history of the timing of those operations. When an analysis result is input, a representative point of the cluster based on the operation history on the time axis in the cluster is generated as an index image, or when a cut point based on the cluster analysis result and video features is input A technique for generating an index by determining a difference from a representative point based on a threshold is known (see, for example, Patent Document 2).
JP 2002-232828 A JP 2004-157786 A

しかしながら、上記特許文献1に記載の技術では、嗜好情報を入力する際にカテゴリや項目名を指定する必要があり、表示された画像とカテゴリのようなテキスト情報との対応付けをユーザが設定する必要がある。そのため、煩わしさが生じたり、またはユーザが設定したいと思うカテゴリが存在しないという不都合も生じることとなる。また、この特許文献1の技術に於いては、特徴の大きな画像をダイジェストシーンとして抽出しているが、必ずしも特徴が大きな画像がダイジェストとして適切とは限らず、連続する画像の特徴の変化をダイジェスト抽出のための特徴として捉えなければならない。   However, in the technique described in Patent Document 1, it is necessary to specify a category and an item name when inputting preference information, and a user sets a correspondence between a displayed image and text information such as a category. There is a need. For this reason, annoyance or inconvenience that the user wants to set a category does not exist. In the technique of Patent Document 1, an image having a large feature is extracted as a digest scene. However, an image having a large feature is not always appropriate as a digest, and a change in the feature of successive images is digested. It must be understood as a feature for extraction.

また、特許文献2に記載の技術では、複数の視聴者の平均的な操作履歴を利用しているため、生成されるインデックスも不特定多数の視聴者の平均的なインデックスとなってしまう。そのため、各個人に対する試行が考慮されたインデックス生成が行われることにはならない。   In the technique described in Patent Document 2, since an average operation history of a plurality of viewers is used, the generated index is also an average index of an unspecified number of viewers. Therefore, index generation that considers trials for each individual is not performed.

したがって本発明は上記課題に鑑みてなされたものであり、ユーザの好みに合ったインデックス画像を精度良く、且つ、ユーザにとって簡便に生成することのできるインデックス画像生成装置及びインデックス画像を生成するプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an index image generation apparatus and a program for generating an index image that can accurately and easily generate an index image suitable for the user's preference are provided. The purpose is to provide.

すなわち請求項1に記載の発明は、連続する複数のフレームから成る映像からインデックス画像を生成するインデックス画像生成装置に於いて、上記フレームの特徴に基づいて映像セグメントに分かれた映像の各映像セグメントに属する複数のフレームを記憶した画像記憶手段と、上記画像記憶手段に記憶された上記複数のフレームの中から所定の条件を充たすフレームを、上記映像セグメントに対するインデックス画像として抽出する抽出手段と、上記インデックス画像を表示する表示手段と、上記画像記憶手段に記憶された上記複数のフレームの中から上記映像セグメントに対する新たなインデックス画像を抽出するためにユーザの嗜好に基づいて検索する検索手段と、を具備し、上記表示手段は、上記検索手段で検索された新たなインデックス画像を表示することを特徴とする。   That is, according to the first aspect of the present invention, in an index image generating apparatus for generating an index image from a video composed of a plurality of continuous frames, each video segment divided into video segments based on the characteristics of the frame is provided. Image storage means for storing a plurality of frames belonging thereto, extraction means for extracting a frame satisfying a predetermined condition from the plurality of frames stored in the image storage means as an index image for the video segment, and the index Display means for displaying an image; and search means for searching based on a user's preference to extract a new index image for the video segment from the plurality of frames stored in the image storage means. Then, the display means displays a new input searched by the search means. And displaying the box image.

請求項2に記載の発明は、請求項1に記載の発明に於いて、上記検索手段は、上記表示手段に表示された上記インデックス画像の中から、ユーザによる選択を受け付け、選択されたインデックス画像の特徴に基づいて当該インデックス画像に関連する新たなインデックス画像を上記映像セグメントから抽出するように検索することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the search unit accepts a selection by the user from the index images displayed on the display unit, and the selected index image On the basis of the feature, a new index image related to the index image is searched for extraction from the video segment.

請求項3に記載の発明は、請求項2に記載の発明に於いて、上記検索手段は、上記表示手段に表示された上記インデックス画像の中からユーザによる選択を受け付け、検索対象の映像セグメントに属するインデックス画像の特徴と、上記選択されたインデックス画像の特徴とに基づいて、当該検索対象の映像セグメントの中から当該検索対象の映像セグメントに対する新たなインデックス画像を抽出するように検索することを特徴とする。   According to a third aspect of the present invention, in the invention according to the second aspect, the search means accepts a selection made by the user from the index images displayed on the display means, and selects a video segment to be searched. A search is performed so as to extract a new index image for the search target video segment from the search target video segment based on the characteristics of the index image to which the index image belongs and the characteristics of the selected index image. And

請求項4に記載の発明は、請求項2に記載の発明に於いて、上記検索手段は、上記表示手段に表示された上記インデックス画像について、ユーザから複数のインデックス画像の選択を受け付け、当該選択された複数のインデックス画像の特徴に基づいて第1の検索条件を求め、当該選択された複数のインデックス画像のうちの一部のインデックス画像の特徴に基づいて当該一部のインデックス画像の属する映像セグメントの中から複数の選別画像を選別し、上記複数の選別画像の特徴から第2の検索条件を求め、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 4 is the invention according to claim 2, wherein the search means accepts selection of a plurality of index images from the user for the index image displayed on the display means, and the selection is performed. A first search condition is obtained based on the characteristics of the plurality of index images, and a video segment to which the part of the index images belongs is determined based on the characteristics of the part of the selected index images. A plurality of selected images are selected from among the plurality of selected images, a second search condition is obtained from the characteristics of the plurality of selected images, and a new search is performed from the video segment based on the first search condition and the second search condition. Searching is performed to extract an index image.

請求項5に記載の発明は、請求項2乃至4の何れか1に記載の発明に於いて、上記インデックス画像の特徴は複数種類の特徴要素で表され、上記検索手段は、上記インデックス画像の特徴の特徴要素と、上記選択されたインデックス画像の特徴の特徴要素を対比して、上記特徴要素の種類毎の重要度を示す特徴重要度の設定を行い、上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 5 is the invention according to any one of claims 2 to 4, wherein the feature of the index image is represented by a plurality of types of feature elements, and the search means By comparing the feature element of the feature with the feature element of the feature of the selected index image, setting the feature importance indicating the importance for each type of the feature element, and based on the feature importance, The search is performed so as to extract a new index image.

請求項6に記載の発明は、請求項2乃至4の何れか1に記載の発明に於いて、上記インデックス画像の特徴は複数種類の特徴要素で表され、上記検索手段は、上記特徴要素の重要度を示す特徴重要度のユーザによる設定を受け付け、ユーザにより設定された上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 6 is the invention according to any one of claims 2 to 4, wherein the feature of the index image is represented by a plurality of types of feature elements, and the search means A feature importance level indicating importance is set by the user, and a search is performed so as to extract the new index image based on the feature importance level set by the user.

請求項7に記載の発明は、請求項2乃至4の何れか1に記載の発明に於いて、上記選択されたインデックス画像に対して、当該インデックス画像の画像重要度の設定を行う設定手段を更に具備し、上記検索手段は、上記特徴及び上記画像重要度に基づいて、上記インデックス画像に関連する新たなインデックス画像を抽出するように検索することを特徴とする。   According to a seventh aspect of the present invention, in the invention according to any one of the second to fourth aspects, the setting means for setting the image importance of the index image for the selected index image. Further, the search means is characterized in that a search is performed so as to extract a new index image related to the index image based on the feature and the image importance.

請求項8に記載の発明は、請求項7に記載の発明に於いて、上記設定手段は、上記画像重要度のユーザによる設定を受け付けることを特徴とする。   The invention described in claim 8 is the invention described in claim 7, wherein the setting means accepts the setting of the image importance by the user.

請求項9に記載の発明は、請求項1に記載の発明に於いて、ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいた選択を行い、上記閲覧状況に基づいて選択されたインデックス画像の特徴に基づいて当該インデックス画像に関連する新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 9 is the invention according to claim 1, further comprising browsing recording means for storing a browsing status of the frame by a user, wherein the search means is displayed on the display means. Performing a selection so as to extract a new index image related to the index image based on the characteristics of the index image selected based on the browsing status from the index image. Features.

請求項10に記載の発明は、請求項1に記載の発明に於いて、ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいた選択を行い、検索対象の映像セグメントに属するインデックス画像の特徴と、上記閲覧状況に基づいて選択されたインデックス画像の特徴に基づいて、当該検索対象の映像セグメントの中から当該検索対象の映像セグメントに対する新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 10 is the invention according to claim 1, further comprising browsing recording means for storing a browsing status of the frame by a user, wherein the search means is displayed on the display means. Based on the characteristics of the index image belonging to the video segment to be searched and the characteristics of the index image selected based on the browsing status, the selection target video is selected from the index images based on the browsing status. The search is performed such that a new index image for the video segment to be searched is extracted from the segments.

請求項11に記載の発明は、請求項2に記載の発明に於いて、ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいて複数のインデックス画像の選択を行い、上記閲覧状況に基づいて選択された複数のインデックス画像の特徴に基づいて第1の検索条件を求め、選択された複数のインデックス画像のうちの一部のインデックス画像の特徴に基づいて、当該一部のインデックス画像の属する映像セグメントの中から複数の選別画像を選別し、上記複数の選別画像の特徴から第2の検索条件を求め、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする。   The invention according to claim 11 is the invention according to claim 2, further comprising browsing recording means for storing a browsing status of the frame by a user, wherein the search means is displayed on the display means. A plurality of index images are selected from the index images based on the browsing status, a first search condition is obtained based on the characteristics of the index images selected based on the browsing status, and the selected plurality of index images are selected. Based on the characteristics of a part of the index images, a plurality of selected images are selected from the video segments to which the part of the index images belong, and a second search is performed from the characteristics of the plurality of selected images. A search is performed so as to extract a new index image from the video segment based on the first search condition and the second search condition. It is characterized in.

請求項12に記載の発明は、請求項9乃至11の何れか1に記載の発明に於いて、上記画像記憶手段には、上記フレーム以外の画像も含み、上記閲覧状況には、ユーザによる上記フレーム以外の画像の閲覧状況も含むことを特徴とする。   According to a twelfth aspect of the present invention, in the invention according to any one of the ninth to eleventh aspects, the image storage means includes an image other than the frame. It also includes browsing status of images other than frames.

請求項13に記載の発明は、請求項9乃至12の何れか1に記載の発明に於いて、上記インデックス画像の特徴は複数種類の特徴要素で表され、上記検索手段は、上記閲覧状況に基づいて上記特徴要素の重要度を示す特徴重要度の設定を行い、上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする。   A thirteenth aspect of the invention is the invention according to any one of the ninth to twelfth aspects, wherein the features of the index image are represented by a plurality of types of feature elements, and the search means is adapted to the browsing situation. Based on the feature importance, the feature importance indicating the importance of the feature element is set, and a search is performed to extract the new index image based on the feature importance.

請求項14に記載の発明は、請求項9乃至13の何れか1に記載の発明に於いて、ユーザを登録すると共に、上記閲覧状況をユーザ毎に記録する登録手段を具備し、上記検索手段は、各ユーザの閲覧状況に基づいて検索を行うことを特徴とする。   A fourteenth aspect of the invention is the invention according to any one of the ninth to thirteenth aspects, further comprising registration means for registering a user and recording the browsing status for each user, and the search means. Is characterized by performing a search based on the browsing status of each user.

請求項15に記載の発明は、請求項1に記載の発明に於いて、ユーザの嗜好に基づいた複数の登録検索条件を記憶した検索条件記憶手段を具備し、上記検索手段は、上記複数の登録検索条件からユーザの選択を受け付け、選択された登録検索条件に基づいて、上記映像セグメントから新たなインデックス画像を検索することを特徴とする。   A fifteenth aspect of the present invention is the information processing apparatus according to the first aspect, further comprising: a search condition storage unit that stores a plurality of registered search conditions based on user preferences. A user's selection is received from the registration search condition, and a new index image is searched from the video segment based on the selected registration search condition.

請求項16に記載の発明は、請求項1に記載の発明に於いて、ユーザの嗜好に基づいた複数の登録検索条件を記憶した検索条件記憶手段を具備し、上記検索手段は、上記表示手段に表示された上記インデックス画像について、ユーザからの選択を受け付け、当該選択されたインデックス画像の特徴に基づいて第1の検索条件を求め、上記複数の登録検索条件からユーザの選択を受け付けて、当該選択された登録検索条件を第2の検索条件とし、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする。   A sixteenth aspect of the present invention is the information processing apparatus according to the first aspect, further comprising search condition storage means for storing a plurality of registered search conditions based on user preferences, wherein the search means includes the display means. The index image displayed on the screen receives a selection from the user, obtains a first search condition based on the characteristics of the selected index image, receives a user's selection from the plurality of registered search conditions, Searching to extract a new index image from the video segment based on the first search condition and the second search condition, with the selected registered search condition as a second search condition To do.

請求項17に記載の発明は、請求項1乃至16の何れか1に記載の発明に於いて、上記画像記憶手段は、上記フレーム以外の画像を記憶しており、上記検索手段は、上記画像記憶手段に記憶された上記フレーム及び上記フレーム以外の画像の中から新たなインデックス画像を抽出するように検索することを特徴とする。   According to a seventeenth aspect of the present invention, in the invention according to any one of the first to sixteenth aspects, the image storage means stores an image other than the frame, and the search means stores the image. Searching is performed so as to extract a new index image from the frame and the image other than the frame stored in the storage unit.

請求項18に記載の発明は、連続する複数のフレームから成る映像からインデックス画像を生成するプログラムであって、上記フレームの特徴に基づいて映像セグメントに分かれた映像の各映像セグメントに属する複数のフレームを記憶する第1の手順と、上記第1の手順により記憶された上記複数のフレームの中から所定の条件を充たすフレームを、上記映像セグメントに対するインデックス画像として抽出する第2の手順と、上記インデックス画像を表示する第3の手順と、上記第1の手順により記憶された上記複数のフレームの中から上記映像セグメントに対する新たなインデックス画像を抽出するためにユーザの嗜好に基づいて検索する第4の手順と、上記第4の手順によって検索された新たなインデックス画像を表示する第5の手順と、を具備することを特徴とする。   The invention according to claim 18 is a program for generating an index image from a video composed of a plurality of continuous frames, and a plurality of frames belonging to each video segment of a video divided into video segments based on the characteristics of the frame. A second procedure for extracting a frame satisfying a predetermined condition from the plurality of frames stored by the first procedure as an index image for the video segment, and the index A third procedure for displaying an image, and a fourth search for extracting a new index image for the video segment from the plurality of frames stored by the first procedure. A fifth procedure for displaying a procedure and a new index image retrieved by the fourth procedure. Characterized by comprising the, the.

本発明によれば、ユーザの好みに合ったインデックス画像を精度良く、且つ、ユーザにとって簡便に生成することのできる映像インデックス生成装置及びインデックス画像を生成するプログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the program which produces | generates the image index production | generation apparatus and index image which can produce | generate the index image suitable for a user's liking accurately and easily for a user can be provided.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、本発明の第1の実施形態による画像情報表示装置1のシステム全体の構成を示すブロック図である。画像情報表示装置1は、本発明のインデックス画像生成装置に相当するものである。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the entire system of the image information display device 1 according to the first embodiment of the present invention. The image information display device 1 corresponds to an index image generation device of the present invention.

図1に於いて、この画像情報表示装置1は、演算処理装置10と、表示装置12と、入力装置13と、指示装置14と、データベース1(以下、データベース(1)と記す)16及びデータベース2(以下、データベース(2)と記す)17とを有して構成される。   In FIG. 1, this image information display device 1 includes an arithmetic processing device 10, a display device 12, an input device 13, an instruction device 14, a database 1 (hereinafter referred to as database (1)) 16, and a database. 2 (hereinafter referred to as database (2)) 17.

上記表示装置12は、上記データベース(1)16及びデータベース(2)17より取得されたデータ処理結果を表示するためのものである。入力装置13は、この画像情報表示装置の入力操作を行うためのもので、例えばキーボード等のデバイスから構成される。同様に、指示装置14は、画像情報表示装置に対する指示操作を行うためのもので、例えばマウス等のポインティングデバイスから構成される。   The display device 12 is for displaying data processing results acquired from the database (1) 16 and the database (2) 17. The input device 13 is for performing an input operation of the image information display device, and is composed of a device such as a keyboard. Similarly, the instruction device 14 is used for performing an instruction operation on the image information display device, and includes a pointing device such as a mouse.

上記データベース(1)には、表示装置12に表示されるべく複数の映像・画像・特徴量が蓄積されている。同様に、データベース(2)17には、表示装置12に表示されるべくユーザの主観・嗜好・履歴等が蓄積されている。   In the database (1), a plurality of videos / images / features are stored to be displayed on the display device 12. Similarly, the database (2) 17 stores user's subjectivity / preference / history and the like to be displayed on the display device 12.

演算処理装置10は、映像取り込み部21と、フレーム間比較・解析・インデックス生成部22と、映像セグメンテーション部23と、セグメント内解析・主要フレーム抽出部24と、表示画像指定部25と、主観・嗜好推定部26と、再検索部27とを有して構成される。演算処理装置10は、CPU等によって実現され、図示しない記憶部に記憶したプログラムを実行することで、インデックス画像を生成するためのインデックス生成処理を行う。図2は、演算処理装置10で実行するインデックス生成処理の流れを示す。   The arithmetic processing unit 10 includes a video capturing unit 21, an interframe comparison / analysis / index generation unit 22, a video segmentation unit 23, an intra-segment analysis / main frame extraction unit 24, a display image designation unit 25, A preference estimation unit 26 and a re-search unit 27 are included. The arithmetic processing device 10 is realized by a CPU or the like, and performs an index generation process for generating an index image by executing a program stored in a storage unit (not shown). FIG. 2 shows a flow of index generation processing executed by the arithmetic processing device 10.

映像取り込み部21では、映像・画像データベース11から映像データを読み込み(ステップS1)、連続するフレームへの展開が行われる。尚、ここで展開されるフレームは、連続するものに限られず、時系列的に関連したものであれば、例えば1コマおき等であってもよい。   The video capturing unit 21 reads video data from the video / image database 11 (step S1) and develops it into successive frames. It should be noted that the frames developed here are not limited to continuous ones, and may be, for example, every other frame as long as they are related in time series.

フレーム間比較・解析・インデックス生成部22は、映像読み込み部21で抽出されたフレームの特徴の算出、及びフレーム間の特徴の変化の算出を行うとともに、インデックス画像を抽出するためにフレームの特徴の統計量や特徴の変化の統計量の算出を行う(ステップS2)。更に、フレーム間比較・解析・インデックス生成部22は、映像中の各フレームの特徴に基づいて、映像の中から、所定の条件に合致するフレームを映像のシーンの変化の位置を示すシーンチェンジフレームとして抽出する(ステップS3)。   The inter-frame comparison / analysis / index generation unit 22 calculates the feature of the frame extracted by the video reading unit 21 and the change of the feature between the frames, and calculates the feature of the frame to extract the index image. The statistical quantity and the statistical quantity of feature change are calculated (step S2). Further, the inter-frame comparison / analysis / index generation unit 22 selects a frame that matches a predetermined condition from the video based on the characteristics of each frame in the video, and indicates a scene change frame indicating the position of the change in the video scene. (Step S3).

尚、フレーム間比較・解析部22で算出した特徴や、特徴の変化の統計量等は、演算処理装置10のメモリ(図示せず)上にマッピングしておくことも可能であるが、容量が膨大になることもあるため、ハードディスク(図示せず)に蓄積しておくことも可能である。   Note that the features calculated by the inter-frame comparison / analysis unit 22 and the statistic of the feature change can be mapped on a memory (not shown) of the arithmetic processing unit 10, but the capacity is limited. Since it may be enormous, it can be stored in a hard disk (not shown).

ここで、フレームの特徴は、カラーヒストグラム、解像度を変換した画像(例えば、16×16の解像度に落とした画像)、エッジ分布のヒストグラム(画像処理によるエッジ算出を行った後でその画素値をヒストグラム化したもの)、エッジの方向に対するヒストグラム(設定された方向の数のエッジ算出を行い、画素毎に最大値をとる方向のヒストグラムとして表したもの)等の様々な種類の特徴要素で表すことができる。更には、カラーヒストグラム、エッジ分布のヒストグラム、エッジ方向に対するヒストグラムに関しては、フレーム内でヒストグラムを算出するための領域を指定して、指定した領域について算出したヒストグラムをフレームの特徴要素とすることも考えられる。更に、テクスチャ特徴としての、共分散行列や、モーメント等、フレームの特徴としてフレームの画像データから得られる様々な特徴要素によって、各フレームの特徴を表すことができる。   Here, the characteristics of the frame are a color histogram, a resolution-converted image (for example, an image reduced to a resolution of 16 × 16), an edge distribution histogram (after performing edge calculation by image processing, the pixel value is a histogram) ) And histograms with respect to the direction of the edge (calculated as a histogram of the direction having the maximum number of pixels for each pixel). it can. Furthermore, regarding color histograms, edge distribution histograms, and edge direction histograms, it is also possible to specify an area for calculating a histogram within a frame and use the calculated histogram for the specified area as a feature element of the frame. It is done. Furthermore, the feature of each frame can be expressed by various feature elements obtained from the image data of the frame as the feature of the frame, such as a covariance matrix or a moment as the texture feature.

フレームの特徴は、このように、複数の特徴要素で表されるため、それぞれベクトルとして表現することができ、フレーム間の特徴の変化を複数のフレーム間でのベクトルの差分として定義することができる。   Since the feature of a frame is represented by a plurality of feature elements in this way, each feature can be expressed as a vector, and a change in feature between frames can be defined as a vector difference between a plurality of frames. .

シーンチェンジフレームの抽出は様々な方法で行うことができる。例えば、時系列的に前後する2つのフレーム間で特徴を比較して、特徴が大きく変化する時点のフレームをシーンチェンジフレームとして抽出することができる。他にも、ある対象とするフレームの近傍の複数のフレームの各特徴要素について、各特徴要素の平均や標準偏差等の統計量、または各特徴要素の差の平均や標準偏差等の統計量を算出し、この統計量に基づいて対象とするフレームで特徴が大きく変化しているか否かを判定し、特徴が大きく変化する時点のフレームをシーンチェンジフレームとして抽出することができる。また、対象とするフレームの近傍の複数のフレームを、連続する複数のフレームではなく、数フレーム間隔での複数のフレームとして、シーンチェンジフレームとして抽出することもできる。   Scene change frames can be extracted in various ways. For example, it is possible to compare the features between two frames preceding and following in time series, and extract a frame at the time when the features change greatly as a scene change frame. In addition, for each feature element of multiple frames in the vicinity of a certain target frame, statistics such as the average and standard deviation of each feature element, or statistics such as the average and standard deviation of each feature element difference are displayed. Based on this statistic, it can be determined whether or not the feature has changed significantly in the target frame, and the frame at the time when the feature has changed greatly can be extracted as a scene change frame. Further, a plurality of frames in the vicinity of the target frame can be extracted as a scene change frame as a plurality of frames at intervals of several frames instead of a plurality of consecutive frames.

映像セグメンテーション部23は、上記フレーム間比較・解析・インデックス生成部22がシーンチェンジフレームを抽出した後、シーンチェンジフレームの位置で映像の分割を行うことで、映像のセグメンテーションを行う。すなわち、映像セグメンテーション部23は、映像をシーンチェンジフレームの位置で分割した映像セグメントを生成する(ステップS4)。ここで、映像セグメンテーション部23は、シーンチェンジフレームの間隔も考慮して、シーンチェンジフレーム同士の時間間隔が狭すぎる場合等には、生成した複数の映像セグメントを統合する処理を、ステップS4で追加して行ってもよい。   The video segmentation unit 23 performs video segmentation by dividing the video at the position of the scene change frame after the inter-frame comparison / analysis / index generation unit 22 extracts the scene change frame. That is, the video segmentation unit 23 generates a video segment obtained by dividing the video at the position of the scene change frame (step S4). Here, the video segmentation unit 23 considers the interval between the scene change frames and adds a process of integrating the generated video segments in step S4 when the time interval between the scene change frames is too narrow. You may do it.

次に、映像セグメント内解析・主要フレーム抽出部24は、上述のフレーム間比較・解析部22で算出した各種特徴や統計量を用いて、映像セグメンテーション部23で生成した映像セグメント内の連続するフレームの特徴の解析を行い、各映像セグメントから主要フレームの抽出条件に従って主要フレームの抽出を行う(ステップS5)。主要フレームは、本発明のインデックス画像に相当する。   Next, the intra-video segment analysis / main frame extraction unit 24 uses the various features and statistics calculated by the above-described inter-frame comparison / analysis unit 22 to use successive frames in the video segment generated by the video segmentation unit 23. The main frame is extracted from each video segment according to the extraction condition of the main frame (step S5). The main frame corresponds to the index image of the present invention.

演算処理装置10は、図3に示されるように、フレーム間比較・解析・インデックス生成部22で抽出したシーンチェンジフレーム31と、セグメント内解析・主要フレーム抽出部24で各映像セグメントから抽出した主要フレーム32を、表示装置12に表示する(ステップS6)。表示されるシーンチェンジフレームや主要フレームは、各映像セグメントに対応付けしておくことも可能であるし、特に映像セグメントとの関連に関しては設定せずに配列上に表示されていてもよい。尚、表示装置12に表示する主要フレームの枚数等の条件は指示装置14等によって指定することができる。   As shown in FIG. 3, the arithmetic processing unit 10 includes a scene change frame 31 extracted by the inter-frame comparison / analysis / index generation unit 22 and a main segment extracted from each video segment by the intra-segment analysis / main frame extraction unit 24. The frame 32 is displayed on the display device 12 (step S6). The displayed scene change frame and main frame can be associated with each video segment, and in particular, the relationship with the video segment may be displayed on the array without setting. Note that conditions such as the number of main frames to be displayed on the display device 12 can be specified by the instruction device 14 or the like.

表示画像指定部25は、上記セグメント内解析・主要フレーム抽出部24で抽出された主要フレーム等の画像からユーザが主観や嗜好により選んだ少なくとも1枚以上の画像を指定画像として選択する(ステップS7)。   The display image designating unit 25 selects at least one image selected by the user based on subjectivity or preference from the images such as the main frame extracted by the intra-segment analysis / main frame extracting unit 24 as the designated image (step S7). ).

主観・嗜好推定部26では、表示画像指定部25で指定された画像から、ユーザ毎の主観や嗜好が推定されて主要フレームの再検索を行うための検索条件を設定する(ステップS8)。ここで設定された条件は、ユーザ毎にユーザの主観・嗜好・履歴を扱っているデータベース(2)17に登録されるようになっており、該当するユーザが利用する場合には、任意に参照できるようになっている。   The subjectivity / preference estimation unit 26 sets search conditions for re-searching the main frame by estimating the subjectivity and preference for each user from the image specified by the display image specifying unit 25 (step S8). The conditions set here are registered in the database (2) 17 handling the user's subjectivity / preference / history for each user, and can be arbitrarily referred to when the corresponding user uses it. It can be done.

再検索部27は、主観・嗜好推定部26で設定した条件に従って、主要フレームの再検索を行い、再検索により抽出した新たな主要フレームを、表示装置12に表示する(ステップS9)。   The re-search unit 27 performs the main frame re-search according to the conditions set by the subjectivity / preference estimation unit 26, and displays the new main frame extracted by the re-search on the display device 12 (step S9).

次に、図4のフローチャートを参照して、上述のステップS4〜ステップS9について、演算処理装置10が行う処理を更に説明する。   Next, with reference to the flowchart of FIG. 4, the process which the arithmetic processing unit 10 performs about the above-mentioned step S4-step S9 is further demonstrated.

ステップS3でシーンチェンジフレームを抽出した後、先ず、ステップS1では、映像セグメントを生成する。ステップS11は、ステップS4の処理に相当する処理であり、映像セグメンテーション部23が、映像をシーンチェンジフレームの位置で分割することで、映像セグメントを生成する処理である。   After extracting the scene change frame in step S3, first, in step S1, a video segment is generated. Step S11 is a process corresponding to the process of step S4, and the video segmentation unit 23 generates a video segment by dividing the video at the position of the scene change frame.

続くステップS12では、各映像セグメント内から主要フレームの抽出を行う。ステップS12は、ステップS5の処理に相当する処理であり、セグメント内解析・主要フレーム抽出部24が、主要フレームの抽出条件に従って主要フレームの抽出を行う処理である。このステップS12の処理に於いて、主要フレームを検出する方法としては、様々な方法が考えられる。本実施形態では、各映像セグメントから、シーンチェンジフレームを抽出する際の条件とは異なる条件でフレームを抽出している。   In the subsequent step S12, main frames are extracted from each video segment. Step S12 is a process corresponding to the process of step S5, in which the intra-segment analysis / main frame extraction unit 24 extracts the main frame in accordance with the extraction conditions of the main frame. In the process of step S12, various methods can be considered as a method of detecting the main frame. In this embodiment, frames are extracted from each video segment under conditions different from the conditions for extracting scene change frames.

例えば、上述のフレーム間比較・解析部22で算出した各種特徴や統計量を用いて、映像セグメンテーション部24で生成した映像セグメント内の複数フレームの特徴を解析し、その解析結果から主要フレームの抽出条件を設定する。   For example, the characteristics of a plurality of frames in the video segment generated by the video segmentation unit 24 are analyzed using the various features and statistics calculated by the inter-frame comparison / analysis unit 22, and the main frame is extracted from the analysis result. Set conditions.

セグメント内解析・主要フレーム抽出部24による主要フレームの抽出条件の設定は、例えば、次のように行われる。   The setting of main frame extraction conditions by the intra-segment analysis / main frame extraction unit 24 is performed as follows, for example.

まず、各映像セグメントの中のフレームを、対象とするフレームとして順次設定し、対象とするフレーム近傍の複数のフレームの複数種類の特徴要素について、それらのフレーム間の特徴量を算出する。   First, frames in each video segment are sequentially set as target frames, and feature quantities between the frames are calculated for a plurality of types of feature elements in a plurality of frames near the target frame.

ここで、特徴量とは、複数のフレームに於いて、各フレームの特徴についての変化の様子を示すものであり、例えば、複数のフレームから得られるフレーム間の複数種類の特徴要素の変化量そのもの、または複数のフレームから得られるフレーム間の特徴要素の統計量、または複数のフレームから得られるフレーム間の特徴要素の変化の統計量、または、複数のフレームから得られるフレーム間の特徴要素の統計量の変化量等である。尚、統計量は、平均や標準偏差、分散等で求められるものである。   Here, the feature amount indicates a change state of the feature of each frame in a plurality of frames. For example, the amount of change of a plurality of types of feature elements between frames obtained from the plurality of frames. , Or feature statistic between frames obtained from multiple frames, or feature change statistics between frames obtained from multiple frames, or feature statistic between frames obtained from multiple frames The amount of change in the quantity. The statistic is obtained by an average, standard deviation, variance or the like.

そして、算出した特徴量と、主要フレームを抽出するために設定された閾値との関係を主要フレームの抽出条件として、特徴量と閾値を比較して、特徴量が閾値よりも小さい位置のフレームを検出し、主要フレームとして抽出する。例えば、フレーム間の特徴の変化が小さい位置のフレームを主要フレームとして抽出したり、対象とするフレーム近傍の複数のフレームから得られる複数種類の特徴についての標準偏差や、分散から得る特徴量が閾値よりも小さいときに、当該対象とするフレームを主要フレームとして抽出したりする。   Then, using the relationship between the calculated feature value and the threshold value set for extracting the main frame as the extraction condition of the main frame, the feature value and the threshold value are compared, and a frame at a position where the feature value is smaller than the threshold value is determined. Detect and extract as main frame. For example, a frame with a small change in the feature between frames is extracted as a main frame, or the standard deviation of multiple types of features obtained from multiple frames in the vicinity of the target frame, or the feature quantity obtained from variance is a threshold If it is smaller than the target frame, the target frame is extracted as a main frame.

或いは、セグメント内解析部25で、各フレームにおける主要被写体の状態を判断して、主要被写体の状態が所定の状態になっているか否かを主要フレームの抽出条件として、主要フレーム抽出部26が主要フレームを抽出するようにしてもよい。すなわち、主要被写体が中心にあると判断したフレーム、主要被写体の大きさが所定の大きさとなっていると判断したフレーム、主要被写体にピントが合った状態であると判断したフレーム、主要被写体が正面を向いていると判断したフレーム、主要被写体の動きの小さな場面であると判断したフレーム、主要被写体として特徴的なオブジェクトが写っている場面であると判断したフレーム等、多様な状態をセグメント内解析部25で判断して、主要フレーム抽出部26が主要フレームを抽出するようにすることができる。   Alternatively, the in-segment analysis unit 25 determines the main subject state in each frame, and the main frame extraction unit 26 uses the main frame extraction condition as a main frame extraction condition to determine whether or not the main subject state is in a predetermined state. A frame may be extracted. That is, the frame that the main subject is determined to be in the center, the frame that is determined that the size of the main subject is a predetermined size, the frame that is determined to be in focus with the main subject, and the main subject that are in front Intra-segment analysis of various states, such as a frame that is determined to be facing the scene, a frame that is determined to be a scene with a small movement of the main subject, and a frame that is determined to be a scene that contains a characteristic object as the main subject The main frame extraction unit 26 can extract the main frame as determined by the unit 25.

上述のように、シーンチェンジフレームとしては、フレーム間でフレームの特徴が大きく変化する位置のフレームが適当である場合が多いため、シーンチェンジフレームを抽出する際には、フレーム間の特徴の変化の程度を示す特徴量が所定の閾値よりも大きい位置にあるフレームをシーンチェンジフレームとして抽出した。一方で、主要フレームとしては、フレーム間でフレームの特徴の変化が比較的小さい位置のフレームが適当である場合が多い。このため、本実施形態では、主要フレームを抽出する際には、シーンチェンジフレームを抽出する場合と異なり、フレーム間の特徴の変化の程度を示す特徴量が所定の閾値よりも小さい位置にあるフレームを、主要フレームとして抽出している。   As described above, the scene change frame is often a frame at a position where the frame characteristics greatly change between frames. A frame in which the feature amount indicating the degree is larger than a predetermined threshold is extracted as a scene change frame. On the other hand, as a main frame, a frame at a position where a change in the frame feature between frames is relatively small is often appropriate. For this reason, in this embodiment, when extracting a main frame, unlike the case of extracting a scene change frame, a frame in which the feature amount indicating the degree of change in the feature between frames is smaller than a predetermined threshold. Are extracted as main frames.

尚、主要フレームを抽出するための閾値は、複数種類の特徴要素に対して、各々設定されている。また、主要フレームの抽出枚数は特に限定されるものではない。例えば、m個の映像セグメントに分割された映像に於いて、映像セグメントi(i=1〜m)に対してk毎の主要フレームを抽出するように、映像セグメント毎に主要フレームの抽出枚数を設定しておく。この設定を、ユーザの選択で行うようにしてもよい。 Note that threshold values for extracting main frames are set for a plurality of types of feature elements. Further, the number of extracted main frames is not particularly limited. For example, in a video divided into m video segments, the number of main frames extracted for each video segment so that a main frame is extracted for each k i for video segment i (i = 1 to m). Is set in advance. This setting may be performed by user selection.

ステップS13では、上記ステップS12で抽出された主要フレームの表示を行う。ステップS13は、ステップS6の処理に相当する処理であり、演算処理装置10が、図3に示されるように、主要フレーム32を表示する処理である。ここでは、映像セグメント毎にそれぞれ新たに抽出されたフレームが、その映像セグメントに関連付けられた上で表示されるものとなっている。すなわち、ステップS11でセグメンテーションが行われ、更にステップS12で各映像セグメントから少なくとも1枚以上の主要フレームが検索されているため、図3に示すようなマトリクス状の画像列を生成することができる。   In step S13, the main frame extracted in step S12 is displayed. Step S13 is a process corresponding to the process of step S6, and is a process in which the arithmetic processing unit 10 displays the main frame 32 as shown in FIG. Here, the newly extracted frames for each video segment are displayed after being associated with the video segment. That is, since segmentation is performed in step S11 and at least one or more main frames are searched from each video segment in step S12, a matrix-like image sequence as shown in FIG. 3 can be generated.

次に、ステップS14では、主要フレームからユーザが主観や嗜好により選んだ少なくとも1枚以上の画像を指定画像として選択する。ステップS14は、ステップS7の処理に相当する処理であり、表示画像指定部25が、主要フレーム等の画像からユーザが主観や嗜好により選んだ少なくとも1枚以上の画像を指定画像として選択する処理である。すなわち、ステップS13で表示された主要フレームを見たユーザは、表示された主要フレームの中からユーザの主観や嗜好で1枚の画像を選択する。ユーザにより選択された画像は、指定画像として記憶され、表示画像指定部25は、この指定画像を選択する。   Next, in step S14, at least one or more images selected by the user according to subjectivity or preference from the main frames are selected as designated images. Step S14 is a process corresponding to the process of step S7, in which the display image designating unit 25 selects at least one or more images selected by the user according to subjectivity or preference from the images such as the main frames as the designated image. is there. That is, the user who has viewed the main frame displayed in step S13 selects one image from the displayed main frames according to the user's subjectivity and preference. The image selected by the user is stored as a designated image, and the display image designation unit 25 selects this designated image.

ステップS15〜ステップS18では、主要フレームの再検索を行うための検索条件を設定して、新しい主要フレームの抽出と、抽出した新しい主要フレームの更新を行う。ステップS15〜ステップS18は、ステップS8〜ステップS9の処理に相当する処理である。   In steps S15 to S18, a search condition for re-searching the main frame is set, and a new main frame is extracted and the extracted new main frame is updated. Steps S15 to S18 are processes corresponding to the processes of steps S8 to S9.

先ず、ステップS15に於いて、指定画像と、対象となっている映像セグメントから抽出されている主要フレームとから、統合検索条件を設定する。すなわち、図5に示されるように、指定画像(1)〜指定画像(p)、及び映像セグメントに対する繰り返し処理が行われるときの対象としている映像セグメント(i)から抽出されている主要フレームframe(1)〜frame(mi )で構成されるフレーム群Tについて、これらのフレームの特徴に基づいて、統合検索条件Qpref(i)を設定する。 First, in step S15, an integrated search condition is set from the designated image and the main frame extracted from the target video segment. That is, as shown in FIG. 5, the main frame frame () extracted from the designated image (1) to the designated image (p) and the video segment (i) that is the target when the iterative processing is performed on the video segment. For the frame group T composed of 1) to frame (m i ), the integrated search condition Q pref (i) is set based on the characteristics of these frames.

統合検索条件Qpref(i)は、フレーム群Tのフレームと類似するフレームを映像セグメント(i)から抽出する条件である。本実施形態では、統合検索条件Qpref(i)に於いて、各特徴要素に対する重み係数や、各指定画像に対する重み係数を考慮する。特徴要素に対する重み係数は、本発明の特徴重要度に相当する。指定画像に対する重み係数は、本発明の画像重要度に相当する。 The integrated search condition Q pref (i) is a condition for extracting a frame similar to the frame of the frame group T from the video segment (i). In the present embodiment, in the integrated search condition Q pref (i), a weighting factor for each feature element and a weighting factor for each designated image are considered. The weighting factor for the feature element corresponds to the feature importance of the present invention. The weight coefficient for the designated image corresponds to the image importance of the present invention.

各特徴要素に対する重み係数を考慮する場合には、フレーム群Tを構成するフレーム間で特徴要素の値が近い場合は、当該特徴要素は重要な特徴要素であり、当該特徴要素に対して高い重み係数を設定する。一方、フレーム群Tを構成するフレーム間で特徴要素の値の違いが大きな場合には当該特徴要素は重要でないため、当該特徴要素に対して低い重み係数を設定する。   When considering the weight coefficient for each feature element, if the value of the feature element is close between the frames constituting the frame group T, the feature element is an important feature element, and the feature element has a high weight. Set the coefficient. On the other hand, when the difference in the value of the feature element between the frames constituting the frame group T is large, the feature element is not important, so a low weighting factor is set for the feature element.

指定画像に対する重み係数を考慮する場合には、フレーム群Tを構成するフレーム毎に、フレームの特徴(または特徴量)に基づいて重み係数を設定する。フレームの特徴のうち、所定の特徴要素についての特徴(または特徴量)の値が所定の閾値よりも高い場合には、そのフレームは重要なフレームであり、当該フレームに対して高い重み係数を設定する。一方、フレームの特徴のうち、所定の特徴要素についての特徴(または特徴量)の値が所定の閾値よりも低い場合には、当該フレームは重要でないため、当該フレームに対して低い重み係数を指定画像に対して設定する。   When considering the weight coefficient for the designated image, the weight coefficient is set for each frame constituting the frame group T based on the feature (or feature amount) of the frame. Among the features of a frame, if the value of a feature (or feature amount) for a given feature element is higher than a given threshold, that frame is an important frame and a high weighting factor is set for that frame To do. On the other hand, if the value of the feature (or feature value) for a given feature element is lower than a given threshold among the features of the frame, the frame is not important, so a low weighting factor is specified for that frame. Set for images.

特徴要素に対する重み係数や、指定画像に対する重み係数は、様々な方法で設定することができる。例えば、ユーザによる重み係数の設定を、入力装置13や、指示装置14で受け付けて、重み係数を設定することができる。   The weighting factor for the feature element and the weighting factor for the designated image can be set by various methods. For example, the weighting factor can be set by the input device 13 or the pointing device 14 receiving the setting of the weighting factor by the user.

他にも、特徴要素に対する重み係数を設定する場合には、映像セグメント(i)内の全フレームを対象にして算出した各特徴要素の標準偏差をσ0 として、指定画像及び主要フレームとして抽出されているフレーム全体を対象として算出した各特徴要素の標準偏差をσprefとした場合の、比σ0 /σprefを重み係数として設定する方法がある。映像セグメント内の全てのフレームの標準偏差との比を用いることで、映像セグメント内のフレーム群全体の傾向も加味することが可能となる。尚、標準偏差σ0 は必ずしも、映像セグメント(i)内の全フレームを対象として算出する必要はなく、一部のフレームを対象として算出してもよい。重み係数の設定は、各フレームの特徴から統計的に算出されるその他の方法で行ってもよい。 In addition, when setting a weighting factor for a feature element, the standard deviation of each feature element calculated for all frames in the video segment (i) is set as σ 0 and extracted as a designated image and a main frame. There is a method of setting the ratio σ 0 / σ pref as a weighting factor when the standard deviation of each feature element calculated for the entire frame is σ pref . By using the ratio to the standard deviation of all the frames in the video segment, it is possible to take into account the tendency of the entire frame group in the video segment. The standard deviation σ 0 does not necessarily have to be calculated for all frames in the video segment (i), and may be calculated for some frames. The weighting factor may be set by another method that is statistically calculated from the characteristics of each frame.

また、指定画像に対する重み係数を設定する場合には、フレーム群Tの全フレームを対象にして算出した各特徴要素の標準偏差をσ0 として、各指定画像の各特徴要素の値をσprefとした場合の、比σ0 /σprefを重み係数として設定する。フレーム群T内の全てのフレームの標準偏差との比を用いることで、フレーム群T内のフレーム群全体の傾向も加味することが可能となる。尚、標準偏差σ0 は必ずしも、フレーム群T内の全フレームを対象として算出する必要はなく、一部のフレームを対象として算出してもよい。重み係数の設定は、各フレームの特徴から統計的に算出されるその他の方法で行ってもよい。 When setting the weighting coefficient for the designated image, the standard deviation of each feature element calculated for all the frames in the frame group T is set as σ 0 , and the value of each feature element in each designated image is set as σ pref In this case, the ratio σ 0 / σ pref is set as a weighting factor. By using the ratio to the standard deviation of all the frames in the frame group T, it is possible to take into account the tendency of the entire frame group in the frame group T. Note that the standard deviation σ 0 does not necessarily have to be calculated for all frames in the frame group T, and may be calculated for some frames. The weighting factor may be set by another method that is statistically calculated from the characteristics of each frame.

このように、本実施形態の統合検索条件Qpref(i)は、フレーム群Tから求めた特徴量と、映像セグメント(i)内の各フレームの特徴量とを比較して、フレーム群Tから求めた特徴量に近似する特徴量を有するフレームを、フレーム群Tのフレームと類似するフレームとして抽出する条件であり、重要度の高い特徴要素の特徴量について近似するフレームを優先的に抽出する条件となっている。 As described above, the integrated search condition Q pref (i) of the present embodiment compares the feature amount obtained from the frame group T with the feature amount of each frame in the video segment (i), and determines from the frame group T. A condition for extracting a frame having a feature quantity that approximates the obtained feature quantity as a frame similar to the frame of the frame group T, and a condition for preferentially extracting a frame that approximates the feature quantity of a feature element having a high degree of importance It has become.

このような統合検索条件Qpref(i)を用いることにより、映像セグメント内の主要画像と、ユーザの主観・嗜好を加味したユーザ毎の効果的な検索による主要フレームの抽出が可能となる。 By using such an integrated search condition Q pref (i), main frames can be extracted by effective search for each user in consideration of the main image in the video segment and the user's subjectivity / preference.

次に、ステップS16では、生成された統合検索条件Qpref(i)で対象としている映像セグメント(i)内の検索を行う。 Next, in step S16, a search is performed within the video segment (i) that is the target under the generated integrated search condition Q pref (i).

ステップS17では、全映像セグメントに対しての繰り返し処理が終了したか否かが判断される。ステップS15〜ステップS16は、m個に分割された各映像セグメントに対する順次繰り返し処理(i=1〜m)となっており、ステップS17で、繰り返しがまだ終了ではない場合は、ステップS15へ移行してステップS15〜ステップS16の繰り返し処理が行われる。   In step S17, it is determined whether or not the iterative process for all video segments has been completed. Steps S15 to S16 are sequential repetition processes (i = 1 to m) for each of the video segments divided into m pieces. If the repetition is not yet completed in step S17, the process proceeds to step S15. Steps S15 to S16 are repeated.

一方、上記ステップS17にて繰り返し処理が終了したならば、ステップS18へ移行する。そして、ステップS18では、各映像セグメントから再検索された新たな主要フレームで主要フレームの更新を行い、新たな主要フレームの表示を行う。   On the other hand, if the repetitive processing is completed in step S17, the process proceeds to step S18. In step S18, the main frame is updated with the new main frame re-searched from each video segment, and the new main frame is displayed.

この結果表示に於いても、構造としては最初に表示された形式と同様であり、図3に示されるようなマトリクス状の構造となる。   In this result display as well, the structure is the same as the form displayed first, and a matrix-like structure as shown in FIG. 3 is obtained.

ここで、主要フレームの再検索の方法について説明する。本実施形態では、各特徴要素を成分として有するベクトルを特徴ベクトルとし、この特徴ベクトルを利用して、以下の類似度算出式の定義に基づいて、主要フレームの再検索を行う。   Here, a method of re-searching the main frame will be described. In the present embodiment, a vector having each feature element as a component is used as a feature vector, and the main frame is re-searched based on the definition of the following similarity calculation formula using this feature vector.

画像の特徴要素が、f1 〜fM のM個であり、検索を行う映像セグメント内のフレームがI1 〜IN のN個あるとして、特徴量行列Fを下記(1)式であるとすると、q番目のオブジェクトデータIq の特徴量ベクトルは下記(2)式のように表現される。尚、下記(2)式に於いて、κj を乗ずることにより、各特徴項は正規化されたものとなっている。

Figure 2006217046
The feature quantity matrix F is represented by the following equation (1), assuming that there are M feature elements f 1 to f M and that there are N frames I 1 to I N in the video segment to be searched. Then, the feature quantity vector of the q-th object data I q is expressed as the following equation (2). In the following equation (2), each feature term is normalized by multiplying by κ j .
Figure 2006217046

Figure 2006217046
Figure 2006217046

また、下記(3)式が成り立ち、特徴ベクトルが上記(2)式で与えられるとき、オブジェクトIq に対するオブジェクトIp の類似度は、下記(4)式で表すことができ、Simpqが小さいほど類似性が高いことになる。

Figure 2006217046
Further, when the following equation (3) holds and the feature vector is given by the above equation (2), the similarity of the object I p to the object I q can be expressed by the following equation (4), and Sim pq is small. The similarity is higher.
Figure 2006217046

Figure 2006217046
Figure 2006217046

データベース内の全ての画像に対してこの値を計算することにより、類似度の順序を決定することができる。 By calculating this value for all images in the database, the order of similarity can be determined.

以上のように本実施形態によれば、映像から、その概要を表すために表示された複数のインデックス画像に対して、ユーザの主観や嗜好に基づいた検索により抽出した新たなインデックス画像を表示している。このため、ユーザの好みに合ったインデックス画像を生成し、表示することが可能となる。このとき、映像セグメントに対する新たなインデックス画像が抽出されるため、ユーザは、映像の内容を、映像全てを通して視聴すること無しに、映像セグメントの概要を把握することが可能となる。   As described above, according to the present embodiment, a new index image extracted by a search based on the user's subjectivity and preference is displayed for a plurality of index images displayed to represent the outline from the video. ing. Therefore, it is possible to generate and display an index image that suits the user's preference. At this time, since a new index image for the video segment is extracted, the user can grasp the outline of the video segment without viewing the entire content of the video.

また、上述のステップS14では、ステップS13に於いて表示された主要フレームからユーザが主観や嗜好により選んだ少なくとも1枚以上の画像を指定画像として選択しているため、ユーザは、自己の主観や嗜好を視覚的な感覚に基づいて指定することができるため、新たなインデックス画像の生成のためにユーザに与える負担が少なく、ユーザ操作を簡便にしてインデックス画像を生成することができる。更に、上述のステップS15〜ステップS16では、指定画像と、対象となっている映像セグメントから抽出されている主要フレームとから、統合検索条件を自動的に設定して、新たなインデックス画像を生成しているため、ユーザの主観・嗜好を反映させた上でインデックス画像を生成することができ、よりユーザ毎の良好なインデックス画像を生成・表示することが可能となる。   In step S14, at least one image selected by the user according to subjectivity or preference is selected as the designated image from the main frames displayed in step S13. Since the preference can be specified based on a visual sense, the burden on the user for generating a new index image is small, and the index image can be generated with a simple user operation. Further, in steps S15 to S16 described above, the integrated search condition is automatically set from the designated image and the main frame extracted from the target video segment to generate a new index image. Therefore, it is possible to generate an index image while reflecting the user's subjectivity and preference, and to generate and display a better index image for each user.

また、フレームの特徴の中でもユーザが重点的に注目したいと考える特徴要素に対して、ユーザの指定または自動的に重み係数を設定して、この重み係数を考慮して新たなインデックス画像を生成しているため、ユーザに対して適切なインデックス画像を生成することが可能となる。   In addition, a user assigns or automatically sets a weighting factor for a feature element that the user wants to focus attention on among the frame features, and generates a new index image in consideration of this weighting factor. Therefore, an index image appropriate for the user can be generated.

(第2の実施形態)
次に、本発明の第2の実施形態を説明する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

尚、本第2の実施形態に於いては、画像情報表示装置の構成及び基本的な動作については、図1乃至図5に示される第1の実施形態の画像情報表示装置の構成及び動作と同じであるので、これらの構成及び動作については、同一の部分には同一の参照番号を付して、その図示及び説明は省略するものとし、異なる構成及び動作の説明についてのみ説明する。   In the second embodiment, the configuration and basic operation of the image information display apparatus are the same as the configuration and operation of the image information display apparatus of the first embodiment shown in FIGS. Since these configurations and operations are the same, the same parts are denoted by the same reference numerals, and the illustration and description thereof will be omitted, and only different configurations and operations will be described.

図6は、上述のステップS4〜ステップS9について、演算処理装置10が行う処理を更に説明するものである。   FIG. 6 further explains the processing performed by the arithmetic processing device 10 for the above-described steps S4 to S9.

この図6のフローチャートに於いて、ステップS21〜S24の処理は、図4に示される上述した第1の実施形態のフローチャートのステップS11〜S14と同様な処理が行われる。したがって、ステップS21〜S24の処理動作は、図4のフローチャートに於けるステップS11〜S14を参照するものとして、ここでは説明を省略する。   In the flowchart of FIG. 6, the processes of steps S21 to S24 are the same as the processes of steps S11 to S14 of the flowchart of the first embodiment shown in FIG. Therefore, the processing operations of steps S21 to S24 refer to steps S11 to S14 in the flowchart of FIG.

ステップS25〜ステップS31では、主要フレームの再検索を行うための検索条件を設定して、新しい主要フレームの抽出と、抽出した新しい主要フレームの更新を行う。ステップS25〜ステップS31は、ステップS8〜ステップS9の処理に相当する処理である。   In steps S25 to S31, a search condition for re-searching the main frame is set, and a new main frame is extracted and the extracted new main frame is updated. Steps S25 to S31 are processes corresponding to the processes of steps S8 to S9.

ステップS25では、上述した第1の実施形態と同様に、映像から生成された主要フレームの中からユーザが指定したp枚の指定画像から、嗜好統合検索条件Qprefを設定する。尚、ここでいう嗜好統合検索条件Qprefは、p枚の指定画像の特徴量に近似した特徴量をフレームが備えるか否かを判断するものであり、本発明の第1の検索条件に相当する。 In step S25, the preference integrated search condition Qpref is set from p designated images designated by the user from the main frames generated from the video, as in the first embodiment described above. The preference integrated search condition Q pref here is used to determine whether or not the frame has a feature amount approximate to the feature amount of the p designated images, and corresponds to the first search condition of the present invention. To do.

一方、このステップS25の処理動作と共に、ステップS26以降のユーザにより選択されたp枚の指定画像(i)に対する繰り返し処理が行われる。すなわち、指定画像(i)の属する映像セグメントから、指定画像(i)に関連するフレームを選別画像としてr枚抽出するための検索を行う。r枚は、演算処理装置10に予め設定されていてもいいし、演算処理装置10が自動的に設定することもできるし、またはユーザが入力装置13や指示装置14を操作して設定することもできる。   On the other hand, along with the processing operation of step S25, iterative processing is performed on p designated images (i) selected by the user after step S26. That is, a search is performed to extract r frames related to the designated image (i) as selected images from the video segment to which the designated image (i) belongs. The r sheets may be set in advance in the arithmetic processing device 10, can be automatically set by the arithmetic processing device 10, or set by the user operating the input device 13 or the instruction device 14. You can also.

尚、指定画像(i)の属する映像セグメントからの指定画像(i)に関連するフレームを抽出するための検索は、例えば、指定画像(i)に類似するフレームを抽出する検索である。この抽出は、指定画像(i)の特徴(または特徴量)と、指定画像(i)の属する映像セグメント内の各フレームの特徴(または特徴量)とを比較して、両者が近似しているフレームを、指定画像(i)の属する映像セグメントから抽出することで行う。このとき、上記実施形態で説明した重み係数の考えを適用して、重み係数の高い特徴係数について特徴(または特徴量)が近似しているフレームを優先的に抽出するようにしてもよい。   The search for extracting a frame related to the designated image (i) from the video segment to which the designated image (i) belongs is, for example, a search for extracting a frame similar to the designated image (i). In this extraction, the feature (or feature amount) of the designated image (i) is compared with the feature (or feature amount) of each frame in the video segment to which the designated image (i) belongs, and both are approximated. The frame is extracted by extracting from the video segment to which the designated image (i) belongs. At this time, the concept of the weighting factor described in the above embodiment may be applied to preferentially extract a frame in which a feature (or feature amount) approximates a feature factor having a high weighting factor.

次いで、ステップS27では、ステップS26で抽出されたr枚のフレームの特徴に基づいて、部分的な統合検索条件Qpartial (i)を設定する。ここでいう部分的な統合検索条件Qpartial (i)は、r枚のフレームの特徴量に近似した特徴量をフレームが備えるか否かを判断するものであり、本発明の第2の検索条件に相当する。 Next, in step S27, a partial integrated search condition Q partial (i) is set based on the features of the r frames extracted in step S26. The partial integrated search condition Q partial (i) here is used to determine whether or not the frame has a feature quantity approximate to the feature quantity of r frames, and the second search condition of the present invention. It corresponds to.

次に、ステップS28では、嗜好検索条件Qprefと部分統合検索条件Qpartial (i)とから、統合検索条件Qtotal (i)を設定する。統合検索条件Qtotal (i)は、嗜好検索条件Qprefと部分統合検索条件Qpartial (i)の論理和や論理積で設定することができる。 Next, in step S28, the integrated search condition Q total (i) is set from the preference search condition Q pref and the partial integrated search condition Q partial (i). The integrated search condition Q total (i) can be set by the logical sum or logical product of the preference search condition Q pref and the partial integrated search condition Q partial (i).

尚、上記ステップS26で検索されたr枚のフレームの特徴量と、p枚の指定画像の特徴量を統合して、当該統合した特徴量に近似した特徴量をフレームが備えるか否かを判断するものを、統合検索条件とすることもできる。   It should be noted that the feature values of the r frames searched in step S26 and the feature values of the p designated images are integrated, and it is determined whether or not the frame has a feature value approximate to the integrated feature value. What is to be done can also be used as an integrated search condition.

更に、ステップS29にて、設定された統合検索条件Qtotal (i)を用いて、指定画像(i)の属する映像セグメントから、統合検索条件Qtotal (i)を満たすフレームの抽出を行う。ステップS29の検索では、設定されたni 枚のフレームを抽出する。ni 枚は、演算処理装置10に予め設定されていてもいいし、演算処理装置10が自動的に設定することもできるし、またはユーザが入力装置13や指示装置14を操作して設定することもできる。 Further, at step S29, by using the set integrated search condition Q total (i), from the video segment belongs specified image (i), and extracts a frame that satisfies the integrated search condition Q total (i). In the search in step S29, the set n i frames are extracted. The number n i may be set in advance in the arithmetic processing device 10, can be automatically set by the arithmetic processing device 10, or is set by the user operating the input device 13 or the instruction device 14. You can also.

そして、ステップS30に於いて、全指定画像に対しての繰り返し処理が終了したか否かが判断される。ステップS26〜ステップS29は、p枚の指定画像に対する順次繰り返し処理(i=1〜p)となっており、ステップS30で、繰り返しがまだ終了ではない場合は、ステップS26へ移行してステップS26〜ステップS29の繰り返し処理が行われる。   Then, in step S30, it is determined whether or not the iterative process for all designated images has been completed. Steps S26 to S29 are sequential repetitive processing (i = 1 to p) for p designated images. If the repetition is not yet completed in step S30, the process proceeds to step S26 and steps S26 to S26. The repetition process of step S29 is performed.

一方、上記ステップS30にて繰り返し処理が終了したならば、ステップS31へ移行する。ステップS31では、指定画像の属する映像セグメントから再検索された新たな主要フレームで指定された主要フレームの更新を行い、新たな主要フレームの表示を、図3に示されるように行う。   On the other hand, if the repetitive processing is completed in step S30, the process proceeds to step S31. In step S31, the main frame designated by the new main frame re-searched from the video segment to which the designated image belongs is updated, and the new main frame is displayed as shown in FIG.

すなわち、第2の実施形態では、図7に示されるように、指定画像(1)〜指定画像(p)から嗜好検索条件Qprefが設定される。また、指定画像(1)〜指定画像(p)に対して繰り返し処理を行う際の対象となっている指定画像(i)の特徴(または特徴量)に基づいて指定画像(i)が属する映像セグメントから指定画像(i)に関連するフレームをr枚抽出する。そして、設定された枚数だけの検索結果画像がr枚抽出されたときに、r枚のフレームから部分統合検索条件Qpartial (i)を設定する。そして、嗜好検索条件Qprefと部分統合検索条件Qpartial (i)とから、検索条件の論理和や論理積をとること等、任意の論理的手法により、統合検索条件Qtotal (i)を設定し、統合検索条件Qtotal (i)を用いて、指定画像(i)が属する映像セグメントから再検索を行い、設定されたn枚のフレームを抽出している。 That is, in the second embodiment, as shown in FIG. 7, the preference search condition Q pref is set from the designated image (1) to the designated image (p). In addition, the video to which the designated image (i) belongs based on the feature (or feature amount) of the designated image (i) that is a target when the repeated processing is performed on the designated image (1) to the designated image (p). Extract r frames related to the designated image (i) from the segment. Then, when r search result images corresponding to the set number are extracted, the partial integrated search condition Q partial (i) is set from the r frames. Then, the integrated search condition Q total (i) is set by an arbitrary logical method such as taking the logical sum or logical product of the search conditions from the preference search condition Q pref and the partial integrated search condition Q partial (i). and, using the integrated search condition Q total (i), performs a search from video segment specified image (i) belongs, are extracted n i frames that have been set.

また、統合検索条件Qtotal (i)を、指定画像(1)〜指定画像(p)の特徴量とr枚のフレームの特徴量を統合して設定する方法もある。他にも、過去の検索条件を反映させて新たな主要フレームの抽出を行うこともできる。例えば、過去に行った新たな主要フレームを抽出するための検索条件を、データベース(2)17に履歴情報として記憶しておいて、嗜好検索条件Qprefまたは部分統合検索条件Qpartial (i)の代わりに、履歴情報として記憶しておいた検索条件を用いることもできる。 There is also a method of setting the integrated search condition Q total (i) by integrating the feature amounts of the designated image (1) to the designated image (p) and the feature amounts of r frames. In addition, a new main frame can be extracted by reflecting past search conditions. For example, a search condition for extracting a new main frame performed in the past is stored as history information in the database (2) 17, and the preference search condition Qpref or the partial integrated search condition Q partial (i) Instead, a search condition stored as history information can be used.

尚、図6のフローチャートに於いてはステップS25の処理動作と、ステップS26及びS26の処理動作を同時に行うようにしているが、これに限られるものではない。すなわち、ステップS28にて嗜好検索条件Qprefと部分統合検索条件partial (i)とから統合検索条件total (i)が設定されるようになっていればよく、嗜好検索条件Qprefと部分統合検索条件partial (i)が順次求められるようにしてもよい。 In the flowchart of FIG. 6, the processing operation of step S25 and the processing operations of steps S26 and S26 are performed simultaneously, but the present invention is not limited to this. That is, it is sufficient so integrated search condition total (i) is set because the preference search condition Q pref and partial integration search partials (i) and at step S28, the preference search condition Q pref and partial integrated search The condition partial (i) may be obtained sequentially.

(第3の実施形態)
次に、本発明の第3の実施形態を説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

本第3の実施形態では、初期に表示された主要フレームをユーザが主観や嗜好によって指示する操作を行う代わりに、過去のユーザの操作の履歴情報を各ユーザに対しての履歴データベースから参照して、この履歴情報を利用して嗜好検索条件を生成するというものである。   In the third embodiment, instead of performing an operation in which the user instructs the main frame displayed in the initial stage according to subjectivity or preference, the history information of past user operations is referred to from the history database for each user. Thus, a preference search condition is generated using this history information.

尚、本第3の実施形態に於いては、画像情報表示装置の構成及び基本的な動作については、図1乃至図5に示される第1の実施形態の画像情報表示装置の構成及び動作と同じであるので、これらの構成及び動作については、同一の部分には同一の参照番号を付して、その図示及び説明は省略するものとし、異なる構成及び動作の説明についてのみ説明する。   In the third embodiment, the configuration and basic operation of the image information display device are the same as the configuration and operation of the image information display device of the first embodiment shown in FIGS. Since these configurations and operations are the same, the same parts are denoted by the same reference numerals, and the illustration and description thereof will be omitted, and only different configurations and operations will be described.

図8は、上述のステップS4〜ステップS9について、演算処理装置10が行う処理を更に説明するものである。   FIG. 8 further explains the processing performed by the arithmetic processing device 10 for the above-described steps S4 to S9.

この図8のフローチャートに於いて、ステップS41〜S43及びステップS45〜S48の処理は、図4に示される上述した第1の実施形態のフローチャートのステップS11〜S13及びステップS15〜S18と同様な処理が行われる。したがって、ステップS41〜S43及びステップS45〜S48の処理動作は、図4のフローチャートに於けるステップS11〜S13及びステップS15〜S18を参照するものとして、ここでは説明を省略する。   In the flowchart of FIG. 8, steps S41 to S43 and steps S45 to S48 are the same as steps S11 to S13 and steps S15 to S18 of the flowchart of the first embodiment shown in FIG. Is done. Accordingly, the processing operations of steps S41 to S43 and steps S45 to S48 refer to steps S11 to S13 and steps S15 to S18 in the flowchart of FIG.

ステップS43にて主要フレームが表示されると、続くステップS44では、データベース(2)17より履歴情報を読み出す。そして、抽出された主要フレームに対して、上述した図1のフローチャートに於けるステップステップS15と同様に、統合検索条件が生成されて対象映像セグメント内の検索が行われることにより、その映像セグメント内の主要画像の再検索が行われる。   When the main frame is displayed in step S43, history information is read from the database (2) 17 in the subsequent step S44. Then, for the extracted main frame, as in step S15 in the flowchart of FIG. 1 described above, the integrated search condition is generated and the search in the target video segment is performed. The main image is re-searched.

ここでは、ユーザの履歴データベース(データベース(2)17)の参照により、データベース(1)16内の画像について、閲覧頻度の高い順に、設定された枚数p枚の画像が抽出されて利用されることになる。データベース(1)16内の画像としては、映像のフレームであっても、映像以外の静止画像等であってもよい。データベース(2)17内の画像の閲覧履歴情報には、ユーザが閲覧した画像に対し、閲覧の回数、閲覧日時、閲覧した画像に対する印刷や、画像処理の履歴等、様々なユーザ毎の主観や嗜好情報が含まれている。そのため、履歴情報から各ユーザに対する嗜好を推定することが可能であり、これらの情報を利用して、統合検索条件を設定するための複数の画像を選択することになる。   Here, by referring to the user history database (database (2) 17), for the images in the database (1) 16, a set number of p images are extracted and used in descending order of viewing frequency. become. The image in the database (1) 16 may be a video frame, a still image other than a video, or the like. The browsing history information of the images in the database (2) 17 includes, for each image browsed by the user, the number of times of browsing, the browsing date, printing of the browsed image, the history of image processing, etc. Preference information is included. Therefore, the preference for each user can be estimated from the history information, and a plurality of images for setting the integrated search condition are selected using the information.

尚、利用履歴が多い場合には、その画像に対する重要度を高くする、または、履歴にある画像の撮影日時に関連の高い画像を重点的に抽出する等、これらの各画像特徴量の統計量から重み係数を設定して検索条件を設定することが可能となる。   If there is a lot of usage history, the importance of the image is increased, or an image highly relevant to the shooting date and time of the image in the history is extracted, etc. Thus, it is possible to set a search condition by setting a weighting factor.

更に、データベース(2)17は、ユーザ毎のデータベ−スとなっており、利用しているユーザがユーザ情報を入力する手段を有することも考えることができる。また、ユーザがログインする際にユーザの認証を行う方法や、自動的にユーザを認識する手段を有する構成の装置としてもよい。加えて、利用する履歴情報としては多数の種類があるため、これらの履歴情報を利用するか否かの選択手段や、各履歴情報に対する重要度の設定を行う手段を有することにより、ユーザ毎にカスタマイズされた主観や、嗜好を反映したインデックス生成によるインデックスの表示を行うことが可能となる。   Further, the database (2) 17 is a database for each user, and it can be considered that the user who uses the database has means for inputting user information. Further, a method of authenticating a user when the user logs in, or an apparatus having a configuration that automatically recognizes the user may be used. In addition, since there are many types of history information to be used, each user has a means for selecting whether or not to use these history information and a means for setting importance for each history information. It is possible to display an index by generating an index that reflects customized subjectivity and preferences.

また、ユーザの嗜好により画像の指定を行う、またはユーザの履歴を参照する際に、ユーザの主観・嗜好は、対象としている映像内の画像のみに限ることなく、他のユーザの有する映像や画像のデータベースでの履歴を参照することにより、更にユーザの主観や嗜好が反映された情報を抽出することが可能となり、適切なインデックス抽出及び表示を行うことが可能となる。   In addition, when specifying an image according to the user's preference or referring to the user's history, the user's subjectivity / preference is not limited to only the image in the target video, but other users' videos and images By referring to the history in the database, it is possible to further extract information reflecting the user's subjectivity and preference, and to perform appropriate index extraction and display.

更には、ユーザがシステムを利用する毎に、異なる検索条件が設定されることになるが、これらの情報も履歴データベースに登録しておけば、ユーザは過去の検索条件情報を参照して過去の実行を再現したり、または、過去の条件を参考に部分的に条件を変更して検索を行うことによる作業の再現を行ったりすることが可能となる。このようにすれば、ユーザにとっては、より利便性のよりシステムを提供することができる。   Furthermore, each time a user uses the system, different search conditions are set. However, if such information is also registered in the history database, the user can refer to past search condition information in the past. It is possible to reproduce the execution or to reproduce the work by partially changing the condition with reference to the past condition and performing the search. In this way, it is possible to provide a more convenient system for the user.

本実施形態によれば、上述の第1の実施形態に加えて、以下の効果を有している。   According to this embodiment, in addition to the first embodiment described above, the following effects are provided.

すなわち、本実施形態によれば、ユーザが以前に参照等した画像の履歴情報に基づいて、ユーザの好みを推定して、この履歴情報に基づいて新たなインデックス画像を生成しているため、ユーザの操作負担を軽減した上で、各ユーザの好みに合ったインデックス画像を生成することができる。   That is, according to the present embodiment, the user's preference is estimated based on the history information of the image that the user has previously referred to, and a new index image is generated based on the history information. It is possible to generate an index image suitable for each user's preference.

(第4の実施形態)
次に、本発明の第4の実施形態を説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

本第4の実施形態では、初期に表示されたインデックスをユーザが主観や嗜好によって指示する操作を行う代わりに、過去のユーザの操作の履歴情報を各ユーザに対しての履歴データベースから参照して、この履歴情報を利用して嗜好検索条件を生成するというものである。   In the fourth embodiment, instead of performing an operation in which the user designates the index displayed in the initial stage according to subjectivity or preference, the history information of past user operations is referred to from the history database for each user. The preference search condition is generated using this history information.

尚、本第4の実施形態に於いて、画像情報表示装置の構成及び基本的な動作については、図1乃至図5に示される第1の実施形態の画像情報表示装置の構成及び動作と同じであるので、これらの構成及び動作については、同一の部分には同一の参照番号を付して、その図示及び説明は省略するものとし、異なる構成及び動作の説明についてのみ説明する。   In the fourth embodiment, the configuration and basic operation of the image information display device are the same as those of the image information display device of the first embodiment shown in FIGS. Therefore, with respect to these configurations and operations, the same reference numerals are given to the same portions, and illustration and description thereof will be omitted, and only different configurations and operations will be described.

図9は、上述のステップS4〜ステップS9について、演算処理装置10が行う処理を更に説明するものである。   FIG. 9 further explains the processing performed by the arithmetic processing unit 10 for the above-described steps S4 to S9.

この図9のフローチャートに於いて、ステップS51〜S54の処理は、図8に示される上述した第3の実施形態のフローチャートのステップS41〜S44と同様な処理であり、ステップS55〜S61の処理は、図6に示される上述した第2の実施形態のフローチャートのステップS25〜S31と同様な処理が行われる。したがって、ステップS51〜S54の処理動作は図8のフローチャートのステップS41〜S44を、そしてステップS55〜S61の処理は図6のフローチャートのステップS25〜S31を参照するものとして、ここでは説明を省略する。   In the flowchart of FIG. 9, the processes of steps S51 to S54 are the same as the processes of steps S41 to S44 of the flowchart of the third embodiment shown in FIG. 8, and the processes of steps S55 to S61 are The same processing as steps S25 to S31 in the flowchart of the second embodiment described above shown in FIG. 6 is performed. Accordingly, the processing operations of steps S51 to S54 refer to steps S41 to S44 in the flowchart of FIG. 8, and the processes of steps S55 to S61 refer to steps S25 to S31 of the flowchart of FIG. .

つまり、この第4の実施形態は、上述した第2の実施形態と第3の実施形態の合成と考えることもできる。したがって、ステップS53に於けるインデックス表示は、図3に示されるようなマトリクス状のものとなる。   In other words, the fourth embodiment can be considered as a combination of the second embodiment and the third embodiment described above. Therefore, the index display in step S53 is in a matrix form as shown in FIG.

また、本第4の実施形態と第2の実施形態との差異は、第3の実施形態のフローチャートに於けるステップS44と同様に、ステップS54の動作処理で、ユーザの画像履歴を利用しているということである。ここでも、ステップS57に於いて、選択された画像毎の検索で得られた検索結果からの部分的統合検索条件の設定、及びユーザ指定の画像からの嗜好検索条件との統合検索条件を利用した検索が行われることになる。   Also, the difference between the fourth embodiment and the second embodiment is that the user's image history is used in the operation process of step S54, as in step S44 in the flowchart of the third embodiment. That is. Here, in step S57, the setting of the partial integrated search condition from the search result obtained by the search for each selected image and the integrated search condition with the preference search condition from the user-specified image are used. A search will be performed.

尚、上述した第1乃至第4の実施形態では、主要フレームの生成(抽出)を、当該主要フレームを含む映像を対象として行った例で説明したが、特に映像を対象としているものに限定しなくともよい。例えば、データベースに登録してある他の映像から生成された主要フレームを用いてもよい。更には、映像や静止画が区別されることなく登録されているデータベース内の全てのデータ、または検索の範囲を指定する手段を装置に設定しておけば、それらの対象とする映像以外のデータからの主要フレームの生成を行うことも可能である。   In the first to fourth embodiments described above, the generation (extraction) of the main frame has been described with reference to an image including the main frame. However, the present invention is limited to the case where the image includes the main frame. Not necessary. For example, a main frame generated from another video registered in the database may be used. Furthermore, if all the data in the database registered without distinguishing video and still images or means for specifying the search range is set in the device, the data other than the target video It is also possible to generate a main frame from

これらは、上述した第1乃至第4の実施形態に関して、同様の考え方を適用することが可能である。すなわち、図4のフローチャートのステップS16、図6のフローチャートのステップS29、図8のフローチャートのステップS46及び図9のフローチャートのステップS59に於いて、検索の際に検索対象となるデータベースを、対象とする映像より広い範囲のデータベースとすることや、検索のデータベースの範囲をユーザが設定できるような手段を装置に設けておくことも可能である。このような広範囲なデータベースを検索することにより、ユーザの主観や嗜好が、より効果的に表示結果として表現することができることになる。   For these, the same concept can be applied to the first to fourth embodiments described above. That is, in step S16 of the flowchart of FIG. 4, step S29 of the flowchart of FIG. 6, step S46 of the flowchart of FIG. 8, and step S59 of the flowchart of FIG. It is also possible to provide a database with a wider range than the video to be used, or to provide the apparatus with means for allowing the user to set the range of the search database. By searching such a broad database, the user's subjectivity and preference can be expressed more effectively as a display result.

以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形実施が可能であるのは勿論である。   Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

本発明の第1の実施形態による画像情報表示装置のシステム全体の構成を示すブロック図である。1 is a block diagram showing a configuration of an entire system of an image information display device according to a first embodiment of the present invention. インデックス生成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an index production | generation process. マトリクス状に表示されたインデックスの例を示した図である。It is the figure which showed the example of the index displayed on the matrix form. 本発明の第1の実施形態による画像情報表示装置のシーンチェンジの検出動作について説明するフローチャートである。It is a flowchart explaining the detection operation of the scene change of the image information display apparatus by the 1st Embodiment of this invention. 第1の実施形態によるシーンチェンジの検出動作の詳細を説明する図である。It is a figure explaining the detail of the detection operation of the scene change by 1st Embodiment. 本発明の第2の実施形態に於ける画像情報表示装置のシーンチェンジの検出動作について説明するフローチャートである。It is a flowchart explaining the detection operation of the scene change of the image information display apparatus in the 2nd Embodiment of this invention. 第2の実施形態によるシーンチェンジの検出動作の詳細を説明する図である。It is a figure explaining the detail of the detection operation of the scene change by 2nd Embodiment. 本発明の第3の実施形態に於ける画像情報表示装置のシーンチェンジの検出動作について説明するフローチャートである。It is a flowchart explaining the detection operation of the scene change of the image information display apparatus in the 3rd Embodiment of this invention. 本発明の第4の実施形態に於ける画像情報表示装置のシーンチェンジの検出動作について説明するフローチャートである。It is a flowchart explaining the detection operation of the scene change of the image information display apparatus in the 4th Embodiment of this invention.

符号の説明Explanation of symbols

10…演算処理装置、12…表示装置、13…入力装置(キーボード)、14…指示装置(マウス)、16…データベース1(映像・画像・特徴量)、17…データベース2(ユーザの主観・嗜好・履歴)、21…映像取り込み部、22…フレーム間比較・解析・インデックス生成部、23…映像セグメンテーション部、24…セグメント内解析・主要フレーム抽出部、25…表示画像指定部、26…主観・嗜好推定部、27…再検索部、31…シーンチェンジの画像、32…主要画像。   DESCRIPTION OF SYMBOLS 10 ... Arithmetic processing device, 12 ... Display device, 13 ... Input device (keyboard), 14 ... Instruction device (mouse), 16 ... Database 1 (video / image / feature), 17 ... Database 2 (user's subjectivity / preference)・ History), 21 ... Video capture unit, 22 ... Interframe comparison / analysis / index generation unit, 23 ... Video segmentation unit, 24 ... Intra-segment analysis / Main frame extraction unit, 25 ... Display image designation unit, 26 ... Subject / Preference estimation unit, 27 ... re-search unit, 31 ... scene change image, 32 ... main image.

Claims (18)

連続する複数のフレームから成る映像からインデックス画像を生成するインデックス画像生成装置に於いて、
上記フレームの特徴に基づいて映像セグメントに分かれた映像の各映像セグメントに属する複数のフレームを記憶した画像記憶手段と、
上記画像記憶手段に記憶された上記複数のフレームの中から所定の条件を充たすフレームを、上記映像セグメントに対するインデックス画像として抽出する抽出手段と、
上記インデックス画像を表示する表示手段と、
上記画像記憶手段に記憶された上記複数のフレームの中から上記映像セグメントに対する新たなインデックス画像を抽出するためにユーザの嗜好に基づいて検索する検索手段と、
を具備し、
上記表示手段は、上記検索手段で検索された新たなインデックス画像を表示することを特徴とする映像インデックス画像生成装置。
In an index image generating device for generating an index image from a video composed of a plurality of continuous frames,
Image storage means for storing a plurality of frames belonging to each video segment of the video divided into video segments based on the characteristics of the frame;
Extraction means for extracting a frame satisfying a predetermined condition from the plurality of frames stored in the image storage means as an index image for the video segment;
Display means for displaying the index image;
Search means for searching based on user preference to extract a new index image for the video segment from the plurality of frames stored in the image storage means;
Comprising
The video index image generating apparatus, wherein the display means displays a new index image searched by the search means.
上記検索手段は、上記表示手段に表示された上記インデックス画像の中から、ユーザによる選択を受け付け、選択されたインデックス画像の特徴に基づいて当該インデックス画像に関連する新たなインデックス画像を上記映像セグメントから抽出するように検索することを特徴とする請求項1に記載の映像インデックス画像生成装置。   The search means accepts selection by the user from the index images displayed on the display means, and based on the characteristics of the selected index image, a new index image related to the index image is extracted from the video segment. The video index image generation apparatus according to claim 1, wherein a search is performed so as to extract. 上記検索手段は、上記表示手段に表示された上記インデックス画像の中からユーザによる選択を受け付け、検索対象の映像セグメントに属するインデックス画像の特徴と、上記選択されたインデックス画像の特徴とに基づいて、当該検索対象の映像セグメントの中から当該検索対象の映像セグメントに対する新たなインデックス画像を抽出するように検索することを特徴とする請求項2に記載の映像インデックス画像生成装置。   The search means accepts selection by the user from the index images displayed on the display means, and based on the characteristics of the index image belonging to the video segment to be searched and the characteristics of the selected index image, The video index image generation device according to claim 2, wherein a search is performed so as to extract a new index image for the video segment to be searched from the video segment to be searched. 上記検索手段は、上記表示手段に表示された上記インデックス画像について、ユーザから複数のインデックス画像の選択を受け付け、当該選択された複数のインデックス画像の特徴に基づいて第1の検索条件を求め、当該選択された複数のインデックス画像のうちの一部のインデックス画像の特徴に基づいて当該一部のインデックス画像の属する映像セグメントの中から複数の選別画像を選別し、上記複数の選別画像の特徴から第2の検索条件を求め、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする請求項2に記載の映像インデックス画像生成装置。   The search means receives a selection of a plurality of index images from the user for the index image displayed on the display means, obtains a first search condition based on features of the selected index images, Based on the characteristics of some of the selected index images, a plurality of selected images are selected from the video segments to which the some index images belong. The search condition of 2 is calculated | required, It searches so that a new index image may be extracted from the said video segment based on the said 1st search condition and the said 2nd search condition. Video index image generator. 上記インデックス画像の特徴は複数種類の特徴要素で表され、
上記検索手段は、上記インデックス画像の特徴の特徴要素と、上記選択されたインデックス画像の特徴の特徴要素を対比して、上記特徴要素の種類毎の重要度を示す特徴重要度の設定を行い、上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする請求項2乃至4の何れか1に記載の映像インデックス画像生成装置。
The features of the index image are represented by multiple types of feature elements,
The search means compares the feature element of the feature of the index image with the feature element of the feature of the selected index image, sets the feature importance indicating the importance for each type of the feature element, 5. The video index image generation apparatus according to claim 2, wherein a search is performed so as to extract the new index image based on the feature importance.
上記インデックス画像の特徴は複数種類の特徴要素で表され、
上記検索手段は、上記特徴要素の重要度を示す特徴重要度のユーザによる設定を受け付け、ユーザにより設定された上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする請求項2乃至4の何れか1に記載の映像インデックス画像生成装置。
The features of the index image are represented by multiple types of feature elements,
The search means accepts a setting by the user of the feature importance indicating the importance of the feature element, and performs a search so as to extract the new index image based on the feature importance set by the user. The video index image generation device according to claim 2, wherein the video index image generation device is a video index image generation device.
上記選択されたインデックス画像に対して、当該インデックス画像の画像重要度の設定を行う設定手段を更に具備し、
上記検索手段は、上記特徴及び上記画像重要度に基づいて、上記インデックス画像に関連する新たなインデックス画像を抽出するように検索することを特徴とする請求項2乃至4の何れか1に記載の映像インデックス画像生成装置。
For the selected index image, further comprises setting means for setting the image importance of the index image,
5. The search unit according to claim 2, wherein the search unit performs a search so as to extract a new index image related to the index image based on the feature and the importance of the image. Video index image generator.
上記設定手段は、上記画像重要度のユーザによる設定を受け付けることを特徴とする請求項7に記載の映像インデックス画像生成装置。   8. The video index image generation apparatus according to claim 7, wherein the setting unit accepts a user setting of the image importance level. ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、
上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいた選択を行い、上記閲覧状況に基づいて選択されたインデックス画像の特徴に基づいて当該インデックス画像に関連する新たなインデックス画像を抽出するように検索することを特徴とする請求項1に記載の映像インデックス画像生成装置。
Comprising browsing recording means for storing the browsing status of the frame by the user;
The search means performs selection based on the browsing situation from the index images displayed on the display means, and relates to the index image based on the characteristics of the index image selected based on the browsing situation. The video index image generation apparatus according to claim 1, wherein a search is performed so as to extract a new index image.
ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、
上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいた選択を行い、検索対象の映像セグメントに属するインデックス画像の特徴と、上記閲覧状況に基づいて選択されたインデックス画像の特徴に基づいて、当該検索対象の映像セグメントの中から当該検索対象の映像セグメントに対する新たなインデックス画像を抽出するように検索することを特徴とする請求項1に記載の映像インデックス画像生成装置。
Comprising browsing recording means for storing the browsing status of the frame by the user;
The search means performs selection based on the browsing situation from the index images displayed on the display means, and is selected based on the characteristics of the index image belonging to the video segment to be searched and the browsing situation. 2. The video index image generation according to claim 1, wherein a search is performed so as to extract a new index image for the video segment to be searched from among the video segments to be searched based on characteristics of the index image. apparatus.
ユーザによる上記フレームの閲覧状況を記憶する閲覧記録手段を具備し、
上記検索手段は、上記表示手段に表示された上記インデックス画像の中から上記閲覧状況に基づいて複数のインデックス画像の選択を行い、上記閲覧状況に基づいて選択された複数のインデックス画像の特徴に基づいて第1の検索条件を求め、選択された複数のインデックス画像のうちの一部のインデックス画像の特徴に基づいて、当該一部のインデックス画像の属する映像セグメントの中から複数の選別画像を選別し、上記複数の選別画像の特徴から第2の検索条件を求め、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする請求項2に記載の映像インデックス画像生成装置。
Comprising browsing recording means for storing the browsing status of the frame by the user;
The search means selects a plurality of index images based on the browsing situation from the index images displayed on the display means, and based on the characteristics of the plurality of index images selected based on the browsing situation. The first search condition is obtained, and based on the characteristics of some of the selected index images, a plurality of selected images are selected from video segments to which the some index images belong. Obtaining a second search condition from the characteristics of the plurality of selected images, and performing a search so as to extract a new index image from the video segment based on the first search condition and the second search condition. The video index image generation device according to claim 2, wherein:
上記画像記憶手段には、上記フレーム以外の画像も含み、上記閲覧状況には、ユーザによる上記フレーム以外の画像の閲覧状況も含むことを特徴とする請求項9乃至11の何れか1に記載の映像インデックス画像生成装置。   The image storage means includes an image other than the frame, and the browsing status includes a browsing status of an image other than the frame by a user. Video index image generator. 上記インデックス画像の特徴は複数種類の特徴要素で表され、
上記検索手段は、上記閲覧状況に基づいて上記特徴要素の重要度を示す特徴重要度の設定を行い、上記特徴重要度に基づいて、上記新たなインデックス画像を抽出するように検索することを特徴とする請求項9乃至12の何れか1に記載の映像インデックス画像生成装置。
The features of the index image are represented by multiple types of feature elements,
The search means sets feature importance indicating the importance of the feature element based on the browsing status, and searches to extract the new index image based on the feature importance. The video index image generation device according to any one of claims 9 to 12.
ユーザを登録すると共に、上記閲覧状況をユーザ毎に記録する登録手段を具備し、
上記検索手段は、各ユーザの閲覧状況に基づいて検索を行うことを特徴とする請求項9乃至13の何れか1に記載の映像インデックス画像生成装置。
Along with registering users, the registration means for recording the browsing status for each user,
The video index image generation apparatus according to any one of claims 9 to 13, wherein the search means performs a search based on a browsing situation of each user.
ユーザの嗜好に基づいた複数の登録検索条件を記憶した検索条件記憶手段を具備し、
上記検索手段は、上記複数の登録検索条件からユーザの選択を受け付け、選択された登録検索条件に基づいて、上記映像セグメントから新たなインデックス画像を検索することを特徴とする請求項1に記載の映像インデックス画像生成装置。
Comprising search condition storage means for storing a plurality of registered search conditions based on user preferences,
The said search means receives a user's selection from these registration search conditions, and searches a new index image from the said video segment based on the selected registration search conditions. Video index image generator.
ユーザの嗜好に基づいた複数の登録検索条件を記憶した検索条件記憶手段を具備し、
上記検索手段は、上記表示手段に表示された上記インデックス画像について、ユーザからの選択を受け付け、当該選択されたインデックス画像の特徴に基づいて第1の検索条件を求め、上記複数の登録検索条件からユーザの選択を受け付けて、当該選択された登録検索条件を第2の検索条件とし、上記第1の検索条件と上記第2の検索条件に基づいて、上記映像セグメントから新たなインデックス画像を抽出するように検索することを特徴とする請求項1に記載の映像インデックス画像生成装置。
Comprising search condition storage means for storing a plurality of registered search conditions based on user preferences,
The search means accepts a selection from the user for the index image displayed on the display means, obtains a first search condition based on the characteristics of the selected index image, and from the plurality of registered search conditions Accepting the user's selection, using the selected registration search condition as the second search condition, and extracting a new index image from the video segment based on the first search condition and the second search condition The video index image generation device according to claim 1, wherein the video index image generation device is searched as described above.
上記画像記憶手段は、上記フレーム以外の画像を記憶しており、上記検索手段は、上記画像記憶手段に記憶された上記フレーム及び上記フレーム以外の画像の中から新たなインデックス画像を抽出するように検索することを特徴とする請求項1乃至16の何れか1に記載の映像インデックス画像生成装置。   The image storage means stores an image other than the frame, and the search means extracts a new index image from the frame and the image other than the frame stored in the image storage means. The video index image generation device according to claim 1, wherein the video index image generation device is searched. 連続する複数のフレームから成る映像からインデックス画像を生成するプログラムであって、
上記フレームの特徴に基づいて映像セグメントに分かれた映像の各映像セグメントに属する複数のフレームを記憶する第1の手順と、
上記第1の手順により記憶された上記複数のフレームの中から所定の条件を充たすフレームを、上記映像セグメントに対するインデックス画像として抽出する第2の手順と、
上記インデックス画像を表示する第3の手順と、
上記第1の手順により記憶された上記複数のフレームの中から上記映像セグメントに対する新たなインデックス画像を抽出するためにユーザの嗜好に基づいて検索する第4の手順と、
上記第4の手順によって検索された新たなインデックス画像を表示する第5の手順と、
を具備することを特徴とするインデックス画像を生成するプログラム。
A program for generating an index image from a video composed of a plurality of continuous frames,
A first procedure for storing a plurality of frames belonging to each video segment of the video divided into video segments based on the characteristics of the frame;
A second procedure for extracting a frame satisfying a predetermined condition from the plurality of frames stored by the first procedure as an index image for the video segment;
A third procedure for displaying the index image;
A fourth procedure for searching based on a user's preference to extract a new index image for the video segment from the plurality of frames stored by the first procedure;
A fifth procedure for displaying a new index image retrieved by the fourth procedure;
A program for generating an index image, comprising:
JP2005025224A 2005-02-01 2005-02-01 Video index image generator and generation program Pending JP2006217046A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005025224A JP2006217046A (en) 2005-02-01 2005-02-01 Video index image generator and generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005025224A JP2006217046A (en) 2005-02-01 2005-02-01 Video index image generator and generation program

Publications (1)

Publication Number Publication Date
JP2006217046A true JP2006217046A (en) 2006-08-17

Family

ID=36979926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005025224A Pending JP2006217046A (en) 2005-02-01 2005-02-01 Video index image generator and generation program

Country Status (1)

Country Link
JP (1) JP2006217046A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008155974A1 (en) 2007-06-20 2008-12-24 Olympus Corporation Image extraction apparatus, image extraction program, and image extraction method
WO2009013940A1 (en) * 2007-07-20 2009-01-29 Olympus Corporation Image extraction device, image extraction program, and image extraction method
JP2010231532A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Image processing program, image processing method, and image processing apparatus
JP2011053952A (en) * 2009-09-02 2011-03-17 Canon Inc Image-retrieving device and image-retrieving method
WO2012016370A1 (en) * 2010-08-02 2012-02-09 Peking University Representative motion flow extraction for effective video classification and retrieval
WO2013024687A1 (en) * 2011-08-12 2013-02-21 オリンパスメディカルシステムズ株式会社 Image management device, method, and program for image reading
JP2014232384A (en) * 2013-05-28 2014-12-11 アイキューブド研究所株式会社 Image output apparatus, image output method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331009A (en) * 1999-05-18 2000-11-30 Nippon Telegr & Teleph Corp <Ntt> Video search method and apparatus, and recording medium storing video search program
JP2003178097A (en) * 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd Image database device and its operation control method
JP2003348528A (en) * 2002-05-22 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> Representative image selection method, representative image selection apparatus, representative image selection program and recording medium for representative image selection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331009A (en) * 1999-05-18 2000-11-30 Nippon Telegr & Teleph Corp <Ntt> Video search method and apparatus, and recording medium storing video search program
JP2003178097A (en) * 2001-12-13 2003-06-27 Fuji Photo Film Co Ltd Image database device and its operation control method
JP2003348528A (en) * 2002-05-22 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> Representative image selection method, representative image selection apparatus, representative image selection program and recording medium for representative image selection program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008155974A1 (en) 2007-06-20 2008-12-24 Olympus Corporation Image extraction apparatus, image extraction program, and image extraction method
EP2157789A4 (en) * 2007-06-20 2013-10-02 Olympus Corp PAGE EXTRACTION DEVICE, IMAGE EXTRACTION PROGRAM AND PICTURE EXTRACTION PROCESS
US8254720B2 (en) 2007-07-20 2012-08-28 Olympus Corporation Image extracting apparatus, computer program product, and image extracting method
WO2009013940A1 (en) * 2007-07-20 2009-01-29 Olympus Corporation Image extraction device, image extraction program, and image extraction method
JP2009027558A (en) * 2007-07-20 2009-02-05 Olympus Corp Image extraction device, and image extraction program
JP2010231532A (en) * 2009-03-27 2010-10-14 Fujitsu Ltd Image processing program, image processing method, and image processing apparatus
JP2011053952A (en) * 2009-09-02 2011-03-17 Canon Inc Image-retrieving device and image-retrieving method
WO2012016370A1 (en) * 2010-08-02 2012-02-09 Peking University Representative motion flow extraction for effective video classification and retrieval
US8995531B2 (en) 2010-08-02 2015-03-31 Peking University Representative motion flow extraction for effective video classification and retrieval
US9268794B2 (en) 2010-08-02 2016-02-23 Peking University Representative motion flow extraction for effective video classification and retrieval
WO2013024687A1 (en) * 2011-08-12 2013-02-21 オリンパスメディカルシステムズ株式会社 Image management device, method, and program for image reading
JP5242866B1 (en) * 2011-08-12 2013-07-24 オリンパスメディカルシステムズ株式会社 Image management apparatus, method, and interpretation program
CN103269635A (en) * 2011-08-12 2013-08-28 奥林巴斯医疗株式会社 Image management device, method and program for film reading
US8830308B2 (en) 2011-08-12 2014-09-09 Olympus Medical Systems Corp. Image management apparatus, image management method and computer-readable recording medium associated with medical images
JP2014232384A (en) * 2013-05-28 2014-12-11 アイキューブド研究所株式会社 Image output apparatus, image output method and program

Similar Documents

Publication Publication Date Title
US7487524B2 (en) Method and apparatus for presenting content of images
JP4201454B2 (en) Movie summary generation method and movie summary generation device
US7152209B2 (en) User interface for adaptive video fast forward
CN101689394B (en) Method and system for video indexing and video synopsis
US7916894B1 (en) Summary of a video using faces
US9271035B2 (en) Detecting key roles and their relationships from video
US8184947B2 (en) Electronic apparatus, content categorizing method, and program therefor
JP5212610B2 (en) Representative image or representative image group display system, method and program thereof, and representative image or representative image group selection system, method and program thereof
JP5106271B2 (en) Image processing apparatus, image processing method, and computer program
US8094935B2 (en) Representative color extracting method and apparatus based on human color sense and data histogram distributions
US20100057722A1 (en) Image processing apparatus, method, and computer program product
US20090116811A1 (en) Tagboard for video tagging
KR20070118635A (en) Thermalization of Audio and / or Visual Data
US8345742B2 (en) Method of processing moving picture and apparatus thereof
JP5180922B2 (en) Image search system and image search method
US9535991B2 (en) Video display for displaying a series of representative images for video
JP2009087113A (en) Apparatus and method for processing information, program, and recording medium
US9224069B2 (en) Program, method and apparatus for accumulating images that have associated text information
JP2009060413A (en) Video feature extraction method and system, and video search method and system
CN110933520A (en) A surveillance video display method and storage medium based on spiral abstract
JP5627002B2 (en) Similar video output method, similar video output device, and similar video output program
CN113569668B (en) Method, medium, device and computing device for determining highlight segments in a video
JP2006217046A (en) Video index image generator and generation program
JP4995770B2 (en) Image dictionary generation device, image dictionary generation method, and image dictionary generation program
JP2006217045A (en) Index image generator and generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100803