[go: up one dir, main page]

JP2007012013A - Video data management apparatus, method and program - Google Patents

Video data management apparatus, method and program Download PDF

Info

Publication number
JP2007012013A
JP2007012013A JP2005269202A JP2005269202A JP2007012013A JP 2007012013 A JP2007012013 A JP 2007012013A JP 2005269202 A JP2005269202 A JP 2005269202A JP 2005269202 A JP2005269202 A JP 2005269202A JP 2007012013 A JP2007012013 A JP 2007012013A
Authority
JP
Japan
Prior art keywords
video data
metadata
indexing
search
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005269202A
Other languages
Japanese (ja)
Other versions
JP4354441B2 (en
Inventor
Hidenobu Osada
秀信 長田
Kota Hidaka
浩太 日高
Takashi Sato
隆 佐藤
Masashi Morimoto
正志 森本
Kazu Miyagawa
和 宮川
Dan Mikami
弾 三上
Seiichi Konya
精一 紺谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005269202A priority Critical patent/JP4354441B2/en
Publication of JP2007012013A publication Critical patent/JP2007012013A/en
Application granted granted Critical
Publication of JP4354441B2 publication Critical patent/JP4354441B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

【課題】 映像に付与されているメタデータ(番組の出演者、ジャンルなど)に、特徴量解析したメタデータを追加して検索できるようにする。
【解決手段】 本発明は、映像データを監視し、インデクシングの対象となる映像データを指定し、また、関連情報を初期メタデータとして出力し、指定された映像データに対してインデクシングを行い、インデクシングメタデータに基づいて、代表画像を選択し、映像データの一覧を生成し、初期メタデータ並びに、インデクシングメタデータに基づいて、追加メタデータを生成し、生成された各データを、メタデータDBに格納し、入力された検索キーに基づいて、メタデータDBを検索すると共に、インターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する。
【選択図】 図1
PROBLEM TO BE SOLVED: To search by adding metadata analyzed for a feature amount to metadata (program performers, genres, etc.) given to a video.
The present invention monitors video data, specifies video data to be indexed, outputs related information as initial metadata, performs indexing on the specified video data, and performs indexing. Based on the metadata, a representative image is selected, a list of video data is generated, additional metadata is generated based on the initial metadata and indexing metadata, and each generated data is stored in the metadata DB. The metadata DB is searched based on the stored search key that is stored and input, information on the Internet is searched, and the search result is displayed in one window that is newly generated on the display means.
[Selection] Figure 1

Description

本発明は、映像データ管理装置及び方法及びプログラムに係り、特に、パーソナルコンピュータ、ハードディスクレコーダ、または、セットトップボックス等の、映像データを記録することが可能なあらゆる装置において、映像データに関連する索引情報を自動生成し、また、映像データの管理、検索、及び閲覧を行うための映像データ管理装置及び方法及びプログラムに関する。   The present invention relates to a video data management apparatus, method, and program, and more particularly to an index related to video data in any apparatus capable of recording video data, such as a personal computer, a hard disk recorder, or a set top box. The present invention relates to a video data management apparatus, method, and program for automatically generating information and managing, searching, and browsing video data.

個人が所有する映像データの中から、所望の映像データを短時間に探したいという要求がある。例えば、録画、コピー、またはダウンロードの手段によって多くの映像データがディスクに保存されている状態において、映像を順次再生して内容を確認し、探す方法でなく、映像のシーンを静止画の一覧によって把握することにより探す方法や、テキスト検索によって求める映像ファイルを探したいという要求である。   There is a demand for searching for desired video data in a short time from video data owned by an individual. For example, in a state where a lot of video data is stored on the disk by means of recording, copying, or downloading, the video scene is not displayed by a method of sequentially reproducing and checking the content and searching for the content, but by a list of still images. This is a method of searching by grasping or a request to search for a video file to be obtained by text search.

この要求に対し、従来技術により以下の機能が提供されている。   In response to this requirement, the following functions are provided by the prior art.

(1)ファイル管理アプリケーション(Internet Explorer(登録商標)等)の機能によって映像データの一覧を表示する機能;
(2)ファイル名を対象とし映像データを検索する機能;
(1) A function for displaying a list of video data by a function of a file management application (Internet Explorer (registered trademark), etc.);
(2) Function to search video data for file names;

しかしながら、上記従来の技術が提供する機能では、以下のような問題がある。   However, the functions provided by the conventional technique have the following problems.

・現在一般に提供されているファイル管理アプリケーションの機能では、映像データの一覧表示の際、映像の先頭のシーンだけが表示される。このため、映像データの途中に含まれる内容の把握が困難となり、結果として、所望の映像データへの到達が困難になる。   -In the function of the file management application currently provided generally, only the head scene of the video is displayed when the video data list is displayed. For this reason, it is difficult to grasp the contents included in the video data, and as a result, it is difficult to reach the desired video data.

・現在一般に提供されている映像データの検索機能では、ファイル名のみを対象としている。映像データの名称は、必ずしも映像の内容を表したものでなく、ユーザが映像データのファイル名でなく内容の一部を記憶している場合には、適切な検索キーを入力することができない場合があり、結果として所望の映像データへの到達が困難となる。   -The video data search function currently available to the public only targets file names. The name of the video data does not necessarily represent the content of the video, and if the user remembers part of the content instead of the file name of the video data, the appropriate search key cannot be entered As a result, it is difficult to reach the desired video data.

・現在一般に提供されている映像データの検索機能では、検索結果画面は映像データの一覧を示すのみである。このため、ユーザが一旦検索を行った後、別の検索キーを入力してもう一度検索を行いたいと考えた場合に、ユーザは新たな検索キーを自力で考案する必要が生じる。このため、結果として所望映像データへの到達が困難となる場合がある。   -In the video data search function that is generally provided at present, the search result screen only shows a list of video data. For this reason, when the user once searches and then enters another search key and wants to search again, the user needs to devise a new search key by himself. For this reason, it may be difficult to reach the desired video data as a result.

上記のように、従来の技術では、所望の映像データに到達する場合に困難が伴う。   As described above, in the conventional technique, it is difficult to reach desired video data.

本発明は、上記の点に鑑みなされたもので、所望する映像データへの到達が従来よりも容易となる映像データ管理装置及び方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a video data management apparatus, method, and program that make it easier to reach desired video data than before.

図1は、本発明の原理構成図である。   FIG. 1 is a principle configuration diagram of the present invention.

本発明(請求項1)は、映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための映像データ管理装置であって、
記憶手段20中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視手段31と、
映像データ監視手段31で指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシング手段32と、
インデクシング手段32により得られたインデクシングメタデータに基づいて、代表画像を選択し、映像データの一覧を生成し、記憶手段20に格納する映像データ一覧生成手段33と、
映像データ監視手段31から取得した初期メタデータ並びに、インデクシング手段32から取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成手段34と、
初期メタデータ、インデクシングメタデータ、及び追加メタデータを、メタデータDB50に格納するメタデータDB生成手段35と、
入力された検索キーに基づいて、メタデータDB50を検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索手段36と、
インデクシング手段32のインデクシング処理の進捗に基づいて、映像データ一覧を更新する映像データ一覧更新手段37と、を有する。
The present invention (Claim 1) is a video data management device for generating index information related to video data and managing, searching, and browsing the video data,
The video data in the storage means 20 and the video data input / output to / from the recording medium are monitored, the video data to be indexed is specified, and the related information given in advance when the video data is acquired by the user Video data monitoring means 31 for outputting as initial metadata,
Indexing means 32 for performing indexing on the video data designated by the video data monitoring means 31 and outputting indexing metadata in which feature information and time information of the video data are associated;
Based on the indexing metadata obtained by the indexing means 32, a representative image is selected, a list of video data is generated, and the video data list generating means 33 stored in the storage means 20,
An additional metadata generating unit 34 for generating additional metadata which is related information to be added to video data based on the initial metadata acquired from the video data monitoring unit 31 and the indexing metadata acquired from the indexing unit 32; ,
Metadata DB generation means 35 for storing initial metadata, indexing metadata, and additional metadata in the metadata DB 50;
Based on the input search key, the metadata DB 50 is searched, information on the Internet is searched using an Internet search engine, and the search results are collectively displayed in a new window generated on the display means. Search means 36;
And a video data list update unit 37 that updates the video data list based on the progress of the indexing process of the indexing unit 32.

また、本発明(請求項2)は、追加メタデータ生成手段34において、
初期メタデータを検索キーとして、インターネット検索を行い、得られた結果ページからタグ記号を除去し、テキストを抽出して追加メタデータとして付与する手段と、
インデクシングメタデータからテロップ認識により文字列を取得し、追加メタデータとして付与する手段と、
初期メタデータとして電子番組表中の複数のキーワードが利用可能な場合には、キーとして用いるキーワード数を段階的に少なくしてインターネット検索を行った結果からタグ記号を除去し、テキストを抽出して追加メタデータとして付与する手段と、を含む。
Further, according to the present invention (Claim 2), in the additional metadata generation means 34,
A means for performing an Internet search using the initial metadata as a search key, removing the tag symbol from the obtained result page, extracting the text, and adding it as additional metadata;
Means for acquiring a character string from the indexing metadata by telop recognition and adding it as additional metadata;
When multiple keywords in the electronic program guide are available as initial metadata, the number of keywords used as keys is reduced step by step, the tag symbol is removed from the result of the Internet search, and the text is extracted. Adding as additional metadata.

また、本発明(請求項3)は、検索手段36において、
メタデータDB50を検索した結果を、初期メタデータのフィールドもしくは、インデクシングメタデータのフィールドに合致する単語が存在した映像データと、追加メタデータのフィールドに合致する単語が存在した映像データとの2種類に分け、これを映像データ一覧生成手段33により得られる代表画像と共に、表示装置のウィンドウ内に表示する手段と、
インターネット検索エンジンを用いて得られた結果を同一ウィンドウ内に集約表示する手段と、を含む。
Further, according to the present invention (Claim 3), the search means 36
There are two types of results of searching the metadata DB 50: video data in which words that match the initial metadata field or indexing metadata field exist, and video data in which words that match the additional metadata field exist. Means for displaying it in the window of the display device together with the representative image obtained by the video data list generation means 33;
Means for collectively displaying results obtained using an Internet search engine in the same window.

また、本発明(請求項4)は、映像データ一覧生成手段33において、
カット点、カメラワークを含むインデクシングメタデータ中に含まれるイベントの種類毎に整理された一覧を生成し、初期メタデータと同一ウィンドウ内に表示する手段を含む。
The present invention (Claim 4) is the video data list generation means 33,
It includes means for generating a list arranged for each type of event included in the indexing metadata including cut points and camera work, and displaying the list in the same window as the initial metadata.

また、本発明(請求項5)は、映像データ一覧生成手段33において、
インデクシング手段32により得られる出力画像のうち、カット点を示す複数の画像から、インデクシングメタデータに基づいて、カット画像の示す映像中の時刻が均等に近くなるものを選定する手段を含む。
Further, the present invention (Claim 5) is provided in the video data list generation unit 33.
The output image obtained by the indexing means 32 includes means for selecting, from the plurality of images indicating the cut points, ones whose time points in the video indicated by the cut images are equally close based on the indexing metadata.

本発明(請求項6)は、映像データに関連する索引情報を生成し、映像データの管理を行うための映像データ管理装置であって、
記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視手段と、
映像データの音声が強調されている区間を音声強調区間として抽出する音声強調区間抽出手段と、
映像データ監視手段で指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシング手段と、
インデクシング手段におけるインデクシング処理の経過を監視し、その進捗率を出力するインデクシング進捗管理手段と、
インデクシング手段から出力されたインデクシングメタデータ、インデクシング進捗管理手段から取得した進捗率、及び、音声強調区間抽出手段から得られた音声強調区間に基づいて、映像データ一覧を作成し、記憶手段の映像データ一覧を更新すると共に、該映像データ一覧を表示手段に表示する映像データ一覧更新手段と、
前記映像データ監視手段から取得した前記初期メタデータ並びに、前記インデクシング手段から取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成手段と、
前記初期メタデータ、前記インデクシングメタデータ、及び前記追加メタデータを、メタデータデータベース(DB)に格納するメタデータDB生成手段と、
入力された検索キーに基づいて、前記メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索手段と、を有する。
The present invention (Claim 6) is a video data management apparatus for generating index information related to video data and managing the video data,
The video data in the storage means and the video data input / output to / from the recording medium are monitored, the video data to be indexed is specified, and related information given in advance at the time when the user acquires the video data is displayed. Video data monitoring means for outputting as initial metadata;
A voice enhancement section extracting means for extracting a section in which the audio of the video data is emphasized as a voice enhancement section;
Indexing means for performing indexing on the video data designated by the video data monitoring means, and outputting indexing metadata in which information of the characteristic portion and time information of the video data are associated;
An indexing progress management means for monitoring the progress of the indexing process in the indexing means and outputting the progress rate;
A video data list is created based on the indexing metadata output from the indexing means, the progress rate obtained from the indexing progress management means, and the voice enhancement section obtained from the voice enhancement section extraction means, and the video data in the storage means A video data list updating unit for updating the list and displaying the video data list on the display unit;
Additional metadata generation means for generating additional metadata, which is related information to be added to video data, based on the initial metadata acquired from the video data monitoring means and the indexing metadata acquired from the indexing means; ,
Metadata DB generation means for storing the initial metadata, the indexing metadata, and the additional metadata in a metadata database (DB);
Based on the input search key, the metadata DB is searched, information on the Internet is searched using an Internet search engine, and search results are newly displayed in a single window that is newly generated on the display means. Search means.

また、本発明(請求項7)は、請求項6のデータ管理装置であって、
映像データ一覧更新手段は、
インデクシング進捗管理手段から取得した進捗率と、前回取得し、記憶手段に格納されている進捗率とを比較して、前回より進んでいる場合は、映像データ一覧を更新し、表示手段に出力する手段を含む。
The present invention (Claim 7) is the data management apparatus according to Claim 6,
The video data list update means
The progress rate acquired from the indexing progress management means is compared with the progress rate acquired last time and stored in the storage means. If the progress rate is higher than the previous time, the video data list is updated and output to the display means. Including means.

図2は、本発明の原理を説明するための図である。   FIG. 2 is a diagram for explaining the principle of the present invention.

本発明(請求項8)は、映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための映像データ管理方法であって、
映像データ監視手段、インデクシング手段、映像データ一覧生成手段、追加メタデータ生成手段、メタデータDB生成手段、検索手段を有する映像データ管理装置において、
映像データ監視手段が、記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データモニタリングステップ(ステップ1)と、
インデクシング手段が、映像データモニタリングステップ(ステップ1)で指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシングステップ(ステップ2)と、
映像データ一覧生成手段が、インデクシングステップ(ステップ2)により得られたインデクシングメタデータに基づいて、代表画像を選択し、映像データの一覧を生成し、記憶手段に格納する映像データ一覧生成ステップ(ステップ3)と、
追加メタデータ生成手段が、映像データモニタリングステップ(ステップ1)で取得した初期メタデータ並びに、インデクシングステップ(ステップ2)で取得したインデクシングメタデータに基づいて、追加メタデータを生成する追加メタデータ生成ステップ(ステップ4)と、
メタデータDB生成手段が、初期メタデータ、インデクシングメタデータ、及び追加メタデータを、メタデータDBに格納するメタデータDB生成ステップ(ステップ5)と、
検索手段が、入力された検索キーに基づいて、メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索ステップ(ステップ6)と、
映像データ一覧更新手段が、インデクシングステップ(ステップ2)によりのインデクシング処理の進捗に基づいて、代表画像を選択し、映像データ一覧を更新する映像データ一覧更新ステップと、を行う。
The present invention (Claim 8) is a video data management method for generating index information related to video data and managing, searching and browsing the video data,
In a video data management apparatus having video data monitoring means, indexing means, video data list generation means, additional metadata generation means, metadata DB generation means, search means,
The video data monitoring means monitors the video data in the storage means and the video data input / output to / from the recording medium, designates the video data to be indexed, and gives it in advance when the user acquires the video data A video data monitoring step (step 1) for outputting the related information as initial metadata;
An indexing step (step 1) in which the indexing means performs indexing on the video data designated in the video data monitoring step (step 1), and outputs indexing metadata in which the feature information and the time information of the video data are associated with each other. 2) and
A video data list generating unit selects a representative image based on the indexing metadata obtained in the indexing step (step 2), generates a list of video data, and stores it in the storage unit (step 3) and
An additional metadata generation step in which the additional metadata generation means generates additional metadata based on the initial metadata acquired in the video data monitoring step (step 1) and the indexing metadata acquired in the indexing step (step 2). (Step 4),
A metadata DB generating means for storing the initial metadata, the indexing metadata, and the additional metadata in the metadata DB (step 5);
The search means searches the metadata DB based on the input search key, searches information on the Internet using an Internet search engine, and newly generates a search result on the display means. A search step (step 6) for displaying in an integrated manner,
The video data list update means performs a video data list update step of selecting a representative image and updating the video data list based on the progress of the indexing process in the indexing step (step 2).

本発明(請求項9)は、映像データに関連する索引情報を生成し、映像データの管理を行うための映像データ管理方法であって、
映像データ監視手段、インデクシング手段、音声強調区間抽出処理手段、進捗管理手段、映像データ一覧更新手段、追加メタデータ生成手段、メタデータDB生成手段、検索手段を有する映像データ管理装置において、
映像データ監視手段が、記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視ステップと、
音声強調区間抽出処理手段が、映像データの音声が強調されている区間を音声強調区間として抽出する音声強調区間抽出ステップと、
インデクシング手段が、映像データ監視ステップで指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシングステップと、
進捗管理手段が、インデクシングステップにおけるインデクシング処理の経過を監視し、その進捗率を出力するインデクシング進捗管理ステップと、
映像データ一覧更新手段が、インデクシングステップにより取得したインデクシングメタデータ、インデクシング進捗管理ステップにより取得した進捗率、及び、音声強調区間抽出ステップで得られた音声強調区間に基づいて、映像データ一覧を作成し、記憶手段の映像データ一覧を更新すると共に、該映像データ一覧を表示手段に表示する映像データ一覧更新ステップと、
追加メタデータ生成手段が、映像データモニタリングステップで取得した初期メタデータ並びに、インデクシングステップで取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成ステップと、
メタデータDB生成手段が、初期メタデータ、インデクシングメタデータ、及び追加メタデータを、メタデータDBに格納するメタデータDB生成ステップと、
検索手段が、入力された検索キーに基づいて、メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索ステップと、を行う。
The present invention (Claim 9) is a video data management method for generating index information related to video data and managing the video data,
In a video data management apparatus having video data monitoring means, indexing means, voice enhancement section extraction processing means, progress management means, video data list update means, additional metadata generation means, metadata DB generation means, search means,
The video data monitoring means monitors the video data in the storage means and the video data input / output to / from the recording medium, designates the video data to be indexed, and gives it in advance when the user acquires the video data Video data monitoring step for outputting the related information as initial metadata,
A voice enhancement section extraction step in which the voice enhancement section extraction processing means extracts a section in which the audio of the video data is emphasized as a voice enhancement section;
An indexing step for indexing the video data specified in the video data monitoring step, and outputting indexing metadata in which the feature information and the time information of the video data are associated;
An indexing progress management step for monitoring the progress of the indexing process in the indexing step and outputting the progress rate;
The video data list updating means creates a video data list based on the indexing metadata acquired in the indexing step, the progress rate acquired in the indexing progress management step, and the voice enhancement section obtained in the voice enhancement section extraction step. Updating the video data list of the storage means and displaying the video data list on the display means; and
Additional metadata generating means generates additional metadata that is related information to be added to video data based on the initial metadata acquired in the video data monitoring step and the indexing metadata acquired in the indexing step. A data generation step;
A metadata DB generating means for storing initial metadata, indexing metadata, and additional metadata in the metadata DB;
The search means searches the metadata DB based on the input search key, searches information on the Internet using an Internet search engine, and newly generates a search result on the display means. And a search step for collecting and displaying.

本発明(請求項10)は、請求項8または、9記載の映像データ管理方法の各ステップを、コンピュータに実行させることを特徴とする映像データ管理プログラムである。   The present invention (Claim 10) is a video data management program that causes a computer to execute each step of the video data management method according to Claim 8 or 9.

本発明は、映像の内容が判別できる一覧が提供され、映像の内容に関連する単語が自動的に追加され、検索結果取得時に新たな検索語となりうる文字列が提供される。従って、従来技術よりも所望の映像データに短時間で到達できる。   The present invention provides a list for discriminating video contents, automatically adds words related to the video contents, and provides a character string that can be a new search word when a search result is acquired. Therefore, desired video data can be reached in a shorter time than the prior art.

更に、本発明によれば、長時間の映像が入力されても、すぐに一覧に反映されるため、従来技術の提供する方法に比較して、所望の映像データへの到達が容易となる。   Furthermore, according to the present invention, even if a long-time video is input, it is immediately reflected in the list, so that it is easier to reach the desired video data as compared with the method provided by the prior art.

特に、映像データを1時間とすると、従来は映像データ一覧の取得に40分程度かかるものが、5分程度で取得できる。このため、従来技術に比較して1/8程度の時間で映像の一覧を取得することができる。   In particular, assuming that video data is 1 hour, a conventional video data list that takes about 40 minutes can be acquired in about 5 minutes. For this reason, a list of videos can be acquired in about 1/8 of the time compared to the prior art.

最初に本実施の形態を説明する前に、本明細書中で用いられる用語について定義する。   Before describing this embodiment, terms used in this specification will be defined.

映像データを記憶することが可能なあらゆる装置(コンピュータのディスクやメモリ等、あるいは、ハードディスクレコーダ、セットトップボックス等)を「記憶媒体(記憶部)」と称する。   Any device capable of storing video data (computer disk, memory, etc., or hard disk recorder, set top box, etc.) is referred to as a “storage medium (storage unit)”.

放送受信装置または、ネットワークを介して記憶媒体へと格納された番組等の動画を含むコンテンツを、「映像データ」と称する。   Content including moving images such as programs stored in a storage medium via a broadcast receiving device or a network is referred to as “video data”.

映像データからカット点、カメラワーク区間、音声区間、音楽区間、テロップ表示区間等を自動抽出する処理を「インデクシング」と称し、インデクシングによって得られる特徴部分の情報(静止画、特徴パラメータ等)と映像データの時刻情報とが関連付けられたものを、「インデクシングメタデータ」と称する。   The process of automatically extracting cut points, camera work sections, audio sections, music sections, telop display sections, etc. from video data is called “indexing”. Information on feature parts (still images, feature parameters, etc.) and video obtained by indexing Data associated with time information of data is referred to as “indexing metadata”.

映像データのファイル名や電子番組表等の、映像データをユーザが取得する時点で予め付与されている関連情報を「初期メタデータ」と称する。   Related information given in advance when the user acquires the video data, such as the file name of the video data and the electronic program guide, is referred to as “initial metadata”.

本発明で述べる手法を用いて映像データに付与する関連情報を「追加メタデータ」と称する。   The related information added to the video data using the method described in the present invention is referred to as “additional metadata”.

初期メタデータ、インデクシングメタデータ、及び追加メタデータを総称して、「メタデータ」と称する。   The initial metadata, indexing metadata, and additional metadata are collectively referred to as “metadata”.

goo(登録商標)、google(登録商標)、Yahoo(登録商標)等のポータルサイトにおいて提供される検索機能を「インターネット検索機能」と称する。   Search functions provided on portal sites such as Google (registered trademark), Google (registered trademark), and Yahoo (registered trademark) are referred to as “Internet search functions”.

コンピュータ上で動作するソフトウェアが、ディスプレイ等の表示装置の画面上で一時的に占有する表示部位であって、一般に矩形で区切られた箇所を「ウィンドウ」と称する。   A part that is temporarily occupied on a screen of a display device such as a display by software operating on a computer and is generally divided by a rectangle is referred to as a “window”.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
図3は、本発明の第1の実施の形態における映像データ管理装置の構成を示す。
[First Embodiment]
FIG. 3 shows the configuration of the video data management apparatus according to the first embodiment of the present invention.

同図に示す映像データ管理装置は、映像データ入出力部10、記憶部20、処理部30、表示部40及びメタデータDB50から構成される。本実施の形態では、記憶部20はハードディスクを用いるものとし、映像データ、メタデータ、ログデータ等を格納するものとする。   The video data management apparatus shown in the figure includes a video data input / output unit 10, a storage unit 20, a processing unit 30, a display unit 40, and a metadata DB 50. In the present embodiment, the storage unit 20 uses a hard disk, and stores video data, metadata, log data, and the like.

処理部30は、映像データ監視部31、インデクシング部32、映像データ一覧生成部33、追加メタデータ生成部34、メタデータデータベース生成部35、及び検索部36から構成される。   The processing unit 30 includes a video data monitoring unit 31, an indexing unit 32, a video data list generation unit 33, an additional metadata generation unit 34, a metadata database generation unit 35, and a search unit 36.

映像データ監視部31は、記憶部20に存在する映像データ及び、映像データ入出力部10から入出力される映像データを監視し、インデクシングを行う映像を決定し、初期メタデータを映像データ一覧生成部33に出力する。   The video data monitoring unit 31 monitors video data existing in the storage unit 20 and video data input / output from the video data input / output unit 10, determines a video to be indexed, and generates initial metadata as a video data list. To the unit 33.

インデクシング部32は、映像データ監視部31で指定された映像データを入力とし、文献「谷口行信、南憲一、佐藤隆、桑野秀豪、児島治彦、外村佳伸、“Scene Cabinet:映像解析技術を統合した映像インデクシングシステム”電子情報通信学会論文誌、Vol. J84-D-II, No.6, pp.1112-1121, 2001」及び、文献「森稔、倉掛正治、杉村利明、塩明夫、鈴木章、“背景・文字の形状特徴と動的修正識別関数を用いた映像中テロップ文字認識”、電子情報通信学会論文誌、D-II、Vol. J83-D-II」及び特開2003−316378「音声処理方法及びその方法を利用した装置及びそのプログラム」に記載されている方法等に基づいて、インデクシングを行い、インデクシングメタデータを映像データ一覧生成部33に出力する。   The indexing unit 32 receives the video data designated by the video data monitoring unit 31 and inputs the documents “Yukinobu Taniguchi, Kenichi Minami, Takashi Sato, Hideo Kuwano, Haruhiko Kojima, Yoshinobu Tonomura,“ Scene Cabinet: Video Analysis Technology ”. Video indexing system that integrates "The Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J84-D-II, No.6, pp.1112-1121, 2001" and references "Mori Kaoru, Masaharu Kurakake, Toshiaki Sugimura, Akio Shio, Akira Suzuki, “Telop Character Recognition in Video Using Background / Character Shape Features and Dynamic Correction Discrimination Function”, IEICE Transactions, D-II, Vol. J83-D-II ” Indexing is performed based on the method described in 316378 “Audio processing method, apparatus using the method and program thereof”, and the indexing metadata is output to the video data list generation unit 33.

映像データ一覧生成部33は、インデクシング部32から出力されたインデクシングメタデータ及び映像データを入力とし、映像データの一覧を作成し、記憶部20に出力する。   The video data list generation unit 33 receives the indexing metadata and video data output from the indexing unit 32, creates a list of video data, and outputs the video data list to the storage unit 20.

追加メタデータ生成部34は、映像データ監視部31から出力された初期メタデータ、インデクシング部32から出力されたインデクシングメタデータを入力とし、追加メタデータを生成し、記憶部20に出力する。   The additional metadata generation unit 34 receives the initial metadata output from the video data monitoring unit 31 and the indexing metadata output from the indexing unit 32, generates additional metadata, and outputs the additional metadata to the storage unit 20.

メタデータデータベース生成部35は、初期メタデータ、インデクシングメタデータ、追加メタデータ及び映像データを入力とし、メタデータデータベース(DB)50に出力する。   The metadata database generation unit 35 receives initial metadata, indexing metadata, additional metadata, and video data as inputs, and outputs them to the metadata database (DB) 50.

データ検索部36は、ユーザが入力した任意のテキストをキーとして、メタデータDB50を検索し、同時にインターネット検索エンジン(図示せず)を用いてインターネット上の情報を検索し、両者の結果を、表示部40の1つのウィンドウに集約表示する。   The data search unit 36 searches the metadata DB 50 using any text input by the user as a key, and simultaneously searches information on the Internet using an Internet search engine (not shown), and displays the results of both. The information is displayed in one window of the unit 40 in a consolidated manner.

以下に、上記の動作を詳細に説明する。   Hereinafter, the above operation will be described in detail.

図4は、本発明の第1の実施の形態における全体の概要動作のフローチャートであり、図5は、本発明の第1の実施の形態における映像モニタリングステップのフローチャート、図6は、本発明の第1の実施の形態における一覧及びDB生成ステップの一般フローチャート、図7は、本発明の第1の実施の形態における検索ステップの一般フローチャートである。   FIG. 4 is a flowchart of an overall outline operation in the first embodiment of the present invention, FIG. 5 is a flowchart of a video monitoring step in the first embodiment of the present invention, and FIG. 6 is a flowchart of the present invention. FIG. 7 is a general flowchart of the search step in the first embodiment of the present invention, and FIG. 7 is a general flowchart of the list and DB generation step in the first embodiment.

以下の処理に先立って、映像データ入出力部10から記憶部20に少なくとも映像データが格納されているものとする。   Prior to the following processing, it is assumed that at least video data is stored in the storage unit 20 from the video data input / output unit 10.

ステップ11)映像データモニタリングステップ:
ステップ111) ファイル検索ステップ:
処理部30の映像データ監視部31は、記憶部20(ディスク)内の映像ファイルを監視し、ファイルパスを取得する。
Step 11) Video data monitoring step:
Step 111) File search step:
The video data monitoring unit 31 of the processing unit 30 monitors a video file in the storage unit 20 (disk) and acquires a file path.

ステップ112) インデクシングログファイル検索ステップ:
インデクシング部32は、ステップ111で得られたファイルパスのインデクシングログファイルを検索する。
Step 112) Indexing log file search step:
The indexing unit 32 searches for the indexing log file with the file path obtained in step 111.

ステップ113) インデクシング対象動画指定ステップ:
ステップ111で得られた映像データのうち、ステップ112で記憶部20のログファイルがみつからなかったものについて、インデクシング対象動画として指定し出力する。
Step 113) Indexing target video designation step:
Of the video data obtained in step 111, the video file whose log file in the storage unit 20 was not found in step 112 is designated and output as an indexing target moving image.

ステップ114) 初期メタデータ出力ステップ:
映像データ監視部31は、ステップ113で出力された映像データの初期メタデータを映像データ一覧生成部33及び、追加メタデータ生成部34に出力する。
Step 114) Initial metadata output step:
The video data monitoring unit 31 outputs the initial metadata of the video data output in step 113 to the video data list generation unit 33 and the additional metadata generation unit 34.

ステップ12) 一覧及びDB生成ステップ:
ステップ121) 初期メタデータ入力ステップ:
映像データ一覧生成部33は、ステップ114で出力された初期メタデータを入力する。
Step 12) List and DB generation step:
Step 121) Initial metadata input step:
The video data list generation unit 33 receives the initial metadata output in step 114.

ステップ122) インデクシングステップ:
インデクシング部32は、ステップ113で出力された映像データを入力し、文献「谷口行信、南憲一、佐藤隆、桑野秀豪、児島治彦、外村佳伸、“Scene Cabinet:映像解析技術を統合した映像インデクシングシステム”電子情報通信学会論文誌、Vol. J84-D-II, No.6, pp.1112-1121, 2001」の方法(以下、文献1と記す)によって特徴抽出処理を施し、インデクシングメタデータを映像一覧生成部32と、メタデータベース生成部35に出力すると共に、インデクシングログファイルを記憶部20に出力する。
Step 122) Indexing step:
The indexing unit 32 inputs the video data output in step 113, and documents “Taniguchi Yukinobu, Minami Kenichi, Sato Takashi, Kuwano Hideo, Kojima Haruhiko, Tonomura Yoshinobu,“ Scene Cabinet: Integrated Video Analysis Technology ”. A feature extraction process is performed by the method of the video indexing system “Journal of the Institute of Electronics, Information and Communication Engineers, Vol. J84-D-II, No.6, pp.1112-1121, 2001” (hereinafter referred to as Reference 1). The data is output to the video list generation unit 32 and the meta database generation unit 35, and the indexing log file is output to the storage unit 20.

ステップ123) 一覧生成ステップ:
映像データ一覧生成部33は、ステップ122で出力されたインデクシングメタデータ及び、ステップ114で出力された初期メタデータに基づいて、映像データの一覧を生成する。
Step 123) List generation step:
The video data list generation unit 33 generates a list of video data based on the indexing metadata output at step 122 and the initial metadata output at step 114.

ステップ124) 追加メタデータ生成ステップ:
追加メタデータ生成部34は、ステップ121で入力された初期メタデータを用いてインターネット検索を行い、得られた結果から追加メタデータを生成する。
Step 124) Additional metadata generation step:
The additional metadata generation unit 34 performs an Internet search using the initial metadata input in step 121, and generates additional metadata from the obtained result.

ステップ125) メタデータDB生成ステップ:
メタデータデータベース生成部35は、ステップ121で入力された初期メタデータとステップ122で得られたインデクシングメタデータと、ステップ124で生成された追加メタデータを用い、映像データ毎のフィールドを持つメタデータDB50を生成する。
Step 125) Metadata DB generation step:
The metadata database generation unit 35 uses the initial metadata input in step 121, the indexing metadata obtained in step 122, and the additional metadata generated in step 124, and has metadata for each video data field. DB50 is generated.

ステップ13)検索ステップ:
ステップ131)テキスト取得ステップ:
検索部36は、プログラム上で表示するテキスト入力フィールドに入力されたテキストを取得する。
Step 13) Search step:
Step 131) Text acquisition step:
The search unit 36 acquires the text input in the text input field to be displayed on the program.

ステップ132) メタデータDB検索ステップ:
検索部36は、ステップ131で得られたテキスト文字列をキーとして、ステップ125で生成されたメタデータDB50を検索する。検索結果は、初期メタデータもしくはインデクシングメタデータ中に合致するものがあった映像データのパスと、追加メタデータ中に合致するものがあった映像データのパスと2種類に分けて得る。
Step 132) Metadata DB search step:
The search unit 36 searches the metadata DB 50 generated in step 125 using the text character string obtained in step 131 as a key. The search results are obtained in two types: a path of video data that matches in the initial metadata or indexing metadata, and a path of video data that matches in the additional metadata.

ステップ133) インターネット検索ステップ:
検索部36は、ステップ131で得られたテキスト文字列をキーとして、インターネット検索エンジンを用いて検索を行い、検索結果を取得する。
Step 133) Internet search step:
The search unit 36 performs a search using an Internet search engine using the text character string obtained in step 131 as a key, and acquires a search result.

ステップ134) 検索結果ページ生成ステップ:
検索部36は、ステップ132、及びステップ133で得られた結果をまとめ、特に、ステップ132で得られた映像データのパスから、インデクシングメタデータを参照して代表画像を選択し、結果ページを生成する。
Step 134) Search result page generation step:
The search unit 36 summarizes the results obtained in step 132 and step 133, and in particular, selects a representative image with reference to indexing metadata from the video data path obtained in step 132, and generates a result page. To do.

次に、上記のインデクシング部32におけるインデクシングステップ(ステップ122)について詳細に説明する。   Next, the indexing step (step 122) in the indexing unit 32 will be described in detail.

図8は、本発明の第1の実施の形態におけるインデクシングステップの詳細フローチャートである。   FIG. 8 is a detailed flowchart of the indexing step in the first embodiment of the present invention.

ステップ1221)映像データ入力ステップ:
インデクシング部32は、ステップ113で出力された映像データを入力する。
Step 1221) Video data input step:
The indexing unit 32 inputs the video data output in step 113.

ステップ1222)特徴抽出ステップ:
ステップ1221で入力された映像ファイルに対し、前述の文献1の手法により、特徴量を抽出し、抽出された結果から、イベント成否を判断し、記録する。
Step 1222) Feature extraction step:
The feature amount is extracted from the video file input in step 1221 by the method of the above-mentioned document 1, and the success or failure of the event is determined from the extracted result and recorded.

ステップ1223)インデクシングメタデータ出力ステップ:
ステップ1222で記録されたイベントを、映像データのファイル情報(パス情報、ファイルサイズ等、一般にプロパティに記載されている情報が含まれる)と映像データの再生時刻情報と共に出力する。
Step 1223) Indexing metadata output step:
The event recorded in step 1222 is output together with file information of video data (including information generally described in properties such as path information and file size) and playback time information of the video data.

ステップ1224)インデクシングログ出力ステップ:
インデクシングの実行結果を記憶部20のログファイルに出力する。ログファイルには、映像データのパス情報、インデクシングの途中におけるエラー情報、及び日時などが含まれている。
Step 1224) Indexing log output step:
The indexing execution result is output to a log file in the storage unit 20. The log file includes path information of video data, error information during indexing, date and time, and the like.

図9は、本発明の第1の実施の形態における一覧作成ステップの詳細フローチャートである。   FIG. 9 is a detailed flowchart of the list creation step in the first embodiment of the present invention.

ステップ1231):インデクシングメタデータ入力ステップ:
映像データ一覧生成部33は、ステップ122により出力されたインデクシングメタデータ、及び、ステップ114により出力された初期メタデータを入力する。
Step 1231): Indexing metadata input step:
The video data list generation unit 33 receives the indexing metadata output at step 122 and the initial metadata output at step 114.

ステップ1232)画像選択ステップ:
インデクシングメタデータの情報に基づき、カット点情報のうち、映像の長さに対して均等に近くなるようにカット点を選択し、インデクシングメタデータを参照することにより、関連付けられた静止画像を出力する。
Step 1232) Image selection step:
Based on the information of the indexing metadata, a cut point is selected from the cut point information so as to be equally close to the video length, and the associated still image is output by referring to the indexing metadata. .

ステップ1233) プレイリスト生成ステップ:
ステップ1232で出力された静止画像にステップ1233で生成されたプレイリストをHMTL等のリンク方法でリンクした一覧ファイルを記憶部20に出力する。
Step 1233) Playlist generation step:
A list file in which the playlist generated in step 1233 is linked to the still image output in step 1232 by a link method such as HMTL is output to the storage unit 20.

次に、上記の映像データ監視部31における追加メタデータ生成ステップ(ステップ124)の動作を詳細に説明する。   Next, the operation of the additional metadata generation step (step 124) in the video data monitoring unit 31 will be described in detail.

図10は、本発明の第1の実施の形態における追加メタデータ生成ステップの詳細フローチャートである。   FIG. 10 is a detailed flowchart of the additional metadata generation step according to the first embodiment of the present invention.

ステップ1241)初期メタデータ入力ステップ:
追加メタデータ生成部34は、ステップ121で得られる初期メタデータを入力する。
Step 1241) Initial metadata input step:
The additional metadata generation unit 34 inputs the initial metadata obtained in step 121.

ステップ1242)インデクシングメタデータ入力ステップ:
インデクシング部32において、ステップ122の処理を行うことで得られるインデクシングメタデータを入力し、テキスト文字列以外をフィルタリングする。
Step 1242) Indexing metadata input step:
In the indexing unit 32, the indexing metadata obtained by performing the process of step 122 is input, and a part other than the text string is filtered.

ステップ1243)インターネット検索ステップ:
ステップ1241及びステップ1242で入力された初期メタデータ及びテキスト文字列以外をフィルタリングされたインデクシングメタデータをキーとして、インターネット検索を行い、URLを取得する。初期メタデータ及びフィルタリングされたインデクシングメタデータ中に、重複しないN個のユニークな単語が含まれている場合、n個の単語によるand検索の結果、上位p位までに含まれる重複のないURLの集合をU(n,p)として、URLの集合U,
U=Σ(U(i,p)),where(i=1,2,…,N)
を取得する。
Step 1243) Internet search step:
Using the indexing metadata obtained by filtering except the initial metadata and the text character string input in step 1241 and step 1242, the Internet search is performed to obtain the URL. When N unique words that are not duplicated are included in the initial metadata and the filtered indexing metadata, as a result of an AND search with n words, URLs that are not duplicated that are included in the top p ranks. A set of URLs U, where U (n, p) is a set.
U = Σ (U (i, p)), where (i = 1, 2,..., N)
To get.

ステップ1244)テキスト抽出ステップ:
ステップ1243で得られたURLの集合に含まれるページを解析し、テキスト文字列を抽出する。
Step 1244) Text extraction step:
A page included in the set of URLs obtained in step 1243 is analyzed, and a text character string is extracted.

ステップ1245)追加メタデータ出力ステップ:
ステップ1244で得られたテキスト文字列を、メタデータDB50の追加メタデータのフィールドに追加する。
Step 1245) Additional metadata output step:
The text character string obtained in step 1244 is added to the additional metadata field of the metadata DB 50.

次に、追加メタデータ生成部34における、上記のステップ1244のテキスト抽出ステップについて、詳細に説明する。   Next, the text extraction step of the above step 1244 in the additional metadata generation unit 34 will be described in detail.

図11は、本発明の第1の実施の形態におけるテキスト抽出ステップの詳細フローチャートである。   FIG. 11 is a detailed flowchart of the text extraction step according to the first embodiment of the present invention.

ステップ12441)ページ取得ステップ:
ステップ1243から得られたURLに対し、ページを取得する。
Step 12441) Page acquisition step:
A page is acquired for the URL obtained from step 1243.

ステップ12442)ページ解析ステップ:
ステップ12441で得られたページから、ページタイトルタグ中の文字列、keyword
タグ中の文字列及び、Bodyテキストの文字列を抽出する。Bodyタグ中の文字列から、リンクを除去する。
Step 12442) Page analysis step:
From the page obtained in step 12441, the character string in the page title tag, keyword
Extract the character string in the tag and the character string of the Body text. Remove the link from the string in the Body tag.

ステップ12443)フィルタリングステップ:
ステップ12442で得られた文字列のうち、Body由来の文字列を形態素解析により分割する。分割後、名詞以外をフィルタリングし、ステップ1245の処理へ移行する。
ステップ12442で得られた文字列のうち、ページタイトルタグ、keywordタグ中の文字列は、重複を除外し、ステップ1245の処理に移行する。
Step 12443) Filtering step:
Of the character strings obtained in step 12442, the character string derived from Body is divided by morphological analysis. After the division, other than nouns are filtered, and the process proceeds to step 1245.
Among the character strings obtained in step 12442, the character strings in the page title tag and the keyword tag are excluded from duplication, and the process proceeds to step 1245.

[第2の実施の形態]
図12は、本発明の第2の実施の形態における映像データ管理装置の構成を示す。
[Second Embodiment]
FIG. 12 shows the configuration of the video data management apparatus according to the second embodiment of the present invention.

同図に示す映像データ管理装置は、前述の図3の構成において、処理部30にシステム監視部37を設けたものである。   The video data management apparatus shown in the figure has a system monitoring unit 37 in the processing unit 30 in the configuration shown in FIG.

図13は、本発明の第2の実施の形態における全体の概要動作のフローチャートである。   FIG. 13 is a flowchart of the overall outline operation in the second embodiment of the present invention.

本実施の形態では、前述の第1の実施の形態における図4のフローチャートのステップ11の前段において、システム監視部37によるシステムモニタステップ(ステップ14)の動作を行うものであり、その他の動作は第1の実施の形態と同様である。   In the present embodiment, the system monitoring step (step 14) is performed by the system monitoring unit 37 in the preceding stage of step 11 in the flowchart of FIG. 4 in the first embodiment described above. This is the same as in the first embodiment.

当該システムモニタステップ(ステップ14)では、システム監視部37は、システム上の他のタスクをモニタする。当該ステップの存在により、特にパーソナルコンピュータ上で実施する場合において、一覧及びDB作成ステップ(ステップ12)の開始及び終了を、システム上の他のソフトウェア(例:スクリーンセイバー)の起動及び終了と同期させて実施することができる。スクリーンセイバーと同期させた場合には、メモリ及びCPU等のコンピュータリソースの利用が少ない時間に、インデクシングステップを実行させることができる。   In the system monitoring step (step 14), the system monitoring unit 37 monitors other tasks on the system. Due to the presence of this step, especially when executed on a personal computer, the start and end of the list and DB creation step (step 12) are synchronized with the start and end of other software (eg screen saver) on the system. Can be implemented. When synchronized with the screen saver, the indexing step can be executed at a time when the use of computer resources such as memory and CPU is low.

また、スクリーンセイバー実行中にディスプレイ等の表示装置40に出力する情報として、インデクシングステップ実行中の画像及び初期メタデータを出力する。   In addition, as the information to be output to the display device 40 such as a display during the execution of the screen saver, the image during the execution of the indexing step and initial metadata are output.

そのほかのステップの動作に関しては、前述の第1の実施の形態と同様である。   The operation of other steps is the same as that of the first embodiment described above.

[第3の実施の形態]
図14は、本発明の第3の実施の形態における全体の概要動作のフローチャートである。
[Third Embodiment]
FIG. 14 is a flowchart of the overall outline operation in the third embodiment of the present invention.

本実施の形態では、前述の第1の実施の形態において一覧及びDB生成ステップ(ステップ12)の次に検索ステップ(ステップ13)を行っていたのに対し、一覧及びDB生成ステップ(ステップ12)と検索ステップ(ステップ13)とを並列に実施するものであり、その他の動作は、第1の実施の形態と同様である。   In the present embodiment, the search step (step 13) is performed after the list and DB generation step (step 12) in the first embodiment, whereas the list and DB generation step (step 12). And the search step (step 13) are performed in parallel, and other operations are the same as those in the first embodiment.

[第4の実施の形態]
図15は、本発明の第4の実施の形態における映像データ管理装置の構成を示す。
[Fourth Embodiment]
FIG. 15 shows the configuration of a video data management apparatus according to the fourth embodiment of the present invention.

同図に示す映像データ管理装置は、図3に示す構成に、タスク設定部38を追加した構成である。   The video data management apparatus shown in the figure has a configuration in which a task setting unit 38 is added to the configuration shown in FIG.

図16は、本発明の第4の実施の形態における全体の概要動作のフローチャートである。   FIG. 16 is a flowchart of the overall outline operation in the fourth embodiment of the present invention.

本実施の形態では、第1の実施の形態の映像データモニタリングステップ(ステップ11)の前段に、タスク設定ステップ(ステップ15)を行うものである。   In this embodiment, a task setting step (step 15) is performed prior to the video data monitoring step (step 11) of the first embodiment.

ステップ15において、タスク設定部38は、追加メタデータ生成ステップ(ステップ124)の実行タスクを設定する(例:1時間毎にステップ124の処理を繰り返し実行)。これにより、インターネット上の情報が更新された場合でも、追加メタデータがその更新情報を反映することができる。   In step 15, the task setting unit 38 sets an execution task of the additional metadata generation step (step 124) (eg, repeatedly executes the process of step 124 every hour). Thereby, even when information on the Internet is updated, the additional metadata can reflect the updated information.

その他の動作は、前述の第1の実施の形態と同様である。   Other operations are the same as those in the first embodiment.

[第5の実施の形態]
本実施の形態では、第1の実施の形態と概要動作については同様であるが、インデクシングステップ(ステップ122)の動作が異なる。
[Fifth Embodiment]
In this embodiment, the outline operation is the same as that of the first embodiment, but the operation of the indexing step (step 122) is different.

図17は、本発明の第5の実施の形態におけるインデクシングステップの詳細な動作のフローチャートである。   FIG. 17 is a flowchart of detailed operation of the indexing step in the fifth embodiment of the present invention.

本実施の形態では、インデクシングステップ(ステップ122)において、コンテンツジャンル判定ステップ(ステップ12211)を行う。   In the present embodiment, a content genre determination step (step 12211) is performed in the indexing step (step 122).

ステップ12211)映像データ一覧生成部33において、初期メタデータを入力とし、コンテンツジャンル及びデフォルトのインデクシングパラメータを出力する。   Step 12211) In the video data list generation unit 33, the initial metadata is input, and the content genre and default indexing parameters are output.

ステップ12212)ステップ12211のパラメータに基づいて、インデクシングを実行する。初期メタデータ中にデフォルトのインデクシングパラメータが記載されている場合には、その値を出力する。また、ユーザは、デフォルトのインデクシングパラメータやGUI等を用い、任意の値に変更することができる。その他の全ての動作は、第1の実施の形態と同様である。   Step 12212) Indexing is performed based on the parameters of step 12211. When the default indexing parameter is described in the initial metadata, the value is output. In addition, the user can change the value to an arbitrary value using a default indexing parameter, GUI, or the like. All other operations are the same as in the first embodiment.

なお、本発明は、上記の第1〜第5の実施の形態に記載された以外の機器(例えば、ハードディスクレコーダ)で実施することも可能である。   It should be noted that the present invention can also be implemented by equipment (for example, a hard disk recorder) other than those described in the first to fifth embodiments.

また、個人端末でなく、映像配信サーバ上で行うことも可能である。   Moreover, it is also possible to perform on the video distribution server instead of the personal terminal.

また、ユーザは、エディタ等を用いて任意にメタデータDB50の内容を自由に追記・削除することが可能である。   Further, the user can freely add / delete the contents of the metadata DB 50 using an editor or the like.

[第6の実施の形態]
前述の実施の形態では、ある映像データに対するインデクシングが終了しないと映像データ一覧が表示されなかった。インデクシング処理は、実装上、1時間の映像データに対して40分程度のコストがあるため、映像データの投入から一覧に反映されるまでにタイムラグが存在する。
[Sixth Embodiment]
In the above-described embodiment, the video data list is not displayed unless indexing for certain video data is completed. Since the indexing process has a cost of about 40 minutes for one hour of video data in terms of implementation, there is a time lag from the input of the video data to the reflection in the list.

本実施の形態では、インデクシングの進捗状況を管理し、当該インデクシングの進捗状況に応じて映像データ一覧を更新することにより、インデクシング処理の途中経過が一覧で反映され、それがインデクシングの進捗に従って自動更新する例を説明する。   In this embodiment, the progress of indexing is managed, and the video data list is updated according to the progress of the indexing, so that the progress of the indexing process is reflected in the list, which is automatically updated according to the progress of the indexing. An example will be described.

図18は、本発明の第6の実施の形態における映像データ管理装置の構成図である。   FIG. 18 is a configuration diagram of a video data management apparatus according to the sixth embodiment of the present invention.

同図において、図3の構成と同一部分については同一符号を付し、その説明を省略する。   In the figure, the same parts as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.

図18に示す構成は、第1の実施の形態における図3の構成に、進捗管理部321、音声強調区間抽出処理部322が付加され、図3の映像データ一覧生成部33の代わりに、映像データ一覧更新部323が設けられている。本実施の形態における記憶部20には、映像データ、インデクシングメタデータ、映像データ一覧が記憶される。   In the configuration shown in FIG. 18, a progress management unit 321 and a voice enhancement section extraction processing unit 322 are added to the configuration of FIG. 3 in the first embodiment, and instead of the video data list generation unit 33 of FIG. A data list update unit 323 is provided. The storage unit 20 in the present embodiment stores video data, indexing metadata, and a video data list.

進捗管理部321は、インデクシング部32で行われているインデクシングの進行度を出力する。   The progress management unit 321 outputs the degree of progress of indexing performed by the indexing unit 32.

音声強調区間抽出処理部322は、例えば、特開2003−316378「音声処理方法及びその方法を使用した装置及びプログラム」に開示されている手法を用いて、映像中で音声が強調される区間情報を出力する。当該手法は、予め抽出したい条件を設定することなく、また、原稿などを使用しない、自然な話し言葉や会話においても、話者に依存せず、複数話者の同時発話にも依存せず、雑音環境でも安定して、音声が強調状態であるか平静状態であるかの判定ができる音声処理技術である。これにより、例えば、野球やサッカーなどのスポーツで、音声が盛り上がった箇所を映像データの一覧上に反映させることができる。   The voice enhancement interval extraction processing unit 322 uses, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2003-316378 “Voice processing method and apparatus and program using the method” to enhance the voice in the video. Is output. This method does not depend on the speaker, and does not depend on the simultaneous utterance of multiple speakers, without setting the conditions to be extracted in advance, and in the natural spoken language and conversation without using the manuscript. This is a voice processing technology that can determine whether a voice is in an emphasized state or a calm state stably even in an environment. Thereby, for example, in a sport such as baseball or soccer, it is possible to reflect on the list of video data the location where the sound has risen.

映像データ一覧更新部323は、音声強調区間抽出処理部322から出力された音声強調区間情報、インデクシング部32からのインデクシングメタデータ及び映像データを入力とし、映像データの一覧を更新し、更新された映像データ一覧を表示部40に出力する。   The video data list update unit 323 receives the speech enhancement section information output from the speech enhancement section extraction processing unit 322, the indexing metadata and video data from the indexing unit 32, and updates and updates the list of video data. The video data list is output to the display unit 40.

次に、上記の構成における動作を説明する。   Next, the operation in the above configuration will be described.

本実施の形態では、映像データ一覧を生成するまでの処理について説明するが、その他の検索処理等については前述の実施の形態と同様である。   In the present embodiment, processing until a video data list is generated will be described, but other search processing and the like are the same as those in the above-described embodiment.

図19は、本発明の第6の実施の形態における映像データ一覧生成までの処理の概要動作のフローチャートであり、図20は、本発明の本発明の第6の実施の形態における映像モニタリングステップのフローチャートであり、図21は、本発明の第6の実施の形態における一覧生成ステップのフローチャートである。   FIG. 19 is a flowchart of an outline operation of processing up to video data list generation in the sixth embodiment of the present invention, and FIG. 20 shows a video monitoring step in the sixth embodiment of the present invention. FIG. 21 is a flowchart of the list generation step in the sixth embodiment of the present invention.

ステップ31) 映像データモニタリングステップ:
ステップ311) 映像ファイル検索ステップ:
映像データ監視部31において、記憶部20(ディスク)内の映像ファイルを監視し、ファイルパスを取得する。
Step 31) Video data monitoring step:
Step 311) Video file search step:
The video data monitoring unit 31 monitors a video file in the storage unit 20 (disk) and acquires a file path.

ステップ312) ログファイル検索ステップ:
映像データ監視部31において、ステップ311で得られたファイルのインデクシングログファイルを記憶部20から検索する。
Step 312) Log file search step:
The video data monitoring unit 31 searches the storage unit 20 for the indexing log file of the file obtained in step 311.

ステップ313) インデクシング対象動画指定ステップ:
映像データ監視部31において、ステップ311で得られた映像データのうち、ステップ312で記憶部20のログファイルが見つからなかったものについて、インデクシング対象動画として指定し出力する。
Step 313) Indexing target video designation step:
The video data monitoring unit 31 designates and outputs the video data obtained in step 311 for which the log file in the storage unit 20 is not found in step 312 as the indexing target moving image.

ステップ314) 初期メタデータ出力ステップ:
映像データ監視部31は、ステップ313で出力された映像データの初期メタデータを出力する。
Step 314) Initial metadata output step:
The video data monitoring unit 31 outputs initial metadata of the video data output in step 313.

ステップ32)一覧生成ステップ:
ステップ321) 初期メタデータ入力ステップ:
インデクシング部32は、ステップ314で映像データ監視部31から出力された初期メタデータを入力する。
Step 32) List generation step:
Step 321) Initial metadata input step:
The indexing unit 32 receives the initial metadata output from the video data monitoring unit 31 in step 314.

ステップ322) インデクシングステップ:
インデクシング部32は、ステップ313において映像データ監視部31から出力された映像データを入力し、文献1の方法によって特徴抽出処理を施し、インデクシングメタデータを進捗管理部321に出力すると共に、インデクシングログファイルを記憶部20に出力する。
Step 322) Indexing step:
The indexing unit 32 receives the video data output from the video data monitoring unit 31 in step 313, performs feature extraction processing according to the method described in Document 1, outputs indexing metadata to the progress management unit 321, and also creates an indexing log file. Is output to the storage unit 20.

ステップ323) 音声強調区間抽出ステップ:
音声強調区間抽出処理部322は、ステップ313で映像データ監視部31から出力された映像データを入力とし、文献2の方法を用いて、音声の強調された区間を判別し、当該区間の開始時刻、終了時刻、及び開始時刻における静止画像を音声強調区間情報として映像データ一覧更新部323に出力する。
Step 323) Speech enhancement section extraction step:
The voice enhancement section extraction processing unit 322 receives the video data output from the video data monitoring unit 31 in step 313, determines the section where the voice is emphasized using the method of Document 2, and starts the start time of the section. The still image at the end time and the start time is output to the video data list update unit 323 as audio enhancement section information.

ステップ324) インデクシング進度管理ステップ:
進捗管理部321において、ステップ322でインデクシング部32から出力されたインデクシングメタデータを入力とし、インデクシングメタデータ及びインデクシング進度情報(進捗率)を、映像データ一覧更新部323からの問い合わせに応じて出力する。
Step 324) Indexing progress management step:
The progress management unit 321 receives the indexing metadata output from the indexing unit 32 in step 322, and outputs the indexing metadata and indexing progress information (progress rate) in response to an inquiry from the video data list update unit 323. .

ステップ325) 映像データ一覧作成ステップ:
映像データ一覧更新部323において、ステップ323において音声強調区間抽出処理部322から出力された音声強調区間情報、及び、ステップ322においてインデクシング部32から出力されたインデクシングメタデータ、及び、ステップ324において進捗管理部321から出力されたインデクシング進度情報(進捗率)に基づいて、映像データ一覧を作成して記憶部20に格納すると共に、表示部40に表示する。
Step 325) Video data list creation step:
In the video data list update unit 323, the speech enhancement section information output from the speech enhancement section extraction processing unit 322 in step 323, the indexing metadata output from the indexing unit 32 in step 322, and the progress management in step 324 Based on the indexing progress information (progress rate) output from the unit 321, a video data list is created and stored in the storage unit 20 and displayed on the display unit 40.

次に、上記の図21のインデクシングステップ(ステップ322)について詳細に説明する。   Next, the above-described indexing step (step 322) in FIG. 21 will be described in detail.

図22は、本発明の第6の実施の形態におけるインデクシングステップの詳細フローチャートである。   FIG. 22 is a detailed flowchart of the indexing step in the sixth embodiment of the present invention.

ステップ3221) 映像データ入力ステップ:
インデクシング部32は、ステップ313で映像データ監視部31から出力された映像データを入力する。
Step 3221) Video data input step:
The indexing unit 32 inputs the video data output from the video data monitoring unit 31 in step 313.

ステップ3222) 特徴抽出ステップ:
インデクシング部32は、ステップ3221で入力された映像データに対して、文献1の手法により特徴量を抽出し、抽出された結果からイベント成否を判断し、記録する。
Step 3222) Feature extraction step:
The indexing unit 32 extracts a feature amount from the video data input in Step 3221 by the method of Document 1, determines the success or failure of the event from the extracted result, and records it.

ステップ3223) インデクシングメタデータ出力ステップ:
インデクシング部32は、ステップ3222で記録されたイベントを、映像データのファイル情報(ファイルへのパス情報、ファイルサイズ等、一般にプロパティに記載されている情報が含まれる)と映像データの再生時刻情報と共に出力する。
Step 3223) Indexing metadata output step:
The indexing unit 32 records the event recorded in step 3222 together with video data file information (including information generally described in properties such as file path information and file size) and video data playback time information. Output.

ステップ3224) インデクシング出力ステップ:
インデクシング部32は、インデクシングの実行結果を記憶部20のログファイルに出力する。ログファイルには、映像データのパス情報、インデクシングの途中におけるエラー情報、及び日時などが含まれている。
Step 3224) Indexing output step:
The indexing unit 32 outputs the execution result of the indexing to a log file in the storage unit 20. The log file includes path information of video data, error information during indexing, date and time, and the like.

次に、上記の図21の音声強調区間抽出ステップ(ステップ323)について詳細に説明する。   Next, the speech enhancement section extraction step (step 323) in FIG. 21 will be described in detail.

図23は、本発明の第6の実施の形態における音声強調区間抽出ステップの詳細フローチャートである。   FIG. 23 is a detailed flowchart of the speech enhancement section extraction step according to the sixth embodiment of the present invention.

ステップ3231) 映像データ入力ステップ:
音声強調区間抽出処理部322において、ステップ113において映像データ監視部31から出力された映像データを入力する。
Step 3231) Video Data Input Step:
In the audio enhancement section extraction processing unit 322, the video data output from the video data monitoring unit 31 in step 113 is input.

ステップ3232) 強調区間判別処理ステップ:
音声強調区間抽出処理部322は、文献2の手法に基づいて、映像中から音声が強調されている箇所を判別する。
Step 3232) Emphasis section discrimination processing step:
The voice enhancement section extraction processing unit 322 determines a part where the voice is emphasized from the video based on the technique of Document 2.

ステップ3233) 音声強調区間情報出力ステップ:
音声強調区間抽出処理部322は、ステップ3232で判別された箇所の時刻情報、及び開始点の静止画を映像データ一覧更新部323に出力する。
Step 3233) Speech enhancement section information output step:
The voice enhancement section extraction processing unit 322 outputs the time information at the location determined in step 3232 and the still image at the start point to the video data list update unit 323.

次に、上記の図21の映像データ一覧作成ステップ(ステップ325)について詳細に説明する。   Next, the video data list creation step (step 325) in FIG. 21 will be described in detail.

図24は、本発明の第6の実施の形態における映像データ一覧作成ステップの詳細フローチャートである。   FIG. 24 is a detailed flowchart of the video data list creation step in the sixth embodiment of the present invention.

ステップ3251) 音声強調区間情報入力ステップ:
映像データ一覧更新部323は、ステップ3233において音声強調区間抽出処理部322から出力された音声強調区間情報を入力する。
Step 3251) Speech enhancement section information input step:
The video data list update unit 323 receives the speech enhancement section information output from the speech enhancement section extraction processing unit 322 in Step 3233.

ステップ3252) インデクシングメタデータ入力ステップ:
映像データ一覧更新部323は、ステップ322においてインデクシング部32から出力されたインデクシングメタデータ及び、後述するステップ3256で得られるフラグを入力する。
Step 3252) Indexing metadata input step:
The video data list update unit 323 receives the indexing metadata output from the indexing unit 32 in step 322 and the flag obtained in step 3256 described later.

ステップ3253) プレイリスト生成ステップ:
映像データ一覧更新部323は、ステップ3251及びステップ3152で得られた音声強調区間情報及びインデクシングメタデータ、フラグに基づいて、再生を開始できるようなリンク文字列を生成する。
Step 3253) Playlist generation step:
The video data list update unit 323 generates a link character string that can start reproduction based on the voice enhancement section information, indexing metadata, and flag obtained in Steps 3251 and 3152.

ステップ3254) 一覧ファイル更新ステップ:
映像データ一覧更新部323は、プレイリスト情報(ステップ3253で得られたリンク文字列)を記憶部20の映像データ一覧に上書きし、更新する。
Step 3254) List file update step:
The video data list updating unit 323 overwrites the playlist information (link character string obtained in step 3253) on the video data list in the storage unit 20 and updates it.

ステップ3255) 一覧ファイル出力ステップ:
映像データ一覧更新部323は、ステップ3254で更新された映像一覧ファイルを表示部40に表示する。
Step 3255) List file output step:
The video data list update unit 323 displays the video list file updated in step 3254 on the display unit 40.

ステップ3256) インデクシング進度問い合わせステップ:
映像データ一覧更新部323は、進捗管理部321にインデクシング進度を問い合わせ、インデクシングの進度を得る。取得した進度(進捗率)が、メモリ(図示せず)に記録されている前回の進度(進捗率)よりも進んでいれば、「更新あり」というフラグを出力する。
Step 3256) Indexing progress inquiry step:
The video data list update unit 323 inquires the progress management unit 321 about the indexing progress, and obtains the indexing progress. If the acquired progress (progress rate) is ahead of the previous progress (progress rate) recorded in a memory (not shown), a flag “updated” is output.

なお、本実施の形態では、映像データ一覧生成部33の代わりに映像データ一覧更新部323を設けているが、映像データ一覧更新部323は、映像データ一覧生成部33と同様に、映像データ一覧を作成しているため、第1〜第5の実施の形態と同様に、後段の追加メタデータ生成部34の追加メタデータの生成処理、メタデータデータベース生成部35のメタデータデータベースの生成、データ検索部36の検索・表示処理を行うことができる。   In the present embodiment, a video data list update unit 323 is provided instead of the video data list generation unit 33, but the video data list update unit 323 is similar to the video data list generation unit 33 in the video data list generation unit 33. Therefore, as in the first to fifth embodiments, the additional metadata generation process of the subsequent additional metadata generation unit 34, the generation of the metadata database of the metadata database generation unit 35, the data Search / display processing of the search unit 36 can be performed.

本実施の形態によれば、長時間の映像が入力されても映像データ一覧に反映することができるため、従来の技術に比べて所望する映像データへの到達が容易になる。   According to the present embodiment, even if a long-time video is input, it can be reflected in the video data list, so that it is easier to reach the desired video data as compared with the conventional technique.

なお、上記の各実施の形態における動作をプログラムとして構築し、映像データ管理装置として利用されるコンピュータにインストールして実行する、または、ネットワークを介して流通させることが可能である。   The operation in each of the above embodiments can be constructed as a program, installed in a computer used as a video data management apparatus and executed, or distributed via a network.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、映像データを記録する装置において、映像データに関連する索引情報を自動生成し、管理、検索、閲覧を行うシステムに適用可能である。   INDUSTRIAL APPLICABILITY The present invention can be applied to a system that automatically generates index information related to video data and manages, searches, and browses in an apparatus that records video data.

本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の第1の実施の形態における映像データ管理装置の構成図である。It is a block diagram of the video data management apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における全体の概要動作のフローチャートである。It is a flowchart of the whole outline | summary operation | movement in the 1st Embodiment of this invention. 本発明の第1の実施の形態における映像モニタリングステップ(s11)のフローチャートである。It is a flowchart of the image | video monitoring step (s11) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における一覧及びDB生成ステップ(s12)のフローチャートである。It is a flowchart of the list | wrist and DB production | generation step (s12) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における検索ステップ(s13)の一般フローチャートである。It is a general flowchart of the search step (s13) in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるインデクシングステップ(s122)の詳細フローチャートである。It is a detailed flowchart of the indexing step (s122) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における一覧作成ステップ(s123)の詳細フローチャートである。It is a detailed flowchart of the list preparation step (s123) in the 1st Embodiment of this invention. 本発明の第1の実施の形態における追加メタデータ生成ステップ(s124)の詳細フローチャートである。It is a detailed flowchart of the additional metadata production | generation step (s124) in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるテキスト抽出ステップ(s1244)の詳細フローチャートである。It is a detailed flowchart of the text extraction step (s1244) in the 1st Embodiment of this invention. 本発明の第2の実施の形態における映像データ管理装置の構成図である。It is a block diagram of the video data management apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における全体の概要動作のフローチャートである。It is a flowchart of the whole outline | summary operation | movement in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における全体の概要動作のフローチャートである。It is a flowchart of the whole outline | summary operation | movement in the 3rd Embodiment of this invention. 本発明の第4の実施の形態における映像データ管理装置の構成図である。It is a block diagram of the video data management apparatus in the 4th Embodiment of this invention. 本発明の第4の実施の形態における全体の概要動作のフローチャートである。It is a flowchart of the whole outline | summary operation | movement in the 4th Embodiment of this invention. 本発明の第5の実施の形態におけるインデクシングステップの詳細な動作のフローチャートである。It is a flowchart of the detailed operation | movement of the indexing step in the 5th Embodiment of this invention. 本発明の第6の実施の形態における映像データ管理装置の構成図である。It is a block diagram of the video data management apparatus in the 6th Embodiment of this invention. 本発明の第6の実施の形態における映像データ一覧出力までの処理の概要動作のフローチャートである。It is a flowchart of the outline | summary operation | movement of a process until the video data list output in the 6th Embodiment of this invention. 本発明の第6の実施の形態における映像モニタリングステップ(S31)のフローチャートである。It is a flowchart of the image | video monitoring step (S31) in the 6th Embodiment of this invention. 本発明の第6の実施の形態における一覧生成ステップ(S32)のフローチャートである。It is a flowchart of the list production | generation step (S32) in the 6th Embodiment of this invention. 本発明の第6の実施の形態におけるインデクシングステップ(S322)のフローチャートである。It is a flowchart of the indexing step (S322) in the 6th Embodiment of this invention. 本発明の第6の実施の形態における音声強調区間抽出ステップ(S323)の詳細フローチャートでる。It is a detailed flowchart of the audio | voice emphasis area extraction step (S323) in the 6th Embodiment of this invention. 本発明の第6の実施の形態における映像データ一覧作成ステップ(S325)の詳細フローチャートである。It is a detailed flowchart of the video data list creation step (S325) in the sixth embodiment of the present invention.

符号の説明Explanation of symbols

10 映像データ入出力部
20 記憶手段、記憶部
31 映像データ監視手段、映像データ監視部
32 インデクシング手段、インデクシング部
33 映像データ一覧生成手段、映像データ一覧生成部
34 追加メタデータ生成手段、追加メタデータ生成部
35 メタデータDB生成手段、メタデータデータベース生成部
36 検索手段、検索部
37 システム管理部
38 タスク設定部
40 表示部
50 メタデータDB
321 進捗管理部
322 音声強調区間抽出処理部
323 映像データ一覧更新部
DESCRIPTION OF SYMBOLS 10 Video data input / output part 20 Storage means, Storage part 31 Video data monitoring means, Video data monitoring part 32 Indexing means, Indexing part 33 Video data list generation means, Video data list generation part 34 Additional metadata generation means, Additional metadata Generation unit 35 Metadata DB generation unit, metadata database generation unit 36 search unit, search unit 37 system management unit 38 task setting unit 40 display unit 50 metadata DB
321 Progress management unit 322 Voice enhancement section extraction processing unit 323 Video data list update unit

Claims (10)

映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための映像データ管理装置であって、
記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視手段と、
前記映像データ監視手段で指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシング手段と、
前記映像データ監視手段から取得した前記初期メタデータ並びに、前記インデクシング手段から取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成手段と、
前記初期メタデータ、前記インデクシングメタデータ、及び前記追加メタデータを、メタデータデータベース(DB)に格納するメタデータDB生成手段と、
入力された検索キーに基づいて、前記メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索手段と、
を有することを特徴とする映像データ管理装置。
A video data management device for generating index information related to video data and managing, searching, and browsing video data,
The video data in the storage means and the video data input / output to / from the recording medium are monitored, the video data to be indexed is specified, and related information given in advance at the time when the user acquires the video data is displayed. Video data monitoring means for outputting as initial metadata;
Indexing means for performing indexing on the video data designated by the video data monitoring means, and outputting indexing metadata in which feature information and time information of the video data are associated;
Additional metadata generation means for generating additional metadata, which is related information to be added to video data, based on the initial metadata acquired from the video data monitoring means and the indexing metadata acquired from the indexing means; ,
Metadata DB generation means for storing the initial metadata, the indexing metadata, and the additional metadata in a metadata database (DB);
Based on the input search key, the metadata DB is searched, information on the Internet is searched using an Internet search engine, and search results are newly displayed in a single window that is newly generated on the display means. Search means to
A video data management apparatus comprising:
前記追加メタデータ生成手段は、
前記初期メタデータを検索キーとして、インターネット検索を行い、得られた結果ページからタグ記号を除去し、テキストを抽出して追加メタデータとして付与する手段と、
前記インデクシングメタデータからテロップ認識により文字列を取得し、追加メタデータとして付与する手段と、
初期メタデータとして電子番組表中の複数のキーワードが利用可能な場合には、キーとして用いるキーワード数を段階的に少なくしてインターネット検索を行った結果からタグ記号を除去し、テキストを抽出して追加メタデータとして付与する手段と、
を含む請求項1記載の映像データ管理装置。
The additional metadata generation means includes
A means for performing an internet search using the initial metadata as a search key, removing a tag symbol from the obtained result page, extracting text, and adding it as additional metadata;
Means for acquiring a character string by telop recognition from the indexing metadata and giving it as additional metadata;
When multiple keywords in the electronic program guide are available as initial metadata, the number of keywords used as keys is reduced step by step, the tag symbol is removed from the result of the Internet search, and the text is extracted. Means for adding as additional metadata;
The video data management apparatus according to claim 1 including:
前記検索手段は、
前記メタデータDBを検索した結果を、前記初期メタデータのフィールドもしくは、前記インデクシングメタデータのフィールドに合致する単語が存在した映像データと、前記追加メタデータのフィールドに合致する単語が存在した映像データとの2種類に分け、これを前記映像データ一覧生成手段により得られる前記代表画像と共に、前記表示装置のウィンドウ内に表示する手段と、
前記インターネット検索エンジンを用いて得られた結果を同一ウィンドウ内に集約表示する手段と、
を含む請求項1記載の映像データ管理装置。
The search means includes
As a result of searching the metadata DB, video data in which a word matching the field of the initial metadata or the indexing metadata field exists, and video data in which a word matching the field of the additional metadata exists And a means for displaying this in the window of the display device together with the representative image obtained by the video data list generation means;
Means for collectively displaying results obtained using the Internet search engine in the same window;
The video data management apparatus according to claim 1 including:
前記映像データ一覧生成手段は、
カット点、カメラワークを含む前記インデクシングメタデータ中に含まれるイベントの種類毎に整理された一覧を生成し、前記初期メタデータと同一ウィンドウ内に表示する手段を含む請求項1記載の映像データ管理装置。
The video data list generation means includes
2. The video data management according to claim 1, further comprising means for generating a list arranged for each type of event included in the indexing metadata including cut points and camera work, and displaying the list in the same window as the initial metadata. apparatus.
前記映像データ一覧生成手段は、
前記インデクシング手段により得られる出力画像のうち、カット点を示す複数の画像から、前記インデクシングメタデータに基づいて、カット画像の示す映像中の時刻が均等に近くなるものを選定する手段を含む請求項1記載の映像データ管理装置。
The video data list generation means includes
The output image obtained by the indexing means includes means for selecting, from among a plurality of images indicating cut points, an image whose time in the video indicated by the cut image is equally close based on the indexing metadata. The video data management apparatus according to 1.
映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための
映像データ管理装置であって、
記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視手段と、
前記映像データの音声が強調されている区間を音声強調区間として抽出する音声強調区間抽出手段と、
前記映像データ監視手段で指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシング手段と、
前記インデクシング手段におけるインデクシング処理の経過を監視し、その進捗率を出力するインデクシング進捗管理手段と、
前記インデクシング手段から出力された前記インデクシングメタデータ、前記インデクシング進捗管理手段から取得した前記進捗率、及び、前記音声強調区間抽出手段から得られた前記音声強調区間に基づいて、映像データ一覧を作成し、記憶手段の映像データ一覧を更新すると共に、該映像データ一覧を表示手段に表示する映像データ一覧更新手段と、
前記映像データ監視手段から取得した前記初期メタデータ並びに、前記インデクシング手段から取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成手段と、
前記初期メタデータ、前記インデクシングメタデータ、及び前記追加メタデータを、メタデータデータベース(DB)に格納するメタデータDB生成手段と、
入力された検索キーに基づいて、前記メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索手段と、
を有することを特徴とする映像データ管理装置。
A video data management device for generating index information related to video data and managing, searching, and browsing video data,
The video data in the storage means and the video data input / output to / from the recording medium are monitored, the video data to be indexed is specified, and related information given in advance at the time when the user acquires the video data is displayed. Video data monitoring means for outputting as initial metadata;
A voice enhancement section extracting means for extracting a section in which the audio of the video data is emphasized as a voice enhancement section;
Indexing means for performing indexing on the video data designated by the video data monitoring means, and outputting indexing metadata in which feature information and time information of the video data are associated;
An indexing progress management means for monitoring the progress of the indexing process in the indexing means and outputting the progress rate;
A video data list is created based on the indexing metadata output from the indexing means, the progress rate obtained from the indexing progress management means, and the voice enhancement section obtained from the voice enhancement section extraction means. Updating the video data list of the storage means and displaying the video data list on the display means;
Additional metadata generation means for generating additional metadata, which is related information to be added to video data, based on the initial metadata acquired from the video data monitoring means and the indexing metadata acquired from the indexing means; ,
Metadata DB generation means for storing the initial metadata, the indexing metadata, and the additional metadata in a metadata database (DB);
Based on the input search key, the metadata DB is searched, information on the Internet is searched using an Internet search engine, and search results are newly displayed in a single window that is newly generated on the display means. Search means to
A video data management apparatus comprising:
前記映像データ一覧更新手段は、
前記インデクシング進捗管理手段から取得した前記進捗率と、前回取得し、記憶手段に格納されている進捗率とを比較して、前回より進んでいる場合は、前記映像データ一覧を更新し、表示手段に出力する手段を含む、
請求項6記載の映像データ管理装置。
The video data list update means includes:
The progress rate acquired from the indexing progress management means is compared with the progress rate acquired last time and stored in the storage means. If the progress rate is higher than the previous time, the video data list is updated, and the display means Including means for outputting to
The video data management apparatus according to claim 6.
映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための映像データ管理方法であって、
映像データ監視手段、インデクシング手段、映像データ一覧生成手段、追加メタデータ生成手段、メタデータDB生成手段、検索手段を有する映像データ管理装置において、
前記映像データ監視手段が、記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データモニタリングステップと、
前記インデクシング手段が、前記映像データ監視ステップで指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシングステップと、
前記映像データ一覧生成手段が、前記インデクシングステップで得られたインデクシングメタデータに基づいて、代表画像を選択し、映像データの一覧を生成し、記憶手段に格納する映像データ一覧生成ステップと、
前記追加メタデータ生成手段が、前記映像データモニタリングステップで取得した前記初期メタデータ並びに、前記インデクシングステップで取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成ステップと、
メタデータDB生成手段が、前記初期メタデータ、前記インデクシングメタデータ、及び前記追加メタデータを、メタデータDBに格納するメタデータDB生成ステップと、
前記検索手段が、入力された検索キーに基づいて、前記メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索ステップと、
を行うことを特徴とする映像データ管理方法。
A video data management method for generating index information related to video data and managing, searching, and browsing video data,
In a video data management apparatus having video data monitoring means, indexing means, video data list generation means, additional metadata generation means, metadata DB generation means, search means,
The video data monitoring means monitors the video data in the storage means and the video data input / output to / from the recording medium, designates the video data to be indexed, and the user acquires the video data in advance. A video data monitoring step for outputting the given related information as initial metadata;
An indexing step in which the indexing means performs indexing on the video data designated in the video data monitoring step, and outputs indexing metadata in which feature information and time information of the video data are associated;
The video data list generation unit selects a representative image based on the indexing metadata obtained in the indexing step, generates a list of video data, and stores the video data list in a storage unit;
Based on the initial metadata acquired in the video data monitoring step and the indexing metadata acquired in the indexing step, the additional metadata generation means adds additional metadata that is related information to be added to video data. Additional metadata generation steps to generate,
A metadata DB generating means for storing the initial metadata, the indexing metadata, and the additional metadata in a metadata DB;
The search unit searches the metadata DB based on the input search key, searches information on the Internet using an Internet search engine, and newly generates a search result on the display unit. A search step that aggregates in the window;
A video data management method characterized by:
映像データに関連する索引情報を生成し、映像データの管理、検索、閲覧を行うための映像データ管理方法であって、
映像データ監視手段、インデクシング手段、音声強調区間抽出処理手段、進捗管理手段、映像データ一覧更新手段、追加メタデータ生成手段、メタデータDB生成手段、検索手段を有する映像データ管理装置において、
前記映像データ監視手段が、記憶手段中の映像データ及び記録媒体へ入出力される映像データを監視し、インデクシングの対象となる映像データを指定し、また、映像データをユーザが取得する時点で予め付与されている関連情報を初期メタデータとして出力する映像データ監視ステップと、
前記音声強調区間抽出処理手段が、前記映像データの音声が強調されている区間を音声強調区間として抽出する音声強調区間抽出ステップと、
前記インデクシング手段が、前記映像データ監視ステップで指定された映像データに対してインデクシングを行い、特徴部分の情報と該映像データの時刻情報が関連付けられたインデクシングメタデータを出力するインデクシングステップと、
前記進捗管理手段が、前記インデクシングステップにおけるインデクシング処理の経過を監視し、その進捗率を出力するインデクシング進捗管理ステップと、
前記映像データ一覧更新手段が、前記インデクシングステップにより取得した前記インデクシングメタデータ、前記インデクシング進捗管理ステップにより取得した前記進捗率、及び、前記音声強調区間抽出ステップで得られた前記音声強調区間に基づいて、映像データ一覧を作成し、記憶手段の映像データ一覧を更新すると共に、該映像データ一覧を表示手段に表示する映像データ一覧更新ステップと、
前記追加メタデータ生成手段が、前記映像データモニタリングステップで取得した前記初期メタデータ並びに、前記インデクシングステップで取得したインデクシングメタデータに基づいて、映像データに付与するための関連情報である追加メタデータを生成する追加メタデータ生成ステップと、
前記メタデータDB生成手段が、前記初期メタデータ、前記インデクシングメタデータ、及び前記追加メタデータを、メタデータDBに格納するメタデータDB生成ステップと、
前記検索手段が、入力された検索キーに基づいて、前記メタデータDBを検索すると共に、インターネット検索エンジンを用いてインターネット上の情報を検索し、検索結果を、表示手段に新規に生成する一つのウィンドウ内に集約表示する検索ステップと、
を行うことを特徴とする映像データ管理方法。
A video data management method for generating index information related to video data and managing, searching, and browsing video data,
In a video data management apparatus having video data monitoring means, indexing means, voice enhancement section extraction processing means, progress management means, video data list update means, additional metadata generation means, metadata DB generation means, search means,
The video data monitoring means monitors the video data in the storage means and the video data input / output to / from the recording medium, designates the video data to be indexed, and the user acquires the video data in advance. A video data monitoring step for outputting the given related information as initial metadata;
A voice enhancement section extraction step in which the voice enhancement section extraction processing means extracts a section in which the voice of the video data is emphasized as a voice enhancement section;
An indexing step in which the indexing means performs indexing on the video data designated in the video data monitoring step, and outputs indexing metadata in which feature information and time information of the video data are associated;
The progress management means monitors the progress of the indexing process in the indexing step, and outputs an progress rate indexing progress management step;
The video data list updating means is based on the indexing metadata acquired in the indexing step, the progress rate acquired in the indexing progress management step, and the voice enhancement section obtained in the voice enhancement section extraction step. A video data list update step of creating a video data list, updating the video data list of the storage means, and displaying the video data list on the display means;
Based on the initial metadata acquired in the video data monitoring step and the indexing metadata acquired in the indexing step, the additional metadata generation means adds additional metadata that is related information to be added to video data. Additional metadata generation steps to generate,
A metadata DB generation step in which the metadata DB generation means stores the initial metadata, the indexing metadata, and the additional metadata in a metadata DB;
The search unit searches the metadata DB based on the input search key, searches information on the Internet using an Internet search engine, and newly generates a search result on the display unit. A search step that aggregates in the window;
A video data management method characterized by:
請求項8または、9記載の映像データ管理方法の各ステップを、コンピュータに実行させることを特徴とする映像データ管理プログラム。   10. A video data management program that causes a computer to execute each step of the video data management method according to claim 8 or 9.
JP2005269202A 2005-06-03 2005-09-15 Video data management apparatus, method and program Expired - Lifetime JP4354441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005269202A JP4354441B2 (en) 2005-06-03 2005-09-15 Video data management apparatus, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005164422 2005-06-03
JP2005269202A JP4354441B2 (en) 2005-06-03 2005-09-15 Video data management apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2007012013A true JP2007012013A (en) 2007-01-18
JP4354441B2 JP4354441B2 (en) 2009-10-28

Family

ID=37750359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005269202A Expired - Lifetime JP4354441B2 (en) 2005-06-03 2005-09-15 Video data management apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4354441B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100867005B1 (en) 2007-09-19 2008-11-10 한국전자통신연구원 Personalized multimedia data retrieval service method and devices thereof
JP2010527088A (en) * 2007-05-15 2010-08-05 サムスン エレクトロニクス カンパニー リミテッド Method and system for providing appropriate information to users of devices in a local network
WO2011040907A1 (en) * 2009-09-29 2011-04-07 Intel Corporation Linking disparate content sources
JP2011128981A (en) * 2009-12-18 2011-06-30 Toshiba Corp Retrieval device and retrieval method
US8510453B2 (en) 2007-03-21 2013-08-13 Samsung Electronics Co., Ltd. Framework for correlating content on a local network with information on an external network
US8886683B2 (en) 2009-03-04 2014-11-11 Panasonic Intellectual Property Corporation Of America Metadata generation management device, metadata generation system, integrated circuit for managing generation of metadata, metadata generation management method, and program
US8935269B2 (en) 2006-12-04 2015-01-13 Samsung Electronics Co., Ltd. Method and apparatus for contextual search and query refinement on consumer electronics devices
US8938465B2 (en) 2008-09-10 2015-01-20 Samsung Electronics Co., Ltd. Method and system for utilizing packaged content sources to identify and provide information based on contextual information
WO2015050319A1 (en) * 2013-10-02 2015-04-09 강효진 Method for generating and sharing image bundle including partial images, method for adding new partial image to image bundle, method for displaying image of image bundle, and image bundle sharing system
JP2020053828A (en) * 2018-09-27 2020-04-02 株式会社日立国際電気 Editing system, editing device, and editing method
WO2021060575A1 (en) * 2019-09-24 2021-04-01 엘지전자 주식회사 Artificial intelligence server and operation method thereof

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8935269B2 (en) 2006-12-04 2015-01-13 Samsung Electronics Co., Ltd. Method and apparatus for contextual search and query refinement on consumer electronics devices
US8510453B2 (en) 2007-03-21 2013-08-13 Samsung Electronics Co., Ltd. Framework for correlating content on a local network with information on an external network
JP2010527088A (en) * 2007-05-15 2010-08-05 サムスン エレクトロニクス カンパニー リミテッド Method and system for providing appropriate information to users of devices in a local network
US8843467B2 (en) 2007-05-15 2014-09-23 Samsung Electronics Co., Ltd. Method and system for providing relevant information to a user of a device in a local network
KR100867005B1 (en) 2007-09-19 2008-11-10 한국전자통신연구원 Personalized multimedia data retrieval service method and devices thereof
US8938465B2 (en) 2008-09-10 2015-01-20 Samsung Electronics Co., Ltd. Method and system for utilizing packaged content sources to identify and provide information based on contextual information
US8886683B2 (en) 2009-03-04 2014-11-11 Panasonic Intellectual Property Corporation Of America Metadata generation management device, metadata generation system, integrated circuit for managing generation of metadata, metadata generation management method, and program
WO2011040907A1 (en) * 2009-09-29 2011-04-07 Intel Corporation Linking disparate content sources
JP2011128981A (en) * 2009-12-18 2011-06-30 Toshiba Corp Retrieval device and retrieval method
WO2015050319A1 (en) * 2013-10-02 2015-04-09 강효진 Method for generating and sharing image bundle including partial images, method for adding new partial image to image bundle, method for displaying image of image bundle, and image bundle sharing system
JP2020053828A (en) * 2018-09-27 2020-04-02 株式会社日立国際電気 Editing system, editing device, and editing method
JP7103905B2 (en) 2018-09-27 2022-07-20 株式会社日立国際電気 Editing system, editing equipment, and editing method
WO2021060575A1 (en) * 2019-09-24 2021-04-01 엘지전자 주식회사 Artificial intelligence server and operation method thereof

Also Published As

Publication number Publication date
JP4354441B2 (en) 2009-10-28

Similar Documents

Publication Publication Date Title
US8935269B2 (en) Method and apparatus for contextual search and query refinement on consumer electronics devices
US8428955B2 (en) Adjusting recorder timing
US8521759B2 (en) Text-based fuzzy search
US7680853B2 (en) Clickable snippets in audio/video search results
US20080177536A1 (en) A/v content editing
US8209313B2 (en) Structuring and searching data in a hierarchical confidence-based configuration
EP1333426A1 (en) Voice command interpreter with dialog focus tracking function and voice command interpreting method
JP2001028722A (en) Moving image management device and moving image management system
JP2005509949A (en) Method and system for retrieving, updating and presenting personal information
US10255321B2 (en) Interactive system, server and control method thereof
JP4354441B2 (en) Video data management apparatus, method and program
JP7395377B2 (en) Content search methods, devices, equipment, and storage media
US10321167B1 (en) Method and system for determining media file identifiers and likelihood of media file relationships
KR100916310B1 (en) Cross recommendation system and method between music and video based on audio signal processing
KR102252522B1 (en) Method and system for automatic creating contents list of video based on information
JP4734048B2 (en) Information search device, information search method, and information search program
JP2006526207A (en) Media object search method
JP2006139382A (en) Information processing apparatus, control method therefor, and program
CN117033695A (en) Method and device for constructing search index library, and search method and device
TWI497959B (en) Scene extraction and playback system, method and its recording media
JP5105109B2 (en) Search device and search system
JP3815371B2 (en) Video-related information generation method and apparatus, video-related information generation program, and storage medium storing video-related information generation program
JP2004348553A (en) Metadata editing method, apparatus, and program
JP2002324071A (en) System and method for contents searching
JP2009141797A (en) DATA GENERATION DEVICE, DATA GENERATION PROGRAM, AND INFORMATION PROCESSING DEVICE

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090729

R150 Certificate of patent or registration of utility model

Ref document number: 4354441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130807

Year of fee payment: 4

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350