[go: up one dir, main page]

JP2005222329A - Metadata granting apparatus, metadata granting method, and metadata granting program - Google Patents

Metadata granting apparatus, metadata granting method, and metadata granting program Download PDF

Info

Publication number
JP2005222329A
JP2005222329A JP2004029791A JP2004029791A JP2005222329A JP 2005222329 A JP2005222329 A JP 2005222329A JP 2004029791 A JP2004029791 A JP 2004029791A JP 2004029791 A JP2004029791 A JP 2004029791A JP 2005222329 A JP2005222329 A JP 2005222329A
Authority
JP
Japan
Prior art keywords
metadata
input
time code
key
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004029791A
Other languages
Japanese (ja)
Inventor
Toshinori Sumi
俊範 角
Yasumasa Niikura
康巨 新倉
Hiroyoshi Sasaki
大義 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2004029791A priority Critical patent/JP2005222329A/en
Publication of JP2005222329A publication Critical patent/JP2005222329A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 動画データの各シーンにきめ細かくメタデータを付与し得るメタデータ付与装置、メタデータ付与方法およびメタデータ付与プログラムを提供する。
【解決手段】 メタデータ付与装置10は、動画データを入力し、映像表示部3に表示する(ステップS10)。利用者は、この表示された動画データを見ながら、メタデータ入力部2を介してキー入力を行うと、メタデータ付与装置10は、入力キーを検知するので、入力キーを検知したときの動画データのタイムコードを取得し(ステップS20,S30)。入力された入力キーと動画データのタイムコードを関連づける(ステップS40)。
メタデータ付与が終了すると、入力された入力キーと動画データのタイムコードを関連づけたタイムコード付きメタデータをメタデータ記憶部54に登録する(ステップS60)
【選択図】 図5
PROBLEM TO BE SOLVED: To provide a metadata providing apparatus, a metadata providing method, and a metadata providing program capable of finely assigning metadata to each scene of moving image data.
A metadata providing apparatus 10 inputs moving image data and displays it on a video display unit 3 (step S10). When the user performs key input via the metadata input unit 2 while watching the displayed moving image data, the metadata providing apparatus 10 detects the input key, so that the moving image when the input key is detected is detected. The data time code is acquired (steps S20 and S30). The inputted input key is associated with the time code of the moving image data (step S40).
When the addition of metadata ends, the metadata with time code that associates the input key with the time code of the video data is registered in the metadata storage unit 54 (step S60).
[Selection] Figure 5

Description

本発明は、動画データにメタデータを付与するメタデータ付与装置、メタデータ付与方法およびメタデータ付与プログラムに関する。   The present invention relates to a metadata grant apparatus, a metadata grant method, and a metadata grant program that grant metadata to moving image data.

ブロードバンドの普及に伴い様々なコンテンツ配信サービスが開始されている。その結果、大量のコンテンツが流通する一方、大量のコンテンツの中から利用者が求めるコンテンツが探しにくくなっているという問題が起きている。   Various content distribution services have been started with the spread of broadband. As a result, while a large amount of content is distributed, there is a problem that it is difficult to find the content that the user wants out of the large amount of content.

特に、映像コンテンツに関しては、全体を概観しにくく客観的にその内容を少数の単純なテキスト情報では表現しきれないという性質を有するので、キーワードやジャンルによる従来のコンテンツ検索では、不十分である。   In particular, with regard to video content, it is difficult to view the whole content and the content cannot be expressed objectively with a small number of simple text information, so conventional content search using keywords and genres is insufficient.

これに対して、コンテンツのメタデータを利用した検索システムが構築されており、映像コンテンツに対しては従来のキーワードやジャンルによる検索に加えて、シーン検索を可能とし、利用者が求めるコンテンツを迅速かつ容易に探し出せるようになっている。   On the other hand, a search system using content metadata has been built, and in addition to the conventional search by keyword or genre for video content, scene search is possible and the content requested by the user can be quickly retrieved. And it can be easily found.

尚、この出願に関連する先行技術文献情報としては、次のものがある。
NTTサイバースペース研究所、“コンテンツ流通サービスを拡大するメタデータ管理プラットフォーム(蓄積検索PF)”、[Online]、[平成16年1月22日検索]、インターネット<URL: http://www.ntt.co.jp/RD/OFIS/active/2003pdf/pf09.pdf> (株)ビジネスコミュニケーション社、“コンテンツメタデータの高度な蓄積管理検索システム「蓄積検索プラットフォーム」”、[Online]、[平成16年1月22日検索]、インターネット<URL:http://www.bcm.co.jp/site/2003/2003Sep/mieru/mieru.htm>
The prior art document information related to this application includes the following.
NTT Cyber Space Laboratories, “Metadata Management Platform (Stored Search PF) to Expand Content Distribution Services”, [Online], [Search January 22, 2004], Internet <URL: http://www.ntt .co.jp / RD / OFIS / active / 2003pdf / pf09.pdf> Business Communication Co., Ltd., “Advanced Metadata Management and Storage System for Content Metadata“ Storage Search Platform ””, [Online], [Search January 22, 2004], Internet <URL: http: // www. bcm.co.jp/site/2003/2003Sep/mieru/mieru.htm>

上述したシーン検索を可能とするには、シーンごとにメタデータを付与することが不可欠であるが、メタデータの付与にはシーン作成後、各シーンに対してテキスト情報を手入力しなければならないため、手間がかかり、各シーンに対してきめ細かくメタデータを付与することが従来においては困難であるという課題がある。   In order to enable the scene search described above, it is indispensable to add metadata for each scene. However, to add metadata, text information must be manually input to each scene after the scene is created. For this reason, there is a problem that it takes time and it is difficult in the prior art to add detailed metadata to each scene.

本発明は、上記の課題を解決するためになされたものであり、動画データの各シーンにきめ細かくメタデータを付与し得るメタデータ付与装置、メタデータ付与方法およびメタデータ付与プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a metadata providing apparatus, a metadata providing method, and a metadata providing program capable of finely assigning metadata to each scene of moving image data. Objective.

上記目的を達成するため、請求項1記載の本発明は、動画データにメタデータを付与するメタデータ付与装置であって、前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶手段と、前記メタデータを入力するメタデータ入力手段と、前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付け手段と、前記タイムコード付きメタデータを記憶するメタデータ記憶手段と、を有することを特徴とする。   In order to achieve the above object, the present invention according to claim 1 is a metadata adding apparatus for adding metadata to moving image data, wherein each scene obtained by dividing the moving image data into scenes is associated with a time code. The time data of the moving image data when the metadata is input and the input metadata, the scene data storage means for storing the metadata, the metadata input means for inputting the metadata, and the time code And metadata association means for creating attached metadata and metadata storage means for storing the metadata with time code.

請求項2記載の本発明は、請求項1記載の発明において、前記メタデータ入力手段は、それぞれ異なるメタデータ内容を各キーに割り当てられたキー入力装置からのキー入力によりメタデータを入力することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the metadata input means inputs the metadata by key input from a key input device in which different metadata contents are assigned to each key. It is characterized by.

請求項3記載の本発明は、請求項1又は2記載の発明において、前記メタデータ対応付け手段は、所定の時間間隔以内に複数のメタデータが入力された場合には、この複数のメタデータそれぞれに同一のタイムコードを対応付けることを特徴とする。   According to a third aspect of the present invention, in the first or second aspect of the present invention, the metadata association unit, when a plurality of metadata is input within a predetermined time interval, Each is associated with the same time code.

請求項4記載の本発明は、請求項1乃至3のいずれか1項に記載の発明において、前記メタデータ対応付け手段は、所定の時間間隔以内に同一のメタデータ内容を有する複数のメタデータが入力された場合には、最初に入力されたメタデータのタイムコードから最後に入力されたメタデータのタイムコードまでの時間幅を有するタイムコード付きメタデータを作成することを特徴とする。   The present invention according to claim 4 is the invention according to any one of claims 1 to 3, wherein the metadata association means includes a plurality of metadata having the same metadata content within a predetermined time interval. Is input, the time-coded metadata having a time width from the time code of the first input metadata to the time code of the last input metadata is created.

請求項5記載の本発明は、動画データにメタデータを付与するメタデータ付与方法であって、前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶ステップと、前記メタデータを入力するメタデータ入力ステップと、前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付けステップと、前記タイムコード付きメタデータを記憶するメタデータ記憶ステップと、
を有することを特徴とする。
The present invention according to claim 5 is a metadata adding method for adding metadata to moving image data, wherein a scene data storing step of storing scene data in which each scene obtained by dividing the moving image data into scenes is associated with a time code is stored. A metadata input step for inputting the metadata, a time code of the video data when the metadata is input, and the input metadata to associate the input metadata with the metadata to create metadata with a time code A data association step; a metadata storage step for storing the metadata with the time code;
It is characterized by having.

請求項6記載の本発明は、動画データにメタデータを付与するためのコンピュータが読み取り可能なメタデータ付与プログラムであって、前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶ステップと、前記メタデータを入力するメタデータ入力ステップと、前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付けステップと、前記タイムコード付きメタデータをメタデータ記憶手段に記憶するメタデータ記憶ステップと、を前記コンピュータに実行させることを特徴とする。   The present invention according to claim 6 is a computer-readable metadata adding program for adding metadata to moving image data, wherein each scene obtained by dividing the moving image data into scenes is associated with a time code. A scene data storage step for storing the metadata, a metadata input step for inputting the metadata, a time code of the video data when the metadata is input, and the input metadata, The computer is caused to execute a metadata associating step for creating attached metadata and a metadata storing step for storing the metadata with time code in metadata storing means.

請求項7記載の本発明は、請求項6記載の発明において、前記メタデータ入力ステップは、それぞれ異なるメタデータ内容を各キーに割り当てられたキー入力装置からのキー入力によりメタデータを入力することを特徴とする。   According to a seventh aspect of the present invention, in the sixth aspect of the present invention, the metadata input step inputs the metadata by key input from a key input device in which different metadata contents are assigned to each key. It is characterized by.

請求項8記載の本発明は、請求項6又は7記載の発明において、前記メタデータ対応付けステップは、所定の時間間隔以内に複数のメタデータが入力された場合には、この複数のメタデータそれぞれに同一のタイムコードを対応付けることを特徴とする。   The invention according to claim 8 is the invention according to claim 6 or 7, wherein in the metadata association step, when a plurality of metadata is inputted within a predetermined time interval, the plurality of metadata Each is associated with the same time code.

請求項9記載の本発明は、請求項6乃至8のいずれか1項に記載の発明において、前記メタデータ対応付けステップは、所定の時間間隔以内に同一のメタデータ内容を有する複数のメタデータが入力された場合には、最初に入力されたメタデータのタイムコードから最後に入力されたメタデータのタイムコードまでの時間幅を有するタイムコード付きメタデータを作成することを特徴とする。   The present invention according to claim 9 is the invention according to any one of claims 6 to 8, wherein the metadata association step includes a plurality of metadata having the same metadata contents within a predetermined time interval. Is input, the time-coded metadata having a time width from the time code of the first input metadata to the time code of the last input metadata is created.

本発明によれば、動画データのタイムコードとメタデータを対応付けて保持するので、動画データの各シーンに対してきめ細かくメタデータを付与することができる。   According to the present invention, since the time code of the moving image data and the metadata are stored in association with each other, the metadata can be finely assigned to each scene of the moving image data.

この結果、利用者は映像コンテンツをよりきめ細かく検索することができるので、所望の映像コンテンツを容易に探し出すことができる。   As a result, the user can search for the video content more finely, and can easily find the desired video content.

以下、本発明の実施の形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施の形態に係るメタデータ付与装置10の概略構成図である。図1に示すメタデータ付与装置10は、映像入力部1、メタデータ入力部2、映像表示部3、映像制御部4、およびデータ記憶部5を有する構成となっている。   FIG. 1 is a schematic configuration diagram of a metadata providing apparatus 10 according to an embodiment of the present invention. A metadata providing apparatus 10 shown in FIG. 1 includes a video input unit 1, a metadata input unit 2, a video display unit 3, a video control unit 4, and a data storage unit 5.

映像入力部1は、動画データを入力するもので、例えば、映像コンテンツを受信する映像受信装置(TVチューナ、STBなど)や映像コンテンツを再生する映像再生装置(DVDプレーヤなど)が該当する。   The video input unit 1 inputs moving image data, and corresponds to, for example, a video receiving device (TV tuner, STB, etc.) that receives video content and a video playback device (DVD player, etc.) that plays back video content.

メタデータ入力部2は、動画データに対するメタデータを入力するもので、例えば、図2(a)に示すようなキー入力装置21からメタデータが入力されるようになっている。ここで、図2(a)は、人物が登場する映像コンテンツに対するメタデータ入力を想定しており、例えば、人物名、人物の画像位置、人物の表情、人物の姿勢、人物の向き、人物の動きをメタデータとして対応する各キーを押下することにより入力するようになっている。勿論、上述したメタデータの項目は、人物が登場する映像コンテンツに対する一具体例であり、他の項目を設定してもよく(客観的な項目が望ましい)、また、映像コンテンツに登場する対象物は、特に人物に限定されるものではなく、動物、乗り物など動きがある対象物であれば何であってもよいが、以下においては、人物が登場する映像コンテンツに対するメタデータ(人物名、人物の画像位置、人物の表情、人物の姿勢、人物の向き、人物の動き)入力を具体例として説明する。尚、メタデータ入力部2は、図2(b)に示すように通常のキーボード22の各キーにそれぞれ異なるメタデータの内容を割り当てるようにしてもよい。   The metadata input unit 2 inputs metadata for moving image data. For example, metadata is input from a key input device 21 as shown in FIG. Here, FIG. 2A assumes metadata input for video content in which a person appears. For example, a person name, a person's image position, a person's facial expression, a person's posture, a person's orientation, The movement is input as metadata by pressing each corresponding key. Of course, the metadata items described above are specific examples of video content in which a person appears, other items may be set (an objective item is desirable), and objects appearing in the video content Is not particularly limited to a person, and may be anything that moves, such as an animal or a vehicle. However, in the following, metadata (person name, person's (Image position, facial expression, human posture, human orientation, human motion) input will be described as a specific example. Note that the metadata input unit 2 may assign different metadata contents to each key of the normal keyboard 22 as shown in FIG.

映像表示部3は、動画データを表示するものであり、利用者がこれを視聴しながら動画データにメタデータを入力するようになっている。尚、映像表示部3は、例えば、メタデータとして人物の画像位置を採用した場合には、図1に示すように所定の数に分割設定された映像コンテンツを表示して、メタデータ入力を支援するようにしてもよい。   The video display unit 3 displays moving image data, and the user inputs metadata to the moving image data while viewing it. For example, when the image position of a person is used as metadata, the video display unit 3 displays video content divided and set to a predetermined number as shown in FIG. 1 to support metadata input. You may make it do.

映像制御部4は、CPU、メモリ等から構成され、映像入力部1、メタデータ入力部2、映像表示部3およびデータ記憶部5の制御や、データの転送、種々の演算、データの一時的な格納等を行うことにより、入力された動画データのタイムコードに、入力されたメタデータを関連付けて、関連付けられたメタデータ(以下、タイムコード付きメタデータという)をデータ記憶部5に出力するようになっている。   The video control unit 4 includes a CPU, a memory, and the like. The video control unit 4 controls the video input unit 1, the metadata input unit 2, the video display unit 3, and the data storage unit 5, transfers data, performs various calculations, and temporarily stores data. By performing such storage, the input metadata is associated with the time code of the input moving image data, and the associated metadata (hereinafter referred to as metadata with time code) is output to the data storage unit 5. It is like that.

尚、本実施の形態においては、動画データを所定の方法でシーン分割した後にメタデータを付与してよいし、また、メタデータを付与後、動画データを所定の方法でシーン分割してもよいものである。   In the present embodiment, the metadata may be assigned after the moving image data is divided into scenes by a predetermined method, or the moving image data may be divided into scenes by a predetermined method after the metadata is added. Is.

また、映像制御部4は、上述したように映像表示部3の画面を所定の数に分割設定したり(図1においては9分割)、サムネイル画像を生成したりする機能を有している。   Further, the video control unit 4 has a function of dividing and setting the screen of the video display unit 3 to a predetermined number as described above (9 divisions in FIG. 1) and generating thumbnail images.

データ記憶部5は、動画データおよびメタデータを記憶するもので、より詳しくは、入力された動画データを記憶するコンテンツ記憶部51、動画データの各シーンをタイムコードで管理しているシーンデータを記憶するシーンデータ記憶部52、キー入力装置21の各キーに割り当てられたキーデータの内容を記憶するキーデータ記憶部53、映像制御部4で作成されたタイムコード付きメタデータを記憶するメタデータ記憶部54、および動画データの各シーンのサムネイルを記憶するサムネイル記憶部55を備えている。   The data storage unit 5 stores moving image data and metadata, and more specifically, a content storage unit 51 that stores input moving image data, and scene data that manages each scene of the moving image data with a time code. A scene data storage unit 52 to store, a key data storage unit 53 to store the contents of key data assigned to each key of the key input device 21, and a metadata to store metadata with time code created by the video control unit 4 A storage unit 54 and a thumbnail storage unit 55 that stores thumbnails of scenes of moving image data are provided.

ここで、シーンデータ記憶部52は、具体的には、図3(a)に示すように、シーンID(シーンを一意に決定する識別情報)、タイムコードIN点、タイムコードOUT点を具備するデータ構成となっている。   Here, as shown in FIG. 3A, the scene data storage unit 52 specifically includes a scene ID (identification information for uniquely determining a scene), a time code IN point, and a time code OUT point. It has a data structure.

また、キーデータ記憶部53は、具体的には、図3(b)に示すように、キーデータ、メタデータ項目(人物名、人物の画像位置、人物の表情、人物の姿勢、人物の向き、人物の動き)、メタデータ内容を具備するデータ構成となっている。   Further, as shown in FIG. 3B, the key data storage unit 53 specifically includes key data, metadata items (person name, person image position, person facial expression, person posture, person direction, and the like. , Movement of person) and metadata contents.

また、メタデータ記憶部54は、動画データのタイムコードと入力されたキーデータを関連付けて管理するようになっており、具体的には、図3(c)に示すように、キーID(メタデータを一意に決定する識別情報)、タイムコードIN、タイムコードOUT、キーデータを具備する構成である。   Further, the metadata storage unit 54 manages the time code of the moving image data in association with the input key data. Specifically, as shown in FIG. Identification information for uniquely determining data), a time code IN, a time code OUT, and key data.

尚、シーンデータ記憶部52およびメタデータ記憶部54の各データを関連づけることで、メタデータは、タイムコードとともにシーンとも関連づけられるようになっている。図4は、このことを示しており、シーン分割された動画データの各シーンA,…,Jに対してメタデータm1,…,m14をそれぞれ入力した例を示している。ここで、メタデータは動画データのタイムコードと関連付けて記憶されているため、1シーンに1メタデータというように限定されることはなく、より柔軟にメタデータを付与することができるようになっている。   Incidentally, by associating the data in the scene data storage unit 52 and the metadata storage unit 54, the metadata is associated with the scene together with the time code. FIG. 4 shows this, and shows an example in which metadata m1,..., M14 is input to each scene A,. Here, since the metadata is stored in association with the time code of the video data, the metadata is not limited to one metadata per scene, and the metadata can be assigned more flexibly. ing.

次に、本実施の形態に係るメタデータ付与装置10におけるメタデータ付与の動作を図5乃至図7を用いて説明する。ここで、図5は、動画データのタイムコードと入力されたメタデータを1対1に対応させてメタデータを付与する場合の動作を示すフローチャートであり、図6は、動画データの同一タイムコードと入力されたメタデータを1対nに対応させてメタデータを付与する場合の動作を示すフローチャートであり、図7は、同一内容のメタデータが連続的に入力された場合の動作を示すフローチャートである。   Next, the operation of providing metadata in the metadata providing apparatus 10 according to the present embodiment will be described with reference to FIGS. Here, FIG. 5 is a flowchart showing an operation in the case of assigning metadata by associating the time code of the moving image data with the input metadata on a one-to-one basis, and FIG. 6 is the same time code of the moving image data. FIG. 7 is a flowchart showing an operation when metadata is given by associating the input metadata with 1 to n, and FIG. 7 is a flowchart showing an operation when metadata having the same content is continuously input. It is.

まず、動画データのタイムコードと入力されたメタデータを1対1に対応させてメタデータを付与する場合の動作について説明する。これは、メタデータ付与装置10のメタデータ付与に関する基本的機能を説明するものである。   First, the operation in the case of assigning metadata by associating the time code of moving image data with the input metadata on a one-to-one basis will be described. This explains a basic function related to metadata assignment of the metadata assigning apparatus 10.

利用者は、メタデータ付与装置10に対して動画データの入力開始を指示すると、メタデータ付与装置10は、動画データを入力し、映像表示部3に表示する(ステップS10)。そして、利用者は、この表示された動画データを見ながら、メタデータ入力部2を介してキー入力を行う。これにより、メタデータ付与装置10は、入力キーを検知するので、入力キーを検知したときの動画データのタイムコード(動画データに埋め込まれている)を取得する(ステップS20,S30)。次に、メタデータ付与装置10は、入力された入力キーと動画データのタイムコードを関連づける(ステップS40)。   When the user instructs the metadata providing device 10 to start inputting moving image data, the metadata providing device 10 inputs the moving image data and displays it on the video display unit 3 (step S10). Then, the user performs key input via the metadata input unit 2 while viewing the displayed moving image data. Thereby, since the metadata providing apparatus 10 detects the input key, it acquires the time code of the moving image data (embedded in the moving image data) when the input key is detected (steps S20 and S30). Next, the metadata providing apparatus 10 associates the input key with the time code of the moving image data (step S40).

利用者がキー入力によりメタデータを付与し続ける限り、メタデータ付与装置10は、上述した入力キーの検知(ステップS20)、動画データのタイムコード取得(ステップS30)、入力キーとタイムコードの関連付け(ステップS40)の動作を繰り返す(ステップS50)。そして、利用者がメタデータの入力終了の指示を出すと、メタデータ付与装置10は、入力された入力キーと動画データのタイムコードを関連づけたタイムコード付きメタデータすべてをメタデータ記憶部54に登録する(ステップS60)。尚、図5に示すメタデータ付与方法においては、タイムコードINだけにタイムコードが設定されるタイムコード付きメタデータが作成される。   As long as the user continues to provide metadata by key input, the metadata providing apparatus 10 detects the input key described above (step S20), obtains the time code of the video data (step S30), and associates the input key with the time code. The operation of (Step S40) is repeated (Step S50). When the user gives an instruction to end the input of metadata, the metadata providing apparatus 10 stores all of the metadata with time code in which the input key that has been input and the time code of the video data are associated with each other in the metadata storage unit 54. Register (step S60). In the metadata providing method shown in FIG. 5, time code-added metadata in which the time code is set only for the time code IN is created.

最後に、利用者は、メタデータ付与装置10に対して動画データの入力終了を指示すると、メタデータ付与装置10は、動画データを入力を終了させ、処理は終了する(ステップS70)。尚、タイムコード付きメタデータのメタデータ記憶部54への登録は、上述したように入力終了の指示とともにまとめて登録する他、入力キーとタイムコードを関連付けるたびに、随時登録してもよい。   Finally, when the user instructs the metadata providing apparatus 10 to end the input of the moving image data, the metadata providing apparatus 10 ends the input of the moving image data, and the process ends (step S70). The registration of the metadata with time code in the metadata storage unit 54 may be performed whenever the input key is associated with the time code as well as being registered together with the input end instruction as described above.

図8は、図5に示したメタデータ付与の動作の具体例を挙げたものであるが、図8(a)のように入力されたメタデータに対しては、図8(b)に示すようなタイムコード付きメタデータが作成され、メタデータ記憶部54に登録されるものである。   FIG. 8 shows a specific example of the operation of adding metadata shown in FIG. 5, but the metadata input as shown in FIG. 8 (a) is shown in FIG. 8 (b). Such metadata with time code is created and registered in the metadata storage unit 54.

従って、本実施の形態に係るメタデータ付与装置10によれば、それぞれ異なるメタデータ内容を各キーに割り当てられたキー入力装置21からのキー入力によりメタデータを入力して、動画データのタイムコードと入力されたメタデータを対応付けてタイムコード付きメタデータとして保持するので、リアルタイムかつ簡易なメタデータ入力を実現するとともに動画データの各シーンに対してきめ細かくメタデータを付与することができる。   Therefore, according to the metadata providing apparatus 10 according to the present embodiment, the metadata is input by the key input from the key input apparatus 21 in which different metadata contents are assigned to each key, and the time code of the video data Are associated with each other and held as metadata with a time code, so that real-time and simple metadata input can be realized, and detailed metadata can be given to each scene of the moving image data.

次に、動画データの同一タイムコードと入力されたメタデータを1対nに対応させてメタデータを付与する場合の動作を説明する。これは、図5に示すメタデータ付与の基本的機能にオプション機能として付加されたものであり、短時間(予め決められた閾値)内に複数のメタデータを入力する場合には、メタデータが入力された各時点のタイムコードがそれぞれ与えられるではなく、それぞれのメタデータに対して同一のタイムコードが与えられるというものである。   Next, the operation in the case of assigning metadata by associating the same time code of moving image data with input metadata in a one-to-n correspondence will be described. This is added as an optional function to the basic function of adding metadata shown in FIG. 5, and when a plurality of metadata are input within a short time (predetermined threshold), the metadata is The input time code at each time point is not given, but the same time code is given to each metadata.

利用者は、メタデータ付与装置10に対して動画データの入力開始を指示すると、メタデータ付与装置10は、動画データを入力し、映像表示部3に表示する(ステップS110)。そして、利用者は、この表示された動画データを見ながら、メタデータ入力部2を介してキー入力を行う。これにより、メタデータ付与装置10は、入力キーを検知するので、入力キーを検知したときの動画データのタイムコード(動画データに埋め込まれている)を取得する(ステップS120,S130)。   When the user instructs the metadata providing apparatus 10 to start inputting moving image data, the metadata providing apparatus 10 inputs the moving image data and displays it on the video display unit 3 (step S110). Then, the user performs key input via the metadata input unit 2 while viewing the displayed moving image data. Thereby, since the metadata providing apparatus 10 detects the input key, it acquires the time code of the moving image data (embedded in the moving image data) when the input key is detected (steps S120 and S130).

次に、メタデータ付与装置10は、後述する方法で設定された前タイムコードを取得し、取得した動画データのタイムコードと前タイムコードの時間差が予め設定された閾値より大きいか否かを判断する(ステップS140,S150)。   Next, the metadata providing apparatus 10 acquires a previous time code set by a method described later, and determines whether or not the time difference between the time code of the acquired moving image data and the previous time code is larger than a preset threshold value. (Steps S140 and S150).

タイムコードと前タイムコードの時間差が予め設定された閾値より大きい場合には、取得したタイムコードを採用し、該タイムコードを前タイムコードに設定する(ステップS160)。そして、入力された入力キーと動画データのタイムコードを関連づける(ステップS180)。   If the time difference between the time code and the previous time code is larger than a preset threshold, the acquired time code is adopted and the time code is set as the previous time code (step S160). Then, the input key and the time code of the moving image data are associated (step S180).

これに対して、タイムコードと前タイムコードの時間差が予め設定された閾値以下の場合には、前タイムコードをタイムコードとして設定し、入力された入力キーと動画データのタイムコード(前タイムコード)を関連づける(ステップS170,S180)。   On the other hand, if the time difference between the time code and the previous time code is less than or equal to a preset threshold, the previous time code is set as the time code, and the input key and the time code of the video data (previous time code) are set. ) Are associated (steps S170 and S180).

利用者がキー入力によりメタデータを付与し続ける限り、メタデータ付与装置10は、上述したステップS120からステップS180までの動作を繰り返す(ステップS190)。そして、利用者がメタデータの入力終了の指示を出すと、メタデータ付与装置10は、入力された入力キーと動画データのタイムコードを関連づけたタイムコード付きメタデータすべてをメタデータ記憶部54に登録する(ステップS200)。尚、図6に示すメタデータ付与方法においては、タイムコードINだけにタイムコードが設定されるタイムコード付きメタデータが作成される。   As long as the user continues to provide metadata by key input, the metadata providing apparatus 10 repeats the operations from step S120 to step S180 described above (step S190). When the user gives an instruction to end the input of metadata, the metadata providing apparatus 10 stores all of the metadata with time code in which the input key that has been input and the time code of the video data are associated with each other in the metadata storage unit 54. Register (step S200). In the metadata providing method shown in FIG. 6, time code-added metadata in which a time code is set only for the time code IN is created.

最後に、利用者は、メタデータ付与装置10に対して動画データの入力終了を指示すると、メタデータ付与装置10は、動画データの入力を終了させ、処理は終了する(ステップS210)。尚、タイムコード付きメタデータのメタデータ記憶部54への登録は、上述したように入力終了の指示とともにまとめて登録する他、入力キーとタイムコードを関連付けるたびに、随時登録してもよい。   Finally, when the user instructs the metadata providing apparatus 10 to end the input of the moving image data, the metadata providing apparatus 10 ends the input of the moving image data, and the process ends (step S210). The registration of the metadata with time code in the metadata storage unit 54 may be performed whenever the input key is associated with the time code as well as being registered together with the input end instruction as described above.

図9は、図6に示したメタデータ付与の動作の具体例を挙げたものであるが、図9(a)のように入力されたメタデータに対しては、図9(b)に示すようなタイムコード付きメタデータが作成され、メタデータ記憶部54に登録されるものである。ここで、キーP、キー4、キー5およびキーPは、それぞれメタデータが入力された際の動画データのタイムコードは異なっているが、閾値(図9においては2sec)以内にあるので、キーP、キー4、キー5およびキーPのタイムコードはすべて同一となっている。   FIG. 9 shows a specific example of the operation of adding metadata shown in FIG. 6, but the metadata input as shown in FIG. 9 (a) is shown in FIG. 9 (b). Such metadata with time code is created and registered in the metadata storage unit 54. Here, the key P, the key 4, the key 5, and the key P have different time codes of the moving image data when the metadata is input, but are within the threshold value (2 sec in FIG. 9). The time codes of P, key 4, key 5 and key P are all the same.

従って、本実施の形態に係るメタデータ付与装置10によれば、基本的機能による効果に加えて、予め決められた閾値の時間内に複数のメタデータを入力しても、それぞれのメタデータに対して同一のタイムコードを与えることができるので、複数の異なるメタデータを同時に入力したつもりだが微妙な時間差を生じて入力してしまった場合であってもタイムコードを補正して、同一タイムコードのメタデータとして管理することができる。   Therefore, according to the metadata providing apparatus 10 according to the present embodiment, in addition to the effect of the basic function, even if a plurality of metadata is input within a predetermined threshold time, Because the same time code can be given to the same time code, even if you intend to enter multiple different metadata at the same time, but have entered a subtle time difference, correct the time code and use the same time code. Can be managed as metadata.

次に、同一内容のメタデータが連続的に入力された場合の動作を説明する。これは、図5に示すメタデータ付与の基本的機能にオプション機能として付加されたものであり、短時間(予め決められた閾値)内に同一内容のメタデータを続けて入力した場合には、同一メタデータが連続しているとみてメタデータ1つに対して時間幅を有するタイムコードを与えるというものである。   Next, an operation when metadata having the same content is continuously input will be described. This is added as an optional function to the basic function of giving metadata shown in FIG. 5, and when the same content metadata is continuously input within a short time (predetermined threshold), Assuming that the same metadata is continuous, a time code having a time width is given to one piece of metadata.

利用者は、メタデータ付与装置10に対して動画データの入力開始を指示すると、メタデータ付与装置10は、動画データを入力し、映像表示部3に表示する(ステップS310)。そして、利用者は、この表示された動画データを見ながら、メタデータ入力部2を介してキー入力を行う。これにより、メタデータ付与装置10は、入力キーを検知するので、入力キーを検知したときの動画データのタイムコード(動画データに埋め込まれている)を取得する(ステップS320,S330)。   When the user instructs the metadata providing apparatus 10 to start inputting moving image data, the metadata providing apparatus 10 inputs the moving image data and displays it on the video display unit 3 (step S310). Then, the user performs key input via the metadata input unit 2 while viewing the displayed moving image data. Thereby, since the metadata providing apparatus 10 detects the input key, it acquires the time code of the moving image data (embedded in the moving image data) when the input key is detected (steps S320 and S330).

次に、メタデータ付与装置10は、後述する方法で設定された同一のメタデータ内容を有する入力キーの前タイムコードを取得し、取得した動画データのタイムコードと前タイムコードの時間差が予め設定された閾値より大きいか否かを判断する(ステップS340,S350)。   Next, the metadata providing apparatus 10 acquires the previous time code of the input key having the same metadata content set by a method described later, and sets the time difference between the acquired time code of the moving image data and the previous time code in advance. It is determined whether or not it is greater than the threshold value (steps S340 and S350).

タイムコードと前タイムコードの時間差が予め設定された閾値より大きい場合には、取得したタイムコードをタイムコードINとして採用し、取得したタイムコードを前タイムコードに設定する(ステップS360)。そして、入力された入力キーと動画データのタイムコードINを関連づける(ステップS370)。   If the time difference between the time code and the previous time code is larger than a preset threshold, the acquired time code is adopted as the time code IN, and the acquired time code is set as the previous time code (step S360). Then, the input key and the time code IN of the moving image data are associated (step S370).

これに対して、タイムコードと前タイムコードの時間差が予め設定された閾値以下の場合には、まず、前タイムコードからタイムコードまでの間に同一のメタデータ項目であるが異なるメタデータ内容を有するようなメタデータが存在するか否かを確かめる(ステップS380)。これは、同一のメタデータ内容を有するメタデータ双方の間に同一のメタデータ項目ではあるが異なるメタデータ内容を有するメタデータが存在する場合(例えば、人物の向きが右向きのメタデータの間に、人物の向きが左向きのメタデータが存在するような場合)には、厳密には、同一のメタデータ内容が連続しているわけではないので、この場合には、取得したタイムコードをタイムコードINとして採用し、取得したタイムコードを前タイムコードに設定するものである(ステップS360)。そして、入力された入力キーと動画データのタイムコードINを関連づける(ステップS370)。   On the other hand, if the time difference between the time code and the previous time code is less than or equal to a preset threshold, first, the same metadata item between the previous time code and the time code, but different metadata contents are displayed. It is ascertained whether or not such metadata exists (step S380). This is the case when metadata having the same metadata item but different metadata content exists between both metadata having the same metadata content (for example, between metadata with the person facing right) Strictly speaking, the same metadata content is not continuous in the case where there is metadata with the person facing to the left). In this case, the acquired time code is the time code. It is adopted as IN, and the acquired time code is set as the previous time code (step S360). Then, the input key and the time code IN of the moving image data are associated (step S370).

一方、ステップS380で、前タイムコードからタイムコードまでの間に同一のメタデータ項目であるが異なるメタデータ内容を有するメタデータが存在しない場合には、同一のメタデータ内容が連続しているとみなし、取得したタイムコードをタイムコードOUTとし、直前の同一入力キーとタイムコードOUTを関連付ける(ステップS390)。   On the other hand, in step S380, if there is no metadata having the same metadata item but different metadata content between the previous time code and the time code, the same metadata content is continuous. Assuming that the acquired time code is the time code OUT, the same input key immediately before is associated with the time code OUT (step S390).

利用者がキー入力によりメタデータを付与し続ける限り、メタデータ付与装置10は、上述したステップS320からステップS390までの動作を繰り返す(ステップS400)。そして、利用者がメタデータの入力終了の指示を出すと、メタデータ付与装置10は、入力された入力キーと動画データのタイムコードを関連づけたタイムコード付きメタデータすべてをメタデータ記憶部54に登録する(ステップS410)。尚、図7に示すメタデータ付与方法においては、タイムコードINだけでなく、タイムコードOUTにもタイムコードが設定されるタイムコード付きメタデータが作成される。   As long as the user continues to provide metadata by key input, the metadata providing apparatus 10 repeats the operations from step S320 to step S390 described above (step S400). When the user gives an instruction to end the input of metadata, the metadata providing apparatus 10 stores all of the metadata with time code in which the input key that has been input and the time code of the video data are associated with each other in the metadata storage unit 54. Register (step S410). In the metadata providing method shown in FIG. 7, not only the time code IN, but also the time code-added metadata in which the time code is set for the time code OUT is created.

最後に、利用者は、メタデータ付与装置10に対して動画データの入力終了を指示すると、メタデータ付与装置10は、動画データの入力を終了させ、処理は修了する(ステップS420)。尚、タイムコード付きメタデータのメタデータ記憶部54への登録は、上述したように入力終了の指示とともにまとめて登録する他、入力キーとタイムコードを関連付けるたびに、随時登録してもよい。   Finally, when the user instructs the metadata providing apparatus 10 to end the input of the moving image data, the metadata providing apparatus 10 ends the input of the moving image data, and the process is completed (step S420). The registration of the metadata with time code in the metadata storage unit 54 may be performed whenever the input key is associated with the time code, in addition to being registered together with the input end instruction as described above.

図10は、図7に示したメタデータ付与の動作の具体例を挙げたものであるが、図10(a)のように入力されたメタデータに対しては、図10(b)に示すようなタイムコード付きメタデータが作成され、メタデータ記憶部54に登録されるものである。ここで、2つのキーPは、閾値(図10においては2sec)以内にあるので、キーPは連続して押下されているものとみなし、キーPのタイムコードINには、最初にキーPが押下されたときのタイムコード、キーPのタイムコードOUTには、次にキーPが押下されたときのタイムコードが設定されている。   FIG. 10 shows a specific example of the operation of adding metadata shown in FIG. 7, but the metadata input as shown in FIG. 10 (a) is shown in FIG. 10 (b). Such metadata with time code is created and registered in the metadata storage unit 54. Here, since the two keys P are within the threshold value (2 sec in FIG. 10), it is assumed that the key P is continuously pressed, and the time code IN of the key P includes the key P first. The time code when the key P is pressed next time is set in the time code when the key P is pressed and the time code OUT of the key P.

従って、本実施の形態に係るメタデータ付与装置10によれば、基本的機能による効果に加えて、予め決められた閾値内に同一内容のメタデータを続けて入力した場合には、同一メタデータが連続しているとみてメタデータ1つに対して時間幅を有するタイムコードを与えることができるので、利用者は、同一のメタデータ内容を続けて入力する場合であっても、同一入力キーを押下し続ける必要はないという効果を得ることができる。   Therefore, according to the metadata providing apparatus 10 according to the present embodiment, in addition to the effect of the basic function, when the same content metadata is continuously input within a predetermined threshold, the same metadata Since it is possible to give a time code having a time width to one piece of metadata, the user can input the same metadata content even if the same metadata content is continuously input. The effect that it is not necessary to continue to press can be obtained.

次に、このようにして入力されたメタデータを活用する動作を図11および図12を用いて説明する。ここで、図11は、メタデータを検索キーとして検索した場合の一般的な検索処理を示すフローチャートであり、図12は、メタデータを利用した類似画像検索処理を示すフローチャートである。   Next, an operation for utilizing the metadata input in this way will be described with reference to FIGS. Here, FIG. 11 is a flowchart showing a general search process when searching using metadata as a search key, and FIG. 12 is a flowchart showing a similar image search process using metadata.

まず、メタデータを検索キーとして検索した場合の一般的な検索処理について説明する。   First, a general search process when searching using metadata as a search key will be described.

図11に示すように、メタデータ項目(人物名、人物の画像位置、人物の表情、人物の姿勢、人物の向き、人物の動き)の少なくとも1つに検索値を設定し、検索を指示すると、該当するメタデータをメタデータ記憶部54を検索して、検索されたメタデータのタイムコードからシーンを特定し、該シーンを検索結果として表示する(ステップS510〜S530)。   As shown in FIG. 11, when a search value is set for at least one of metadata items (person name, person image position, person facial expression, person posture, person orientation, person movement) and a search is instructed. Then, the metadata storage unit 54 is searched for the corresponding metadata, the scene is specified from the time code of the searched metadata, and the scene is displayed as the search result (steps S510 to S530).

これにより、利用者は映像コンテンツをよりきめ細かく検索することができるので、所望の映像コンテンツを容易に探し出すことができる。   As a result, the user can search for the video content more finely, and thus can easily find the desired video content.

次に、メタデータを利用した類似画像検索処理について説明する。これは、サムネイル記憶部55に記憶された各シーンのサムネイルを活用して類似検索するものであるが、まず各シーンのメタデータで検索対象のシーン(サムネイル)を絞り込んでから、類似画像検索を行うものである。   Next, a similar image search process using metadata will be described. In this case, similar searches are performed using the thumbnails of the scenes stored in the thumbnail storage unit 55. First, the search target scenes (thumbnails) are narrowed down using the metadata of each scene, and then similar image searches are performed. Is what you do.

図12に示すように、類似画像検索処理においては、まず、利用者はシーンのサムネイルを選択する(例えば、図4に示すようにシーンA〜Jにメタデータm1〜m14を入力した場合において、シーンAのサムネイルを選択する)(ステップS610)。   As shown in FIG. 12, in the similar image search process, first, the user selects a thumbnail of a scene (for example, when metadata m1 to m14 is input to scenes A to J as shown in FIG. A thumbnail of scene A is selected) (step S610).

次に、選択されたサムネイルのメタデータが含まれるサムネイルを抽出し、これらを検索対象とする(図4のシーンAのメタデータm1およびm2を含むシーンは、シーンC、D、G、H、Jであったので、該シーンが抽出される)(ステップS620)。   Next, thumbnails including metadata of the selected thumbnail are extracted, and these are searched (the scenes including the metadata m1 and m2 of the scene A in FIG. 4 are scenes C, D, G, H, Since it is J, the scene is extracted) (step S620).

次に、検索対象のサムネイルの中から類似画像検索を行う(ステップS630)。これは、例えば、検索キーの画像と検索対象の画像のオブジェクトを抽出して、オブジェクトごとの特徴(色、形など)を抽出し、このオブジェクトごとの特徴量により類似度を算出するものである。   Next, a similar image search is performed from the search target thumbnails (step S630). In this method, for example, an object of a search key image and a search target image are extracted, features (color, shape, etc.) for each object are extracted, and a similarity is calculated based on the feature amount for each object. .

次に、検索対象のサムネイルを類似度順に並べ替えて、検索結果として表示する(図4においては、類似度順はコンテンツH、D、C、J、Gであったので、該順番で表示される)(ステップS640)。   Next, the thumbnails to be searched are rearranged in order of similarity and displayed as search results (in FIG. 4, since the order of similarity was contents H, D, C, J, and G, they are displayed in that order. (Step S640).

これにより、利用者は類似画像検索においても映像コンテンツをよりきめ細かく検索することができるので、所望の映像コンテンツを容易に探し出すことができる。   As a result, the user can search for the video content more finely even in the similar image search, and thus can easily find the desired video content.

尚、上記実施の形態に係るメタデータ付与装置10の動作は、メタデータ付与装置10に格納されたプログラムを実行することにより実現される。そして、このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読み取り可能な記録媒体に記録することも、通信ネットワークを介して配信することも可能である。   The operation of the metadata providing apparatus 10 according to the above embodiment is realized by executing a program stored in the metadata providing apparatus 10. The program can be recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, or a DVD-ROM, or can be distributed via a communication network.

以上、本発明の実施の形態について説明してきたが、本発明の要旨を逸脱しない範囲において、本発明の実施の形態に対して種々の変形や変更を施すことができる。例えば、上記実施の形態においては、入力キーにマッピングされたメタデータを選択する方式を採用しているが、入力キーにマッピングされていないメタデータを入力したい場合には、テキスト入力により対応してもよい。そして、テキスト入力後、このテキスト入力されたメタデータを新たなキーに割り当てれば、その後の検索においても該メタデータを活用できるものである。   While the embodiments of the present invention have been described above, various modifications and changes can be made to the embodiments of the present invention without departing from the spirit of the present invention. For example, in the above embodiment, a method of selecting metadata mapped to the input key is adopted. However, when it is desired to input metadata that is not mapped to the input key, a text input is used. Also good. If the text input metadata is assigned to a new key after the text is input, the metadata can be used in subsequent searches.

また、メタデータ入力部2として、キー入力装置21やキーボード22を例示したが、メタデータ入力部2はこれに限定されるものではなく、キー入力が可能であれば何であってもよい(例えば、リモコンような入力装置であってもよい)。   Moreover, although the key input device 21 and the keyboard 22 are illustrated as the metadata input unit 2, the metadata input unit 2 is not limited to this, and may be anything as long as key input is possible (for example, Or an input device such as a remote control).

さらに、上記実施の形態においては、動画データを再生しつつメタデータを入力するというリアルタイムでのメタデータ入力を重視しているが、メタデータの入力に不慣れであったり、より多様なメタデータを入力したいという場合には、再生している動画データを一時停止してメタデータを入力するようにしてもよいのは勿論である。   Furthermore, in the above-described embodiment, emphasis is placed on real-time metadata input in which metadata is input while playing back video data. Of course, when the user wants to input, the moving image data being reproduced may be paused and the metadata may be input.

本発明の実施の形態に係るメタデータ付与装置の概略構成図である。It is a schematic block diagram of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置のメタデータ入力部の一例である。It is an example of the metadata input part of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置のデータ記憶部のデータ構成を説明する図である。It is a figure explaining the data structure of the data storage part of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置で入力されたメタデータとシーンの関係を説明する図である。It is a figure explaining the relationship between the metadata input with the metadata provision apparatus which concerns on embodiment of this invention, and a scene. 本発明の実施の形態に係るメタデータ付与装置のメタデータ付与動作1を説明するフローチャートである。It is a flowchart explaining the metadata provision operation | movement 1 of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置のメタデータ付与動作2を説明するフローチャートである。It is a flowchart explaining the metadata provision operation | movement 2 of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置のメタデータ付与動作3を説明するフローチャートである。It is a flowchart explaining the metadata provision operation | movement 3 of the metadata provision apparatus which concerns on embodiment of this invention. 図6に示す動作により作成されるタイムコード付きメタデータの一例である。7 is an example of metadata with time code created by the operation shown in FIG. 6. 図7に示す動作により作成されるタイムコード付きメタデータの一例である。It is an example of metadata with time code created by the operation shown in FIG. 図8に示す動作により作成されるタイムコード付きメタデータの一例である。FIG. 9 is an example of metadata with time code created by the operation shown in FIG. 8. FIG. 本発明の実施の形態に係るメタデータ付与装置の検索動作1を説明するフローチャートである。It is a flowchart explaining the search operation | movement 1 of the metadata provision apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係るメタデータ付与装置の検索動作2を説明するフローチャートである。It is a flowchart explaining the search operation 2 of the metadata provision apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1 映像入力部
2 映像制御部
3 メタデータ入力部
4 映像表示部
5 データ記憶部
10 メタデータ付与装置
21 キー入力装置
22 キーボード
51 コンテンツ記憶部
52 シーンデータ記憶部
53 キーデータ記憶部
54 メタデータ記憶部
55 サムネイル記憶部
DESCRIPTION OF SYMBOLS 1 Image | video input part 2 Image | video control part 3 Metadata input part 4 Image | video display part 5 Data storage part 10 Metadata provision apparatus 21 Key input device 22 Keyboard 51 Content storage part 52 Scene data storage part 53 Key data storage part 54 Metadata storage 55 Thumbnail storage

Claims (9)

動画データにメタデータを付与するメタデータ付与装置であって、
前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶手段と、
前記メタデータを入力するメタデータ入力手段と、
前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付け手段と、
前記タイムコード付きメタデータを記憶するメタデータ記憶手段と、
を有することを特徴とするメタデータ付与装置。
A metadata adding device for adding metadata to video data,
Scene data storage means for storing scene data in which each scene obtained by dividing the moving image data into scenes is associated with a time code;
Metadata input means for inputting the metadata;
Metadata associating means for associating the time code of the video data when the metadata is input and the input metadata to create metadata with time code;
Metadata storage means for storing the metadata with the time code;
A metadata providing apparatus characterized by comprising:
前記メタデータ入力手段は、それぞれ異なるメタデータ内容を各キーに割り当てられたキー入力装置からのキー入力によりメタデータを入力することを特徴とする請求項1記載のメタデータ付与装置。   2. The metadata adding apparatus according to claim 1, wherein the metadata input means inputs metadata by key input from a key input apparatus assigned different metadata contents to each key. 前記メタデータ対応付け手段は、所定の時間間隔以内に複数のメタデータが入力された場合には、この複数のメタデータそれぞれに同一のタイムコードを対応付けることを特徴とする請求項1又は2記載のメタデータ付与装置。   3. The metadata associating means, when a plurality of metadata is inputted within a predetermined time interval, associates the same time code with each of the plurality of metadata. Metadata applicator. 前記メタデータ対応付け手段は、所定の時間間隔以内に同一のメタデータ内容を有する複数のメタデータが入力された場合には、最初に入力されたメタデータのタイムコードから最後に入力されたメタデータのタイムコードまでの時間幅を有するタイムコード付きメタデータを作成することを特徴とする請求項1乃至3のいずれか1項に記載のメタデータ付与装置。   When a plurality of metadata having the same metadata contents are input within a predetermined time interval, the metadata association unit is configured to input the last input metadata from the time code of the first input metadata. The metadata adding apparatus according to any one of claims 1 to 3, wherein metadata with a time code having a time width up to a time code of data is created. 動画データにメタデータを付与するメタデータ付与方法であって、
前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶ステップと、
前記メタデータを入力するメタデータ入力ステップと、
前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付けステップと、
前記タイムコード付きメタデータを記憶するメタデータ記憶ステップと、
を有することを特徴とするメタデータ付与方法。
A method for giving metadata to video data,
A scene data storing step of storing scene data in which each scene obtained by dividing the moving image data into scenes is associated with a time code;
A metadata input step for inputting the metadata;
A metadata associating step of associating the time code of the video data when the metadata is input with the input metadata to create metadata with time code;
A metadata storage step for storing the metadata with the time code;
A method for providing metadata, comprising:
動画データにメタデータを付与するためのコンピュータが読み取り可能なメタデータ付与プログラムであって、
前記動画データをシーン分割した各シーンをタイムコードと対応付けたシーンデータを記憶するシーンデータ記憶ステップと、
前記メタデータを入力するメタデータ入力ステップと、
前記メタデータが入力されたときの前記動画データのタイムコードと入力されたメタデータとを対応づけて、タイムコード付きメタデータを作成するメタデータ対応付けステップと、
前記タイムコード付きメタデータをメタデータ記憶手段に記憶するメタデータ記憶ステップと、
を前記コンピュータに実行させることを特徴とするメタデータ付与プログラム。
A computer readable metadata adding program for adding metadata to video data,
A scene data storing step of storing scene data in which each scene obtained by dividing the moving image data into scenes is associated with a time code;
A metadata input step for inputting the metadata;
A metadata associating step of associating the time code of the video data when the metadata is input and the input metadata to create metadata with time code;
A metadata storage step of storing the metadata with time code in a metadata storage means;
A metadata grant program that causes the computer to execute.
前記メタデータ入力ステップは、それぞれ異なるメタデータ内容を各キーに割り当てられたキー入力装置からのキー入力によりメタデータを入力することを特徴とする請求項6記載のメタデータ付与プログラム。   7. The metadata adding program according to claim 6, wherein said metadata input step inputs metadata by key input from a key input device assigned to each key with different metadata contents. 前記メタデータ対応付けステップは、所定の時間間隔以内に複数のメタデータが入力された場合には、この複数のメタデータそれぞれに同一のタイムコードを対応付けることを特徴とする請求項6又は7記載のメタデータ付与プログラム。   8. The metadata associating step, wherein when a plurality of metadata is input within a predetermined time interval, the same time code is associated with each of the plurality of metadata. Metadata grant program. 前記メタデータ対応付けステップは、所定の時間間隔以内に同一のメタデータ内容を有する複数のメタデータが入力された場合には、最初に入力されたメタデータのタイムコードから最後に入力されたメタデータのタイムコードまでの時間幅を有するタイムコード付きメタデータを作成することを特徴とする請求項6乃至8のいずれか1項に記載のメタデータ付与プログラム。   In the metadata association step, when a plurality of metadata having the same metadata contents are input within a predetermined time interval, the metadata input last from the time code of the metadata input first is performed. The metadata adding program according to any one of claims 6 to 8, wherein metadata with a time code having a time width up to a time code of data is created.
JP2004029791A 2004-02-05 2004-02-05 Metadata granting apparatus, metadata granting method, and metadata granting program Withdrawn JP2005222329A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004029791A JP2005222329A (en) 2004-02-05 2004-02-05 Metadata granting apparatus, metadata granting method, and metadata granting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004029791A JP2005222329A (en) 2004-02-05 2004-02-05 Metadata granting apparatus, metadata granting method, and metadata granting program

Publications (1)

Publication Number Publication Date
JP2005222329A true JP2005222329A (en) 2005-08-18

Family

ID=34997904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004029791A Withdrawn JP2005222329A (en) 2004-02-05 2004-02-05 Metadata granting apparatus, metadata granting method, and metadata granting program

Country Status (1)

Country Link
JP (1) JP2005222329A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213350A (en) * 2006-02-09 2007-08-23 Fuji Xerox Co Ltd Information processing apparatus and information processing method
JP2009212935A (en) * 2008-03-05 2009-09-17 Omron Corp Image processing device and method, and program
JP2009540447A (en) * 2006-06-16 2009-11-19 ノキア コーポレイション Method, apparatus and computer readable storage medium for providing metadata entry
US7979432B2 (en) 2006-09-28 2011-07-12 Kabushiki Kaisha Toshiba Apparatus, computer program product and system for processing information
JP2013536969A (en) * 2010-09-03 2013-09-26 フル・エルエルシー Method and apparatus for providing community-based metadata
JP2015007980A (en) * 2008-03-24 2015-01-15 スー カン,ミン Keyword advertisement method using digital content related meta-information and related system therefor
WO2017221857A1 (en) * 2016-06-21 2017-12-28 日本電気株式会社 Similarity calculation device and method, and recording medium
JP2020523825A (en) * 2017-05-30 2020-08-06 ホーム ボックス オフィス, インコーポレイテッド Video content graph with enhanced metadata

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213350A (en) * 2006-02-09 2007-08-23 Fuji Xerox Co Ltd Information processing apparatus and information processing method
JP2009540447A (en) * 2006-06-16 2009-11-19 ノキア コーポレイション Method, apparatus and computer readable storage medium for providing metadata entry
US7979432B2 (en) 2006-09-28 2011-07-12 Kabushiki Kaisha Toshiba Apparatus, computer program product and system for processing information
JP2009212935A (en) * 2008-03-05 2009-09-17 Omron Corp Image processing device and method, and program
JP2015007980A (en) * 2008-03-24 2015-01-15 スー カン,ミン Keyword advertisement method using digital content related meta-information and related system therefor
JP2013536969A (en) * 2010-09-03 2013-09-26 フル・エルエルシー Method and apparatus for providing community-based metadata
WO2017221857A1 (en) * 2016-06-21 2017-12-28 日本電気株式会社 Similarity calculation device and method, and recording medium
JPWO2017221857A1 (en) * 2016-06-21 2019-04-11 日本電気株式会社 Similar arithmetic device, method and storage medium
US11113314B2 (en) 2016-06-21 2021-09-07 Nec Corporation Similarity calculating device and method, and recording medium
JP7099316B2 (en) 2016-06-21 2022-07-12 日本電気株式会社 Similarity arithmetic units, methods, and programs
JP2020523825A (en) * 2017-05-30 2020-08-06 ホーム ボックス オフィス, インコーポレイテッド Video content graph with enhanced metadata
JP7163316B2 (en) 2017-05-30 2022-10-31 ホーム ボックス オフィス, インコーポレイテッド Video content graph with extended metadata
US11960446B2 (en) 2017-05-30 2024-04-16 Home Box Office, Inc. Video content graph including enhanced metadata

Similar Documents

Publication Publication Date Title
CN110209843B (en) Multimedia resource playing method, device, equipment and storage medium
CN108984081A (en) A search page interaction method, device, terminal and storage medium
CN105635764B (en) Method and device for playing push information in live video
CN112291609A (en) Video display and push method, device, storage medium and system thereof
JP2019525272A (en) Approximate template matching for natural language queries
US10491968B2 (en) Time-based video metadata system
JP2013070155A (en) Moving image scoring system, server device, moving image scoring method, and moving image scoring program
JP5376442B2 (en) Client terminal and computer program for video distribution service
JP2005222329A (en) Metadata granting apparatus, metadata granting method, and metadata granting program
JP2006139408A (en) Feature vector generation device, search device, feature vector generation method, search method, and program
JP4966408B1 (en) Content continuous playback device, playback method thereof, and playback control program thereof
JP5884805B2 (en) Information processing apparatus and program
JP2009069875A (en) Content search device, content search method, program, and recording medium
CN101169794A (en) Database generating method, program, device and image content recording device
JP2007129531A (en) Program presentation system
JP2020009018A (en) Communication terminal, content server, content recommendation system, control device, and control method
JP5037645B2 (en) Related information providing server, related information providing system, and related information providing method
US7947890B2 (en) Program recording medium, playback device, and playback control method
CN114117120A (en) Video file intelligent index generation system and method based on content analysis
JP4710000B2 (en) Program presentation system
JP5303079B2 (en) Content search service system and content search service method
JP6867541B1 (en) Image display device and program
JP5318245B2 (en) Content continuous playback device, playback method thereof, and playback control program thereof
JP4944574B2 (en) Program selection device, content selection device, program selection program, and content selection program
JP4794610B2 (en) Related information assigning apparatus and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070501