[go: up one dir, main page]

JP2008159102A - Information processing device, mixed content generation method, and program - Google Patents

Information processing device, mixed content generation method, and program Download PDF

Info

Publication number
JP2008159102A
JP2008159102A JP2006343792A JP2006343792A JP2008159102A JP 2008159102 A JP2008159102 A JP 2008159102A JP 2006343792 A JP2006343792 A JP 2006343792A JP 2006343792 A JP2006343792 A JP 2006343792A JP 2008159102 A JP2008159102 A JP 2008159102A
Authority
JP
Japan
Prior art keywords
content
information
unit
configuration
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006343792A
Other languages
Japanese (ja)
Inventor
Koichi Matsumoto
浩一 松本
Kyoko Mori
京子 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006343792A priority Critical patent/JP2008159102A/en
Publication of JP2008159102A publication Critical patent/JP2008159102A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an information processing device in which mixed contents can be easily generated by improving operability of a user. <P>SOLUTION: The information processing device performs assistance of generating the mixed contents utilizing contents stored in the prescribed storage means, and the device is provided with: a contents reproduction output means receiving the input of information specifying the contents stored in the storage means and reproducing and outputting the specified contents; a contents selecting means receiving the input of partial selection information selecting the prescribed part of the contents and specifying the selected contents part; and a constitution information generating means generating constitution information of the mixed contents on the basis of the specified contents part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置にかかり、特に、映像などのコンテンツを編集して混合コンテンツを作成することを支援する情報処理装置に関する。   The present invention relates to an information processing apparatus, and more particularly, to an information processing apparatus that supports editing of content such as video to create mixed content.

近年、インターネットを利用したCGM(Consumer Generated Media)が普及しており、不特定多数のユーザがネットワーク上にコンテンツを公開することが一般的になってきている。特に、パーソナルコンピュータの処理性能の向上や、ネットワーク帯域の向上により、従来のホームページやブログなどによるテキストや静止画だけでなく、動画を含む映像も共有可能なよう公開されている。また、昨今では、これら公開されたコンテンツを不特定多数のユーザが、編集・公開し、新しいコンテンツとして創造するマッシュアップ(混合制作)が注目されている。   In recent years, consumer generated media (CGM) using the Internet has become widespread, and it has become common for an unspecified number of users to publish content on a network. In particular, by improving the processing performance of personal computers and improving the network bandwidth, not only texts and still images from conventional homepages and blogs but also videos including moving images are made public. In recent years, mashups (mixed production) in which a large number of users edit and publish these published contents to create new contents have attracted attention.

特開2004−240780号公報JP 2004-240780 A

しかし、上述したようなネットワークを利用したコンテンツの共同制作や、混合制作において、特に動画である映像データを用いた共同・混合制作及び配信システムにおいては、ネットワーク上の作業は困難であった。つまり、コンテンツを編集するためには、クライアントのパソコン等の端末にコンテンツ配信システムよりコンテンツをダウンロードし、編集及びエンコードを行った後、再度アップロードするという手順が必要であり、操作手順が煩雑になっていた。また、部分的に再利用された映像と同じ映像コンテンツが、何度も公開サーバに蓄積され、結果として同じコンテンツが複数保存されていた。   However, in the collaborative production and mixed production of content using the network as described above, particularly in the collaborative / mixed production and distribution system using video data that is a moving image, it is difficult to work on the network. In other words, in order to edit the content, it is necessary to download the content from the content distribution system to a terminal such as a personal computer of the client, edit and encode it, and then upload it again, which complicates the operation procedure. It was. In addition, the same video content as the partially reused video is accumulated in the public server many times, and as a result, a plurality of the same content is stored.

また、上記特許文献1には、ネットワーク上のコンピュータに蓄積されている複数の素材データを直接参照してプレゼンテーションデータを生成する、というシステムが開示されている。しかし、このシステムに開示されているプレゼンテーションデータの生成方法は、素材データのファイル名を入力して、また、その一部を利用する場合にはその時間を指定することによって行っているが、どの素材データを利用し、また、素材データのどの部分を利用するか、ということを認識することが困難である。従って、希望する構成のコンテンツを迅速かつ分かり易く作成することが困難であり、ユーザにとって操作性が悪い、という問題が生じる。   Further, Patent Document 1 discloses a system that generates presentation data by directly referring to a plurality of material data stored in a computer on a network. However, the presentation data generation method disclosed in this system is performed by inputting the file name of the material data and by specifying the time when using a part of the file name. It is difficult to recognize the material data and which part of the material data is used. Therefore, it is difficult to quickly and easily create content having a desired configuration, and there is a problem that operability is poor for the user.

このため、本発明では、上記従来例の有する不都合を改善し、特に、ユーザの操作性の向上を図り、混合コンテンツの作成を容易とする情報処理装置を提供すること、をその目的とする。   Therefore, an object of the present invention is to provide an information processing apparatus that improves the inconveniences of the above-described conventional example, particularly improves the operability of the user and facilitates the creation of mixed content.

そこで、本発明の一形態である、所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行う情報処理装置は、
記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力手段と、
コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択手段と、
特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成手段と、
を備えたことを特徴としている。
Therefore, an information processing apparatus that supports creation of mixed content using content stored in a predetermined storage unit, which is an aspect of the present invention,
Content reproduction output means for accepting input of information designating the content stored in the storage means and reproducing and outputting the designated content;
Content selection means for accepting input of part selection information for selecting a predetermined part of the content and identifying the selected content part;
Configuration information generating means for generating configuration information of mixed content based on the specified content portion;
It is characterized by having.

上記発明によると、まず、ユーザが混合コンテンツの1つの構成としてコンテンツを指定すると、指定されたコンテンツが再生出力される。そして、ユーザは、この再生されているコンテンツを視聴した上で、混合コンテンツの構成として使用したいコンテンツ部分を選択する情報を入力する。すると、この選択されたコンテンツ部分が混合コンテンツの構成として含められた構成情報が生成される。従って、ユーザは、混合コンテンツを作成する際に、構成としたいコンテンツを再生することができるため、その内容を認識した上で編集することができ、容易かつユーザが希望するよう作成することができる。   According to the above invention, first, when the user designates content as one configuration of mixed content, the designated content is reproduced and output. Then, the user views the reproduced content and inputs information for selecting a content portion to be used as a mixed content configuration. Then, configuration information in which the selected content portion is included as the configuration of the mixed content is generated. Therefore, when a user creates mixed content, the user can reproduce the content that the user wants to configure, so that the user can edit the content after recognizing the content, and can easily create the content as desired. .

そして、コンテンツ選択手段は、コンテンツ再生出力手段にてコンテンツが再生されている最中に操作されることで当該コンテンツの所定部分を選択する予め定められた部分選択操作部から入力された操作情報を、部分選択情報として受け付ける、ことを特徴としている。特に、コンテンツ選択手段は、部分選択操作部から入力される再生されているコンテンツの所定部分の始点と終点を選択する操作情報を、部分選択情報として受け付ける、ことを特徴としている。そして、例えば、部分選択操作部は、再生されているコンテンツの所定部分の始点を選択する始点ボタンと、再生されているコンテンツの所定部分の終点を選択する終点ボタンと、を有する、ことを特徴としている。   The content selection means receives operation information input from a predetermined part selection operation unit that selects a predetermined part of the content by being operated while the content is being reproduced by the content reproduction output means. It is characterized in that it is accepted as partial selection information. In particular, the content selection means is characterized in that operation information for selecting a start point and an end point of a predetermined portion of the content being reproduced input from the partial selection operation unit is received as partial selection information. For example, the partial selection operation unit includes a start point button for selecting a start point of a predetermined part of the content being played back, and an end point button for selecting an end point of the predetermined part of the content being played back. It is said.

これにより、ユーザは、再生されているコンテンツを視聴しながら当該コンテンツの所定部分を選択して、希望する部分をより適切に選択することができる。特に、始点と終点を入力してコンテンツ部分を選択可能とすることで、より簡易な操作となり、ユーザの利便性の向上を図ることができる。   Thereby, the user can select a predetermined part of the content while viewing the content being reproduced, and more appropriately select a desired part. In particular, by making it possible to select a content portion by inputting a start point and an end point, the operation becomes simpler and the convenience of the user can be improved.

また、検索条件の入力を受け付けて、当該検索条件に対応するコンテンツを記憶手段から検索するコンテンツ検索手段を備え、再生出力手段は、検索されたコンテンツの再生出力を行う、ことを特徴としている。これにより、混合コンテンツに含めたい内容のコンテンツを検索して抽出することができ、より希望の混合コンテンツを迅速かつ容易に作成することができ、ユーザの利便性の向上を図ることができる。   Further, the present invention is characterized by comprising content search means for receiving input of search conditions and searching for contents corresponding to the search conditions from the storage means, and the reproduction output means performs reproduction output of the searched content. As a result, it is possible to search and extract the content that is desired to be included in the mixed content, to create a desired mixed content quickly and easily, and to improve user convenience.

また、構成情報生成手段は、生成した構成情報を表示出力すると共に、この表示出力された構成情報に対して入力される混合コンテンツの構成を変更する構成変更指令を受け付け、この構成変更指令に基づいて構成情報を変更し表示出力する構成変更手段を備えた、ことを特徴としている。これにより、表示されている構成情報上で混合コンテンツの構成変更指令を入力することで構成が変更されるため、混合コンテンツの編集が容易となり、ユーザのさらなる操作性の向上を図ることができる。   Further, the configuration information generating means displays and outputs the generated configuration information, receives a configuration change command for changing the configuration of the mixed content input to the displayed and output configuration information, and based on the configuration change command And a configuration changing means for changing and displaying the configuration information. Thereby, since the configuration is changed by inputting the mixed content configuration change command on the displayed configuration information, the mixed content can be easily edited, and the user's operability can be further improved.

また、本発明の他の形態であるプログラムは、
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行う情報処理装置に、
記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力手段と、
コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択手段と、
特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成手段と、
を実現させる、ことを特徴としている。
Moreover, the program which is the other form of this invention is:
An information processing apparatus that supports creation of mixed content using content stored in a predetermined storage unit,
Content reproduction output means for accepting input of information designating the content stored in the storage means and reproducing and outputting the designated content;
Content selection means for accepting input of part selection information for selecting a predetermined part of the content and identifying the selected content part;
Configuration information generating means for generating configuration information of mixed content based on the specified content portion;
It is characterized by realizing.

さらに、本発明の他の形態である情報処理装置にて混合コンテンツの作成を支援する方法は、
記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力工程と、
コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択工程と、
特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成工程と、
を有することを特徴としている。
Furthermore, a method for supporting creation of mixed content in an information processing apparatus according to another aspect of the present invention is as follows.
A content reproduction output step of accepting input of information designating the content stored in the storage means and reproducing and outputting the designated content;
A content selection step of accepting input of part selection information for selecting a predetermined part of the content and identifying the selected content part;
A configuration information generation step of generating mixed content configuration information based on the identified content portion;
It is characterized by having.

そして、コンテンツ選択工程は、コンテンツ再生出力工程にてコンテンツが再生されている最中に操作されることで当該コンテンツの所定部分を選択する予め定められた部分選択操作部から入力される操作情報を、部分選択情報として受け付ける、ことを特徴としている。また、検索条件の入力を受け付けて、当該検索条件に対応するコンテンツを前記記憶手段から検索するコンテンツ検索工程を備え、再生出力工程は、検索されたコンテンツの再生出力を行う、ことを特徴としている。さらに、構成情報生成工程は、生成した構成情報を表示出力すると共に、この表示出力された構成情報に対して入力される混合コンテンツの構成を変更する構成変更指令を受け付け、この構成変更指令に基づいて構成情報を変更し表示出力する構成変更工程を有する、ことを特徴としている。   In the content selection step, operation information input from a predetermined partial selection operation unit that selects a predetermined portion of the content by being operated while the content is being reproduced in the content reproduction output step. It is characterized in that it is accepted as partial selection information. In addition, a content search step of receiving an input of a search condition and searching the storage unit for content corresponding to the search condition is provided, and the playback output step performs playback output of the searched content. . Further, the configuration information generation step displays and outputs the generated configuration information, receives a configuration change command for changing the configuration of the mixed content input to the displayed and output configuration information, and based on the configuration change command And a configuration change step for changing and displaying the configuration information.

また、本発明の他の形態である情報処理装置は、
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行うための表示部を備える情報処理装置であって、
表示部に、
記憶手段に記憶されているコンテンツを指定する情報を入力する指定情報入力部と、
指定情報入力部に入力された情報により指定されたコンテンツを再生する再生操作部と、
コンテンツの所定部分を選択する部分選択情報を入力する選択情報入力部と、
を表示する、ことを特徴としている。
An information processing apparatus according to another aspect of the present invention
An information processing apparatus including a display unit for supporting creation of mixed content using content stored in a predetermined storage unit,
On the display,
A designation information input unit for inputting information for designating the content stored in the storage means;
A playback operation unit for playing back the content specified by the information input to the specified information input unit;
A selection information input unit for inputting partial selection information for selecting a predetermined part of the content;
It is characterized by displaying.

そして、表示部に、部分選択情報により選択されたコンテンツの所定部分を表示する構成表示部を表示する、ことを特徴としている。また、表示部に、複数の所定部分により生成した混合コンテンツを記憶手段に登録する登録操作部を表示する、ことを特徴としている。   And the structure display part which displays the predetermined part of the content selected by the part selection information on a display part is displayed, It is characterized by the above-mentioned. In addition, a registration operation unit that registers mixed content generated by a plurality of predetermined parts in the storage unit is displayed on the display unit.

また、選択情報入力部は、再生操作部により再生されているコンテンツにおける所定部分の始点と終点を入力する指定部を備える、ことを特徴としている。そして、この指定部は、再生操作部により再生されているコンテンツにおける所定部分の始点を入力する始点指示部と、再生操作部により再生されているコンテンツにおける所定部分の終点を入力する終点指示部と、を備える、ことを特徴としている。さらに、構成表示部は、複数の所定部分を表示する、ことを特徴としている。   In addition, the selection information input unit includes a designation unit that inputs a start point and an end point of a predetermined portion in the content being played back by the playback operation unit. The designation unit includes a start point instruction unit for inputting a start point of a predetermined part in the content being played back by the playback operation unit, and an end point instruction unit for inputting an end point of the predetermined part of the content being played back by the playback operation unit. It is characterized by comprising. Further, the configuration display unit displays a plurality of predetermined portions.

また、本発明の他の形態であるプログラムは、
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行うための表示部を備えるコンピュータに、
表示部に対して、
記憶手段に記憶されているコンテンツを指定する情報を入力する指定情報入力部を表示する処理と、
指定情報入力部に入力された情報により指定されたコンテンツを再生する再生操作部を表示する処理と、
コンテンツの所定部分を選択する部分選択情報を入力する選択情報入力部を表示する処理と、
を実行させる、ことを特徴としている。
Moreover, the program which is the other form of this invention is:
A computer including a display unit for supporting creation of mixed content using content stored in a predetermined storage unit,
For the display
Processing for displaying a designation information input unit for inputting information for designating the content stored in the storage means;
A process of displaying a playback operation unit for playing back the content specified by the information input to the specified information input unit;
A process of displaying a selection information input unit for inputting partial selection information for selecting a predetermined part of the content;
It is characterized by that.

そして、表示部に対して、部分選択情報により選択されたコンテンツの所定部分を表示する構成表示部を表示する処理を実行させる、ことを特徴としている。また、表示部に対して、複数の所定部分により生成した混合コンテンツを記憶手段に登録する登録操作部を表示する処理を実行させる、ことを特徴としている。   And it is characterized by making the display part perform the process which displays the structure display part which displays the predetermined part of the content selected by partial selection information. In addition, the display unit is caused to execute a process of displaying a registration operation unit that registers mixed content generated by a plurality of predetermined parts in a storage unit.

また、表示部に対して、再生操作部により再生されているコンテンツにおける所定部分の始点と終点を入力する指定部を備える選択情報入力部を表示する処理を実行させる、ことを特徴としている。そして、表示部に対して、再生操作部により再生されているコンテンツにおける所定部分の始点を入力する始点指示部と、再生操作部により再生されているコンテンツにおける所定部分の終点を入力する終点指示部と、を備える指定部を表示する処理を実行させる、ことを特徴としている。さらに、表示部に対して、複数の所定部分を表示する構成表示部を表示する処理を実行させる、ことを特徴としている。   Further, the display unit is caused to execute a process of displaying a selection information input unit including a designation unit for inputting a start point and an end point of a predetermined portion in the content being played back by the playback operation unit. Then, on the display unit, a start point instruction unit for inputting a start point of a predetermined part in the content reproduced by the reproduction operation unit, and an end point instruction unit for inputting an end point of the predetermined part in the content reproduced by the reproduction operation unit And a process of displaying a designation unit comprising: Furthermore, the display unit is caused to execute a process of displaying a configuration display unit that displays a plurality of predetermined portions.

上述した構成のプログラムや方法の発明であっても、上記情報処理装置と同様の作用を有するため、上述した本発明の目的を達成することができる。   Even the invention of the program or method having the above-described configuration has the same operation as the information processing apparatus, and thus the above-described object of the present invention can be achieved.

本発明は、以上のように構成され機能するので、これによると、混合コンテンツを作成する際に、構成に含めたいコンテンツを再生することができるため、その内容を認識した上で編集することができ、容易にユーザが希望するよう混合コンテンツを作成することができる。従って、コンテンツの登録及び配信等のサービスを提供する事業者のサービスの質の向上を図ることができる、という従来にない優れた効果を有する。   Since the present invention is configured and functions as described above, according to this, when creating mixed content, the content to be included in the configuration can be reproduced, so that the content can be recognized and edited. And can easily create mixed contents as desired by the user. Therefore, the present invention has an unprecedented excellent effect that the quality of service of a provider providing services such as content registration and distribution can be improved.

本発明は、複数のコンテンツを混合編集して、混合コンテンツの作成を支援するシステムであり、特に、素材となるコンテンツを再生させつつユーザが必要なコンテンツ部分を選択できる点に特徴を有する。以下、具体的な構成及び動作を、実施例にて説明する。   The present invention is a system that supports the creation of mixed content by mixing and editing a plurality of contents, and is particularly characterized in that a user can select a necessary content portion while reproducing the content that is the material. Hereinafter, a specific configuration and operation will be described in Examples.

本発明の第1の実施例を、図1乃至図14を参照して説明する。図1乃至図5は、本発明におけるシステム及びコンピュータの構成を示す図である。図6乃至図8は、コンテンツ登録時の処理の様子を示す図である。図9乃至図13は、ユーザ端末に表示される画面の様子を示す図である。図14は、動作を示す図である。   A first embodiment of the present invention will be described with reference to FIGS. 1 to 5 are diagrams showing the configuration of a system and a computer according to the present invention. 6 to 8 are diagrams showing a state of processing at the time of content registration. 9 to 13 are views showing screens displayed on the user terminal. FIG. 14 is a diagram illustrating the operation.

[構成]
まず、本実施例におけるコンテンツ登録システムは、図1に示すように、コンテンツの登録及び配信を行うコンテンツ管理サーバ1と、コンテンツの作成及び登録や登録されているコンテンツの配信を受けるユーザ端末2と、他のコンテンツが登録され配信される素材サーバ3と、がインターネット等のネットワークNを介して接続されている。以下、各構成について詳述する。
[Constitution]
First, as shown in FIG. 1, a content registration system according to the present embodiment includes a content management server 1 that performs registration and distribution of content, and a user terminal 2 that receives creation and registration of content and distribution of registered content. The material server 3 to which other contents are registered and distributed is connected via a network N such as the Internet. Hereinafter, each configuration will be described in detail.

ユーザ端末2は、コンテンツの視聴、及び、コンテンツの登録・編集の操作入力を行うユーザが操作するパソコンやPDA、携帯電話等の情報処理端末である。そして、ユーザ端末2は、図2に示すように、コンテンツ管理サーバ1等と接続するための通信部21と、端末自体の動作を制御する制御装置22と、ユーザが作成したり所有しているMPEGやWindows Media方式でエンコードされた映像データそのもの(単一コンテンツ)が記憶されている映像データ記憶部23と、コンテンツの視聴画面や編集操作画面を表示するための表示部24と、ユーザが視聴時や編集時の操作を入力するための操作部25と、を備えている。   The user terminal 2 is an information processing terminal such as a personal computer, a PDA, or a mobile phone that is operated by a user who performs content input and operation input for content registration / editing. As shown in FIG. 2, the user terminal 2 is created or owned by the user, the communication unit 21 for connecting to the content management server 1 or the like, the control device 22 for controlling the operation of the terminal itself, and the user. A video data storage unit 23 storing video data itself (single content) encoded by MPEG or Windows Media, a display unit 24 for displaying a content viewing screen or an editing operation screen, and a user viewing And an operation unit 25 for inputting an operation at the time of editing.

そして、ユーザ端末2は、後述するように、ユーザの操作に応じてコンテンツ管理サーバ1にアクセスし、映像データそのものを登録したり、コンテンツ管理サーバ1や素材サーバ3等に登録されている他の映像データを利用してコンテンツを編集製作してコンテンツ管理サーバ1に登録したり、さらには、コンテンツ管理サーバ1に登録されている映像データの視聴を行う。なお、具体的な処理内容については、動作説明時に詳述する。   Then, as will be described later, the user terminal 2 accesses the content management server 1 in accordance with the user's operation, registers the video data itself, or other registered in the content management server 1 or the material server 3. The content is edited and produced using the video data and registered in the content management server 1, and further, the video data registered in the content management server 1 is viewed. Specific processing contents will be described in detail when the operation is described.

素材サーバ3は、ユーザ端末2などによって登録された映像データを蓄積し、また、配信を行うサーバコンピュータである。そして、素材サーバ3は、図3に示すように、コンテンツ登録システム等と接続するための通信部3と、サーバの動作を制御する制御装置32と、情報を記憶する記憶装置34と、を備えている。そして、特に、記憶装置34には、ユーザ端末2などから登録された映像データが記憶されている映像記憶部35が形成されており、この映像データをコンテンツ管理サーバ1やユーザ端末2からの要求に応じて、当該映像データを配信するコンテンツ配信処理部33が制御装置32に構築されている。なお、具体的な処理内容については、動作説明時に詳述する。   The material server 3 is a server computer that stores and distributes video data registered by the user terminal 2 or the like. As shown in FIG. 3, the material server 3 includes a communication unit 3 for connecting to a content registration system and the like, a control device 32 for controlling the operation of the server, and a storage device 34 for storing information. ing. In particular, the storage device 34 is formed with a video storage unit 35 in which video data registered from the user terminal 2 or the like is stored, and this video data is requested from the content management server 1 or the user terminal 2. Accordingly, a content distribution processing unit 33 that distributes the video data is built in the control device 32. Specific processing contents will be described in detail when the operation is described.

次に、コンテンツ管理サーバ1(情報処理装置)の構成について、図4乃至図5を参照して説明する。コンテンツ管理サーバ1は、コンテンツの登録及び配信を行う一般的なサーバコンピュータであり、図4に示すように、クライアント端末2や素材サーバ3と通信するための通信部1Aと、サーバ自体の動作を制御するCPUといった制御装置1Bと、情報を記憶するハードディスクなどの記憶装置1Cと、を備えている。そして、制御装置1Bには、所定のプログラムが組み込まれることで、登録受付処理部11と、コンテンツ解析処理部12と、メタ情報生成処理部13と、コンテンツ登録処理部14と、コンテンツ配信処理部15と、が構築されている。また、記憶装置1Cには、映像データ記憶部16と、コンテンツ情報記憶部17と、が形成されている。以下、各処理部11〜15及び各記憶部16,17についてさらに詳述する。   Next, the configuration of the content management server 1 (information processing apparatus) will be described with reference to FIGS. The content management server 1 is a general server computer that registers and distributes content. As shown in FIG. 4, the content management server 1 operates as a communication unit 1A for communicating with the client terminal 2 and the material server 3 and the operation of the server itself. A control device 1B such as a CPU for controlling and a storage device 1C such as a hard disk for storing information are provided. Then, by incorporating a predetermined program into the control device 1B, the registration acceptance processing unit 11, the content analysis processing unit 12, the meta information generation processing unit 13, the content registration processing unit 14, and the content distribution processing unit 15 is constructed. In addition, a video data storage unit 16 and a content information storage unit 17 are formed in the storage device 1C. Hereinafter, the processing units 11 to 15 and the storage units 16 and 17 will be described in more detail.

登録受付処理部11(コンテンツ受付手段)は、ユーザ端末2から映像データ(登録されるコンテンツ)の登録指令を受け付ける。具体的に、登録受付処理部11は、図5に示すように、新規登録処理部111と、編集登録処理部112と、を備えており、編集登録処理部112は、さらに、コンテンツ検索部113と、コンテンツ選択部114と、構成変更部115と、コンテンツ登録部116と、を備えている。なお、これら各部112〜116は、上述したように、制御装置1Bに所定のプログラムが組み込まれることによって実現される。   The registration reception processing unit 11 (content reception unit) receives a registration command for video data (content to be registered) from the user terminal 2. Specifically, as shown in FIG. 5, the registration reception processing unit 11 includes a new registration processing unit 111 and an edit registration processing unit 112, and the edit registration processing unit 112 further includes a content search unit 113. A content selection unit 114, a configuration change unit 115, and a content registration unit 116. Note that these units 112 to 116 are realized by incorporating a predetermined program into the control device 1B as described above.

新規登録処理部111は、ユーザ端末2から新規に映像データ(単一コンテンツ)の登録を受け付ける。例えば、ユーザ端末2に対して図9に示すような映像登録画面P101を送信し、かかる画面P101に入力されたユーザ名P102、コンテンツ名P103、映像データを指定するファイルパスP104、をユーザ端末2から受け付ける。つまり、登録される映像データを特定する情報(コンテンツ特定情報)を受け付けて、コンテンツ解析処理部12に渡す。なお、この新規登録処理部111では、図6のコンテンツ#1,#2,#3に示すように、映像データそのもの、つまり、一つの映像ファイルによる単一コンテンツにて構成されているデータを登録する場合に作動する。   The new registration processing unit 111 newly accepts registration of video data (single content) from the user terminal 2. For example, a video registration screen P101 as shown in FIG. 9 is transmitted to the user terminal 2, and the user name P102, the content name P103, and the file path P104 for designating video data input to the screen P101 are displayed. Accept from. That is, information (content specifying information) for specifying the registered video data is received and passed to the content analysis processing unit 12. In the new registration processing unit 111, as shown in the contents # 1, # 2, and # 3 in FIG. 6, the video data itself, that is, data composed of a single content by one video file is registered. It works when you do.

また、編集登録処理部112は、ユーザ端末2から複数の映像データが組み合わせられて製作される混合映像データ(混合コンテンツ)の作成・編集指令及び登録指令を受け付ける。例えば、ユーザ端末2に対して図10に示すような編集登録画面P201を送信し、かかる画面に入力される作成・編集指令を受け付けて編集対象となる映像データ等をユーザ端末2に送信し、また、編集が完了した混合コンテンツの構成を表す当該混合コンテンツを特定するコンテンツ特定情報を受け付ける。   Further, the edit registration processing unit 112 receives a creation / editing instruction and a registration instruction for mixed video data (mixed content) produced by combining a plurality of video data from the user terminal 2. For example, an edit registration screen P201 as shown in FIG. 10 is transmitted to the user terminal 2, a creation / edit command input on the screen is received, and video data to be edited is transmitted to the user terminal 2, In addition, content specifying information for specifying the mixed content representing the configuration of the mixed content that has been edited is received.

具体的に、編集登録画面P201は、編集操作部P202と、コンテンツ登録部P203と、コンテンツ構成部P204と、コンテンツ参照部P205と、により構成されている。そして、コンテンツ参照部P205では、上記コンテンツ検索部113(コンテンツ検索手段)が作動することにより、検索欄に入力された検索条件に基づいて、コンテンツ管理サーバ1や素材サーバ3に登録されている映像データであるコンテンツの検索及びその検索結果であるコンテンツ一覧表示を行う。   Specifically, the edit registration screen P201 includes an edit operation unit P202, a content registration unit P203, a content configuration unit P204, and a content reference unit P205. In the content reference unit P205, the video registered in the content management server 1 and the material server 3 based on the search condition input in the search field when the content search unit 113 (content search unit) operates. A search for content as data and a content list display as a search result are performed.

また、編集操作部P202では、コンテンツ選択部114(コンテンツ再生出力手段、コンテンツ選択手段、構成情報生成手段)が作動することにより、コンテンツ参照部P205(指定情報入力部)に表示されたコンテンツ名が選択されるなどコンテンツを指定する情報が入力されると、この指定されたコンテンツを動画再生画面P206(再生操作部)に再生表示する。このとき、映像操作ボタンP207(再生操作部)の操作により、コンテンツの再生、停止、早送り、巻き戻しが可能である。また、ユーザが指定されたコンテンツにおいて、コンテンツ再生中に、利用したい箇所(コンテンツ部分)を始点ボタンP208と終点ボタンP209(選択情報入力部)を押下し、追加ボタンP210を押下する。すると、始点ボタンP208(始点指定部(指定部))が押下されたときの再生箇所から、終点ボタンP209(終点指定部(指定部))が押下されたときの再生箇所までの部分が、混合コンテンツに追加される構成となるコンテンツ部分として特定される。そして、コンテンツ構成部P204(構成表示部)に、選択されたコンテンツが追加され、コンテンツ名と、選択された映像のコンテンツ始点からの相対時刻として開始時刻及び停止時刻とが、混合コンテンツの構成情報として表示される。そして、上記編集操作部P202での操作を繰り返すことで、複数のコンテンツを組み合わせることが可能となる。   In the editing operation unit P202, the content name displayed on the content reference unit P205 (designated information input unit) is changed by the operation of the content selection unit 114 (content reproduction output unit, content selection unit, configuration information generation unit). When information specifying content such as selection is input, the specified content is reproduced and displayed on the moving image reproduction screen P206 (reproduction operation unit). At this time, it is possible to play, stop, fast forward, and rewind the content by operating the video operation button P207 (playback operation unit). Further, in the content designated by the user, during the content reproduction, the start point button P208 and the end point button P209 (selection information input unit) are pressed for a portion (content part) to be used, and the add button P210 is pressed. Then, the part from the playback location when the start point button P208 (start point designation portion (designation portion)) is pressed to the playback location when the end point button P209 (end point designation portion (designation portion)) is pressed is mixed. It is specified as a content part to be added to the content. Then, the selected content is added to the content configuration unit P204 (configuration display unit), and the content name and the start time and the stop time as the relative time from the content start point of the selected video are the configuration information of the mixed content Is displayed. A plurality of contents can be combined by repeating the operation in the editing operation unit P202.

なお、上記では、混合コンテンツに含めたいコンテンツの所定部分を選択する方法として、コンテンツ再生中に始点ボタンP208及び終点ボタンP209(部分選択操作部(選択情報入力部))を押下して部分選択情報を入力する場合を例示したが、かかる操作にてコンテンツ部分を選択することに限定されず、コンテンツ部分の選択方法は任意である。例えば、所定のボタンを押下している間に再生されたコンテンツ部分が選択されるよう構成されていてもよく、再生されているコンテンツを視聴したユーザにて直接コンテンツの再生時刻が入力されてもよい。   In the above, as a method of selecting a predetermined part of the content to be included in the mixed content, the part selection information is pressed by pressing the start point button P208 and the end point button P209 (partial selection operation part (selection information input part)) during the content reproduction. However, the present invention is not limited to selecting the content portion by such an operation, and the method for selecting the content portion is arbitrary. For example, it may be configured such that a reproduced content portion is selected while a predetermined button is pressed, or a user who views the content being reproduced inputs the content reproduction time directly. Good.

また、コンテンツ構成部P204に表示される構成情報は、このコンテンツ構成部P204の画面上でユーザが操作して構成変更指令を入力することで、コンテンツの順番等を容易に変更可能である。例えば、コンテンツ構成部P204に表示されたコンテンツ番号を、任意の位置にドラッグ&ドロップすることで、ドロップされた順番にコンテンツが移動することとなる。また、コンテンツを選択して削除指令を入力することで削除したり、コンテンツリストからコンテンツ名をドラッグ&ドロップしてコンテンツ構成部P204に追加することも可能である。さらには、選択したコンテンツの利用する部分の選択や修正は、開始・停止時刻に直接入力することでも可能である。なお、上記構成変更機能は、構成変更部115(構成変更手段)が作動することで実現される。   In addition, the configuration information displayed on the content configuration unit P204 can be easily changed in content order and the like by the user operating the configuration information on the screen of the content configuration unit P204 and inputting a configuration change command. For example, by dragging and dropping the content number displayed on the content configuration unit P204 to an arbitrary position, the content moves in the order of dropping. It is also possible to delete the content by selecting the content and inputting a deletion command, or to add the content name to the content configuration unit P204 by dragging and dropping the content name from the content list. Furthermore, selection or correction of a portion used by the selected content can be directly input at the start / stop time. The configuration change function is realized by the configuration change unit 115 (configuration change means) operating.

編集操作が終了した場合、コンテンツ登録部P203で、登録するコンテンツ名P211を入力し、登録ボタンP212(登録操作部)を押下することで、コンテンツ構成部P204の内容がコンテンツ特定情報としてコンテンツ管理サーバ1に受け付けられ、編集されたコンテンツとして登録されるようコンテンツ解析処理部12に渡される。なお、すでに登録されたコンテンツを編集して新しい混合コンテンツを作成した例を、図7のコンテンツ#4及び図8のコンテンツ#5に示す。また、図11に、コンテンツ#4及びコンテンツ#5を編集登録する際に、図10の編集登録画面P201のコンテンツ構成部P204で表示されるイメージ図を示す。   When the editing operation is completed, the content registration unit P203 inputs the content name P211 to be registered, and the registration button P212 (registration operation unit) is pressed. 1 is passed to the content analysis processing unit 12 to be registered as edited content. An example of editing a previously registered content to create a new mixed content is shown in content # 4 in FIG. 7 and content # 5 in FIG. FIG. 11 shows an image diagram displayed on the content configuration unit P204 of the edit registration screen P201 of FIG. 10 when content # 4 and content # 5 are edited and registered.

上述したような編集登録画面P201により、ユーザは、混合コンテンツを作成する際に、構成としたいコンテンツを再生することができるため、その内容を認識した上で編集することができ、容易かつユーザが希望するよう作成することができる。また、コンテンツ部分の選択も、始点・終点ボタンを選択することで可能であるため、より簡易な操作となり、ユーザの操作性が向上しうる。さらに、表示されている構成情報上で混合コンテンツの構成変更指令を入力することで構成が変更されるため、混合コンテンツの編集が容易となり、ユーザのさらなる操作性の向上を図ることができる。   The edit registration screen P201 as described above allows the user to reproduce the content that the user wants to configure when creating the mixed content, so that the user can edit the content after recognizing the content. Can be created as desired. Further, since the content portion can be selected by selecting the start point / end point button, the operation becomes simpler and the operability for the user can be improved. Furthermore, since the configuration is changed by inputting a mixed content configuration change command on the displayed configuration information, editing of the mixed content is facilitated, and the user's operability can be further improved.

また、コンテンツ管理サーバ1のコンテンツ解析処理部12(コンテンツ解析手段)は、ユーザ端末2から送信された映像データ、つまり、図9に示した映像登録画面P101から登録された単一コンテンツ、及び、図10に示した編集登録画面P201から混合製作され送信された混合コンテンツの構成を表すシナリオを解析し、例えば、図6、図7、図8に示すように、コンテンツ#1〜#5のシナリオデータを生成する。具体的に、図6に示すコンテンツ#1のシナリオデータは、コンテンツ名がコンテンツ#1であり、開始時刻C1:t0(=0)から終了時刻C1:t3(相対時刻)までのコンテンツ要素がコンテンツ#1である、ことを示している。また、図7に示すコンテンツ#4のシナリオデータは、コンテンツ#3の時刻t1からt3まで、コンテンツ#1のt0からt1まで、コンテンツ#2のt1から2まで、コンテンツ#1のt2からt3まで、の各コンテンツ部分を結合して作成したことを示している。さらに、コンテンツ#5は、コンテンツ#4のt1からt4まで、コンテンツ#2のt3からt4まで、のコンテンツ部分を結合して作成したことを示している。なお、コンテンツ#1〜#3のように映像データが直接登録された場合には、映像データ自体はコンテンツ名と関連付けられて映像データ記録部16に記録される。   Further, the content analysis processing unit 12 (content analysis unit) of the content management server 1 includes the video data transmitted from the user terminal 2, that is, the single content registered from the video registration screen P101 illustrated in FIG. The scenario representing the configuration of the mixed content that is mixedly produced and transmitted from the edit registration screen P201 illustrated in FIG. 10 is analyzed. For example, as illustrated in FIGS. 6, 7, and 8, the scenarios of content # 1 to # 5 are analyzed. Generate data. Specifically, the scenario data of content # 1 shown in FIG. 6 has a content name of content # 1, and content elements from start time C1: t0 (= 0) to end time C1: t3 (relative time) are content. Shows that it is # 1. 7 includes content # 4 scenario data from time t1 to t3 of content # 3, from t0 to t1 of content # 1, from t1 to 2 of content # 2, and from t2 to t3 of content # 1. It shows that each content part of, was created by combining. Furthermore, content # 5 indicates that the content portions of content # 4 from t1 to t4 and content # 2 from t3 to t4 are combined and created. When the video data is directly registered as in the contents # 1 to # 3, the video data itself is recorded in the video data recording unit 16 in association with the content name.

また、コンテンツ管理サーバ1のメタ情報生成処理部13(メタ情報生成手段)は、上述した解析結果、つまり登録されるコンテンツのシナリオデータに基づいて、コンテンツ情報として登録されるメタ情報を生成する。このメタ情報は、主に、コンテンツ名と、コンテンツの構成を表すコンテンツリスト(コンテンツ構成情報)と、コンテンツの構成が単一コンテンツであるかあるいは複数のコンテンツが組み合わせられた混合コンテンツであるかを表すフラグ情報(混合有無情報)と、編集箇所を示す編集ポイント(編集情報)と、を含んでいる。具体的に、図6に示すコンテンツ#1の場合には、シナリオデータから単一コンテンツにて構成されていることがわかるため、そのメタ情報は、コンテンツ名がコンテンツ#1、元データであることを示すORGフラグ情報がTRUE、開始時刻C1:t0(=0)から終了時刻C1:t3(相対時刻)までのコンテンツ要素がコンテンツ#1、となる。   Further, the meta information generation processing unit 13 (meta information generation means) of the content management server 1 generates meta information registered as content information based on the analysis result described above, that is, scenario data of the registered content. This meta information mainly indicates the content name, the content list (content configuration information) representing the content configuration, and whether the content configuration is a single content or a mixed content in which a plurality of contents are combined. It includes flag information (mixed presence / absence information) and an edit point (edit information) indicating an edit location. Specifically, in the case of the content # 1 shown in FIG. 6, since it is understood from the scenario data that the content is composed of a single content, the meta information is that the content name is the content # 1 and the original data The content element from the start time C1: t0 (= 0) to the end time C1: t3 (relative time) is content # 1.

また、メタ情報生成処理部13は、登録されるコンテンツが混合コンテンツである場合に対応すべく、さらに、上記シナリオデータに基づいてそのコンテンツを構成する構成コンテンツを特定する構成コンテンツ特定部(図示せず:構成コンテンツ特定手段)と、当該構成コンテンツの既に登録されているメタ情報を読み取るメタ情報読取部(図示せず:メタ情報読取手段)と、読み取った構成コンテンツのメタ情報と解析結果とに基づいて登録されるコンテンツのコンテンツリスト(コンテンツ構成情報)を生成するコンテンツ構成情報生成部(図示せず:コンテンツ構成情報生成手段)と、を備えている。   Further, the meta information generation processing unit 13 further corresponds to a case where the registered content is a mixed content, and a configuration content specifying unit (not shown) that specifies the configuration content constituting the content based on the scenario data. Z: component content specifying means), a meta information reading unit (not shown: meta information reading means) for reading meta information already registered for the component content, and meta information and analysis result of the read component content A content configuration information generation unit (not shown: content configuration information generation means) that generates a content list (content configuration information) of the content registered based on the content list.

ここで、例えば、図7に示すコンテンツ#4のメタ情報を生成する場合を説明すると、まず、コンテンツ#4のシナリオデータからその構成を特定すると、コンテンツ#4は、コンテンツ#3、コンテンツ#1、コンテンツ#2、コンテンツ#1で構成されていることがわかる。そして、各構成コンテンツ#1〜#3のメタ情報を読み出してORGフラグ情報を調べると、図6に示すように全てTRUEで単一コンテンツであり、映像データそのものを参照していることから、コンテンツリストとして各コンテンツ名と開始時刻及び終了時刻が登録され、編集ポイントC4t2〜C4t4としては、コンテンツ#4の時刻として登録される。また、図8に示すコンテンツ#5の場合には、コンテンツ#4、コンテンツ#2で構成されており、コンテンツ#4のメタ情報#4のORGフラグ情報がFLASEであり、コンテンツ#4が編集コンテンツであることから、コンテンツ#5で参照しているコンテンツ#4の開始時刻と終了時刻から、該当時刻を算出し、該当時刻部分のメタ情報#4のコンテンツリストが登録されている(図8の矢印Y1参照)。また、編集ポイントとしても、コンテンツ#4の参照時刻に該当するC5:t1及びC5:t2はコンテンツ#4としての編集ポイントであるとして登録され、C5:t3は、コンテンツ#5としての編集ポイントとして登録される(図8の矢印Y2参照)。このように、メタ情報生成処理部13は、登録されるコンテンツ(上記ではコンテンツ#5)を構成する構成コンテンツ(上記ではコンテンツ#4)が混合コンテンツである場合には、当該構成コンテンツ(#4)のメタ情報に含まれるコンテンツリストの全部あるいは一部を、登録されるコンテンツ(#5)のコンテンツリストに含めてメタ情報を生成する。   Here, for example, the case of generating the meta information of the content # 4 shown in FIG. 7 will be described. First, when the configuration is specified from the scenario data of the content # 4, the content # 4 includes the content # 3 and the content # 1. , Content # 2 and content # 1. Then, when the meta information of each of the constituent contents # 1 to # 3 is read and the ORG flag information is examined, all the content is TRUE as shown in FIG. 6 and the video data itself is referred to. Each content name, start time, and end time are registered as a list, and edit points C4t2 to C4t4 are registered as the time of content # 4. Further, in the case of content # 5 shown in FIG. 8, it is composed of content # 4 and content # 2, the ORG flag information of meta information # 4 of content # 4 is FLASE, and content # 4 is edited content Therefore, the corresponding time is calculated from the start time and end time of the content # 4 referred to by the content # 5, and the content list of the meta information # 4 of the corresponding time portion is registered (FIG. 8). (See arrow Y1). Also, as edit points, C5: t1 and C5: t2 corresponding to the reference time of content # 4 are registered as edit points as content # 4, and C5: t3 is registered as an edit point as content # 5. Registered (see arrow Y2 in FIG. 8). As described above, when the constituent content (content # 4 in the above) that constitutes the registered content (content # 5 in the above) is a mixed content, the meta information generation processing unit 13 sets the constituent content (# 4). The meta information is generated by including all or part of the content list included in the meta information in the content list of the registered content (# 5).

以上のようにメタ情報を生成することで、各コンテンツのメタ情報内のコンテンツリストは、映像データが登録された単一コンテンツの組み合わせにて構成される。具体的には、各単一コンテンツを特定するコンテンツ名と、各コンテンツの利用されている部分を指定する時間情報と、により構成される。   By generating the meta information as described above, the content list in the meta information of each content is composed of a single content combination in which video data is registered. Specifically, it is composed of a content name that identifies each single content and time information that designates a portion of each content being used.

また、コンテンツ管理サーバ1のコンテンツ登録処理部14(メタ情報登録手段)は、上述したように生成したメタ情報を、コンテンツ情報としてコンテンツ情報記憶部17に登録する。   Also, the content registration processing unit 14 (meta information registration unit) of the content management server 1 registers the meta information generated as described above in the content information storage unit 17 as content information.

また、コンテンツ管理サーバ1のコンテンツ配信処理部15は、コンテンツの配信要求を受け付けるコンテンツ配信要求受付部(図示せず:コンテンツ配信要求受付手段)と、配信要求されたコンテンツの既に登録されているメタ情報を読み出し、当該メタ情報に含まれるコンテンツリストに基づいてコンテンツ配信処理を行うコンテンツ配信部(コンテンツ配信手段)と、を備えている。具体的には、ユーザ端末2からコンテンツ視聴の要求があると、図12に示すように、コンテンツ管理サーバ1から配信可能なコンテンツリストの表示画面をユーザ端末2に送信する。そして、ユーザ端末2は、コンテンツリストのうち、視聴を希望するコンテンツを選択することで、その要求がコンテンツ管理サーバ1に送信される。すると、コンテンツ管理サーバ1は、選択されたコンテンツのメタ情報をコンテンツ情報記憶部17から読み出して、このメタ情報のコンテンツリストに登録されている映像データのストリーミング配信を実行する。例えば、映像データ記憶部16に記憶されている映像データを配信したり、あるいは、素材サーバ3に記憶されている映像データの場合は当該素材サーバ3に配信指令を送る。なお、ユーザ端末2は、配信されたストリーミングデータを受信し、図8に示すような再生画面を表示部にて表示する。このとき、再生、停止、早送り、巻き戻し等の処理が可能である。   Further, the content distribution processing unit 15 of the content management server 1 includes a content distribution request receiving unit (not shown: content distribution request receiving unit) that receives a content distribution request, and a meta that has already been registered for the content requested to be distributed. A content distribution unit (content distribution unit) that reads information and performs content distribution processing based on a content list included in the meta information. Specifically, when a content viewing request is received from the user terminal 2, a display screen of a content list that can be distributed from the content management server 1 is transmitted to the user terminal 2 as shown in FIG. Then, the user terminal 2 selects a content desired to be viewed from the content list, and the request is transmitted to the content management server 1. Then, the content management server 1 reads out the meta information of the selected content from the content information storage unit 17 and executes streaming distribution of the video data registered in the content list of this meta information. For example, video data stored in the video data storage unit 16 is distributed, or in the case of video data stored in the material server 3, a distribution command is sent to the material server 3. The user terminal 2 receives the distributed streaming data and displays a playback screen as shown in FIG. 8 on the display unit. At this time, processes such as reproduction, stop, fast forward, and rewind are possible.

[動作]
次に、上記構成のコンテンツ登録システム、主に、コンテンツ管理サーバ1の動作を、図14のフローチャート、及び、その他の図を参照して説明する。
[Operation]
Next, the operation of the content registration system having the above configuration, mainly the content management server 1, will be described with reference to the flowchart of FIG. 14 and other drawings.

まず、ユーザ端末2は、ネットワークNにおいて、IPアドレスやURLを指定し、コンテンツ管理サーバ1に接続する。すると、コンテンツ管理サーバ1の登録受付処理部11は、ユーザ端末2からの接続要求に対し、図9に示す映像登録処理画面P101を送信する。   First, the user terminal 2 designates an IP address or URL in the network N and connects to the content management server 1. Then, the registration acceptance processing unit 11 of the content management server 1 transmits a video registration processing screen P101 shown in FIG. 9 in response to the connection request from the user terminal 2.

ユーザ端末2は、受信した映像登録処理画面P101を表示部24に表示する。ユーザは、映像登録処理画面P101上にて、ユーザ名をユーザ名入力欄P102、登録するコンテンツ名をコンテンツ名入力欄P103に入力し、登録する映像データをファイル指定P104で指定した後、登録ボタンP105を押下する。登録ボタンP105が押下された事を契機に、ユーザ名入力欄P102に入力されたユーザ名、コンテンツ名入力欄P103に入力されたコンテンツ名と、ファイル指定欄P104で指定された映像データを、コンテンツ管理サーバ1に送信する。   The user terminal 2 displays the received video registration processing screen P101 on the display unit 24. On the video registration processing screen P101, the user inputs the user name in the user name input field P102, the content name to be registered in the content name input field P103, specifies the video data to be registered in the file specification P104, and then the registration button. Press P105. When the registration button P105 is pressed, the user name input in the user name input field P102, the content name input in the content name input field P103, and the video data specified in the file specification field P104 It transmits to the management server 1.

すると、コンテンツ管理サーバ1の登録受付処理部11は、上記情報を受け付けて(ステップS1、コンテンツ受付工程)、コンテンツ解析処理部12に渡す。そして、コンテンツ解析処理部12は、受信した情報を解析してシナリオデータを生成し(ステップS2、コンテンツ解析工程)、映像データとコンテンツ名を関連付けて映像データ記憶部16に記録する。また、コンテンツ解析処理部12は、上記シナリオデータをメタ情報生成処理部13に渡す。すると、メタ情報生成処理部18は、シナリオデータに基づいてメタ情報を生成し(ステップS3,S4、メタ情報生成工程)、コンテンツ情報記憶部17に記録する(ステップS5でノー、ステップS13、コンテンツ登録工程)。   Then, the registration acceptance processing unit 11 of the content management server 1 accepts the above information (step S1, content acceptance process) and passes it to the content analysis processing unit 12. Then, the content analysis processing unit 12 analyzes the received information to generate scenario data (step S2, content analysis step), associates the video data with the content name, and records them in the video data storage unit 16. The content analysis processing unit 12 passes the scenario data to the meta information generation processing unit 13. Then, the meta information generation processing unit 18 generates meta information based on the scenario data (steps S3 and S4, meta information generation step) and records it in the content information storage unit 17 (No in step S5, step S13, content) Registration process).

ここで、図6は、コンテンツとして登録される映像データと、そのシナリオデータ、またメタ情報のイメージを示す概念図である。図6において、コンテンツ#1、#2、及び#3は、ユーザが所有する映像データのコンテンツ構成を示すイメージ図である。そして、メタ情報#1は、コンテンツ名がコンテンツ#1、元データであることを示すORGフラグがTRUE、開始時刻C1:t0(=0)から終了時刻C1:t3(相対時刻)までのコンテンツ要素が、コンテンツ#1であることを示している。なお、コンテンツ#2,#3の場合も同様である。   Here, FIG. 6 is a conceptual diagram showing video data registered as content, its scenario data, and an image of meta information. In FIG. 6, contents # 1, # 2, and # 3 are image diagrams showing a content structure of video data owned by the user. The meta information # 1 is a content element whose content name is content # 1, the ORG flag indicating TRUE is true, and from the start time C1: t0 (= 0) to the end time C1: t3 (relative time) Indicates content # 1. The same applies to the contents # 2 and # 3.

次に、登録されたコンテンツを編集してコンテンツの混合制作する場合の動作について説明する。まず、ユーザ端末2は、ネットワーク4において、IPアドレスやURL等を指定し、編集用の登録受付処理部11、つまり、図5に示す編集登録処理部112に接続する。   Next, an operation in the case of editing the registered content and producing a mixed content will be described. First, in the network 4, the user terminal 2 designates an IP address, a URL, and the like, and connects to the registration reception processing unit 11 for editing, that is, the editing registration processing unit 112 shown in FIG.

編集登録処理部112は、ユーザ端末2からの接続要求に対し、図10に示す編集登録画面P201を送信する。ユーザ端末2は、受信した編集登録画面P201を表示部24に表示する。ユーザは、編集登録画面上で、操作部25を介して操作することで、コンテンツの参照、編集及び登録操作を行う。ここで、図10を参照して、ユーザ端末2における編集登録画面P201のユーザ操作を説明する。まず、コンテンツ参照部P205では、コンテンツの検索及びそのリスト参照が可能であり、コンテンツ名検索欄にコンテンツ名を入力して検索ボタンを押下すると、コンテンツ記録手段に記録されているコンテンツが検索されて、コンテンツ参照部P205に表示される(コンテンツ検索工程)。また、ネットワークNで接続されている一般的な素材サーバ3に記録されているコンテンツも、直接URL等を指定することは可能である。そして、コンテンツ参照部P205に表示されたコンテンツ名を選択すると、編集操作部P202で動画再生画面に再生表示される(コンテンツ再生出力工程)。映像操作ボタンP207の操作により、コンテンツの再生、停止、早送り、巻き戻しが可能である。そして、ユーザが指定されたコンテンツにおいて、利用したい箇所をコンテンツ再生中に始点ボタンP208と、終点ボタンP209で選択指定し、追加ボタンP210を押下することで、コンテンツ構成部P204に選択されたコンテンツが追加され(コンテンツ選択工程)、コンテンツ名と、選択された映像のコンテンツ始点からの相対時刻として開始時刻及び停止時刻と、の組み合わせからなる混合コンテンツの構成情報が生成され、表示される。そして、編集操作部P202での操作を繰り返すことで、複数のコンテンツを組み合わせることが可能となる。編集操作が終了した場合、コンテンツ登録部P203で、登録するコンテンツ名P211を入力し、登録ボタンP212を押下すると、コンテンツ管理サーバ1に送信されて、編集されたコンテンツとして登録される。なお、コンテンツの構成情報を変更する場合には、コンテンツ構成部P204上で、例えば、コンテンツ名表示をドラッグ&ドロップしてその順序を入れ替えたり、コンテンツ名上で削除指令を入力して構成情報内から削除するなど、所定の構成変更指令を入力することで、コンテンツの変更が可能となる(構成変更工程)。   In response to the connection request from the user terminal 2, the edit registration processing unit 112 transmits an edit registration screen P201 shown in FIG. The user terminal 2 displays the received edit registration screen P201 on the display unit 24. The user operates the operation registration unit 25 on the edit registration screen to perform content reference, editing, and registration operations. Here, with reference to FIG. 10, a user operation on the edit registration screen P201 in the user terminal 2 will be described. First, the content reference unit P205 can search for content and refer to the list. When the content name is entered in the content name search field and the search button is pressed, the content recorded in the content recording means is searched. Is displayed on the content reference part P205 (content search step). In addition, it is possible to directly specify a URL or the like for content recorded in a general material server 3 connected via the network N. Then, when the content name displayed on the content reference part P205 is selected, it is reproduced and displayed on the moving image reproduction screen by the editing operation part P202 (content reproduction output step). By operating the video operation button P207, it is possible to play, stop, fast forward, and rewind the content. Then, in the content designated by the user, the portion to be used is selected and designated by the start point button P208 and the end point button P209 during content playback, and the add button P210 is pressed, so that the selected content is displayed in the content configuration unit P204. The content information is added (content selection step), and composition information of the mixed content including a combination of the content name and the start time and the stop time as a relative time from the content start point of the selected video is generated and displayed. A plurality of contents can be combined by repeating the operation in the editing operation unit P202. When the editing operation is completed, the content registration unit P203 inputs the content name P211 to be registered, and when the registration button P212 is pressed, it is transmitted to the content management server 1 and registered as edited content. When changing the content configuration information, for example, the content name display is dragged and dropped on the content configuration unit P204 to change the order thereof, or a deletion command is input on the content name to enter the content information. The content can be changed by inputting a predetermined configuration change command such as deleting from (content changing step).

ここで、図7のコンテンツ#4及び図8のコンテンツ#5は、登録されたコンテンツを編集して新しいコンテンツを作成した例である。コンテンツ#4は、コンテンツ#3の時刻t1からt3まで、コンテンツ#1のt0からt1まで、コンテンツ#2のt1から2まで、コンテンツ#1のt2からt3まで、を結合して作成したコンテンツである。コンテンツ#5は、コンテンツ#4のt1からt4まで、コンテンツ#2のt3からt4までを結合して作成したコンテンツである。また、図11は、コンテンツ#4及びコンテンツ#5を編集登録する際に、図10の編集登録画面のコンテンツ構成部P204で表示されるイメージ図である。   Here, content # 4 in FIG. 7 and content # 5 in FIG. 8 are examples in which the registered content is edited to create a new content. Content # 4 is content created by combining content # 3 from time t1 to t3, content # 1 from t0 to t1, content # 2 from t1 to 2, and content # 1 from t2 to t3 is there. Content # 5 is content created by combining content # 4 from t1 to t4 and content # 2 from t3 to t4. FIG. 11 is an image diagram displayed on the content configuration unit P204 of the edit registration screen of FIG. 10 when content # 4 and content # 5 are edited and registered.

続いて、コンテンツ管理サーバ1の登録受付処理部11である編集登録処理部112は、登録ボタンP212が押下されたのを契機に編集内容を表すコンテンツ構成部P204の構成情報を受け付けて(ステップS1、コンテンツ受付工程)、コンテンツを解析し、シナリオデータを生成する(ステップS2、コンテンツ解析工程)。なお、図7及び図8のシナリオデータ#4及び#5は、それぞれコンテンツ#4及び#5のシナリオデータである。   Subsequently, the edit registration processing unit 112, which is the registration reception processing unit 11 of the content management server 1, receives the configuration information of the content configuration unit P204 indicating the editing content when the registration button P212 is pressed (step S1). , Content reception step), analyze the content, and generate scenario data (step S2, content analysis step). Note that scenario data # 4 and # 5 in FIGS. 7 and 8 are scenario data of contents # 4 and # 5, respectively.

そして、メタ情報生成処理部13は、上記シナリオデータに基づいて、コンテンツのメタ情報を生成する(メタ情報生成工程)。以下、メタ情報生成処理部13でのメタ情報を生成する動作について、さらに詳細に説明する。まず、メタ情報生成処理部13は、コンテンツ解析処理部12からシナリオデータを受信する(ステップS3)。メタ情報生成処理部13は、シナリオデータ#4から、時間とコンテンツ名を参照する(ステップS4、構成コンテンツ特定工程)。そして、シナリオデータにコンテンツ名の有無を判定し(ステップS5)、コンテンツ名が存在する場合は(ステップS5にてイエス)、コンテンツ情報記憶部17から、コンテンツ名を指定して、該当コンテンツ名のメタ情報を読み出し(メタ情報読取工程)、メタ情報内のORGフラグ情報を参照する(ステップS6)。次に、ORGフラグ情報の判定処理を行い(ステップS7)、ORGフラグがTRUEの場合は、該当コンテンツが単一データであることから、メタ情報のコンテンツリストを該当コンテンツ名とする(ステップS8、コンテンツ構成情報生成工程)。また、該当コンテンツの終了時刻を編集ポイント(編集情報)として、該当コンテンツ名+終了時刻とする(ステップS9)。   Then, the meta information generation processing unit 13 generates content meta information based on the scenario data (meta information generation step). Hereinafter, the operation of generating meta information in the meta information generation processing unit 13 will be described in more detail. First, the meta information generation processing unit 13 receives scenario data from the content analysis processing unit 12 (step S3). The meta information generation processing unit 13 refers to the time and content name from the scenario data # 4 (step S4, constituent content specifying step). Then, the presence / absence of a content name is determined in the scenario data (step S5). If the content name exists (Yes in step S5), the content name is designated from the content information storage unit 17, and the content name is determined. The meta information is read (meta information reading step), and the ORG flag information in the meta information is referred to (step S6). Next, determination processing of ORG flag information is performed (step S7). If the ORG flag is TRUE, the corresponding content is a single data, so the content list of the meta information is set as the corresponding content name (step S8, Content configuration information generation step). Further, the end time of the corresponding content is set as an edit point (edit information), and the content name + end time is set (step S9).

ORGフラグの判定処理(ステップS7)において、ORGフラグがFALSEの場合は(ステップS7にてノー)、該当コンテンツのメタ情報内コンテンツリストを参照する(ステップS10)。そして、シナリオデータで指定されたコンテンツの開始時刻から、終了時刻内と合致するメタ情報内のコンテンツリストの時刻を算出し、メタ情報内のコンテンツ名を、生成するメタ情報内に登録する(ステップS11)。また、シナリオデータで指定された開始時刻から終了時刻内の編集ポイントを、生成するメタ情報の編集ポイントとして登録する(ステップS12)。   In the ORG flag determination process (step S7), if the ORG flag is FALSE (No in step S7), the content list in the meta information of the corresponding content is referred to (step S10). Then, the time of the content list in the meta information that matches the end time is calculated from the start time of the content specified by the scenario data, and the content name in the meta information is registered in the generated meta information (step S11). Also, edit points within the start time and end time specified by the scenario data are registered as edit points of the meta information to be generated (step S12).

ここで、図7及び図8のメタ情報#4及び#5は、夫々コンテンツ#4及び#5のメタ情報である。メタ情報#4は、コンテンツ#4が、コンテンツ#3、コンテンツ#1、コンテンツ#2、コンテンツ#1で構成され、参照しているコンテンツのORGフラグが全てTRUEで、映像データそのものを参照していることから、コンテンツリストとして各コンテンツ名と開始時刻及び終了時刻が登録され、編集ポイントとしては、コンテンツ#4の時刻として登録されている。また、メタ情報#5は、コンテンツ#5が、コンテンツ#4、コンテンツ#2で構成され、コンテンツ#4のメタ情報#4のORGフラグがFLASEであり、コンテンツ#4が編集コンテンツであることから、コンテンツ#5で参照しているコンテンツ#4の開始時刻と終了時刻から、該当時刻を算出し、該当時刻部分のメタ情報#4のコンテンツリストが登録されている。また編集ポイントとしても、コンテンツ#4の参照時刻に該当するC5:t1及びC5:t2はコンテンツ#4としての編集ポイントであるとして登録され、C5:t3は、コンテンツ#5としての編集ポイントとして登録される。   Here, meta information # 4 and # 5 in FIGS. 7 and 8 are meta information of contents # 4 and # 5, respectively. Meta information # 4 consists of content # 4, content # 3, content # 1, content # 2, and content # 1, and all the ORG flags of the referenced content are TRUE, referring to the video data itself. Therefore, each content name, start time, and end time are registered as a content list, and an edit point is registered as the time of content # 4. Meta information # 5 is composed of content # 5, content # 4 and content # 2, the ORG flag of meta information # 4 of content # 4 is FLASE, and content # 4 is edited content The corresponding time is calculated from the start time and end time of the content # 4 referenced by the content # 5, and the content list of the meta information # 4 of the corresponding time portion is registered. Also, as editing points, C5: t1 and C5: t2 corresponding to the reference time of content # 4 are registered as editing points as content # 4, and C5: t3 is registered as editing point as content # 5. Is done.

そして、以上のようにして生成されたメタ情報を、コンテンツ情報として、コンテンツ管理サーバ1のコンテンツ情報記憶部17に記録する(ステップS5でノー、ステップS13、コンテンツ登録工程)。   Then, the meta information generated as described above is recorded as content information in the content information storage unit 17 of the content management server 1 (No in step S5, step S13, content registration step).

次に、コンテンツ視聴時の動作について説明する。ユーザ端末2は、ネットワークNにおいて、IPアドレスやURLを指定し、コンテンツ管理サーバ1に接続する。すると、コンテンツ管理サーバ1のコンテンツ配信処理部15は、ユーザ端末2からの接続要求に対し、コンテンツリストを送信する。ユーザ端末2は、コンテンツリストを表示部24に表示する。ここで、図12は、ユーザ端末2の表示部24に表示されるコンテンツリストのイメージ図である。   Next, the operation when viewing content will be described. The user terminal 2 specifies an IP address or URL in the network N and connects to the content management server 1. Then, the content distribution processing unit 15 of the content management server 1 transmits a content list in response to a connection request from the user terminal 2. The user terminal 2 displays the content list on the display unit 24. Here, FIG. 12 is an image diagram of a content list displayed on the display unit 24 of the user terminal 2.

その後、コンテンツリスト上で、ユーザが視聴したいコンテンツを選択した場合、コンテンツ管理サーバ1のコンテンツ配信処理部15は、コンテンツ情報記憶部17から、該当コンテンツのメタ情報を読み出し、このメタ情報のコンテンツリストに従ってコンテンツの配信を実行する。つまり、コンテンツリストの順番に、該当するコンテンツの該当部分をストリーミング配信する。例えば、参照するコンテンツ管理サーバ1の映像データ記憶部16に記憶されている映像データを、当該記憶装置1Cから読み出してユーザ端末2にストリーミング配信し、ネットワークN上の素材サーバ3など他のコンピュータに記憶されている映像データについては、各コンピュータに配信指令することで、ユーザ端末2にストリーミング配信する。すると、ユーザ端末2は、配信されたストリーミングデータを受信し、表示部24にて再生する。図13は、ユーザ端末2の表示部24に表示されるコンテンツ再生画面のイメージ図である。ユーザは、コンテンツ再生画面において、再生、停止、早送り、巻き戻しの処理が可能である。   Thereafter, when the user selects content to view on the content list, the content distribution processing unit 15 of the content management server 1 reads the meta information of the corresponding content from the content information storage unit 17, and the content list of this meta information According to the above, content distribution is executed. That is, the corresponding part of the corresponding content is streamed in the order of the content list. For example, the video data stored in the video data storage unit 16 of the content management server 1 to be referred to is read from the storage device 1C and streamed to the user terminal 2 to be transmitted to another computer such as the material server 3 on the network N. The stored video data is streamed to the user terminal 2 by instructing distribution to each computer. Then, the user terminal 2 receives the distributed streaming data and reproduces it on the display unit 24. FIG. 13 is an image diagram of a content reproduction screen displayed on the display unit 24 of the user terminal 2. The user can perform playback, stop, fast forward, and rewind on the content playback screen.

以上のように、本実施例によると、メタ情報が生成されたコンテンツが別のコンテンツに組み込まれて混合コンテンツが構成される場合には、その構成コンテンツのメタ情報を参照することで、新たに登録される混合コンテンツの構成情報の作成及び登録が容易となる。そして、特に、混合コンテンツの構成を表すメタ情報内のコンテンツリストが映像データそのものを参照するよう構成されるため、動画などの大容量のデータを重複して記憶する必要が無く、システムの記録容量を削減できると共に、コンテンツの再生時の元データの参照が複雑ではないため、再生の遅延を防止することができる。   As described above, according to the present embodiment, when the content in which the meta information is generated is incorporated into another content to form a mixed content, a new content can be obtained by referring to the meta information of the configuration content. It becomes easy to create and register the composition information of the mixed content to be registered. In particular, since the content list in the meta information representing the configuration of the mixed content is configured to refer to the video data itself, there is no need to store a large amount of data such as a moving image, and the recording capacity of the system Since the reference of the original data at the time of content reproduction is not complicated, it is possible to prevent a reproduction delay.

次に、本発明の第2の実施例を、図15乃至図20を参照して説明する。図15は、本実施例におけるコンテンツ管理サーバの構成を示す機能ブロック図であり、図16乃至図18は、コンテンツ管理サーバに記憶される情報の一例を示す図である。図19乃至図20は、コンテンツ管理サーバの一部の動作を示すフローチャートである。   Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 15 is a functional block diagram illustrating the configuration of the content management server in the present embodiment, and FIGS. 16 to 18 are diagrams illustrating examples of information stored in the content management server. 19 to 20 are flowcharts showing a part of the operation of the content management server.

[構成]
まず、本実施例におけるコンテンツ管理サーバ200は、実施例1にて説明したコンテンツ管理サーバ1とほぼ同様の構成を採っている。つまり、図15に示すように、通信部200A、各処理部211〜215が構築された制御装置200B、各記憶部216,217が形成された記憶装置200C、を備えている。そして、さらに、本実施例では、制御装置200Bに所定のプログラムが組み込まれることにより、コンテンツ価値算出処理部221が構築され、また、記憶装置200Cには、ユーザ情報記憶部222が形成されている。また、実施例1と同様の各処理部211〜215あるいは各記憶部216,217にも、以下に説明する新たな機能が装備されている。
[Constitution]
First, the content management server 200 in the present embodiment has a configuration substantially similar to that of the content management server 1 described in the first embodiment. That is, as shown in FIG. 15, the communication unit 200A, the control device 200B in which the processing units 211 to 215 are constructed, and the storage device 200C in which the storage units 216 and 217 are formed are provided. Further, in the present embodiment, a content value calculation processing unit 221 is constructed by incorporating a predetermined program into the control device 200B, and a user information storage unit 222 is formed in the storage device 200C. . In addition, the processing units 211 to 215 or the storage units 216 and 217 similar to those in the first embodiment are also equipped with new functions described below.

まず、本実施例における登録受付処理部211は、ユーザ端末2からコンテンツの登録要求があったときに、記憶装置220Cのユーザ情報記憶部222(作成者情報記憶手段)に、図16に示すようなユーザ情報(コンテンツ作成者情報)を記憶する。このユーザ情報は、ユーザ名と、各ユーザに対してフィードバックされるポイント数と、当該ユーザが作成・編集したコンテンツ名と、が関連付けられて登録されている。なお、上記ポイント数とは、後述するように、各ユーザが作成したコンテンツの価値を表すポイントとなる。   First, when receiving a content registration request from the user terminal 2, the registration reception processing unit 211 in the present embodiment stores the user information storage unit 222 (creator information storage unit) of the storage device 220C as shown in FIG. User information (content creator information) is stored. This user information is registered in association with the user name, the number of points fed back to each user, and the content name created and edited by the user. The number of points is a point representing the value of content created by each user, as will be described later.

また、本実施例におけるメタ情報生成処理部213は、上述したメタ情報を生成すると共に、各コンテンツが作成されたことに対する価値情報を生成する機能(価値情報生成手段)を有する。例えば図17のコンテンツ価値情報に示すように、上述したようにコンテンツ解析処理部212の解析結果に応じて生成されたメタ情報と、上記ユーザ情報記憶部222に記憶されたユーザ情報(図16参照)とに基づいて、各コンテンツの価値がどのユーザに帰属するか、を判定して登録する。具体的には、コンテンツリストに含まれるコンテンツ毎に当該コンテンツが生成されたことに対する価値を表すコンテンツ価値(CV:コンテンツ生成価値情報)を生成する機能(生成価値付与手段)と、混合されたコンテンツ毎に混合編集されたことに対する価値を表す編集価値(EV:コンテンツ編集価値情報)を生成する機能(編集価値付与手段)と、を備えている。そして、図17に示すように、コンテンツ価値(CV)は、コンテンツの相対時刻とその時刻に対するコンテンツ価値を保有するユーザ名とを組み合わせた情報から成り、編集価値(EV)は、編集ポイントの時刻とその編集者であるユーザ名とを組み合わせた情報から成る。   In addition, the meta information generation processing unit 213 in the present embodiment has a function (value information generation means) that generates the above-described meta information and also generates value information corresponding to the creation of each content. For example, as shown in the content value information of FIG. 17, as described above, the meta information generated according to the analysis result of the content analysis processing unit 212 and the user information stored in the user information storage unit 222 (see FIG. 16). ) And to which user the value of each content belongs is determined and registered. Specifically, for each content included in the content list, content (CV: content generation value information) that represents the value for generating the content, and mixed content And a function (edit value adding means) for generating an edit value (EV: content edit value information) representing the value of being mixed and edited every time. As shown in FIG. 17, the content value (CV) is composed of information obtained by combining the relative time of the content and the user name having the content value for the time, and the editing value (EV) is the time of the editing point. And the name of the user who is the editor.

ここで、コンテンツ価値情報の生成例を、図17を参照して説明する。まず、ユーザAがC1t3時間のデータ長があるコンテンツ#1として、映像データを登録した場合には、上述したように生成したメタ情報#1を参照すると、ORGフラグ=TRUEであるため、映像価値として、コンテンツ内の開始時刻C1:t0からC1:t3までの映像価値は、ユーザAに帰属するものとして登録する。また、コンテンツ#4のコンテンツ価値情報#4は、メタ情報#4からコンテンツ名を参照し、該当コンテンツのユーザ情報をユーザ情報記憶部222からユーザ情報を参照し、CVとして、各コンテンツのユーザ名、ユーザA、ユーザB、ユーザCが登録され、EVとしてコンテンツ#4の編集者であるユーザDが登録されている。また、コンテンツ#5のコンテンツ価値情報#5は、当該コンテンツ#5がコンテンツ#4を利用している為、CVとしてコンテンツ#4で利用しているコンテンツ#3、コンテンツ#2、コンテンツ#1のユーザC、ユーザB、ユーザAが登録されている。EVとしては、コンテンツ#4の編集ポイントが含まれる為、C5:t1及びC5:t2は、ユーザDとして登録され、C5:t3はコンテンツ#5の編集ポイントである為、ユーザEとして登録されている。なお、EVを生成する場合には、上述したメタ情報に含まれる編集情報である編集ポイントが参照される。   Here, an example of generating content value information will be described with reference to FIG. First, when video data is registered as content # 1 having a data length of C1t3 hours when user A refers to meta information # 1 generated as described above, since the ORG flag is TRUE, the video value The video value from the start time C1: t0 to C1: t3 in the content is registered as belonging to the user A. The content value information # 4 of the content # 4 refers to the content name from the meta information # 4, refers to the user information of the corresponding content from the user information storage unit 222, and uses the user name of each content as CV. , User A, user B, and user C are registered, and user D who is an editor of content # 4 is registered as EV. Also, the content value information # 5 of the content # 5 includes the content # 3, the content # 2, and the content # 1 used as the CV as the content # 4 because the content # 5 uses the content # 4. User C, user B, and user A are registered. Because EV includes edit points for content # 4, C5: t1 and C5: t2 are registered as user D, and C5: t3 is registered as user E because C5: t3 is an edit point for content # 5 Yes. When generating an EV, an edit point that is edit information included in the meta information described above is referred to.

また、本実施例におけるコンテンツ価値算出処理部221は、上述したように生成した登録したコンテンツ毎のコンテンツ価値情報に基づいて、価値情報の値(フィードバックポイント)を算出する機能を有する。つまり、このコンテンツ価値算出処理部221は、上記メタ情報生成処理部213と協働して、価値情報生成手段として機能する。ここで、フィードバックポイントの算出例を図18を参照して説明する。   In addition, the content value calculation processing unit 221 according to the present embodiment has a function of calculating a value (feedback point) of value information based on the content value information for each registered content generated as described above. That is, the content value calculation processing unit 221 functions as a value information generation unit in cooperation with the meta information generation processing unit 213. Here, an example of calculating feedback points will be described with reference to FIG.

本実施例においては、フィードバックポイントは、コンテンツの視聴状況に応じて算出される。まず、本実施例におけるコンテンツ配信処理部215では、ユーザ端末2による各コンテンツの視聴状況、例えば、コンテンツ単位に、視聴範囲を視聴開始時刻から終了時刻とした視聴履歴情報を、コンテンツ価値算出処理部221に通知する。   In the present embodiment, the feedback point is calculated according to the viewing state of the content. First, in the content distribution processing unit 215 in the present embodiment, the viewing status information of each content by the user terminal 2, for example, viewing history information in which the viewing range is the viewing start time to the end time for each content, 221 is notified.

そして、コンテンツ価値算出処理部221は、上記受信した視聴情報に基づいて、コンテンツ情報記憶部217から該当コンテンツのコンテンツ価値情報を読み出す。そして、視聴履歴情報の視聴時刻と、コンテンツ価値情報を比較判定し、該当コンテンツの価値を保有するユーザへのポイントを算出する。さらに映像データの保有者であるコンテンツ価値(CV)と、編集者が創出した編集価値(EV)に任意の係数をポイントとして計上し、これらのポイントを、ユーザへのポイントフィードバックとして、ユーザ情報記憶部222に登録する。このように、視聴履歴情報の視聴時刻に基づいて価値を算出するため、コンテンツが実際に配信され視聴された部分のみ、ポイントがフィードバックされる。   Then, the content value calculation processing unit 221 reads the content value information of the corresponding content from the content information storage unit 217 based on the received viewing information. Then, the viewing time of the viewing history information and the content value information are compared and determined, and points to the user who holds the value of the corresponding content are calculated. Furthermore, any coefficient is recorded as points in the content value (CV), which is the owner of the video data, and the editing value (EV) created by the editor, and these points are stored as user feedback as user feedback. Registered in the unit 222. Thus, in order to calculate the value based on the viewing time of the viewing history information, the points are fed back only for the part where the content is actually distributed and viewed.

ここで、図18に、コンテンツ#5の視聴履歴と、その視聴履歴から得られる視聴範囲内で、どのコンテンツが視聴されたかどうかを判定し計上した視聴履歴カウント値と、ポイントフィードバックの算出結果との一例を示す。図18では、例としてコンテンツ#5の視聴履歴#1と視聴履歴#2の2回の視聴に関して示されている。視聴履歴#1と視聴履歴#2と、コンテンツ価値情報#5を参照し、コンテンツ価値情報#5のCVで指定された時間内で視聴された場合、該当ユーザに対してポイントを加算する。次にEVで指定された時刻が視聴された場合、該当ユーザに対してポイントを加算する。これらの加算結果として、視聴履歴カウント値#wt1、視聴履歴カウント値#2となる。これらのカウント値と、コンテンツ価値係数rCVと編集価値係数rEVと、コンテンツ時間に対する視聴時間比を乗算した結果として、ユーザ単位のポイントフィードバックとして算出する。例として、rCV=0.6、rEV=0.4とした結果が、図18の視聴履歴#1のポイントフィードバック値#wt1と、ポイントフィードバック値#wt2である。   Here, FIG. 18 shows the viewing history of the content # 5, the viewing history count value that is determined by counting which content is viewed within the viewing range obtained from the viewing history, the calculation result of the point feedback, An example is shown. In FIG. 18, as an example, two viewings of viewing history # 1 and viewing history # 2 of content # 5 are shown. With reference to the viewing history # 1, viewing history # 2, and content value information # 5, if viewing is performed within the time specified by the CV of the content value information # 5, points are added to the corresponding user. Next, when the time designated by EV is viewed, points are added to the corresponding user. As a result of these additions, a viewing history count value # wt1 and a viewing history count value # 2 are obtained. As a result of multiplying the count value, the content value coefficient rCV, the edit value coefficient rEV, and the viewing time ratio with respect to the content time, it is calculated as a point feedback for each user. As an example, the results of rCV = 0.6 and rEV = 0.4 are the point feedback value # wt1 and the point feedback value # wt2 of the viewing history # 1 in FIG.

なお、上述したように算出されたポイントフィードバック値は、例えば、所定の店舗(オンラインショップなど)で商品を購入できるポイントとして利用でき、各ユーザに対して還元される。   Note that the point feedback value calculated as described above can be used as a point at which a product can be purchased at a predetermined store (such as an online shop), and is returned to each user.

[動作]
次に、上記構成のコンテンツ登録システム、主に、コンテンツ管理サーバ220の動作を、図14、図19、図20のフローチャート、及び、その他の図を参照して説明する。なお、メタ情報を登録するまでの動作は、上述した実施例1の場合とほぼ同様であるため、簡単に説明する。
[Operation]
Next, the operation of the content registration system configured as described above, mainly the operation of the content management server 220, will be described with reference to the flowcharts of FIGS. 14, 19, and 20, and other drawings. The operation until registering the meta information is almost the same as that in the first embodiment, and will be described briefly.

まず、ユーザ端末2は、ネットワークNにおいて、IPアドレスやURLを指定し、コンテンツ管理サーバ200に接続すると、当該コンテンツ管理サーバ200の登録受付処理部211は、ユーザ端末2からの接続要求に対し映像登録処理画面P101を送信する。   First, when the user terminal 2 specifies an IP address or URL in the network N and connects to the content management server 200, the registration reception processing unit 211 of the content management server 200 responds to the connection request from the user terminal 2 with a video. The registration processing screen page P101 is transmitted.

ユーザ端末2は、受信した映像登録処理画面P101を表示部24に表示し、映像登録処理画面P101上にて、ユーザ名、登録するコンテンツ名、登録する映像データのファイル指定、を入力し、登録ボタンP105を押下すると、各データがコンテンツ管理サーバ200に送信される。   The user terminal 2 displays the received video registration processing screen P101 on the display unit 24. On the video registration processing screen P101, the user name, the content name to be registered, and the file designation of the video data to be registered are input and registered. When the button P105 is pressed, each data is transmitted to the content management server 200.

すると、コンテンツ管理サーバ200の登録受付処理部211は、上記情報を受け付けて(ステップS1、コンテンツ受付工程)、コンテンツ解析処理部212にて受信した情報を解析してシナリオデータを生成し(ステップS2、コンテンツ解析工程)、映像データとコンテンツ名を関連付けて映像データ記憶部216に記録する。また、コンテンツ解析処理部212は、上記シナリオデータをメタ情報生成処理部13に渡す。なお、このとき、コンテンツ解析処理部212は、コンテンツ名とユーザ名を関連付けて、図16に示すユーザ情報を生成して、ユーザ情報記憶部222に記録する。   Then, the registration reception processing unit 211 of the content management server 200 receives the information (step S1, content reception process), analyzes the information received by the content analysis processing unit 212, and generates scenario data (step S2). , Content analysis step), the video data and the content name are associated and recorded in the video data storage unit 216. Further, the content analysis processing unit 212 passes the scenario data to the meta information generation processing unit 13. At this time, the content analysis processing unit 212 associates the content name with the user name, generates the user information shown in FIG. 16, and records it in the user information storage unit 222.

続いて、メタ情報生成処理部213は、シナリオデータに基づいてメタ情報と価値情報を生成し(ステップS3,S4、メタ情報生成工程、価値情報生成工程)、コンテンツ情報記憶部217に記録する(ステップS5でノー、ステップS13、コンテンツ登録工程)。   Subsequently, the meta information generation processing unit 213 generates meta information and value information based on the scenario data (steps S3 and S4, a meta information generation process, a value information generation process), and records them in the content information storage unit 217 ( No in step S5, step S13, content registration step).

ここで、例えば、コンテンツ#1の価値情報を生成する場合を例に挙げると、図17に示すように、まず、生成されたメタ情報#1を参照する(ステップS201)。すると、ORGフラグ=TRUEであるため、コンテンツリストに含まれる自身であるコンテンツ#1のユーザを、ユーザ情報を参照して判定する(ステップS202)。これにより、コンテンツ内の開始時刻C1:t0からC1:t3までのコンテンツ価値(CV)は、ユーザAに帰属するものとして登録される(ステップS203、生成価値付与工程)。なお、このコンテンツ#1は単一コンテンツであるため、編集価値(EV)は無しとされる。   Here, for example, taking the case of generating value information of the content # 1 as an example, as shown in FIG. 17, first, the generated meta information # 1 is referred to (step S201). Then, since the ORG flag = TRUE, the user of content # 1, which is itself included in the content list, is determined with reference to the user information (step S202). As a result, the content value (CV) from the start time C1: t0 to C1: t3 in the content is registered as belonging to the user A (step S203, generated value adding step). Since this content # 1 is a single content, there is no editing value (EV).

次に、コンテンツ#4や#5など、登録されたコンテンツを編集してコンテンツの混合製作する場合の動作について説明する。   Next, an operation in the case of editing the registered contents such as contents # 4 and # 5 and mixing and producing the contents will be described.

まず、ユーザ端末2は、ネットワーク4において、IPアドレスやURL等を指定し、コンテンツ管理サーバ200の編集用の登録受付処理部211に接続する。すると、コンテンツ管理サーバ200は、ユーザ端末2からの接続要求に対し、編集登録画面P201を送信する。そして、ユーザ端末2は、受信した編集登録画面P201を表示部24に表示し、上述したように、編集登録画面上で、コンテンツの参照、編集及び登録操作を行う。そして、編集操作が終了すると、コンテンツの内容がコンテンツ管理サーバ200に送信される。   First, in the network 4, the user terminal 2 designates an IP address, a URL, and the like, and connects to the editing registration reception processing unit 211 of the content management server 200. Then, the content management server 200 transmits an edit registration screen P201 in response to a connection request from the user terminal 2. Then, the user terminal 2 displays the received edit registration screen P201 on the display unit 24, and performs content reference, editing, and registration operations on the edit registration screen as described above. When the editing operation is completed, the content details are transmitted to the content management server 200.

コンテンツ管理サーバ200は、コンテンツの編集内容を受け付け(ステップS1、コンテンツ受付工程)、コンテンツを解析し、シナリオデータを生成する(ステップS2、コンテンツ解析工程)。そして、メタ情報生成処理部213は、上記シナリオデータに基づいて、コンテンツのメタ情報を生成し(メタ情報生成工程)、この生成したメタ情報から、コンテンツ価値情報を生成する(価値情報生成工程)。   The content management server 200 receives the edited content of the content (step S1, content reception process), analyzes the content, and generates scenario data (step S2, content analysis process). Then, the meta information generation processing unit 213 generates content meta information based on the scenario data (meta information generation step), and generates content value information from the generated meta information (value information generation step). .

ここで、コンテンツ価値情報の生成動作について詳述する。メタ情報生成処理部213は、メタ情報生成後、メタ情報からコンテンツ名を参照する(ステップS201)。また、ユーザ情報記憶部222から、参照したコンテンツ名をキーにして、ユーザ名を参照する(ステップS202)。そして、該当ユーザ名をコンテンツメタ情報の時刻に応じて、登録を行う(ステップS203)。例えば、図17に示すように、コンテンツ価値情報#4は、メタ情報#4からコンテンツ名を参照し、該当コンテンツのユーザ情報を参照して生成されたものである。CVとしては、各コンテンツのユーザ名、ユーザA、ユーザB、ユーザCが登録され(生成価値付与工程)、EVとしてコンテンツ#4の編集者であるユーザDが登録されている(編集価値付与工程)。また、コンテンツ価値情報#5は、コンテンツ#5から生成されたものである。コンテンツ#5は、コンテンツ#4を利用しているため、CVとしてコンテンツ#4で利用しているコンテンツ#3、コンテンツ#2、コンテンツ#1のユーザC、ユーザB、ユーザAが登録されている。EVとしては、コンテンツ#4の編集ポイントが含まれる為、C5:t1及びC5:t2は、ユーザDとして登録され、C5:t3はコンテンツ#5の編集ポイントであるため、ユーザEとして登録されている。なお、上記生成価値の登録と編集価値の登録の順序は任意である。   Here, the content value information generating operation will be described in detail. After the meta information is generated, the meta information generation processing unit 213 refers to the content name from the meta information (step S201). Further, the user name is referenced from the user information storage unit 222 using the referenced content name as a key (step S202). Then, the corresponding user name is registered according to the time of the content meta information (step S203). For example, as shown in FIG. 17, the content value information # 4 is generated by referring to the content name from the meta information # 4 and referring to the user information of the corresponding content. As the CV, the user name, user A, user B, and user C of each content are registered (generation value provision process), and the user D who is the editor of the content # 4 is registered as EV (edit value provision process) ). The content value information # 5 is generated from the content # 5. Since content # 5 uses content # 4, user C, user B, and user A of content # 3, content # 2, and content # 1 used in content # 4 are registered as CVs . Since EV includes edit points for content # 4, C5: t1 and C5: t2 are registered as user D, and C5: t3 is registered as user E because C5: t3 is an edit point for content # 5. Yes. Note that the order of registration of the generated value and registration of the editing value is arbitrary.

そして、以上のようにして生成されたコンテンツ価値情報を、メタ情報と共に、コンテンツ管理サーバ200のコンテンツ情報記憶部217に記録する(ステップS5でノー、ステップS13、コンテンツ登録工程)。なお、コンテンツ価値情報の生成及び登録は、一旦、メタ情報がコンテンツ情報記憶部217に登録された後に、任意のタイミングで実行されてもよい。   Then, the content value information generated as described above is recorded in the content information storage unit 217 of the content management server 200 together with the meta information (No in step S5, step S13, content registration step). The generation and registration of the content value information may be executed at an arbitrary timing after the meta information is registered in the content information storage unit 217 once.

次に、コンテンツ視聴時の動作について説明する。実施例1と同様に、ユーザ端末2がコンテンツ管理サーバ200に接続して、ユーザが視聴したいコンテンツを選択すると、コンテンツ配信処理部215は、コンテンツ情報記憶部217から該当コンテンツのメタ情報を読み出し、このメタ情報のコンテンツリストに従って、コンテンツの配信を実行する。そして、コンテンツ配信処理部215は、配信を行ったコンテンツの配信状況を表す視聴履歴をコンテンツ情報記憶部217に記憶する。あるいは、コンテンツ価値算出処理部221に通知する。なお、ここでは、図18に示すように、コンテンツ#5が、全て視聴された場合(視聴履歴#1)と、時刻t3まで視聴された場合(視聴履歴#2)を例に挙げて説明する。   Next, the operation when viewing content will be described. As in the first embodiment, when the user terminal 2 connects to the content management server 200 and the user selects content that the user wants to view, the content distribution processing unit 215 reads the meta information of the corresponding content from the content information storage unit 217, Content distribution is executed according to the content list of the meta information. Then, the content distribution processing unit 215 stores the viewing history indicating the distribution status of the distributed content in the content information storage unit 217. Alternatively, the content value calculation processing unit 221 is notified. Here, as shown in FIG. 18, a case will be described as an example where all content # 5 has been viewed (viewing history # 1) and when content # 5 has been viewed until time t3 (viewing history # 2). .

コンテンツ価値算出処理部221は、コンテンツ配信処理部215から視聴情報を受信した際に(ステップS301)、コンテンツ情報記憶部217から、該当コンテンツのコンテンツ価値情報を参照する(ステップS302)。そして、視聴履歴情報の視聴時刻と、コンテンツ価値情報を比較判定し、該当コンテンツの価値を保有するユーザへのポイントの値を算出する。特に、映像データの保有者であるコンテンツ価値(CV)と、編集者が創出した編集価値(EV)に任意の係数をポイントとして計上し、これらのポイントをユーザへのポイントフィードバックとして登録する(ステップS303、生成価値付与工程、編集価値付与工程)。   When receiving the viewing information from the content distribution processing unit 215 (step S301), the content value calculation processing unit 221 refers to the content value information of the corresponding content from the content information storage unit 217 (step S302). Then, the viewing time of the viewing history information and the content value information are compared and determined, and the value of the point to the user who holds the value of the corresponding content is calculated. In particular, any coefficient is recorded as points in the content value (CV) that is the owner of the video data and the editing value (EV) created by the editor, and these points are registered as point feedback to the user (step) S303, generation value provision step, editing value provision step).

具体的には、図18に示すように、視聴履歴#1と視聴履歴#2と、コンテンツ価値情報#5を参照し、コンテンツ価値情報#5のCVで指定された時間内で視聴された場合、該当ユーザに対してポイントを加算する。次にEVで指定された時刻が視聴された場合、該当ユーザに対してポイントを加算する。これらの加算結果として、視聴履歴カウント値#wt1、視聴履歴カウント値#2となる。これらのカウント値と、コンテンツ価値係数rCVと編集価値係数rEVと、コンテンツ時間に対する視聴時間比を乗算した結果として、ユーザ単位のポイントフィードバックとして算出する。例として、rCV=0.6、rEV=0.4とした結果が、図5、視聴履歴#1のポイントフィードバック値#wt1と、ポイントフィードバック値#wt2である。そして、コンテンツ価値算出処理部221は、算出したユーザ単位のポイントフィードバック値を、ユーザ情報記憶部222のユーザポイントに加算記録する。   Specifically, as shown in FIG. 18, when viewing is performed within the time specified by the CV of content value information # 5 with reference to viewing history # 1, viewing history # 2, and content value information # 5 , Points are added to the corresponding user. Next, when the time designated by EV is viewed, points are added to the corresponding user. As a result of these additions, a viewing history count value # wt1 and a viewing history count value # 2 are obtained. As a result of multiplying the count value, the content value coefficient rCV, the edit value coefficient rEV, and the viewing time ratio with respect to the content time, it is calculated as point feedback for each user. As an example, the results of rCV = 0.6 and rEV = 0.4 are the point feedback value # wt1 and the point feedback value # wt2 of FIG. 5, viewing history # 1. Then, the content value calculation processing unit 221 adds and records the calculated point feedback value for each user to the user points in the user information storage unit 222.

ここで、上述した登録受付処理部211は、ユーザ端末2からの接続要求時に、当該ユーザ端末2から送信されるユーザ名などの個人を認識できる情報と、ユーザ情報記憶部222に記録されているユーザ名と、の比較判定によるユーザ認証を行う。このユーザ認証により、コンテンツの更新や削除などのコンテンツ制御を行う場合は、ユーザ情報記憶部222に記録されている該当ユーザのコンテンツのみをアクセス可能とする。従って、所有権(著作権)を有さないユーザによるコンテンツの更新制御は、禁止される。また、ユーザ認証においては、ユーザ名やユーザIDに加え、ユーザ個人しか知りえないパスワードや暗号鍵などによる認証を加えることも可能である。   Here, the registration reception processing unit 211 described above is recorded in the user information storage unit 222 and information capable of recognizing an individual such as a user name transmitted from the user terminal 2 at the time of a connection request from the user terminal 2. User authentication is performed by comparison with the user name. When content control such as update or deletion of content is performed by this user authentication, only the content of the corresponding user recorded in the user information storage unit 222 can be accessed. Therefore, content update control by a user who does not have ownership (copyright) is prohibited. In user authentication, in addition to a user name and a user ID, it is also possible to add authentication using a password or an encryption key that only a user can know.

以上のように、本実施例によると、コンテンツを構成するコンテンツ毎には生成価値が付与されて評価され、また、編集された混合コンテンツには、編集価値が付与されて評価される。従って、コンテンツの創作価値がユーザに還元されるため、ユーザによる創作活動の活発化を図ることができ、システムの利用頻度の向上を図ることができる。そして、特に、視聴結果に基づいてフィードバックされる価値つまりポイントを算出することで、需要に応じた適切な価値を作成者にフィードバックすることができる。   As described above, according to the present embodiment, the generated value is assigned and evaluated for each content constituting the content, and the edited value is assigned and evaluated for the edited mixed content. Therefore, since the creative value of the content is returned to the user, the creative activity by the user can be activated and the frequency of use of the system can be improved. In particular, by calculating a value that is fed back based on the viewing result, that is, a point, an appropriate value according to the demand can be fed back to the creator.

本発明は、ユーザによる動画などのコンテンツの登録が可能であり、また、登録されたコンテンツをユーザに配信可能なシステムに利用することができ、産業上の利用可能性を有する。   INDUSTRIAL APPLICABILITY The present invention can register content such as a moving image by a user, can be used in a system that can distribute the registered content to the user, and has industrial applicability.

コンテンツ登録システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of a content registration system. 図1に開示したユーザ端末の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the user terminal disclosed in FIG. 図1に開示した素材サーバの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the material server disclosed in FIG. 図1に開示したコンテンツ管理サーバの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the content management server disclosed in FIG. 図1に開示したコンテンツ管理サーバの編集登録処理部112の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the edit registration process part 112 of the content management server disclosed in FIG. コンテンツのシナリオデータ及びメタ情報の一例を示す図であり、特に、単一コンテンツの場合を示す。It is a figure which shows an example of the scenario data and meta information of a content, and shows the case of a single content especially. コンテンツのシナリオデータ及びメタ情報の一例を示す図であり、特に、混合コンテンツの場合を示す。It is a figure which shows an example of content scenario data and meta-information, and especially shows the case of mixed content. コンテンツのシナリオデータ及びメタ情報の一例を示す図であり、特に、混合コンテンツの場合を示す。It is a figure which shows an example of content scenario data and meta-information, and especially shows the case of mixed content. ユーザ端末に表示される画面例を示す図であり、単一コンテンツ登録時の画面例を示す。It is a figure which shows the example of a screen displayed on a user terminal, and shows the example of a screen at the time of single content registration. ユーザ端末に表示される画面例を示す図であり、混合コンテンツの編集・登録時の画面例を示す。It is a figure which shows the example of a screen displayed on a user terminal, and shows the example of a screen at the time of edit / registration of mixed content. ユーザ端末に表示される画面例を示す図であり、図10に開示した画面の一部の表示例を示す。It is a figure which shows the example of a screen displayed on a user terminal, and shows the example of a display of a part of screen disclosed in FIG. ユーザ端末に表示される画面例を示す図であり、コンテンツ閲覧時の画面例を示す。It is a figure which shows the example of a screen displayed on a user terminal, and shows the example of a screen at the time of content browsing. ユーザ端末に表示される画面例を示す図であり、コンテンツ閲覧時の画面例を示す。It is a figure which shows the example of a screen displayed on a user terminal, and shows the example of a screen at the time of content browsing. コンテンツ管理サーバの動作を示すフローチャートであり、主に、メタ情報生成時の動作を示す。It is a flowchart which shows operation | movement of a content management server, and mainly shows operation | movement at the time of meta-information production | generation. 実施例2におけるコンテンツ管理サーバの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the content management server in Example 2. FIG. 図15に開示したユーザ情報記憶部に記憶される情報の一例を示す図である。It is a figure which shows an example of the information memorize | stored in the user information storage part disclosed in FIG. コンテンツのメタ情報及びコンテンツ価値情報の一例を示す図である。It is a figure which shows an example of the meta information and content value information of content. コンテンツの視聴履歴及びポイントフィードバックの算出例を示す図である。It is a figure which shows the example of calculation of the viewing history of content, and point feedback. コンテンツ管理サーバの動作を示すフローチャートであり、主に、コンテンツ価値情報生成時の動作を示す。It is a flowchart which shows operation | movement of a content management server, and mainly shows operation | movement at the time of content value information production | generation. コンテンツ管理サーバの動作を示すフローチャートであり、主に、ポイント算出時の動作を示す。It is a flowchart which shows operation | movement of a content management server, and mainly shows the operation | movement at the time of point calculation.

符号の説明Explanation of symbols

1 コンテンツ管理サーバ
2 ユーザ端末
3 素材サーバ
11 登録受付処理部
12 コンテンツ解析処理部
13 メタ情報生成処理部
14 コンテンツ登録処理部
15 コンテンツ配信処理部
16 映像データ記憶部
17 コンテンツ情報記憶部
111 新規登録処理部
112 編集登録処理部
113 コンテンツ検索部
114 コンテンツ選択部
115 構成変更部
116 コンテンツ登録部
1 Content Management Server 2 User Terminal 3 Material Server 11 Registration Acceptance Processing Unit 12 Content Analysis Processing Unit 13 Meta Information Generation Processing Unit 14 Content Registration Processing Unit 15 Content Distribution Processing Unit 16 Video Data Storage Unit 17 Content Information Storage Unit 111 New Registration Processing Unit 112 edit registration processing unit 113 content search unit 114 content selection unit 115 configuration change unit 116 content registration unit

Claims (23)

所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行う情報処理装置であって、
前記記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力手段と、
前記コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択手段と、
前記特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成手段と、
を備えたことを特徴とする情報処理装置。
An information processing apparatus that supports creation of mixed content using content stored in a predetermined storage means,
Content reproduction output means for accepting input of information specifying the content stored in the storage means, and reproducing and outputting the specified content;
Content selection means for accepting input of part selection information for selecting a predetermined part of the content and identifying the selected content part;
Configuration information generating means for generating configuration information of mixed content based on the identified content portion;
An information processing apparatus comprising:
前記コンテンツ選択手段は、前記コンテンツ再生出力手段にてコンテンツが再生されている最中に操作されることで当該コンテンツの所定部分を選択する予め定められた部分選択操作部から入力される操作情報を、前記部分選択情報として受け付ける、
ことを特徴とする請求項1記載の情報処理装置。
The content selection means receives operation information input from a predetermined partial selection operation unit that selects a predetermined part of the content by being operated while the content is being reproduced by the content reproduction output means. , Accept as the partial selection information,
The information processing apparatus according to claim 1.
前記コンテンツ選択手段は、前記部分選択操作部から入力される前記再生されているコンテンツの所定部分の始点と終点を選択する操作情報を、前記部分選択情報として受け付ける、
ことを特徴とする請求項2記載の情報処理装置。
The content selection means receives operation information for selecting a start point and an end point of a predetermined portion of the content being played input from the partial selection operation unit as the partial selection information.
The information processing apparatus according to claim 2.
前記部分選択操作部は、前記再生されているコンテンツの所定部分の始点を選択する始点ボタンと、前記再生されているコンテンツの所定部分の終点を選択する終点ボタンと、を有する、
ことを特徴とする請求項3記載の情報処理装置。
The partial selection operation unit includes a start point button for selecting a start point of a predetermined part of the content being played back, and an end point button for selecting an end point of the predetermined part of the content being played back.
The information processing apparatus according to claim 3.
検索条件の入力を受け付けて、当該検索条件に対応するコンテンツを前記記憶手段から検索するコンテンツ検索手段を備え、
前記再生出力手段は、前記検索されたコンテンツの再生出力を行う、
ことを特徴とする請求項1,2,3又は4記載の情報処理装置。
Content search means that accepts input of search conditions and searches the storage means for content corresponding to the search conditions;
The reproduction output means performs reproduction output of the searched content.
5. The information processing apparatus according to claim 1, 2, 3, or 4.
前記構成情報生成手段は、前記生成した構成情報を表示出力すると共に、
この表示出力された構成情報に対して入力される前記混合コンテンツの構成を変更する構成変更指令を受け付け、この構成変更指令に基づいて前記構成情報を変更し表示出力する構成変更手段を備えた、
ことを特徴とする請求項1,2,3,4又は5記載の情報処理装置。
The configuration information generating means displays and outputs the generated configuration information,
A configuration change unit that receives a configuration change command for changing the configuration of the mixed content input to the displayed configuration information, changes the configuration information based on the configuration change command, and outputs the configuration information.
6. The information processing apparatus according to claim 1, 2, 3, 4 or 5.
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行う情報処理装置に、
前記記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力手段と、
前記コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択手段と、
前記特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成手段と、
を実現させるためのプログラム。
An information processing apparatus that supports creation of mixed content using content stored in a predetermined storage unit,
Content reproduction output means for accepting input of information specifying the content stored in the storage means, and reproducing and outputting the specified content;
Content selection means for accepting input of part selection information for selecting a predetermined part of the content and identifying the selected content part;
Configuration information generating means for generating configuration information of mixed content based on the identified content portion;
A program to realize
情報処理装置にて、所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行う方法であって、
前記記憶手段に記憶されているコンテンツを指定する情報の入力を受け付けて、当該指定されたコンテンツを再生出力するコンテンツ再生出力工程と、
前記コンテンツの所定部分を選択する部分選択情報の入力を受け付けて、この選択されたコンテンツ部分を特定するコンテンツ選択工程と、
前記特定されたコンテンツ部分に基づいて混合コンテンツの構成情報を生成する構成情報生成工程と、
を有することを特徴とする混合コンテンツ作成支援方法。
A method for supporting creation of mixed content using content stored in a predetermined storage means in an information processing device,
A content reproduction output step of receiving input of information designating the content stored in the storage means and reproducing and outputting the designated content;
A content selection step of receiving input of partial selection information for selecting a predetermined portion of the content and specifying the selected content portion;
A configuration information generation step of generating mixed content configuration information based on the identified content portion;
A mixed content creation support method characterized by comprising:
前記コンテンツ選択工程は、前記コンテンツ再生出力工程にてコンテンツが再生されている最中に操作されることで当該コンテンツの所定部分を選択する予め定められた部分選択操作部から入力される操作情報を、前記部分選択情報として受け付ける、
ことを特徴とする請求項8記載の混合コンテンツ作成支援方法。
In the content selection step, operation information input from a predetermined partial selection operation unit that selects a predetermined portion of the content by being operated while the content is being reproduced in the content reproduction output step. , Accept as the partial selection information,
The mixed content creation support method according to claim 8.
検索条件の入力を受け付けて、当該検索条件に対応するコンテンツを前記記憶手段から検索するコンテンツ検索工程を備え、
前記再生出力工程は、前記検索されたコンテンツの再生出力を行う、
ことを特徴とする請求項8又は9記載の混合コンテンツ作成支援方法。
A content search step of receiving search condition input and searching the storage unit for content corresponding to the search condition;
The reproduction output step performs reproduction output of the searched content.
10. The mixed content creation support method according to claim 8 or 9, wherein:
前記構成情報生成工程は、前記生成した構成情報を表示出力すると共に、
この表示出力された構成情報に対して入力される前記混合コンテンツの構成を変更する構成変更指令を受け付け、この構成変更指令に基づいて前記構成情報を変更し表示出力する構成変更工程を有する、
ことを特徴とする請求項8,9又は10記載の混合コンテンツ作成支援方法。
The configuration information generation step displays and outputs the generated configuration information,
Receiving a configuration change command for changing the configuration of the mixed content input to the display-output configuration information, and having a configuration change step of changing and displaying the configuration information based on the configuration change command;
The mixed content creation support method according to claim 8, 9 or 10.
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行うための表示部を備える情報処理装置であって、
前記表示部に、
前記記憶手段に記憶されているコンテンツを指定する情報を入力する指定情報入力部と、
前記指定情報入力部に入力された情報により指定されたコンテンツを再生する再生操作部と、
前記コンテンツの所定部分を選択する部分選択情報を入力する選択情報入力部と、
を表示する、ことを特徴とする情報処理装置。
An information processing apparatus including a display unit for supporting creation of mixed content using content stored in a predetermined storage unit,
In the display section,
A designation information input unit for inputting information for designating the content stored in the storage means;
A playback operation unit for playing back the content specified by the information input to the specified information input unit;
A selection information input unit for inputting partial selection information for selecting a predetermined part of the content;
An information processing apparatus characterized by displaying.
前記表示部に、
前記部分選択情報により選択されたコンテンツの所定部分を表示する構成表示部を表示する、ことを特徴とする請求項12記載の情報処理装置。
In the display section,
The information processing apparatus according to claim 12, further comprising: a configuration display unit that displays a predetermined part of the content selected by the part selection information.
前記表示部に、
複数の前記所定部分により生成した混合コンテンツを前記記憶手段に登録する登録操作部を表示する、ことを特徴とする請求項12又は13記載の情報処理装置。
In the display section,
The information processing apparatus according to claim 12, wherein a registration operation unit that registers mixed content generated by a plurality of the predetermined portions in the storage unit is displayed.
前記選択情報入力部は、
前記再生操作部により再生されているコンテンツにおける前記所定部分の始点と終点を入力する指定部を備える、ことを特徴とする請求項12,13又は14に記載の情報処理装置。
The selection information input unit
15. The information processing apparatus according to claim 12, 13 or 14, further comprising a designation unit that inputs a start point and an end point of the predetermined portion in the content being played back by the playback operation unit.
前記指定部は、
前記再生操作部により再生されているコンテンツにおける前記所定部分の始点を入力する始点指示部と、
前記再生操作部により再生されているコンテンツにおける前記所定部分の終点を入力する終点指示部と、
を備える、ことを特徴とする請求項15に記載の情報処理装置。
The designation unit is:
A start point instruction unit for inputting a start point of the predetermined portion in the content being played back by the playback operation unit;
An end point instruction unit for inputting an end point of the predetermined portion in the content being played back by the playback operation unit;
The information processing apparatus according to claim 15, comprising:
前記構成表示部は、
複数の前記所定部分を表示する、ことを特徴とする請求項13に記載の情報処理装置。
The configuration display unit
The information processing apparatus according to claim 13, wherein a plurality of the predetermined portions are displayed.
所定の記憶手段に記憶されているコンテンツを利用した混合コンテンツの作成支援を行うための表示部を備えるコンピュータに、
前記表示部に対して、
前記記憶手段に記憶されているコンテンツを指定する情報を入力する指定情報入力部を表示する処理と、
前記指定情報入力部に入力された情報により指定されたコンテンツを再生する再生操作部を表示する処理と、
前記コンテンツの所定部分を選択する部分選択情報を入力する選択情報入力部を表示する処理と、
を実行させる、ことを特徴とするプログラム。
A computer including a display unit for supporting creation of mixed content using content stored in a predetermined storage unit,
For the display unit,
Processing for displaying a designation information input unit for inputting information for designating the content stored in the storage means;
Processing for displaying a playback operation unit for playing back the content specified by the information input to the specified information input unit;
A process of displaying a selection information input unit for inputting partial selection information for selecting a predetermined part of the content;
A program characterized by having executed.
前記表示部に対して、
前記部分選択情報により選択されたコンテンツの所定部分を表示する構成表示部を表示する処理を実行させる、ことを特徴とする請求項18記載のプログラム。
For the display unit,
19. The program according to claim 18, wherein the program displays a configuration display unit that displays a predetermined part of the content selected by the part selection information.
前記表示部に対して、
複数の前記所定部分により生成した混合コンテンツを前記記憶手段に登録する登録操作部を表示する処理を実行させる、ことを特徴とする請求項18記載のプログラム。
For the display unit,
19. The program according to claim 18, wherein a program for displaying a registration operation unit for registering mixed contents generated by a plurality of the predetermined parts in the storage unit is executed.
前記表示部に対して、
前記再生操作部により再生されているコンテンツにおける前記所定部分の始点と終点を入力する指定部を備える前記選択情報入力部を表示する処理を実行させる、ことを特徴とする請求項18に記載のプログラム。
For the display unit,
19. The program according to claim 18, wherein a process of displaying the selection information input unit including a designation unit for inputting a start point and an end point of the predetermined portion in the content being played back by the playback operation unit is executed. .
前記表示部に対して、
前記再生操作部により再生されているコンテンツにおける前記所定部分の始点を入力する始点指示部と、前記再生操作部により再生されているコンテンツにおける前記所定部分の終点を入力する終点指示部と、を備える前記指定部を表示する処理を実行させる、ことを特徴とする請求項21に記載のプログラム。
For the display unit,
A start point instructing unit for inputting a start point of the predetermined portion in the content being played back by the playback operation unit; and an end point instructing unit for inputting the end point of the predetermined portion in the content being played back by the playback operation unit. The program according to claim 21, wherein a process for displaying the designation unit is executed.
前記表示部に対して、
複数の前記所定部分を表示する前記構成表示部を表示する処理を実行させる、ことを特徴とする請求項18に記載のプログラム。
For the display unit,
The program according to claim 18, wherein a process of displaying the configuration display unit that displays a plurality of the predetermined portions is executed.
JP2006343792A 2006-12-21 2006-12-21 Information processing device, mixed content generation method, and program Pending JP2008159102A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006343792A JP2008159102A (en) 2006-12-21 2006-12-21 Information processing device, mixed content generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006343792A JP2008159102A (en) 2006-12-21 2006-12-21 Information processing device, mixed content generation method, and program

Publications (1)

Publication Number Publication Date
JP2008159102A true JP2008159102A (en) 2008-07-10

Family

ID=39659866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006343792A Pending JP2008159102A (en) 2006-12-21 2006-12-21 Information processing device, mixed content generation method, and program

Country Status (1)

Country Link
JP (1) JP2008159102A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013150611A1 (en) * 2012-04-03 2013-10-10 株式会社ビットメディア Device and method for video streaming distribution
JP2015507780A (en) * 2011-12-07 2015-03-12 イマジン コミュニケーションズ コーポレイション Media service and method for distribution of stored media

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112870A (en) * 1997-10-07 1999-04-23 Matsushita Electric Ind Co Ltd Video edit system, video playback system, video edit playback system, and medium recording programs for those systems
JP2004173102A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Video content viewing method and system, video viewing terminal device, video distribution device, video content viewing program, and storage medium storing video content viewing program
JP2004240780A (en) * 2003-02-06 2004-08-26 Net8 Co Ltd Information processor, its method and program for allowing computer to execute the method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112870A (en) * 1997-10-07 1999-04-23 Matsushita Electric Ind Co Ltd Video edit system, video playback system, video edit playback system, and medium recording programs for those systems
JP2004173102A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Video content viewing method and system, video viewing terminal device, video distribution device, video content viewing program, and storage medium storing video content viewing program
JP2004240780A (en) * 2003-02-06 2004-08-26 Net8 Co Ltd Information processor, its method and program for allowing computer to execute the method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015507780A (en) * 2011-12-07 2015-03-12 イマジン コミュニケーションズ コーポレイション Media service and method for distribution of stored media
WO2013150611A1 (en) * 2012-04-03 2013-10-10 株式会社ビットメディア Device and method for video streaming distribution
JPWO2013150611A1 (en) * 2012-04-03 2015-12-14 株式会社ビットメディア Apparatus and method for streaming video

Similar Documents

Publication Publication Date Title
KR101635876B1 (en) Singular, collective and automated creation of a media guide for online content
KR101114089B1 (en) Systems and methods for providing alternate views when rendering audio/video content in a computing system
JP4859943B2 (en) Media file management using metadata injection
JP5112287B2 (en) Method and system for providing distributed editing and storage of digital media over a network
US20080028023A1 (en) Sharing commentaries synchronized with video content
CN102255951B (en) Asset resolvable bookmarks
US20170091213A1 (en) System and method for audio and video portable publishing system
US10268760B2 (en) Apparatus and method for reproducing multimedia content successively in a broadcasting system based on one integrated metadata
CN104769636B (en) Provide content item action actions on the upload page of the content item
CN103109323B (en) System and method for multimedia editing
US20060277457A1 (en) Method and apparatus for integrating video into web logging
JP2010536077A (en) System and method for creating thumbnail images for audiovisual files
GB2463540A (en) Content recommendation and storage of subsidiary edit playback information
JP2009193344A (en) COMPOSITE CONTENT INFORMATION CREATION SYSTEM, COMPOSITE CONTENT INFORMATION CREATION METHOD, TERMINAL DEVICE, CONTENT MANAGEMENT DEVICE, AND PROGRAM
US9721321B1 (en) Automated interactive dynamic audio/visual performance with integrated data assembly system and methods
JP2008158604A (en) Information processor, content registration method, and program
JP6266827B1 (en) Terminal and server
JP4129162B2 (en) Content creation demonstration system and content creation demonstration method
JP2008159102A (en) Information processing device, mixed content generation method, and program
JP5324108B2 (en) Computer system, moving image editing method, program, moving image editing terminal
US20090222758A1 (en) Content reproduction apparatus and method
JP3959525B2 (en) Application server program and application server in video content browsing system
KR101805302B1 (en) Apparatus and method for displaying multimedia contents
JP4238662B2 (en) Presentation support device and presentation support method
JP4752260B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100706