[go: up one dir, main page]

JP2008099012A - Content reproduction system and content storage system - Google Patents

Content reproduction system and content storage system Download PDF

Info

Publication number
JP2008099012A
JP2008099012A JP2006278927A JP2006278927A JP2008099012A JP 2008099012 A JP2008099012 A JP 2008099012A JP 2006278927 A JP2006278927 A JP 2006278927A JP 2006278927 A JP2006278927 A JP 2006278927A JP 2008099012 A JP2008099012 A JP 2008099012A
Authority
JP
Japan
Prior art keywords
metadata
content
user
unit
user preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006278927A
Other languages
Japanese (ja)
Inventor
Daiki Kudo
大樹 工藤
Yoshiaki Kato
嘉明 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006278927A priority Critical patent/JP2008099012A/en
Publication of JP2008099012A publication Critical patent/JP2008099012A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

【課題】ユーザが所望するコンテンツのみを容易に再生することのできるコンテンツ再生システムを得る。
【解決手段】メタデータ抽出部101はコンテンツのメタデータを抽出し、メタデータ蓄積部103はこのメタデータを蓄積する。メタデータユーザインタフェース部104は、メタデータ蓄積部103に蓄積されているメタデータに対するユーザ指示203を受け付け、選択されたメタデータを特殊再生情報204として出力する。特殊再生実行部105は、特殊再生情報204に基づいて、コンテンツ蓄積部102に蓄積されたコンテンツの特殊再生を行う。
【選択図】図1
A content reproduction system capable of easily reproducing only content desired by a user is obtained.
A metadata extraction unit 101 extracts metadata of content, and a metadata storage unit 103 stores the metadata. The metadata user interface unit 104 receives a user instruction 203 for the metadata stored in the metadata storage unit 103 and outputs the selected metadata as special playback information 204. The special playback execution unit 105 performs special playback of the content stored in the content storage unit 102 based on the special playback information 204.
[Selection] Figure 1

Description

この発明は、ユーザの嗜好に合ったコンテンツを再生するコンテンツ再生システム及びユーザの嗜好に合ったコンテンツを蓄積するコンテンツ蓄積システムに関するものである。   The present invention relates to a content reproduction system that reproduces content that matches a user's preference and a content storage system that accumulates content that matches a user's preference.

近年のコンテンツ蓄積・再生システムでは、ユーザによる蓄積内容の指定に代わり、EPG(Electronic Program Guide:電子番組表)情報などを用いた指定により、コンテンツを蓄積する方式が一般化している。更に、それらキーワードによってユーザの嗜好を学習し、コンテンツを自動的に録画するシステムも例えば特許文献1に示されている。また、コンテンツのメタデータなどを応用し、そのメタデータをあるルールに従って応用することでコンテンツの要約を作成し、重要な部分のみを視聴する方法も例えば特許文献2に示されている。   In recent content storage / playback systems, a method of storing content by specifying using EPG (Electronic Program Guide) information or the like instead of specifying the stored content by a user has become common. Furthermore, for example, Patent Document 1 discloses a system that learns the user's preferences using these keywords and automatically records content. Further, for example, Patent Document 2 discloses a method of applying content metadata or the like, creating a content summary by applying the metadata according to a certain rule, and viewing only an important part.

特許3775937号公報Japanese Patent No. 3775937 特許3176893号公報Japanese Patent No. 3176893

しかしながら、上記従来のシステムでは、収集したコンテンツは膨大な数になり、ユーザの限られた視聴時間では全てを視聴することは困難である。更に、ユーザの興味の範囲が広がり、新たな関心をもった分野のコンテンツについては、学習が終わるまでは蓄積対象にならないといった問題点があった。また、上記従来のコンテンツの要約技術も、ユーザによる事前の設定が必要であるなどの問題があった。   However, in the above conventional system, the collected content is enormous, and it is difficult to view all of the content within the limited viewing time of the user. Furthermore, there is a problem that the range of interest of the user widens, and content in a field that has a new interest cannot be accumulated until learning is completed. Further, the conventional content summarization technique also has a problem that a user needs to make a prior setting.

この発明は上記のような課題を解決するためになされたもので、ユーザが所望するコンテンツのみを容易に再生及び蓄積することのできるコンテンツ再生システム及びコンテンツ蓄積システムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a content reproduction system and a content storage system that can easily reproduce and store only content desired by a user.

この発明に係るコンテンツ再生システムは、コンテンツのメタデータを抽出するメタデータ抽出部と、抽出されたメタデータの中からメタデータの選択入力を受け付け、選択されたメタデータに基づいて特殊再生情報を出力するメタデータユーザインタフェース部と、特殊再生情報に基づいて、選択されたメタデータに対応したコンテンツを再生する特殊再生実行部とを備えたものである。   A content playback system according to the present invention includes a metadata extraction unit that extracts metadata of content, and accepts selection input of metadata from the extracted metadata, and displays special playback information based on the selected metadata. A metadata user interface unit to output and a special reproduction execution unit to reproduce content corresponding to the selected metadata based on the special reproduction information.

この発明のコンテンツ再生システムは、コンテンツのメタデータを抽出し、この抽出したメタデータを選択した結果に基づいてコンテンツを再生するようにしたので、ユーザが所望するコンテンツのみを容易に再生することができる。   Since the content reproduction system of the present invention extracts the metadata of the content and reproduces the content based on the result of selecting the extracted metadata, it is possible to easily reproduce only the content desired by the user. it can.

実施の形態1.
図1は、この発明の実施の形態1によるコンテンツ再生システムを示す構成図である。
図において、コンテンツ再生システムは、メタデータ抽出部101、コンテンツ蓄積部102、メタデータ蓄積部103、メタデータユーザインタフェース(メタデータUI)部104、特殊再生実行部105を備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a content reproduction system according to Embodiment 1 of the present invention.
In the figure, the content playback system includes a metadata extraction unit 101, a content storage unit 102, a metadata storage unit 103, a metadata user interface (metadata UI) unit 104, and a special playback execution unit 105.

メタデータ抽出部101は、放送波もしくは通信網などから受信したコンテンツから、メタデータを抽出する機能部である。尚、ここで、コンテンツとは、映像や音楽といったユーザが視聴する全てのデータを指している。また、メタデータは、コンテンツの内容を説明するためのデータ(番組の内容や分野、出演者などの情報の索引となるデータ)である。コンテンツ蓄積部102はコンテンツを蓄積する機能部であり、メタデータ蓄積部103は、メタデータ抽出部101で抽出されたメタデータ202を蓄積する機能部である。メタデータユーザインタフェース部104は、メタデータ蓄積部103に蓄積されたメタデータ202を図示しないディスプレイに表示させ、また、図示しないキーボード等の入力装置によるユーザからのメタデータの選択をユーザ指示203として受け付け、特殊再生情報204として出力する機能を有している。特殊再生実行部105は、メタデータユーザインタフェース部104から出力された特殊再生情報204に基づいて、コンテンツ蓄積部102に蓄積されたコンテンツを選択し、特殊再生信号205として出力する機能部である。   The metadata extraction unit 101 is a functional unit that extracts metadata from content received from a broadcast wave or a communication network. Here, content refers to all data viewed by the user, such as video and music. The metadata is data (data serving as an index of information such as program contents, fields, performers, etc.) for explaining the contents. The content accumulation unit 102 is a functional unit that accumulates content, and the metadata accumulation unit 103 is a functional unit that accumulates the metadata 202 extracted by the metadata extraction unit 101. The metadata user interface unit 104 displays the metadata 202 stored in the metadata storage unit 103 on a display (not shown), and selection of metadata from the user by an input device such as a keyboard (not shown) as a user instruction 203. It has a function of receiving and outputting as special reproduction information 204. The special playback execution unit 105 is a functional unit that selects content stored in the content storage unit 102 based on the special playback information 204 output from the metadata user interface unit 104 and outputs the content as a special playback signal 205.

尚、本発明のコンテンツ再生システム及びコンテンツ蓄積システムはコンピュータで構成され、上記のメタデータ抽出部101、メタデータユーザインタフェース部104及び特殊再生実行部105は、それぞれの機能に対応するソフトウェアと、これを実行するためのCPUやメモリ等のハードウェアから実現されている。また、コンテンツ蓄積部102及びメタデータ蓄積部103は、データを格納するハードディスク装置や半導体メモリ等の記憶装置から構成されている。   Note that the content reproduction system and content storage system of the present invention are configured by a computer, and the metadata extraction unit 101, the metadata user interface unit 104, and the special reproduction execution unit 105 include software corresponding to each function, This is realized by hardware such as a CPU and a memory for executing the above. The content storage unit 102 and the metadata storage unit 103 are configured by a storage device such as a hard disk device or a semiconductor memory for storing data.

次に、実施の形態1の動作について説明する。
任意のコンテンツ201を放送波や通信網などから受信した場合、コンテンツ蓄積部102ではこのようなコンテンツ201を蓄積する。また、コンテンツ蓄積部102にてコンテンツ201を蓄積する際に、メタデータ抽出部101でメタデータ202の抽出を行っておく。これは、蓄積と同時に行うが、システムが休止中などの時間を利用して抽出を行ってもよい。
Next, the operation of the first embodiment will be described.
When arbitrary content 201 is received from a broadcast wave or a communication network, the content storage unit 102 stores such content 201. Further, when the content 201 is stored in the content storage unit 102, the metadata extraction unit 101 extracts the metadata 202. This is performed at the same time as accumulation, but the extraction may be performed using time such as when the system is idle.

メタデータ抽出部101において、メタデータ202の時間方向の抽出単位としては、映像であればフレーム単位もしくはショット単位、均等に分割した時間などの単位とする。音楽コンテンツであれば、楽曲単位や、楽曲内のメロディの変わり目、均等に分割した時間などの単位で抽出を行う。抽出する内容は、映像であれば、色のヒストグラム、色の配置、テクスチャ、動きの激しさ、出演者の顔、あるいはそれらの時間変化、シーンチェンジ点や、各シーンの長さなどを抽出する。また、音楽であれば、音量や周波数成分などを抽出する。また、上述したEPGなどから得られるコンテンツのタイトル、出演者、ジャンル、放送日時などもメタデータ202として抽出する。   In the metadata extraction unit 101, the extraction unit in the time direction of the metadata 202 is a unit such as a frame unit or a shot unit, or an equally divided time for video. In the case of music content, extraction is performed in units of music, melody transitions in music, and evenly divided times. If the content to be extracted is a video, a color histogram, color arrangement, texture, intensity of motion, performer's face, or their temporal changes, scene change points, length of each scene, etc. are extracted. . For music, volume and frequency components are extracted. In addition, the title, performer, genre, broadcast date and time of content obtained from the above-described EPG and the like are also extracted as metadata 202.

メタデータ蓄積部103は、メタデータ抽出部101で抽出したメタデータ202を蓄積する。また、メタデータ蓄積部103には、コンテンツ蓄積部102に既に蓄積されている放送波、通信網から受信したコンテンツ201のメタデータ202及び過去に再生した光学ディスク等のメタデータ202も蓄積されている。更に、メタデータ蓄積部103では、上記のような顔検出情報やジャンルといったメタデータ202の管理を行う。例えば、「ジャンル」「タイトル」といったコンテンツそのもののメタデータ202と、「顔検出情報」といったコンテンツ内のシーンのメタデータ202は階層的に管理、蓄積されることになる。   The metadata storage unit 103 stores the metadata 202 extracted by the metadata extraction unit 101. The metadata storage unit 103 also stores broadcast waves already stored in the content storage unit 102, metadata 202 of the content 201 received from the communication network, and metadata 202 such as an optical disc reproduced in the past. Yes. Further, the metadata storage unit 103 manages the metadata 202 such as face detection information and genre as described above. For example, the metadata 202 of the content itself such as “genre” and “title” and the metadata 202 of the scene in the content such as “face detection information” are hierarchically managed and stored.

メタデータユーザインタフェース部104は、ユーザにメタデータ202の情報を提示するとともに、提示したメタデータ202の情報で特殊再生に用いるメタデータをユーザに選択させ、これをユーザ指示203として受け取る。このとき、ユーザは複数のメタデータ202を選択することができる。選ばれたメタデータ202を満たすコンテンツ201の情報は特殊再生情報204として特殊再生実行部105に出力される。特殊再生実行部105では、メタデータユーザインタフェース部104から出力された特殊再生情報204に基づき、コンテンツ蓄積部102を参照し、コンテンツ201の特殊再生を行う。このメタデータ202の選択と、特殊再生の例について以下に説明する。   The metadata user interface unit 104 presents information on the metadata 202 to the user, causes the user to select metadata to be used for special reproduction based on the presented information on the metadata 202, and receives this as a user instruction 203. At this time, the user can select a plurality of metadata 202. Information of the content 201 that satisfies the selected metadata 202 is output to the special reproduction execution unit 105 as special reproduction information 204. The special playback execution unit 105 refers to the content storage unit 102 based on the special playback information 204 output from the metadata user interface unit 104 and performs special playback of the content 201. An example of selection of the metadata 202 and special reproduction will be described below.

ユーザは実際にコンテンツ201を視聴する際に、メタデータ202の選択を行う。例えば、ユーザがメタデータ202の種類として「ジャンル」を選択したとする。これにより、メタデータユーザインタフェース部104は、メタデータ蓄積部103に管理、蓄積されているメタデータ202に基づいて、「ドラマ」や「ニュース」といったジャンルの一覧表示を行う。その結果、ユーザからニュースが選択された場合、メタデータユーザインタフェース部104は、メタデータ蓄積部103に蓄積されているニュースコンテンツの一覧画面を表示する。更に、ユーザから、メタデータ情報として、「顔検出情報」が選択されると、キャスターやリポーター、ニュースの登場人物など、人物が映っているシーンの一覧が画面に表示される。この時点で特殊再生を行えば、ニュースコンテンツ中で人物が映っているシーンを連続で再生することになる。即ち、この場合、メタデータユーザインタフェース部104から特殊再生実行部105に対して、特殊再生情報204として「人物が映っているシーンのメタデータ」が送られるため、特殊再生実行部105は、このメタデータ202に対応したコンテンツ201の人物が映っているシーンをコンテンツ蓄積部102から取り出して特殊再生を行う。   When the user actually views the content 201, the user selects the metadata 202. For example, assume that the user selects “genre” as the type of metadata 202. Accordingly, the metadata user interface unit 104 displays a list of genres such as “drama” and “news” based on the metadata 202 managed and stored in the metadata storage unit 103. As a result, when news is selected from the user, the metadata user interface unit 104 displays a list screen of news contents stored in the metadata storage unit 103. Furthermore, when “face detection information” is selected as metadata information from the user, a list of scenes in which people are shown, such as casters, reporters, and news characters, is displayed on the screen. If special playback is performed at this point, scenes in which a person is shown in the news content will be played back continuously. That is, in this case, since the metadata user interface unit 104 sends “metadata of a scene showing a person” as the special reproduction information 204 to the special reproduction execution unit 105, the special reproduction execution unit 105 A scene in which a person of the content 201 corresponding to the metadata 202 is shown is extracted from the content storage unit 102 and special reproduction is performed.

また、ここから、更にある顔を選び、特殊再生を実行すると、その顔の人物が写っているシーンを連続で再生する。例えば、選んだ顔がメインキャスターであれば、主要なニュースをメインキャスターが紹介しているシーンを連続で再生することになり、スポーツ担当のキャスターであればスポーツニュースを連続で再生することになり、あるいは総理大臣であれば総理大臣が映っているシーンが連続で再生される。この場合は、特殊再生実行部105に送られる特殊再生情報204として、メインキャスターや総理大臣を示すメタデータ202が送られ、特殊再生実行部105は、このメタデータ202に基づいて、メインキャスターや総理大臣が映っているシーンを特殊再生する。   Further, when a certain face is selected from here and special reproduction is executed, a scene in which the person of the face is reflected is continuously reproduced. For example, if the selected face is the main caster, the scene where the main caster introduces the main news will be played continuously, and if it is a caster in charge of sports, the sports news will be played continuously. Or, if the prime minister, the scenes of the prime minister are continuously played. In this case, as the special reproduction information 204 sent to the special reproduction execution unit 105, the metadata 202 indicating the main caster and the prime minister is sent. The special reproduction execution unit 105 uses the main caster and the Special playback of the scene where the Prime Minister is shown.

このとき、再生するコンテンツは必ずしも単独ではない。例えば、図2に示すようにコンテンツの時間情報を利用し、1週間分とすればその1週間の主要なニュースを連続で再生する。また、このとき、特殊再生時間の指定を行えばその制約に沿った特殊再生を行うことになる。例えば、各シーンの先頭10秒といった指定を行えば、顔の映っているシーンの先頭10秒を連続して再生する。一方、全体の再生時間をm分と指定すれば、(m/顔の映っているシーンの数)分ずつ、といった特殊再生を行う。あるいは、シーンの長さに合わせて重みをつけることも考えられる。   At this time, the content to be reproduced is not necessarily independent. For example, as shown in FIG. 2, the time information of the content is used, and if it is for one week, the main news for that week is continuously reproduced. At this time, if special reproduction time is designated, special reproduction is performed in accordance with the restriction. For example, if the first 10 seconds of each scene is specified, the first 10 seconds of the scene in which the face is reflected is reproduced continuously. On the other hand, if the total reproduction time is designated as m minutes, special reproduction such as (m / number of scenes showing a face) is performed. Alternatively, it may be possible to apply a weight according to the length of the scene.

このような特殊再生が行われることで、上述のメインキャスター顔情報と合わせて短時間でその週のニュースの概要を知ることができる。あるいは総理大臣であれば、一週間の総理大臣の動向を知ることができる。   By performing such special reproduction, it is possible to know the outline of the news of the week in a short time together with the above-mentioned main caster face information. Or if you are a prime minister, you can learn about the trend of the prime minister over the course of a week.

これ以外にも、例えば、ジャンルで「観光」を選択し、色ヒストグラムのメタデータで緑色が強いシーンを選択すれば、例えば、このような緑色を多く含む森や山を紹介するシーンのメタデータ202が特殊再生情報204として特殊再生実行部105に与えられる。これにより、特殊再生実行部105は、コンテンツ蓄積部102に蓄積されているコンテンツ201の中から、森や山を紹介するシーンを連続再生する。   In addition to this, for example, if “tourism” is selected as the genre and a scene with a strong green color is selected in the metadata of the color histogram, for example, metadata of a scene that introduces such forests and mountains that contain a lot of green 202 is given to the special reproduction execution unit 105 as special reproduction information 204. As a result, the special playback execution unit 105 continuously plays back scenes introducing forests and mountains from the content 201 stored in the content storage unit 102.

また、特殊再生を行う際に、メタデータユーザインタフェース部104において、再生時間を設定し、選択されたメタデータ202をソートし、ソートした状態のメタデータ202に対応したコンテンツ201の情報を特殊再生情報204として特殊再生実行部105に送るようにしてもよい。これにより、特殊再生実行部105において、ソートした順番に、特殊再生時間を満たすような特殊再生を行う。   Further, when performing special playback, the metadata user interface unit 104 sets the playback time, sorts the selected metadata 202, and performs special playback of the information of the content 201 corresponding to the sorted metadata 202. The information 204 may be sent to the special reproduction execution unit 105. Thus, the special reproduction execution unit 105 performs special reproduction so as to satisfy the special reproduction time in the sorted order.

以上のように、実施の形態1のコンテンツ再生システムによれば、コンテンツのメタデータを抽出するメタデータ抽出部と、抽出されたメタデータの中からメタデータの選択入力を受け付け、選択されたメタデータに基づいて特殊再生情報を出力するメタデータユーザインタフェース部と、特殊再生情報に基づいて、選択されたメタデータに対応したコンテンツを再生する特殊再生実行部とを備えたので、簡便な操作のみでユーザが所望するコンテンツのみを容易に再生することができる。   As described above, according to the content reproduction system of the first embodiment, the metadata extraction unit that extracts the metadata of the content, and the selection input of the metadata from the extracted metadata are received, and the selected metadata Since it has a metadata user interface unit that outputs special reproduction information based on data and a special reproduction execution unit that reproduces content corresponding to the selected metadata based on special reproduction information, only simple operations are possible. Thus, only the content desired by the user can be easily reproduced.

実施の形態2.
図3は、実施の形態2のコンテンツ再生システムのブロック図である。
図示のコンテンツ再生システムは、メタデータ抽出部101、コンテンツ蓄積部102、メタデータ蓄積部103、ユーザ嗜好学習部106、嗜好データ蓄積部107、特殊再生実行部108を備えており、ユーザ嗜好学習部106、嗜好データ蓄積部107及び特殊再生実行部108でユーザ嗜好学習手段が構成されている。メタデータ抽出部101及びメタデータ蓄積部103の基本的な構成は実施の形態1と同様であるが、ユーザ嗜好学習部106で学習されるユーザ嗜好データとの対応をとるための時間情報206がメタデータ抽出部101に入力され、この時間情報がメタデータ202に含まれるよう構成されている。尚、コンテンツ蓄積部102については実施の形態1と同様の構成であるため、ここでの説明は省略する。
Embodiment 2. FIG.
FIG. 3 is a block diagram of the content reproduction system of the second embodiment.
The illustrated content reproduction system includes a metadata extraction unit 101, a content accumulation unit 102, a metadata accumulation unit 103, a user preference learning unit 106, a preference data accumulation unit 107, and a special reproduction execution unit 108, and a user preference learning unit. 106, the preference data storage unit 107 and the special reproduction execution unit 108 constitute a user preference learning unit. The basic configuration of the metadata extraction unit 101 and the metadata storage unit 103 is the same as that of the first embodiment, but time information 206 for taking correspondence with user preference data learned by the user preference learning unit 106 is provided. The time information input to the metadata extraction unit 101 is included in the metadata 202. Note that the content storage unit 102 has the same configuration as that of the first embodiment, and a description thereof is omitted here.

ユーザ嗜好学習部106は、ユーザの操作や、蓄積履歴、視聴履歴といった履歴情報207と時間情報206とに基づいてユーザの嗜好を学習する機能部である。嗜好データ蓄積部107は、ユーザ嗜好学習部106で学習されたユーザ嗜好データ(a)208を蓄積すると共に、特殊再生実行部108から出力されたユーザ嗜好データ(b)209を蓄積し、また、ユーザ嗜好データ(a)・(b)210を特殊再生実行部108に出力するよう構成されている。ここで、ユーザ嗜好データ(a)208は、ユーザによる蓄積・再生・早送りなどの操作履歴と、各操作を行ったときのメタデータ(ジャンル・タイトル・顔検出情報・色情報など)を特定するデータ(時間情報・ポインタなど)を含むデータである。また、ユーザ嗜好データ(b)209は、メタデータそのものと、ユーザの嗜好(そのメタデータを好むか否かを示す情報)であり、ユーザ嗜好データ(a)・(b)210は、ユーザ嗜好データ(a)208のみの蓄積データか、あるいはユーザ嗜好データ(a)208とユーザ嗜好データ(b)209とを含む蓄積データである。   The user preference learning unit 106 is a functional unit that learns user preferences based on user information, history information 207 such as accumulation history and viewing history, and time information 206. The preference data accumulation unit 107 accumulates user preference data (a) 208 learned by the user preference learning unit 106, accumulates user preference data (b) 209 output from the special reproduction execution unit 108, and The user preference data (a) and (b) 210 is output to the special reproduction execution unit 108. Here, the user preference data (a) 208 specifies an operation history such as accumulation / playback / fast-forward by the user and metadata (genre, title, face detection information, color information, etc.) when each operation is performed. Data including data (time information, pointer, etc.). User preference data (b) 209 is metadata itself and user preferences (information indicating whether the metadata is preferred). User preference data (a) and (b) 210 are user preferences. The stored data includes only data (a) 208 or stored data including user preference data (a) 208 and user preference data (b) 209.

特殊再生実行部108は、コンテンツ蓄積部102に蓄積されているメタデータ202と、嗜好データ蓄積部107から得られるユーザ嗜好データ(a)・(b)210に基づいてユーザ嗜好データを更新し、この更新したユーザ嗜好データをユーザ嗜好データ(b)209として嗜好データ蓄積部107に出力するよう構成されている。また、特殊再生実行部108は、ユーザの嗜好が反映された代表的なメタデータが特定された場合は、特殊再生を行うことをユーザに提案し(ユーザへの提案211を出力し)、その結果としてユーザからの特殊再生指示212が入力された場合は、コンテンツ特殊再生信号213を出力するよう構成されている。   The special playback execution unit 108 updates the user preference data based on the metadata 202 stored in the content storage unit 102 and the user preference data (a) and (b) 210 obtained from the preference data storage unit 107, The updated user preference data is output to the preference data storage unit 107 as user preference data (b) 209. Also, the special reproduction execution unit 108 proposes to the user that special reproduction is performed when representative metadata reflecting the user's preference is specified (outputs a proposal 211 to the user), and As a result, when a special reproduction instruction 212 is input from the user, a content special reproduction signal 213 is output.

次に、実施の形態2の動作について説明する。
メタデータ抽出部101では、コンテンツのメタデータ202を抽出する。時間方向の抽出単位としては、映像であればフレーム単位もしくはショット単位、均等に分割した時間などの単位とする。音楽コンテンツであれば、楽曲単位や、楽曲内のメロディの変わり目、均等に分割した時間などの単位で抽出を行う。
Next, the operation of the second embodiment will be described.
The metadata extraction unit 101 extracts content metadata 202. As an extraction unit in the time direction, in the case of video, a unit such as a frame unit or a shot unit, or an equally divided time is used. In the case of music content, extraction is performed in units of music, melody transitions in music, and evenly divided times.

また、抽出する内容は、映像であれば、色のヒストグラム、色の配置、テクスチャ、動きの激しさ、出演者の顔、あるいはそれらの時間変化、シーンチェンジ点や、各シーンの長さなどを抽出する。音楽であれば、音量や周波数成分などを抽出する。また、EPGなどから得られるコンテンツのタイトル、出演者、ジャンル、放送日時などもメタデータとして抽出する。   Also, if the content to be extracted is a video, the color histogram, color arrangement, texture, intensity of movement, performer's face, or their temporal change, scene change point, length of each scene, etc. Extract. For music, volume, frequency components, etc. are extracted. In addition, the title, performer, genre, broadcast date and time of content obtained from EPG and the like are extracted as metadata.

コンテンツ蓄積部102は、放送波、通信網などから受信したコンテンツ201を蓄積する。メタデータ蓄積部103は、メタデータ抽出部101で抽出したメタデータ202を蓄積する。また、メタデータ蓄積部103は、コンテンツ蓄積部102に既に蓄積されている放送波、通信網から受信したコンテンツのメタデータ、及び、過去に再生した光学ディスクのメタデータも蓄積されている。   The content storage unit 102 stores content 201 received from broadcast waves, communication networks, and the like. The metadata storage unit 103 stores the metadata 202 extracted by the metadata extraction unit 101. The metadata storage unit 103 also stores broadcast waves already stored in the content storage unit 102, content metadata received from the communication network, and optical disk metadata reproduced in the past.

ユーザ嗜好学習部106では、ユーザによる操作や、コンテンツ201の蓄積履歴、視聴履歴を示す履歴情報207に基づいてユーザ嗜好を学習する。学習するユーザによる操作は、コンテンツ201を視聴した際に、スキップもしくは早送りした箇所、繰り返し再生した箇所などである。即ち、スキップや早送りした箇所は、ユーザの嗜好には合わない箇所であると判断し、また、繰り返し再生した箇所は、ユーザの嗜好に合う箇所と判断する。また、インターネットなどのコンピュータネットワークと接続されている場合は、ユーザが情報検索に用いる検索キーを学習してもよい。更に、ユーザが蓄積指示を行ったコンテンツのジャンル、視聴したコンテンツのジャンル及び回数等に基づいてユーザ嗜好を学習してもよい。これら学習結果をユーザ嗜好データ(a)208として、嗜好データ蓄積部107に出力する。尚、複数のユーザがいる場合、ユーザ嗜好学習部106は、それらのユーザ毎に学習を行う。   The user preference learning unit 106 learns user preferences based on history information 207 indicating user operations, content 201 accumulation history, and viewing history. The operation by the user who learns is a part skipped or fast forwarded, a part reproduced repeatedly, etc. when viewing the content 201. That is, the skipped part or the fast-forwarded part is determined to be a part that does not meet the user's preference, and the repeatedly reproduced part is determined to be a part that matches the user's preference. Further, when connected to a computer network such as the Internet, a user may learn a search key used for information search. Further, the user preference may be learned based on the genre of the content that the user has instructed to store, the genre and the number of times of the content that has been viewed. These learning results are output to the preference data storage unit 107 as user preference data (a) 208. When there are a plurality of users, the user preference learning unit 106 performs learning for each of those users.

嗜好データ蓄積部107では、ユーザ嗜好学習部106から出力されたユーザ嗜好データ(a)208を蓄積する。特殊再生実行部108では、メタデータ蓄積部103のメタデータ202と、嗜好データ蓄積部107のユーザ嗜好データ(a)・(b)210を参照しながら、コンテンツ蓄積部102のコンテンツ202を特殊再生する。この特殊再生の例としては次の(1)〜(5)に示す通りである。   The preference data accumulation unit 107 accumulates user preference data (a) 208 output from the user preference learning unit 106. The special playback execution unit 108 performs special playback of the content 202 of the content storage unit 102 while referring to the metadata 202 of the metadata storage unit 103 and the user preference data (a) and (b) 210 of the preference data storage unit 107. To do. Examples of this special reproduction are as shown in the following (1) to (5).

(1)ユーザがある日のニュースコンテンツを蓄積し、特定の箇所、例えば経済ニュースを通常視聴、それ以外を早送り視聴したとする。このような操作や履歴がユーザ嗜好学習部106に入力され、ユーザ嗜好データ(a)208としてユーザ嗜好学習部106から出力される。
(2)ユーザ嗜好学習部106から出力されるユーザ嗜好データ(a)208が嗜好データ蓄積部107に蓄積されていく。例えば、蓄積コンテンツジャンル→ニュース、通常視聴シーン(経済ニュース)→そのときのメタデータを特定するデータ、早送り視聴シーン(経済ニュース以外の部分)→そのときのメタデータを特定するデータ、…等である。
(3)このような(2)の操作を何日間か繰り返す。
(1) Assume that the user has accumulated news content for a certain day, and has normally watched a specific part, for example, economic news, and fast-forwarded watching other parts. Such operations and histories are input to the user preference learning unit 106 and output from the user preference learning unit 106 as user preference data (a) 208.
(2) User preference data (a) 208 output from the user preference learning unit 106 is accumulated in the preference data accumulation unit 107. For example, stored content genre → news, normal viewing scene (economic news) → data specifying metadata at that time, fast-forward viewing scene (part other than economic news) → data specifying metadata at that time, etc. is there.
(3) The operation of (2) is repeated for several days.

(4)特殊再生実行部108は、嗜好データ蓄積部107に蓄積されている何日間分のユーザ嗜好データ(a)208に対応したメタデータ202の類似性を、メタデータ蓄積部103に蓄積されているメタデータ202を用いて比較する。いつも通常視聴している箇所のメタデータ202同士を比較し、類似していれば通常視聴箇所の代表的なメタデータを作成する。作成方法としては、メタデータ202の平均値等の統計処理を行う方法や、最初の日もしくは最後の日を使うなど、様々な方法が適用可能である。早送り視聴についても同様に代表的メタデータ202の蓄積を行う。 (4) The special reproduction execution unit 108 accumulates the similarity of the metadata 202 corresponding to the user preference data (a) 208 for several days accumulated in the preference data accumulation unit 107 in the metadata accumulation unit 103. The metadata 202 is compared. The metadata 202 of the portion that is normally viewed normally is compared, and if they are similar, the representative metadata of the portion that is normally viewed is created. As a creation method, various methods such as a method of performing statistical processing such as an average value of the metadata 202, a first day, or a last day are applicable. Similarly, for the fast-forward viewing, the representative metadata 202 is accumulated.

例えば、同一のニュース番組であれば、キャスター毎にその担当が決まっている場合が多い。本実施の形態では、コンテンツ201のメタデータ202をフレーム単位やショット単位で蓄積し、更にユーザ嗜好データ(a)208により、早送りする箇所がわかっていることから、ユーザが連日早送りしている箇所のメタデータ、この場合経済ニュース以外の部分のキャスターの顔、声や画面の構図、字幕テキスト情報などのメタデータと、連日通常再生している箇所のメタデータ、この場合経済ニュース部分のキャスターの顔、声、画面の構図、字幕テキスト情報などのメタデータが特定できる。   For example, in the case of the same news program, the responsible person is often determined for each caster. In the present embodiment, the metadata 202 of the content 201 is accumulated in units of frames or shots, and the user preference data (a) 208 knows where to fast-forward, so that the user is fast-forwarding every day. Metadata, in this case the caster's face, voice and screen composition, subtitle text information, etc. other than the economic news, and the metadata that is played normally every day, in this case the economic news caster Metadata such as face, voice, screen composition, subtitle text information can be specified.

ユーザの嗜好が反映したメタデータが特定されると、特殊再生実行部108は、ユーザ嗜好データ(b)209として嗜好データ蓄積部107に出力する。即ち、ユーザ嗜好データ(b)209は、メタデータそのものと、ユーザの嗜好(そのメタデータを好むか否か)を含むデータである。   When the metadata reflecting the user's preference is specified, the special playback execution unit 108 outputs the user preference data (b) 209 to the preference data storage unit 107. That is, the user preference data (b) 209 is data including metadata itself and user preferences (whether or not the metadata is preferred).

(5)特殊再生実行部108は、(4)で代表的なメタデータが特定されると、この代表的なメタデータに対応したコンテンツのシーンを特定し、特殊再生を行うことのユーザへの提案211を行う。例えば、このユーザへの提案211としては、代表的なメタデータに対応したコンテンツの特殊再生を行う内容を表示するといった処理である。これにより、ユーザからの特殊再生指示212があった場合は、対応するコンテンツ201をコンテンツ蓄積部102より取り出して特殊再生を開始する(コンテンツ特殊再生信号213を出力する)。 (5) When the representative metadata is specified in (4), the special playback execution unit 108 specifies the scene of the content corresponding to the representative metadata, and notifies the user of special playback. Proposal 211 is made. For example, the proposal 211 to the user is a process of displaying contents for performing special reproduction of content corresponding to representative metadata. Thereby, when there is a special reproduction instruction 212 from the user, the corresponding content 201 is taken out from the content storage unit 102 and special reproduction is started (a content special reproduction signal 213 is output).

また、嗜好データ蓄積部107にユーザ嗜好データ(b)209が蓄積された以降は、ユーザ嗜好データ(a)208とユーザ嗜好データ(b)209とを含むユーザ嗜好データ(a)・(b)210が特殊再生実行部108に出力され、特殊再生実行部108は、このユーザ嗜好データ(a)・(b)210に基づいてユーザ嗜好データ(b)209を更新する。   After the user preference data (b) 209 is accumulated in the preference data storage unit 107, user preference data (a) and (b) including user preference data (a) 208 and user preference data (b) 209 are stored. 210 is output to the special reproduction execution unit 108, and the special reproduction execution unit 108 updates the user preference data (b) 209 based on the user preference data (a) and (b) 210.

このように、メタデータの取得と、ユーザの連日の操作からの学習により、ユーザが連日視聴している箇所、この場合であれば経済ニュースのみを特定することが可能となり、学習以後、ユーザは早送りを指示することなく、見たい箇所のみを視聴することが可能となる。   In this way, by acquiring metadata and learning from the user's operation every day, it is possible to specify only the part that the user is watching every day, in this case only economic news. It is possible to view only a desired portion without instructing fast-forwarding.

尚、ここで挙げた経済ニュース以外でも、スポーツニュースのみを再生、ドラマコンテンツで特定の俳優が出演している箇所のみを再生、音楽コンテンツで、特定の歌手が出演しているのみを再生、といった特殊再生が可能となる。   In addition to the economic news listed here, only sports news is played, only the part where a specific actor appears in the drama content, only the specific singer appears in the music content, etc. Special playback is possible.

以上のように、実施の形態2のコンテンツ再生システムによれば、コンテンツのメタデータを抽出するメタデータ抽出部と、メタデータ抽出部で抽出されたメタデータのうち、ユーザの操作に基づき、ユーザの嗜好を反映したメタデータをユーザ嗜好データとして求めるユーザ嗜好学習手段と、ユーザ嗜好データを用い、ユーザ嗜好データのメタデータに対応したコンテンツを再生する特殊再生実行部とを備えたので、ユーザが特別な操作を行うことなくユーザの嗜好が反映されたコンテンツの再生を行うことができる。   As described above, according to the content reproduction system of the second embodiment, the metadata extraction unit that extracts the metadata of content, and the user based on the user's operation among the metadata extracted by the metadata extraction unit. User preference learning means for obtaining metadata reflecting user's preference as user preference data, and a special playback execution unit that uses the user preference data and plays back content corresponding to the metadata of user preference data. The content reflecting the user's preference can be reproduced without performing a special operation.

実施の形態3.
図4は、実施の形態3のコンテンツ再生システムのブロック図である。
図示のコンテンツ再生システムは、メタデータ抽出部101、コンテンツ蓄積部102、メタデータ蓄積部103、ユーザ嗜好学習部106、嗜好データ蓄積部107、嗜好データ作成・更新部109、メタデータ検索部110、特殊再生実行部111を備えており、ユーザ嗜好学習部106、嗜好データ蓄積部107及び嗜好データ作成・更新部109でユーザ嗜好学習手段が構成されている。ここで、メタデータ抽出部101〜嗜好データ蓄積部107は、実施の形態2と同様であるため、ここでの説明は省略する。
Embodiment 3 FIG.
FIG. 4 is a block diagram of the content reproduction system according to the third embodiment.
The illustrated content reproduction system includes a metadata extraction unit 101, a content storage unit 102, a metadata storage unit 103, a user preference learning unit 106, a preference data storage unit 107, a preference data creation / update unit 109, a metadata search unit 110, A special reproduction execution unit 111 is provided, and the user preference learning unit 106, the preference data storage unit 107, and the preference data creation / update unit 109 constitute a user preference learning unit. Here, since the metadata extraction unit 101 to the preference data storage unit 107 are the same as those in the second embodiment, description thereof is omitted here.

嗜好データ作成・更新部109は、嗜好データ蓄積部107に蓄積されるユーザ嗜好データ(a)208やユーザ嗜好データ(a)・(b)210に基づいて、ユーザ嗜好データ(b)209を作成すると共に、その更新を行う機能部である。即ち、嗜好データ作成・更新部109は、実施の形態2の特殊再生実行部108におけるユーザ嗜好データの作成・更新機能と同等の機能部である。メタデータ検索部110は、ユーザによる検索キー214が与えられた場合、この検索キー214と、嗜好データ蓄積部107に蓄積されているユーザ嗜好データ(a)・(b)210と、メタデータ蓄積部103に蓄積されているメタデータ202との照合を行い、検索結果215を出力する機能を有している。即ちメタデータ検索部110は、メタデータ蓄積部103で蓄積されたメタデータから、与えられた検索キーに対応したメタデータを検索すると共に、検索されたメタデータをユーザ嗜好データ(a)・(b)210で示されるユーザ嗜好に基づいて並べ替え、この並べ替えたメタデータを検索結果215として出力するものである。   The preference data creation / update unit 109 creates user preference data (b) 209 based on the user preference data (a) 208 and user preference data (a) and (b) 210 stored in the preference data storage unit 107. And a functional unit for performing the update. That is, the preference data creation / update unit 109 is a functional unit equivalent to the user preference data creation / update function in the special playback execution unit 108 of the second embodiment. When the search key 214 is given by the user, the metadata search unit 110 receives the search key 214, user preference data (a) and (b) 210 stored in the preference data storage unit 107, and metadata storage. It has a function of collating with the metadata 202 stored in the unit 103 and outputting a search result 215. That is, the metadata search unit 110 searches the metadata stored in the metadata storage unit 103 for metadata corresponding to a given search key, and uses the searched metadata for user preference data (a), ( b) Sorting is performed based on the user preference indicated by 210, and the sorted metadata is output as a search result 215.

特殊再生実行部111は、メタデータ検索部110による検索結果をユーザに対して提示する(検索結果表示信号216を出力する)と共に、ユーザからの特殊再生指示217があった場合は、この指示に基づいて特殊再生を行う(コンテンツ特殊再生信号218を出力する)よう構成されている。   The special playback execution unit 111 presents the search result from the metadata search unit 110 to the user (outputs the search result display signal 216), and when there is a special playback instruction 217 from the user, Based on this, special reproduction is performed (content special reproduction signal 218 is output).

次に、実施の形態3の動作について説明する。
メタデータ抽出部101では、コンテンツ201のメタデータ202を抽出する。コンテンツ蓄積部102は、放送波、通信網などから受信したコンテンツを蓄積する。メタデータ蓄積部103は、メタデータ抽出部101で抽出したメタデータ202を蓄積する。ユーザ嗜好学習部106では、ユーザによる操作や、コンテンツの蓄積履歴、視聴履歴を学習し、嗜好データ蓄積部107は、ユーザ嗜好学習部106から出力されたユーザ嗜好データ(a)208を蓄積する。以上の動作は、実施の形態2と同様である。
Next, the operation of the third embodiment will be described.
The metadata extraction unit 101 extracts the metadata 202 of the content 201. The content storage unit 102 stores content received from broadcast waves, communication networks, and the like. The metadata storage unit 103 stores the metadata 202 extracted by the metadata extraction unit 101. The user preference learning unit 106 learns user operations, content accumulation history, and viewing history, and the preference data accumulation unit 107 accumulates user preference data (a) 208 output from the user preference learning unit 106. The above operation is the same as in the second embodiment.

嗜好データ作成・更新部109では、嗜好データ蓄積部107に蓄積されたユーザ嗜好データ(a)208と、メタデータ蓄積部103に蓄積されたメタデータ202に基づいて、ユーザの嗜好が反映されたユーザ嗜好データ(b)209を作成し、これを嗜好データ蓄積部107に出力する。嗜好データ蓄積部107では、ユーザ嗜好データ(a)208とユーザ嗜好データ(b)209とを含むユーザ嗜好データ(a)・(b)210をメタデータ検索部110に出力する。   In the preference data creation / update unit 109, the user preference is reflected based on the user preference data (a) 208 stored in the preference data storage unit 107 and the metadata 202 stored in the metadata storage unit 103. User preference data (b) 209 is created and output to the preference data storage unit 107. The preference data storage unit 107 outputs user preference data (a) and (b) 210 including user preference data (a) 208 and user preference data (b) 209 to the metadata search unit 110.

メタデータ検索部110では、先ず、ユーザからの検索キー214を取得する。このとき、想定される検索キー214としては、テキストのほかに、画像そのもの、画像中の人物の顔部分、楽曲そのものやそのメロディの一部分等が挙げられる。   The metadata search unit 110 first acquires a search key 214 from the user. At this time, the assumed search key 214 includes, in addition to text, an image itself, a face portion of a person in the image, a song itself, a part of its melody, and the like.

この検索について以下に説明する。これは、例えば、現在、ユーザがコンテンツを視聴している状況において、ユーザが何らかの操作を行うと、その再生している画面全部もしくはその一部分、または再生している音楽を検索キー214とすることを想定している。ここでは、例えば、コンテンツ視聴中にある人物が映し出され、その人物の顔を検索キー214とする場合を例に説明する。   This search will be described below. For example, in the situation where the user is currently viewing the content, if the user performs some operation, the entire reproduced screen or a part thereof, or the reproduced music is used as the search key 214. Is assumed. Here, for example, a case where a person who is viewing the content is displayed and the face of the person is used as the search key 214 will be described as an example.

この場合、検索結果として、その人物の顔が映ったフレームもしくはショットばかりとなる。このとき、顔のメタデータのみを蓄積している場合であれば、顔検索を行った場合の一致順、もしくは時間系列順などにソートされる。しかし、ユーザ嗜好を同時に蓄積していることから、ユーザがソートの指定を行うことにより、ユーザの嗜好順や視聴回数順、もしくはそれらの逆順といった順序にソートすることができる。尚、視聴回数順とは、コンテンツあるいは特定のシーンをユーザが視聴した回数そのものの順番であり、また、嗜好順とは、蓄積されているユーザ嗜好データ(a)・(b)210と、そのコンテンツ201内のシーンのメタデータ202を比較し決定される順番である。この嗜好順としては、例えば、あるコンテンツの嗜好として、(コンテンツの嗜好=視聴した回数×通常視聴した時間)といった演算により求める。   In this case, the search results are only frames or shots in which the person's face is shown. At this time, if only the face metadata is accumulated, the face is sorted in the matching order or the time series order. However, since the user preferences are accumulated at the same time, when the user designates sorting, the user preferences can be sorted in the order of the user's preference order, the viewing frequency order, or the reverse order thereof. The order of viewing times is the order of the number of times the user has viewed content or a specific scene, and the order of preference is the stored user preference data (a) and (b) 210, The order is determined by comparing the metadata 202 of the scene in the content 201. As the order of preference, for example, the preference of a certain content is obtained by calculation such as (content preference = number of times of viewing × time of normal viewing).

これにより、例えば、30分の長さのコンテンツAとBとがあったとし、コンテンツAは10回視聴しているが、ほとんど早送りしていて1回当たり5分程度しか見ていない。一方でコンテンツBは3回しか視聴していないが、1回当たり30分の全てを見ている、といった場合、コンテンツBの嗜好順が上という判断になる。あるいは、ユーザが特定の俳優のコンテンツをいつも視聴しており、最近放映された新たなコンテンツ201を蓄積した場合など、そのコンテンツ201をユーザが一度も視聴していなくても、ある程度嗜好順では上位にランクされる、といった判定結果が得られる場合もある。   Thus, for example, it is assumed that there are contents A and B having a length of 30 minutes, and the contents A is viewed 10 times, but is almost fast-forwarded and only viewed about 5 minutes at a time. On the other hand, if the content B is viewed only three times but is viewed all 30 minutes per time, it is determined that the preference order of the content B is higher. Or, if the user is always watching the content of a specific actor and has accumulated new content 201 that has recently been aired, even if the user has not watched the content 201 even once, the content order is somewhat higher In some cases, a determination result may be obtained such as being ranked.

特殊再生実行部111では、メタデータ検索部110から出力された検索結果215に基づいて、検索結果表示信号216を出力する。これにより、ユーザからの特殊再生指示217があった場合は、コンテンツ特殊再生信号218を出力する。このように、ユーザ嗜好順や視聴回数順、もしくはその逆順にソートを行うことで、ユーザは何度も見ているお気に入りのシーンをすばやく検索したり、一度も見ていないシーンを検索したりすることが可能になる。   The special playback execution unit 111 outputs a search result display signal 216 based on the search result 215 output from the metadata search unit 110. Thereby, when there is a special reproduction instruction 217 from the user, a content special reproduction signal 218 is output. In this way, by sorting in order of user preference, viewing frequency, or vice versa, the user can quickly search for favorite scenes that have been viewed many times or search for scenes that have never been viewed. It becomes possible.

以上のように、実施の形態3のコンテンツ再生システムによれば、コンテンツのメタデータを抽出するメタデータ抽出部と、メタデータ抽出部で抽出されたメタデータのうち、ユーザの操作に基づき、ユーザの嗜好を反映したメタデータをユーザ嗜好データとして求めるユーザ嗜好学習手段と、メタデータ抽出部で抽出されたメタデータから、与えられた検索キーに対応したメタデータを検索すると共に、検索されたメタデータをユーザ嗜好データで示されるユーザ嗜好に基づいて並べ替え、並べ替えたメタデータを検索結果として出力するメタデータ検索部と、検索結果に基づいてコンテンツを再生する特殊再生実行部とを備えたので、ユーザが指定する順序でユーザ嗜好が反映されたコンテンツを再生することができる。   As described above, according to the content reproduction system of the third embodiment, the metadata extraction unit that extracts the metadata of content, and the user based on the user's operation among the metadata extracted by the metadata extraction unit. The user preference learning means for obtaining metadata reflecting user's preference as user preference data and the metadata corresponding to the given search key are searched from the metadata extracted by the metadata extraction unit. A metadata search unit that rearranges data based on user preferences indicated by user preference data, outputs the rearranged metadata as a search result, and a special playback execution unit that plays back content based on the search result Therefore, it is possible to reproduce the content reflecting the user preference in the order specified by the user.

また、実施の形態2及び実施の形態3のコンテンツ再生システムによれば、ユーザ嗜好学習手段は、コンテンツの再生を早送りした箇所を利用してユーザ嗜好データを求めるようにしたので、ユーザ嗜好の学習のためにユーザが特別な操作を行う必要がなく、容易にユーザ嗜好データを得ることができる。   Further, according to the content reproduction system of the second and third embodiments, the user preference learning means obtains the user preference data by using the part where the reproduction of the content is fast-forwarded. Therefore, it is not necessary for the user to perform a special operation, and user preference data can be easily obtained.

また、実施の形態2及び実施の形態3のコンテンツ再生システムによれば、ユーザ嗜好学習手段は、コンテンツの再生をスキップした箇所を利用してユーザ嗜好データを求めるようにしたので、ユーザ嗜好の学習のためにユーザが特別な操作を行う必要がなく、容易にユーザ嗜好データを得ることができる。   Further, according to the content reproduction system of the second and third embodiments, the user preference learning means obtains the user preference data by using the portion where the reproduction of the content is skipped. Therefore, it is not necessary for the user to perform a special operation, and user preference data can be easily obtained.

また、実施の形態2及び実施の形態3のコンテンツ再生システムによれば、ユーザ嗜好学習手段は、コンテンツの再生を繰り返し行った箇所を利用してユーザ嗜好データを求めるようにしたので、ユーザ嗜好の学習のためにユーザが特別な操作を行う必要がなく、容易にユーザ嗜好データを得ることができる。   Further, according to the content reproduction system of the second and third embodiments, the user preference learning means obtains the user preference data by using the portion where the reproduction of the content is repeatedly performed. It is not necessary for the user to perform a special operation for learning, and user preference data can be easily obtained.

また、実施の形態1から実施の形態3のコンテンツ再生システムによれば、コンテンツを蓄積するコンテンツ蓄積部を備え、特殊再生実行部は、コンテンツ蓄積部に蓄積されたコンテンツに基づいて特殊再生を実行するようにしたので、コンテンツを蓄積するシステムにおいて、ユーザが所望するコンテンツのみを再生することができる。   In addition, according to the content playback system of Embodiments 1 to 3, the content storage unit that stores content is provided, and the special playback execution unit executes special playback based on the content stored in the content storage unit Therefore, in the system for accumulating content, only the content desired by the user can be reproduced.

実施の形態4.
図5は、実施の形態4のコンテンツ蓄積システムのブロック図である。
図示のコンテンツ蓄積システムは、メタデータ抽出部101、コンテンツ蓄積部102a、メタデータ蓄積部103a、ユーザデータ蓄積部112、コンテンツ蓄積判定部113からなる。メタデータ抽出部101は、上記各実施の形態におけるメタデータ抽出部101と同様の機能を有している。コンテンツ蓄積部102aは、コンテンツ蓄積判定部113から出力された蓄積判定結果219やユーザ指示220によるコンテンツのみを蓄積するよう構成されている。メタデータ蓄積部103aは、コンテンツ蓄積部102aから出力される蓄積結果221に基づいて、コンテンツ蓄積部102aに実際に蓄積されたコンテンツに対応したメタデータを蓄積する記憶部である。
Embodiment 4 FIG.
FIG. 5 is a block diagram of the content storage system according to the fourth embodiment.
The illustrated content storage system includes a metadata extraction unit 101, a content storage unit 102a, a metadata storage unit 103a, a user data storage unit 112, and a content storage determination unit 113. The metadata extraction unit 101 has the same function as the metadata extraction unit 101 in each of the above embodiments. The content accumulation unit 102 a is configured to accumulate only the content based on the accumulation determination result 219 output from the content accumulation determination unit 113 and the user instruction 220. The metadata storage unit 103a is a storage unit that stores metadata corresponding to the content actually stored in the content storage unit 102a based on the storage result 221 output from the content storage unit 102a.

ユーザデータ蓄積部112は、ユーザ指示220に基づいて、ユーザ嗜好を学習し、ユーザ嗜好データを作成してこれを蓄積する機能部である。即ち、ユーザデータ蓄積部112は、実施の形態3におけるユーザ嗜好学習部106、嗜好データ蓄積部107及び嗜好データ作成・更新部109からなるユーザ嗜好学習手段の機能に相当するものであり、ユーザ嗜好データ(a)・(b)210をコンテンツ蓄積判定部113に出力する。コンテンツ蓄積判定部113は、メタデータ蓄積部103aから与えられる参照メタデータ222と、ユーザデータ蓄積部112から出力されるユーザ嗜好データ(a)・(b)210に基づいて、ユーザ嗜好を反映させたコンテンツの蓄積判定結果219をコンテンツ蓄積部102aに対して出力する機能部である。   The user data storage unit 112 is a functional unit that learns user preferences based on the user instruction 220, creates user preference data, and stores the user preference data. That is, the user data storage unit 112 corresponds to the function of the user preference learning unit including the user preference learning unit 106, the preference data storage unit 107, and the preference data creation / update unit 109 in the third embodiment. Data (a) and (b) 210 are output to the content accumulation determination unit 113. The content accumulation determination unit 113 reflects the user preference based on the reference metadata 222 given from the metadata accumulation unit 103a and the user preference data (a) and (b) 210 outputted from the user data accumulation unit 112. This is a functional unit that outputs the content accumulation determination result 219 to the content accumulation unit 102a.

次に、実施の形態4の動作について説明する。
メタデータ抽出部101では、コンテンツ201のメタデータを抽出し、抽出メタデータ202としてコンテンツ蓄積判定部113に出力する。尚、抽出メタデータ202は全てのコンテンツに対応したメタデータであり、参照メタデータ222はコンテンツ蓄積部102aに蓄積されたコンテンツのメタデータを指している。
Next, the operation of the fourth embodiment will be described.
The metadata extraction unit 101 extracts the metadata of the content 201 and outputs it as extracted metadata 202 to the content accumulation determination unit 113. The extracted metadata 202 is metadata corresponding to all the contents, and the reference metadata 222 indicates the metadata of the contents stored in the contents storage unit 102a.

コンテンツ蓄積部102aは、放送波、通信網などから受信したコンテンツを蓄積するが、実施の形態4では、コンテンツ蓄積判定部113による蓄積判定結果219に基づいて、蓄積判定されたコンテンツのみを蓄積する。また、メタデータ蓄積部103aは、メタデータ抽出部101から出力された抽出メタデータ202のうち、コンテンツ蓄積部102aで実際に蓄積されたコンテンツに対応したコンテンツに対応したメタデータのみを、コンテンツ蓄積部102aから出力される蓄積結果221に基づいて蓄積する。   The content accumulation unit 102a accumulates content received from broadcast waves, communication networks, and the like. In the fourth embodiment, only the content determined to be accumulated is accumulated based on the accumulation determination result 219 by the content accumulation determination unit 113. . The metadata storage unit 103a stores only the metadata corresponding to the content corresponding to the content actually stored in the content storage unit 102a out of the extracted metadata 202 output from the metadata extraction unit 101. The data is accumulated based on the accumulation result 221 output from the unit 102a.

また、ユーザデータ蓄積部112では、ユーザ指示220に含まれるユーザによるコンテンツの蓄積指示やコンテンツの再生指示に基づいて、ユーザ嗜好データを蓄積し、コンテンツ蓄積判定部113に対して、ユーザ嗜好データ(a)・(b)210を出力する。コンテンツ蓄積判定部113では、ユーザデータ蓄積部112から与えられるユーザ嗜好データ(a)・(b)210とメタデータ蓄積部103aから与えられる参照メタデータ222に基づいて、ユーザの嗜好を反映させたコンテンツのみを蓄積するよう蓄積判定結果219をコンテンツ蓄積部102aに出力する。即ち、現在受信しているコンテンツ201がユーザ嗜好データ(a)・(b)210によるユーザ嗜好と一致し、かつ、参照メタデータ222に類似しているか否かによって蓄積判定を行う。コンテンツ蓄積部102aは、コンテンツ蓄積判定部113から出力された蓄積判定結果219に基づいて、コンテンツ201のうち、ユーザの嗜好にあったコンテンツのみを自動蓄積する。   Further, the user data storage unit 112 stores user preference data based on a content storage instruction or a content playback instruction by the user included in the user instruction 220, and the user preference data ( a) and (b) 210 are output. The content accumulation determination unit 113 reflects user preferences based on the user preference data (a) and (b) 210 given from the user data accumulation unit 112 and the reference metadata 222 given from the metadata accumulation unit 103a. The accumulation determination result 219 is output to the content accumulation unit 102a so as to accumulate only the content. That is, the accumulation determination is performed based on whether the currently received content 201 matches the user preference according to the user preference data (a) and (b) 210 and is similar to the reference metadata 222. Based on the accumulation determination result 219 output from the content accumulation determination unit 113, the content accumulation unit 102a automatically accumulates only the content that meets the user's preference among the content 201.

ここで、コンテンツ蓄積部102aにおけるコンテンツの蓄積初期の段階では、ユーザの嗜好もほとんど学習されていないため、メタデータ蓄積部103aに蓄積されるメタデータは必ずしもユーザの嗜好が反映されたものではない。その後、ユーザ指示220に基づいてユーザデータ蓄積部112でユーザ嗜好が学習され、その学習結果が蓄積される。その結果、メタデータ蓄積部103aから与えられる参照メタデータ222のうち、よりユーザの嗜好に合致したメタデータのみが選択され、このメタデータに対応したコンテンツが蓄積されるよう蓄積判定結果219が出力される。   Here, since the user's preference is hardly learned at the initial stage of content accumulation in the content accumulation unit 102a, the metadata accumulated in the metadata accumulation unit 103a does not necessarily reflect the user's preference. . Thereafter, the user preference is learned by the user data storage unit 112 based on the user instruction 220, and the learning result is accumulated. As a result, out of the reference metadata 222 given from the metadata accumulating unit 103a, only metadata that matches the user's preference is selected, and an accumulation determination result 219 is output so that content corresponding to this metadata is accumulated. Is done.

また、ユーザ指示220により、コンテンツ蓄積部102aに蓄積されたコンテンツであっても、その後ユーザがほとんど視聴しないような場合、このようなコンテンツに対応したユーザ嗜好データ(a)・(b)210は出力されないため、蓄積を続けていくことにより、よりユーザの嗜好が反映されたコンテンツのみがコンテンツ蓄積部102aに蓄積されるようになる。一方、これまでユーザが関心を持たなかった新たな分野のコンテンツを蓄積、再生するようになった場合(このようなコンテンツの蓄積、再生へのユーザ指示220がなされた場合)、このようなコンテンツに対応したメタデータがメタデータ蓄積部103aに蓄積され、また、ユーザデータ蓄積部112でそのユーザ嗜好が学習されていくにつれて、このようなユーザの嗜好が反映されたコンテンツがコンテンツ蓄積部102aに蓄積されるようになる。   In addition, even if the content is stored in the content storage unit 102a according to the user instruction 220, the user preference data (a) and (b) 210 corresponding to such content is displayed when the user hardly views the content thereafter. Since it is not output, by continuing to accumulate, only the content that more reflects the user's preference is accumulated in the content accumulation unit 102a. On the other hand, when content in a new field that the user has not been interested in until now is accumulated and reproduced (when such a user instruction 220 for accumulation and reproduction of such content is given), such content Is stored in the metadata storage unit 103a, and as the user preference is learned in the user data storage unit 112, content reflecting such user preference is stored in the content storage unit 102a. It will be accumulated.

例えば、従来は、ユーザによるキーワードによる蓄積が中心であり、「野球」というキーワードを指定した場合、コンテンツ蓄積部102aには、野球コンテンツが大量に蓄積されるのみであった。これに対し、実施の形態4では、ユーザはある特定のチームの試合を中心に視聴している場合など、ユーザ嗜好を活用することで、以後は他のチームの試合の蓄積を行わない、といったコンテンツの蓄積を行うことができる。更に、顔情報などのメタデータを活用することで特定の選手の出場シーンなどに絞り込むことも可能である。   For example, conventionally, accumulation by a keyword by a user is mainly performed, and when the keyword “baseball” is designated, only a large amount of baseball content is accumulated in the content accumulation unit 102a. On the other hand, in the fourth embodiment, the user does not accumulate the game of other teams by utilizing the user preference, such as when the user is mainly viewing the game of a specific team. Content can be accumulated. Furthermore, by using metadata such as face information, it is possible to narrow down to a specific player's participation scene.

このように、実施の形態4では、ユーザ嗜好に合致したコンテンツ蓄積が可能となり、蓄積容量の削減が可能になる。
尚、実施の形態4では、メタデータが類似しており、かつユーザ嗜好が合致する場合を蓄積対象とした。しかし、全てのコンテンツを蓄積しておき、コンテンツ蓄積容量が足りなくなった場合の優先的な削除対象を絞り込むのに利用してもよい。あるいは、コンテンツを蓄積する際に、可変ビットレート方式を採用し、割り振るビット量を決定するのに利用してもよい。即ち、ユーザの嗜好に合わせてビットを割り振って圧縮、蓄積するようにしてもよい。
As described above, in the fourth embodiment, it is possible to store contents that match user preferences, and to reduce the storage capacity.
In the fourth embodiment, the case where the metadata is similar and the user preference matches is the accumulation target. However, all content may be stored and used to narrow down the priority deletion target when the content storage capacity is insufficient. Alternatively, when storing content, a variable bit rate method may be adopted and used to determine the amount of bits to be allocated. In other words, bits may be allocated according to the user's preference and compressed and stored.

以上のように、実施の形態4のコンテンツ蓄積システムによれば、コンテンツのメタデータを抽出するメタデータ抽出部と、蓄積されたコンテンツに対応したメタデータを参照メタデータとして出力するメタデータ蓄積部と、ユーザの嗜好を反映したメタデータを示すユーザ嗜好データを蓄積するユーザデータ蓄積部と、メタデータ抽出部で抽出されたメタデータに対して、ユーザ嗜好データのメタデータに一致し、かつ、参照メタデータに一致または類似するメタデータを求め、メタデータに対応したコンテンツを蓄積対象とする蓄積判定結果を出力するコンテンツ蓄積判定部と、蓄積判定結果に基づいてコンテンツを蓄積するコンテンツ蓄積部とを備えたので、ユーザの嗜好が反映されたコンテンツの蓄積を行うことができると共に、蓄積するコンテンツを削減することが可能となる。   As described above, according to the content storage system of the fourth embodiment, a metadata extraction unit that extracts content metadata and a metadata storage unit that outputs metadata corresponding to the stored content as reference metadata. And a user data storage unit that stores user preference data indicating metadata reflecting the user's preference, and the metadata extracted by the metadata extraction unit matches the metadata of the user preference data, and A content accumulation determination unit that obtains metadata that matches or is similar to the reference metadata and outputs an accumulation determination result for content corresponding to the metadata, and a content accumulation unit that accumulates content based on the accumulation determination result; It is possible to store content that reflects user preferences and store It becomes possible to reduce the content to be.

実施の形態5.
図6は、実施の形態5のコンテンツ蓄積システムのブロック図である。
図示のコンテンツ蓄積システムは、メタデータ抽出部101、コンテンツ蓄積部102a、メタデータ蓄積部103a、コンテンツ蓄積判定部113a、メタデータユーザインタフェース(メタデータUI)部114からなる。ここで、メタデータ抽出部101、コンテンツ蓄積部102a及びメタデータ蓄積部103aは、実施の形態4と同様の構成であるため、ここでの説明は省略する。コンテンツ蓄積判定部113aは、メタデータユーザインタフェース部114から出力される蓄積対象メタデータ223に基づいてコンテンツの蓄積判定を行い、蓄積判定結果219を出力するよう構成されている。即ち、現在受信されているコンテンツ201の抽出メタデータ202のうち、蓄積対象メタデータ223に一致したメタデータに対応したコンテンツのみを蓄積するようコンテンツ蓄積部102aに指示する機能を有している。
Embodiment 5. FIG.
FIG. 6 is a block diagram of the content storage system according to the fifth embodiment.
The illustrated content storage system includes a metadata extraction unit 101, a content storage unit 102a, a metadata storage unit 103a, a content storage determination unit 113a, and a metadata user interface (metadata UI) unit 114. Here, since the metadata extraction unit 101, the content storage unit 102a, and the metadata storage unit 103a have the same configuration as in the fourth embodiment, description thereof is omitted here. The content accumulation determination unit 113 a is configured to perform content accumulation determination based on the accumulation target metadata 223 output from the metadata user interface unit 114 and to output an accumulation determination result 219. That is, it has a function of instructing the content storage unit 102a to store only the content corresponding to the metadata that matches the storage target metadata 223 among the extracted metadata 202 of the content 201 that is currently received.

メタデータユーザインタフェース部114は、メタデータ蓄積部103aから出力される参照メタデータ222をユーザに対して提示し、これによるユーザ指示220を受け付け、ユーザ指示220で選択されたメタデータを蓄積対象メタデータ223としてコンテンツ蓄積判定部113aに出力するよう構成されている。   The metadata user interface unit 114 presents the reference metadata 222 output from the metadata storage unit 103a to the user, receives a user instruction 220 based on the reference metadata 222, and stores the metadata selected in the user instruction 220 as the storage target metadata. The data 223 is output to the content accumulation determination unit 113a.

次に、実施の形態5の動作について説明する。
メタデータ抽出部101では、コンテンツ201のメタデータを抽出し、抽出メタデータ202としてコンテンツ蓄積判定部113aに出力する。コンテンツ蓄積部102aは、コンテンツ蓄積判定部113aから出力される蓄積判定結果219に基づいて、放送波、通信網などから受信したコンテンツを蓄積する。また、メタデータ蓄積部103aは、メタデータ抽出部101から出力された抽出メタデータ202のうち、コンテンツ蓄積部102aで実際に蓄積されたコンテンツに対応したコンテンツに対応したメタデータのみを、コンテンツ蓄積部102aから出力される蓄積結果221に基づいて蓄積する。
Next, the operation of the fifth embodiment will be described.
The metadata extraction unit 101 extracts the metadata of the content 201 and outputs it as extracted metadata 202 to the content accumulation determination unit 113a. The content accumulation unit 102a accumulates content received from a broadcast wave, a communication network, or the like based on the accumulation determination result 219 output from the content accumulation determination unit 113a. The metadata storage unit 103a stores only the metadata corresponding to the content corresponding to the content actually stored in the content storage unit 102a out of the extracted metadata 202 output from the metadata extraction unit 101. The data is accumulated based on the accumulation result 221 output from the unit 102a.

メタデータユーザインタフェース部114は、メタデータ蓄積部103aから出力される参照メタデータ222をユーザに対して提示し、ユーザからの選択指示を示すユーザ指示220を受け取って、蓄積対象メタデータ223を出力する。即ち、蓄積対象メタデータ223は、参照メタデータ222のうち、ユーザによって蓄積対象として指定されたメタデータである。尚、メタデータユーザインタフェース部114において、ユーザは複数のメタデータを選択できるものとする。   The metadata user interface unit 114 presents the reference metadata 222 output from the metadata storage unit 103a to the user, receives the user instruction 220 indicating a selection instruction from the user, and outputs the storage target metadata 223. To do. That is, the accumulation target metadata 223 is metadata designated as a accumulation target by the user in the reference metadata 222. In the metadata user interface unit 114, the user can select a plurality of metadata.

コンテンツ蓄積判定部113aは、蓄積対象メタデータ223に基づいて、現在受信されているコンテンツ201の抽出メタデータ202のうち、蓄積対象メタデータ223と全部または一部が合致するメタデータのコンテンツのみ蓄積対象とするよう蓄積判定結果219をコンテンツ蓄積部102aに出力する。これにより、コンテンツ蓄積部102aは、コンテンツ蓄積判定部113aから出力された蓄積判定結果219に基づいて、コンテンツ201のうち、ユーザの嗜好にあったコンテンツのみを自動蓄積する。   Based on the accumulation target metadata 223, the content accumulation determination unit 113a accumulates only the content of metadata that matches all or part of the accumulation target metadata 223 among the extracted metadata 202 of the currently received content 201. The accumulation determination result 219 is output to the content accumulation unit 102a so as to be targeted. As a result, the content storage unit 102a automatically stores only the content that meets the user's preference among the content 201 based on the storage determination result 219 output from the content storage determination unit 113a.

例えば、ユーザが光学ディスクに蓄積されている映画コンテンツを再生中に、特定の俳優を気に入り、他の出演作品を視聴したいとする。このとき、メタデータユーザインタフェース部114で、その俳優の顔情報をメタデータとして蓄積対象に指定すれば、以後、コンテンツ蓄積判定部113aでは、類似の顔が映っているコンテンツを蓄積対象とする蓄積判定結果219をコンテンツ蓄積部102aに対して出力する。   For example, suppose that a user likes a specific actor and wants to watch other appearances while playing movie content stored on an optical disc. At this time, if the metadata user interface unit 114 designates the actor's face information as the accumulation target as the metadata, the content accumulation determination unit 113a thereafter accumulates the content showing a similar face as the accumulation target. The determination result 219 is output to the content storage unit 102a.

また、これまでユーザが関心を示さなかった新たな分野のコンテンツを蓄積、再生するようになった場合(このようなコンテンツの蓄積、再生へのユーザ指示220がなされた場合)、始めはこのようなコンテンツに対応したメタデータはメタデータ蓄積部103aには蓄積されていないが、コンテンツ蓄積部102aに対してユーザ指示220が与えられるにつれて、このようなコンテンツに対応したメタデータがメタデータ蓄積部103aに蓄積される。そして、メタデータユーザインタフェース部114において、このようなコンテンツのメタデータをユーザが選択することにより、新たなユーザ嗜好が反映されたコンテンツが蓄積されるようになる。   In addition, when content in a new field that the user has not been interested in until now is stored and played back (when the user instruction 220 for storing and playing back such content is given), this is the beginning. The metadata corresponding to the content is not stored in the metadata storage unit 103a, but as the user instruction 220 is given to the content storage unit 102a, the metadata corresponding to such content is stored in the metadata storage unit. 103a is accumulated. Then, in the metadata user interface unit 114, when the user selects the metadata of such content, the content reflecting the new user preference is accumulated.

以上のように、実施の形態5のコンテンツ蓄積システムによれば、コンテンツのメタデータを抽出するメタデータ抽出部と、蓄積されたコンテンツに対応したメタデータを参照メタデータとして出力するメタデータ蓄積部と、参照メタデータに対するユーザの選択を受け付け、選択結果のメタデータを示す蓄積対象メタデータ情報を出力するメタデータユーザインタフェース部と、メタデータ抽出部で抽出されたメタデータに対して、蓄積対象メタデータ情報のメタデータに一致または類似するメタデータを求め、このメタデータに対応したコンテンツを蓄積対象とする蓄積判定結果を出力するコンテンツ蓄積判定部と、蓄積判定結果に基づいてコンテンツを蓄積するコンテンツ蓄積部とを備えたので、ユーザの嗜好が反映されたコンテンツの蓄積を行うことができる共に、ユーザは簡単に蓄積対象とするコンテンツを増やすことが可能となり、利便性を向上させることができる。   As described above, according to the content storage system of the fifth embodiment, a metadata extraction unit that extracts content metadata and a metadata storage unit that outputs metadata corresponding to the stored content as reference metadata. And a metadata user interface unit that accepts user selection for reference metadata and outputs storage target metadata information indicating the metadata of the selection result, and a storage target for the metadata extracted by the metadata extraction unit A content accumulation determination unit that obtains metadata that matches or is similar to the metadata of the metadata information, outputs a storage determination result that targets content corresponding to the metadata, and stores content based on the storage determination result Content that reflects the user's preferences Both can be performed accumulation, the user becomes possible to increase the content to be easily accumulated target, thereby improving the convenience.

また、実施の形態4と実施の形態5のコンテンツ蓄積システムによれば、コンテンツ蓄積部は、ユーザによるコンテンツ蓄積への指示を受けた場合、コンテンツを蓄積するようにしたので、これまでユーザが関心を示さなかった新たな分野のコンテンツを蓄積するようになった場合でも、このようなユーザ嗜好を反映させたコンテンツの蓄積を行うことができる。   In addition, according to the content storage systems of the fourth and fifth embodiments, the content storage unit stores content when receiving an instruction to store content by the user. Even when content in a new field that does not indicate is stored, content reflecting such user preferences can be stored.

この発明の実施の形態1によるコンテンツ再生システムを示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows the content reproduction system by Embodiment 1 of this invention. この発明の実施の形態1によるコンテンツ再生システムの動作を示す説明図である。It is explanatory drawing which shows operation | movement of the content reproduction system by Embodiment 1 of this invention. この発明の実施の形態2によるコンテンツ再生システムを示す構成図である。It is a block diagram which shows the content reproduction system by Embodiment 2 of this invention. この発明の実施の形態3によるコンテンツ再生システムを示す構成図である。It is a block diagram which shows the content reproduction system by Embodiment 3 of this invention. この発明の実施の形態4によるコンテンツ蓄積システムを示す構成図である。It is a block diagram which shows the content storage system by Embodiment 4 of this invention. この発明の実施の形態5によるコンテンツ蓄積システムを示す構成図である。It is a block diagram which shows the content storage system by Embodiment 5 of this invention.

符号の説明Explanation of symbols

101 メタデータ抽出部、102,102a コンテンツ蓄積部、103,103a メタデータ蓄積部、104,114 メタデータユーザインタフェース部、105,108,111 特殊再生実行部、106 ユーザ嗜好学習部、107 嗜好データ蓄積部、109 嗜好データ作成・更新部、110 メタデータ検索部、112 ユーザデータ蓄積部、113,113a コンテンツ蓄積判定部、201 コンテンツ、202 メタデータ、203,220 ユーザ指示、204 特殊再生情報、205 特殊再生信号、206 時間情報、207 履歴情報、208 ユーザ嗜好データ(a)、209 ユーザ嗜好データ(b)、210 ユーザ嗜好データ(a)・(b)、211 ユーザへの提案、212 ユーザからの特殊再生指示、213,218 コンテンツ特殊再生信号、214 検索キー、215 検索結果、216 検索結果表示信号、217 ユーザからの特殊再生指示、219 蓄積判定結果、221 蓄積結果、222 参照メタデータ、223 蓄積対象メタデータ。   101 metadata extraction unit, 102, 102a content storage unit, 103, 103a metadata storage unit, 104, 114 metadata user interface unit, 105, 108, 111 special playback execution unit, 106 user preference learning unit, 107 preference data storage 109, preference data creation / update unit, 110 metadata search unit, 112 user data storage unit, 113, 113a content accumulation determination unit, 201 content, 202 metadata, 203, 220 user instruction, 204 special playback information, 205 special Playback signal, 206 time information, 207 history information, 208 user preference data (a), 209 user preference data (b), 210 user preference data (a), (b), 211 suggestions to users, 212 specials from users Playback instruction, 213 , 218 Content special playback signal, 214 search key, 215 search result, 216 search result display signal, 217 special playback instruction from user, 219 storage determination result, 221 storage result, 222 reference metadata, 223 storage target metadata.

Claims (10)

コンテンツのメタデータを抽出するメタデータ抽出部と、
抽出されたメタデータの中からメタデータの選択入力を受け付け、当該選択されたメタデータに基づいて特殊再生情報を出力するメタデータユーザインタフェース部と、
前記特殊再生情報に基づいて、選択されたメタデータに対応したコンテンツを再生する特殊再生実行部とを備えたコンテンツ再生システム。
A metadata extractor for extracting content metadata;
A metadata user interface unit that accepts metadata selection input from the extracted metadata and outputs special reproduction information based on the selected metadata;
A content reproduction system comprising a special reproduction execution unit that reproduces content corresponding to selected metadata based on the special reproduction information.
コンテンツのメタデータを抽出するメタデータ抽出部と、
前記メタデータ抽出部で抽出されたメタデータのうち、ユーザの操作に基づき、当該ユーザの嗜好を反映したメタデータをユーザ嗜好データとして求めるユーザ嗜好学習手段と、
前記ユーザ嗜好データを用い、当該ユーザ嗜好データのメタデータに対応したコンテンツを再生する特殊再生実行部とを備えたコンテンツ再生システム。
A metadata extractor for extracting content metadata;
User preference learning means for obtaining metadata reflecting user's preference as user preference data based on the user's operation among the metadata extracted by the metadata extraction unit;
A content reproduction system including a special reproduction execution unit that reproduces content corresponding to metadata of the user preference data using the user preference data.
コンテンツのメタデータを抽出するメタデータ抽出部と、
前記メタデータ抽出部で抽出されたメタデータのうち、ユーザの操作に基づき、当該ユーザの嗜好を反映したメタデータをユーザ嗜好データとして求めるユーザ嗜好学習手段と、
前記メタデータ抽出部で抽出されたメタデータから、与えられた検索キーに対応したメタデータを検索すると共に、当該検索されたメタデータを前記ユーザ嗜好データで示されるユーザ嗜好に基づいて並べ替え、当該並べ替えたメタデータを検索結果として出力するメタデータ検索部と、
前記検索結果に基づいてコンテンツを再生する特殊再生実行部とを備えたコンテンツ再生システム。
A metadata extractor for extracting content metadata;
User preference learning means for obtaining metadata reflecting user's preference as user preference data based on the user's operation among the metadata extracted by the metadata extraction unit;
Searching for metadata corresponding to a given search key from the metadata extracted by the metadata extraction unit, and rearranging the searched metadata based on the user preference indicated by the user preference data, A metadata search unit for outputting the sorted metadata as a search result;
A content reproduction system comprising: a special reproduction execution unit that reproduces content based on the search result.
ユーザ嗜好学習手段は、コンテンツの再生を早送りした箇所を利用してユーザ嗜好データを求めることを特徴とする請求項2または請求項3記載のコンテンツ再生システム。   4. The content reproduction system according to claim 2, wherein the user preference learning means obtains user preference data using a location where the reproduction of the content is fast-forwarded. ユーザ嗜好学習手段は、コンテンツの再生をスキップした箇所を利用してユーザ嗜好データを求めることを特徴とする請求項2または請求項3記載のコンテンツ再生システム。   4. The content reproduction system according to claim 2, wherein the user preference learning unit obtains user preference data using a portion where reproduction of content is skipped. ユーザ嗜好学習手段は、コンテンツの再生を繰り返し行った箇所を利用してユーザ嗜好データを求めることを特徴とする請求項2または請求項3記載のコンテンツ再生システム。   4. The content reproduction system according to claim 2, wherein the user preference learning unit obtains user preference data using a portion where the reproduction of the content is repeatedly performed. コンテンツを蓄積するコンテンツ蓄積部を備え、特殊再生実行部は、当該コンテンツ蓄積部に蓄積されたコンテンツに基づいて特殊再生を実行することを特徴とする請求項1から請求項6のうちのいずれか1項記載のコンテンツ再生システム。   The content storage unit for storing the content is provided, and the special playback execution unit executes the special playback based on the content stored in the content storage unit. 2. The content reproduction system according to item 1. コンテンツのメタデータを抽出するメタデータ抽出部と、
蓄積されたコンテンツに対応したメタデータを参照メタデータとして出力するメタデータ蓄積部と、
ユーザの嗜好を反映したメタデータを示すユーザ嗜好データを蓄積するユーザデータ蓄積部と、
前記メタデータ抽出部で抽出されたメタデータに対して、前記ユーザ嗜好データのメタデータに一致し、かつ、前記参照メタデータに一致または類似するメタデータを求め、当該メタデータに対応したコンテンツを蓄積対象とする蓄積判定結果を出力するコンテンツ蓄積判定部と、
前記蓄積判定結果に基づいてコンテンツを蓄積するコンテンツ蓄積部とを備えたコンテンツ蓄積システム。
A metadata extractor for extracting content metadata;
A metadata storage unit that outputs metadata corresponding to the stored content as reference metadata;
A user data storage unit for storing user preference data indicating metadata reflecting user preferences;
For metadata extracted by the metadata extraction unit, metadata that matches the metadata of the user preference data and matches or is similar to the reference metadata is obtained, and content corresponding to the metadata is obtained. A content accumulation determination unit that outputs an accumulation determination result to be accumulated;
A content storage system comprising: a content storage unit that stores content based on the storage determination result.
コンテンツのメタデータを抽出するメタデータ抽出部と、
蓄積されたコンテンツに対応したメタデータを参照メタデータとして出力するメタデータ蓄積部と、
前記参照メタデータに対するユーザの選択を受け付け、選択結果のメタデータを示す蓄積対象メタデータ情報を出力するメタデータユーザインタフェース部と、
前記メタデータ抽出部で抽出されたメタデータに対して、前記蓄積対象メタデータ情報のメタデータに一致または類似するメタデータを求め、当該メタデータに対応したコンテンツを蓄積対象とする蓄積判定結果を出力するコンテンツ蓄積判定部と、
前記蓄積判定結果に基づいてコンテンツを蓄積するコンテンツ蓄積部とを備えたコンテンツ蓄積システム。
A metadata extractor for extracting content metadata;
A metadata storage unit that outputs metadata corresponding to the stored content as reference metadata;
A metadata user interface unit that accepts a user's selection for the reference metadata and outputs storage target metadata information indicating metadata of a selection result;
For the metadata extracted by the metadata extraction unit, metadata that matches or is similar to the metadata of the accumulation target metadata information is obtained, and an accumulation determination result for which content corresponding to the metadata is to be accumulated is obtained. A content accumulation determination unit to output;
A content storage system comprising: a content storage unit that stores content based on the storage determination result.
コンテンツ蓄積部は、ユーザによるコンテンツ蓄積への指示を受けた場合、当該コンテンツを蓄積することを特徴とする請求項8または請求項9記載のコンテンツ蓄積システム。   10. The content storage system according to claim 8, wherein the content storage unit stores the content when receiving an instruction to store the content by the user.
JP2006278927A 2006-10-12 2006-10-12 Content reproduction system and content storage system Pending JP2008099012A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006278927A JP2008099012A (en) 2006-10-12 2006-10-12 Content reproduction system and content storage system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006278927A JP2008099012A (en) 2006-10-12 2006-10-12 Content reproduction system and content storage system

Publications (1)

Publication Number Publication Date
JP2008099012A true JP2008099012A (en) 2008-04-24

Family

ID=39381386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006278927A Pending JP2008099012A (en) 2006-10-12 2006-10-12 Content reproduction system and content storage system

Country Status (1)

Country Link
JP (1) JP2008099012A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011205251A (en) * 2010-03-24 2011-10-13 Ntt Docomo Inc Information terminal and telop display method
JP2021509790A (en) * 2018-01-04 2021-04-01 ソニー・インタラクティブエンタテインメント エルエルシー Methods and devices for selectively skipping across media content
WO2021251988A1 (en) * 2020-06-13 2021-12-16 Google Llc Machine learning-based image compression setting reflecting user preferences

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148836A (en) * 1999-11-19 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Data broadcast data acquisition method and apparatus
WO2003088665A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
JP2004007271A (en) * 2002-05-31 2004-01-08 Matsushita Electric Ind Co Ltd Authoring apparatus and authoring method
JP2005018925A (en) * 2003-06-27 2005-01-20 Casio Comput Co Ltd Recording / reproducing apparatus and recording / reproducing method
JP2005175523A (en) * 2003-12-05 2005-06-30 Canon Inc Compatible program extraction method, upward compatible program extraction method, and upward compatible program extraction device
JP2005328401A (en) * 2004-05-17 2005-11-24 Sony Corp Information providing apparatus and method, recording medium, and program
JP2006025120A (en) * 2004-07-07 2006-01-26 Casio Comput Co Ltd Recording / playback device, remote control device
JP2006033659A (en) * 2004-07-21 2006-02-02 Sony Corp Content recording / playback apparatus, content recording / playback method, and program thereof
JP2006086638A (en) * 2004-09-14 2006-03-30 Sony Corp Recording apparatus, information processing method, recording medium, and program
JP2006166276A (en) * 2004-12-10 2006-06-22 Hitachi Ltd Scheduled recording setting method
WO2006104106A1 (en) * 2005-03-28 2006-10-05 Pioneer Corporation Digest view system and reproduction control device for digest view

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001148836A (en) * 1999-11-19 2001-05-29 Nippon Telegr & Teleph Corp <Ntt> Data broadcast data acquisition method and apparatus
WO2003088665A1 (en) * 2002-04-12 2003-10-23 Mitsubishi Denki Kabushiki Kaisha Meta data edition device, meta data reproduction device, meta data distribution device, meta data search device, meta data reproduction condition setting device, and meta data distribution method
JP2004007271A (en) * 2002-05-31 2004-01-08 Matsushita Electric Ind Co Ltd Authoring apparatus and authoring method
JP2005018925A (en) * 2003-06-27 2005-01-20 Casio Comput Co Ltd Recording / reproducing apparatus and recording / reproducing method
JP2005175523A (en) * 2003-12-05 2005-06-30 Canon Inc Compatible program extraction method, upward compatible program extraction method, and upward compatible program extraction device
JP2005328401A (en) * 2004-05-17 2005-11-24 Sony Corp Information providing apparatus and method, recording medium, and program
JP2006025120A (en) * 2004-07-07 2006-01-26 Casio Comput Co Ltd Recording / playback device, remote control device
JP2006033659A (en) * 2004-07-21 2006-02-02 Sony Corp Content recording / playback apparatus, content recording / playback method, and program thereof
JP2006086638A (en) * 2004-09-14 2006-03-30 Sony Corp Recording apparatus, information processing method, recording medium, and program
JP2006166276A (en) * 2004-12-10 2006-06-22 Hitachi Ltd Scheduled recording setting method
WO2006104106A1 (en) * 2005-03-28 2006-10-05 Pioneer Corporation Digest view system and reproduction control device for digest view

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNH200600146002; 上野 幹大、外4名: '"視聴環境適応型放送サービスAdapTV"' NHK技研R&D 第98号, 20060715, P.58-63, 日本放送出版協会 *
JPN6011022207; 上野 幹大、外4名: '"視聴環境適応型放送サービスAdapTV"' NHK技研R&D 第98号, 20060715, P.58-63, 日本放送出版協会 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011205251A (en) * 2010-03-24 2011-10-13 Ntt Docomo Inc Information terminal and telop display method
JP2021509790A (en) * 2018-01-04 2021-04-01 ソニー・インタラクティブエンタテインメント エルエルシー Methods and devices for selectively skipping across media content
JP7065975B2 (en) 2018-01-04 2022-05-12 ソニー・インタラクティブエンタテインメント エルエルシー Methods and devices for selectively skipping across media content
WO2021251988A1 (en) * 2020-06-13 2021-12-16 Google Llc Machine learning-based image compression setting reflecting user preferences
US20220053195A1 (en) * 2020-06-13 2022-02-17 Google Llc Learning-based image compression setting
CN114080615A (en) * 2020-06-13 2022-02-22 谷歌有限责任公司 Machine learning based image compression settings reflecting user preferences
JP2023529380A (en) * 2020-06-13 2023-07-10 グーグル エルエルシー Machine learning-based image compression settings that reflect user preferences
US12260598B2 (en) 2020-06-13 2025-03-25 Google Llc Learning-based image compression setting
JP7654692B2 (en) 2020-06-13 2025-04-01 グーグル エルエルシー Machine learning-based image compression settings that reflect user preferences
CN114080615B (en) * 2020-06-13 2025-09-16 谷歌有限责任公司 Machine learning based image compression settings reflecting user preferences

Similar Documents

Publication Publication Date Title
US9569533B2 (en) System and method for visual search in a video media player
JP5060303B2 (en) Recording and playback of video clips based on audio selection
KR101382499B1 (en) Method for tagging video and apparatus for video player using the same
KR101482513B1 (en) Systems and methods for using playlists
KR100350787B1 (en) Multimedia browser based on user profile having ordering preference of searching item of multimedia data
KR100422699B1 (en) Method and apparatus for intelligent video browsing of video contents
EP1227417A2 (en) Selective viewing of video based on one or more themes
KR100370247B1 (en) Video browser based on character relation
JP5106455B2 (en) Content recommendation device and content recommendation method
CN102300126A (en) Movie recommendation system and movie recommendation method
JP2004193871A (en) Media data viewing device and metadata sharing system
US20070239856A1 (en) Capturing broadcast sources to create recordings and rich navigations on mobile media devices
JP4925938B2 (en) Digest video information creation method, digest video information creation program, and video apparatus
JP2008148077A (en) Movie playback device
TWI358948B (en)
JP2013536969A (en) Method and apparatus for providing community-based metadata
JPWO2010021102A1 (en) Related scene assigning apparatus and related scene assigning method
US20080154958A1 (en) Expanding media content item information
JP2011128981A (en) Retrieval device and retrieval method
JP2008099012A (en) Content reproduction system and content storage system
WO2007073053A1 (en) Method for searching situation of moving picture and system using the same
KR20040107126A (en) apparatus and method for Personal Video Recorder
KR100370249B1 (en) A system for video skimming using shot segmentation information
Adams et al. Towards a video browser for the digital native
TWI497959B (en) Scene extraction and playback system, method and its recording media

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002