JP2011091588A - Video recording device and method, and program - Google Patents
Video recording device and method, and program Download PDFInfo
- Publication number
- JP2011091588A JP2011091588A JP2009242928A JP2009242928A JP2011091588A JP 2011091588 A JP2011091588 A JP 2011091588A JP 2009242928 A JP2009242928 A JP 2009242928A JP 2009242928 A JP2009242928 A JP 2009242928A JP 2011091588 A JP2011091588 A JP 2011091588A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- music
- time
- content data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Abstract
【課題】コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出する記録装置、記録方法及びプログラムを提供する。
【解決手段】楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する受信部104と、第一のメタデータから字幕データを検出する字幕検出部142と、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する第一の比較部144と、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する一致時刻検出部144とを備える。
【選択図】図3A recording apparatus, a recording method, and a program for reliably detecting the period of a musical performance scene in content data are provided.
A receiving unit that receives first content data including a performance scene of music and first metadata including information related to the first content data, and detects caption data from the first metadata. Character information is extracted from the first database unit in which the subtitle detection unit 142 and second metadata including information related to a plurality of pieces of music are recorded, and the detected subtitle data is compared with the extracted character information. A first comparison unit 144; and a coincidence time detection unit 144 that detects a time coincident with character information in a performance scene of the music included in the first content data based on a comparison result in the first comparison unit. Is provided.
[Selection] Figure 3
Description
本発明は、録画装置、録画方法及びプログラムに関する。 The present invention relates to a recording apparatus, a recording method, and a program.
ハードディスクレコーダーやホームサーバーなどの記録装置は、テレビ放送信号を受信して放送内容(コンテンツ)を記録する。テレビ放送信号には、放送内容以外に放送内容に関する様々な情報(メタデータ)が含まれる。放送内容に関する様々な情報とは、放送内容の説明、放送時間、出演者等のメタデータである。録画装置はメタデータを使用して録画予約等をする場合がある。特許文献1では、映像中の字幕の変化を検出することで自動的に意味のあるシーンの切り替わりを検出する技術が開示されている。
Recording devices such as hard disk recorders and home servers receive television broadcast signals and record broadcast contents (contents). The TV broadcast signal includes various information (metadata) related to the broadcast content in addition to the broadcast content. Various pieces of information related to the broadcast content include metadata such as explanation of the broadcast content, broadcast time, and performers. The recording apparatus may make a recording reservation using metadata.
テレビ放送の視聴者は、放送番組から音楽の演奏者の演奏(歌唱を含む。以下同じ。)シーンのみを保存したいことがある。従来の録画装置は、メタデータを使用して出演者情報から例えば目的の歌手が出演している番組を検出し、検出した番組全体を記録できる。しかし、従来の録画装置は、番組中から目的の歌手の歌唱シーンを抽出できず、その部分のみを録画することは不可能である。 A TV broadcast viewer may want to save only the performance (including singing; the same shall apply hereinafter) scene of a music performer from a broadcast program. A conventional recording apparatus can detect, for example, a program in which a target singer appears from the performer information using metadata and record the entire detected program. However, the conventional recording device cannot extract the singing scene of the target singer from the program, and cannot record only that portion.
特許文献1の技術では、字幕を利用することによってシーンの切り替わりを検出できるが、目的の歌手がいつからいつまで歌唱しているかという歌唱シーンの期間を検出できない。即ち、特許文献1の技術では、シーンの切り替わりによって、歌手の歌唱が開始したのか否か、又は歌手の歌唱が終了したのか否かが不明であり、シーンの切り替わりとシーンの切り替わりの間がどのような内容の放送であるかを検出できない。
In the technique of
従って、テレビ放送の視聴者は、放送番組から音楽の演奏者の演奏シーンのみを保存したい場合は、放送番組が表示されている画面を視聴しながら手動で録画装置の記録開始及び終了を操作しなければならない。 Therefore, if the viewer of the television broadcast wants to save only the performance scene of the music performer from the broadcast program, it manually operates the recording start and end of the recording device while watching the screen on which the broadcast program is displayed. There must be.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出することが可能な、新規かつ改良された録画装置、録画方法及びプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of reliably detecting the period of a musical performance scene in content data. Another object is to provide a recording device, a recording method, and a program.
上記課題を解決するために、本発明のある観点によれば、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する受信部と、第一のメタデータから字幕データを検出する字幕検出部と、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する第一の比較部と、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する一致時刻検出部とを備える記録装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, a receiving unit that receives first content data including a performance scene of music and first metadata including information related to the first content data; A subtitle detection unit that detects subtitle data from the first metadata, and a subtitle detected by extracting character information from the first database unit in which the second metadata including information on a plurality of pieces of music is recorded Based on the comparison result in the first comparison unit that compares the data with the extracted character information and the first comparison unit, the character information in the performance scene of the music included in the first content data matches A recording device is provided that includes a coincidence time detection unit that detects time.
上記検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出するオーディオ検出部と、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較する第二の比較部と、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出する楽曲区間検出部とを更に備えてもよい。 An audio detection unit for detecting audio data for a certain period from the first content data so as to include the detected coincidence time, and a second database unit in which second content data including information on a plurality of music pieces is recorded Audio data is extracted from the first content data based on the comparison result in the second comparison unit and the second comparison unit that compares the audio data for a certain period with the extracted audio data You may further provide the music area detection part which detects the time slot | zone which corresponds to the audio | voice data extracted among the audio data of a fixed period.
上記検出された時間帯に基づいて、時間帯の第一のコンテンツデータを記憶部に記録する録画部を更に備えてもよい。 You may further provide the video recording part which records the 1st content data of a time slot | zone on a memory | storage part based on the detected time slot | zone.
上記検出された時間帯と文字情報に基づいて、画面に楽曲の一覧を表示する表示制御部を更に備えてもよい。 You may further provide the display control part which displays the list of music on a screen based on the detected time slot | zone and character information.
上記検出された一致時刻と文字情報に基づいて、画面に演奏時刻情報を表示する表示制御部を更に備えてもよい。 You may further provide the display control part which displays performance time information on a screen based on the detected said coincidence time and character information.
上記検出された時間帯と、文字情報を外部に送信する送信部を更に備えてもよい。 You may further provide the transmission part which transmits the said detected time slot | zone and character information outside.
上記第一のデータベース部又は第二のデータベース部は、ネットワークを介して接続されてもよい。 The first database unit or the second database unit may be connected via a network.
また、上記課題を解決するために、本発明の別の観点によれば、受信部が、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信するステップと、字幕検出部が第一のメタデータから字幕データを検出するステップと、第一の比較部が、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較するステップと、一致時刻検出部が、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出するステップとを備える記録方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, the receiving unit includes a first meta data including first performance data including a performance scene of music and information regarding the first content data. A step of receiving data, a step of detecting subtitle data from the first metadata by the subtitle detection unit, and a first comparison unit storing the second metadata including information on a plurality of music pieces Extracting the character information from the database part of the first and comparing the detected subtitle data with the extracted character information, and the coincidence time detecting unit, based on the comparison result in the first comparing unit, There is provided a recording method including a step of detecting a time coincident with character information in a performance scene of music included in content data.
上記オーディオ検出部が、検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出するステップと、第二の比較部が、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較するステップと、楽曲区間検出部が、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出するステップとを更に備えてもよい。 A step in which the audio detection unit detects audio data for a certain period from the first content data so as to include the detected coincidence time; and a second content in which the second comparison unit includes information on a plurality of pieces of music. Extracting voice data from the second database part in which the data is recorded, comparing the audio data for a certain period with the extracted voice data, and the result of the comparison between the music section detection part and the second comparison part And detecting a time zone that matches the extracted audio data from the audio data of a certain period included in the first content data.
また、上記課題を解決するために、本発明の別の観点によれば、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する手段、第一のメタデータから字幕データを検出する手段、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する手段、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する手段としてコンピュータを機能させるためのプログラムが提供される。 In order to solve the above problem, according to another aspect of the present invention, first content data including a performance scene of music and first metadata including information on the first content data are received. Means for detecting subtitle data from the first metadata, extracting character information from the first database section in which the second metadata including information on a plurality of music is recorded, and detecting the subtitle data Computer as means for comparing with extracted character information, as means for detecting time matching character information among performance scenes of music included in first content data based on comparison result in first comparison unit A program for functioning the program is provided.
検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出する手段、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較する手段、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出する手段として更にコンピュータを機能させてもよい。 Means for detecting audio data for a certain period from the first content data so as to include the detected coincidence time, and audio data from the second database section in which the second content data including information relating to a plurality of songs is recorded Means for extracting and comparing the audio data for a certain period and the extracted audio data, and extracting from the audio data for a certain period included in the first content data based on the comparison result in the second comparison unit The computer may further function as a means for detecting a time zone that matches the audio data.
以上説明したように本発明によれば、コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出することができる。 As described above, according to the present invention, it is possible to reliably detect the period of the musical performance scene in the content data.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
2.第2の実施の形態
The description will be made in the following order.
1. 1. First embodiment Second embodiment
<1.第1の実施形態>
[本実施形態の構成]
まず、図1を参照して、本発明の第1の実施形態に係る録画システムの構成について説明する。図1は、本発明の第1の実施形態に係る録画システムを示すブロック図である。
<1. First Embodiment>
[Configuration of this embodiment]
First, the configuration of a recording system according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a recording system according to the first embodiment of the present invention.
本実施形態に係る録画システムは、例えば、複数の録画装置100と、サーバー20などからなる。図1では、説明のため、一つの録画装置100のみを示した。録画装置100とサーバー20は、インターネット等のネットワーク10を介して相互に接続される。
The recording system according to the present embodiment includes, for example, a plurality of
録画装置100は、テレビ放送信号を無線又は有線で受信し、放送番組を記録媒体に記録する。録画装置100に接続されたディスプレイ30は、放送番組、番組情報、プレイリスト等を表示する。サーバー20は、例えばデータベース22を有し、データベース22に記録された楽曲に関する情報を録画装置100に送る。データベース22に記録された楽曲に関する情報は、例えば歌手、曲名、作詞者、作曲者、歌詞などの文字情報や、歌唱や演奏に関する音声データである。データベース22は、第一のデータベース部、第二のデータベース部の一例である。
The
次に、図2を参照して、本実施形態に係る録画装置100の構成について説明する。図2は、本実施形態に係る録画装置100を示すブロック図である。
Next, the configuration of the
本実施形態に係る録画装置100は、例えばCPU102と、チューナ104と、デコーダ106と、エンコーダ108と、通信制御部112と、ROM114と、表示制御部116と、RAM118と、記憶部120と、データベース部122などからなる。
The
CPU(Central Processing Unit)102は、演算処理装置、制御装置などであり、ROM114等のメモリに記録されたプログラムを実行する。本実施形態のCPU102は、例えば後述する字幕検出部142、キーワード比較部144、一致時刻記録部146、オーディオ検出部152、楽曲比較部154、楽曲区間記録部156などを有する。
A CPU (Central Processing Unit) 102 is an arithmetic processing unit, a control unit, or the like, and executes a program recorded in a memory such as a
チューナ104は、テレビ放送信号を受信する。テレビ放送信号の受信は、無線又は有線のいずれでもよい。受信したテレビ放送信号は、デコーダ106に送られる。チューナ104は、受信部の一例であり、コンテンツデータ(第一のコンテンツデータ)及びコンテンツデータに関するメタデータ(第一のメタデータ)を受信する。
The
デコーダ106は、テレビ放送信号を復号する。復号された信号は、エンコーダ108や表示制御部116に送られる。エンコーダ108は、復号されたテレビ放送信号を符号化し、符号化された信号を記憶部120に映像データとして送る。エンコーダ108は、後述する録画部132に該当する。
The
通信制御部112は、有線又は無線でのデータ伝送を制御する。通信制御部112は、例えばインターネットなどのネットワーク10と接続して、サーバー20からデータベース22のデータを受ける。
The
ROM(Read−Only Memory)114は、読み出し専用のメモリであり、CPU102で実行されるプログラム等が記録される。CPU102によってROM114に記録されたプログラムが読み出される。
A ROM (Read-Only Memory) 114 is a read-only memory, in which programs executed by the
表示制御部116は、復号されたテレビ放送信号をディスプレイ30に送る。また、表示制御部116は、録画装置100で作成されたプレイリスト等に関するデータについて、表示信号を生成し、生成した表示信号をディスプレイ30に送る。これにより、ディスプレイ30は、画面にプレイリスト等を表示できる。
The
RAM(Random Access Memory)118は、テレビ放送信号を一時的に保管したり、後述する時刻情報が一時的に記録されたりする。RAM118は、後述するバッファ部124に該当する。
A RAM (Random Access Memory) 118 temporarily stores television broadcast signals and temporarily records time information described later. The
記憶部120は、録画対象となった放送番組のデータを録画データとして記憶する。データベース部122は、データベースに記録された楽曲に関する情報、例えば歌手、曲名、作詞者、作曲者、歌詞などの文字情報や、歌唱や演奏に関する音声データを保持する。即ち、データベース部はコンテンツデータ(第二のコンテンツデータ)とメタデータ(第二のメタデータ)を保持する。データベース22は、第一のデータベース部、第二のデータベース部の一例である。
The
上述した例では、録画装置100がサーバー20に接続される例について説明した。データベース部122は、データベース22にアクセスして、最新情報を取得する。なお、録画装置100はデータベース部122を有さず、サーバー20のデータベース22を使用してもよい。
In the example described above, the example in which the
[本実施形態の動作]
次に、図3及び図4を参照して、本実施形態に係る録画装置100の動作を説明する。図3は、本実施形態に係る録画装置を示すブロック図である。図4は、本実施形態に係る録画装置の録画動作を示すフローチャートである。
[Operation of this embodiment]
Next, the operation of the
まず、ユーザーは、録画装置100において、録画を希望する目的の歌手、目的の曲名又はそれらの組み合わせを指定する(ステップS101)。録画装置100は、放送に含まれる番組情報(EPG等のメタデータ)に基づいて、目的とする歌手が出演する番組を抽出する(ステップS102)。そして、抽出された番組の録画の予約を行い(ステップS103)、放送時間に合わせて録画を開始する(ステップS104)。なお、番組の抽出、選択は、録画装置100が番組情報に基づいて行う場合に限定されず、ユーザーが直接、録画したい番組を指定してもよい。
First, the user designates a target singer who wishes to record, a target song name, or a combination thereof in the recording apparatus 100 (step S101). The
録画が開始されると、ユーザーによる指定等によって録画対象となった放送内容、例えば放送番組のデータ(以下、「録画データ」ともいう。)がバッファ部124に入力される。録画データは、コンテンツデータとコンテンツデータに関する情報を含むメタデータからなる。そして、録画データは、バッファ部124で一時的に保管される(ステップS105)。ここで、録画対象となった放送番組は、ユーザーが音楽の演奏を保存したい番組である。番組は、例えば楽曲を中心に放映する音楽番組、演奏者に関するドキュメンタリー番組などジャンルに関わらず、いずれのジャンルの番組でもよい。
When the recording is started, the broadcast content that is the target of recording, for example, data of a broadcast program (hereinafter also referred to as “recording data”) is input to the
次に、字幕検出部142が、字幕データをバッファ部124に保管された録画データから検出する(ステップS106)。字幕データは、メタデータに含まれるデータである。字幕データは、番組で放送される音声を文字で表現した字幕に関する情報であり、文字情報である。例えば、番組で歌手が歌唱している場合、字幕データには歌詞が含まれる。また、番組で司会やナレーターによって音楽タイトル、演奏者が紹介されている場合、字幕データには音楽タイトル、演奏者が含まれる。
Next, the
検出された字幕データは、キーワード比較部144に送られる。また、キーワード比較部144は、第一の比較部の一例であり、ユーザーが保存したい歌手名又は曲名等に関する文字情報を、データベース部122から読み出す。データベース部122から読み出される文字情報は、歌手、曲名、作詞者、作曲者、歌詞などである。データベースは、録画装置100内に搭載されたデータベース部122に記録されているものを使用しているが、ネットワークを介して接続されたサーバー内のデータベース22に記録されているものを使用してもよい。
The detected caption data is sent to the
キーワード比較部144は、検出された字幕データと、データベース部122から読み出された文字情報を比較して(ステップS107)、ユーザーが保存したい目的とした歌手又は楽曲等に関する文字情報が一致する時刻t0を検出する。キーワード比較部144は、一致時刻検出部の一例である。検出された一致時刻t0は、一致時刻記録部146によってRAM118等のメモリに記録される(ステップS108)。ここで、時刻とは例えば放送番組の時刻である。
The
図5に、録画データにおける時刻t0を示す。図5は、録画データ、オーディオデータ及び曲データの関係を示す説明図である。記録された一致時刻t0は、目的とした歌手又は楽曲の歌唱シーンが存在する時刻であり、番組中において、いつ演奏シーンが放送されたかを目安として知ることができる情報である。 FIG. 5 shows time t0 in the recording data. FIG. 5 is an explanatory diagram showing the relationship between recorded data, audio data, and song data. The recorded coincidence time t0 is the time when the intended singer or song singing scene exists, and is information that can be used as a guideline when the performance scene was broadcast in the program.
次に、オーディオ検出部152は、記録された一致時刻t0を含むオーディオデータをバッファ部124から読み出す。オーディオデータは、コンテンツデータに含まれるデータである。オーディオデータは、番組で放送される音声に関する情報である。オーディオデータは、例えば、番組で歌手が歌唱している場合、歌唱部分の音声データであり、演奏者が演奏している場合、演奏部分の音声データである。また、オーディオデータは、番組で司会やナレーターによって音楽タイトル、演奏者が紹介されている場合、人の声に関する音声データである。
Next, the
バッファ部124からオーディオデータが読み出されるとき、記録された一致時刻t0を含む、ある長さを有するデータが抽出される。データが抽出されるときのある長さとは、t1(=t0−Δt1)から開始し、t2(=t0+Δt2)で終了する期間である。Δt1やΔt2は、t0における文字情報等に依存して決定される。例えば、バッファ部124からオーディオデータを読み出すとき、オーディオ検出部152は、時刻t1を算出し(ステップS109)、時刻t2を算出する(ステップS110)。そして、オーディオ検出部152は、時刻t1〜t2までのオーディオデータを検出する(ステップS111)。
When audio data is read from the
例えば、t0における文字情報が歌詞の一部である場合は、歌詞の全体の長さと一致時刻t0における歌詞の位置に応じて、Δt1やΔt2が決定される。一致時刻t0における歌詞が歌詞全体のうち冒頭に位置することが分かれば、Δt1は相対的に短い時間に決定され、Δt2は相対的に長い時間に決定される。また、t0における文字情報が楽曲紹介の司会者の声の一部である場合は、楽曲の紹介(一致時刻t0)から楽曲が開始するまでの時間や、歌詞の全体の長さに応じて、Δt1やΔt2が決定される。なお、Δt1やΔt2は、正の値に限らず負の値をとってもよい。 For example, when the character information at t0 is part of the lyrics, Δt1 and Δt2 are determined according to the overall length of the lyrics and the position of the lyrics at the matching time t0. If it is found that the lyrics at the coincidence time t0 are located at the beginning of the entire lyrics, Δt1 is determined to be a relatively short time, and Δt2 is determined to be a relatively long time. In addition, when the character information at t0 is part of the voice of the presenter of the music introduction, depending on the time from the introduction of the music (match time t0) to the start of the music and the overall length of the lyrics, Δt1 and Δt2 are determined. Note that Δt1 and Δt2 are not limited to positive values, and may take negative values.
バッファ部124からオーディオデータが読み出される具体的な期間は、楽曲に応じて異なるが、歌詞全体と一致時刻t0における歌詞の関係に関するパラメータを設定しておき、パラメータに基づいて決定されるとしてもよい。オーディオ検出部152で、バッファ部124からある長さのオーディオデータを読み出す際は、厳密な期間のデータを読み出さなくてもよい。図5に、オーディオデータの開始時刻t1、終了時刻t2を示す。開始時刻t1、終了時刻t2は、目的とした歌手又は楽曲の歌唱シーンが存在する時間帯であり、番組中における演奏シーンが放送されている時間帯を目安として知ることができる情報である。オーディオデータの開始時刻t1、終了時刻t2は、キーワード比較部144で検出された時刻t0よりも、録画データにおける演奏シーンが存在する場所を特定できるが、正確な演奏期間ではない。
Although the specific period during which the audio data is read from the
オーディオ検出部152で検出されたオーディオデータは、楽曲比較部154に送られる。また、楽曲比較部154は、ユーザーが保存したい歌手名又は曲名等に関する音声データを、データベース部122から読み出す。データベース部122から読み出される音声データは、歌唱や演奏に関する音声データである。楽曲比較部154は、第二の比較部の一例であり、検出されたオーディオデータと、データベース部122から読み出された音声データを比較する(ステップS112)。そして、楽曲比較部154は、ユーザーが保存したい目的とした歌手又は楽曲等に関する音声データが一致する時間帯を検出する(ステップS113)。楽曲比較部154は、第二の比較部の一例である。検出された時間帯は、例えば開始時刻tsと終了時刻teで定義される。検出された開始時刻ts、終了時刻teは楽曲区間記録部156によってRAM118等のメモリに記録される。ここで、時刻とは例えば放送番組の時刻である。
The audio data detected by the
図5に、録画データにおける時刻ts,teを示す。記録された時刻ts,teは、目的とした歌手又は楽曲の歌唱シーンが存在する時間帯を表す時刻であり、番組中において、いつ演奏シーンが放送されたかを知ることができる情報である。番組中において、一つの楽曲が全て通して演奏される場合でも、一つの楽曲の一部のみが演奏される場合でもいずれの場合も、楽曲比較部154は、時刻ts,teを検出できる。
FIG. 5 shows times ts and te in the recording data. The recorded times ts and te are times indicating the time zone in which the intended singer or song singing scene exists, and are information that can be used to know when the performance scene was broadcast during the program. The
楽曲比較部154によって検出された楽曲の開始時刻ts、終了時刻teは、キーワード比較部144で検出された時刻t0や、オーディオ検出部152で検出された開始時刻t1、終了時刻t2よりも、録画データにおける演奏シーンが存在する場所を特定できる。このように、キーワード比較、オーディオ検出、楽曲比較と段階的に演奏シーンを特定することによって、音声データのみを使用して演奏シーンを特定する場合に比べて、迅速かつ精度良く、録画データにおける演奏シーンの開始時刻、終了時刻を特定できる。
The music start time ts and end time te detected by the
そして、楽曲区間記録部156によって記録された時刻ts,teを用いることで、録画データから、ユーザーが保存したい目的とした歌手又は楽曲等に関する映像データ及び音声データを抽出できる。そして、録画部132は、時刻ts,teの時間帯の録画データを記憶部120に記録する。その結果、例えば、ユーザーが画面を見ながら録画開始及び録画終了の操作をすることなく、録画装置100は目的とする演奏シーンのみを曲データとして録画できる(ステップS114)。
Then, by using the times ts and te recorded by the music
上述した図4のステップS106〜S112のシーン検出動作は、放送番組の受信と同時に行う。これにより、本実施形態では、楽曲の開始時刻ts、終了時刻teによって特定できる曲データのみを記憶部120に記録できる。目的とする演奏シーンのみを録画できるため、最終的な録画容量を低減できる。なお、本発明は、シーン検出動作を放送番組と同時に行う場合に限定されない。例えば、番組全体を記録した後に、図4のステップS106〜S112のシーン検出動作を行って、演奏シーンの抽出をしてもよい。
The above-described scene detection operation in steps S106 to S112 in FIG. 4 is performed simultaneously with the reception of the broadcast program. Thereby, in this embodiment, only the music data that can be specified by the start time ts and the end time te of the music can be recorded in the
[時刻ts,teの使用例]
次に、楽曲区間記録部156によって記録された時刻ts,teの使用例について説明する。上記では、楽曲の開始時刻ts、終了時刻teによって特定できる、目的とする演奏シーンのみを録画する例について説明したが、時刻ts,teの使用例はこの例に限定されない。
[Usage example of time ts, te]
Next, a usage example of the times ts and te recorded by the music
例えば、録画装置100における番組の録画は、番組全体が記憶部120に記録されてもよく、図6に示すように、画面182に、一つの放送番組160に含まれる複数の曲、例えば曲162,164をプレイリスト形式で表示してもよい。図6は、時間軸上の録画データと、画面に表示されるプレイリストを示す説明図である。プレイリストは、録画装置100によって、楽曲区間記録部156によって記録された時刻ts,teと、歌手名又は曲名等の文字情報を使用して作成される。
For example, in the recording of a program in the
図6に示す例では、画面182に表示されたプレイリストには、歌手名、曲名、その他の楽曲に関する情報が一覧表示されている。プレイリストには演奏シーンの開始時刻tsや終了時刻teを表示してもよい。ユーザーは、リモートコントローラ等を使用して画面182に表示された楽曲を選択することで、視聴したい楽曲を迅速に表示させることができる。プレイリストは、一つの番組の複数の楽曲を一つの画面に表示してもよいし、複数の番組の複数の楽曲を一つの画面に表示してもよい。
In the example shown in FIG. 6, the playlist displayed on the
また、図8に示すように、本実施形態に係る録画システムは、上述した録画装置100以外に録画装置200や情報処理装置300などを有して、録画装置100がシーン時刻情報を録画装置200や情報処理装置300などに送信してもよい。図8は、本発明の第1の実施形態に係る録画システムを示すブロック図である。
As shown in FIG. 8, the recording system according to the present embodiment includes a
録画装置100は、有線又は無線で録画装置200又は情報処理装置300などと接続される。録画装置200は、録画装置100と同様にハードディスクレコーダー、ホームサーバー等である。情報処理装置300は、パーソナルコンピューター等である。録画装置100から送信されるシーン時刻情報は、上述した楽曲区間記録部156によって記録された時刻ts,teである。
The
録画装置200又は情報処理装置300は、シーン時刻情報を受信することによって、自身が有している録画データから演奏シーンを抽出できる。また、録画装置200又は情報処理装置300のディスプレイにプレイリストを表示して、楽曲を一覧表示できる。
The
図9は、本実施形態に係る他の録画装置又は情報処理装置の動作を示すフローチャートである。録画装置100以外の録画装置200や情報処理装置300は、録画装置100からシーン時刻情報、即ち時刻ts,teを取得する(ステップS201)。そして、取得した時刻ts,teを記憶部に記録する(ステップS202)。これによって、録画装置200や情報処理装置300は、録画装置100が図4のステップS106〜S112で行ったシーン検出動作を行うことなく、番組中で楽曲が演奏されているシーンの時間帯を保持できる。
FIG. 9 is a flowchart showing the operation of another recording apparatus or information processing apparatus according to this embodiment. The
録画装置200や情報処理装置300が、放送番組の録画データを有している場合、録画データから演奏シーンのみを曲データとして抽出できる(ステップS203)。抽出後に演奏シーン以外の部分を記憶部から削除すれば、録画容量を減少させることができる。また、録画装置200や情報処理装置300は、楽曲区間記録部156によって記録された時刻ts,teと、歌手名又は曲名等の文字情報を使用してプレイリストを作成してもよい(ステップS204)。このとき、歌手又は楽曲をジャンルやユーザーの好み等に応じて分類することで、テレビ放送から抽出したコンテンツデータを集めたプレイリストを作成することもできる。プレイリストには演奏シーンの開始時刻tsや終了時刻teを表示してもよい。
If the
本発明の第1の実施形態によれば、コンテンツデータ内の演奏シーンの時間帯を簡潔かつ確実に特定できる。従来、シーンの切り替わりは検出可能であったが、ユーザーが目的とする歌手又は楽曲の演奏シーンを検出できなかった。一方、本実施形態によれば、ユーザーが目的とする歌手又は楽曲を指定したとき、指定した目的とする歌手又は楽曲の演奏シーンの時間帯を検出できる。また、歌手又は楽曲の演奏シーンのみをユーザーが手動で操作することなく録画できる。更に、目的のシーンのみを録画することで、録画容量を低減できる。また、目的の歌手又は楽曲を集めたプレイリストを作成できる。 According to the first embodiment of the present invention, the time zone of the performance scene in the content data can be specified simply and reliably. Conventionally, scene switching can be detected, but a user's intended singer or musical performance scene cannot be detected. On the other hand, according to this embodiment, when the user designates a target singer or song, the time zone of the performance scene of the designated target singer or song can be detected. Moreover, only the performance scene of a singer or music can be recorded without a user's manual operation. Furthermore, recording capacity can be reduced by recording only the target scene. In addition, it is possible to create a playlist in which target singers or music pieces are collected.
<2.第2の実施形態>
次に、本発明の第2の実施形態に係る録画システム及び録画装置について説明する。
図7は、時間軸上の録画データと、画面に表示される演奏時刻情報を示す説明図である。上述した第1の実施形態では、キーワード比較、オーディオ検出、楽曲比較と段階的に演奏シーンを特定して、録画データにおける演奏シーンの開始時刻、終了時刻を特定した。
<2. Second Embodiment>
Next, a recording system and a recording apparatus according to the second embodiment of the present invention will be described.
FIG. 7 is an explanatory diagram showing recorded data on the time axis and performance time information displayed on the screen. In the first embodiment described above, performance scenes are specified step by step by keyword comparison, audio detection, and music comparison, and the start time and end time of the performance scene in the recorded data are specified.
本実施形態では、キーワード比較のみで録画データにおける演奏シーンを簡易的に特定する。 In the present embodiment, the performance scene in the recorded data is simply specified only by keyword comparison.
即ち、第1の実施形態と同様に、字幕検出部142で、字幕データがバッファ部124に保管された録画データから検出される。検出された字幕データは、キーワード比較部144に送られる。また、キーワード比較部144では、ユーザーが保存したい歌手名又は曲名等に関する文字情報が、データベース部122から読み出される。キーワード比較部144は、検出された字幕データと、データベース部122から読み出された文字情報を比較して、ユーザーが保存したい目的とした歌手又は楽曲等に関する文字情報が一致する時刻t0を検出する。検出された一致時刻t0は、一致時刻記録部146によってRAM118等のメモリに記録される。
That is, as in the first embodiment, the
そして、第1の実施形態で説明した、オーディオ検出、楽曲比較に関する動作は、第2の実施形態では行わない。 The operations related to audio detection and music comparison described in the first embodiment are not performed in the second embodiment.
以上の動作で記録された一致時刻t0は、目的とした歌手又は楽曲の歌唱シーンが存在する時刻であり、番組中において、いつ演奏シーンが放送されたかを目安として知ることができる情報である。この時刻情報を使用して、目的の歌唱シーンの時刻をユーザーに提供する。 The coincidence time t0 recorded by the above operation is the time at which the intended singer or song singing scene exists, and is information that can be known as a guide when the performance scene was broadcast during the program. Using this time information, the time of the target singing scene is provided to the user.
図7に示すように、画面184に、一つの放送番組160に含まれる複数の曲の時刻情報t01,t02を演奏時刻情報として一覧で表示してもよい。演奏時刻情報は、録画装置100によって、一致時刻記録部146によって記録された時刻t01,t02等と、歌手名又は曲名等の文字情報を使用して作成される。
As shown in FIG. 7, time information t01 and t02 of a plurality of songs included in one broadcast program 160 may be displayed in a list on the
図7に示す例では、画面184に表示された演奏時刻情報には、歌手名、曲名、その他の楽曲に関する情報、演奏シーンが含まれる時刻t0が表示されている。ユーザーは、リモートコントローラ等を使用して画面184に表示された楽曲を選択することで、視聴したい楽曲を迅速に表示させることができる。演奏時刻情報は、一つの番組の複数の楽曲を一つの画面に表示してもよいし、複数の番組の複数の楽曲を一つの画面に表示してもよい。
In the example shown in FIG. 7, the performance time information displayed on the
本発明の第2の実施形態によれば、コンテンツデータ内の演奏シーンの時刻を簡潔に特定できる。従来、シーンの切り替わりは検出可能であったが、ユーザーが目的とする歌手又は楽曲の演奏シーンを検出できなかった。一方、本実施形態によれば、ユーザーが目的とする歌手又は楽曲を指定したとき、指定した目的とする歌手又は楽曲の演奏シーンの時刻を検出できる。 According to the second embodiment of the present invention, it is possible to simply specify the time of the performance scene in the content data. Conventionally, scene switching can be detected, but a user's intended singer or musical performance scene cannot be detected. On the other hand, according to this embodiment, when the user designates a target singer or music, the time of the performance scene of the designated target singer or music can be detected.
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
10 ネットワーク
20 サーバー
22 データベース
30 ディスプレイ
100,200 録画装置
102 CPU
104 チューナ
106 デコーダ
108 エンコーダ
112 通信制御部
114 ROM
116 表示制御部
118 RAM
120 記憶部
122 データベース部
124 バッファ部
132 録画部
142 字幕検出部
144 キーワード比較部
146 一致時刻記録部
152 オーディオ検出部
154 楽曲比較部
156 楽曲区間記録部
300 情報処理装置
10
104
116
DESCRIPTION OF
Claims (11)
前記第一のメタデータから字幕データを検出する字幕検出部と、
複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較する第一の比較部と、
前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出する一致時刻検出部と、
を備える、記録装置 A receiving unit that receives first content data including a performance scene of the music, and first metadata including information on the first content data;
A caption detection unit for detecting caption data from the first metadata;
A first comparison in which character information is extracted from a first database unit in which second metadata including information on a plurality of music pieces is recorded, and the detected caption data is compared with the extracted character information. And
Based on the comparison result in the first comparison unit, a coincidence time detection unit that detects a time coincident with the character information in the performance scene of the music included in the first content data;
A recording apparatus comprising:
複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較する第二の比較部と、
前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出する楽曲区間検出部と、
を更に備える、請求項1に記載の記録装置。 An audio detection unit for detecting audio data for a certain period from the first content data so as to include the detected matching time;
A second comparison in which audio data is extracted from a second database section in which second content data including information related to a plurality of songs is recorded, and the audio data for a certain period is compared with the extracted audio data And
A music section detection unit that detects a time zone that matches the extracted audio data among the audio data of the certain period included in the first content data based on the comparison result in the second comparison unit; ,
The recording apparatus according to claim 1, further comprising:
字幕検出部が前記第一のメタデータから字幕データを検出するステップと、
第一の比較部が、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較するステップと、
一致時刻検出部が、前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出するステップと、
を備える、記録方法 A receiving unit receiving first content data including a performance scene of the music and first metadata including information on the first content data;
A subtitle detection unit detecting subtitle data from the first metadata;
The first comparison unit extracts character information from the first database unit in which the second metadata including information on a plurality of songs is recorded, and the detected caption data and the extracted character information A step of comparing
A step of detecting a time that matches the character information in the performance scene of the music included in the first content data based on a comparison result in the first comparison unit;
A recording method comprising
第二の比較部が、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較するステップと、
楽曲区間検出部が、前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出するステップと、
を更に備える、請求項8に記載の記録方法。 An audio detecting unit detecting audio data for a certain period from the first content data so as to include the detected matching time;
The second comparison unit extracts audio data from the second database unit in which the second content data including information on a plurality of pieces of music is recorded, and the audio data for the certain period and the extracted audio data A step of comparing
The music section detection unit detects a time zone that matches the extracted audio data from the audio data of the certain period included in the first content data based on the comparison result in the second comparison unit. And steps to
The recording method according to claim 8, further comprising:
前記第一のメタデータから字幕データを検出する手段、
複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較する手段、
前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出する手段、
としてコンピュータを機能させるためのプログラム。 Means for receiving first content data including a performance scene of music and first metadata including information on the first content data;
Means for detecting caption data from the first metadata;
Means for extracting character information from a first database part in which second metadata including information relating to a plurality of songs is recorded, and comparing the detected subtitle data with the extracted character information;
Means for detecting a time coincident with the character information in the performance scene of the music included in the first content data based on a comparison result in the first comparison unit;
As a program to make the computer function.
複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較する手段、
前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出する手段、
としてコンピュータを更に機能させるための請求項10に記載のプログラム。 Means for detecting audio data for a certain period from the first content data so as to include the detected matching time;
Means for extracting audio data from a second database unit in which second content data including information relating to a plurality of music pieces is recorded, and comparing the audio data of the certain period with the extracted audio data;
Means for detecting a time zone that matches the extracted audio data out of the audio data of the certain period included in the first content data based on a comparison result in the second comparison unit;
The program according to claim 10 for causing a computer to further function as:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009242928A JP2011091588A (en) | 2009-10-22 | 2009-10-22 | Video recording device and method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009242928A JP2011091588A (en) | 2009-10-22 | 2009-10-22 | Video recording device and method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011091588A true JP2011091588A (en) | 2011-05-06 |
Family
ID=44109427
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009242928A Withdrawn JP2011091588A (en) | 2009-10-22 | 2009-10-22 | Video recording device and method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011091588A (en) |
-
2009
- 2009-10-22 JP JP2009242928A patent/JP2011091588A/en not_active Withdrawn
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4866359B2 (en) | Recording / reproducing apparatus, recording / reproducing method, recording / reproducing program, and computer-readable recording medium | |
| JP5135024B2 (en) | Apparatus, method, and program for notifying content scene appearance | |
| JP4317127B2 (en) | System and method for indexing and summarizing music videos | |
| US20070265720A1 (en) | Content marking method, content playback apparatus, content playback method, and storage medium | |
| JP2006211311A (en) | Digested video image forming device | |
| JP4692775B2 (en) | Video content playback support method, video content playback support system, and information distribution program | |
| JP4678246B2 (en) | Program search support system | |
| JP4621607B2 (en) | Information processing apparatus and method | |
| JP4668875B2 (en) | Program recording / playback apparatus, program playback position control method, and program information providing apparatus | |
| JP2007200524A (en) | Recording device, data management system | |
| JP2006054517A (en) | Information presenting apparatus, method, and program | |
| JP2009147775A (en) | Program reproduction method, apparatus, program, and medium | |
| EP2587829A1 (en) | Video analysis information upload apparatus and video viewing system and method | |
| JP2011091588A (en) | Video recording device and method, and program | |
| JP4725554B2 (en) | Program recording / reproducing system and program recording / reproducing method | |
| US20070223880A1 (en) | Video playback apparatus | |
| JP4364850B2 (en) | Audio playback device | |
| JP2007294020A (en) | Recording / reproducing method, recording / reproducing apparatus, recording method, recording apparatus, reproducing method, and reproducing apparatus | |
| US7609940B2 (en) | Display device and method for recording and replaying broadcasting program therein | |
| JP2011248202A (en) | Recording and playback apparatus | |
| JP5286136B2 (en) | Digital broadcast receiver | |
| JP2006262013A (en) | Recording device | |
| JP4039019B2 (en) | Program reservation method and system, program reservation server, program reservation program, and computer-readable recording medium | |
| KR101995531B1 (en) | Method for providing broadcasted music and apparatus using the same | |
| JP2007336086A (en) | Content recording apparatus, content reproducing apparatus, and content network system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130108 |