[go: up one dir, main page]

JP2011091588A - Video recording device and method, and program - Google Patents

Video recording device and method, and program Download PDF

Info

Publication number
JP2011091588A
JP2011091588A JP2009242928A JP2009242928A JP2011091588A JP 2011091588 A JP2011091588 A JP 2011091588A JP 2009242928 A JP2009242928 A JP 2009242928A JP 2009242928 A JP2009242928 A JP 2009242928A JP 2011091588 A JP2011091588 A JP 2011091588A
Authority
JP
Japan
Prior art keywords
unit
data
music
time
content data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009242928A
Other languages
Japanese (ja)
Inventor
Hirotaka Yamada
浩貴 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009242928A priority Critical patent/JP2011091588A/en
Publication of JP2011091588A publication Critical patent/JP2011091588A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

【課題】コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出する記録装置、記録方法及びプログラムを提供する。
【解決手段】楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する受信部104と、第一のメタデータから字幕データを検出する字幕検出部142と、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する第一の比較部144と、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する一致時刻検出部144とを備える。
【選択図】図3
A recording apparatus, a recording method, and a program for reliably detecting the period of a musical performance scene in content data are provided.
A receiving unit that receives first content data including a performance scene of music and first metadata including information related to the first content data, and detects caption data from the first metadata. Character information is extracted from the first database unit in which the subtitle detection unit 142 and second metadata including information related to a plurality of pieces of music are recorded, and the detected subtitle data is compared with the extracted character information. A first comparison unit 144; and a coincidence time detection unit 144 that detects a time coincident with character information in a performance scene of the music included in the first content data based on a comparison result in the first comparison unit. Is provided.
[Selection] Figure 3

Description

本発明は、録画装置、録画方法及びプログラムに関する。   The present invention relates to a recording apparatus, a recording method, and a program.

ハードディスクレコーダーやホームサーバーなどの記録装置は、テレビ放送信号を受信して放送内容(コンテンツ)を記録する。テレビ放送信号には、放送内容以外に放送内容に関する様々な情報(メタデータ)が含まれる。放送内容に関する様々な情報とは、放送内容の説明、放送時間、出演者等のメタデータである。録画装置はメタデータを使用して録画予約等をする場合がある。特許文献1では、映像中の字幕の変化を検出することで自動的に意味のあるシーンの切り替わりを検出する技術が開示されている。   Recording devices such as hard disk recorders and home servers receive television broadcast signals and record broadcast contents (contents). The TV broadcast signal includes various information (metadata) related to the broadcast content in addition to the broadcast content. Various pieces of information related to the broadcast content include metadata such as explanation of the broadcast content, broadcast time, and performers. The recording apparatus may make a recording reservation using metadata. Patent Document 1 discloses a technique for automatically detecting a meaningful scene change by detecting a change in subtitles in a video.

特開2000−187904号公報JP 2000-187904 A

テレビ放送の視聴者は、放送番組から音楽の演奏者の演奏(歌唱を含む。以下同じ。)シーンのみを保存したいことがある。従来の録画装置は、メタデータを使用して出演者情報から例えば目的の歌手が出演している番組を検出し、検出した番組全体を記録できる。しかし、従来の録画装置は、番組中から目的の歌手の歌唱シーンを抽出できず、その部分のみを録画することは不可能である。   A TV broadcast viewer may want to save only the performance (including singing; the same shall apply hereinafter) scene of a music performer from a broadcast program. A conventional recording apparatus can detect, for example, a program in which a target singer appears from the performer information using metadata and record the entire detected program. However, the conventional recording device cannot extract the singing scene of the target singer from the program, and cannot record only that portion.

特許文献1の技術では、字幕を利用することによってシーンの切り替わりを検出できるが、目的の歌手がいつからいつまで歌唱しているかという歌唱シーンの期間を検出できない。即ち、特許文献1の技術では、シーンの切り替わりによって、歌手の歌唱が開始したのか否か、又は歌手の歌唱が終了したのか否かが不明であり、シーンの切り替わりとシーンの切り替わりの間がどのような内容の放送であるかを検出できない。   In the technique of Patent Document 1, it is possible to detect a scene change by using subtitles, but it is impossible to detect a period of a singing scene from when to when a target singer sings. That is, in the technique of Patent Document 1, it is unclear whether the singer's singing has started or whether the singer's singing has ended by switching the scene. It is not possible to detect whether the content is broadcast.

従って、テレビ放送の視聴者は、放送番組から音楽の演奏者の演奏シーンのみを保存したい場合は、放送番組が表示されている画面を視聴しながら手動で録画装置の記録開始及び終了を操作しなければならない。   Therefore, if the viewer of the television broadcast wants to save only the performance scene of the music performer from the broadcast program, it manually operates the recording start and end of the recording device while watching the screen on which the broadcast program is displayed. There must be.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出することが可能な、新規かつ改良された録画装置、録画方法及びプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of reliably detecting the period of a musical performance scene in content data. Another object is to provide a recording device, a recording method, and a program.

上記課題を解決するために、本発明のある観点によれば、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する受信部と、第一のメタデータから字幕データを検出する字幕検出部と、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する第一の比較部と、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する一致時刻検出部とを備える記録装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, a receiving unit that receives first content data including a performance scene of music and first metadata including information related to the first content data; A subtitle detection unit that detects subtitle data from the first metadata, and a subtitle detected by extracting character information from the first database unit in which the second metadata including information on a plurality of pieces of music is recorded Based on the comparison result in the first comparison unit that compares the data with the extracted character information and the first comparison unit, the character information in the performance scene of the music included in the first content data matches A recording device is provided that includes a coincidence time detection unit that detects time.

上記検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出するオーディオ検出部と、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較する第二の比較部と、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出する楽曲区間検出部とを更に備えてもよい。   An audio detection unit for detecting audio data for a certain period from the first content data so as to include the detected coincidence time, and a second database unit in which second content data including information on a plurality of music pieces is recorded Audio data is extracted from the first content data based on the comparison result in the second comparison unit and the second comparison unit that compares the audio data for a certain period with the extracted audio data You may further provide the music area detection part which detects the time slot | zone which corresponds to the audio | voice data extracted among the audio data of a fixed period.

上記検出された時間帯に基づいて、時間帯の第一のコンテンツデータを記憶部に記録する録画部を更に備えてもよい。   You may further provide the video recording part which records the 1st content data of a time slot | zone on a memory | storage part based on the detected time slot | zone.

上記検出された時間帯と文字情報に基づいて、画面に楽曲の一覧を表示する表示制御部を更に備えてもよい。   You may further provide the display control part which displays the list of music on a screen based on the detected time slot | zone and character information.

上記検出された一致時刻と文字情報に基づいて、画面に演奏時刻情報を表示する表示制御部を更に備えてもよい。   You may further provide the display control part which displays performance time information on a screen based on the detected said coincidence time and character information.

上記検出された時間帯と、文字情報を外部に送信する送信部を更に備えてもよい。   You may further provide the transmission part which transmits the said detected time slot | zone and character information outside.

上記第一のデータベース部又は第二のデータベース部は、ネットワークを介して接続されてもよい。   The first database unit or the second database unit may be connected via a network.

また、上記課題を解決するために、本発明の別の観点によれば、受信部が、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信するステップと、字幕検出部が第一のメタデータから字幕データを検出するステップと、第一の比較部が、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較するステップと、一致時刻検出部が、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出するステップとを備える記録方法が提供される。   In order to solve the above-described problem, according to another aspect of the present invention, the receiving unit includes a first meta data including first performance data including a performance scene of music and information regarding the first content data. A step of receiving data, a step of detecting subtitle data from the first metadata by the subtitle detection unit, and a first comparison unit storing the second metadata including information on a plurality of music pieces Extracting the character information from the database part of the first and comparing the detected subtitle data with the extracted character information, and the coincidence time detecting unit, based on the comparison result in the first comparing unit, There is provided a recording method including a step of detecting a time coincident with character information in a performance scene of music included in content data.

上記オーディオ検出部が、検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出するステップと、第二の比較部が、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較するステップと、楽曲区間検出部が、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出するステップとを更に備えてもよい。   A step in which the audio detection unit detects audio data for a certain period from the first content data so as to include the detected coincidence time; and a second content in which the second comparison unit includes information on a plurality of pieces of music. Extracting voice data from the second database part in which the data is recorded, comparing the audio data for a certain period with the extracted voice data, and the result of the comparison between the music section detection part and the second comparison part And detecting a time zone that matches the extracted audio data from the audio data of a certain period included in the first content data.

また、上記課題を解決するために、本発明の別の観点によれば、楽曲の演奏シーンを含む第一のコンテンツデータと、第一のコンテンツデータに関する情報を含む第一のメタデータを受信する手段、第一のメタデータから字幕データを検出する手段、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、検出された字幕データと抽出された文字情報とを比較する手段、第一の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる楽曲の演奏シーンのうち、文字情報と一致する時刻を検出する手段としてコンピュータを機能させるためのプログラムが提供される。   In order to solve the above problem, according to another aspect of the present invention, first content data including a performance scene of music and first metadata including information on the first content data are received. Means for detecting subtitle data from the first metadata, extracting character information from the first database section in which the second metadata including information on a plurality of music is recorded, and detecting the subtitle data Computer as means for comparing with extracted character information, as means for detecting time matching character information among performance scenes of music included in first content data based on comparison result in first comparison unit A program for functioning the program is provided.

検出された一致時刻を含むように第一のコンテンツデータから一定期間のオーディオデータを検出する手段、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、一定期間のオーディオデータと抽出された音声データとを比較する手段、第二の比較部における比較結果に基づいて、第一のコンテンツデータに含まれる一定期間のオーディオデータのうち、抽出された音声データと一致する時間帯を検出する手段として更にコンピュータを機能させてもよい。   Means for detecting audio data for a certain period from the first content data so as to include the detected coincidence time, and audio data from the second database section in which the second content data including information relating to a plurality of songs is recorded Means for extracting and comparing the audio data for a certain period and the extracted audio data, and extracting from the audio data for a certain period included in the first content data based on the comparison result in the second comparison unit The computer may further function as a means for detecting a time zone that matches the audio data.

以上説明したように本発明によれば、コンテンツデータ内における楽曲の演奏シーンの期間を確実に検出することができる。   As described above, according to the present invention, it is possible to reliably detect the period of the musical performance scene in the content data.

本発明の第1の実施形態に係る録画システムを示すブロック図である。1 is a block diagram illustrating a recording system according to a first embodiment of the present invention. 同実施形態に係る録画装置を示すブロック図である。It is a block diagram which shows the video recording apparatus which concerns on the same embodiment. 同実施形態に係る録画装置を示すブロック図である。It is a block diagram which shows the video recording apparatus which concerns on the same embodiment. 同実施形態に係る録画装置の録画動作を示すフローチャートである。4 is a flowchart showing a recording operation of the recording apparatus according to the embodiment. 録画データ、オーディオデータ及び曲データの関係を示す説明図である。It is explanatory drawing which shows the relationship between video recording data, audio data, and music data. 時間軸上の録画データと、画面に表示されるプレイリストを示す説明図である。It is explanatory drawing which shows the recording data on a time-axis, and the play list displayed on a screen. 時間軸上の録画データと、画面に表示される演奏時刻情報を示す説明図である。It is explanatory drawing which shows the video recording data on a time-axis, and the performance time information displayed on a screen. 本発明の第1の実施形態に係る録画システムを示すブロック図である。1 is a block diagram illustrating a recording system according to a first embodiment of the present invention. 同実施形態に係る他の録画装置又は情報処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the other video recording apparatus or information processing apparatus which concerns on the same embodiment.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
2.第2の実施の形態
The description will be made in the following order.
1. 1. First embodiment Second embodiment

<1.第1の実施形態>
[本実施形態の構成]
まず、図1を参照して、本発明の第1の実施形態に係る録画システムの構成について説明する。図1は、本発明の第1の実施形態に係る録画システムを示すブロック図である。
<1. First Embodiment>
[Configuration of this embodiment]
First, the configuration of a recording system according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a recording system according to the first embodiment of the present invention.

本実施形態に係る録画システムは、例えば、複数の録画装置100と、サーバー20などからなる。図1では、説明のため、一つの録画装置100のみを示した。録画装置100とサーバー20は、インターネット等のネットワーク10を介して相互に接続される。   The recording system according to the present embodiment includes, for example, a plurality of recording devices 100, a server 20, and the like. In FIG. 1, only one recording device 100 is shown for explanation. The recording apparatus 100 and the server 20 are connected to each other via a network 10 such as the Internet.

録画装置100は、テレビ放送信号を無線又は有線で受信し、放送番組を記録媒体に記録する。録画装置100に接続されたディスプレイ30は、放送番組、番組情報、プレイリスト等を表示する。サーバー20は、例えばデータベース22を有し、データベース22に記録された楽曲に関する情報を録画装置100に送る。データベース22に記録された楽曲に関する情報は、例えば歌手、曲名、作詞者、作曲者、歌詞などの文字情報や、歌唱や演奏に関する音声データである。データベース22は、第一のデータベース部、第二のデータベース部の一例である。   The recording device 100 receives a television broadcast signal wirelessly or by wire and records a broadcast program on a recording medium. A display 30 connected to the recording apparatus 100 displays broadcast programs, program information, playlists, and the like. The server 20 includes, for example, a database 22 and sends information related to music recorded in the database 22 to the recording device 100. The information related to the music recorded in the database 22 is, for example, character information such as a singer, song name, songwriter, composer, and lyrics, and voice data related to singing and playing. The database 22 is an example of a first database unit and a second database unit.

次に、図2を参照して、本実施形態に係る録画装置100の構成について説明する。図2は、本実施形態に係る録画装置100を示すブロック図である。   Next, the configuration of the recording apparatus 100 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing the recording apparatus 100 according to the present embodiment.

本実施形態に係る録画装置100は、例えばCPU102と、チューナ104と、デコーダ106と、エンコーダ108と、通信制御部112と、ROM114と、表示制御部116と、RAM118と、記憶部120と、データベース部122などからなる。   The recording apparatus 100 according to the present embodiment includes, for example, a CPU 102, a tuner 104, a decoder 106, an encoder 108, a communication control unit 112, a ROM 114, a display control unit 116, a RAM 118, a storage unit 120, and a database. Part 122 and the like.

CPU(Central Processing Unit)102は、演算処理装置、制御装置などであり、ROM114等のメモリに記録されたプログラムを実行する。本実施形態のCPU102は、例えば後述する字幕検出部142、キーワード比較部144、一致時刻記録部146、オーディオ検出部152、楽曲比較部154、楽曲区間記録部156などを有する。   A CPU (Central Processing Unit) 102 is an arithmetic processing unit, a control unit, or the like, and executes a program recorded in a memory such as a ROM 114. The CPU 102 of the present embodiment includes, for example, a caption detection unit 142, a keyword comparison unit 144, a coincidence time recording unit 146, an audio detection unit 152, a music comparison unit 154, a music section recording unit 156, and the like which will be described later.

チューナ104は、テレビ放送信号を受信する。テレビ放送信号の受信は、無線又は有線のいずれでもよい。受信したテレビ放送信号は、デコーダ106に送られる。チューナ104は、受信部の一例であり、コンテンツデータ(第一のコンテンツデータ)及びコンテンツデータに関するメタデータ(第一のメタデータ)を受信する。   The tuner 104 receives a television broadcast signal. Reception of the television broadcast signal may be either wireless or wired. The received television broadcast signal is sent to the decoder 106. The tuner 104 is an example of a receiving unit, and receives content data (first content data) and metadata about the content data (first metadata).

デコーダ106は、テレビ放送信号を復号する。復号された信号は、エンコーダ108や表示制御部116に送られる。エンコーダ108は、復号されたテレビ放送信号を符号化し、符号化された信号を記憶部120に映像データとして送る。エンコーダ108は、後述する録画部132に該当する。   The decoder 106 decodes the television broadcast signal. The decoded signal is sent to the encoder 108 and the display control unit 116. The encoder 108 encodes the decoded television broadcast signal, and sends the encoded signal to the storage unit 120 as video data. The encoder 108 corresponds to the recording unit 132 described later.

通信制御部112は、有線又は無線でのデータ伝送を制御する。通信制御部112は、例えばインターネットなどのネットワーク10と接続して、サーバー20からデータベース22のデータを受ける。   The communication control unit 112 controls wired or wireless data transmission. The communication control unit 112 is connected to the network 10 such as the Internet and receives data from the database 22 from the server 20.

ROM(Read−Only Memory)114は、読み出し専用のメモリであり、CPU102で実行されるプログラム等が記録される。CPU102によってROM114に記録されたプログラムが読み出される。   A ROM (Read-Only Memory) 114 is a read-only memory, in which programs executed by the CPU 102 are recorded. The program recorded in the ROM 114 is read by the CPU 102.

表示制御部116は、復号されたテレビ放送信号をディスプレイ30に送る。また、表示制御部116は、録画装置100で作成されたプレイリスト等に関するデータについて、表示信号を生成し、生成した表示信号をディスプレイ30に送る。これにより、ディスプレイ30は、画面にプレイリスト等を表示できる。   The display control unit 116 sends the decoded television broadcast signal to the display 30. In addition, the display control unit 116 generates a display signal for data relating to a playlist or the like created by the recording device 100, and sends the generated display signal to the display 30. Thereby, the display 30 can display a playlist or the like on the screen.

RAM(Random Access Memory)118は、テレビ放送信号を一時的に保管したり、後述する時刻情報が一時的に記録されたりする。RAM118は、後述するバッファ部124に該当する。   A RAM (Random Access Memory) 118 temporarily stores television broadcast signals and temporarily records time information described later. The RAM 118 corresponds to a buffer unit 124 described later.

記憶部120は、録画対象となった放送番組のデータを録画データとして記憶する。データベース部122は、データベースに記録された楽曲に関する情報、例えば歌手、曲名、作詞者、作曲者、歌詞などの文字情報や、歌唱や演奏に関する音声データを保持する。即ち、データベース部はコンテンツデータ(第二のコンテンツデータ)とメタデータ(第二のメタデータ)を保持する。データベース22は、第一のデータベース部、第二のデータベース部の一例である。   The storage unit 120 stores broadcast program data as a recording target. The database unit 122 holds information related to music recorded in the database, for example, character information such as singer, song name, songwriter, composer, and lyrics, and voice data related to singing and playing. That is, the database unit holds content data (second content data) and metadata (second metadata). The database 22 is an example of a first database unit and a second database unit.

上述した例では、録画装置100がサーバー20に接続される例について説明した。データベース部122は、データベース22にアクセスして、最新情報を取得する。なお、録画装置100はデータベース部122を有さず、サーバー20のデータベース22を使用してもよい。   In the example described above, the example in which the recording apparatus 100 is connected to the server 20 has been described. The database unit 122 accesses the database 22 and acquires the latest information. Note that the recording apparatus 100 may not use the database unit 122 but may use the database 22 of the server 20.

[本実施形態の動作]
次に、図3及び図4を参照して、本実施形態に係る録画装置100の動作を説明する。図3は、本実施形態に係る録画装置を示すブロック図である。図4は、本実施形態に係る録画装置の録画動作を示すフローチャートである。
[Operation of this embodiment]
Next, the operation of the recording apparatus 100 according to the present embodiment will be described with reference to FIGS. 3 and 4. FIG. 3 is a block diagram showing the recording apparatus according to the present embodiment. FIG. 4 is a flowchart showing the recording operation of the recording apparatus according to the present embodiment.

まず、ユーザーは、録画装置100において、録画を希望する目的の歌手、目的の曲名又はそれらの組み合わせを指定する(ステップS101)。録画装置100は、放送に含まれる番組情報(EPG等のメタデータ)に基づいて、目的とする歌手が出演する番組を抽出する(ステップS102)。そして、抽出された番組の録画の予約を行い(ステップS103)、放送時間に合わせて録画を開始する(ステップS104)。なお、番組の抽出、選択は、録画装置100が番組情報に基づいて行う場合に限定されず、ユーザーが直接、録画したい番組を指定してもよい。   First, the user designates a target singer who wishes to record, a target song name, or a combination thereof in the recording apparatus 100 (step S101). The recording apparatus 100 extracts a program in which a target singer appears based on program information (metadata such as EPG) included in the broadcast (step S102). Then, the recording of the extracted program is reserved (step S103), and recording is started in accordance with the broadcast time (step S104). Note that the extraction and selection of programs are not limited to the case where the recording apparatus 100 performs based on the program information, and the user may directly specify a program to be recorded.

録画が開始されると、ユーザーによる指定等によって録画対象となった放送内容、例えば放送番組のデータ(以下、「録画データ」ともいう。)がバッファ部124に入力される。録画データは、コンテンツデータとコンテンツデータに関する情報を含むメタデータからなる。そして、録画データは、バッファ部124で一時的に保管される(ステップS105)。ここで、録画対象となった放送番組は、ユーザーが音楽の演奏を保存したい番組である。番組は、例えば楽曲を中心に放映する音楽番組、演奏者に関するドキュメンタリー番組などジャンルに関わらず、いずれのジャンルの番組でもよい。   When the recording is started, the broadcast content that is the target of recording, for example, data of a broadcast program (hereinafter also referred to as “recording data”) is input to the buffer unit 124 by the designation by the user. The recorded data includes content data and metadata including information related to the content data. Then, the recorded data is temporarily stored in the buffer unit 124 (step S105). Here, the broadcast program to be recorded is a program that the user wants to save music performance. The program may be a program of any genre regardless of the genre, such as a music program broadcast mainly on music and a documentary program related to the performer.

次に、字幕検出部142が、字幕データをバッファ部124に保管された録画データから検出する(ステップS106)。字幕データは、メタデータに含まれるデータである。字幕データは、番組で放送される音声を文字で表現した字幕に関する情報であり、文字情報である。例えば、番組で歌手が歌唱している場合、字幕データには歌詞が含まれる。また、番組で司会やナレーターによって音楽タイトル、演奏者が紹介されている場合、字幕データには音楽タイトル、演奏者が含まれる。   Next, the caption detection unit 142 detects caption data from the recorded data stored in the buffer unit 124 (step S106). The caption data is data included in the metadata. The subtitle data is information about subtitles that expresses the audio broadcast in the program in characters, and is character information. For example, when a singer is singing in a program, the subtitle data includes lyrics. In addition, when a music title and a performer are introduced by a host or a narrator in a program, the subtitle data includes the music title and the performer.

検出された字幕データは、キーワード比較部144に送られる。また、キーワード比較部144は、第一の比較部の一例であり、ユーザーが保存したい歌手名又は曲名等に関する文字情報を、データベース部122から読み出す。データベース部122から読み出される文字情報は、歌手、曲名、作詞者、作曲者、歌詞などである。データベースは、録画装置100内に搭載されたデータベース部122に記録されているものを使用しているが、ネットワークを介して接続されたサーバー内のデータベース22に記録されているものを使用してもよい。   The detected caption data is sent to the keyword comparison unit 144. Further, the keyword comparison unit 144 is an example of a first comparison unit, and reads character information related to a singer name or a song name that the user wants to save from the database unit 122. The character information read from the database unit 122 includes a singer, a song name, a songwriter, a composer, and lyrics. The database uses what is recorded in the database unit 122 mounted in the recording apparatus 100, but even if it uses what is recorded in the database 22 in the server connected via the network. Good.

キーワード比較部144は、検出された字幕データと、データベース部122から読み出された文字情報を比較して(ステップS107)、ユーザーが保存したい目的とした歌手又は楽曲等に関する文字情報が一致する時刻t0を検出する。キーワード比較部144は、一致時刻検出部の一例である。検出された一致時刻t0は、一致時刻記録部146によってRAM118等のメモリに記録される(ステップS108)。ここで、時刻とは例えば放送番組の時刻である。   The keyword comparison unit 144 compares the detected caption data with the character information read from the database unit 122 (step S107), and the time when the character information about the singer or music that the user wants to save matches. t0 is detected. The keyword comparison unit 144 is an example of a coincidence time detection unit. The detected coincidence time t0 is recorded in a memory such as the RAM 118 by the coincidence time recording unit 146 (step S108). Here, the time is, for example, the time of a broadcast program.

図5に、録画データにおける時刻t0を示す。図5は、録画データ、オーディオデータ及び曲データの関係を示す説明図である。記録された一致時刻t0は、目的とした歌手又は楽曲の歌唱シーンが存在する時刻であり、番組中において、いつ演奏シーンが放送されたかを目安として知ることができる情報である。   FIG. 5 shows time t0 in the recording data. FIG. 5 is an explanatory diagram showing the relationship between recorded data, audio data, and song data. The recorded coincidence time t0 is the time when the intended singer or song singing scene exists, and is information that can be used as a guideline when the performance scene was broadcast in the program.

次に、オーディオ検出部152は、記録された一致時刻t0を含むオーディオデータをバッファ部124から読み出す。オーディオデータは、コンテンツデータに含まれるデータである。オーディオデータは、番組で放送される音声に関する情報である。オーディオデータは、例えば、番組で歌手が歌唱している場合、歌唱部分の音声データであり、演奏者が演奏している場合、演奏部分の音声データである。また、オーディオデータは、番組で司会やナレーターによって音楽タイトル、演奏者が紹介されている場合、人の声に関する音声データである。   Next, the audio detection unit 152 reads the audio data including the recorded matching time t0 from the buffer unit 124. Audio data is data included in content data. The audio data is information relating to sound broadcast in the program. The audio data is, for example, audio data of a singing part when a singer sings in a program, and audio data of a performance part when a performer is playing. The audio data is audio data related to a human voice when a music title and a performer are introduced by a host or narrator in a program.

バッファ部124からオーディオデータが読み出されるとき、記録された一致時刻t0を含む、ある長さを有するデータが抽出される。データが抽出されるときのある長さとは、t1(=t0−Δt1)から開始し、t2(=t0+Δt2)で終了する期間である。Δt1やΔt2は、t0における文字情報等に依存して決定される。例えば、バッファ部124からオーディオデータを読み出すとき、オーディオ検出部152は、時刻t1を算出し(ステップS109)、時刻t2を算出する(ステップS110)。そして、オーディオ検出部152は、時刻t1〜t2までのオーディオデータを検出する(ステップS111)。   When audio data is read from the buffer unit 124, data having a certain length including the recorded matching time t0 is extracted. A certain length when data is extracted is a period starting from t1 (= t0−Δt1) and ending at t2 (= t0 + Δt2). Δt1 and Δt2 are determined depending on character information and the like at t0. For example, when reading audio data from the buffer unit 124, the audio detection unit 152 calculates time t1 (step S109) and time t2 (step S110). Then, the audio detection unit 152 detects audio data from time t1 to time t2 (step S111).

例えば、t0における文字情報が歌詞の一部である場合は、歌詞の全体の長さと一致時刻t0における歌詞の位置に応じて、Δt1やΔt2が決定される。一致時刻t0における歌詞が歌詞全体のうち冒頭に位置することが分かれば、Δt1は相対的に短い時間に決定され、Δt2は相対的に長い時間に決定される。また、t0における文字情報が楽曲紹介の司会者の声の一部である場合は、楽曲の紹介(一致時刻t0)から楽曲が開始するまでの時間や、歌詞の全体の長さに応じて、Δt1やΔt2が決定される。なお、Δt1やΔt2は、正の値に限らず負の値をとってもよい。   For example, when the character information at t0 is part of the lyrics, Δt1 and Δt2 are determined according to the overall length of the lyrics and the position of the lyrics at the matching time t0. If it is found that the lyrics at the coincidence time t0 are located at the beginning of the entire lyrics, Δt1 is determined to be a relatively short time, and Δt2 is determined to be a relatively long time. In addition, when the character information at t0 is part of the voice of the presenter of the music introduction, depending on the time from the introduction of the music (match time t0) to the start of the music and the overall length of the lyrics, Δt1 and Δt2 are determined. Note that Δt1 and Δt2 are not limited to positive values, and may take negative values.

バッファ部124からオーディオデータが読み出される具体的な期間は、楽曲に応じて異なるが、歌詞全体と一致時刻t0における歌詞の関係に関するパラメータを設定しておき、パラメータに基づいて決定されるとしてもよい。オーディオ検出部152で、バッファ部124からある長さのオーディオデータを読み出す際は、厳密な期間のデータを読み出さなくてもよい。図5に、オーディオデータの開始時刻t1、終了時刻t2を示す。開始時刻t1、終了時刻t2は、目的とした歌手又は楽曲の歌唱シーンが存在する時間帯であり、番組中における演奏シーンが放送されている時間帯を目安として知ることができる情報である。オーディオデータの開始時刻t1、終了時刻t2は、キーワード比較部144で検出された時刻t0よりも、録画データにおける演奏シーンが存在する場所を特定できるが、正確な演奏期間ではない。   Although the specific period during which the audio data is read from the buffer unit 124 varies depending on the music, it may be determined on the basis of the parameters regarding the relationship between the entire lyrics and the lyrics at the matching time t0. . When the audio detection unit 152 reads audio data having a certain length from the buffer unit 124, it is not necessary to read data for a strict period. FIG. 5 shows the start time t1 and end time t2 of the audio data. The start time t1 and the end time t2 are time zones in which the target singer or song singing scene is present, and are information that can be known as a guide during the broadcast time of the performance scene in the program. The start time t1 and end time t2 of the audio data can identify the place where the performance scene exists in the recorded data, but is not an accurate performance period, compared to the time t0 detected by the keyword comparison unit 144.

オーディオ検出部152で検出されたオーディオデータは、楽曲比較部154に送られる。また、楽曲比較部154は、ユーザーが保存したい歌手名又は曲名等に関する音声データを、データベース部122から読み出す。データベース部122から読み出される音声データは、歌唱や演奏に関する音声データである。楽曲比較部154は、第二の比較部の一例であり、検出されたオーディオデータと、データベース部122から読み出された音声データを比較する(ステップS112)。そして、楽曲比較部154は、ユーザーが保存したい目的とした歌手又は楽曲等に関する音声データが一致する時間帯を検出する(ステップS113)。楽曲比較部154は、第二の比較部の一例である。検出された時間帯は、例えば開始時刻tsと終了時刻teで定義される。検出された開始時刻ts、終了時刻teは楽曲区間記録部156によってRAM118等のメモリに記録される。ここで、時刻とは例えば放送番組の時刻である。   The audio data detected by the audio detection unit 152 is sent to the music comparison unit 154. In addition, the music comparison unit 154 reads audio data related to the singer name or song name that the user wants to save from the database unit 122. The audio data read from the database unit 122 is audio data related to singing or playing. The music comparison unit 154 is an example of a second comparison unit, and compares the detected audio data with the audio data read from the database unit 122 (step S112). And the music comparison part 154 detects the time slot | zone when the audio | voice data regarding the singer or music etc. which the user wanted to preserve | save matches (step S113). The music comparison unit 154 is an example of a second comparison unit. The detected time zone is defined by a start time ts and an end time te, for example. The detected start time ts and end time te are recorded in a memory such as the RAM 118 by the music section recording unit 156. Here, the time is, for example, the time of a broadcast program.

図5に、録画データにおける時刻ts,teを示す。記録された時刻ts,teは、目的とした歌手又は楽曲の歌唱シーンが存在する時間帯を表す時刻であり、番組中において、いつ演奏シーンが放送されたかを知ることができる情報である。番組中において、一つの楽曲が全て通して演奏される場合でも、一つの楽曲の一部のみが演奏される場合でもいずれの場合も、楽曲比較部154は、時刻ts,teを検出できる。   FIG. 5 shows times ts and te in the recording data. The recorded times ts and te are times indicating the time zone in which the intended singer or song singing scene exists, and are information that can be used to know when the performance scene was broadcast during the program. The music comparison unit 154 can detect the times ts and te both in the case where one piece of music is played through the program and in the case where only a part of one piece of music is played.

楽曲比較部154によって検出された楽曲の開始時刻ts、終了時刻teは、キーワード比較部144で検出された時刻t0や、オーディオ検出部152で検出された開始時刻t1、終了時刻t2よりも、録画データにおける演奏シーンが存在する場所を特定できる。このように、キーワード比較、オーディオ検出、楽曲比較と段階的に演奏シーンを特定することによって、音声データのみを使用して演奏シーンを特定する場合に比べて、迅速かつ精度良く、録画データにおける演奏シーンの開始時刻、終了時刻を特定できる。   The music start time ts and end time te detected by the music comparison unit 154 are recorded from the time t0 detected by the keyword comparison unit 144 and the start time t1 and end time t2 detected by the audio detection unit 152. The place where the performance scene exists in the data can be specified. In this way, by specifying performance scenes in stages by keyword comparison, audio detection, and music comparison, performance in recorded data can be performed more quickly and accurately than when using only audio data to specify performance scenes. The start time and end time of the scene can be specified.

そして、楽曲区間記録部156によって記録された時刻ts,teを用いることで、録画データから、ユーザーが保存したい目的とした歌手又は楽曲等に関する映像データ及び音声データを抽出できる。そして、録画部132は、時刻ts,teの時間帯の録画データを記憶部120に記録する。その結果、例えば、ユーザーが画面を見ながら録画開始及び録画終了の操作をすることなく、録画装置100は目的とする演奏シーンのみを曲データとして録画できる(ステップS114)。   Then, by using the times ts and te recorded by the music section recording unit 156, video data and audio data related to the singer or music that the user wants to save can be extracted from the recorded data. Then, the recording unit 132 records the recording data in the time zone of times ts and te in the storage unit 120. As a result, for example, the recording apparatus 100 can record only the target performance scene as song data without performing the recording start and recording end operations while watching the screen (step S114).

上述した図4のステップS106〜S112のシーン検出動作は、放送番組の受信と同時に行う。これにより、本実施形態では、楽曲の開始時刻ts、終了時刻teによって特定できる曲データのみを記憶部120に記録できる。目的とする演奏シーンのみを録画できるため、最終的な録画容量を低減できる。なお、本発明は、シーン検出動作を放送番組と同時に行う場合に限定されない。例えば、番組全体を記録した後に、図4のステップS106〜S112のシーン検出動作を行って、演奏シーンの抽出をしてもよい。   The above-described scene detection operation in steps S106 to S112 in FIG. 4 is performed simultaneously with the reception of the broadcast program. Thereby, in this embodiment, only the music data that can be specified by the start time ts and the end time te of the music can be recorded in the storage unit 120. Since only the target performance scene can be recorded, the final recording capacity can be reduced. The present invention is not limited to the case where the scene detection operation is performed simultaneously with the broadcast program. For example, after the entire program is recorded, the performance scene may be extracted by performing the scene detection operation in steps S106 to S112 in FIG.

[時刻ts,teの使用例]
次に、楽曲区間記録部156によって記録された時刻ts,teの使用例について説明する。上記では、楽曲の開始時刻ts、終了時刻teによって特定できる、目的とする演奏シーンのみを録画する例について説明したが、時刻ts,teの使用例はこの例に限定されない。
[Usage example of time ts, te]
Next, a usage example of the times ts and te recorded by the music section recording unit 156 will be described. Although the example which records only the target performance scene which can be specified by the start time ts of music and the end time te was demonstrated above, the usage example of time ts, te is not limited to this example.

例えば、録画装置100における番組の録画は、番組全体が記憶部120に記録されてもよく、図6に示すように、画面182に、一つの放送番組160に含まれる複数の曲、例えば曲162,164をプレイリスト形式で表示してもよい。図6は、時間軸上の録画データと、画面に表示されるプレイリストを示す説明図である。プレイリストは、録画装置100によって、楽曲区間記録部156によって記録された時刻ts,teと、歌手名又は曲名等の文字情報を使用して作成される。   For example, in the recording of a program in the recording apparatus 100, the entire program may be recorded in the storage unit 120, and a plurality of songs included in one broadcast program 160, such as a song 162, are displayed on a screen 182 as shown in FIG. 164 may be displayed in a playlist format. FIG. 6 is an explanatory diagram showing recorded data on the time axis and a playlist displayed on the screen. The playlist is created by the recording device 100 using the time ts, te recorded by the song section recording unit 156 and character information such as a singer name or a song name.

図6に示す例では、画面182に表示されたプレイリストには、歌手名、曲名、その他の楽曲に関する情報が一覧表示されている。プレイリストには演奏シーンの開始時刻tsや終了時刻teを表示してもよい。ユーザーは、リモートコントローラ等を使用して画面182に表示された楽曲を選択することで、視聴したい楽曲を迅速に表示させることができる。プレイリストは、一つの番組の複数の楽曲を一つの画面に表示してもよいし、複数の番組の複数の楽曲を一つの画面に表示してもよい。   In the example shown in FIG. 6, the playlist displayed on the screen 182 displays a list of singer names, song names, and other information related to songs. The play list may display the start time ts and end time te of the performance scene. The user can quickly display the music to be viewed by selecting the music displayed on the screen 182 using a remote controller or the like. The playlist may display a plurality of songs of one program on one screen, or may display a plurality of songs of a plurality of programs on one screen.

また、図8に示すように、本実施形態に係る録画システムは、上述した録画装置100以外に録画装置200や情報処理装置300などを有して、録画装置100がシーン時刻情報を録画装置200や情報処理装置300などに送信してもよい。図8は、本発明の第1の実施形態に係る録画システムを示すブロック図である。   As shown in FIG. 8, the recording system according to the present embodiment includes a recording device 200 and an information processing device 300 in addition to the recording device 100 described above, and the recording device 100 stores scene time information in the recording device 200. Or may be transmitted to the information processing apparatus 300 or the like. FIG. 8 is a block diagram showing a recording system according to the first embodiment of the present invention.

録画装置100は、有線又は無線で録画装置200又は情報処理装置300などと接続される。録画装置200は、録画装置100と同様にハードディスクレコーダー、ホームサーバー等である。情報処理装置300は、パーソナルコンピューター等である。録画装置100から送信されるシーン時刻情報は、上述した楽曲区間記録部156によって記録された時刻ts,teである。   The recording device 100 is connected to the recording device 200, the information processing device 300, or the like by wire or wireless. The recording device 200 is a hard disk recorder, a home server, or the like, similar to the recording device 100. The information processing apparatus 300 is a personal computer or the like. The scene time information transmitted from the recording device 100 is the times ts and te recorded by the music section recording unit 156 described above.

録画装置200又は情報処理装置300は、シーン時刻情報を受信することによって、自身が有している録画データから演奏シーンを抽出できる。また、録画装置200又は情報処理装置300のディスプレイにプレイリストを表示して、楽曲を一覧表示できる。   The recording device 200 or the information processing device 300 can extract the performance scene from the recording data that it has by receiving the scene time information. In addition, a playlist can be displayed on the display of the recording device 200 or the information processing device 300 to display a list of songs.

図9は、本実施形態に係る他の録画装置又は情報処理装置の動作を示すフローチャートである。録画装置100以外の録画装置200や情報処理装置300は、録画装置100からシーン時刻情報、即ち時刻ts,teを取得する(ステップS201)。そして、取得した時刻ts,teを記憶部に記録する(ステップS202)。これによって、録画装置200や情報処理装置300は、録画装置100が図4のステップS106〜S112で行ったシーン検出動作を行うことなく、番組中で楽曲が演奏されているシーンの時間帯を保持できる。   FIG. 9 is a flowchart showing the operation of another recording apparatus or information processing apparatus according to this embodiment. The recording apparatus 200 and the information processing apparatus 300 other than the recording apparatus 100 acquire scene time information, that is, times ts and te from the recording apparatus 100 (step S201). And the acquired time ts and te are recorded on a memory | storage part (step S202). Thereby, the recording device 200 and the information processing device 300 hold the time zone of the scene where the music is played in the program without the recording device 100 performing the scene detection operation performed in steps S106 to S112 in FIG. it can.

録画装置200や情報処理装置300が、放送番組の録画データを有している場合、録画データから演奏シーンのみを曲データとして抽出できる(ステップS203)。抽出後に演奏シーン以外の部分を記憶部から削除すれば、録画容量を減少させることができる。また、録画装置200や情報処理装置300は、楽曲区間記録部156によって記録された時刻ts,teと、歌手名又は曲名等の文字情報を使用してプレイリストを作成してもよい(ステップS204)。このとき、歌手又は楽曲をジャンルやユーザーの好み等に応じて分類することで、テレビ放送から抽出したコンテンツデータを集めたプレイリストを作成することもできる。プレイリストには演奏シーンの開始時刻tsや終了時刻teを表示してもよい。   If the recording device 200 or the information processing device 300 has recorded data of a broadcast program, only the performance scene can be extracted as song data from the recorded data (step S203). If a portion other than the performance scene is deleted from the storage unit after extraction, the recording capacity can be reduced. Further, the recording device 200 and the information processing device 300 may create a playlist using the time ts, te recorded by the music section recording unit 156 and character information such as a singer name or a song name (step S204). ). At this time, by classifying the singer or the music piece according to the genre, the user's preference, etc., it is possible to create a playlist that collects the content data extracted from the television broadcast. The play list may display the start time ts and end time te of the performance scene.

本発明の第1の実施形態によれば、コンテンツデータ内の演奏シーンの時間帯を簡潔かつ確実に特定できる。従来、シーンの切り替わりは検出可能であったが、ユーザーが目的とする歌手又は楽曲の演奏シーンを検出できなかった。一方、本実施形態によれば、ユーザーが目的とする歌手又は楽曲を指定したとき、指定した目的とする歌手又は楽曲の演奏シーンの時間帯を検出できる。また、歌手又は楽曲の演奏シーンのみをユーザーが手動で操作することなく録画できる。更に、目的のシーンのみを録画することで、録画容量を低減できる。また、目的の歌手又は楽曲を集めたプレイリストを作成できる。   According to the first embodiment of the present invention, the time zone of the performance scene in the content data can be specified simply and reliably. Conventionally, scene switching can be detected, but a user's intended singer or musical performance scene cannot be detected. On the other hand, according to this embodiment, when the user designates a target singer or song, the time zone of the performance scene of the designated target singer or song can be detected. Moreover, only the performance scene of a singer or music can be recorded without a user's manual operation. Furthermore, recording capacity can be reduced by recording only the target scene. In addition, it is possible to create a playlist in which target singers or music pieces are collected.

<2.第2の実施形態>
次に、本発明の第2の実施形態に係る録画システム及び録画装置について説明する。
図7は、時間軸上の録画データと、画面に表示される演奏時刻情報を示す説明図である。上述した第1の実施形態では、キーワード比較、オーディオ検出、楽曲比較と段階的に演奏シーンを特定して、録画データにおける演奏シーンの開始時刻、終了時刻を特定した。
<2. Second Embodiment>
Next, a recording system and a recording apparatus according to the second embodiment of the present invention will be described.
FIG. 7 is an explanatory diagram showing recorded data on the time axis and performance time information displayed on the screen. In the first embodiment described above, performance scenes are specified step by step by keyword comparison, audio detection, and music comparison, and the start time and end time of the performance scene in the recorded data are specified.

本実施形態では、キーワード比較のみで録画データにおける演奏シーンを簡易的に特定する。   In the present embodiment, the performance scene in the recorded data is simply specified only by keyword comparison.

即ち、第1の実施形態と同様に、字幕検出部142で、字幕データがバッファ部124に保管された録画データから検出される。検出された字幕データは、キーワード比較部144に送られる。また、キーワード比較部144では、ユーザーが保存したい歌手名又は曲名等に関する文字情報が、データベース部122から読み出される。キーワード比較部144は、検出された字幕データと、データベース部122から読み出された文字情報を比較して、ユーザーが保存したい目的とした歌手又は楽曲等に関する文字情報が一致する時刻t0を検出する。検出された一致時刻t0は、一致時刻記録部146によってRAM118等のメモリに記録される。   That is, as in the first embodiment, the caption detection unit 142 detects caption data from the recorded data stored in the buffer unit 124. The detected caption data is sent to the keyword comparison unit 144. In the keyword comparison unit 144, character information related to a singer name or a song name that the user wants to save is read from the database unit 122. The keyword comparison unit 144 compares the detected caption data with the character information read out from the database unit 122, and detects the time t0 when the character information about the singer or music that the user wants to save matches. . The detected coincidence time t0 is recorded in a memory such as the RAM 118 by the coincidence time recording unit 146.

そして、第1の実施形態で説明した、オーディオ検出、楽曲比較に関する動作は、第2の実施形態では行わない。   The operations related to audio detection and music comparison described in the first embodiment are not performed in the second embodiment.

以上の動作で記録された一致時刻t0は、目的とした歌手又は楽曲の歌唱シーンが存在する時刻であり、番組中において、いつ演奏シーンが放送されたかを目安として知ることができる情報である。この時刻情報を使用して、目的の歌唱シーンの時刻をユーザーに提供する。   The coincidence time t0 recorded by the above operation is the time at which the intended singer or song singing scene exists, and is information that can be known as a guide when the performance scene was broadcast during the program. Using this time information, the time of the target singing scene is provided to the user.

図7に示すように、画面184に、一つの放送番組160に含まれる複数の曲の時刻情報t01,t02を演奏時刻情報として一覧で表示してもよい。演奏時刻情報は、録画装置100によって、一致時刻記録部146によって記録された時刻t01,t02等と、歌手名又は曲名等の文字情報を使用して作成される。   As shown in FIG. 7, time information t01 and t02 of a plurality of songs included in one broadcast program 160 may be displayed in a list on the screen 184 as performance time information. The performance time information is created by the recording device 100 using the time t01, t02, etc. recorded by the coincidence time recording unit 146 and character information such as a singer name or a song name.

図7に示す例では、画面184に表示された演奏時刻情報には、歌手名、曲名、その他の楽曲に関する情報、演奏シーンが含まれる時刻t0が表示されている。ユーザーは、リモートコントローラ等を使用して画面184に表示された楽曲を選択することで、視聴したい楽曲を迅速に表示させることができる。演奏時刻情報は、一つの番組の複数の楽曲を一つの画面に表示してもよいし、複数の番組の複数の楽曲を一つの画面に表示してもよい。   In the example shown in FIG. 7, the performance time information displayed on the screen 184 displays a singer name, a song name, other information related to music, and a time t0 including a performance scene. The user can quickly display the music that the user wants to view by selecting the music displayed on the screen 184 using a remote controller or the like. As the performance time information, a plurality of music pieces of one program may be displayed on one screen, or a plurality of music pieces of a plurality of programs may be displayed on one screen.

本発明の第2の実施形態によれば、コンテンツデータ内の演奏シーンの時刻を簡潔に特定できる。従来、シーンの切り替わりは検出可能であったが、ユーザーが目的とする歌手又は楽曲の演奏シーンを検出できなかった。一方、本実施形態によれば、ユーザーが目的とする歌手又は楽曲を指定したとき、指定した目的とする歌手又は楽曲の演奏シーンの時刻を検出できる。   According to the second embodiment of the present invention, it is possible to simply specify the time of the performance scene in the content data. Conventionally, scene switching can be detected, but a user's intended singer or musical performance scene cannot be detected. On the other hand, according to this embodiment, when the user designates a target singer or music, the time of the performance scene of the designated target singer or music can be detected.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 ネットワーク
20 サーバー
22 データベース
30 ディスプレイ
100,200 録画装置
102 CPU
104 チューナ
106 デコーダ
108 エンコーダ
112 通信制御部
114 ROM
116 表示制御部
118 RAM
120 記憶部
122 データベース部
124 バッファ部
132 録画部
142 字幕検出部
144 キーワード比較部
146 一致時刻記録部
152 オーディオ検出部
154 楽曲比較部
156 楽曲区間記録部
300 情報処理装置
10 Network 20 Server 22 Database 30 Display 100, 200 Recording Device 102 CPU
104 Tuner 106 Decoder 108 Encoder 112 Communication Control Unit 114 ROM
116 Display control unit 118 RAM
DESCRIPTION OF SYMBOLS 120 Storage part 122 Database part 124 Buffer part 132 Recording part 142 Subtitle detection part 144 Keyword comparison part 146 Match time recording part 152 Audio detection part 154 Music comparison part 156 Music section recording part 300 Information processing apparatus

Claims (11)

楽曲の演奏シーンを含む第一のコンテンツデータと、前記第一のコンテンツデータに関する情報を含む第一のメタデータを受信する受信部と、
前記第一のメタデータから字幕データを検出する字幕検出部と、
複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較する第一の比較部と、
前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出する一致時刻検出部と、
を備える、記録装置
A receiving unit that receives first content data including a performance scene of the music, and first metadata including information on the first content data;
A caption detection unit for detecting caption data from the first metadata;
A first comparison in which character information is extracted from a first database unit in which second metadata including information on a plurality of music pieces is recorded, and the detected caption data is compared with the extracted character information. And
Based on the comparison result in the first comparison unit, a coincidence time detection unit that detects a time coincident with the character information in the performance scene of the music included in the first content data;
A recording apparatus comprising:
前記検出された一致時刻を含むように前記第一のコンテンツデータから一定期間のオーディオデータを検出するオーディオ検出部と、
複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較する第二の比較部と、
前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出する楽曲区間検出部と、
を更に備える、請求項1に記載の記録装置。
An audio detection unit for detecting audio data for a certain period from the first content data so as to include the detected matching time;
A second comparison in which audio data is extracted from a second database section in which second content data including information related to a plurality of songs is recorded, and the audio data for a certain period is compared with the extracted audio data And
A music section detection unit that detects a time zone that matches the extracted audio data among the audio data of the certain period included in the first content data based on the comparison result in the second comparison unit; ,
The recording apparatus according to claim 1, further comprising:
前記検出された時間帯に基づいて、前記時間帯の前記第一のコンテンツデータを記憶部に記録する録画部を更に備える、請求項2に記載の記録装置。   The recording apparatus according to claim 2, further comprising a recording unit that records the first content data of the time period in a storage unit based on the detected time period. 前記検出された時間帯と前記文字情報に基づいて、画面に楽曲の一覧を表示する表示制御部を更に備える、請求項2又は3に記載の記録装置。   The recording apparatus according to claim 2, further comprising a display control unit that displays a list of music pieces on a screen based on the detected time zone and the character information. 前記検出された一致時刻と前記文字情報に基づいて、画面に演奏時刻情報を表示する表示制御部を更に備える、請求項1〜4のいずれか1項に記載の記録装置。   The recording apparatus according to claim 1, further comprising a display control unit that displays performance time information on a screen based on the detected coincidence time and the character information. 前記検出された時間帯と、前記文字情報を外部に送信する送信部を更に備える、請求項1〜5のいずれか1項に記載の記録装置。   The recording apparatus according to claim 1, further comprising: a transmission unit configured to transmit the detected time zone and the character information to the outside. 前記第一のデータベース部又は前記第二のデータベース部は、ネットワークを介して接続されている、請求項1〜6のいずれか1項に記載の記録装置。   The recording apparatus according to claim 1, wherein the first database unit or the second database unit is connected via a network. 受信部が、楽曲の演奏シーンを含む第一のコンテンツデータと、前記第一のコンテンツデータに関する情報を含む第一のメタデータを受信するステップと、
字幕検出部が前記第一のメタデータから字幕データを検出するステップと、
第一の比較部が、複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較するステップと、
一致時刻検出部が、前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出するステップと、
を備える、記録方法
A receiving unit receiving first content data including a performance scene of the music and first metadata including information on the first content data;
A subtitle detection unit detecting subtitle data from the first metadata;
The first comparison unit extracts character information from the first database unit in which the second metadata including information on a plurality of songs is recorded, and the detected caption data and the extracted character information A step of comparing
A step of detecting a time that matches the character information in the performance scene of the music included in the first content data based on a comparison result in the first comparison unit;
A recording method comprising
オーディオ検出部が、前記検出された一致時刻を含むように前記第一のコンテンツデータから一定期間のオーディオデータを検出するステップと、
第二の比較部が、複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較するステップと、
楽曲区間検出部が、前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出するステップと、
を更に備える、請求項8に記載の記録方法。
An audio detecting unit detecting audio data for a certain period from the first content data so as to include the detected matching time;
The second comparison unit extracts audio data from the second database unit in which the second content data including information on a plurality of pieces of music is recorded, and the audio data for the certain period and the extracted audio data A step of comparing
The music section detection unit detects a time zone that matches the extracted audio data from the audio data of the certain period included in the first content data based on the comparison result in the second comparison unit. And steps to
The recording method according to claim 8, further comprising:
楽曲の演奏シーンを含む第一のコンテンツデータと、前記第一のコンテンツデータに関する情報を含む第一のメタデータを受信する手段、
前記第一のメタデータから字幕データを検出する手段、
複数の楽曲に関する情報を含む第二のメタデータが記録された第一のデータベース部から文字情報を抽出して、前記検出された字幕データと前記抽出された文字情報とを比較する手段、
前記第一の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記楽曲の前記演奏シーンのうち、前記文字情報と一致する時刻を検出する手段、
としてコンピュータを機能させるためのプログラム。
Means for receiving first content data including a performance scene of music and first metadata including information on the first content data;
Means for detecting caption data from the first metadata;
Means for extracting character information from a first database part in which second metadata including information relating to a plurality of songs is recorded, and comparing the detected subtitle data with the extracted character information;
Means for detecting a time coincident with the character information in the performance scene of the music included in the first content data based on a comparison result in the first comparison unit;
As a program to make the computer function.
前記検出された一致時刻を含むように前記第一のコンテンツデータから一定期間のオーディオデータを検出する手段、
複数の楽曲に関する情報を含む第二のコンテンツデータが記録された第二のデータベース部から音声データを抽出して、前記一定期間のオーディオデータと前記抽出された音声データとを比較する手段、
前記第二の比較部における比較結果に基づいて、前記第一のコンテンツデータに含まれる前記一定期間のオーディオデータのうち、前記抽出された音声データと一致する時間帯を検出する手段、
としてコンピュータを更に機能させるための請求項10に記載のプログラム。
Means for detecting audio data for a certain period from the first content data so as to include the detected matching time;
Means for extracting audio data from a second database unit in which second content data including information relating to a plurality of music pieces is recorded, and comparing the audio data of the certain period with the extracted audio data;
Means for detecting a time zone that matches the extracted audio data out of the audio data of the certain period included in the first content data based on a comparison result in the second comparison unit;
The program according to claim 10 for causing a computer to further function as:
JP2009242928A 2009-10-22 2009-10-22 Video recording device and method, and program Withdrawn JP2011091588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009242928A JP2011091588A (en) 2009-10-22 2009-10-22 Video recording device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009242928A JP2011091588A (en) 2009-10-22 2009-10-22 Video recording device and method, and program

Publications (1)

Publication Number Publication Date
JP2011091588A true JP2011091588A (en) 2011-05-06

Family

ID=44109427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009242928A Withdrawn JP2011091588A (en) 2009-10-22 2009-10-22 Video recording device and method, and program

Country Status (1)

Country Link
JP (1) JP2011091588A (en)

Similar Documents

Publication Publication Date Title
JP4866359B2 (en) Recording / reproducing apparatus, recording / reproducing method, recording / reproducing program, and computer-readable recording medium
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
JP4317127B2 (en) System and method for indexing and summarizing music videos
US20070265720A1 (en) Content marking method, content playback apparatus, content playback method, and storage medium
JP2006211311A (en) Digested video image forming device
JP4692775B2 (en) Video content playback support method, video content playback support system, and information distribution program
JP4678246B2 (en) Program search support system
JP4621607B2 (en) Information processing apparatus and method
JP4668875B2 (en) Program recording / playback apparatus, program playback position control method, and program information providing apparatus
JP2007200524A (en) Recording device, data management system
JP2006054517A (en) Information presenting apparatus, method, and program
JP2009147775A (en) Program reproduction method, apparatus, program, and medium
EP2587829A1 (en) Video analysis information upload apparatus and video viewing system and method
JP2011091588A (en) Video recording device and method, and program
JP4725554B2 (en) Program recording / reproducing system and program recording / reproducing method
US20070223880A1 (en) Video playback apparatus
JP4364850B2 (en) Audio playback device
JP2007294020A (en) Recording / reproducing method, recording / reproducing apparatus, recording method, recording apparatus, reproducing method, and reproducing apparatus
US7609940B2 (en) Display device and method for recording and replaying broadcasting program therein
JP2011248202A (en) Recording and playback apparatus
JP5286136B2 (en) Digital broadcast receiver
JP2006262013A (en) Recording device
JP4039019B2 (en) Program reservation method and system, program reservation server, program reservation program, and computer-readable recording medium
KR101995531B1 (en) Method for providing broadcasted music and apparatus using the same
JP2007336086A (en) Content recording apparatus, content reproducing apparatus, and content network system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108