[go: up one dir, main page]

JP2010166123A - Apparatus and method for processing information and program - Google Patents

Apparatus and method for processing information and program Download PDF

Info

Publication number
JP2010166123A
JP2010166123A JP2009004456A JP2009004456A JP2010166123A JP 2010166123 A JP2010166123 A JP 2010166123A JP 2009004456 A JP2009004456 A JP 2009004456A JP 2009004456 A JP2009004456 A JP 2009004456A JP 2010166123 A JP2010166123 A JP 2010166123A
Authority
JP
Japan
Prior art keywords
information
song
section
music
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009004456A
Other languages
Japanese (ja)
Inventor
Taka Murakoshi
象 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009004456A priority Critical patent/JP2010166123A/en
Publication of JP2010166123A publication Critical patent/JP2010166123A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】録画済みのコンテンツに含まれる、曲の再生が行われる区間に対して、その曲の名前を含むメタ情報を設定することができるようにする。
【解決手段】CMの放送開始時刻や放送局の情報に基づいて、CM曲情報配信サーバ3からCM曲情報が取得される。CM曲情報配信サーバ3から取得された曲名がCMの音声情報の特徴量と紐付けて記憶される。音楽番組などの、曲の再生が行われる区間を含む番組の録画が行われ、ミュージッククリップの各区間の音声情報の特徴量が抽出された場合、一致検索が行われる。CMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量が抽出されたミュージッククリップ中の区間が特定された場合、そのCMで使われている曲の名前がメタ情報としてミュージッククリップに設定される。本発明は、録画機能を有する機器に適用することができる。
【選択図】図9
Meta information including the name of a song can be set for a section in the recorded content in which the song is played.
CM music information is acquired from a CM music information distribution server 3 based on CM broadcast start time and broadcast station information. The song name acquired from the CM song information distribution server 3 is stored in association with the feature amount of the CM audio information. When a program including a section in which a song is played, such as a music program, is recorded and the feature amount of audio information in each section of the music clip is extracted, a matching search is performed. When a section in a music clip from which the feature value of the voice information whose degree of coincidence with the feature value of the CM's voice information is equal to or greater than the threshold is identified, the name of the song used in the CM is used as meta information Set to music clip. The present invention can be applied to a device having a recording function.
[Selection] Figure 9

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、録画済みのコンテンツに含まれる、曲の再生が行われる区間に対して、その曲の名前を含むメタ情報を設定することができるようにした情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program, and in particular, can set meta information including the name of a song for a section in which recorded music is included, included in recorded content. The present invention relates to an information processing apparatus, an information processing method, and a program that can be performed.

近年、ハードディスクレコーダやBlu-ray(商標)レコーダ等の録画機器が普及してきている。   In recent years, recording devices such as hard disk recorders and Blu-ray (trademark) recorders have become widespread.

録画機器の使い方として、複数のアーティストが順に演奏を行うような音楽番組を録画した後、各アーティストの演奏区間の開始位置と終了位置にチャプタを設定し、好みのアーティストの区間の再生等を容易に行うことができるようにしておくことが行われている。近年販売されている録画機器の多くには、リモートコントローラを操作するなどして、録画済みの番組の所定の位置にユーザがチャプタを設定することができる機能が搭載されている。   As a recording device, after recording a music program in which multiple artists perform in order, chapters are set at the start and end positions of each artist's performance section, making it easy to play back the section of your favorite artist It has been done to be able to do it. Many recording devices sold in recent years are equipped with a function that allows a user to set a chapter at a predetermined position of a recorded program by operating a remote controller or the like.

チャプタによって区切られる音楽番組の区間は言い方を変えれば映像付の音楽コンテンツとなる。映像付の音楽コンテンツはミュージッククリップとも呼ばれる。   In other words, the section of the music program divided by chapters becomes music content with video. Music content with video is also called a music clip.

1つの音楽番組から得られる複数のミュージッククリップの中から好みのものを選択して光ディスクに記録させて残しておいたり、携帯型の音楽プレーヤに転送して外出先で視聴したりすることも行われている。   You can select your favorite music clips from multiple music clips from a single music program and record them on the optical disc, or transfer them to a portable music player for viewing on the go. It has been broken.

ところで、従来、「eMarker」(商標)というサービスがある(非特許文献1)。   By the way, conventionally, there is a service called “eMarker” (trademark) (Non-Patent Document 1).

「eMarker」は携帯型の専用端末を用いて実現されるサービスであり、その専用端末の表面にはボタンが設けられるとともに、内部には時刻情報などを記憶するメモリが設けられる。   “EMarker” is a service realized using a portable dedicated terminal. A button is provided on the surface of the dedicated terminal, and a memory for storing time information and the like is provided therein.

ラジオ番組やテレビジョン番組で聴いた曲の名前などを知りたい時にユーザが専用端末のボタンを押すと、押した時の時間帯などの情報が端末内のメモリに記録される。その後、専用端末をパーソナルコンピュータに接続すると、ボタンを押したときに聞いていた曲の名前や、その曲がBGMとして使われているCMの情報などがサーバにおいて検索され、それらの情報がパーソナルコンピュータの画面上に表示される。ユーザは、気になったCM(Commercial Message)の曲をだれが歌っているのかなどを確認することが可能になる。   When the user presses a button on the dedicated terminal when he / she wants to know the name of a song listened to on a radio program or television program, information such as the time zone when the user presses the button is recorded in the memory in the terminal. After that, when the dedicated terminal is connected to the personal computer, the name of the song that was heard when the button was pressed and the information of the CM that uses the song as BGM are searched on the server, and the information is stored in the personal computer. Displayed on the screen. The user can check who is singing a CM (Commercial Message) song of interest.

特開2007−124677号公報JP 2007-124777 A “ラジオやテレビで気になった曲やCMをブックマーク 新たなサービス『eMarker』、首都圏にてサービス開始”、平成20年12月22日検索、<URL:http://www.sony.co.jp/SonyInfo/News/Press_Archive/200012/00-061b/>“Bookmarked songs and commercials that I was interested in on radio and TV. New service“ eMarker ”, service started in the Tokyo metropolitan area”, search on December 22, 2008, <URL: http://www.sony.co .jp / SonyInfo / News / Press_Archive / 200012 / 00-061b />

光ディスクに記録させたり、音楽プレーヤに転送させたりするミュージッククリップを選択する際にそれぞれのミュージッククリップの曲名が表示されるとした場合、曲名を元にミュージッククリップを選択することができ、便利である。   When selecting the music clip to be recorded on the optical disc or transferred to the music player, if the song name of each music clip is displayed, it is convenient to select the music clip based on the song name. .

従来、録画済みの番組にはEPG(Electronic Program Guide)データに基づいて番組名などがメタ情報として自動的に設定されるが、番組全体の一区間であるミュージッククリップに番組名とは異なる情報をメタ情報として自動的に設定するのは難しい。   Conventionally, program names are automatically set as meta information based on EPG (Electronic Program Guide) data for recorded programs, but information different from the program name is given to music clips that are one section of the entire program. It is difficult to set it automatically as meta information.

例えば、音楽番組の名前と同じ名前をミュージッククリップにも設定しておくとした場合、同じ音楽番組を元にして生成された全てのミュージッククリップに同じ名前が設定されてしまうため、ミュージッククリップを選択する際に分かりづらい。   For example, if the same name as the name of a music program is set for a music clip, the same name is set for all music clips generated based on the same music program, so select the music clip. Difficult to understand when doing.

ミュージッククリップの内容を確認してリモートコントローラやキーボードを操作し、ユーザが手動で曲名などのメタ情報を設定するのは面倒である。   It is troublesome for the user to manually set meta information such as the song name by checking the contents of the music clip and operating the remote controller or keyboard.

本発明はこのような状況に鑑みてなされたものであり、録画済みのコンテンツに含まれる、曲の再生が行われる区間に対して、その曲の名前を含むメタ情報を設定することができるようにするものである。   The present invention has been made in view of such a situation, and it is possible to set meta information including the name of a song for a section where the song is reproduced, which is included in the recorded content. It is to make.

本発明の一側面の情報処理装置は、CMで使用されている曲の名前を含む情報であるCM曲情報を取得する取得手段と、録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とを抽出する抽出手段と、前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量が抽出された区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報を設定する設定手段とを備える。   An information processing apparatus according to one aspect of the present invention includes an acquisition unit that acquires CM song information that is information including the name of a song used in a CM, a feature amount of audio information of a recorded CM, and a recorded Extraction means for extracting the feature amount of the audio information of the section in which the song is played, included in the content, and the feature amount of the voice information of the recorded CM in the section in which the song is played back A setting unit configured to set information included in the CM music information as meta information of a section in which the music is played when the section in which the feature amount of the voice information whose degree is equal to or greater than the threshold is included .

前記取得手段には、CMの提供時刻と前記CM曲情報を紐付けて管理するサーバとネットワークを介して通信を行わせ、前記録画済みのCMの提供時刻と紐付けて管理されている前記CM曲情報を取得させることができる。   The acquisition means causes the CM providing time and the CM music information to be managed in association with each other via a network, and the CM managed in association with the recorded CM providing time. Song information can be acquired.

前記曲の再生が行われる区間を提示する場合に、前記設定手段により設定された前記メタ情報に含まれる曲の名前を表示させる表示制御手段をさらに設けることができる。   When presenting a section in which the music is played, display control means for displaying the name of the music included in the meta information set by the setting means can be further provided.

前記曲の再生が行われる区間全体のうち、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間を再生する再生手段をさらに設けることができる。   A playback unit is further provided that plays back a section in which a feature amount of voice information having a degree of coincidence with a feature amount of voice information of the recorded CM is extracted from a whole section in which the music is played. Can do.

本発明の一側面の情報処理方法またはプログラムは、CMで使用されている曲の名前を含む情報であるCM曲情報を取得し、録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とを抽出し、前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量を抽出した区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報を設定するステップを含む。   An information processing method or program according to one aspect of the present invention acquires CM song information, which is information including the name of a song used in a CM, and features audio information features of recorded CM and recorded content. And the feature amount of the audio information of the section in which the song is reproduced is extracted, and the degree of coincidence with the feature amount of the recorded audio information in the section in which the song is reproduced is equal to or greater than a threshold value If the section from which the feature amount of the audio information is extracted is included, the step includes setting the information included in the CM song information as meta information of the section in which the song is played.

本発明の一側面においては、CMで使用されている曲の名前を含む情報であるCM曲情報が取得され、録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とが抽出される。また、前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量が抽出された区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報が設定される。   In one aspect of the present invention, CM song information, which is information including the name of the song used in the CM, is acquired, and the feature amount of the audio information of the recorded CM and the song included in the recorded content And the feature amount of the audio information in the section where the reproduction is performed. In addition, when the section in which the song is played includes a section in which the feature amount of the voice information whose degree of coincidence with the feature amount of the voice information of the recorded CM is equal to or greater than a threshold value, Information included in the CM music information is set as meta information of a section in which reproduction is performed.

本発明の一側面によれば、録画済みのコンテンツに含まれる、曲の再生が行われる区間に対して、その曲の名前を含むメタ情報を設定することができる。   According to one aspect of the present invention, meta information including the name of a song can be set for a section in which the song is played, which is included in the recorded content.

本発明の一実施形態に係る通信システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the communication system which concerns on one Embodiment of this invention. CM曲情報配信サーバにおいて管理されている情報の例を示す図である。It is a figure which shows the example of the information managed in CM music information delivery server. CM曲情報を取得する録画再生装置の動作の例を示す図である。It is a figure which shows the example of operation | movement of the video recording / reproducing apparatus which acquires CM music information. CM曲情報と特徴量の例を示す図である。It is a figure which shows the example of CM music information and a feature-value. ミュージッククリップの例を示す図である。It is a figure which shows the example of a music clip. ミュージッククリップの音声情報の特徴量の例を示す図である。It is a figure which shows the example of the feature-value of the audio | voice information of a music clip. 一致検索の例を示す図である。It is a figure which shows the example of a coincidence search. ミュージッククリップのメタ情報の例を示す図である。It is a figure which shows the example of the meta information of a music clip. ミュージッククリップのメタ情報を設定するまでの一連の流れを示す図である。It is a figure which shows a series of flows until it sets the meta information of a music clip. ミュージッククリップの一覧画面の例を示す図である。It is a figure which shows the example of the list screen of a music clip. 録画再生装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a video recording / reproducing apparatus. 録画再生装置の録画処理について説明するフローチャートである。It is a flowchart explaining the recording process of a recording / reproducing apparatus. 録画再生装置のCM曲情報取得処理について説明するフローチャートである。It is a flowchart explaining the CM music information acquisition process of a recording / reproducing apparatus. 録画再生装置のメタ情報設定処理について説明するフローチャートである。It is a flowchart explaining the meta information setting process of a recording / reproducing apparatus. 録画再生装置の再生処理について説明するフローチャートである。It is a flowchart explaining the reproduction | regeneration processing of a video recording / reproducing apparatus. ミュージッククリップの再生区間の例を示す図である。It is a figure which shows the example of the reproduction | regeneration area of a music clip. 他の通信システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of another communication system. メタ情報を設定するまでの一連の流れを示す図である。It is a figure which shows a series of flows until it sets meta information. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

[システムの構成と動作]
図1は、本発明の一実施形態に係る通信システムの構成例を示すブロック図である。
[System configuration and operation]
FIG. 1 is a block diagram illustrating a configuration example of a communication system according to an embodiment of the present invention.

図1に示すように、この通信システムは、録画再生装置1とCM曲情報配信サーバ3がインターネットなどよりなるネットワーク2を介して接続されることによって構成される。   As shown in FIG. 1, this communication system is configured by connecting a recording / playback apparatus 1 and a CM music information distribution server 3 via a network 2 such as the Internet.

録画再生装置1はハードディスクレコーダやBlu-rayレコーダなどの機器である。録画再生装置1にはケーブルを介してテレビジョン受像機が接続される。録画再生装置1は録画再生機能の他に、ネットワーク2を介してCM曲情報配信サーバ3と通信を行う機能を有する。   The recording / playback apparatus 1 is a device such as a hard disk recorder or a Blu-ray recorder. A television receiver is connected to the recording / playback apparatus 1 via a cable. In addition to the recording / playback function, the recording / playback apparatus 1 has a function of communicating with the CM music information distribution server 3 via the network 2.

CM曲情報配信サーバ3は、上述した「eMarker」のサービスを提供するサーバと同様の機能を有する。CM曲情報配信サーバ3は、ネットワーク2を介して送信されてきた時刻の情報に基づいて、その時刻を含む時間帯にテレビジョン放送などによって提供されていたCMで使われている曲の情報を、時刻の情報を送信してきた機器に送信する。   The CM music information distribution server 3 has the same function as the server that provides the above-described “eMarker” service. Based on the time information transmitted via the network 2, the CM song information distribution server 3 stores information on the songs used in the CM provided by the television broadcast in the time zone including the time. The time information is transmitted to the device that has transmitted the time information.

図2は、CM曲情報配信サーバ3において管理されている情報の例を示す図である。   FIG. 2 is a diagram illustrating an example of information managed in the CM music information distribution server 3.

図2に示すように、各CMに対して、放送開始時刻、BGM(Back Ground Music)として使われている曲の名前、曲を演奏するアーティストの名前などの情報が紐付けて管理される。なお、CMには、商品やサービスの宣伝の映像、音声の他に、番組やイベントの宣伝の映像、音声も含まれる。   As shown in FIG. 2, information such as the broadcast start time, the name of a song used as BGM (Back Ground Music), and the name of an artist performing the song are associated with each CM and managed. Note that the CM includes video and audio for promoting programs and events in addition to video and audio for promoting products and services.

図2の例においては、CM1に対しては、放送開始時刻「12:00:00」(12時0分0秒)、曲名「AAA」、アーティスト名「aaa」が紐付けられている。また、CM2に対しては、放送開始時刻「12:00:15」、曲名「BBB」、アーティスト名「bbb」が紐付けられている。   In the example of FIG. 2, broadcast start time “12:00:00” (12:00:00), song name “AAA”, and artist name “aaa” are associated with CM1. For CM2, broadcast start time “12:00:15”, song name “BBB”, and artist name “bbb” are associated.

CM3に対しては、放送開始時刻「12:00:30」、曲名「CCC」、アーティスト名「ccc」が紐付けられ、CM4に対しては、放送開始時刻「12:00:45」、曲名「DDD」、アーティスト名「ddd」が紐付けられている。   For CM3, the broadcast start time “12:00:30”, the song name “CCC”, and the artist name “ccc” are linked. For CM4, the broadcast start time “12:00:45”, the song title “DDD” and artist name “ddd” are linked.

時刻情報だけでなく、それぞれのCMが放送されたチャンネルの情報なども紐付けて管理されるようにしてもよい。以下、適宜、BGMとしてCM中で使われている曲の名前、アーティスト名などの情報をCM曲情報という。   Not only the time information but also the information of the channel on which each CM is broadcast may be linked and managed. Hereinafter, information such as the name of the song and the artist name used in the CM as BGM will be referred to as CM song information.

図1の説明に戻り、録画再生装置1は、このようなCM曲情報を管理するCM曲情報配信サーバ3との間で通信を行い、CM曲情報配信サーバ3から取得したCM曲情報に含まれる情報をミュージッククリップのメタ情報として設定する。   Returning to the description of FIG. 1, the recording / playback apparatus 1 communicates with the CM song information distribution server 3 that manages such CM song information, and is included in the CM song information acquired from the CM song information distribution server 3. Set the information to be recorded as meta information of the music clip.

ミュージッククリップは、上述したように映像付の音楽コンテンツである。音楽番組などの録画済みのコンテンツに含まれる、映像とともに曲の再生が行われる区間が録画再生装置1においてはミュージッククリップとして管理される。   The music clip is music content with video as described above. In the recording / playback apparatus 1, a section in which a song is played back together with video included in recorded content such as a music program is managed as a music clip.

例えばユーザがミュージッククリップの一覧の表示を指示した場合、録画再生装置1に接続されるテレビジョン受像機には、各ミュージッククリップのメタ情報に含まれる曲名などの情報が表示される。ユーザは、録画再生装置1において再生するミュージッククリップや、携帯型のミュージックプレーヤに録画再生装置1から転送するミュージッククリップを、曲名を見ながら選択することができる。   For example, when the user instructs display of a list of music clips, information such as song names included in meta information of each music clip is displayed on the television receiver connected to the recording / playback apparatus 1. The user can select a music clip to be played on the recording / playback apparatus 1 or a music clip to be transferred from the recording / playback apparatus 1 to a portable music player while viewing the song title.

図3は、CM曲情報を取得する録画再生装置1の動作の例を示す図である。   FIG. 3 is a diagram showing an example of the operation of the recording / playback apparatus 1 for acquiring CM music information.

図3の例においては、あるバラエティ番組が録画され、音声情報や画像情報が解析されることによって、本編1と本編2の間の区間がCM区間として検出されている。検出されたCM区間は4つのCMであるCM1乃至4から構成されている。   In the example of FIG. 3, a variety program is recorded, and audio information and image information are analyzed, so that a section between the main part 1 and the main part 2 is detected as a CM section. The detected CM section is composed of CMs 1 to 4 which are four CMs.

CM1の放送開始時刻は「12:00:00」とされ、CM2の放送開始時刻は「12:00:15」とされている。また、CM3の放送開始時刻は「12:00:30」とされ、CM4の放送開始時刻は「12:00:45」とされている。   The broadcast start time of CM1 is “12:00:00”, and the broadcast start time of CM2 is “12:00:15”. The broadcast start time of CM3 is “12:00:30”, and the broadcast start time of CM4 is “12:00:45”.

CMの検出は、番組の本編とCMの間、CMとCMの間にはシーンチェンジがあること、CM区間では音声がステレオ音声になっていること、1つのCMの区間は15秒の整数倍の長さの区間になっていることなどに基づいて行われる。画像情報、音声情報のこれらの特徴が録画再生装置1においては抽出される。CM検出については例えば特開2002−16873号公報に記載されている。   CM detection is that there is a scene change between the main part of the program and the CM, between CM and CM, the sound is stereo sound in the CM section, and one CM section is an integer multiple of 15 seconds This is based on the fact that it is a section of a length of. These characteristics of image information and audio information are extracted in the recording / playback apparatus 1. CM detection is described in, for example, Japanese Patent Application Laid-Open No. 2002-16873.

録画再生装置1においては、CM曲情報配信サーバ3に対する問い合わせが行われ、検出されたCMの放送開始時刻の情報に基づいて、それぞれのCMのCM曲情報が取得される。   In the recording / playback apparatus 1, an inquiry is made to the CM song information distribution server 3, and the CM song information of each CM is acquired based on the information of the detected broadcast start time of the CM.

CM1の放送開始時刻は「12:00:00」であるから、図2に示すようなデータベースに基づいて、図3のCM1が図2のCM1と同じCMであるとしてCM曲情報配信サーバ3において特定される。CM1でBGMとして使われている曲の名前である「AAA」がCM曲情報配信サーバ3から送信され、録画再生装置1により取得される。   Since the broadcast start time of CM1 is “12:00:00”, the CM song information distribution server 3 assumes that CM1 in FIG. 3 is the same CM as CM1 in FIG. 2 based on the database as shown in FIG. Identified. “AAA” which is the name of the song used as BGM in CM 1 is transmitted from the CM song information distribution server 3 and acquired by the recording / playback apparatus 1.

図3のCM2乃至4についても同様に、放送開始時刻に基づいてそれぞれ図2のCM2乃至4と同じCMであるとして特定される。図3の例においては、CM2で使われている曲の名前である「BBB」、CM3で使われている曲の名前である「CCC」、CM4で使われている曲の名前である「DDD」が取得されている。   Similarly, CMs 2 to 4 in FIG. 3 are identified as the same CMs as CMs 2 to 4 in FIG. 2 based on the broadcast start time. In the example of FIG. 3, “BBB” is the name of the song used in CM2, “CCC” is the name of the song used in CM3, and “DDD” is the name of the song used in CM4. Is acquired.

また、録画再生装置1においては、各CMの音声情報の解析が行われることによって特徴量が抽出され、各CMのCM曲情報と紐付けて管理される。CMの音声情報にはBGMとして使われている曲も含まれるから、抽出される特徴量はCMで使われている曲の特徴も表す。例えば、周波数帯域毎の成分の分布を示すパワースペクトル、テンポなどの特徴量が抽出される。   Further, in the recording / playback apparatus 1, the feature amount is extracted by analyzing the audio information of each CM, and is managed in association with the CM song information of each CM. Since the audio information of the CM includes the music used as BGM, the extracted feature quantity also represents the characteristics of the music used in the CM. For example, a feature quantity such as a power spectrum and a tempo indicating the distribution of components for each frequency band is extracted.

図4は、CM曲情報と特徴量の例を示す図である。   FIG. 4 is a diagram illustrating an example of CM music information and feature amounts.

図4の例においては、CM1の情報として、CM1で使われている曲の名前である「AAA」と、CM1の音声情報から抽出された特徴量1の値である「a1」と、特徴量2の値である「a2」が紐付けて記憶されている。 In the example of FIG. 4, “AAA”, which is the name of the song used in CM1, and “a 1 ”, which is the value of feature amount 1 extracted from the voice information of CM1, are used as CM1 information. “A 2 ” which is the value of the quantity 2 is stored in association with it.

また、CM2の情報として、CM2で使われている曲の名前である「BBB」と、CM2の音声情報から抽出された特徴量1の値である「b1」と、特徴量2の値である「b2」が紐付けて記憶されている。CM3,4についても同様に、曲の名前と、特徴量1,2の値が紐付けて記憶されている。 In addition, as information of CM2, “BBB” which is the name of the song used in CM2, “b 1 ” which is the value of feature 1 extracted from the audio information of CM2, and the value of feature 2 A certain “b 2 ” is associated and stored. Similarly, the names of songs and the values of feature quantities 1 and 2 are stored in association with CMs 3 and 4.

このように、録画再生装置1においては、ミュージッククリップのメタ情報を設定するための前処理として、録画済みの番組に含まれるCMで使われている曲の名前などの情報が取得され、CMの音声情報の特徴量と紐付けて記憶される。録画が行われた全ての番組を対象としてこのような処理が行われることにより、録画再生装置1には様々なCMで使われている曲の名前などの情報とCMの音声情報の特徴量が紐付けて記憶されることになる。   As described above, in the recording / playback apparatus 1, information such as the name of the song used in the CM included in the recorded program is acquired as a pre-process for setting the meta information of the music clip, and the CM It is stored in association with the feature amount of the voice information. By performing such processing for all the recorded programs, the recording / playback apparatus 1 has information such as the names of songs used in various CMs and the feature amount of CM audio information. It will be associated and stored.

CMで使われている曲の名前などの情報とCMの音声情報の特徴量が紐付けて記憶された後、そのCMのデータ自体はミュージッククリップにメタ情報を設定することには用いられないから番組のデータとともに削除されるようにしてもよい。   Since information such as the name of the song used in the CM and the feature value of the CM's audio information are stored in association with each other, the CM data itself is not used to set meta information in the music clip. It may be deleted together with program data.

図5は、ミュージッククリップの例を示す図である。   FIG. 5 is a diagram illustrating an example of a music clip.

図5に示す音楽番組は、例えば、複数のアーティストが順に演奏を行う形式の録画済みの番組であり、チャプタが設定されることによって、それぞれのアーティストが演奏する曲1乃至4の区間に区切られている。曲1乃至4の区間は、それぞれミュージッククリップ1乃至4として管理されている。   The music program shown in FIG. 5 is, for example, a recorded program in which a plurality of artists perform in order, and by setting a chapter, the music program is divided into sections of songs 1 to 4 performed by each artist. ing. The sections of songs 1 to 4 are managed as music clips 1 to 4, respectively.

録画再生装置1においては、このように例えばチャプタが設定されることによって音楽番組が区切られ、ミュージッククリップとして管理される。チャプタが設定されることなく、曲の開始位置と終了位置が検出され、検出された開始位置から終了位置までの区間がミュージッククリップとして管理されるようにしてもよい。   In the recording / playback apparatus 1, for example, by setting chapters, music programs are divided and managed as music clips. The chapter start position and end position may be detected without setting chapters, and the section from the detected start position to end position may be managed as a music clip.

ユーザは、ミュージッククリップ単位で、再生したり、携帯型の音楽プレーヤに転送したりすることができる。   The user can play back or transfer to a portable music player in units of music clips.

また、録画再生装置1においては、各ミュージッククリップの音声情報の解析が行われ、CMの音声情報と同様に、パワースペクトル、テンポなどの特徴量が抽出される。例えば、15秒間の区間毎といったように、CMの音声情報の特徴量との比較の対象になる区間毎の音声情報の特徴量が抽出される。   Further, the recording / playback apparatus 1 analyzes the audio information of each music clip, and extracts feature quantities such as a power spectrum and a tempo in the same manner as the audio information of the CM. For example, the feature amount of the voice information for each section to be compared with the feature amount of the voice information of the CM, such as every section for 15 seconds, is extracted.

図6は、ミュージッククリップの音声情報の特徴量の例を示す図である。ここでは、各ミュージッククリップの特徴量として、CMの音声情報の特徴量との比較の対象になる1つの区間の音声情報から抽出された特徴量を示している。   FIG. 6 is a diagram illustrating an example of a feature amount of audio information of a music clip. Here, as the feature amount of each music clip, the feature amount extracted from the speech information of one section to be compared with the feature amount of the CM speech information is shown.

図6の例においては、ミュージッククリップ1の音声情報の特徴量として、特徴量1の値である「b1」と特徴量2の値である「b2」が紐付けて記憶されている。ミュージッククリップ1には、特徴量1の値が「b1」、特徴量2の値が「b2」となる音声情報の区間が含まれる。 In the example of FIG. 6, “b 1 ” that is the value of feature amount 1 and “b 2 ” that is the value of feature amount 2 are stored in association with each other as the feature amount of the audio information of music clip 1. The music clip 1 includes a section of audio information in which the feature value 1 is “b 1 ” and the feature value 2 is “b 2 ”.

また、ミュージッククリップ2の音声情報の特徴量として、特徴量1の値である「e1」と特徴量2の値である「e2」が紐付けて記憶されている。ミュージッククリップ2には、特徴量1の値が「e1」、特徴量2の値が「e2」となる音声情報の区間が含まれる。 In addition, “e 1 ” that is the value of the feature amount 1 and “e 2 ” that is the value of the feature amount 2 are stored in association with each other as the feature amount of the audio information of the music clip 2. The music clip 2 includes a section of audio information in which the feature value 1 is “e 1 ” and the feature value 2 is “e 2 ”.

ミュージッククリップ3,4についても同様に、それぞれの音声情報から抽出された特徴量1の値と特徴量2の値が紐付けて記憶されている。図6の特徴量1,2は、図4の特徴量1,2とそれぞれ同じ種類の特徴量である。   Similarly, for the music clips 3 and 4, the value of the feature value 1 and the value of the feature value 2 extracted from the respective audio information are stored in association with each other. The feature amounts 1 and 2 in FIG. 6 are the same types of feature amounts as the feature amounts 1 and 2 in FIG.

このように、録画再生装置1においては、番組の録画が行われた後、それぞれのミュージッククリップの音声情報の特徴量が抽出され、記憶される。   Thus, in the recording / playback apparatus 1, after the program is recorded, the feature amount of the audio information of each music clip is extracted and stored.

図7は、一致検索の例を示す図である。   FIG. 7 is a diagram illustrating an example of matching search.

CMで使われている曲の名前などの情報がCMの音声情報の特徴量と紐付けて記憶され、それぞれのミュージッククリップの音声情報の特徴量が記憶された後、録画再生装置1においては特徴量の一致検索が行われる。一致検索により、CMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出されたミュージッククリップの区間が特定される。   Information such as the name of the song used in the CM is stored in association with the feature amount of the voice information of the CM, and after the feature amount of the voice information of each music clip is stored, the recording / playback apparatus 1 has the feature. A quantity match search is performed. By the matching search, the section of the music clip from which the feature amount of the voice information whose degree of match with the feature amount of the voice information of the CM is equal to or greater than the threshold is specified.

図7の例においては、CM1の音声情報の特徴量と、ミュージッククリップ1乃至4の各区間の音声情報の特徴量との一致度がそれぞれ求められている。ミュージッククリップ1乃至4において点線で区切って示すそれぞれの区間が、CM1の音声情報の特徴量との一致度を求める対象になる。   In the example of FIG. 7, the degree of coincidence between the feature amount of the voice information of CM1 and the feature amount of the voice information of each section of the music clips 1 to 4 is obtained. Each section indicated by the dotted lines in the music clips 1 to 4 is a target for obtaining the degree of coincidence with the feature amount of the voice information of CM1.

CM1の音声情報の特徴量1の値は「a1」、特徴量2の値は「a2」である(図4)。図6に示すような特徴量が抽出されている場合、CM1の音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間として、図7において斜線を付して示すミュージッククリップ4に含まれる区間が特定される。図6に示すように、ミュージッククリップ4には、特徴量1の値が「a1」、特徴量2の値が「a2」となる音声情報の区間が含まれる。 The value of feature amount 1 of the voice information of CM1 is “a 1 ”, and the value of feature amount 2 is “a 2 ” (FIG. 4). When feature quantities as shown in FIG. 6 have been extracted, hatched lines in FIG. 7 are used as sections in which feature quantities of voice information whose degree of coincidence with the feature quantity of voice information of CM1 is equal to or greater than a threshold. The section included in the music clip 4 shown is specified. As shown in FIG. 6, the music clip 4 includes a section of audio information in which the feature value 1 is “a 1 ” and the feature value 2 is “a 2 ”.

CM1の音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間がミュージッククリップ4の区間として特定された場合、CM1で使われている曲の名前である「AAA」が、ミュージッククリップ4のメタ情報として設定される。曲の名前以外にも、CM曲情報に含まれるアーティスト名などの情報がメタ情報として設定される。   When the section from which the feature amount of the voice information whose degree of coincidence with the feature amount of the voice information of CM1 is equal to or greater than the threshold is specified as the section of the music clip 4, the name of the song used in CM1 is “AAA "Is set as meta information of the music clip 4. In addition to the song name, information such as the artist name included in the CM song information is set as meta information.

他のミュージッククリップについても同様に音声情報の特徴量に基づいて一致検索が行われ、CM曲情報に含まれる情報がメタ情報として設定される。   Similarly for other music clips, a matching search is performed based on the feature amount of the audio information, and information included in the CM song information is set as meta information.

図8は、ミュージッククリップのメタ情報の例を示す図である。   FIG. 8 is a diagram illustrating an example of music clip meta information.

図8の例においては、ミュージッククリップ4のメタ情報として上述したように「AAA」の曲名が設定されている。   In the example of FIG. 8, the song name “AAA” is set as the meta information of the music clip 4 as described above.

また、ミュージッククリップ1のメタ情報として「BBB」の曲名が設定されている。ミュージッククリップ1は、図6に示すように特徴量1の値が「b1」、特徴量2の値が「b2」となる音声情報の区間を含むコンテンツである。図4の例においては、CM2の音声情報の特徴量の値として同じ値が抽出されているから、CM2で使われている曲の名前である「BBB」が、ミュージッククリップ1のメタ情報として設定されることになる。 Also, the song name “BBB” is set as meta information of the music clip 1. As shown in FIG. 6, the music clip 1 is content including a section of audio information in which the value of the feature value 1 is “b 1 ” and the value of the feature value 2 is “b 2 ”. In the example of FIG. 4, since the same value is extracted as the feature value value of the audio information of CM2, “BBB” which is the name of the song used in CM2 is set as the meta information of music clip 1 Will be.

図8の例においては、ミュージッククリップ2に対しては曲名「EEE」が設定され、ミュージッククリップ3に対しては曲名「FFF」が設定されている。   In the example of FIG. 8, the music title “EEE” is set for the music clip 2, and the music title “FFF” is set for the music clip 3.

このように、音楽番組において再生される曲(ミュージッククリップの曲)と同じ曲がCM中で使われているものと仮定して、一致検索が行われ、CM曲情報配信サーバ3から取得されたCM曲情報がメタ情報としてミュージッククリップに設定される。   In this way, a match search is performed on the assumption that the same song as the song (music clip song) played in the music program is used in the CM, and the song is acquired from the CM song information distribution server 3. CM song information is set in the music clip as meta information.

例えば、CMで紹介されるような映画の主題歌を演奏するアーティストは、CMが頻繁に放送される映画の封切り前の期間中、音楽番組にもよく出演して主題歌を演奏する。映画のCMのBGMとして主題歌が使用されており、CM曲情報配信サーバ3に曲名が登録されている場合、そのアーティストが出演している音楽番組から得られたミュージッククリップには、CM曲情報配信サーバ3から取得された主題歌の曲名が設定される。   For example, an artist who plays a theme song of a movie as introduced in a commercial often appears in music programs and plays the theme song during the period before the release of a movie on which commercials are frequently broadcast. If the theme song is used as the BGM of a commercial for a movie, and the song name is registered in the CM song information distribution server 3, the music clip obtained from the music program in which the artist appears will contain CM song information. The title of the theme song acquired from the distribution server 3 is set.

このように、録画済みのコンテンツのうちの曲の再生が行われる区間であるミュージッククリップに対して、その曲の名前を含むメタ情報を設定することが可能になる。   As described above, it is possible to set meta information including the name of a song for a music clip that is a section in which the song of the recorded content is reproduced.

なお、CMで使われている部分は曲全体のうちのサビの部分であることが多い。サビの部分がCMで使われているとした場合、CMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間として特定されるミュージッククリップ中の区間は、そのミュージッククリップで再生される曲のサビの部分となる。このようにして特定されたサビの部分を示す情報が、メタ情報としてミュージッククリップに設定されるようにしてもよい。   The part used in commercials is often the chorus part of the entire song. Assuming that the chorus part is used in the CM, the section in the music clip that is identified as the section from which the feature amount of the voice information that has a degree of coincidence with the feature amount of the voice information of the CM is extracted is It becomes the chorus part of the song played with the music clip. Information indicating the portion of the rust specified in this way may be set in the music clip as meta information.

図7の例の場合、斜線を付して示す区間を示す情報が、ミュージッククリップ4のメタ情報として設定されることになる。   In the case of the example in FIG. 7, information indicating a section indicated by hatching is set as meta information of the music clip 4.

図9は、ミュージッククリップのメタ情報を設定するまでの一連の流れを示す図である。   FIG. 9 is a diagram showing a series of flows until the meta information of the music clip is set.

バラエティ番組などの所定の番組の録画が行われ、CMが検出された場合、図9において「1:」として示すように、CMの放送開始時刻や放送局の情報に基づいて、CM曲情報配信サーバ3からCM曲情報が取得される。   When a predetermined program such as a variety program is recorded and a CM is detected, as shown as “1:” in FIG. 9, CM music information distribution is performed based on the CM broadcast start time and broadcast station information. CM music information is acquired from the server 3.

また、CM曲情報配信サーバ3から取得された曲名が、「2:」として示すようにCMの音声情報の特徴量と紐付けて記憶される。   In addition, the song title acquired from the CM song information distribution server 3 is stored in association with the feature amount of the CM audio information as indicated by “2:”.

「3:」として示すように、音楽番組などの、曲の再生が行われる区間を含む番組の録画が行われ、ミュージッククリップの各区間の音声情報の特徴量が抽出された場合、「4:」として示すように一致検索が行われる。   As shown as “3:”, when a program including a section in which a song is played, such as a music program, is recorded and the feature amount of audio information in each section of the music clip is extracted, “4: As shown in FIG.

CMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量が抽出されたミュージッククリップ中の区間が特定された場合、「5:」として示すように、そのCMで使われている曲の名前がメタ情報としてミュージッククリップに設定される。   When a section in a music clip from which a feature value of voice information whose degree of coincidence with the feature value of the voice information of the CM is equal to or greater than a threshold is specified, it is used in the CM as shown as “5:”. The name of the current song is set in the music clip as meta information.

以上のようにしてメタ情報として設定された曲名は、例えば、ミュージッククリップの一覧を表示するときに用いられる。   The song name set as the meta information as described above is used, for example, when displaying a list of music clips.

図10は、録画再生装置1と接続されるテレビジョン受像機に表示される、ミュージッククリップの一覧画面の例を示す図である。   FIG. 10 is a diagram showing an example of a music clip list screen displayed on the television receiver connected to the recording / playback apparatus 1.

図10に示す画面は、例えば、録画再生装置1を起動させたときに表示されるメニュー画面から、ミュージッククリップの一覧画面の表示を指示したときに表示される。   The screen shown in FIG. 10 is displayed, for example, when the display of the music clip list screen is instructed from the menu screen displayed when the recording / playback apparatus 1 is activated.

図10の例においては、上から順に、ミュージッククリップの曲名として「BBB」、「EEE」、「FFF」、「AAA」が表示されている。「BBB」、「EEE」、「FFF」、「AAA」は、図8を参照して説明したようにミュージッククリップ1乃至4のメタ情報として設定された曲名である。   In the example of FIG. 10, “BBB”, “EEE”, “FFF”, and “AAA” are displayed as music titles of music clips in order from the top. “BBB”, “EEE”, “FFF”, and “AAA” are song names set as meta information of the music clips 1 to 4 as described with reference to FIG.

「BBB」、「EEE」、「FFF」、「AAA」の左隣にはサムネイル画像S1乃至S4がそれぞれ表示されている。サムネイル画像S1乃至S4は、例えば、それぞれのミュージッククリップの画像情報に含まれる先頭の1フレームの画像である。 Thumbnail images S 1 to S 4 are displayed on the left side of “BBB”, “EEE”, “FFF”, and “AAA”, respectively. The thumbnail images S 1 to S 4 are, for example, the first frame image included in the image information of each music clip.

ユーザは、このようにして表示される曲名を見ながらリモートコントローラを操作するなどしてカーソルCを上下に移動させ、所定のミュージッククリップを選択することができる。   The user can select a predetermined music clip by moving the cursor C up and down by operating the remote controller or the like while watching the displayed song title.

ミュージッククリップを選択した後、画面には、選択したミュージッククリップの操作に関するメニューが表示される。ユーザは、携帯型の音楽プレーヤにミュージッククリップを転送することなどを、そのメニューから指示することができる。   After the music clip is selected, a menu related to the operation of the selected music clip is displayed on the screen. The user can instruct from the menu to transfer the music clip to the portable music player.

ミュージッククリップを携帯型の音楽プレーヤに転送することが指示された場合、ミュージッククリップのデータ(画像情報、音声情報)とともにメタ情報も転送され、音楽プレーヤの内部のメモリに記憶される。メタ情報も転送されるため、音楽プレーヤの画面にミュージッククリップの曲名を表示させることも可能になる。   When it is instructed to transfer the music clip to the portable music player, the meta information is also transferred together with the music clip data (image information, audio information) and stored in the memory inside the music player. Since the meta information is also transferred, the music clip title can be displayed on the screen of the music player.

[録画装置の構成]
図11は、録画再生装置1の構成例を示すブロック図である。
[Configuration of recording device]
FIG. 11 is a block diagram illustrating a configuration example of the recording / playback apparatus 1.

図11に示す構成のうちの少なくとも一部は、録画再生装置1が有するCPU(Central Processing Unit)により所定のプログラムが実行されることによって実現される。   At least a part of the configuration shown in FIG. 11 is realized by a predetermined program being executed by a CPU (Central Processing Unit) included in the recording / playback apparatus 1.

放送受信部11は、図示せぬアンテナからの信号に基づいて、地上波デジタル放送、BS(Broadcasting Satellite)放送、CS(Communications Satellite)放送などによって放送される番組の信号を受信する。放送受信部11は、受信した信号に対してデコード処理などの各種の処理を施し、MPEG-TSなどのストリームを番組記録部12に出力する。   The broadcast receiving unit 11 receives a signal of a program broadcast by terrestrial digital broadcasting, BS (Broadcasting Satellite) broadcasting, CS (Communications Satellite) broadcasting, or the like based on a signal from an antenna (not shown). The broadcast receiving unit 11 performs various processes such as a decoding process on the received signal, and outputs a stream such as MPEG-TS to the program recording unit 12.

番組記録部12は、放送受信部11から供給されたストリームをそのまま、またはMPEG-4形式のストリームに再変換し、ハードディスクなどの記録媒体に記録する。番組記録部12によりハードディスクに記録されたストリームは、適宜、再生部24により読み出される。   The program recording unit 12 re-converts the stream supplied from the broadcast receiving unit 11 as it is or into an MPEG-4 format stream, and records it on a recording medium such as a hard disk. The stream recorded on the hard disk by the program recording unit 12 is read by the reproducing unit 24 as appropriate.

特徴量抽出部13は、録画済みの番組の各区間の画像情報、音声情報の特徴量を抽出し、特徴量保持部14、CM区間判定部15、および音楽区間判定部16に出力する。   The feature amount extraction unit 13 extracts the feature amount of the image information and audio information of each section of the recorded program, and outputs the feature amount to the feature amount holding unit 14, the CM section determination unit 15, and the music section determination unit 16.

特徴量保持部14は、特徴量抽出部13により抽出された特徴量を録画済みの番組に紐付けて保持する。   The feature amount holding unit 14 holds the feature amount extracted by the feature amount extraction unit 13 in association with a recorded program.

CM区間判定部15は、特徴量抽出部13により抽出された特徴量に基づいて、録画済みの番組に含まれるCMを検出し、検出したCMの放送開始時刻の情報をCM曲情報・特徴量紐付け部19に出力する。   The CM section determination unit 15 detects a CM included in a recorded program based on the feature amount extracted by the feature amount extraction unit 13, and uses the detected CM broadcast start time information as CM song information / feature amount. The data is output to the linking unit 19.

音楽区間判定部16は、特徴量抽出部13により抽出された特徴量に基づいて、音楽区間、すなわち、曲の再生が行われる区間であるミュージッククリップを検出し、それぞれのミュージッククリップの区間を示す情報を音楽区間・特徴量紐付け部20に出力する。複数の曲が順に再生される場合、特徴量抽出部13により抽出された特徴量の変化によって、曲が切り替わったことが検出される。   Based on the feature amount extracted by the feature amount extraction unit 13, the music segment determination unit 16 detects a music segment, that is, a music clip that is a segment in which a song is played, and indicates the segment of each music clip. Information is output to the music section / feature value linking unit 20. When a plurality of songs are played in order, it is detected that the songs have been switched by the change in the feature value extracted by the feature value extraction unit 13.

音楽区間判定部16により検出される区間には、番組中で人が演奏している区間だけでなく、風景などの映像とともに曲の再生が行われる区間も含まれる。また、1曲の最初から最後までの区間だけでなく、1曲の一部の区間も含まれる。   The section detected by the music section determination unit 16 includes not only a section in which a person is playing in a program but also a section in which music is reproduced along with a video such as a landscape. Further, not only a section from the beginning to the end of one song but also a section of one song is included.

ネットワーク送受信部17は、CM曲情報配信サーバ3とネットワーク2を介して通信を行うことによって放送開始時刻や放送局に紐付けられたCM曲情報を取得し、取得したCM曲情報をCM曲情報保持部18に出力する。CM曲情報・特徴量紐付け部19からは、特徴量保持部14からCM曲情報・特徴量紐付け部19に対して供給された、各CMの放送開始時刻などの情報が供給される。   The network transmission / reception unit 17 acquires the CM song information associated with the broadcast start time and the broadcasting station by communicating with the CM song information distribution server 3 via the network 2, and uses the acquired CM song information as the CM song information. The data is output to the holding unit 18. Information such as the broadcast start time of each CM supplied from the feature amount holding unit 14 to the CM song information / feature amount association unit 19 is supplied from the CM song information / feature amount association unit 19.

CM曲情報保持部18は、ネットワーク送受信部17により取得されたCM曲情報をハードディスクに記録するなどして録画再生装置1内に保持する。   The CM song information holding unit 18 holds the CM song information acquired by the network transmission / reception unit 17 in the recording / playback apparatus 1 by recording it on the hard disk.

CM曲情報・特徴量紐付け部19は、各CMについて、CM曲情報保持部18により保持されているCM曲情報と、特徴量保持部14により保持されている音声情報の特徴量を紐付けて管理する。CM曲情報・特徴量紐付け部19により、図4に示すような情報が管理される。   The CM song information / feature amount linking unit 19 links the CM song information held by the CM song information holding unit 18 and the feature amount of the audio information held by the feature amount holding unit 14 for each CM. Manage. Information shown in FIG. 4 is managed by the CM song information / feature amount linking unit 19.

音楽区間・特徴量紐付け部20は、音楽区間判定部16により検出されたミュージッククリップと、特徴量保持部14により保持されているミュージッククリップの音声情報の特徴量を紐付けて管理する。音楽区間・特徴量紐付け部20により、図6に示すような情報が管理される。   The music section / feature amount linking unit 20 manages the music clip detected by the music section determination unit 16 and the feature amount of the audio information of the music clip held by the feature amount holding unit 14 in association with each other. Information shown in FIG. 6 is managed by the music section / feature amount linking unit 20.

一致検索部21は、CM曲情報・特徴量紐付け部19により管理されているCMの音声情報の特徴量と、音楽区間・特徴量紐付け部20により管理されているミュージッククリップの各区間の音声情報の特徴量に基づいて一致検索を行う。一致検索部21により、図7を参照して説明したような処理が行われる。   The coincidence search unit 21 includes the feature amount of the voice information of the CM managed by the CM song information / feature amount linking unit 19 and each section of the music clip managed by the music section / feature amount linking unit 20. A match search is performed based on the feature amount of the voice information. The match search unit 21 performs the processing as described with reference to FIG.

一致検索部21は、CMの音声情報の特徴量との一致度が閾値以上になる音声情報の特徴量が抽出されたミュージッククリップの区間を特定した場合、そのCMのCM曲情報をCM曲情報・特徴量紐付け部19から取得してメタ情報保持部22に出力する。また、一致検索部21は、CMの音声情報の特徴量との一致度が閾値以上になる音声情報の特徴量が抽出された区間を含むミュージッククリップの情報を音楽区間・特徴量紐付け部20から取得し、メタ情報保持部22に出力する。   When the match search unit 21 identifies the section of the music clip from which the feature value of the voice information whose degree of match with the feature value of the voice information of the CM is equal to or greater than the threshold value, -Obtained from the feature amount linking unit 19 and output to the meta information holding unit 22. In addition, the match search unit 21 stores music clip information including a section from which a feature amount of voice information whose degree of match with the feature amount of the voice information of the CM is equal to or greater than a threshold is the music section / feature amount linking unit 20. And output to the meta information holding unit 22.

メタ情報保持部22は、一致検索部21から供給されたミュージッククリップの情報とCM曲情報を紐付けて管理することによって、ミュージッククリップにメタ情報を設定する。メタ情報保持部22により、図8に示すような情報が管理される。   The meta information holding unit 22 sets the meta information in the music clip by managing the music clip information and the CM music information supplied from the match search unit 21 in association with each other. The meta information holding unit 22 manages information as shown in FIG.

メタ情報提示部23は、外部のテレビジョン受像機の画面上のGUI(Graphical User Interface)を制御したり、本体の液晶パネルの表示を制御したりして、適宜、ミュージッククリップに設定されているメタ情報をユーザに提示する。メタ情報提示部23により、例えば、図10に示すような画面が表示される。   The meta information presentation unit 23 is appropriately set to a music clip by controlling a GUI (Graphical User Interface) on the screen of an external television receiver or controlling the display of the liquid crystal panel of the main body. Present meta information to the user. For example, a screen as shown in FIG. 10 is displayed by the meta information presentation unit 23.

再生部24は、再生するミュージッククリップがユーザにより選択された場合、番組記録部12により記録されている番組のデータからミュージッククリップの区間のデータを読み出し、再生する。再生するミュージッククリップの選択は、図10に示すような画面から行われる。ミュージッククリップのデータが再生されることによって得られた画像と音声はテレビジョン受像機から出力される。   When the music clip to be played is selected by the user, the playing unit 24 reads and plays the data of the section of the music clip from the program data recorded by the program recording unit 12. Selection of a music clip to be played is performed from a screen as shown in FIG. The image and sound obtained by reproducing the music clip data are output from the television receiver.

[録画再生装置の処理]
次に、以上のような構成を有する録画再生装置1の処理について説明する。
[Recording and playback device processing]
Next, processing of the recording / playback apparatus 1 having the above configuration will be described.

はじめに、図12のフローチャートを参照して、番組を録画する録画再生装置1の処理について説明する。   First, the processing of the recording / playback apparatus 1 for recording a program will be described with reference to the flowchart of FIG.

ステップS1において、放送受信部11は、録画対象になっている番組を受信する。   In step S1, the broadcast receiving unit 11 receives a program that is to be recorded.

ステップS2において、番組記録部12は、放送受信部11により受信された番組を記録(録画)する。   In step S <b> 2, the program recording unit 12 records (records) the program received by the broadcast receiving unit 11.

ステップS3において、特徴量抽出部13は、録画済みの番組の画像情報、音声情報を解析し、CM検出に用いられる特徴量、ミュージッククリップの検出に用いられる特徴量、一致検索に用いられる特徴量を抽出する。   In step S3, the feature amount extraction unit 13 analyzes the image information and audio information of the recorded program, and uses the feature amount used for CM detection, the feature amount used for music clip detection, and the feature amount used for matching search. To extract.

以上の処理が繰り返し行われることによって、録画再生装置1には、CM曲情報を取得するために必要なCMを含む番組や、ミュージッククリップとして管理されてメタ情報を設定する対象になる、曲の再生が行われる区間を含む番組が記録される。   By repeatedly performing the above processing, the recording / playback apparatus 1 manages a program including a CM necessary for acquiring CM song information, a song that is managed as a music clip, and is a target for setting meta information. A program including a section in which playback is performed is recorded.

次に、図13のフローチャートを参照して、CM曲情報を取得する録画再生装置1の処理について説明する。   Next, processing of the recording / playback apparatus 1 for acquiring CM music information will be described with reference to the flowchart of FIG.

図13に示す処理は、図12の処理が行われることによって録画済みの番組の特徴量が抽出された後に行われる。   The process shown in FIG. 13 is performed after the feature quantity of the recorded program is extracted by performing the process of FIG.

ステップS11において、CM区間判定部15は、録画済みの番組の特徴量に基づいてCM検出を行うことによってCMの録画が行われたか否かを判定し、CMの録画が行われたと判定するまで待機する。   In step S11, the CM section determination unit 15 determines whether or not the CM has been recorded by performing CM detection based on the feature amount of the recorded program, and until it is determined that the CM has been recorded. stand by.

CMの録画が行われたとステップS11において判定された場合、ステップS12において、ネットワーク送受信部17は、CMの放送開始時刻に基づいてCM曲情報を取得する。CMの録画が行われた場合、CMの放送開始時刻の情報がCM区間判定部15からCM曲情報・特徴量紐付け部19に出力され、ネットワーク送受信部17に供給される。   If it is determined in step S11 that the CM has been recorded, in step S12, the network transmission / reception unit 17 acquires CM song information based on the CM broadcast start time. When the CM is recorded, information on the CM broadcast start time is output from the CM section determination unit 15 to the CM song information / feature amount linking unit 19 and supplied to the network transmission / reception unit 17.

ステップS13において、ネットワーク送受信部17は、CM曲情報を取得することができたか否かを判定する。   In step S13, the network transmission / reception unit 17 determines whether or not the CM music information has been acquired.

CM曲情報を取得することができたとステップS13において判定された場合、ステップS14において、CM曲情報・特徴量紐付け部19は、CM曲情報と、CMの音声情報の特徴量を紐付けて記憶する。ネットワーク送受信部17により取得されたCM曲情報はCM曲情報保持部18に出力され、保持されており、そのCM曲情報と、特徴量保持部14により保持されているCMの音声情報の特徴量が紐付けられる。   When it is determined in step S13 that the CM song information has been acquired, in step S14, the CM song information / feature amount linking unit 19 links the CM song information and the feature amount of the CM audio information. Remember. The CM song information acquired by the network transmission / reception unit 17 is output to and held by the CM song information holding unit 18, and the CM song information and the feature amount of the voice information of the CM held by the feature amount holding unit 14 are stored. Is tied.

ステップS14においてCM曲情報とCMの音声情報の特徴量が紐付けて記憶された後、または、ステップS13においてCM曲情報を取得することができなかったと判定された場合、ステップS11以降の処理が繰り返される。   After the feature values of the CM song information and the CM audio information are stored in association with each other in step S14, or when it is determined in step S13 that the CM song information could not be acquired, the processing after step S11 is performed. Repeated.

次に、図14のフローチャートを参照して、ミュージッククリップにメタ情報を設定する録画再生装置1の処理について説明する。   Next, processing of the recording / playback apparatus 1 for setting meta information to a music clip will be described with reference to the flowchart of FIG.

ステップS21において、音楽区間判定部16は、ミュージッククリップを検出したか否かを録画済みの番組の特徴量に基づいて判定し、検出したと判定するまで待機する。   In step S21, the music section determination unit 16 determines whether or not a music clip has been detected based on the feature amount of a recorded program, and waits until it is determined that it has been detected.

ミュージッククリップを検出したとステップS21において判定された場合、ステップS22において、音楽区間・特徴量紐付け部20は、検出されたミュージッククリップと、そのミュージッククリップの音声情報の特徴量を紐付けて記憶する。   When it is determined in step S21 that the music clip has been detected, in step S22, the music section / feature value linking unit 20 stores the detected music clip and the feature value of the audio information of the music clip in a linked manner. To do.

ステップS23において、一致検索部21は、CM曲情報・特徴量紐付け部19と音楽区間・特徴量紐付け部20により管理されている情報に基づいて、ミュージッククリップの音声情報の特徴量と、CMの音声情報の特徴量の一致検索を行う。   In step S23, the matching search unit 21 determines the feature amount of the audio information of the music clip based on the information managed by the CM song information / feature amount linking unit 19 and the music section / feature amount linking unit 20. Performs a match search for the feature amount of CM audio information.

ステップS24において、一致検索部21は、CMの音声情報の特徴量との一致度が閾値以上ある(CMの音声情報の特徴量と一致する)音声情報の特徴量が抽出されたミュージッククリップの区間があるか否かを判定する。   In step S24, the match search unit 21 extracts the segment of the music clip from which the feature amount of the voice information whose match degree with the feature amount of the voice information of the CM is equal to or greater than the threshold (matches the feature amount of the voice information of the CM). It is determined whether or not there is.

CMの音声情報の特徴量と一致する音声情報の特徴量が抽出された区間があるとステップS24において判定された場合、ステップS25において、メタ情報保持部22はCM曲情報に含まれる情報をメタ情報としてミュージッククリップに設定し、記憶する。CMの音声情報の特徴量と一致する区間を含むミュージッククリップに対して、そのCMのCM曲情報に含まれる曲名などの情報がメタ情報として設定されることになる。   If it is determined in step S24 that there is a section in which the feature value of the voice information that matches the feature value of the voice information of the CM is extracted, in step S25, the meta information holding unit 22 converts the information included in the CM song information into the meta information. Set to music clip as information and store. For a music clip including a section that matches the feature amount of the CM audio information, information such as a song name included in the CM song information of the CM is set as meta information.

ステップS25においてメタ情報が設定された後、または、CMの音声情報の特徴量と一致するミュージッククリップの区間がないとステップS24において判定された場合、ステップS21以降の処理が繰り返される。   After the meta information is set in step S25, or when it is determined in step S24 that there is no music clip section that matches the feature amount of the CM audio information, the processes in and after step S21 are repeated.

次に、図15のフローチャートを参照して、ミュージッククリップを再生する録画再生装置1の処理について説明する。   Next, processing of the recording / playback apparatus 1 for playing back music clips will be described with reference to the flowchart of FIG.

ステップS31において、メタ情報提示部23は、メタ情報を表示することが指示されたか否かを判定し、表示することが指示されたと判定するまで待機する。例えば、ミュージッククリップの一覧を表示することがユーザにより指示された場合、メタ情報を表示することが指示されたとして判定される。   In step S31, the meta information presenting unit 23 determines whether or not an instruction to display the meta information is given, and waits until it is determined that the display is instructed. For example, when the user gives an instruction to display a list of music clips, it is determined that an instruction to display meta information has been given.

メタ情報を表示することが指示されたとステップS31において判定した場合、ステップS32において、メタ情報提示部23は、メタ情報保持部22により保持されている、それぞれのミュージッククリップのメタ情報を表示する。これにより図10に示すような画面が表示される。   If it is determined in step S31 that the display of the meta information is instructed, in step S32, the meta information presenting unit 23 displays the meta information of each music clip held by the meta information holding unit 22. As a result, a screen as shown in FIG. 10 is displayed.

ステップS33において、再生部24は、ミュージッククリップの再生が指示されたか否かを判定する。   In step S33, the playback unit 24 determines whether or not playback of a music clip has been instructed.

ミュージッククリップの再生が指示されたとステップS33において判定した場合、ステップS34において、再生部24は、番組記録部12により記録されている番組のデータからミュージッククリップの区間のデータを読み出し、再生する。   When it is determined in step S33 that reproduction of a music clip has been instructed, in step S34, the reproduction unit 24 reads out and reproduces data in the section of the music clip from the program data recorded by the program recording unit 12.

ステップS34においてミュージッククリップの再生が行われた後、または、ステップS33においてミュージッククリップの再生が指示されていないと判定された場合、ステップS31以降の処理が繰り返される。   After the music clip is reproduced in step S34, or when it is determined in step S33 that the reproduction of the music clip is not instructed, the processes after step S31 are repeated.

以上の処理により、ユーザは、それぞれのミュージッククリップで再生される曲の名前などの情報を確認し、ミュージッククリップを選択することができる。   Through the above processing, the user can confirm information such as the name of a song reproduced in each music clip and select a music clip.

図16は、ミュージッククリップの再生区間の例を示す図である。   FIG. 16 is a diagram illustrating an example of a music clip playback section.

ミュージッククリップのメタ情報としてCMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間を示す情報が設定されている場合、先頭からではなく、その区間だけの再生が行われるようにしてもよい。図16の位置p1,p2は、CMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間の開始位置と終了位置である。 When the information indicating the section from which the feature value of the audio information with the degree of coincidence with the feature value of the voice information of CM is set as the meta information of the music clip is set, it is not only from the beginning but only the section Playback may be performed. Positions p 1 and p 2 in FIG. 16 are a start position and an end position of a section in which a feature amount of voice information whose degree of coincidence with the feature amount of CM voice information is equal to or greater than a threshold value.

CMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出されたミュージッククリップの区間は、曲全体のうちのCMで使われている部分と同じ部分の再生が行われる区間である。CMで使われている部分は上述したように曲のサビの部分であることが多いから、これにより、ミュージッククリップ全体のうちのサビの部分が再生されることになる。   The section of the music clip from which the feature value of the voice information whose degree of coincidence with the feature value of the voice information of the CM is equal to or greater than the threshold is reproduced as the same part used in the CM of the entire song. It is a section. Since the portion used in the CM is often the chorus portion of the song as described above, the chorus portion of the entire music clip is thereby reproduced.

同じような方法で複数のミュージッククリップの再生を行うことによって、ユーザは、それぞれのミュージッククリップのサビの部分を続けて視聴することが可能になる。   By playing a plurality of music clips in a similar manner, the user can continuously watch the rust portion of each music clip.

図16に示すようなCMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出されたミュージッククリップの区間を時間的に前後に広げた区間を対象として再生が行われるようにしてもよい。   Playback is performed for a section in which a section of a music clip from which a feature amount of voice information having a degree of coincidence with a feature quantity of CM voice information as shown in FIG. You may do it.

例えば、画像情報の特徴量としてシーンチェンジの位置が特徴量抽出部13により検出されている場合、図16の位置p1の直前にあるシーンチェンジの位置から、位置p2の直後にあるシーンチェンジの位置までが再生される。これにより、サビの部分を含みつつ、映像の再生が自然な形で行われる区間を再生することが可能になる。 For example, when the position of the scene change is detected by the feature amount extraction unit 13 as the feature amount of the image information, the scene change immediately after the position p 2 from the position of the scene change immediately before the position p 1 in FIG. Up to the position of is played. Accordingly, it is possible to reproduce a section in which the reproduction of the video is performed in a natural manner while including the rust portion.

[変形例]
以上においては、録画済みの番組から検出されたCMのCM曲情報が取得されるものとしたが、録画されていないものも含めて、CM曲情報配信サーバ3からCM曲情報がダウンロードされ、録画再生装置1内のハードディスクに記録されるようにしてもよい。この場合、録画済みのCMの音声情報の特徴量と紐付けるCM曲情報は、録画再生装置1内のハードディスクから取得されることになる。
[Modification]
In the above, it is assumed that CM music information of CMs detected from recorded programs is acquired, but CM music information including those not recorded is downloaded from the CM music information distribution server 3 and recorded. You may make it record on the hard disk in the reproducing | regenerating apparatus 1. FIG. In this case, the CM song information associated with the feature amount of the audio information of the recorded CM is acquired from the hard disk in the recording / playback apparatus 1.

また、以上においては、曲の再生が行われる区間であるミュージッククリップにメタ情報を設定する場合について説明したが、録画済みの番組のうちの、ある出演者が出演している区間にメタ情報を設定する場合にも同様の処理を適用することができる。   In the above description, the case where the meta information is set to the music clip that is the section where the music is played back has been described. However, the meta information is added to the section where a certain performer appears in the recorded program. Similar processing can be applied to the setting.

図17は、録画済みの番組のうちの、ある出演者が出演している区間にメタ情報を設定する場合の通信システムの構成例を示すブロック図である。   FIG. 17 is a block diagram illustrating a configuration example of a communication system in the case where meta information is set in a section in which a certain performer appears in a recorded program.

図17のCM出演者情報配信サーバ31は、CMに出演している出演者の名前などの情報であるCM出演者情報を記憶する。CM出演者情報配信サーバ31は、ネットワーク2を介して送信されてきた時刻の情報に基づいて、その時刻を含む時間帯にテレビジョン放送などによって提供されていたCMのCM出演者情報を、時刻の情報を送信してきた機器に送信する。   The CM performer information distribution server 31 in FIG. 17 stores CM performer information, which is information such as the names of performers who appear in the CM. Based on the time information transmitted via the network 2, the CM performer information distribution server 31 obtains the CM performer information of the CM provided by the television broadcast in the time zone including the time, To the device that sent the information.

図18を参照して、録画再生装置1において行われる、録画済みの番組のうちの、ある出演者が出演している区間にメタ情報を設定する一連の流れについて説明する。   With reference to FIG. 18, a series of flows performed in the recording / playback apparatus 1 to set meta information in a section in which a certain performer appears in a recorded program will be described.

所定の番組である番組1の録画が行われ、番組1からCMが検出された場合、図18において「1:」として示すように、CMの放送開始時刻や放送局の情報に基づいて、そのCMの出演者の名前がCM出演者情報配信サーバ31から取得される。   When the program 1, which is a predetermined program, is recorded and a CM is detected from the program 1, as shown as “1:” in FIG. 18, the program 1 is recorded based on the broadcast start time of the CM and broadcast station information. The name of the CM performer is acquired from the CM performer information distribution server 31.

また、CM出演者情報配信サーバ31から取得された出演者名が、「2:」として示すようにCMに出演している出演者の顔の特徴量と紐付けて記憶される。すなわち、この例においては、音声情報ではなく、画像情報の解析が行われることによって、出演者の顔の特徴量が抽出され、CM出演者情報と紐付けて記憶される。顔の特徴量としては、例えば、顔全体に占める目部分、鼻部分、口部分などの所定の部分の面積、顔全体におけるそれらの位置関係、顔の色などの情報が抽出される。   In addition, the name of the performer acquired from the CM performer information distribution server 31 is stored in association with the feature amount of the face of the performer appearing in the CM, as shown as “2:”. That is, in this example, not the voice information but the image information is analyzed, whereby the feature amount of the performer's face is extracted and stored in association with the CM performer information. As the face feature amount, for example, information such as the area of a predetermined portion such as an eye portion, a nose portion, and a mouth portion occupying the entire face, their positional relationship in the entire face, and the face color are extracted.

「3:」として示すように、画像情報の解析が行われることによって同じ出演者が映っている区間毎に録画済みの番組2が区切られるとともに、各区間に映っている出演者の顔の特徴量が抽出された場合、「4:」として示すように一致検索が行われる。   As shown as “3:”, by analyzing the image information, the recorded program 2 is divided for each section in which the same performer is shown, and the characteristics of the face of the performer in each section are shown. When the amount is extracted, a matching search is performed as shown as “4:”.

CMの出演者の顔の特徴量との一致度が閾値以上となる出演者の顔の特徴量が抽出された区間が特定された場合、「5:」として示すように、特定された番組2中の区間に対して、そのCMの出演者の名前がメタ情報として設定される。   When the section in which the facial feature amount of the performer whose degree of coincidence with the facial feature amount of the CM performer is equal to or greater than the threshold is identified, the identified program 2 is indicated as “5:”. The name of the performer of the CM is set as meta information for the middle section.

以上のようにしてメタ情報として設定された出演者名は、例えば、同じ出演者が映っている区間の一覧を表示するときに用いられる。   The performer name set as meta information as described above is used, for example, when displaying a list of sections in which the same performer is shown.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed from a program recording medium into a computer incorporated in dedicated hardware or a general-purpose personal computer.

図19は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 19 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53は、バス54により相互に接続されている。   A CPU (Central Processing Unit) 51, a ROM (Read Only Memory) 52, and a RAM (Random Access Memory) 53 are connected to each other by a bus 54.

バス54には、さらに、入出力インタフェース55が接続されている。入出力インタフェース55には、キーボード、マウスなどよりなる入力部56、ディスプレイ、スピーカなどよりなる出力部57が接続される。また、バス54には、ハードディスクや不揮発性のメモリなどよりなる記憶部58、ネットワークインタフェースなどよりなる通信部59、リムーバブルメディア61を駆動するドライブ60が接続される。   An input / output interface 55 is further connected to the bus 54. Connected to the input / output interface 55 are an input unit 56 such as a keyboard and a mouse, and an output unit 57 such as a display and a speaker. The bus 54 is connected to a storage unit 58 made up of a hard disk, a non-volatile memory, etc., a communication unit 59 made up of a network interface, etc., and a drive 60 that drives the removable media 61.

以上のように構成されるコンピュータでは、CPU51が、例えば、記憶部58に記憶されているプログラムを入出力インタフェース55及びバス54を介してRAM53にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, for example, the CPU 51 loads the program stored in the storage unit 58 to the RAM 53 via the input / output interface 55 and the bus 54 and executes it, thereby executing the above-described series of processing. Is done.

CPU51が実行するプログラムは、例えばリムーバブルメディア61に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部58にインストールされる。   The program executed by the CPU 51 is recorded in, for example, the removable medium 61 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 58.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 録画再生装置, 2 ネットワーク, 3 CM曲情報配信サーバ, 11 放送受信部, 12 番組記録部, 13 特徴量抽出部, 14 特徴量保持部, 15 CM区間判定部, 16 音楽区間判定部, 17 ネットワーク送受信部, 18 CM曲情報保持部, 19 CM曲情報・特徴量紐付け部, 20 音楽区間・特徴量紐付け部, 21 一致検索部, 22 メタ情報保持部, 23 メタ情報提示部, 24 再生部   DESCRIPTION OF SYMBOLS 1 Recording / reproducing apparatus, 2 Network, 3 CM music information delivery server, 11 Broadcast receiving part, 12 Program recording part, 13 Feature-value extraction part, 14 Feature-value holding part, 15 CM section determination part, 16 Music section determination part, 17 Network transmission / reception unit, 18 CM song information holding unit, 19 CM song information / feature amount linking unit, 20 Music section / feature amount linking unit, 21 Match search unit, 22 Meta information holding unit, 23 Meta information presentation unit, 24 Playback section

Claims (6)

CMで使用されている曲の名前を含む情報であるCM曲情報を取得する取得手段と、
録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とを抽出する抽出手段と、
前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量が抽出された区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報を設定する設定手段と
を備える情報処理装置。
An acquisition means for acquiring CM song information, which is information including the name of the song used in the CM,
Extraction means for extracting the feature amount of the audio information of the recorded CM and the feature amount of the audio information included in the recorded content in the section where the music is played back,
When the section in which the song is played includes a section in which the feature amount of the voice information whose degree of coincidence with the feature amount of the recorded CM voice information is equal to or greater than a threshold value, the song is played back. An information processing apparatus comprising: setting means for setting information included in the CM music information as meta information of a section to be performed.
前記取得手段は、CMの提供時刻と前記CM曲情報を紐付けて管理するサーバとネットワークを介して通信を行い、前記録画済みのCMの提供時刻と紐付けて管理されている前記CM曲情報を取得する
請求項1に記載の情報処理装置。
The acquisition means communicates via a network with a server that associates and manages a CM provision time and the CM song information, and the CM song information that is managed in association with the recorded CM provision time The information processing apparatus according to claim 1.
前記曲の再生が行われる区間を提示する場合、前記設定手段により設定された前記メタ情報に含まれる曲の名前を表示させる表示制御手段をさらに備える
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, further comprising: a display control unit that displays a name of a song included in the meta information set by the setting unit when presenting a section in which the song is played.
前記曲の再生が行われる区間全体のうち、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上ある音声情報の特徴量が抽出された区間を再生する再生手段をさらに備える
請求項1に記載の情報処理装置。
The apparatus further includes a reproducing unit that reproduces a section in which a feature amount of audio information having a degree of coincidence with a feature amount of voice information of the recorded CM is extracted from a whole section in which the music is reproduced. Item 4. The information processing apparatus according to Item 1.
CMで使用されている曲の名前を含む情報であるCM曲情報を取得し、
録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とを抽出し、
前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量を抽出した区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報を設定する
ステップを含む情報処理方法。
Get CM song information that is the information including the name of the song used in the CM,
Extract the feature amount of the audio information of the recorded CM and the feature amount of the audio information of the section where the song is played, which is included in the recorded content,
If the section in which the song is played includes a section in which the feature amount of the voice information whose degree of coincidence with the feature amount of the voice information of the recorded CM is equal to or greater than a threshold value, the song is played back. An information processing method including a step of setting information included in the CM music information as meta information of a section to be played.
CMで使用されている曲の名前を含む情報であるCM曲情報を取得し、
録画済みのCMの音声情報の特徴量と、録画済みのコンテンツに含まれる、曲の再生が行われる区間の音声情報の特徴量とを抽出し、
前記曲の再生が行われる区間に、前記録画済みのCMの音声情報の特徴量との一致度が閾値以上となる音声情報の特徴量を抽出した区間が含まれる場合、前記曲の再生が行われる区間のメタ情報として、前記CM曲情報に含まれる情報を設定する
ステップを含む処理をコンピュータに実行させるプログラム。
Get CM song information that is the information including the name of the song used in the CM,
Extract the feature amount of the audio information of the recorded CM and the feature amount of the audio information included in the recorded content in the section where the song is played,
If the section in which the song is played includes a section in which the feature value of the voice information whose degree of coincidence with the feature value of the recorded CM voice information is equal to or greater than a threshold value, the song is played back. A program for causing a computer to execute a process including a step of setting information included in the CM music information as meta information of a section to be played.
JP2009004456A 2009-01-13 2009-01-13 Apparatus and method for processing information and program Pending JP2010166123A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009004456A JP2010166123A (en) 2009-01-13 2009-01-13 Apparatus and method for processing information and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009004456A JP2010166123A (en) 2009-01-13 2009-01-13 Apparatus and method for processing information and program

Publications (1)

Publication Number Publication Date
JP2010166123A true JP2010166123A (en) 2010-07-29

Family

ID=42581979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009004456A Pending JP2010166123A (en) 2009-01-13 2009-01-13 Apparatus and method for processing information and program

Country Status (1)

Country Link
JP (1) JP2010166123A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190027A (en) * 2005-01-05 2006-07-20 Sharp Corp Information processing device
JP2007194909A (en) * 2006-01-19 2007-08-02 Casio Hitachi Mobile Communications Co Ltd Recording apparatus, recording method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006190027A (en) * 2005-01-05 2006-07-20 Sharp Corp Information processing device
JP2007194909A (en) * 2006-01-19 2007-08-02 Casio Hitachi Mobile Communications Co Ltd Recording apparatus, recording method, and program

Similar Documents

Publication Publication Date Title
KR101111537B1 (en) Apparatus and method for supporting viewing and listening
JP4482829B2 (en) Preference extraction device, preference extraction method, and preference extraction program
KR101426241B1 (en) Apparatus and method for processing recording contents for personal liking
JP3821362B2 (en) Index information generating apparatus, recording / reproducing apparatus, and index information generating method
JP2006309920A (en) Information processing apparatus and method
CN102611863B (en) Motion picture recording/reproducing apparatus
JP2007329833A (en) Information processing system, recording / reproducing apparatus, reproducing terminal, information processing method, and program
JP2007174245A (en) Recording / reproducing system and recording / reproducing method
JP5198643B1 (en) Video analysis information upload apparatus, video viewing system and method
JP2006054517A (en) Information presenting apparatus, method, and program
JP2010166123A (en) Apparatus and method for processing information and program
CN101169958B (en) Method and device for storing and reproducing interactive digital broadcasting signals
JP4364850B2 (en) Audio playback device
JP4284594B2 (en) Recording / reproducing apparatus and method
JP2005174405A (en) Information recording / reproducing apparatus and information recording method
JP4312167B2 (en) Content playback device
KR100583180B1 (en) Broadcast receiving apparatus having advertising storage area and method of operation
JP2006148839A (en) BROADCAST DEVICE, RECEPTION DEVICE, AND DIGITAL BROADCAST SYSTEM HAVING THEM
KR100850918B1 (en) How to Skip Advertising in Digital Broadcasting Equipment
JP5286136B2 (en) Digital broadcast receiver
JP2012053722A (en) Information processing apparatus, information processing method, and program
KR101784344B1 (en) Contents player, contents management server and contents playing system
JP2006139829A (en) Summary reproducing device, summary reproducing method, summary reproducing program, and information recording medium with the program stored thereto
JP2022077745A (en) Receiving device and generation method
JP3797941B2 (en) Information collecting apparatus and information collecting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130604