[go: up one dir, main page]

JP2013078121A - Image information processing apparatus and image information processing method - Google Patents

Image information processing apparatus and image information processing method Download PDF

Info

Publication number
JP2013078121A
JP2013078121A JP2012208278A JP2012208278A JP2013078121A JP 2013078121 A JP2013078121 A JP 2013078121A JP 2012208278 A JP2012208278 A JP 2012208278A JP 2012208278 A JP2012208278 A JP 2012208278A JP 2013078121 A JP2013078121 A JP 2013078121A
Authority
JP
Japan
Prior art keywords
program
information
viewer
image
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012208278A
Other languages
Japanese (ja)
Other versions
JP5552651B2 (en
Inventor
Takeshi Tateno
剛 舘野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012208278A priority Critical patent/JP5552651B2/en
Publication of JP2013078121A publication Critical patent/JP2013078121A/en
Application granted granted Critical
Publication of JP5552651B2 publication Critical patent/JP5552651B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Abstract

【課題】本実施形態では、視聴者の顔画像データと番組の番組データに含まれる出演者の顔画像データと番組情報とを有効活用できる画像情報処理装置及び画像情報処理方法を提供する。
【解決手段】実施形態によれば、第1の画像処理部が、撮像信号から第1の顔画像データを検出する。第2の画像処理部が、番組データに含まれる第2の顔画像データを検出する。制御部が、前記第1の画像処理部により検出された前記第1の顔画像データの変化に応じて、前記第2の画像処理部により検出された前記第2の顔画像データと前記第1の画像処理部により検出された前記第1の顔画像データ及び前記番組の番組情報とを関連付けた画像情報を作成し、登録部に登録する。
【選択図】図2
The present invention provides an image information processing apparatus and an image information processing method capable of effectively utilizing the face image data of a viewer and the face image data of a performer included in the program data of the program and the program information.
According to an embodiment, a first image processing unit detects first face image data from an imaging signal. The second image processing unit detects second face image data included in the program data. The control unit and the first face image data detected by the second image processing unit in response to a change in the first face image data detected by the first image processing unit and the first face image data Image information associated with the first face image data detected by the image processing unit and the program information of the program is created and registered in the registration unit.
[Selection] Figure 2

Description

本発明の実施形態は画像情報処理装置及び画像情報処理方法に関する。   Embodiments described herein relate generally to an image information processing apparatus and an image information processing method.

視聴者が興味を持つと考えられる画像コンテンツを特定する装置がある。この装置は、画像コンテンツを視聴したときの視聴者の表情を撮像し、視聴者の感情を推測する、また画像コンテンツの出演者の表情から出演者の感情を推測する。そして視聴者と出演者の感情が一致するシーンを、視聴者が共感したシーンであると推測し、このシーンの画像を要約画像として所定の記憶領域に記憶する。   There are devices that identify image content that a viewer may be interested in. This device captures the viewer's facial expression when viewing the image content, guesses the viewer's emotion, and also estimates the performer's emotion from the performer's facial expression of the image content. Then, a scene in which the emotions of the viewer and the performer match is presumed to be a scene sympathized by the viewer, and an image of this scene is stored as a summary image in a predetermined storage area.

特開2007−97047号公報JP 2007-97047 A 特開2010−26871号公報JP 2010-26871 A

番組の特定のシーンと視聴者の表情を関連付ける技術が開発されているが、この技術はさらなる展開を要望される。   Although a technique for associating a specific scene of a program with the facial expression of a viewer has been developed, this technique is required to be further developed.

本実施形態では、視聴者の顔画像データと番組の番組データに含まれる出演者の顔画像データと番組情報とを有効活用できる画像情報処理装置及び画像情報処理方法を提供することを目的とする。   An object of the present embodiment is to provide an image information processing apparatus and an image information processing method capable of effectively utilizing the face image data of the viewer and the face image data of the performer included in the program data of the program and the program information. .

実施形態によれば、第1の画像処理部が、撮像信号から第1の顔画像データを検出する。第2の画像処理部が、番組データに含まれる第2の顔画像データを検出する。制御部が、前記第1の画像処理部により検出された前記第1の顔画像データの変化に応じて、前記第2の画像処理部により検出された前記第2の顔画像データと前記第1の画像処理部により検出された前記第1の顔画像データ及び前記番組の番組情報とを関連付けた画像情報を作成し、登録部に登録する。   According to the embodiment, the first image processing unit detects first face image data from the imaging signal. The second image processing unit detects second face image data included in the program data. The control unit and the first face image data detected by the second image processing unit in response to a change in the first face image data detected by the first image processing unit and the first face image data Image information associated with the first face image data detected by the image processing unit and the program information of the program is created and registered in the registration unit.

本実施形態が適用されたテレビジョン受信装置の概略構成を示す図である。It is a figure which shows schematic structure of the television receiver with which this embodiment was applied. 図1の客観的画像処理201のブロック構成を示す図である。It is a figure which shows the block structure of the objective image process 201 of FIG. 図2に示した視聴者画像処理部304と視聴番組画像処理部305の動作を簡単に示すフローチャートである。3 is a flowchart briefly showing the operations of a viewer image processing unit 304 and a viewing program image processing unit 305 shown in FIG. 2. 本実施形態における視聴者画像処理部304の動作を簡単に示すフローチャートである。It is a flowchart which shows simply the operation | movement of the viewer image process part 304 in this embodiment. 本実施形態における視聴番組画像処理部305の動作を簡単に示すフローチャートである。It is a flowchart which shows simply the operation | movement of the viewing-and-listening program image process part 305 in this embodiment. 視聴データ登録部306内のデータベース(視聴者情報)の構成例を示す図である。It is a figure which shows the structural example of the database (viewer information) in the viewing data registration part. 本実施形態におけるお勧め番組情報構築部202のデータ整理部202aにより実行される登録処理ルーチンの例を示す図である。It is a figure which shows the example of the registration process routine performed by the data organization part 202a of the recommended program information construction part 202 in this embodiment. 本実施形態における視聴データ登録部306内において、各視聴者に対するお勧め番組を充実させるための機能を説明する図である。It is a figure explaining the function for enriching the recommendation program with respect to each viewer in the viewing-and-listening data registration part 306 in this embodiment. 同じく視聴データ登録部306内において、各視聴者に対するお勧め番組を充実させるための機能を説明する図である。Similarly, in the viewing data registration unit 306, it is a diagram for explaining a function for enriching a recommended program for each viewer. 本実施形態におけるテレビジョン受信装置が、視聴者にお勧め番組情報を提供している例を示す図である。It is a figure which shows the example in which the television receiver in this embodiment provides recommended program information to a viewer. 本実施形態に含まれる表情解析部343が表情解析を行う時期を設定する場合種々の選択肢を説明する図である。It is a figure explaining various choices, when the timing when the facial expression analysis part 343 included in this embodiment performs facial expression analysis is set. 図1の客観的画像処理201の他の実施形態によるブロック構成を示す図である。It is a figure which shows the block structure by other embodiment of the objective image process 201 of FIG. 本実施形態における視聴者の顔画像信号と、対応する番組の出演者の顔画像信号と、当該番組の画像信号とを対応付けたダイジェスト版ファイルのデータ構成例を示す図である。It is a figure which shows the example of a data structure of the digest version file which matched the face image signal of the viewer in this embodiment, the face image signal of the performer of a corresponding program, and the image signal of the said program. 本実施形態における視聴者反応画像ファイルが再生されたときの表示器に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed on a display device when the viewer reaction image file in this embodiment is reproduced | regenerated. 本実施形態における視聴者反応画像ファイルが再生されたときの表示器に表示される画像の他の例を示す図である。It is a figure which shows the other example of the image displayed on a display device when the viewer reaction image file in this embodiment is reproduced | regenerated.

以下、実施の形態について図面を参照して説明する。図1は、本実施形態が適用された例えばテレビジョン受信装置の概略構成を示している。テレビジョン受信装置に代わって、データ記録再生装置であってもよい。11は、チューナ装置であり、複数のチューナが内蔵されており、同時に複数のチャンネルを受信し、複数の放送番組を復調することができる。チューナ装置11には、入力端子AN1,・・・ANnを介してアンテナで受けられた高周波信号が入力される。入力端子BN1は、外部入力端子であり、ケーブル或いはネットワーク或いは他の機器からの信号が入力する。   Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows a schematic configuration of, for example, a television receiver to which the present embodiment is applied. A data recording / reproducing apparatus may be used instead of the television receiving apparatus. A tuner device 11 includes a plurality of tuners, and can simultaneously receive a plurality of channels and demodulate a plurality of broadcast programs. The tuner device 11 receives a high frequency signal received by an antenna via input terminals AN1,. The input terminal BN1 is an external input terminal, and receives a signal from a cable, a network, or another device.

セレクタ12は、チューナ装置11からの復調信号(ストリーム信号)、或いは入力端子BN1からの信号を制御部20からの制御の元で選択して出力する。セレクタ12で選択された制御ストリームは、制御部20に入力される。セレクタ12で選択された番組信号のストリームは、信号処理部13に入力される。   The selector 12 selects and outputs a demodulated signal (stream signal) from the tuner device 11 or a signal from the input terminal BN1 under the control of the control unit 20. The control stream selected by the selector 12 is input to the control unit 20. The program signal stream selected by the selector 12 is input to the signal processing unit 13.

信号処理部13は、入力した番組信号のストリームの内、例えば視聴される番組のストリームを復号処理し、復号された画像信号を出力部14に出力する。出力部14では制御部20からのグラフィック画像信号(番組表画像信号、メニュー画像信号など)が、番組画像信号に多重される。また出力部14では、画像信号のサイズ、スケール変換、解像度処理などが行われ、表示器15に出力される。   The signal processing unit 13 decodes, for example, a program stream to be viewed from the input program signal stream, and outputs the decoded image signal to the output unit 14. In the output unit 14, the graphic image signal (program guide image signal, menu image signal, etc.) from the control unit 20 is multiplexed on the program image signal. The output unit 14 performs image signal size, scale conversion, resolution processing, and the like, and outputs the result to the display 15.

表示器15には、カメラ17が取り付けられている。カメラ17は、表示器15のキャビネット内に内蔵されていてもよい。カメラ17は、表示器17の画像を視聴している視聴者を撮像するものである。カメラ17の撮像信号は、インターフェース18を介して制御部20に取り込むことができる。またカメラ17の撮像信号は、制御部20から出力部14を通り、表示器15でモニタすることができる。このとき、ユーザは、カメラ17の撮像状態を調整し、撮像方向、撮像エリアなどを設定することができる。この設定は、リモートコントローラで行うことも可能であるし、カメラ17の操作部を直接操作することで可能である。なおカメラ17は、その配置位置を種々変更可能に取り付けられていてもよい。   A camera 17 is attached to the display 15. The camera 17 may be built in the cabinet of the display unit 15. The camera 17 captures a viewer who is viewing the image on the display device 17. An imaging signal of the camera 17 can be taken into the control unit 20 via the interface 18. The imaging signal of the camera 17 can be monitored by the display unit 15 from the control unit 20 through the output unit 14. At this time, the user can adjust the imaging state of the camera 17 and set the imaging direction, the imaging area, and the like. This setting can be performed by a remote controller, or by directly operating the operation unit of the camera 17. The camera 17 may be attached so that its arrangement position can be variously changed.

制御部20は、周辺に接続されているブロックを統括的に制御している。またリモートコントローラ22からの操作信号が、受信部21を介して制御部20に入力される。これによりユーザの操作が装置全体に反映される。   The control unit 20 comprehensively controls blocks connected to the periphery. In addition, an operation signal from the remote controller 22 is input to the control unit 20 via the receiving unit 21. Thereby, the user's operation is reflected in the entire apparatus.

制御部20にはリードオンリーメモリ(ROM)26が接続されている。ROM206には、制御部20が利用する各種のプログラムが格納されている。制御部20にはランダムアクセスメモリ23が接続されている。このメモリ23は、一時的なデータの保存部、演算処理のためのプログラムの展開部として利用される。さらに制御部20にはハードディスクドライブ(HDD)24が接続されている。HDD24は、番組信号を録画及び再生するための媒体として利用される。また制御部20にはBD/DVDドライブ25が接続されている。BD/DVDドライブ25もまた、番組信号を録画及び又は再生するための媒体として利用される。さらにまた、制御部20には、USBケーブルを介して、キーボード27を接続することができる。ユーザは、ある動作モードにおいては、表示器15を見ながらキーボード27を操作して、データ(文字、図形など)を入力することができる。   A read only memory (ROM) 26 is connected to the control unit 20. Various programs used by the control unit 20 are stored in the ROM 206. A random access memory 23 is connected to the control unit 20. The memory 23 is used as a temporary data storage unit and a program development unit for arithmetic processing. Further, a hard disk drive (HDD) 24 is connected to the control unit 20. The HDD 24 is used as a medium for recording and reproducing program signals. A BD / DVD drive 25 is connected to the control unit 20. The BD / DVD drive 25 is also used as a medium for recording and / or reproducing a program signal. Furthermore, a keyboard 27 can be connected to the control unit 20 via a USB cable. In a certain operation mode, the user can input data (characters, graphics, etc.) by operating the keyboard 27 while viewing the display unit 15.

制御部20には、客観的画像処理部201、お勧め番組情報構築部202、表示データ制御部203が内蔵されている。   The control unit 20 includes an objective image processing unit 201, a recommended program information construction unit 202, and a display data control unit 203.

図2には、客観的画像処理部201のブロック構成を示している。302は、この客観的画像処理部201の動作を指令するための実行指示部である。この実行指示部302に実行操作信号が入力されると、同期制御部303が起動する。同期制御部303は、視聴者画像処理部304に含まれる視聴者画像取得部341を起動する。視聴者画像取得部341は、カメラ17を起動し、視聴者の撮像画像を取り込む。   FIG. 2 shows a block configuration of the objective image processing unit 201. Reference numeral 302 denotes an execution instruction unit for instructing the operation of the objective image processing unit 201. When an execution operation signal is input to the execution instruction unit 302, the synchronization control unit 303 is activated. The synchronization control unit 303 activates the viewer image acquisition unit 341 included in the viewer image processing unit 304. The viewer image acquisition unit 341 activates the camera 17 and captures a captured image of the viewer.

顔検出部342は、視聴者を撮像した画像信号の中から顔画像信号を検出する。検出した顔画像信号は、表情解析部343に入力される。表情解析部343は、顔画像に複数点(例えば眼、口、頬)を設定し、フレーム時間の経過とともに複数点の移動(動き)を監視する。この複数点の動き(極端な変化)により、顔の変化(例えば笑顔、泣き顔、怒り顔)を検出することができる。つまり視聴者の表情変化が設定レベル以上になったときを検出している。   The face detection unit 342 detects a face image signal from image signals obtained by capturing the viewer. The detected face image signal is input to the facial expression analysis unit 343. The facial expression analysis unit 343 sets a plurality of points (for example, eyes, mouth, cheeks) in the face image, and monitors the movement (movement) of the plurality of points as the frame time elapses. A face change (for example, a smile, a crying face, or an angry face) can be detected by the movement (extreme change) at a plurality of points. That is, it detects when the change in the viewer's facial expression exceeds a set level.

表情解析部343の解析結果信号は、同期制御部303に入力される。同期制御部303は、解析結果信号が来たときの番組の視聴画像信号の区間を決定する。つまり、視聴者が視聴している視聴画像信号であって、視聴者が例えば笑顔に変化したとき及びその前後の例えば1乃至2分間の視聴画像信号を特定する。   The analysis result signal from the facial expression analysis unit 343 is input to the synchronization control unit 303. The synchronization control unit 303 determines the section of the viewing image signal of the program when the analysis result signal comes. That is, it is the viewing image signal that the viewer is viewing, and identifies the viewing image signal for, for example, 1 to 2 minutes when the viewer changes to, for example, a smile.

この視聴画像信号を特定するタイミングは、視聴者が笑顔に変化したときに限定されるものではなく、定期的に実施されてもよい。定期的に実施される場合は、上記の解析結果信号は、定期的なタイミング信号となる。   The timing for specifying the viewing image signal is not limited to when the viewer changes to a smile, and may be periodically performed. When performed regularly, the analysis result signal is a periodic timing signal.

同期制御部303の制御に基づいて、視聴番組画像処理部305は、以下のように動作する。視聴画像取得部351は、前記1乃至2分間の視聴画像信号を取り込む。顔検出部352は、取り込まれた番組の画像信号から顔画像信号を検出する。この顔画像信号は、視聴者が視聴した番組の出演者に相当することがほとんどである。顔検出部352は、顔検出部342と同じ方法で画像信号の中から顔画像信号を検出する
顔画像信号は顔認識部353に入力される。顔認識部353は、認識した顔画像信号に対応する人物(出演者)の画像信号がデータベース354に含まれているかどうかをサーチする。サーチした結果、認識した顔画像信号に対応する人物の画像信号が、データベース354に存在しない場合、認識した顔画像信号を新たな情報として特定し、データベース354に登録のために送信したことを同期制御部303に通知する。しかし、認識した顔画像信号に対応する人物(出演者)の画像信号が、データベース354に存在した場合、その存在を確認し、特定したことを同期制御部303に通知する。
Based on the control of the synchronization control unit 303, the viewing program image processing unit 305 operates as follows. The viewing image acquisition unit 351 captures the viewing image signal for 1 to 2 minutes. The face detection unit 352 detects a face image signal from the image signal of the captured program. In most cases, this face image signal corresponds to a performer of a program viewed by the viewer. The face detection unit 352 detects the face image signal from the image signals in the same manner as the face detection unit 342. The face image signal is input to the face recognition unit 353. The face recognition unit 353 searches whether the database 354 includes an image signal of a person (performer) corresponding to the recognized face image signal. As a result of the search, if the image signal of the person corresponding to the recognized face image signal does not exist in the database 354, the recognized face image signal is specified as new information, and the information transmitted to the database 354 for registration is synchronized. Notify the control unit 303. However, when an image signal of a person (performer) corresponding to the recognized face image signal exists in the database 354, the presence is confirmed and the synchronization control unit 303 is notified of the presence.

同期制御部303は、上記の通知を受けて、視聴者が視聴していた番組情報と、視聴者の例えば顔画像信号と、対応する番組の出演者の顔画像信号とを対応付けることができる。又このとき、各顔画像信号に対して識別データを付加する。そして視聴者の識別データと、視聴者の例えば顔画像信号と、前記番組の特定した出演者の顔画像信号と、視聴者が視聴していた番組情報とを関連付けたテーブルを作成することができる。このテーブルは、ある視聴者が、どの出演者に興味を持つかという視聴者情報として位置づけられる。   Upon receiving the above notification, the synchronization control unit 303 can associate the program information that the viewer was watching with the face image signal of the viewer, for example, and the face image signal of the performer of the corresponding program. At this time, identification data is added to each face image signal. Then, a table in which the viewer identification data, the viewer's face image signal, the face image signal of the performer identified in the program, and the program information the viewer has watched can be created. . This table is positioned as viewer information indicating which performers are interested in a certain viewer.

客観的画像処理部201が処理対象とする番組の画像信号は、例えば受信中であって視聴者が視聴しておりかつ録画中の番組の画像信号であってもよい。或いは、客観的画像処理部201が、処理対象とする番組の画像信号は、すでに記録媒体に録画されている番組の画像信号であって現在当該番組が再生されて、視聴者が視聴している番組の画像信号であってもよい。   The image signal of the program to be processed by the objective image processing unit 201 may be, for example, an image signal of a program that is being received, viewed by a viewer, and that is being recorded. Alternatively, the image signal of a program to be processed by the objective image processing unit 201 is an image signal of a program that has already been recorded on a recording medium, and the program is currently being played back and is being viewed by a viewer. It may be an image signal of a program.

図3は、図2に示した視聴者画像処理部304と視聴番組画像処理部305の動作を簡単に示すフローチャートである。実行指示部302から処理開始の指示があると(ステップS3−1)、同期制御部303は、画像取得指示を視聴者画像処理部304、視聴番組画像処理部305に指示する。視聴者画像処理部304は、上記したようにカメラ17から取り込んだ撮像信号を処理し、視聴者の顔画像信号を処理する。視聴番組画像処理部305は、視聴者が視聴している番組の画像信号処理に移行する(ステップS3−4)。   FIG. 3 is a flowchart simply showing the operations of the viewer image processing unit 304 and the viewing program image processing unit 305 shown in FIG. When there is an instruction to start processing from the execution instruction unit 302 (step S3-1), the synchronization control unit 303 instructs the viewer image processing unit 304 and the viewing program image processing unit 305 to acquire an image. The viewer image processing unit 304 processes the captured image captured from the camera 17 as described above, and processes the viewer's face image signal. The viewing program image processing unit 305 proceeds to image signal processing of the program that the viewer is viewing (step S3-4).

視聴者画像処理部304、視聴番組画像処理部305の処理動作は、同期制御部303により統括されている。同期制御部303は、視聴者画像処理部304及び視聴番組画像処理部305からの通知を受けて、視聴者が視聴していた番組情報と、視聴者の例えば顔画像信号と、対応する番組の出演者の顔画像信号とを対応付けることができる。又このとき、各顔画像信号に対して識別データを付加する。そして、識別データと、視聴者の例えば顔画像信号と、対応する番組の出演者の顔画像信号と、視聴者が視聴していた番組情報とを関連付けた前述したテーブルを作成することができる。   Processing operations of the viewer image processing unit 304 and the viewing program image processing unit 305 are controlled by the synchronization control unit 303. Upon receiving notifications from the viewer image processing unit 304 and the viewing program image processing unit 305, the synchronization control unit 303 receives the program information that the viewer was viewing, the viewer's face image signal, and the corresponding program. The face image signal of the performer can be associated. At this time, identification data is added to each face image signal. Then, the above-described table in which the identification data, the viewer's face image signal of the viewer, the face image signal of the performer of the corresponding program, and the program information the viewer has watched can be created.

図4は、上記した視聴者画像処理部304の動作を簡単に示すフローチャートである。実行指示部302から画像を取得せよとの指示があると(ステップS4−1)、視聴者の画像がカメラ17から取り込まれる。次に顔検出処理が行われ(ステップS4−2)、検出した顔画像信号を用いて、表情解析処理が実施される(ステップS4−3)。そして表情解析結果信号は、同期信号制御部303に通知される。   FIG. 4 is a flowchart simply showing the operation of the viewer image processing unit 304 described above. When there is an instruction to acquire an image from the execution instruction unit 302 (step S4-1), the viewer's image is captured from the camera 17. Next, face detection processing is performed (step S4-2), and facial expression analysis processing is performed using the detected face image signal (step S4-3). The facial expression analysis result signal is notified to the synchronization signal control unit 303.

図5は、上記した視聴番組画像処理部305の動作を簡単に示すフローチャートである。同期制御部303の制御に基づいて、視聴画像取得部351が、前記表情解析結果信号が通知された時点の前後数秒間の画像信号を取り込む(ステップS5−1)(ステップS5−2)。顔検出部352は、取り込まれた番組の画像信号から顔画像信号を検出する(ステップS5−3)。番組信号から取得した顔画像信号に対応する人物の画像信号がデータベース354に含まれているかどうかをサーチされる(ステップS5−4)。サーチした結果、認識した顔画像信号に対応する人物の画像信号が、データベース354に存在するか否かの判定が行われる(ステップS5−5)。   FIG. 5 is a flowchart simply showing the operation of the viewing program image processing unit 305 described above. Based on the control of the synchronization control unit 303, the viewing image acquisition unit 351 captures image signals for several seconds before and after the facial expression analysis result signal is notified (step S5-1) (step S5-2). The face detector 352 detects a face image signal from the captured program image signal (step S5-3). It is searched whether or not the database 354 includes an image signal of a person corresponding to the face image signal acquired from the program signal (step S5-4). As a result of the search, it is determined whether or not the person image signal corresponding to the recognized face image signal exists in the database 354 (step S5-5).

これにより、同期制御部303は、上記したように視聴者画像処理部304及び視聴番組画像処理部305からの通知を受けて、視聴者が視聴していた番組情報と、視聴者の例えば顔画像信号と、対応する番組の出演者の顔画像信号とを対応付けることができる。   As a result, the synchronization control unit 303 receives the notifications from the viewer image processing unit 304 and the viewing program image processing unit 305 as described above, and the program information that the viewer is viewing and the viewer's face image, for example. The signal can be associated with the face image signal of the performer of the corresponding program.

図6は、視聴データ登録部306内のデータベース(視聴者情報)の構成例を示している。411は、新しく取り込まれた新視聴者Nのための視聴者情報領域であり、視聴者Nの顔画像と、視聴者Nが視聴した番組NPに出演している出演者NAの顔画像及び出演者識別子NAIDと、視聴した番組の番組情報NPが記述される。   FIG. 6 shows a configuration example of a database (viewer information) in the viewing data registration unit 306. Reference numeral 411 denotes a viewer information area for a newly captured new viewer N. The face image of the viewer N, the face image of the performer NA appearing in the program NP watched by the viewer N, and the appearance A person identifier NAID and program information NP of the viewed program are described.

412は、視聴者Aのための視聴者情報領域であり、413は、視聴者Bのための視聴者情報領域であり、414は、視聴者Cのための視聴者情報領域である。   Reference numeral 412 is a viewer information area for the viewer A, 413 is a viewer information area for the viewer B, and 414 is a viewer information area for the viewer C.

今、視聴者情報領域412には、視聴者Aの顔画像、出演者AAの顔画像及び識別子AAID、及び番組情報AP1が格納されているものとする。この視聴者情報は、出演者AAが番組情報AP1の番組に出演し、視聴者Aがこの出演者AAに興味を持っているものとして位置づけられている。   Now, assume that the viewer information area 412 stores the face image of the viewer A, the face image and the identifier AAID of the performer AA, and the program information AP1. This viewer information is positioned such that the performer AA appears in the program of the program information AP1, and the viewer A is interested in this performer AA.

また、視聴者情報領域413には、視聴者Bの顔画像、出演者BAの顔画像及び識別子
であるBAID、及び番組情報BP1が格納されているものとする。この視聴者情報は、出演者BAが番組情報BP1の番組に出演し、視聴者Bがこの出演者BAに興味を持っているものとして位置づけられている。
In the viewer information area 413, it is assumed that the face image of the viewer B, the face image of the performer BA, the identifier BAID, and the program information BP1 are stored. The viewer information is positioned as the performer BA appears in the program of the program information BP1 and the viewer B is interested in the performer BA.

さらに、視聴者情報領域414には、視聴者Cの顔画像、出演者CAの顔画像及び識別子であるCAID、及び番組情報CP1が格納されているものとする。この視聴者情報は、出演者CAが番組情報CP1の番組に出演し、視聴者Cがこの出演者CAに興味を持っているものとして位置づけられている。さらにこの視聴者情報には、出演者BAの顔画像及び識別子であるBAID、及び番組情報BP1が格納されている。この情報は、視聴者Bの視聴者情報と同じであり、このことは、視聴者Cは、視聴者Bが興味をもつ出演者BAにも興味を持つことを意味する。さらにまた視聴者Cの視聴者情報には、出演者AAの顔画像及び識別子AAID、及び番組情報AP2が格納されているものとする。この場合は、視聴者Cは、視聴者Aと同じ出演者AAに興味を持つが、視聴者AとCは異なる番組を見て出演者AAに興味を持ったことを意味している。   Furthermore, it is assumed that the viewer information area 414 stores the face image of the viewer C, the face image of the performer CA, the identifier CAID, and the program information CP1. The viewer information is positioned such that the performer CA appears in the program information program CP1 and the viewer C is interested in the performer CA. Further, in this viewer information, a face image of the performer BA, a BAID which is an identifier, and program information BP1 are stored. This information is the same as the viewer information of the viewer B, which means that the viewer C is also interested in the performers BA that the viewer B is interested in. Further, it is assumed that the viewer information of the viewer C stores the face image of the performer AA, the identifier AAID, and the program information AP2. In this case, the viewer C is interested in the same performer AA as the viewer A, but the viewers A and C are interested in the performer AA by watching different programs.

今、一次保存領域である視聴者情報領域411には、新しく取り込まれた新視聴者Nのための視聴者情報領域であり、視聴者Nの顔画像と、視聴者Nが視聴した番組NPに出演している出演者NAの顔画像及び出演者識別子NAIDと、視聴した番組の番組情報NPが記述されている。   The viewer information area 411, which is the primary storage area, is a viewer information area for a newly captured new viewer N, and includes a face image of the viewer N and a program NP watched by the viewer N. The face image and performer identifier NAID of the performer NA performing, and the program information NP of the viewed program are described.

しかし、新しく取り込んだ視聴者情報は、視聴者データ登録部306に登録されるべきか否かチェックされる必要がある。これは、視聴者データ登録部306において、重複情報が構築されるのを防ぐ必要があるからである。この重複情報のチェックは、お勧め番組情報構築部202のデータ整理部202aにより行われる。   However, it is necessary to check whether or not the newly acquired viewer information should be registered in the viewer data registration unit 306. This is because it is necessary to prevent the duplication information from being constructed in the viewer data registration unit 306. This duplication information check is performed by the data organizing unit 202a of the recommended program information constructing unit 202.

図7には、データ整理部202aにより実行される登録処理ルーチンを示している。視聴者情報を視聴者データ登録部306に登録すべきか否かをチェックする処理ルーチンである。   FIG. 7 shows a registration processing routine executed by the data organizing unit 202a. This is a processing routine for checking whether or not viewer information should be registered in the viewer data registration unit 306.

新しく取り込んだ視聴者情報の視聴者Nの顔画像は、視聴データ登録部306に登録されている既登録の視聴者の顔画像と比較される(ステップS7−1)。一致する既登録顔画像が無い場合は、新しく取り込んだ顔画像は、新規の視聴者であるから、登録が実施される。即ち、新しい視聴者情報ための領域が確保され、視聴者Nの顔画像と、視聴者Nが視聴した番組(番組情報NP)に出演している出演者NAの顔画像及び出演者識別子NAIDと、視聴した番組の番組情報NPが登録される。   The face image of the viewer N of the newly acquired viewer information is compared with the face image of the registered viewer registered in the viewing data registration unit 306 (step S7-1). If there is no matching registered face image, the newly acquired face image is a new viewer, so registration is performed. That is, an area for new viewer information is secured, the face image of the viewer N, the face image of the performer NA appearing in the program (program information NP) viewed by the viewer N, and the performer identifier NAID. The program information NP of the viewed program is registered.

ステップS7−1で、一致する既登録顔画像が存在する場合(例えばN=Cであるとする)は、既に、視聴者Cが登録されていることである。そして、次のチェック(ステップS7−2)として、出演者NAの顔画像及び出演者識別子NAIDと、既登録の出演者の顔画像及び出演者識別子とを比較する。一致するものが無い場合は、視聴者Cが新しい出演者の番組を視聴したことであり、当該出演者及びそのときの番組情報を視聴者Cの番組情報領域414に登録する。   If there is a matching registered face image in step S7-1 (eg, N = C), it means that the viewer C has already been registered. Then, as the next check (step S7-2), the face image and performer identifier NAID of the performer NA are compared with the face image and performer identifier of the registered performer. If there is no match, the viewer C has watched the program of the new performer, and the performer and the program information at that time are registered in the program information area 414 of the viewer C.

しかしここで、出演者NAの顔画像及び出演者識別子NAIDと一致する出演者の顔画像及び出演者識別子が存在する場合(例えばNA=AA、NAID=AAIDとする)、すでに視聴者Cの視聴者情報には、出演者AAの顔画像及び出演者識別子が含まれていることである。次は番組情報のチェックが実施される(ステップS7−3)。即ち、新しい番組情報NPと、視聴者Cの視聴者情報内で出演者AAが出演する番組情報と一致するものが存在するか否かの判定が行われる。いま、番組情報NPがNP=AP2であったとする。一方、出演者AAが出演する既登録番組情報がAP1であったとする。この場合は、ステップS7−3の判定では、一致無しであるから、番組情報AP2の登録が実施される(ステップS7−5)。しかしステップS7−3で番組情報が一致した場合は、登録無しで終了する(ステップS7−4)。   However, if there is a face image and performer identifier of the performer that matches the face image and performer identifier NAID of the performer NA (for example, NA = AA, NAID = AAID), the viewing of the viewer C has already been performed. The performer information includes the face image of the performer AA and the performer identifier. Next, program information is checked (step S7-3). That is, it is determined whether or not there is a new program information NP that matches the program information in which the performer AA appears in the viewer information of the viewer C. Assume that the program information NP is NP = AP2. On the other hand, it is assumed that the registered program information in which the performer AA appears is AP1. In this case, since there is no match in the determination in step S7-3, the program information AP2 is registered (step S7-5). However, if the program information matches in step S7-3, the process ends without registration (step S7-4).

上記したように、新しく視聴者Nの顔画像と、視聴者Nが視聴した番組情報NPの番組に出演している出演者NAの顔画像及び出演者識別子NAIDと、視聴した番組の番組情報NPが取得されたとしても、既登録の情報と比較され、重複登録が回避される。   As described above, the face image of the viewer N newly, the face image and performer identifier NAID of the performer NA appearing in the program of the program information NP viewed by the viewer N, and the program information NP of the viewed program Is acquired, it is compared with the information already registered, and duplicate registration is avoided.

図8と図9は、視聴データ登録部306内において、各視聴者に対するお勧め番組を充実させるための機能を説明する図である。   FIG. 8 and FIG. 9 are diagrams illustrating functions for enhancing recommended programs for each viewer in the viewing data registration unit 306.

図8の例に示すように、視聴者Aと視聴者Cは、同じアクター(出演者AA)に興味を持っているものとする。ここで、視聴者Aは、出演者AAが出演した番組情報AP1の番組を視聴し、視聴者Cは、出演者AAが出演した番組情報AP2の番組を視聴したものとする。このような場合は、視聴者Aの視聴者情報にも番組情報AP2を追加し、視聴者Cの視聴者情報にも番組情報AP1を追加することが好ましい。   As shown in the example of FIG. 8, it is assumed that viewer A and viewer C are interested in the same actor (performer AA). Here, it is assumed that the viewer A views the program of the program information AP1 in which the performer AA has appeared, and the viewer C has viewed the program of the program information AP2 in which the performer AA has appeared. In such a case, it is preferable to add the program information AP2 to the viewer information of the viewer A and also add the program information AP1 to the viewer information of the viewer C.

なお図8では、視聴データ登録部306に視聴者反応画像ファイル415,416,417を示しているがこのファイルについては後述する。   In FIG. 8, viewer response image files 415, 416, and 417 are shown in the viewing data registration unit 306, which will be described later.

図9は、図8で示した形態の視聴者情報編集処理を実施するための処理ルーチンである。例えば視聴者Aの視聴者情報に含まれている出演者AAの顔画像及びAAIDをレジスタへ格納する(ステップS9−1)。   FIG. 9 is a processing routine for performing the viewer information editing processing of the form shown in FIG. For example, the face image and AAID of the performer AA included in the viewer information of the viewer A are stored in the register (step S9-1).

次に、出演者AAの顔画像及びAAIDと、他の視聴者の視聴者情報に含まれる出演者の顔画像及び識別子とを順次比較する(ステップS9−2)。出演者AAの顔画像及びAAIDに一致する他の視聴者の視聴者情報に含まれる出演者の顔画像及び識別子が存在しない場合は、終了する。   Next, the face image and AAID of the performer AA are sequentially compared with the face image and identifier of the performer included in the viewer information of the other viewers (step S9-2). If the face image of the performer and the identifier included in the viewer information of other viewers that match the AAID do not exist, the process ends.

しかし、出演者AAの顔画像及びAAIDに一致する他の出演者の顔画像及び識別子が存在した場合、次のチェックにシフトする。図9、図8の例では、視聴者Aの視聴者情報に含まれる出演者AAの顔画像及びAAIDと、視聴者Cの視聴者情報に含まれる出演者AAの顔画像及びAAIDとが一致する。このことは、視聴者AとCが、出演者(アクター)AAに興味を持つことを意味する。   However, if there are face images and identifiers of other performers that match the performer AA's face image and AAID, the process shifts to the next check. In the example of FIGS. 9 and 8, the face image and AAID of the performer AA included in the viewer information of the viewer A match the face image and AAID of the performer AA included in the viewer information of the viewer C. To do. This means that viewers A and C are interested in the performer (actor) AA.

次のステップS9−3では、視聴者Aの視聴者情報に含まれる番組AP1情報と、視聴者Cの視聴者情報に含まれる番組情報AP2との比較を実施する。この場合は、番組情報AP1と番組情報AP2とが不一致であるから、ステップS9−4で、番組情報AP2を視聴者Aの番組情報に追加する。   In the next step S9-3, the program AP1 information included in the viewer information of the viewer A is compared with the program information AP2 included in the viewer information of the viewer C. In this case, since the program information AP1 and the program information AP2 do not match, the program information AP2 is added to the program information of the viewer A in step S9-4.

視聴者Cの視聴者情報が他の視聴者の視聴者情報と比較される場合は、番組情報AP1が視聴者Cの視聴者情報に含まれていないことが判明する。したがって、視聴者Cの視聴者情報に番組情報AP1が追加される。   When the viewer information of the viewer C is compared with the viewer information of other viewers, it is found that the program information AP1 is not included in the viewer information of the viewer C. Accordingly, the program information AP1 is added to the viewer information of the viewer C.

上記の視聴者情報は、お勧め番組を提供する場合に有効である。例えば視聴者Aの視聴者情報を読み出して、出演者の顔と、番組情報(番組名、チャンネルなど)を表示器に表示することができる。   The above viewer information is effective when a recommended program is provided. For example, the viewer information of the viewer A can be read, and the face of the performer and the program information (program name, channel, etc.) can be displayed on the display.

図10(A),図10(B)は、テレビジョン受信装置15が、表示データ制御部203の制御に基づいて、視聴者に対してお勧め番組情報を提供している様子を示している。例えば、視聴者が、リモートコントローラ操作を通じて、テレビジョン受信装置15に対してメニュー表示を要求したとする。すると、図10(A)に示すようにメニューの中には、「お勧め番組」の項目があり、この項目の横には「あなたにお勧めの番組情報が用意されています。番組リストを表示しますか?」と言う、コメントが表示される。   FIGS. 10A and 10B show a state where the television receiver 15 provides recommended program information to the viewer based on the control of the display data control unit 203. FIG. . For example, it is assumed that a viewer requests menu display from the television receiver 15 through a remote controller operation. Then, as shown in FIG. 10A, there is an item “Recommended Program” in the menu, and “Recommended program information for you is prepared next to this item. "Do you want to display it?"

視聴者が、この「お勧め番組」の項目を選択して決定ボタンを操作すると、図10(B)に示すように、視聴者に対応する視聴者情報が表示される。例えば視聴者が図8で説明した視聴者Cであったとすると、視聴者Cが興味を持っている出演者CA及びAAが出演している番組の番組情報CP1、BP1,AP1,AP2などが各番組の出演者の顔画像と共に表示される。視聴者は、視聴しようとする番組名をカーソル操作により選択し、決定ボタンを押すことで、当該番組の再生が開始される。   When the viewer selects this “recommended program” item and operates the enter button, viewer information corresponding to the viewer is displayed as shown in FIG. For example, if the viewer is the viewer C described in FIG. 8, the program information CP1, BP1, AP1, AP2, etc. of the programs in which the performers CA and AA in which the viewer C is interested are shown. It is displayed with the face image of the performer of the program. The viewer selects the name of the program to be viewed by operating the cursor and presses the enter button, thereby starting playback of the program.

このように視聴者毎にお勧め番組を提供できるのは、以下の理由による。視聴者が例えばメニューボタンを押したとき、カメラ17を介して視聴者が撮像される。撮像された視聴者の顔が顔検出部で検出される。検出された顔画像は、既に視聴者データ登録部に登録されている視聴者の顔画像と比較され、登録顔画像内に同一人物が存在するか否か判定される。そして、同一人物(視聴者)が検出されている場合に、前述した「お勧め番組」の項目が表示される。   The reason why the recommended program can be provided for each viewer is as follows. For example, when the viewer presses the menu button, the viewer is imaged through the camera 17. The face of the imaged viewer is detected by the face detection unit. The detected face image is compared with the face image of the viewer already registered in the viewer data registration unit, and it is determined whether or not the same person exists in the registered face image. Then, when the same person (viewer) is detected, the item “recommended program” described above is displayed.

上記したように、視聴者は、自分が興味を持っているアクターが出演した番組情報を他の視聴者情報からも取得することが可能である。   As described above, a viewer can obtain program information on which an actor he / she is interested in from other viewer information.

図11には、表情解析部343が表情解析を行う時期を設定する場合、種々の選択肢を示している。まず、表情解析部343が表情解析を行う時期に対してCM期間停止情報501を与えることで、CM期間は停止するように設定することができる。また表情解析部343が表情解析を行う期間として、連続して行う連続指示情報503又は定期的に行うことを指示するための定期的実行指示情報504の何れかを与えることができる。定期的実行指示情報504が表情解析部343に与えられた場合、そのインターバル情報505(例えば5分間隔、10分間隔、15分間隔など)を設定することができる。   FIG. 11 shows various options when the facial expression analysis unit 343 sets the time for facial expression analysis. First, the CM period can be set to stop by giving the CM period stop information 501 to the time when the facial expression analysis unit 343 performs facial expression analysis. Further, as the period during which the facial expression analysis unit 343 performs facial expression analysis, either continuous instruction information 503 that is continuously performed or periodic execution instruction information 504 that is instructed to be periodically performed can be given. When the periodic execution instruction information 504 is given to the facial expression analysis unit 343, the interval information 505 (for example, a 5-minute interval, a 10-minute interval, a 15-minute interval, etc.) can be set.

CM期間停止情報501は、視聴番組画像処理部305或いはその内部の視聴画像取得部351、顔検出部352、顔認識部353などに与えられてもよい。   The CM period stop information 501 may be given to the viewing program image processing unit 305 or the viewing image acquisition unit 351, the face detection unit 352, the face recognition unit 353, and the like.

さらに、視聴データ登録部306に「視聴者情報」を登録する場合、登録する条件を設定することも可能である。まず条件設定512は、条件無しで定期的に視聴者情報を登録するように設定することができる。視聴者情報の登録は、図7乃至図9で説明したとおりである。次に条件設定513がある、この設定513は、視聴者の笑顔検出があったときを登録条件とするものである。このとき笑い声検出により、笑い声も条件設定514の項目としてよい。   Furthermore, when “viewer information” is registered in the viewing data registration unit 306, it is possible to set conditions for registration. First, the condition setting 512 can be set so that viewer information is registered periodically without any condition. Registration of the viewer information is as described with reference to FIGS. Next, there is a condition setting 513. This setting 513 is a registration condition when a viewer's smile is detected. At this time, laughter may be set as an item of the condition setting 514 by detecting laughter.

さらに条件設定として、視聴者の視聴人数をデータ登録条件としてもよい。視聴している視聴者の人数を登録条件として(条件設定515)、複数の場合と単独の場合との何れかを指定できるようにしてもよい。また視聴者が特定の人物であるときのみを登録条件として設定できるようにしてもよい(条件設定516)。このためには、予めカメラで撮像した人物を登録しておくことで、現在の視聴者を特定可能としている。   Furthermore, as a condition setting, the number of viewers may be set as a data registration condition. The number of viewers who are watching can be specified as a registration condition (condition setting 515), and either a plurality of cases or a single case can be designated. Alternatively, the registration condition may be set only when the viewer is a specific person (condition setting 516). For this purpose, it is possible to specify the current viewer by registering a person imaged in advance with a camera.

さらに、視聴データが登録される場合、番組画像と視聴者顔画像とを関連付けた、ダイジェストファイル作成を設定できるようにしても良い(条件設定523)。   Furthermore, when viewing data is registered, it may be possible to set digest file creation in which program images and viewer face images are associated (condition setting 523).

図12は、視聴データが視聴データ登録部に登録される場合、番組画像と視聴者顔画像とを関連付けた、ダイジェストファイルの作成を設定できる実施形態の例を示している。図2に示したブロックと同一部分には同一符号を付している。   FIG. 12 illustrates an example of an embodiment in which creation of a digest file that associates a program image with a viewer face image can be set when viewing data is registered in the viewing data registration unit. The same parts as those shown in FIG.

客観的画像処理部201において、視聴者画像処理部304は、図2に示した構成とほぼ同じである。表情解析部343は、顔画像に複数点(例えば眼、口、頬)を設定し、フレーム時間の経過とともに複数点の移動(動き)を監視する。この複数点の動き(極端な変化)の情報が、笑顔検出部344に入力される。笑顔検出部344は、顔の変化の情報から笑顔を検出することができる。   In the objective image processing unit 201, the viewer image processing unit 304 has almost the same configuration as that shown in FIG. The facial expression analysis unit 343 sets a plurality of points (for example, eyes, mouth, cheeks) in the face image, and monitors the movement (movement) of the plurality of points as the frame time elapses. Information on the movements (extreme changes) of the plurality of points is input to the smile detection unit 344. The smile detection unit 344 can detect a smile from the information of the face change.

笑顔検出信号は、視聴番組画像処理部305の取得画像選択部357に入力される。取得画像選択部357は、視聴コンテンツ取得部356を制御し、視聴者の笑顔が検出された時点とその前後例えば1乃至2分のコンテンツを取得する。さらに取得されたコンテンツから、顔検出部352が人物の顔画像を検出する。この顔画像信号は、視聴者が視聴した番組の出演者に相当することがほとんどである。顔検出部352は、顔検出部342と同じ方法で画像信号の中から顔画像信号を検出する
顔画像信号は顔認識部353に入力される。顔認識部353は、認識した顔画像信号に対応する人物(出演者)の画像信号がデータベース354に含まれているかどうかをサーチする。サーチした結果、認識した顔画像信号に対応する人物の画像信号が、データベース354に存在しない場合、認識した顔画像信号を新たな情報として特定し、データベース354に登録し、登録したことを同期制御部303に通知する。しかし、認識した顔画像信号に対応する人物(出演者)の画像信号が、データベース354に存在した場合、その存在を確認し、特定したことを同期制御部303に通知する。
The smile detection signal is input to the acquired image selection unit 357 of the viewing program image processing unit 305. The acquired image selection unit 357 controls the viewing content acquisition unit 356 to acquire the content of, for example, 1 to 2 minutes before and after the time when the viewer's smile is detected. Further, the face detection unit 352 detects a human face image from the acquired content. In most cases, this face image signal corresponds to a performer of a program viewed by the viewer. The face detection unit 352 detects the face image signal from the image signals in the same manner as the face detection unit 342. The face image signal is input to the face recognition unit 353. The face recognition unit 353 searches whether the database 354 includes an image signal of a person (performer) corresponding to the recognized face image signal. If the image signal of the person corresponding to the recognized face image signal does not exist in the database 354 as a result of the search, the recognized face image signal is specified as new information, registered in the database 354, and the registered control is synchronized. Notification to the unit 303. However, when an image signal of a person (performer) corresponding to the recognized face image signal exists in the database 354, the presence is confirmed and the synchronization control unit 303 is notified of the presence.

同期制御部303は、上記の通知を受けて、視聴者が視聴していた番組情報と、視聴者の例えば数十秒間の顔画像信号と、対応する番組の出演者の顔画像信号と、当該番組の画像信号とを対応付けたダイジェスト版ファイル(視聴者反応画像ファイルと称しても良い)を作成することができる。   Upon receiving the above notification, the synchronization control unit 303 receives program information that the viewer has watched, a face image signal of the viewer for several tens of seconds, a face image signal of a performer of the corresponding program, It is possible to create a digest version file (also referred to as a viewer reaction image file) in which the program image signal is associated.

図13には、視聴者の顔画像信号と、対応する番組の出演者の顔画像信号と、当該番組の画像信号とを対応付けたダイジェスト版ファイルのデータ構成例を示している。これらのファイルは、図8で示した所謂、視聴者反応画像ファイル415,416,417であり、視聴データ登録部306を構成している例えばHDDなどの記録媒体の記録エリアに格納される。   FIG. 13 shows a data configuration example of a digest version file in which the face image signal of the viewer, the face image signal of the performer of the corresponding program, and the image signal of the program are associated with each other. These files are so-called viewer reaction image files 415, 416, and 417 shown in FIG. 8, and are stored in a recording area of a recording medium such as an HDD constituting the viewing data registration unit 306.

例えば番組Aに対する視聴者情報(この実施形態では視聴者情報ファイルと称しても良い)は、番組Aの番組情報(たとえば番組名、放送局名、チャンネル、収録日時情報、ジャンル)の領域と、画像データの領域を有する。画像データの領域は、例えば番組の代表画像(出演者の顔画像でも良い)の領域、視聴者の顔画像の領域と、サンプリング画像領域とを有する。   For example, the viewer information for program A (which may be referred to as a viewer information file in this embodiment) includes program A program information (for example, program name, broadcast station name, channel, recording date and time information, genre) area, It has an area for image data. The image data area includes, for example, a program representative image area (which may be a performer's face image), a viewer face image area, and a sampling image area.

サンプリング画像領域では、視聴者の笑顔を検出した時点とその前後1乃至5分程度の区間における視聴者を撮像した画像と前記区間に対応する番組のシーンの画像とがペアになって記録されている。図の例では番組のシーン1、シーン2、シーン3の区間がサンプリング画像として記憶されている。ここで、視聴者を撮像した画像データの先頭には、シーン1,2,3に対応するが現れる視聴者画像データには、番組の相対時間を示したタイムスタンプTSを記述しておいても良い。   In the sampled image area, a point in time when a viewer's smile is detected and an image of the viewer in a section of about 1 to 5 minutes before and after that are recorded in pairs and an image of a program scene corresponding to the section. Yes. In the example shown in the figure, sections of scenes 1, 2 and 3 of the program are stored as sampling images. Here, the time stamp TS indicating the relative time of the program may be described in the viewer image data that corresponds to the scenes 1, 2, and 3 at the top of the image data obtained by capturing the viewer. good.

図14、図15は、表示データ制御部203の制御に基づいて、上記した視聴者反応画像ファイルが再生されたときの表示器に表示される画像の例を示している。ユーザは、表示器15に例えば録画リストを表示することができる。録画リストは、制御部20にて管理されている。録画リストの中には、視聴者反応画像ファイル415,416,417が含まれている。ユーザは、リモートコントローラ操作により、所望のファイルを選択して再生ボタンを操作することができる。ユーザが、例えば視聴者反応画像ファイル415を再生したとすると、例えば図13で示した番組のシーン1,2,3が順次再生されるとともに、同時に対応して視聴者の画像が再生される。選択ボタンにより、番組のシーンと視聴者の画像の何れか一方をピクチャーインピクチャーとして表示することができる。   14 and 15 show examples of images displayed on the display unit when the above-described viewer reaction image file is reproduced based on the control of the display data control unit 203. FIG. The user can display a recording list, for example, on the display 15. The recording list is managed by the control unit 20. In the recording list, viewer reaction image files 415, 416, and 417 are included. The user can select a desired file and operate the play button by operating the remote controller. For example, if the user reproduces the viewer reaction image file 415, for example, the program scenes 1, 2, and 3 shown in FIG. 13 are sequentially reproduced, and at the same time, the viewer's image is reproduced. With the selection button, either the program scene or the viewer's image can be displayed as a picture-in-picture.

視聴者画像を再生する場合は、上記の形態に限定されない。例えば、番組Aを最初から連続して再生している途中で、シーン1、シーン2、シーン3のときに図14或いは図15に示すような表示形態に切換ってもよい。視聴者画像1,2,3にはそれぞれタイムスタンプTSが含まれているので、番組Aが再生されている途中で、シーン1、2、3が再生されるときに同期させて視聴者画像1,2,3を再生することができる。この再生を行う場合は、さらに再生モード選択ボタンにより、視聴者反応画像ファイルの同時再生を選択できるように構成される。なお、上記の説明で用いた用語は、このような称呼に限定されるものではなく、同等の機能を実現できる構成であれば、他の呼び方をされてもよい。   When reproducing a viewer image, it is not limited to the above-described form. For example, during the continuous playback of the program A from the beginning, it may be switched to the display form as shown in FIG. 14 or FIG. Since the viewer images 1, 2, and 3 each include a time stamp TS, the viewer image 1 is synchronized with the scenes 1, 2, and 3 while the program A is being played back. , 2 and 3 can be reproduced. When this playback is performed, the playback mode selection button can be used to select simultaneous playback of the viewer reaction image file. Note that the terms used in the above description are not limited to such designations, but may be given other designations as long as the equivalent functions can be realized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11・・・チューナ装置、12・・・セレクタ、13・・・信号処理部、14・・・出力部、15・・・表示器、17・・・カメラ、18・・・インターフェース、20・・・制御部、201・・・客観的画像処理部、202・・・お勧め番組情報構築部。 DESCRIPTION OF SYMBOLS 11 ... Tuner apparatus, 12 ... Selector, 13 ... Signal processing part, 14 ... Output part, 15 ... Display, 17 ... Camera, 18 ... Interface, 20 ... Control unit 201 ... objective image processing unit 202 ... recommended program information construction unit

Claims (7)

撮像信号から第1の顔画像データを検出する第1の画像処理部と、
番組データに含まれる第2の顔画像データを検出する第2の画像処理部と、
前記第1の画像処理部により検出された前記第1の顔画像データの変化に応じて、前記第2の画像処理部により検出された前記第2の顔画像データと前記第1の画像処理部により検出された前記第1の顔画像データ及び前記番組の番組情報とを関連付けた画像情報を作成し、登録部に登録する制御部とを有した画像情報処理装置。
A first image processing unit for detecting first face image data from the imaging signal;
A second image processing unit for detecting second face image data included in the program data;
The second face image data detected by the second image processing unit and the first image processing unit in response to a change in the first face image data detected by the first image processing unit An image information processing apparatus comprising: a control unit that creates image information that associates the first face image data detected by the program with program information of the program and registers the image information in a registration unit.
前記制御部の制御に基づいて行われる前記第2の顔画像データと前記第1の顔画像データ及び前記番組の番組情報の取得及びこれらを関連付けた前記画像情報の作成は、定期的に実行される請求項1記載の画像情報処理装置。   Acquisition of the second face image data, the first face image data, and program information of the program and creation of the image information associated with the second face image data and the first face image data performed based on the control of the control unit are periodically executed The image information processing apparatus according to claim 1. 前記制御部の制御に基づいて行われる前記第2の顔画像データと前記第1の顔画像データ及び前記番組の番組情報の取得は、前記番組内のコマーシャル期間は除かれる請求項2記載の画像情報処理装置。   3. The image according to claim 2, wherein the second face image data, the first face image data, and the program information of the program acquired based on the control of the control unit are excluded from a commercial period in the program. Information processing device. お勧め番組情報構築部をさらに有し、このお勧め番組情報構築部は、新しく作成された新規画像情報と前記登録部に登録されている既保存の画像情報との比較を行い、既保存の情報と重複している前記新規画像情報内の情報を破棄し、前記既保存の情報と重複しない前記新規画像情報内の情報を登録する請求項1記載の画像情報処理装置。   The recommended program information construction unit further includes a newly created new image information and the stored image information registered in the registration unit. The image information processing apparatus according to claim 1, wherein information in the new image information that overlaps with information is discarded, and information in the new image information that does not overlap with the stored information is registered. 表示制御部をさらに有し、この表示制御部は、前記第2の顔画像データと前記第1の顔画像データ及び前記番組の番組情報をお勧め番組リストとして表示する請求項4記載の画像情報処理装置。   5. The image information according to claim 4, further comprising a display control unit, wherein the display control unit displays the second face image data, the first face image data, and program information of the program as a recommended program list. Processing equipment. 前記制御部はさらに、前記第1の画像処理部により検出された前記第1の顔画像データの変化が設定レベル以上であることが検出された時点及びその前後の所定の時間の前記番組のデータを、視聴者反応画像ファイルに格納する請求項1記載の画像情報処理装置。   The control unit further includes data of the program at a predetermined time before and after the change of the first face image data detected by the first image processing unit is detected to be a set level or higher. Is stored in the viewer reaction image file. 第1の画像処理部により、撮像信号から第1の顔画像データを検出し、
第2の画像処理部により、番組データに含まれる第2の顔画像データを検出し、
前記第1の顔画像データの変化に応じて、制御部により、第2の画像処理部により検出された前記第2の顔画像データと第1の画像処理部により検出された前記第1の顔画像データ及び前記番組の番組情報とを関連付けた画像情報を登録部に登録する画像情報処理方法。
The first image processing unit detects first face image data from the imaging signal,
The second image processing unit detects the second face image data included in the program data,
In response to a change in the first face image data, the control unit causes the second face image data detected by the second image processing unit and the first face detected by the first image processing unit. An image information processing method for registering image data associated with image data and program information of the program in a registration unit.
JP2012208278A 2012-09-21 2012-09-21 Image information processing apparatus and image information processing method Expired - Fee Related JP5552651B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012208278A JP5552651B2 (en) 2012-09-21 2012-09-21 Image information processing apparatus and image information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012208278A JP5552651B2 (en) 2012-09-21 2012-09-21 Image information processing apparatus and image information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011214841A Division JP5106669B1 (en) 2011-09-29 2011-09-29 Image information processing apparatus and image information processing method

Publications (2)

Publication Number Publication Date
JP2013078121A true JP2013078121A (en) 2013-04-25
JP5552651B2 JP5552651B2 (en) 2014-07-16

Family

ID=48481235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012208278A Expired - Fee Related JP5552651B2 (en) 2012-09-21 2012-09-21 Image information processing apparatus and image information processing method

Country Status (1)

Country Link
JP (1) JP5552651B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (en) * 1997-11-20 1999-06-08 Fujitsu General Ltd Advertising effectiveness confirmation system
JP2007097047A (en) * 2005-09-30 2007-04-12 Seiko Epson Corp Content editing apparatus, content editing method, and content editing program
JP2008048001A (en) * 2006-08-11 2008-02-28 Sony Corp Information processing apparatus and method, and program
JP2009089065A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic device and face image display device
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Recording / playback apparatus and content search program
JP2011072029A (en) * 2010-12-09 2011-04-07 Sony Corp Device and method for display control, and program
JP2011129997A (en) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11153977A (en) * 1997-11-20 1999-06-08 Fujitsu General Ltd Advertising effectiveness confirmation system
JP2007097047A (en) * 2005-09-30 2007-04-12 Seiko Epson Corp Content editing apparatus, content editing method, and content editing program
JP2008048001A (en) * 2006-08-11 2008-02-28 Sony Corp Information processing apparatus and method, and program
JP2009089065A (en) * 2007-09-28 2009-04-23 Toshiba Corp Electronic device and face image display device
JP2010233143A (en) * 2009-03-30 2010-10-14 Fujitsu Ltd Recording / playback apparatus and content search program
JP2011129997A (en) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd User information processing program, reproducing program, user information processor, reproducing device, user information processing method, and reproducing method
JP2011072029A (en) * 2010-12-09 2011-04-07 Sony Corp Device and method for display control, and program

Also Published As

Publication number Publication date
JP5552651B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
US9578366B2 (en) Companion device services based on the generation and display of visual codes on a display device
KR101520659B1 (en) Device and method for comparing video using personal video recoder
JP5135024B2 (en) Apparatus, method, and program for notifying content scene appearance
US20250328585A1 (en) Multimedia focalization
US12132971B2 (en) Automatically generating supercuts
US20120278765A1 (en) Image display apparatus and menu screen displaying method
KR20080101075A (en) Image and image information retrieval apparatus and method, and system therefor
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
KR20160003336A (en) Using gestures to capture multimedia clips
JP2008124574A (en) Preference extraction device, preference extraction method, and preference extraction program
JP5106669B1 (en) Image information processing apparatus and image information processing method
JP2015052897A (en) Electronic device, electronic device control method, and computer program
JP2013098997A (en) Video analysis information transmitter, video analysis information distribution system and distribution method, video viewing system, and video viewing method
US11477541B2 (en) Automatically generating supercuts
JP5552651B2 (en) Image information processing apparatus and image information processing method
JP2010010736A (en) Video content playback device
JP2011160167A (en) Recording and reproducing apparatus
KR101481689B1 (en) Method and apparatus for detecting multimedia contents using number information
CN114731384B (en) Display device and method for the same
JP2007214708A (en) Video apparatus and method for creating program information using it
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
JP2016015621A (en) CONTENT REPRODUCTION DEVICE, CONTENT REPRODUCTION PROGRAM, CONTENT REPRODUCTION METHOD, AND CONTENT REPRODUCTION SYSTEM
CN105992065B (en) Video on demand social interaction method and system
TR2022021978A2 (en) A VIDEO RECOMMENDATION SYSTEM BASED ON MONITORING DIGITAL BROADCAST CONTENT
US10397635B2 (en) Use of parallel data programming for device integration

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20140415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140425

LAPS Cancellation because of no payment of annual fees