JP2012231404A - 画像処理装置及び画像処理方法 - Google Patents
画像処理装置及び画像処理方法 Download PDFInfo
- Publication number
- JP2012231404A JP2012231404A JP2011099744A JP2011099744A JP2012231404A JP 2012231404 A JP2012231404 A JP 2012231404A JP 2011099744 A JP2011099744 A JP 2011099744A JP 2011099744 A JP2011099744 A JP 2011099744A JP 2012231404 A JP2012231404 A JP 2012231404A
- Authority
- JP
- Japan
- Prior art keywords
- additional information
- image
- image processing
- target image
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】映像コンテンツ中の対象画像に対応付けて付加情報を出力することが可能な画像処理装置を提供することである。
【解決手段】画像処理装置は、第1の取得手段と、第2の取得手段と、検出手段と、画像処理手段とを備える。前記第1の取得手段は、対象画像を検出するための画像特徴データ、及び前記対象画像に対応付けて出力するための付加情報を取得する。前記第2の取得手段は、映像コンテンツを取得する。前記検出手段は、前記画像特徴データに基づき前記映像コンテンツから前記対象画像を検出する。前記画像処理手段は、前記映像コンテンツ中の前記対象画像と前記付加情報とを対応付けた付加情報付き画像を生成し出力する。
【選択図】図1
【解決手段】画像処理装置は、第1の取得手段と、第2の取得手段と、検出手段と、画像処理手段とを備える。前記第1の取得手段は、対象画像を検出するための画像特徴データ、及び前記対象画像に対応付けて出力するための付加情報を取得する。前記第2の取得手段は、映像コンテンツを取得する。前記検出手段は、前記画像特徴データに基づき前記映像コンテンツから前記対象画像を検出する。前記画像処理手段は、前記映像コンテンツ中の前記対象画像と前記付加情報とを対応付けた付加情報付き画像を生成し出力する。
【選択図】図1
Description
本発明の実施形態は、画像処理装置及び画像処理方法に関する。
近年、様々な機能を備えたデジタルテレビが登場している。例えば、録画機能、高画質化処理機能、インターネット機能、又は3D表示機能等を搭載したデジタルテレビが登場している。
また、デジタルカメラ等の分野では、画像認識技術を適用し、撮影画像の中から所望の人物の顔画像を検出する技術が提案されている。
デジタルテレビに対するユーザからの要望は尽きない。例えば、映像コンテンツの視聴中に所望の出演者を識別したいという要望が出されている。
本発明が解決しようとする課題は、映像コンテンツ中の対象画像(例えば所望の出演者)に対応付けて付加情報を出力することが可能な画像処理装置及び画像処理方法を提供することである。
実施形態によれば、画像処理装置は、第1の取得手段と、第2の取得手段と、検出手段と、画像処理手段とを備える。前記第1の取得手段は、対象画像を検出するための画像特徴データ、及び前記対象画像に対応付けて出力するための付加情報を取得する。前記第2の取得手段は、映像コンテンツを取得する。前記検出手段は、前記画像特徴データに基づき前記映像コンテンツから前記対象画像を検出する。前記画像処理手段は、前記映像コンテンツ中の前記対象画像と前記付加情報とを対応付けた付加情報付き画像を生成し出力する。
図1は、第1及び第2の実施形態に係る画像処理装置の概略構成の一例を示すブロック図である。第1及び第2の実施形態では、例えば、画像処理装置としてデジタルテレビを想定して説明する。しかしながら、本実施形態の画像処理装置は、デジタルテレビに限定されるものではない。例えば、画像処理装置は、放送信号を受信し放送信号を記録するデジタルレコーダ、被写体を撮影し被写体に対応する映像信号を記録するデジタルビデオカメラ等であってもよい。さらに、画像処理装置は、パーソナルコンピュータ等であってもよい。
図1に示す画像処理装置は、例えば、2D(2-dimensional image)又は3D(3-dimensional image)の映像コンテンツを記録したり、再生したりすることができる。図1に示すように、画像処理装置は、受信モジュール102、デジタル復調モジュール103、光ディスクドライブ104、ハードディスクドライブ105、MPEG処理モジュール106、出力合成モジュール107、システム制御モジュール110、操作モジュール111、対象被写体指定モジュール112、出演シーン位置特定モジュール113、対象別付加情報生成モジュール114、対象別付加情報出力領域決定モジュール115、通信モジュール116を備える。
受信モジュール102は、アンテナ101からのデジタル放送信号を受信(取得)し、デジタル放送信号をIF(中間周波数)信号に変換する。デジタル復調モジュール103は、IF信号からデジタル信号(TS:トランスポートストリーム)を抽出し、MPEG処理モジュール106に出力する。MPEG処理モジュール106は、TSを映像データ、音声データ、およびEPG表示用のSI(Service Information)に分離し、映像データ、音声データをデコードする。出力合成モジュール107は、デコードされた映像データ及び音声データをディスプレイ109及びスピーカ108へ出力する。
システム制御モジュール110は、各処理モジュールの動作を統括的に制御する。操作モジュール111は、例えばリモートコントローラであり、システム制御モジュール110は、操作モジュール111から発信される各種制御コマンドを受信する。制御コマンドとは、例えば、テレビ放送の再生、録画、録画済みコンテンツの再生等を指示するコマンドである。
例えば、システム制御モジュール110が、録画を指示するコマンドを検出すると、MPEG処理モジュール106は、選択中のチャンネルの番組の映像、音声データをエンコードし、光ディスクドライブ104が、光ディスクDにエンコードされた映像、音声データを記録する。又は、ハードディスクドライブ105が、ハードディスクHにエンコードされた映像、音声データを記録する。
また、システム制御モジュール110が、記録済みのコンテンツの再生を指示するコマンドを検出すると、光ディスクドライブ104が、光ディスクDに記録された記録済みコンテンツ(映像、音声データ)を読み出す。言い換えれば、光ディスクドライブ104は、光ディスクDに記録された記録済みコンテンツを取得する。又はハードディスクドライブ105が、ハードディスクHに記録された記録済みコンテンツ(映像、音声データ)を読み出す。言い換えれば、ハードディスクドライブ105が、ハードディスクHに記録された記録済みコンテンツを取得する。
MPEG処理モジュール106は、読み出された映像、音声データをデコードし、出力合成モジュール107は、デコードされた映像、音声データを出力する。
以下、上記説明した画像処理装置による付加情報出力処理について説明する。画像処理装置は、ユーザにより指定された対象画像(例えばお気に入りの出演者の顔画像)を映像コンテンツ中から検索し、映像コンテンツに対応した映像フレーム中の対象画像に対応する位置に付加情報(お気に入りの出演者の名前など)を出力する。
(第1の実施形態)
第1の実施形態では、画像処理装置が、映像コンテンツに対応した映像フレーム中に、付加情報を出力(表示)するケースについて説明する。つまり、画像処理装置が、映像コンテンツ中の再生画面中に、対象画像に対応付けて付加情報を出力(表示)するケースについて説明する。
第1の実施形態では、画像処理装置が、映像コンテンツに対応した映像フレーム中に、付加情報を出力(表示)するケースについて説明する。つまり、画像処理装置が、映像コンテンツ中の再生画面中に、対象画像に対応付けて付加情報を出力(表示)するケースについて説明する。
例えば、ユーザは、操作モジュール111を介してシステム制御モジュール110に対して、対象被写体指定を要求する。これに対応して、システム制御モジュール110の表示制御に従い、ディスプレイ109は、例えば、図4に示すような対象被写体指定画面を表示する。
ユーザは、操作モジュール111を介して、対象被写体指定画面の検索項目にキーワード(ABC)を入力することができる。例えば、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、入力されたキーワードに基づき出演者を検索し、対象被写体指定画面上に、出演者リスト(A、B、C)を表示する。ユーザは、操作モジュール111を介して、出演者リスト(A、B、C)から検索対象(例えば出演者A)を選択することができ、これに対応して、対象被写体指定モジュール112は、検索対象(例えば出演者A)を指定する。
例えば、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、指定された検索対象の個人識別IDを取得する。さらに、システム制御モジュール110は、個人識別IDに基づき、検索対象画像を検索するための画像特徴データ(顔特徴データ)及び付加情報を取得する。
例えば、システム制御モジュール110は、個人識別IDに基づき、顔特徴データベースD1から画像特徴データを取得し、対象別付加情報データベースD2から付加情報を取得する。顔特徴データベースD1は、個人識別IDが対応付けられた画像特徴データを蓄積している。同様に、対象別付加情報データベースD2は、個人識別IDが対応付けられた付加情報を蓄積している。図3は、対象別付加情報データベースD2に蓄積された付加情報の一例を示す図である。図3に示すように、名前(付加情報)には、個人識別IDが対応付けられている。なお、個人識別IDが対応付けられたプロフィールを付加情報として指定することもできる。なお、画像処理装置は、顔特徴データベースD1を含む構成であってもよいし、顔特徴データベースD1を含まない構成であってもよい。同様に、画像処理装置は、対象別付加情報データベースD2を含む構成であってもよいし、対象別付加情報データベースD2を含まない構成であってもよい。
或いは、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、顔特徴データベースD1に蓄積された顔特徴データを更新し、対象別付加情報データベースD2に蓄積された付加情報を更新し、個人識別IDに基づき、顔特徴データベースD1から画像特徴データを取得し、対象別付加情報データベースD2から付加情報を取得する。例えば、顔特徴データベースD1中に、個人識別IDに対応する画像特徴データが無い場合に、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、顔特徴データベースD1に蓄積された顔特徴データを更新する。或いは、顔特徴データベースD1に蓄積された顔特徴データが所定時間以上更新されていない場合に、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、顔特徴データベースD1に蓄積された顔特徴データを更新する。また、対象別付加情報データベースD2中に、個人識別IDに対応する付加情報が無い場合に、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、対象別付加情報データベースD2に蓄積された付加情報を更新する。或いは、対象別付加情報データベースD2に蓄積された付加情報が所定時間以上更新されていない場合に、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、対象別付加情報データベースD2に蓄積された付加情報を更新する。
或いは、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、個人識別IDに基づき画像特徴データ及び付加情報を取得する。
上記したように、画像特徴データ及び付加情報が取得されると、出演シーン位置特定モジュール113は、MPEG処理モジュール106でデコードされた映像フレーム(映像コンテンツに対応した映像フレーム)と、顔特徴データとを照合し、照合結果に基づき検索対象画像の有無(被写体の出演可否)、及び検索対象画像の位置(映像フレーム内の検索対象画像の領域)を検出する。さらに、出演シーン位置特定モジュール113は、映像フレーム中から、非検索対象画像の有無及び非検索対象画像の位置を検出する。
検索対象画像が有ることが特定された場合、対象別付加情報出力領域決定モジュール115は、検索対象画像の位置(顔位置)の近傍且つ非検索対象画像の位置(非検索対象画像の位置(顔位置))を避けた領域を出力領域(表示領域)として設定する。つまり、対象別付加情報出力領域決定モジュール115は、非検索対象画像の位置(非検索対象画像の位置(顔位置))と異なる位置に出力領域(表示領域)を設定する。さらに詳しく説明すると、対象別付加情報出力領域決定モジュール115は、検索対象画像の位置(顔位置)から最も近い所定サイズ以上の候補領域を検出し、候補領域中に出力領域を設定する。出力合成部107は、映像コンテンツと付加情報とを合成し(出力領域に付加情報を付加し)、合成画像を出力する。
図5は、合成画像の出力の一例を示す図である。図5に示すように、ユーザが指定した検索対象(出演者A)の顔画像の近傍に、検索対象の付加情報(例えば出演者Aの名前)が表示される。しかも、この付加情報は、他の画像(他の人物の顔画像)とは重ならない位置に表示される。
本実施形態によれば、視聴者による映像視聴中に、リアルタイムで、指定された被写体に関する情報を出力可能(表示可能)な画像処理装置を提供できる。
次に、図2を参照して、付加情報出力処理の一例について説明する。例えば、3D映像視聴時の付加情報出力処理の一例について説明する。
最初に、対象被写体指定モジュール112は、検索対象(例えば出演者A)を指定する((S201)。これに対応して、システム制御モジュール110は、指定された検索対象の個人識別IDを取得する。
システム制御モジュール110は、個人識別IDに基づき、検索対象画像を検索するための画像特徴データ(顔特徴データ)及び付加情報を取得する。顔特徴データベースD1及び対象別付加情報データベースD2の更新が必要な場合には(S202、YES)、システム制御モジュール110は、通信モジュール116により外部ネットワークを介して、又は受信モジュール102により放送信号(SI)を介して、顔特徴データベースD1及び対象別付加情報データベースD2を更新する(S203)。システム制御モジュール110は、個人識別IDに基づき、更新された顔特徴データベースD1から、画像特徴データ(顔特徴データ)を取得する。
MPEG処理モジュール106は、映像コンテンツの映像フレームをデコードする(S204)。また、出演シーン位置特定モジュール113は、顔検出技術を利用し、デコードされた映像フレームと、顔特徴データとを照合し、照合結果に基づき検索対象画像を検索する。例えば、出演シーン位置特定モジュール113は、映像フレーム中の所定画像と顔特徴データとが一致する場合(S205、YES)、所定画像を検索対象画像として判定する。さらに、出演シーン位置特定モジュール113は、検索対象画像の顔位置を示す顔領域情報と、その他の画像の顔位置を示す顔領域情報とを対象別付加情報出力決定モジュール115に通知し、検索された検索対象画像の個人識別IDを対象別付加情報生成モジュール114に通知する。
対象別付加情報生成モジュール114は、対象別付加情報データベースD2から、通知された個人識別IDに対応付けられた付加情報を取得する(S206)。図3に示すように、対象別付加情報データベースD2は、個人識別IDと1以上の固有情報とを対応付けて管理している。
対象別付加情報出力決定モジュール115は、検索対象画像の顔位置の近傍且つ他の画像の顔位置を避けた領域を出力領域として設定し(S207)、この出力領域を対象別付加情報生成モジュール114に通知する。また、対象別付加情報出力決定モジュール115は、検索対象画像の顔画像のサイズに応じた出力領域のサイズを設定することもできる。
対象別付加情報生成モジュール114は、システム制御モジュール110から、検索対象画像の奥行き情報(3Dパラメータ)等のパラメータを取得する(S208)。なお、システム制御モジュール110は、放送信号から検索対象画像の奥行き情報(3Dパラメータ)等を取得することができる。また、対象別付加情報生成モジュール114は、対象別付加情報出力決定モジュール115から、出力領域のサイズ等のパラメータを取得する。また、対象別付加情報生成モジュール114は、MPEG処理モジュール106から映像コンテンツの部分色(出力領域の位置の背景色)等のパラメータを取得する。
対象別付加情報生成モジュール114は、上記パラメータに基づき、付加情報を生成する(S209)。例えば、対象別付加情報生成モジュール114は、検索対象画像の奥行きと同等の奥行きの付加情報を生成する。つまり、検索対象画像の立体度と付加情報の立体度とを実質的に同一にすることにより、検索対象画像と付加情報との対応関係を明確にする。また、対象別付加情報生成モジュール114は、出力領域のサイズに対応したフォントサイズの付加情報を生成する。また、対象別付加情報生成モジュール114は、映像コンテンツの部分色(出力領域の位置の背景色)に同化しない色の付加情報を生成する。つまり、付加情報が合成される合成領域の背景色に対し視認性の高い文字色の付加情報を生成する。
出力合成部107は、映像コンテンツと上記生成された付加情報とを合成し(出力領域に付加情報を付加し)(S210)、合成画像を出力する(S211)。なお、出力合成部107は、付加情報出力の指示に基づき、上記合成画像を出力し、通常出力の指示に基づき、付加情報の無いオリジナルの映像コンテンツを出力する。
視聴終了の指示が発生する、又は被写体情報の出力が切り替えられるまで、S204−S212が繰り返される。
さらなる付加情報の視認性向上のために、以下のようにして付加情報の出力を制御することもできる。
例えば、出演シーン位置特定部113が、映像フレーム中で、検索対象画像が目立っていることを検出した場合に、出力合成部107は、付加情報が付加された合成映像を出力する。つまり、出演シーン位置特定部113が、映像フレーム中で、検索対象画像が目立っていないことを検出した場合には、出力合成部107は、付加情報の無いオリジナルの映像コンテンツを出力する。
例えば、出演シーン位置特定部113は、映像フレーム内での検索対象画像のサイズ又は位置に基づき、検索対象画像が目立っているか否かを検出する。例えば、出演シーン位置特定部113は、検索対象画像のサイズが所定サイズを超えている場合に、検索対象画像が目立っていると判定する。或いは、出演シーン位置特定部113は、検索対象画像が映像フレームの中央から所定範囲内(所定領域内)に含まれる場合に、検索対象画像が目立っていると判定する。或いは、出演シーン位置特定部113が、所定サイズより大きいサイズの検索対象画像を検出するようにしてもよい。また、出演シーン位置特定部113が、フレーム中の所定範囲内(所定領域内)の検索対象画像を検出するようにしてもよい。これにより、目立っている検索対象画像が検出されることになる。
また、対象別付加情報出力領域決定モジュール115が、十分な出力領域のサイズを確保できると判断した場合に、出力合成部107は、出力領域に対して付加情報が付加された合成映像を出力する。逆に、対象別付加情報出力領域決定モジュール115が、十分な出力領域のサイズを確保できないと判断した場合には、出力合成部107は、付加情報の無いオリジナルの映像コンテンツを出力する。
(第2の実施形態)
第2の実施形態では、画像処理装置が、映像コンテンツに対応した第1の映像フレーム外に、付加情報を出力(表示)するケースについて説明する。つまり、画像処理装置が、映像コンテンツに対応した第1の映像フレーム(小画面)を含む第2の映像フレームを出力するケースにおいて、第1の映像フレーム外で且つ第2フレーム内に、対象画像に対応付けて付加情報を出力(表示)するケースについて説明する。
第2の実施形態では、画像処理装置が、映像コンテンツに対応した第1の映像フレーム外に、付加情報を出力(表示)するケースについて説明する。つまり、画像処理装置が、映像コンテンツに対応した第1の映像フレーム(小画面)を含む第2の映像フレームを出力するケースにおいて、第1の映像フレーム外で且つ第2フレーム内に、対象画像に対応付けて付加情報を出力(表示)するケースについて説明する。
図6は、映像コンテンツに対応した第1の映像フレームの外に、付加情報を出力(表示)するケースの一例を示す図である。図6に示すように、画像処理装置が、映像コンテンツを第1の映像フレームF1(小画面)で表示し、第1の映像フレームF1(小画面)を含む第2の映像フレームF2中に、付加情報(例えば出演者名(A))を出力する。例えば、付加情報は、第1の映像フレームF1の検索対象画像の近傍であって、且つ第2の映像フレームF2中に出力するのが好ましい。これにより、オリジナルの映像コンテンツを出力しつつ、付加情報を出力することが可能となる。
上記説明した第1及び第2の実施形態による作用効果についてまとめる。
上記説明した画像処理装置の付加情報出力機能によれば、ユーザは、出演者の名前又は役名等の情報を、映像を視聴しながらリアルタイムに識別することができる。また、共通の嗜好をもつ複数人からなるグループで共有可能な投稿情報をデータベース(例えば付加情報)として採用することにより、ユーザは、共通嗜好をもつグループ内で、Twitter感覚で映像を共感しながら視聴することができる。例えば、画像処理装置は、検索対象画像に対応付けて付加情報(投稿情報)を出力することができる。このようにして、画像処理装置の新たなエンターテインメント性の拡大を図ることができる。
また、上記説明では、画像処理装置が、1つの検索対象画像に対応付けて付加情報を出力(表示)するケースについて説明したが、画像処理装置は、同時に、複数の検索対象画像に対応付けて付加情報を出力(表示)することもできる。
また、上記説明では、画像処理装置は、放送される映像コンテンツに対して付加情報を付加するケースについて説明したが、非放送コンテンツに対して付加情報を付加することもできる。例えば、DVD等の光ディスクに格納された映像コンテンツに対して付加情報を付加することもできる。また、ホームビデオにより撮影されたプライベート映像コンテンツに対して付加情報を付加することもできる。この場合、プライベート映像コンテンツの再生画面上で検索対象画像の指定を受け付け、指定された検索対象画像から顔特徴データを抽出し、抽出された顔特徴データに基づき、プライベート映像コンテンツから検索対象画像を検索する。
また、上記では、画像処理装置が、指定された出演者等の画像(顔画像)を検索(検出)することを説明したが、画像処理装置は、指定された出演者以外の様々な画像を検索することもできる。例えば、画像処理装置は、指定された商品の画像(商品画像、商品名画像、商標画像)を検索し、指定された商品に対する付加情報(商品名、商品購入サイトのアドレスなど)を出力(表示)することができる。つまり、画像処理装置は、映像コンテンツの再生中に、映像コンテンツ中の商品に対応付けて、映像コンテンツの映像フレーム中又は映像フレーム外に、付加情報を出力(表示)することができる。例えば、ユーザは、付加情報を参照して、指定された商品の商品名を知ることができるし、また、指定された商品の購入サイトに簡単にアクセスすることができる。
なお、上記したモジュールとは、ハードウェアで実現するものであっても良いし、CPU等を使ってソフトウェアで実現するものであってもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
102…受信モジュール、103…デジタル復調モジュール、104…光ディスクドライブ、105…ハードディスクドライブ、106…MPEG処理モジュール、107…出力合成モジュール、110…システム制御モジュール、111…操作モジュール、112…対象被写体指定モジュール、113…出演シーン位置特定モジュール、114…対象別付加情報生成モジュール、115…対象別付加情報出力領域決定モジュール、116…通信モジュール
Claims (12)
- 対象画像を検出するための画像特徴データ、及び前記対象画像に対応付けて出力するための付加情報を取得する第1の取得手段と、
映像コンテンツを取得する第2の取得手段と、
前記画像特徴データに基づき前記映像コンテンツから前記対象画像を検出する検出手段と、
前記映像コンテンツ中の前記対象画像と前記付加情報とを対応付けた付加情報付き画像を生成し出力する画像処理手段と、
を備えた画像処理装置。 - 前記検出手段は、前記対象画像として顔画像を検出する請求項1記載の画像処理装置。
- 前記検出手段は、前記映像コンテンツに対応する第1の映像フレーム中の前記対象画像の第1の位置を検出し、
前記画像処理手段は、前記第1の位置に基づき前記付加情報を表示するための表示領域を設定し、前記表示領域に前記付加情報を設定する請求項1又は2記載の画像処理装置。 - 前記検出手段は、前記第1の映像フレーム中の非対象画像の第2の位置を検出し、
前記画像処理手段は、前記第2の位置と異なる位置に前記表示領域を設定する請求項3記載の画像処理装置。 - 前記検出手段は、前記第1の映像フレーム中から、前記第1の位置から最も近い所定サイズ以上の候補領域を検出し、
前記画像処理手段は、前記候補領域中に前記表示領域を設定する請求項4記載の画像処理装置。 - 前記検出手段は、前記第1の映像フレーム中から、前記表示領域に対応する前記映像コンテンツ中の部分色を検出し、
前記画像処理手段は、前記部分色に基づき、付加情報色を設定する請求項3乃至5の何れか1項記載の画像処理装置。 - 前記検出手段は、前記対象画像のサイズを検出し、
前記画像処理手段は、対象画像サイズに基づき、付加情報サイズを設定する請求項1乃至6の何れか1項記載の画像処理装置。 - 前記検出手段は、前記対象画像の3Dパラメータを検出し、
前記画像処理手段は、前記対象画像の3Dパラメータに基づき、前記付加情報の3Dパラメータを設定し、前記付加情報の3Dパラメータに基づき3D付加情報を生成し、前記映像コンテンツ中の前記対象画像と前記3D付加情報とを対応付けた付加情報付き3D映像を生成し出力する請求項1乃至7の何れか1項記載の画像処理装置。 - 前記出力手段は、前記映像コンテンツに対応する第1の映像フレームを含む第2の映像フレームを出力し、
前記画像処理手段は、前記第1のフレーム映像外であり且つ前記第2のフレーム映像中に、前記表示領域を設定する請求項3乃至8の何れか1項記載の画像処理装置。 - 前記検出手段は、所定サイズより大きいサイズの前記対象画像を検出する請求項1乃至9の何れか1項記載の画像処理装置。
- 前記検出手段は、前記映像コンテンツに対応する第1の映像フレーム中の所定領域内の前記対象画像を検出する請求項1乃至10の何れか1項記載の画像処理装置。
- 対象画像を検出するための画像特徴データに基づき映像コンテンツから前記対象画像を検出し、
前記対象画像と付加情報とを対応付けた付加情報付き画像を生成し、
前記画像を出力する画像処理方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011099744A JP2012231404A (ja) | 2011-04-27 | 2011-04-27 | 画像処理装置及び画像処理方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011099744A JP2012231404A (ja) | 2011-04-27 | 2011-04-27 | 画像処理装置及び画像処理方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012231404A true JP2012231404A (ja) | 2012-11-22 |
Family
ID=47432564
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011099744A Pending JP2012231404A (ja) | 2011-04-27 | 2011-04-27 | 画像処理装置及び画像処理方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012231404A (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004165986A (ja) * | 2002-11-13 | 2004-06-10 | Fuji Film Microdevices Co Ltd | 画像処理方法及びその装置 |
| JP2009232250A (ja) * | 2008-03-24 | 2009-10-08 | Panasonic Corp | 番組情報表示装置および番組情報表示方法 |
| JP2010239507A (ja) * | 2009-03-31 | 2010-10-21 | Toshiba Corp | 動画処理装置 |
| WO2011001856A1 (ja) * | 2009-06-29 | 2011-01-06 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ送信方法 |
-
2011
- 2011-04-27 JP JP2011099744A patent/JP2012231404A/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004165986A (ja) * | 2002-11-13 | 2004-06-10 | Fuji Film Microdevices Co Ltd | 画像処理方法及びその装置 |
| JP2009232250A (ja) * | 2008-03-24 | 2009-10-08 | Panasonic Corp | 番組情報表示装置および番組情報表示方法 |
| JP2010239507A (ja) * | 2009-03-31 | 2010-10-21 | Toshiba Corp | 動画処理装置 |
| WO2011001856A1 (ja) * | 2009-06-29 | 2011-01-06 | ソニー株式会社 | 立体画像データ送信装置および立体画像データ送信方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12495122B2 (en) | Systems and methods for resizing content based on a relative importance of the content | |
| US8839118B2 (en) | Users as actors in content | |
| JP5395813B2 (ja) | コンテンツおよびメタデータの消費技法 | |
| KR102246305B1 (ko) | 증강 미디어 서비스 제공 방법, 장치 및 시스템 | |
| US10129515B2 (en) | Display control device, recording control device, and display control method | |
| JP5517598B2 (ja) | 映像再生装置及びその制御方法 | |
| US9544544B2 (en) | Method and system for sharing information between users in media reproducing system | |
| KR20150093425A (ko) | 콘텐츠 추천 방법 및 장치 | |
| GB2530871A (en) | Systems and methods for performing ASR in the presence of heterographs | |
| US20240223781A1 (en) | Systems and methods for multiple bit rate content encoding | |
| TW201206166A (en) | Linking real time media context to related applications and services | |
| JP2008124574A (ja) | 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム | |
| JP2004312208A (ja) | 映像提示装置、映像提示方法及び映像提示プログラム | |
| JP5209129B1 (ja) | 情報処理装置、放送受信装置及び情報処理方法 | |
| JP2016010102A (ja) | 情報提示システム | |
| WO2016167160A1 (ja) | データ生成装置および再生装置 | |
| US11924515B2 (en) | Display device and operation method therefor | |
| KR101000924B1 (ko) | 캡션 표시 방법 및 장치 | |
| JP5458163B2 (ja) | 画像処理装置、及び画像処理装置の制御方法 | |
| JP5143270B1 (ja) | 画像処理装置、及び画像処理装置の制御方法 | |
| JP2012231404A (ja) | 画像処理装置及び画像処理方法 | |
| US20250159272A1 (en) | Television (tv) platform linked with non fungible token (nft) market, and control method for same tv platform | |
| JP7472055B2 (ja) | 電子機器、システム、およびプログラム | |
| WO2015004840A1 (ja) | 映像受信装置、情報表示方法および映像受信システム | |
| JP2014150434A (ja) | 映像出力装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121030 |