JP2014095979A - 電子機器、画像データ処理方法およびプログラム - Google Patents
電子機器、画像データ処理方法およびプログラム Download PDFInfo
- Publication number
- JP2014095979A JP2014095979A JP2012246157A JP2012246157A JP2014095979A JP 2014095979 A JP2014095979 A JP 2014095979A JP 2012246157 A JP2012246157 A JP 2012246157A JP 2012246157 A JP2012246157 A JP 2012246157A JP 2014095979 A JP2014095979 A JP 2014095979A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- data
- object identification
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】顔などの画像中の特定のオブジェクトの認識結果を利用して、特定のイベントなどに関係した画像を効率よく検索する。
【解決手段】撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。そして、その第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。さらに、第1および第2のオブジェクト識別データと画像データの付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
【選択図】図8
【解決手段】撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。そして、その第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。さらに、第1および第2のオブジェクト識別データと画像データの付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
【選択図】図8
Description
本開示は、画像データの表示などを行う電子機器、およびその電子機器に適用される画像データ処理方法、ならびにその画像データ処理方法を実行するプログラムに関する。
従来、デジタルカメラなどの静止画像や動画像を扱う電子機器において、撮影した画像に含まれる人物の顔を画像解析処理で検出して、その検出結果に基づいた処理を行う技術が普及している。例えば、特許文献1には、動画像の記録装置において、検出した顔の形状に基づいて被写体の人物を特定し、その特定した人物が写っている過去の記録画像を検索して、動画像のプレイリストを作成する技術についての記載がある。
このような顔画像の検出結果に基づいて動画像のプレイリストを作成することで、自動的に被写体の人物に関係した画像が再生できるようになる。
このような顔画像の検出結果に基づいて動画像のプレイリストを作成することで、自動的に被写体の人物に関係した画像が再生できるようになる。
ところが、特許文献1に記載のように、単に同一人物が写っている画像を探すような処理では、的確な画像の検索が行えているとは言えない。例えば、AさんとBさんの二人で旅行した際に撮影した画像を、顔検出で検索する場合を想定する。
このような場合、電子機器の利用者は、Aさんの顔を検索対象として指定することで、電子機器が、Aさんの顔が写っている画像を検索し、Aさんが一人で写っている画像と、AさんとBさんが一緒に写っている画像を探し出す。
このような場合、電子機器の利用者は、Aさんの顔を検索対象として指定することで、電子機器が、Aさんの顔が写っている画像を検索し、Aさんが一人で写っている画像と、AさんとBさんが一緒に写っている画像を探し出す。
ところが、Bさんだけが一人で写っている画像があった場合、そのような画像はAさんの顔を検索対象として指定した状態では検索されない。このような場合、利用者は、改めてBさんの顔についても検索対象とする設定操作が必要になり、結局、旅行という1つのイベントに係わる画像を検索するのに手間がかかってしまう。また、旅行中に撮影した画像で、AさんとBさんの二人とも写っていない画像については、AさんとBさんのいずれの顔を検索対象にしても、検索されない。
本開示の電子機器、画像データ処理方法およびプログラムは、顔などの画像中の特定のオブジェクトの認識結果を利用して、特定のイベントなどに関係した画像を効率よく検索できるようにすることを目的とする。
本開示の電子機器は、画像データから特定のオブジェクトを取得するオブジェクト検出部と、検索対象の画像データの付加データを取得する付加データ取得部と、画像検索処理部とを備える。
オブジェクト検出部は、撮像して取得した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。そして、その取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。
画像検索処理部は、第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
オブジェクト検出部は、撮像して取得した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。そして、その取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。
画像検索処理部は、第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
本開示の画像データ処理方法は、観察者を撮像して取得した画像データから特定のオブジェクトを取得する第1および第2のオブジェクト識別データ取得処理と、検索対象の画像データの付加データを取得する付加データ取得処理と、表示候補選定処理とを行う。
第1のオブジェクト識別データ取得処理は、撮像処理で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。
第2のオブジェクト識別データ取得処理は、第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データ同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。
表示候補選定処理は、第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
第1のオブジェクト識別データ取得処理は、撮像処理で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する。
第2のオブジェクト識別データ取得処理は、第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データ同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する。
表示候補選定処理は、第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする。
本開示のプログラムは、以下の各手順をコンピュータが行うものである。
(a)撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得手順。
(b)第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得手順。
(c)検索対象の画像データの付加データを取得する付加データ取得手順。
(d)第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定手順。
(a)撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得手順。
(b)第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得手順。
(c)検索対象の画像データの付加データを取得する付加データ取得手順。
(d)第1および第2のオブジェクト識別データと付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定手順。
本開示によると、撮像した画像から検出したオブジェクトと同一のオブジェクトが存在する画像データが、検索対象の画像データ群から検索され、第1の候補画像データとなる。そして、その第1の候補画像データから検出した別のオブジェクトが存在する画像データが、検索対象の画像データ群から検索され、第2の候補画像データとなる。したがって、撮像した画像から検出したオブジェクトに関連した別のオブジェクトを使用した検索についても行われるようになる。
本開示によると、撮像して得られた画像から検出したオブジェクトと、そのオブジェクトを使って検索された画像から得られた別のオブジェクトの、少なくとも2つのオブジェクトを使用した画像の検索が行われ、画像の検索が効率良く行えるようになる。
本開示の一実施の形態の例を、以下の順序で説明する。
1.利用形態の概要(図1)
2.表示装置の構成例(図2)
3.表示候補画像選択処理例(図3)
4.候補画像の優先順位設定処理例(図4)
5.第三者の選定処理例(図5)
6.イベント分類条件の設定処理例(図6)
7.表示候補画像の編集処理例(図7)
8.イベントの分類例および表示例(図8,図9)
9.イベントの分類条件の設定画面の例(図10,図11)
10.シークレット設定画面の例(図12〜図14)
11.変形例(図15)
1.利用形態の概要(図1)
2.表示装置の構成例(図2)
3.表示候補画像選択処理例(図3)
4.候補画像の優先順位設定処理例(図4)
5.第三者の選定処理例(図5)
6.イベント分類条件の設定処理例(図6)
7.表示候補画像の編集処理例(図7)
8.イベントの分類例および表示例(図8,図9)
9.イベントの分類条件の設定画面の例(図10,図11)
10.シークレット設定画面の例(図12〜図14)
11.変形例(図15)
[1.利用形態の概要]
図1は、本開示の一実施の形態の例の利用形態の概要を示す図である。
図1に示すように、表示装置100は表示パネル110と撮像部120を備える。撮像部120は、表示パネル110で表示される画像の観察者aを撮像する。
また、表示装置100は、予め多数の静止画像や動画像を画像ファイルとして蓄積し、その蓄積した画像ファイル内の画像を検索する機能を有する。検索対象の画像ファイルは、表示装置100の外部が記憶してもよい。画像ファイル内の画像は、静止画像と動画像のいずれでもよい。検索対象の画像ファイル内の各画像データは、撮影日時や撮影場所などの付加データを有する。
図1は、本開示の一実施の形態の例の利用形態の概要を示す図である。
図1に示すように、表示装置100は表示パネル110と撮像部120を備える。撮像部120は、表示パネル110で表示される画像の観察者aを撮像する。
また、表示装置100は、予め多数の静止画像や動画像を画像ファイルとして蓄積し、その蓄積した画像ファイル内の画像を検索する機能を有する。検索対象の画像ファイルは、表示装置100の外部が記憶してもよい。画像ファイル内の画像は、静止画像と動画像のいずれでもよい。検索対象の画像ファイル内の各画像データは、撮影日時や撮影場所などの付加データを有する。
そして、表示装置100は、撮像部120が撮像して得た観察者aの顔を画像解析処理で検出し、顔の特徴を示す情報を取得する。この顔の特徴を示す情報を取得すると、表示装置100は、蓄積した画像ファイルを検索し、観察者aの顔が写っている画像を探し出す。そして、表示パネル110は、探し出した画像の一覧を表示する。
例えば、図1の下側に示すように、表示パネル110の画面110aが、「Aさんが参加しているイベント」として、観察者aの顔が写っている第1のグループの画像P1と、第2のグループの画像P2と、第3のグループの画像P3のアイコンを表示する。
例えば、図1の下側に示すように、表示パネル110の画面110aが、「Aさんが参加しているイベント」として、観察者aの顔が写っている第1のグループの画像P1と、第2のグループの画像P2と、第3のグループの画像P3のアイコンを表示する。
さらに本実施の形態の例の場合には、それぞれのグループの画像P1,P2,P3の画像解析処理を行い、画像内に写っている顔の検出処理を行い、その中で特定の人の顔が複数あったとき、その人を知人に設定する。そして、表示装置100は、蓄積した画像ファイルを検索し、その知人の顔が写っている画像を探し出し、知人の顔が写っている第4のグループの画像P4と、第5のグループの画像P5のアイコンを表示する。なお、画像のグループ分けは、それぞれの画像データの付加データに基づいて行う。例えば、撮影日や撮影場所に基づいて、表示装置100がグループ分けを行う。
それぞれのアイコンP1〜P5のいずれかを観察者aがリモートコントローラなどの操作で選択することで、表示パネル110は、その選択されたアイコンで示すグループの画像を順に表示する。
このように本実施の形態の例では、表示装置100は、その表示装置100の前にいる観察者自身が写っている画像を検索して表示することができる。さらに、その観察者自身が写っている画像に、観察者と一緒に写っていることがある人を知人とし、表示装置100が、その知人が写っている画像についても検索して表示することができる。
このように本実施の形態の例では、表示装置100は、その表示装置100の前にいる観察者自身が写っている画像を検索して表示することができる。さらに、その観察者自身が写っている画像に、観察者と一緒に写っていることがある人を知人とし、表示装置100が、その知人が写っている画像についても検索して表示することができる。
[2.表示装置の構成例]
図2は、表示装置100の構成例を示す図である。
表示装置100は、液晶画像表示パネルなどから構成される表示パネル110を備え、表示パネル駆動部112が表示パネル110での画像表示の駆動を行う。表示パネル110が表示する画像データは、画像選択部132で選択されて画像処理部111に供給される。画像処理部111で表示のための画像処理が施された画像データが、表示パネル駆動部112に供給される。
図2は、表示装置100の構成例を示す図である。
表示装置100は、液晶画像表示パネルなどから構成される表示パネル110を備え、表示パネル駆動部112が表示パネル110での画像表示の駆動を行う。表示パネル110が表示する画像データは、画像選択部132で選択されて画像処理部111に供給される。画像処理部111で表示のための画像処理が施された画像データが、表示パネル駆動部112に供給される。
表示装置100は、テレビジョン放送などを受信するチューナ131を備え、チューナ131で受信して得た画像データが、画像選択部132を介して画像処理部111に供給され、表示パネル110が表示を行う。但し、表示装置100はチューナ131を備えない構成でもよい。また、表示装置100内の画像データ蓄積部134が蓄積した画像データなどが、画像選択部132を介して画像処理部111に供給され、表示パネル110が表示を行う。
画像データ蓄積部134は、例えばハードディスクドライブ装置や半導体メモリなどを使用した比較的大容量の画像データ記憶部である。画像データ蓄積部134は、例えば外部のカメラ装置(図示せず)から転送された画像データ(静止画像データおよび動画像データ)を蓄積する。画像データ蓄積部134が蓄積する画像データには、撮影日時や撮影場所などの付加データを有する。
また、表示装置100は、顔認識処理部135を備え、画像データ蓄積部134が蓄積した画像の解析処理を行って、画像内の顔を検出する処理を行う。但し、後述する変形例で述べるように、検出する対象が顔以外のオブジェクトである場合には、顔認識処理部135が、その顔以外のオブジェクト検出部として機能する。顔認識処理部135が検出した結果が、制御部137に供給される。
さらに、表示装置100は、付加データ取得部136を備え、画像データ蓄積部134が蓄積した画像の付加データを取得する。この付加データ取得部136が取得した付加データを制御部137が判断して、制御部137が画像データのグループ分けを行う。
そして、制御部137は、顔認識処理部135での検出結果や、各画像データの付加データなどに基づいて、画像データ蓄積部134が蓄積した画像の検索処理を行う。したがって、制御部137は、画像検索処理部としての機能を有する。
なお、制御部137が、画像の検索やグループ分けなどの処理の制御を行う際には、内部バスを介して制御部137と接続されたメモリ138を使用して、データの一時記憶や検索結果の記憶などを行う。画像の検索処理を実行するプログラムは、例えばメモリ138が記憶する。
さらに、表示装置100は、付加データ取得部136を備え、画像データ蓄積部134が蓄積した画像の付加データを取得する。この付加データ取得部136が取得した付加データを制御部137が判断して、制御部137が画像データのグループ分けを行う。
そして、制御部137は、顔認識処理部135での検出結果や、各画像データの付加データなどに基づいて、画像データ蓄積部134が蓄積した画像の検索処理を行う。したがって、制御部137は、画像検索処理部としての機能を有する。
なお、制御部137が、画像の検索やグループ分けなどの処理の制御を行う際には、内部バスを介して制御部137と接続されたメモリ138を使用して、データの一時記憶や検索結果の記憶などを行う。画像の検索処理を実行するプログラムは、例えばメモリ138が記憶する。
また、表示装置100は、撮像部120を備える。撮像部120は、図1に示すように、表示装置100の前方にいる観察者の顔を撮像するものである。撮像部120が撮像して得た画像データが、顔認識処理部135に供給され、顔認識処理部135が、撮像部120が撮像した画像内に写っている顔の検出処理を行う。顔認識処理部135が検出した顔の情報が、制御部13に供給される。なお、表示パネル110が、撮像部120が撮像した画像を表示するようにしてもよい。また、撮像部120は表示装置100と一体でなくてもよい。
さらに、表示装置100は、通信部133を備え、通信部133がネットワーク90を経由して、外部のサーバ91や端末装置92と通信を行う。この通信部133による通信で、サーバ91や端末装置92が蓄積した画像データを、制御部137が検索するようにしてもよい。あるいは、検索処理そのものは、サーバ91や端末装置92が行い、表示装置100の制御部137は、検索結果を取得するようにしてよい。
[3.表示候補画像選択処理例]
図3は、本開示の一実施の形態による表示候補画像選択処理の全体の流れの例を示すフローチャートである。ここでは、表示装置100内の画像データ蓄積部134が蓄積した画像データを検索対象とし、制御部137が検索した結果を表示パネル110が表示するものとする。また、検索対象の画像データは、予めイベントごとにグループ分けが行われているものとする。このイベントごとにグループ分けを行う条件は後述する(図6のフローチャート)。なお、画像データ蓄積部134が蓄積した画像データの内で、グループ分けでいずれのイベントにも属さない画像データについては、検索対象の画像データの候補から除外してもよい。
図3は、本開示の一実施の形態による表示候補画像選択処理の全体の流れの例を示すフローチャートである。ここでは、表示装置100内の画像データ蓄積部134が蓄積した画像データを検索対象とし、制御部137が検索した結果を表示パネル110が表示するものとする。また、検索対象の画像データは、予めイベントごとにグループ分けが行われているものとする。このイベントごとにグループ分けを行う条件は後述する(図6のフローチャート)。なお、画像データ蓄積部134が蓄積した画像データの内で、グループ分けでいずれのイベントにも属さない画像データについては、検索対象の画像データの候補から除外してもよい。
まず、制御部137は、撮像部120が撮像した画像から、顔認識処理部135で観察者の顔が検出されたか否かを判断する(ステップS11)。この判断で、顔が検出されない場合、制御部137は、顔が検出されるまで待機する。そして、顔が検出されたと判断したとき、顔認識処理部135が鑑賞者の顔の識別処理を行い、顔の識別情報を取得する(ステップS12)。
鑑賞者の顔の識別情報を取得すると、顔認識処理部135が、画像データ蓄積部134が蓄積した検索対象の全ての画像データについて、顔認識処理を行う(ステップS13)。この顔認識処理で、制御部137は、鑑賞者の顔が検出されたか否かを判断する(ステップS14)。この判断で、鑑賞者の顔が検出されない場合は、表示候補となる画像がなく、表示候補選択処理を終了する。
そして、ステップS13で鑑賞者の顔が検出された場合には、制御部137は、鑑賞者の顔が検出された画像が属するグループ内の各画像から、鑑賞者以外の第三者の顔が検出されたか否かを判断する(ステップS15)。なお、同じグループ内の画像に写っている第三者が複数(多数)である場合には、後述する図5のフローチャートの処理で、検索に使用する第三者を絞る処理を行う。
ステップS15で鑑賞者以外の第三者の顔が検出された場合、さらに制御部137は、検出された第三者の顔が写った画像が含まれた別のイベントの検索を行う。そして、制御部137は、その検索で見つかったイベントの画像と、鑑賞者の顔が検出されたイベントの画像を表示候補とする(ステップS16)。
また、ステップS15で鑑賞者以外の第三者の顔が検出されない場合、制御部137は、鑑賞者の顔が検出されたイベントの画像を表示候補とする(ステップS17)。
また、ステップS15で鑑賞者以外の第三者の顔が検出されない場合、制御部137は、鑑賞者の顔が検出されたイベントの画像を表示候補とする(ステップS17)。
[4.候補画像の優先順位設定処理例]
図3のフローチャートの処理で表示候補となったイベントの画像には、それぞれの画像からの顔の検出状態に応じて、制御部137がイベントごとに表示候補の優先順位を付ける。そして、制御部137は、その優先順位に基づいて表示候補のアイコンの表示順序を決める。
図3のフローチャートの処理で表示候補となったイベントの画像には、それぞれの画像からの顔の検出状態に応じて、制御部137がイベントごとに表示候補の優先順位を付ける。そして、制御部137は、その優先順位に基づいて表示候補のアイコンの表示順序を決める。
図4のフローチャートは、表示候補のイベントの画像の優先順位の設定例である。まず、制御部137は、選び出されたイベントが、鑑賞者自身の顔が写っている画像を有するイベントであるか否かを判断する(ステップS21)。この判断で、鑑賞者自身の顔だけが写っている画像を有するイベント(つまり第三者が写っていないイベント)である場合には、制御部137は、該当するイベント内の画像を、優先順位が1番目の候補画像にする(ステップS22)。
また、ステップS21で、鑑賞者自身の顔だけが写っているイベントでないと判断したとき、制御部137は、選び出されたイベントが、同一フレームの画像に鑑賞者と第三者が一緒に写っている画像を有するイベントであるか否かを判断する(ステップS23)。この判断で、同一フレームの画像に鑑賞者と第三者が一緒に写っている画像を有するイベントである場合には、制御部137は、該当するイベント内の画像を、優先順位が2番目の候補画像にする(ステップS24)。
また、ステップS23で、鑑賞者と第三者が一緒に写っている画像がないイベントと判断したとき、制御部137は、選び出されたイベントが、第三者が写っている画像を有するイベントであるか否かを判断する(ステップS25)。この判断で、第三者が写っている画像を有するイベントである場合には、該当するイベント内の画像を、優先順位が3番目の候補画像にする(ステップS26)。そして、第三者が写っている画像がない場合には、誤って選択されたイベントであり、制御部137は、そのイベントを候補画像から削除する(ステップS27)。
なお、図4のフローチャートでは、優先順位として1番目から3番目までを設定したが、例えば優先順位1番目と優先順位2番目の表示候補は、同じ優先順位に扱うようにしてもよい。
[5.第三者の選定処理例]
図5のフローチャートは、図3のフローチャートに示した第三者を確定する処理例である。
制御部137は、鑑賞者の顔が検出された画像に一緒に写っている別の顔が、同一イベント内の複数の画像から検出された顔であるか否かを判断する(ステップS31)。ここでの複数の画像とは、例えば静止画像の場合には、1枚ごとの画像(1フレームごとの画像)を1つの画像とし、動画像の場合には、1記録単位の画像(例えば1回の記録開始から記録終了までの画像)を1つの画像とする。
図5のフローチャートは、図3のフローチャートに示した第三者を確定する処理例である。
制御部137は、鑑賞者の顔が検出された画像に一緒に写っている別の顔が、同一イベント内の複数の画像から検出された顔であるか否かを判断する(ステップS31)。ここでの複数の画像とは、例えば静止画像の場合には、1枚ごとの画像(1フレームごとの画像)を1つの画像とし、動画像の場合には、1記録単位の画像(例えば1回の記録開始から記録終了までの画像)を1つの画像とする。
この判断で、同一イベント内の複数の画像から検出された顔がある場合に、制御部137は、同一の顔が写っている数に応じて、上位の所定数の顔を、第三者の候補に選定する(ステップS32)。
例えば、1つのイベントが10枚の静止画像で構成され、その7枚の静止画像に鑑賞者の顔が写っているとする。さらに、鑑賞者以外の顔として、7枚の内の3枚に写っている顔(第1の顔)と、2枚に写っている顔(第2の顔)と、1枚にだけ写っている顔(第3の顔)があるとする。このとき、制御部137は、例えば一番多くの画像に写っている第1の顔を、第三者に確定する。あるいは、制御部137は、第1の顔と、第2の顔の二人を第三者に確定する。
例えば、1つのイベントが10枚の静止画像で構成され、その7枚の静止画像に鑑賞者の顔が写っているとする。さらに、鑑賞者以外の顔として、7枚の内の3枚に写っている顔(第1の顔)と、2枚に写っている顔(第2の顔)と、1枚にだけ写っている顔(第3の顔)があるとする。このとき、制御部137は、例えば一番多くの画像に写っている第1の顔を、第三者に確定する。あるいは、制御部137は、第1の顔と、第2の顔の二人を第三者に確定する。
図5のフローチャートの説明に戻ると、ステップS31で、鑑賞者の顔が検出された画像から別の顔が検出されない場合、制御部137は、同一イベント内のその他の複数の画像から検出された複数の顔があるか否かを判断する(ステップS33)。
この判断で、同一イベント内の鑑賞者が写っていない複数の画像から検出された顔がある場合に、制御部137は、同一の顔が写っている数に応じて、上位の所定数の顔を、第三者の候補に選定する(ステップS34)。
例えば、1つのイベントを構成する多数の静止画像の内で、鑑賞者が写っていない画像が3枚であるとする。この3枚の内の全てに写っている顔(第4の顔)と、2枚に写っている顔(第5の顔)と、1枚だけに写っている顔(第6の顔)があるとする。このとき、制御部137は、例えば一番多くの画像に写っている第4の顔を、第三者に確定する。あるいは、制御部137は、第4の顔と、第5の顔の二人を第三者に確定する。
この判断で、同一イベント内の鑑賞者が写っていない複数の画像から検出された顔がある場合に、制御部137は、同一の顔が写っている数に応じて、上位の所定数の顔を、第三者の候補に選定する(ステップS34)。
例えば、1つのイベントを構成する多数の静止画像の内で、鑑賞者が写っていない画像が3枚であるとする。この3枚の内の全てに写っている顔(第4の顔)と、2枚に写っている顔(第5の顔)と、1枚だけに写っている顔(第6の顔)があるとする。このとき、制御部137は、例えば一番多くの画像に写っている第4の顔を、第三者に確定する。あるいは、制御部137は、第4の顔と、第5の顔の二人を第三者に確定する。
この図5のフローチャートの処理を行うことで、制御部137は、鑑賞者と比較的親しい関係にあると思われる第三者を選び出すようになる。
[6.イベント分類条件の設定処理例]
図6のフローチャートは、画像データ蓄積部134が蓄積した画像を、制御部137がイベントごとの画像に分類する場合の、分類条件を決める例である。この分類条件は、例えば表示装置100の利用者(鑑賞者)が、リモートコントローラなどを操作して設定する。
まず制御部137は、分類条件として人物が設定されているか否かを判断する(ステップS41)。この判断で、人物が分類条件に設定されている場合、イベント分類条件に指定された人物の顔を加える(ステップS42)。この分類条件の設定があることで、制御部137は、例えば特定の人物の顔が写っている画像を、1つのイベントに分類する。
図6のフローチャートは、画像データ蓄積部134が蓄積した画像を、制御部137がイベントごとの画像に分類する場合の、分類条件を決める例である。この分類条件は、例えば表示装置100の利用者(鑑賞者)が、リモートコントローラなどを操作して設定する。
まず制御部137は、分類条件として人物が設定されているか否かを判断する(ステップS41)。この判断で、人物が分類条件に設定されている場合、イベント分類条件に指定された人物の顔を加える(ステップS42)。この分類条件の設定があることで、制御部137は、例えば特定の人物の顔が写っている画像を、1つのイベントに分類する。
次に、制御部137は、分類条件として特定の被写体(物)が設定されているか否かを判断する(ステップS43)。この判断で、特定の物が分類条件に設定されている場合、イベント分類条件に指定された物を加える(ステップS44)。この分類条件の設定があることで、制御部137は、例えば特定の物が写っている画像を、1つのイベントに分類する。例えば、自動車という物が指定されたとき、制御部137は、自動車が写っている画像を、1つのイベントに分類する。
次に、制御部137は、分類条件として特定の被写体(物)が設定されているか否かを判断する(ステップS43)。この判断で、特定の物が分類条件に設定されている場合、イベント分類条件に指定された物を加える(ステップS44)。この分類条件の設定があることで、制御部137は、例えば特定の物が写っている画像を、1つのイベントに分類する。例えば、自動車という物が指定されたとき、制御部137は、自動車が写っている画像を、1つのイベントに分類する。
そして、制御部137は、分類条件として撮影場所が設定されているか否かを判断する(ステップS45)。この判断で、撮影場所が分類条件に設定されている場合、イベント分類条件に撮影場所を加える(ステップS46)。この分類条件の設定があることで、制御部137は、例えば各画像の付加データで撮影場所を判断し、撮影場所が近い画像同士を1つのイベントに分類する。
さらに、制御部137は、分類条件として撮影日が設定されているか否かを判断する(ステップS47)。この判断で、撮影日が分類条件に設定されている場合、イベント分類条件に撮影日を加える(ステップS48)。この分類条件の設定があることで、制御部137は、例えば各画像の付加データで撮影日を判断し、同じ日に撮影された画像を1つのイベントに分類する。
さらにまた、制御部137は、分類条件として撮影時間帯が設定されているか否かを判断する(ステップS49)。この判断で、撮影時間帯が分類条件に設定されている場合、イベント分類条件に撮影時間帯を加える(ステップS50)。この分類条件の設定があることで、制御部137は、例えば各画像の付加データで撮影時間帯を判断し、同じ撮影時間帯に撮影された画像を1つのイベントに分類する。例えば、夕方という時間帯を設定したとき、制御部137は、夕方の時間帯に撮影された画像を1つのイベントに分類する。
なお、複数の分類条件が同時に設定されている場合には、制御部137は、その複数の分類条件で1つのイベントに分類する処理を行う。例えば、撮影日と撮影場所の条件が設定されているとき、制御部137は、同じ撮影日の中で、同じ撮影場所の画像ごとに、別のイベントに分類する処理を行う。
[7.表示候補画像の編集処理例]
図7は、制御部137が、表示候補として画像を選ぶ際に、候補画像から除外する画像を選ぶ編集処理の例を示すフローチャートである。
まず、制御部137は、表示候補として選ばれたイベント内の画像に、シークレットタグが付与された画像があるか否かを判断する(ステップS61)。この判断で、表示候補として選ばれた画像に、シークレットタグが付与された画像があったとき、制御部137は、該当する画像を、表示候補画像から除く処理を行う(ステップS63)。シークレットタグは、予め表示装置100の利用者が、画像データ蓄積部134に蓄積された画像の中で、公開したくない画像に対して設定されるものである。
図7は、制御部137が、表示候補として画像を選ぶ際に、候補画像から除外する画像を選ぶ編集処理の例を示すフローチャートである。
まず、制御部137は、表示候補として選ばれたイベント内の画像に、シークレットタグが付与された画像があるか否かを判断する(ステップS61)。この判断で、表示候補として選ばれた画像に、シークレットタグが付与された画像があったとき、制御部137は、該当する画像を、表示候補画像から除く処理を行う(ステップS63)。シークレットタグは、予め表示装置100の利用者が、画像データ蓄積部134に蓄積された画像の中で、公開したくない画像に対して設定されるものである。
また、ステップS61で、シークレットタグが付与された画像がないと判断した場合、制御部137は、表示候補として選ばれた画像の中に、表示除外者として設定された人物の顔が写っている画像があるか否かを判断する(ステップS62)。
この判断で、表示候補として選ばれた画像に、表示除外者として設定された人物の顔が写っているとき、制御部137は、ステップS63の処理に移り、該当する画像を、表示候補画像から除く処理を行う。
この判断で、表示候補として選ばれた画像に、表示除外者として設定された人物の顔が写っているとき、制御部137は、ステップS63の処理に移り、該当する画像を、表示候補画像から除く処理を行う。
[8.イベントの分類例および表示例]
次に、本開示の実施の形態の例で表示候補として分類される例と、表示候補の表示画面の例について説明する。
図8は、画像データ蓄積部134が蓄積した検索対象の画像が、5つのイベント1〜5に分類されたとき、それぞれのイベント1〜5が、表示候補になるか否かを示す図である。
この図8の例では、観察者aと第三者bとが写っている画像がある場合の例である。
例えば、イベント1とイベント3には、観察者aと第三者bとが同一フレーム内に一緒に写っている画像が少なくとも1枚ある。イベント4には、観察者aだけが写っている画像が少なくとも1枚ある。イベント5には、第三者bだけが写っている画像が少なくとも1枚ある。イベント2の画像には、観察者aと第三者bは全く写っていない。
次に、本開示の実施の形態の例で表示候補として分類される例と、表示候補の表示画面の例について説明する。
図8は、画像データ蓄積部134が蓄積した検索対象の画像が、5つのイベント1〜5に分類されたとき、それぞれのイベント1〜5が、表示候補になるか否かを示す図である。
この図8の例では、観察者aと第三者bとが写っている画像がある場合の例である。
例えば、イベント1とイベント3には、観察者aと第三者bとが同一フレーム内に一緒に写っている画像が少なくとも1枚ある。イベント4には、観察者aだけが写っている画像が少なくとも1枚ある。イベント5には、第三者bだけが写っている画像が少なくとも1枚ある。イベント2の画像には、観察者aと第三者bは全く写っていない。
このような5つのイベント1〜5に分類された画像があるとき、制御部137は、イベント1,3,4,5を表示候補に選び、イベント2を表示候補にしない。すなわち、制御部137は、観察者自身が写っているイベント1,3,4を表示候補に選ぶと共に、イベント1,3内の複数の画像に写っている第三者bの画像があるイベント5を表示候補に選ぶ。したがって、本実施の形態の例の表示装置によると、観察者と親しいと思われる第三者(知人、家族など)が写ったイベントについても自動的に表示候補になり、表示候補の選定が良好に行われる。
図9は、表示装置100の表示パネル110が行う、表示候補の表示例を示す図である。
この例では、表示パネル110の表示領域を上段と下段に分け、優先順位が高い画像を含むイベントである、観察者が参加しているイベントを示す画像群のアイコンの一覧が、上段に表示される。そして、優先順位が低い画像を含むイベントである、第三者(観察者の知人)が参加しているイベントを示す画像群のアイコンの一覧が、下段に表示される。
なお、この図9の例では、観察者の顔の画像を同時に表示した例を示す。
この例では、表示パネル110の表示領域を上段と下段に分け、優先順位が高い画像を含むイベントである、観察者が参加しているイベントを示す画像群のアイコンの一覧が、上段に表示される。そして、優先順位が低い画像を含むイベントである、第三者(観察者の知人)が参加しているイベントを示す画像群のアイコンの一覧が、下段に表示される。
なお、この図9の例では、観察者の顔の画像を同時に表示した例を示す。
[9.イベントの分類条件の設定画面の例]
次に、図10および図11を参照して、イベントの分類条件や表示条件の設定画面の例を示す。
図10に示すように、表示パネル110は、イベントの分類条件として、「人物」、「物」、「場所」、「日にち」、「時間帯」の5つの項目を表示し、その5つの項目の中で、利用者の操作で選択した項目にチェックの印を表示する。図10の例は、「物」と「場所」をチェックした状態を示す。
次に、図10および図11を参照して、イベントの分類条件や表示条件の設定画面の例を示す。
図10に示すように、表示パネル110は、イベントの分類条件として、「人物」、「物」、「場所」、「日にち」、「時間帯」の5つの項目を表示し、その5つの項目の中で、利用者の操作で選択した項目にチェックの印を表示する。図10の例は、「物」と「場所」をチェックした状態を示す。
図11の例は、表示候補として選ぶイベントの条件として、特定の人物が含まれている画像を選ぶ画面の例である。この図11に示すように、表示パネル110は、特定の画像を表示し、その画像内の特定の顔(図11中に枠で囲んだ顔)が写っているイベントを表示するか否かを、利用者に選択させる画面を表示する。
[10.シークレット設定画面の例]
図12〜図14は、画像にシークレットタグを設定する場合の操作画面の例を示す。
図12は、シークレットタグを設定するイベントの条件の入力画面の例を示す。この例では、イベント分類の入力画面(図10)と同様に、「人物」、「物」、「場所」、「日にち」、「時間帯」の5つの項目を表示し、その5つの項目の中で、利用者の操作で選択した項目にチェックの印を表示する。図12の例は、「人物」と「場所」をチェックした状態を示す。
図12〜図14は、画像にシークレットタグを設定する場合の操作画面の例を示す。
図12は、シークレットタグを設定するイベントの条件の入力画面の例を示す。この例では、イベント分類の入力画面(図10)と同様に、「人物」、「物」、「場所」、「日にち」、「時間帯」の5つの項目を表示し、その5つの項目の中で、利用者の操作で選択した項目にチェックの印を表示する。図12の例は、「人物」と「場所」をチェックした状態を示す。
図13は、特定の人物を非表示にする場合の設定画面の例を示す。図13は、表示した画像中の非表示に設定したい人物の顔に枠を付けて、その人物が写っているイベントを非表示にするか否かを選択する表示形態を示す。このような画面で非表示を設定することで、検索候補から該当するイベントまたは画像が除外されるようになる。
図14は、シークレットに設定した画像の一覧の画面の例である。図14に示すように、表示パネル110は、シークレットに設定したイベントのアイコンとタイトルまたはファイル名の一覧を表示する。このとき、図14の下側に示すように、例えば「これでOK」と「編集する」の項目を表示する。利用者は、いずれかの項目を選択する操作を行うことで、シークレットに設定したイベントや画像を確定する場合と、再度編集する場合を選択することができる。
[11.変形例]
図15は、本開示の一実施の形態の変形例を示す図である。
この例では、ネットワーク90で接続された他の端末装置92(図2)と、画像の表示候補を共有する例を示す。
図15では、画像の左下に相手の端末装置92の利用者の画像を表示し、画像の右下に表示装置100の観察者の画像を表示する。そして、端末装置92側で表示候補になった画像を表示装置100に転送して、表示装置100が表示した状態を示す。
このように複数台の表示装置や端末装置の間で、表示候補の画像を共有することで、蓄積した画像の多彩な利用形態に対応できるようになる。
図15は、本開示の一実施の形態の変形例を示す図である。
この例では、ネットワーク90で接続された他の端末装置92(図2)と、画像の表示候補を共有する例を示す。
図15では、画像の左下に相手の端末装置92の利用者の画像を表示し、画像の右下に表示装置100の観察者の画像を表示する。そして、端末装置92側で表示候補になった画像を表示装置100に転送して、表示装置100が表示した状態を示す。
このように複数台の表示装置や端末装置の間で、表示候補の画像を共有することで、蓄積した画像の多彩な利用形態に対応できるようになる。
また、ここまで説明した実施の形態では、撮像装置が撮像した画像から観察者の顔の識別データを取得し、その観察者の顔の識別データに基づいて、検索対象の画像から同じ顔を検索するようにし、さらに別の者(第三者)の顔の識別データを取得するようにした。
これに対して、顔以外の画像中のオブジェクト(物体)を、同様の処理で識別して、そのオブジェクトの識別データを取得して、その識別データに基づいた同様の処理を行うようにしてもよい。例えば、特定の形状の自動車を撮像部で撮像したとき、その撮像した自動車と同一形状の自動車を、検索対象の画像から探し出すと共に、その自動車と一緒に写っている別のオブジェクト(自動車または人物など)を探し出すようにしてもよい。
これに対して、顔以外の画像中のオブジェクト(物体)を、同様の処理で識別して、そのオブジェクトの識別データを取得して、その識別データに基づいた同様の処理を行うようにしてもよい。例えば、特定の形状の自動車を撮像部で撮像したとき、その撮像した自動車と同一形状の自動車を、検索対象の画像から探し出すと共に、その自動車と一緒に写っている別のオブジェクト(自動車または人物など)を探し出すようにしてもよい。
また、ここまで説明した実施の形態では、表示装置に適用した例を示した。これに対して、その他の各種電子機器に本開示の実施の形態を適用してもよい。例えば、撮像部と表示部とを備えたスマートフォンと称される携帯電話端末装置や、タブレット端末と称される情報処理端末装置が、本開示の処理を行うようにしてもよい。これらの端末装置は、撮像部と表示部を備え、本開示の処理を行うプログラム(ソフトウェア)を実装することで、図1,図2に示す表示装置100と同様の機能が実現できる。
また、コンピュータに、本開示の処理を行うプログラムを実装して、本開示の処理するようにしてもよい。プログラムは、例えば光ディスクや半導体メモリなどの記憶媒体に記憶させてもよい。あるいは、インターネットなどのネットワークを経由して、コンピュータにプログラムを伝送するようにしてもよい。
また、コンピュータに、本開示の処理を行うプログラムを実装して、本開示の処理するようにしてもよい。プログラムは、例えば光ディスクや半導体メモリなどの記憶媒体に記憶させてもよい。あるいは、インターネットなどのネットワークを経由して、コンピュータにプログラムを伝送するようにしてもよい。
なお、本開示は以下のような構成も取ることができる。
(1)
撮像部と、
前記撮像部が撮像した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得すると共に、取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得するオブジェクト検出部と、
検索対象の画像データの付加データを取得する付加データ取得部と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする画像検索処理部とを備えた
電子機器。
(2)
前記オブジェクト検出部が検出する前記第1および第2のオブジェクト識別データは、画像に含まれる顔の識別データである
前記(1)記載の電子機器。
(3)
前記画像検索処理部は、前記付加データに基づいてグループ分けした候補画像データの内の、前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループを、前記候補画像データに含ませる
前記(1)または(2)記載の電子機器。
(4)
前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループは、前記第1のオブジェクト識別データによる顔と前記第2のオブジェクト識別データによる顔の双方が検出される画像データが含まれるグループより低い優先順位の表示候補にする
前記(3)記載の電子機器。
(5)
前記オブジェクト検出部は、前記第1のオブジェクト識別データによる顔が検出された画像データと同一グループの画像データを検索対象として、その検索対象の画像データ内より最も多く検出された顔から前記第2のオブジェクト識別データを得る
前記(1)〜(4)のいずれか1項に記載の電子機器。
(6)
前記画像検索処理部は、前記付加データで示される撮影場所と撮影日と撮影時間帯の少なくとも1つの要件に基づいて候補画像データをグループ分けする
前記(1)〜(5)のいずれか1項に記載の電子機器。
(7)
前記画像検索処理部は、シークレットにするタグが付加された画像データを、候補画像データから除外する
前記(1)〜(6)のいずれか1項に記載の電子機器。
(8)
観察者を撮像する撮像処理と、
前記撮像処理で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得処理と、
前記第1のオブジェクト識別データ取得処理で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得処理と、
検索対象の画像データの付加データを取得する付加データ取得処理と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定処理とを含む
画像データ処理方法。
(9)
観察者を撮像する撮像手順と、
前記撮像手順で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得手順と、
前記第1のオブジェクト識別データ取得手順で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得手順と、
検索対象の画像データの付加データを取得する付加データ取得手順と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定手順とを、
コンピュータに実行させる
プログラム。
(1)
撮像部と、
前記撮像部が撮像した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得すると共に、取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得するオブジェクト検出部と、
検索対象の画像データの付加データを取得する付加データ取得部と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする画像検索処理部とを備えた
電子機器。
(2)
前記オブジェクト検出部が検出する前記第1および第2のオブジェクト識別データは、画像に含まれる顔の識別データである
前記(1)記載の電子機器。
(3)
前記画像検索処理部は、前記付加データに基づいてグループ分けした候補画像データの内の、前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループを、前記候補画像データに含ませる
前記(1)または(2)記載の電子機器。
(4)
前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループは、前記第1のオブジェクト識別データによる顔と前記第2のオブジェクト識別データによる顔の双方が検出される画像データが含まれるグループより低い優先順位の表示候補にする
前記(3)記載の電子機器。
(5)
前記オブジェクト検出部は、前記第1のオブジェクト識別データによる顔が検出された画像データと同一グループの画像データを検索対象として、その検索対象の画像データ内より最も多く検出された顔から前記第2のオブジェクト識別データを得る
前記(1)〜(4)のいずれか1項に記載の電子機器。
(6)
前記画像検索処理部は、前記付加データで示される撮影場所と撮影日と撮影時間帯の少なくとも1つの要件に基づいて候補画像データをグループ分けする
前記(1)〜(5)のいずれか1項に記載の電子機器。
(7)
前記画像検索処理部は、シークレットにするタグが付加された画像データを、候補画像データから除外する
前記(1)〜(6)のいずれか1項に記載の電子機器。
(8)
観察者を撮像する撮像処理と、
前記撮像処理で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得処理と、
前記第1のオブジェクト識別データ取得処理で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得処理と、
検索対象の画像データの付加データを取得する付加データ取得処理と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定処理とを含む
画像データ処理方法。
(9)
観察者を撮像する撮像手順と、
前記撮像手順で撮像して得られた画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得手順と、
前記第1のオブジェクト識別データ取得手順で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得手順と、
検索対象の画像データの付加データを取得する付加データ取得手順と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定手順とを、
コンピュータに実行させる
プログラム。
さらに、本発明の請求項に記載した構成や処理は、上述した実施の形態の例に限定されるものではない。本発明の要旨を逸脱しない限り、種々の改変、組み合わせ、他の実施の形態例が生じうることは、当業者にとって当然のことと理解される。
90…ネットワーク、91…サーバ、92…端末装置、100…表示装置、110…表示パネル、111…画像処理部、112…表示パネル駆動部、120…撮像部、131…チューナ、132…画像選択部、133…通信部、134…画像データ蓄積部、135…顔認識処理部、136…付加データ取得部、137…制御部、138…メモリ
Claims (9)
- 撮像して取得した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得すると共に、取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得するオブジェクト検出部と、
検索対象の画像データの付加データを取得する付加データ取得部と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする画像検索処理部とを備えた
電子機器。 - 前記オブジェクト検出部が検出する前記第1および第2のオブジェクト識別データは、画像に含まれる顔の識別データである
請求項1記載の電子機器。 - 前記画像検索処理部は、前記付加データに基づいてグループ分けした候補画像データの内の、前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループを、前記候補画像データに含ませる
請求項2記載の電子機器。 - 前記第1のオブジェクト識別データによる顔が検出されず、前記第2のオブジェクト識別データによる顔が検出される画像データが含まれるグループは、前記第1のオブジェクト識別データによる顔と前記第2のオブジェクト識別データによる顔の双方が検出される画像データが含まれるグループより低い優先順位の表示候補にする
請求項3記載の電子機器。 - 前記オブジェクト検出部は、前記第1のオブジェクト識別データによる顔が検出された画像データと同一グループの画像データを検索対象として、その検索対象の画像データ内より最も多く検出された顔から前記第2のオブジェクト識別データを得る
請求項3記載の電子機器。 - 前記画像検索処理部は、前記付加データで示される撮影場所と撮影日と撮影時間帯の少なくとも1つの要件に基づいて候補画像データをグループ分けする
請求項1記載の電子機器。 - 前記画像検索処理部は、シークレットにするタグが付加された画像データを、候補画像データから除外する
請求項1記載の電子機器。 - 観察者を撮像して取得した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得処理と、
前記第1のオブジェクト識別データ取得処理で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得処理と、
検索対象の画像データの付加データを取得する付加データ取得処理と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定処理とを含む
画像データ処理方法。 - 観察者を撮像して取得した画像データから特定のオブジェクトを検出して第1のオブジェクト識別データを取得する第1のオブジェクト識別データ取得手順と、
前記第1のオブジェクト識別データ取得手順で取得した第1のオブジェクト識別データに基づいて検索された画像データまたはその画像データと同じグループ内の画像データから特定のオブジェクトを検出して第2のオブジェクト識別データを取得する第2のオブジェクト識別データ取得手順と、
検索対象の画像データの付加データを取得する付加データ取得手順と、
前記第1および第2のオブジェクト識別データと前記付加データとを使った検索で、検索対象となる画像データから候補画像データを取得し、候補画像データを表示候補とする表示候補選定手順とを、
コンピュータに実行させる
プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012246157A JP2014095979A (ja) | 2012-11-08 | 2012-11-08 | 電子機器、画像データ処理方法およびプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012246157A JP2014095979A (ja) | 2012-11-08 | 2012-11-08 | 電子機器、画像データ処理方法およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014095979A true JP2014095979A (ja) | 2014-05-22 |
Family
ID=50939015
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012246157A Pending JP2014095979A (ja) | 2012-11-08 | 2012-11-08 | 電子機器、画像データ処理方法およびプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014095979A (ja) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021073559A (ja) * | 2016-06-12 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
| US11307737B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | Media browsing user interface with intelligently selected representative media items |
| US11334209B2 (en) | 2016-06-12 | 2022-05-17 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
| US11592959B2 (en) | 2010-01-06 | 2023-02-28 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
| US11601584B2 (en) | 2006-09-06 | 2023-03-07 | Apple Inc. | Portable electronic device for photo management |
| US11782575B2 (en) | 2018-05-07 | 2023-10-10 | Apple Inc. | User interfaces for sharing contextually relevant media content |
| US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
| US12184969B2 (en) | 2016-09-23 | 2024-12-31 | Apple Inc. | Avatar creation and editing |
-
2012
- 2012-11-08 JP JP2012246157A patent/JP2014095979A/ja active Pending
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11601584B2 (en) | 2006-09-06 | 2023-03-07 | Apple Inc. | Portable electronic device for photo management |
| US11592959B2 (en) | 2010-01-06 | 2023-02-28 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
| US12197695B2 (en) | 2010-01-06 | 2025-01-14 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
| US11681408B2 (en) | 2016-06-12 | 2023-06-20 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
| US11334209B2 (en) | 2016-06-12 | 2022-05-17 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
| JP2021073559A (ja) * | 2016-06-12 | 2021-05-13 | アップル インコーポレイテッドApple Inc. | 文脈的関連メディアコンテンツを検索するためのユーザインタフェース |
| US11941223B2 (en) | 2016-06-12 | 2024-03-26 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
| US12184969B2 (en) | 2016-09-23 | 2024-12-31 | Apple Inc. | Avatar creation and editing |
| US11782575B2 (en) | 2018-05-07 | 2023-10-10 | Apple Inc. | User interfaces for sharing contextually relevant media content |
| US11854539B2 (en) | 2018-05-07 | 2023-12-26 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
| US11900923B2 (en) | 2018-05-07 | 2024-02-13 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
| US11625153B2 (en) | 2019-05-06 | 2023-04-11 | Apple Inc. | Media browsing user interface with intelligently selected representative media items |
| US11947778B2 (en) | 2019-05-06 | 2024-04-02 | Apple Inc. | Media browsing user interface with intelligently selected representative media items |
| US11307737B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | Media browsing user interface with intelligently selected representative media items |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2014095979A (ja) | 電子機器、画像データ処理方法およびプログラム | |
| US9123385B2 (en) | Information processing apparatus, information processing method, program, and surveillance system | |
| JP5438861B1 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
| JP6399356B2 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
| JP5506990B1 (ja) | 追跡支援装置、追跡支援システムおよび追跡支援方法 | |
| EP2627075B1 (en) | Auto burst image capture method applied to a mobile device and related mobile device | |
| JP4735995B2 (ja) | 画像処理装置、画像表示方法および画像表示プログラム | |
| JP6513963B2 (ja) | 電子機器及び電子機器の動作方法 | |
| EP1635573A2 (en) | Imaging system and imaging method | |
| CN105074641A (zh) | 显示控制装置、显示控制方法和显示控制程序 | |
| CN107251552A (zh) | 跟踪辅助装置、跟踪辅助系统以及跟踪辅助方法 | |
| KR101180817B1 (ko) | 재생 장치, 촬상 장치, 화면 표시 방법 및 사용자인터페이스 | |
| JP5506324B2 (ja) | 類似画像検索システム、および、類似画像検索方法 | |
| JP2011028534A (ja) | 表示処理装置、表示処理方法および表示処理プログラム | |
| US10999556B2 (en) | System and method of video capture and search optimization | |
| JP2008165701A (ja) | 画像処理装置、電子機器、画像処理方法、及び、プログラム | |
| CN110740290B (zh) | 监控录像预览方法及装置 | |
| CN107360366A (zh) | 拍照方法、装置、存储介质及电子设备 | |
| CN102651004A (zh) | 具影像获取功能的电子装置及方法 | |
| JP5826513B2 (ja) | 類似画像検索システム | |
| JP5147737B2 (ja) | 撮像装置 | |
| JP4773998B2 (ja) | 監視カメラ・システム,動画検索装置および顔画像データベース更新装置ならびにそれらの動作制御方法 | |
| JP2018025910A (ja) | 情報処理装置及びグループ化プログラム | |
| JP2017084161A (ja) | 画像処理装置、表示装置及びその制御方法 | |
| JP7581558B1 (ja) | 情報処理システム、情報処理方法及びプログラム |