以下、実施の形態について図面を参照して説明する。
図1は、実施形態の電子機器の外観を示す斜視図である。この電子機器は、例えば、ノートブックタイプのパーソナルコンピュータ10として実現されている。図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(Liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
また、コンピュータ本体11の右側面には、例えばUSB(Universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU(Central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics processing unit)105、VRAM(ビデオRAM:Random access memory)105A、サウンドコントローラ106、BIOS−ROM(Basic input/output system-read only memory)107、LAN(Local area network)コントローラ108、ハードディスクドライブ(HDD:Hard disk drive)109、光ディスクドライブ(ODD:Optical disc drive)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC:Embedded controller/keyboard controller)113、EEPROM(electrically erasable programmable ROM)114等を備える。
CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、及びフォトムービー作成アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。フォトムービー作成アプリケーションプログラム202は、例えばHDD109等に格納された各種デジタルコンテンツを再生するソフトウェアである。このフォトムービー作成アプリケーションプログラム202は、動画像生成機能を有している。この動画像生成機能は、例えば、HDD109等に格納された写真等の素材(デジタルコンテンツ)を用いて、動画像(フォトムービー、スライドショー)を作成する機能である。さらに、この動画像生成機能は、動画像の作成に用いる素材を分析する機能を含む。フォトムービー作成アプリケーションプログラム202は、素材を用いて作成された動画像を再生し、画面(LCD17)に表示する。
また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えばPCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。このGPU105によって生成される表示信号はLCD17に送られる。
サウスブリッジ104は、PCI(Peripheral component interconnect)バス上の各デバイス及びLPC(Low pin count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated drive electronics)コントローラを内蔵している。さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18Bに出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。また、カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SD(Secure digital)カード(登録商標)のようなメモリカードに対するデータの書き込み及び読み出しを実行する。
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
次いで、図3を参照して、フォトムービー作成アプリケーションプログラム202の機能構成を説明する。ここでは、フォトムービー作成アプリケーションプログラム202が有する機能のうち、動画像生成機能を実現するための構成例について説明する。この動画像生成機能は、HDD109内の所定のディレクトリ(フォルダー)に格納された複数の静止画像を用いて動画像(フォトムービー、スライドショー)を作成し、その作成した動画像を再生する。静止画像51は、例えば、デジタル写真、他の各種静止画像ファイル(JPEG)等である。用語「フォトムービー」は複数の静止画像(例えば写真)を用いて生成される動画像(ムービー)を意味する。フォトムービーの再生においては、静止画像群には様々なエフェクトまたはトランジションが施される。エフェクトまたはトランジションが施された静止画像群は音楽と一緒に再生される。フォトムービー作成アプリケーションプログラム202は、ある静止画像(キー画像)に関連する静止画像群を自動的に抽出し、抽出された静止画像群を用いてフォトムービーを作成および再生することができる。また、用語「スライドショー」は静止画像を1枚ずつ順次表示する動画像(ムービー)を意味する。スライドショーの再生において、各静止画像に様々なエフェクトを施すことも可能である。
フォトムービー作成アプリケーションプログラム202は、ユーザが設定したHDD109内のフォルダー(写真フォルダー)を監視し、1以上の新しい静止画像(写真ファイル)が写真フォルダーに格納されたことを検知すると、それら1以上の新しい静止画像に対するインデキシングを行うと同時にそれら1以上の新しい静止画像のスライドショーを開始する。これにより、インデキシングが完了するまでの待機時間中、ユーザは、新しい静止画像のスライドショーを観賞することができる。即ち、インデキシングの処理時間を隠蔽することができる。そして、インデキシングが完了すると、フォトムービー作成アプリケーションプログラム202は、1以上の新しい静止画像をベースとしたフォトムービーを作成して再生する。これにより、新しい静止画像を早く楽しみたいというユーザのニーズに応えることができる。この場合、例えば、1以上の新しい静止画像のみからフォトムービーを作成して再生しても良いし、1以上の新しい静止画像に関連する静止画像群を写真フォルダー内の静止画像群から抽出し、1以上の新しい静止画像と、それら抽出された静止画像群とを用いてフォトムービーを作成して再生しても良い。さらに、1以上の新しい静止画像のみから1つ目のフォトムービーを作成して再生した後に、1以上の新しい静止画像に関連する静止画像群を写真フォルダー内の静止画像群から抽出し、1以上の新しい静止画像と、それら抽出された静止画像群とを用いて2つ目のフォトムービーを作成して再生するようにしても良い。
フォトムービーの作成は、1枚の静止画像(キー画像)を基に行われる。つまり、選択されたキー画像に関連する静止画像群が自動抽出され、抽出された静止画像群を用いてフォトムービーが作成される。フォトムービーの作成条件として、スタイル、音楽、注目する人物(顔)の各々を選択指定することができる。選択したスタイルに応じて、使用される静止画像の抽出方法、使用されるエフェクト/トランジション等が決定される。従来では、ムービーの作成に使用する写真はユーザによって指定されるが、フォトムービー作成アプリケーションプログラム202は、写真フォルダー内の全ての静止画像から、使用する写真群を自動抽出する。これにより、思いがけない写真を掘り起こしてユーザに見せることができる。
抽出処理では、顔画像の笑顔度、顔画像の鮮明度等に従って、より写りの良い写真を抽出してもよい。また、顔クラスタリングによって各顔画像に対応する人物を認識し、例えば、選択された人物の顔画像を含む写真群、選択された人物に関連する別の人物の顔画像を含む写真群などを抽出してもよい。さらに、イベントグループ分け技術を用いて写真群を複数のイベントに分けてもよい。この場合、あるイベント内の登場人物と別のイベント内の登場人物との関係に基づいてイベント同士の関連性を推定し、その推定結果を抽出処理に使用しても良い。例えば、同一の人物が登場するイベント同士は関連性があると推定しても良い。また、例えば、ある人物Aと別の人物Bが同じ写真に写っている頻度(共起頻度)が高いならば、人物Aを含む写真が属するイベントは、人物Bを含む写真が属するイベントに関連するイベントであると推定してもよい。
フォトムービー作成アプリケーションプログラム202は、監視部21、インデキシング部22及び再生制御部23を備える。
監視部21は、HDD109内の素材データベース301を常時監視し、新たな静止画像51が例えばUSBコントローラ111A、カードコントローラ111B等のインタフェース部を介してHDD109内の素材データベース301に格納されたか否かを判定する。素材データベース301はHDD109内の所定のディレクトリ(上述の写真フォルダー)に相当する。素材データベース301に格納された各静止画像データ51は、動画像(フォトムービー、スライドショー)の素材候補として用いられる。素材データベース301には、静止画像のみならず、例えばショートムービーのような動画像を素材候補として格納してもよい。
インデキシング部22は、素材データベース301内の複数の静止画像データ51を分析し、それら複数の静止画像データ51それぞれの属性を示すインデックス情報302Aを生成する。インデキシング部22によるインデキシングは、例えば、1以上の新しい静止画像(写真ファイル)が素材データベース301に格納されたことをトリガに開始される。つまり、素材データベース301に1以上の新しい静止画像が格納された時に、インデキシング部22は、その新しい静止画像に対応するインデックス情報を生成する。
インデキシング部22は顔認識機能も有している。インデックス情報302Aには、静止画像データ51に含まれる顔画像の認識結果も含まれている。
インデキシング部22は、顔画像検出部221、クラスタリング部222、イベント検出部223、及びインデックス情報生成部224を備える。
顔画像検出部221は、インデキシング対象の静止画像データ51(例えば、写真フォルダーに新たに格納された静止画像)から顔画像を検出する。顔画像は、例えば、その静止画像51の特徴を解析し、予め用意された顔画像特徴サンプルと類似する特徴を有する領域を探索することによって検出することができる。顔画像特徴サンプルは、多数の人物それぞれの顔画像特徴を統計的に処理することによって得られた特徴データである。顔検出処理により、その静止画像データ51に含まれる顔画像に対応する領域が検出され、当該領域の位置(座標)及びサイズが検出される。
また、顔画像検出部221は検出した顔画像を分析する。顔画像検出部221は、例えば、検出した顔画像の笑顔度、鮮明度、正面度等を算出する。笑顔度は、検出した顔画像が笑顔である度合いを示す指標である。鮮明度は、検出した顔画像が鮮明である(例えば、ぼけがない)度合いを示す指標である。また、正面度は、検出した顔画像が正面を向いている度合いを示す指標である。顔画像検出部221は、検出した顔画像を示す情報をクラスタリング部222に出力する。
クラスタリング部222は、検出した顔画像に対してクラスタリング処理を施すことにより、検出した顔画像を人物毎に分類する。類似する顔画像特徴を有する顔画像同士は同一の人物として認識される。クラスタリング部222は、クラスタリング処理の結果に基づいて、各顔画像に対して人物の識別情報(人物ID)を付与する。同一人物の顔画像群に対しては同一の人物IDが付与される。クラスタリング部222は、各顔画像の属性(笑顔度、鮮明度、正面度、人物ID)をインデックス情報生成部224に出力する。
イベント検出部223は、インデキシング対象の静止画像データ51に対応するイベントを検出する。イベント検出部223は、例えば、そのインデキシング対象の静止画像データ51の生成日時(撮影日時)に基づいて、そのインデキシング対象の静止画像データ51を、所定の期間内(例えば、1日)に生成された他の静止画像と同一のイベントに分類する。そして、イベント検出部223は、インデキシング対象の静止画像データ51に対して、そのインデキシング対象の静止画像データ51が分類されたイベントの識別情報(イベントID)を付与する。イベント検出部223は、インデキシング対象の静止画像データ51に付与されたイベントIDをインデックス情報生成部224に出力する。
インデックス情報生成部224は、顔画像検出部221、クラスタリング部222及びイベント検出部223の処理結果に基づいて、インデックス情報302Aを生成する。
図4は、インデックス情報302Aの一構成例を示す。インデックス情報302Aは、複数の静止画像データ51にそれぞれ対応する複数のエントリを含む。各エントリは、例えば、画像ID、生成日時(撮影日時)、生成場所(撮影場所)、イベントID、顔画像情報を含む。ある静止画像に対応するエントリにおいて、画像IDは、その静止画像に固有の識別情報を示す。生成日時は、その静止画像が生成された日時(その静止画像の撮影日時)を示す。生成場所は、その静止画像が生成(撮影)された場所(位置)を示す。生成日時及び生成場所には、例えば、その静止画像データに付加されている情報が用いられる。生成場所は、例えば、その静止画像データが生成されるときに(例えば、静止画像データに対応する写真が撮影されるときに)、GPSレシーバによって検出された位置情報を示す。イベントIDは、その静止画像に対応するイベントに一意に付与される識別情報を示す。顔画像情報は、その静止画像に含まれる顔画像の認識結果情報である。顔画像情報は、例えば、顔画像(例えば、その顔画像の格納場所を示すパス)、人物ID、位置、サイズ、笑顔度、鮮明度、及び正面度を含む。なお、1つの静止画像データ51に複数の顔画像が含まれるときは、その1つの静止画像データ51に対応するインデックス情報302Aは、複数の顔画像の各々に対応する顔画像情報を含む。
インデックス情報生成部224は、生成したインデックス情報302Aを素材情報データベース302に格納する。
以上の構成により、インデキシング部22は、入力された静止画像データ51に対応するインデックス情報302Aを生成し、素材情報データベース302に格納することができる。
再生制御部23は、インデックス情報302Aに基づき、ある選択された静止画像(キー画像)に関連する静止画像群を、素材データベース301内の静止画像データ51群から抽出し、関連する静止画像群を用いてフォトムービーまたはスライドショーを作成および再生する。再生制御部23は、例えば、キー画像選択部231、カレンダー表示部232、関連画像選択部233、シナリオ決定部234、動画像生成部235、及び動画像再生部236を備える。
キー画像選択部231は、素材データベース301に格納された静止画像データ51群からキー画像(キー静止画像)を選択する。また、キー画像選択部231は、再生中の動画像(フォトムービーまたはスライドショー)に含まれる静止画像をキー画像に決定することもできる。つまり、キー画像選択部231は、再生中のフォトムービー又はスライドショー内のある画像がユーザによって指示された時、その指示された画像をキー画像に決定する。なお、フォトムービー又はスライドショーの再生中にユーザによるキー画像の指示が行われないとき、キー画像選択部231は、例えば、再生されたフォトムービー又はスライドショーに含まれる最後の静止画像をキー画像に決定してもよい。
キー画像選択部231は、カレンダー上に静止画像データ51群が配置されたカレンダー画面を用いてキー画像を選択してもよい。キー画像選択部231は、例えば、カレンダー画面を用いて、ユーザによって指定された静止画像をキー画像に決定する。
キー画像選択部231は、さらに、例えばユーザによって選択された顔画像を、キー顔画像に決定することもできる。この場合、そのキー顔画像に対応する人物に関連する静止画像データ51群が素材データベース301から抽出され、それら抽出された静止画像データ51群が動画像(フォトムービー又はスライドショー)の作成に用いられる。
関連画像選択部233は、素材データベース301に格納されている静止画像データ51群から、キー画像(キー顔画像)に関連する静止画像群を選択(抽出)する。キー画像に関連する静止画像は、キー画像に対して、例えば、日時、人物又は場所について関連性を有する静止画像である。関連画像選択部233は、例えば、素材情報データベース302に格納されたインデックス情報302Aを用いて、キー画像に関連する静止画像群を抽出する。関連画像選択部233は、日時関連画像選択部233A、人物関連画像選択部233B及び場所関連画像選択部233Cを備える。
日時関連画像選択部233Aは、素材データベース301に格納された静止画像データ51群から、キー画像の生成日時に関連する生成日時を有する静止画像群を選択(抽出)する。日時関連画像選択部233Aは、例えば、インデックス情報302Aに基づいて、キー画像の生成日時と同一の期間内(例えば、日、月、時期、季節、年等で指定される期間内)に生成された静止画像群を選択(抽出)する。また、日時関連画像選択部233Aは、例えば、インデックス情報302Aに基づいて、キー画像の生成日時とは別の期間内の同じ日、同じ週、同じ月等(例えば、1年前の同じ日や2年後の同じ月等)に生成された静止画像群を選択(抽出)する。
人物関連画像選択部233Bは、素材データベース301に格納された静止画像データ51群から、キー顔画像(キー画像に含まれる顔画像)に関連する静止画像群を選択(抽出する)する。キー顔画像に関連する静止画像群は、例えば、キー顔画像と同じ人物の顔画像を含む静止画像、キー顔画像に対応する人物に関連する別の人物の顔画像を含む静止画像、等を含む。キー顔画像に対応する人物に関連する別の人物には、例えば、キー顔画像と同じ静止画像内に含まれる人物等が含まれる。
場所関連画像選択部233Cは、素材データベース301に格納された静止画像データ51群から、キー画像の生成場所に関連する生成場所で生成された静止画像群を選択(抽出)する。
シナリオ決定部234は、作成対象の動画像(例えば、フォトムービー)のシナリオを決定する。シナリオは、例えば、作成対象の動画像シーケンス内の複数のチャプタ(タイムセグメント)において使用すべきエフェクト群と使用すべき静止画像群の属性とを示す情報(シナリオ情報)である。つまり、シナリオは、チャプタと称されるタイムセグメント毎にエフェクトと静止画像属性とを規定する。
本実施形態においては、例えば、24種類のシナリオ情報がシナリオデータ303Cとして予めエフェクトデータベース303内に格納されている。シナリオ決定部234は、24種類のシナリオ情報の内の1つのシナリオ情報を、動画像(例えば、フォトムービー)の作成に使用するシナリオとして決定する。シナリオの決定は、ユーザによって選択されたスタイルに従って実行してもよい。つまり、選択されたスタイルに従って、使用すべきシナリオ情報が決定される。本実施形態では、例えば8種類のスタイル(Happy, Fantastic, Ceremonial, Cool, Travel, Party, Gallery, Biography)が予め用意されている。さらに、スタイル毎に、例えば3種類のシナリオ情報が予め用意されている。シナリオ決定部234は、例えば、ユーザによって選択されたスタイルに対応する3種類のシナリオ情報の内の任意の1つを自動的に選択し、その選択したシナリオ情報を作成対象の動画像(例えば、フォトムービー)のシナリオに決定する。また、ユーザがスタイルを選択する代わりに、シナリオ決定部234が、8種類のスタイル内の任意の1つを自動的に選択してもよい。この場合、使用するスタイルは、例えば、関連画像選択部233によって抽出された静止画像それぞれの特徴(例えば、登場人物数(顔画像数)、顔画像の笑顔度、等)に基づいて決定してもよい。
上述のように、選択されたスタイルに対応する3種類のシナリオ情報の内の1つが作成対象の動画像(例えば、フォトムービー)のシナリオとして選択されるが、このシナリオの選択には、例えば、乱数を使用してもよい。これにより、たとえ同じスタイルが選択された場合でも、毎回異なるシナリオを使用してフォトムービーを作成できる。フォトムービーの作成に使用される静止画像群それぞれの属性は使用されるシナリオによって変わる。したがって、使用されるシナリオを変えることは、思いがけない静止画像を掘り起こしてユーザに見せることができる可能性を高めることを可能にし得る。
さらに、シナリオ決定部234は、フォトムービーの作成に使用する音楽も決定する。本実施形態では、複数の音楽が音声データ303Bとしてエフェクトデータベース303に格納されている。シナリオ決定部234は、例えば、選択されたスタイルに応じて、または関連画像選択部233によって抽出された静止画像それぞれの特徴(例えば、登場人物数(顔画像数)に応じて、使用する音楽を決定する。なお、使用する音楽はユーザが指定するようにしてもよい。
動画像生成部235は、決定されたシナリオ情報に基づいて、フォトムービーを生成する。この場合、動画像生成部235は、関連画像選択部233によって抽出された静止画像群から、シナリオ情報によって示される各チャプタの静止画像属性に合致する少なくとも1つの静止画像を抽出する。そして、動画像生成部235は、抽出された少なくとも1つの静止画像を各チャプタに割り当てることによって、フォトムービーを作成する。
動画像再生部236は、エフェクトデータベース303内に格納された、加工編集用のエフェクトデータ303Aを用い、シナリオ情報によって示される各チャプタに対応するエフェクトを各チャプタに割り当てられた静止画像に施すことによって、作成されたフォトムービーを再生する。
なお、決定されたシナリオ情報は、スライドショーの作成に使用してもよい。この場合、動画像生成部235は、関連画像選択部233によって抽出された静止画像群から、シナリオ情報によって示される各チャプタの静止画像属性に合致する少なくとも1つの静止画像を抽出する。そして、動画像生成部235は、抽出された少なくとも1つの静止画像を各チャプタに割り当てることによってスライドショーを作成、つまり使用する静止画像それぞれとその再生タイミングを決定する。動画像再生部236は、作成されたスライドショーを再生する。また、このスライドショーの再生時、エフェクトデータ303Aを用いたエフェクトを静止画像に施してもよい。
図5は、フォトムービー作成アプリケーション202によって表示されるメイン画面40の例を示す。メイン画面40は、例えば、「スタイル」ボタン401、「音楽」ボタン402、「主人公」ボタン403、「スタート」ボタン404、ムービー再生画面405、及び「カレンダー」ボタン406を備える。
ムービー再生画面405は、生成されたフォトムービー又はスライドショーを表示するための画面である。ムービー再生画面405では、再生制御部23(動画像生成部235)によって生成されたフォトムービー又はスライドショーが順次再生され、表示される。図5においては、再生中のフォトムービー又はスライドショーの画像に、例えば、人物40A〜40Fが登場する例が示されている。
フォトムービー又はスライドショーの再生中にムービー再生画面405がユーザによるポインティングデバイスの操作によってクリックされた時、フォトムービー作成アプリケーション202は、フォトムービー(スライドショー)の再生を一時停止し、現在再生中の画像をキー画像に決定する。現在再生中の画像が複数の静止画像を合成することによって生成された画像であるならば、フォトムービー作成アプリケーション202は、それら複数の静止画像の一つをキー画像に決定しても良い。もちろん、それら複数の静止画像の内、ユーザによってクリックされた静止画像をキー画像に決定しても良い。
「主人公」ボタン403は、生成されるフォトムービー内で注目される人物(主人公)の選択を開始するためのボタンである。キー画像選択部231は、「主人公」ボタン403が押されたことに応答して、キー画像に登場する人物のリスト(顔画像選択画面)を表示する。ユーザは、例えば、ムービー再生画面405を用いてキー画像を選択した後に、「主人公」ボタン403を押して、キー顔画像の選択開始(すなわち、顔画像選択画面の表示)を指示する。
図6は、キー顔画像を選択するための顔画像選択画面41の例を示す。顔画像選択画面41では、キー画像に含まれる顔画像のリスト(顔画像41A〜41D)が表示されている。キー画像選択部231は、キー画像に登場する人物40A〜40Fから、例えば、その人物が出現する静止画像数がしきい値以上である人物(例えば、人物40A〜40D)を選択し、その選択した人物に対応する顔画像41A〜41Dをムービー再生画面405上に表示する。
ユーザは、顔画像選択画面41を用いて、顔画像41A〜41Dから注目する人物の顔画像(ここでは、顔画像41A)を選択する。キー画像選択部231は、選択された顔画像41Aをキー顔画像(主人公)に決定する。なお、選択される顔画像は複数であってもよい。また、顔画像選択画面41を用いて顔画像を選択する操作が行われないとき(例えば、「主人公」ボタン403が押されないとき)、キー画像選択部231は、キー画像に含まれる顔画像のうち、所定の条件を満たす顔画像をキー顔画像に選択してもよい。
図5のメイン画面40上の「スタイル」ボタン401は、フォトムービーのスタイルの選択を開始するためのボタンである。フォトムービー作成アプリケーション202は、「スタイル」ボタン401が押されたことに応答して、スタイル選択画面を表示する。スタイル選択画面上には、上述の8種類のスタイル(Happy, Fantastic, Ceremonial, Cool, Travel, Party, Gallery, Biography)のリストが表示される。ユーザは、希望するスタイルを選択することができる。
「音楽」ボタン402は、フォトムービーに用いられる音楽の選択を開始するためのボタンである。フォトムービー作成アプリケーション202は、「音楽」ボタン402が押されたことに応答して、音楽のリスト(音楽選択画面)を表示する。ユーザは、希望する音楽を選択することができる。
「スタート」ボタン404は、フォトムービーの生成及び再生を開始するためのボタンである。フォトムービー作成アプリケーション202は、「スタート」ボタン404が押されたことに応答して、フォトムービーの作成を開始する。そして、フォトムービー作成アプリケーション202は、作成したフォトムービーを再生して、ムービー再生画面405に表示する。
また、キー画像選択部231は、上述のように、カレンダー上に静止画像データ51が配置されたカレンダー画面を用いてキー画像を選択してもよい。「カレンダー」ボタン406は、カレンダー画面を表示するためのボタンである。
図7は、カレンダー画面42の例を示す。カレンダー画面42では、例えば、指定された月のカレンダーが表示され、静止画像データ51の生成日に基づいて、カレンダー上の日毎の欄に静止画像データ51のサムネイル画像(42A〜42C)が表示される。キー画像選択部231は、カレンダー画面42を用いて選択されたサムネイル画像に対応する静止画像データ51をキー画像に決定する。
なお、生成日が同一である静止画像データ51が複数あるとき、カレンダー画面42には、いずれかの静止画像データ51のサムネイル画像が代表画像として表示される。そして、キー画像選択部231は、カレンダー画面42を用いて代表画像が選択されたとき、対応する生成日に生成された複数の静止画像データ51のサムネイル画像のリストを表示する。キー画像選択部231は、このリストから選択されたサムネイル画像に対応する静止画像データ51をキー画像に決定する。また、キー画像選択部231は、カレンダー画面42を用いてキー画像を選択した際にも、上述の顔画像選択画面41を用いてキー顔画像を選択することができる。
ここで、フォトムービーの再生操作の流れについて説明する。フォトムービーはキー画像(メイン画面40上に表示中の画像、またはカレンダー画面を用いて選択された画像)をベースに作成される。
<メイン画面40上に表示中の画像をキー画像に使用する例>
(1)スライドショー/フォトムービー再生中に、メイン画面40をクリック
(2)スタイルを選択(デフォルトはおまかせ)
(3)フォトムービーに使用する音楽を選択(デフォルトはおまかせ)
(4)注目する人物を選択(デフォルトはおまかせ。)
(5)「スタート」ボタン404をクリック
スタイル、音楽、注目する人物がすべておまかせで良い場合は、ユーザは、メイン画面40をクリックして、表示された「スタート」ボタン404をクリックするだけでよい。
<カレンダー画面を用いて選択された画像をキー画像に使用する例>
(1)メイン画面40上の「カレンダー」ボタンをクリック
(2)ベースとする写真を撮影した日付を選択して、写真の一覧を表示
(3)写真の一覧からベースとする写真を選択し、「スタート」ボタン404をクリック
(4)メイン画面40上でスタイルを選択(デフォルトはおまかせ)
(5)メイン画面40上でフォトムービーに使用する音楽を選択(デフォルトはおまかせ)
(6)注目する人物を選択(デフォルトはおまかせ。)
(7)「スタート」ボタン404をクリック
次に、図8を参照して、フォトムービー作成処理の手順の概要について説明する。
フォトムービー作成アプリケーション202は、まず、インデックス情報に基づいて、キー画像(キー顔画像)に関連する静止画像群を素材データベース301から抽出(一次抽出)する(ブロックB101)。ブロックB101では、フォトムービー作成アプリケーション202は、例えば、選択された人物(主人公)に関連する静止画像群を素材データベース301から抽出する。
次に、フォトムービー作成アプリケーション202は、フォトムービーの作成に用いるシナリオを選定する(ブロックB102)。ブロックB102では、フォトムービー作成アプリケーション202は、選択されたスタイルや、ブロックB101で抽出した静止画像群の特徴値等に応じて、予め用意された複数のシナリオ情報の一つを選択する。各シナリオ情報は、フォトムービーのシーケンスを構成する複数のチャプタ(シーン)において使用されるエフェクトの順番(エフェクト列)および静止画像群の属性(静止画像属性)とを規定する。図8では、フォトムービーのシーケンスが5つのチャプタ(チャプタ1、2、3、4、5)から構成される場合が想定されている。チャプタ1はフォトムービーのオープニングシーンであり、チャプタ5はフォトムービーのエンディングシーンである。各チャプタには、1以上のエフェクト(ここでは2つのエフェクト)が定義され、さらにエフェクト毎に静止画像属性が定義される。
静止画属性としては、例えば、人物属性(顔属性)を使用してもよい。この人物属性としては、例えば、主人公(主役)、脇役、笑顔度、鮮明度、登場人数等を使用することができる。ここで、用語「主役」は、フォトムービーの主人公となるべき人物、つまり、注目すべき人物(顔)を意味する。例えば、上述のキー顔画像に対応する人物を、主役に決定してもよい。用語「脇役」は、主人公に関連する別の人物を意味する。例えば、主人公との共起頻度の高い人物(顔)を脇役に決定してもよい。人物属性は、複数の脇役を指定することもできる。主人公との共起頻度の高い複数の人物(顔)が脇役となり得る。静止画属性としては、人物属性のみならず、例えば、場所属性を使用してもよい。この場所属性は、使用する静止画像の撮影場所を指定する。
図8のシナリオ情報1では、例えば、チャプタ1に2つのエフェクト(エフェクト#1、エフェクト#2)が規定されており、さらに、エフェクト#1には静止画属性「主人公」が、エフェクト#2には静止画属性「主人公 OR 脇役」が関連付けられている。静止画属性「主人公」は、主人公が登場する静止画像が使用されるべきであることを指定する。静止画属性「主人公 OR 脇役」は、主人公または脇役のいずれかが登場する静止画像が使用されるべきであることを指定する。静止画属性の他の幾つかの例は以下の通りである。
チャプタ2のエフェクト#11に関連付けられた静止画属性「主人公、脇役」は、主人公と脇役の双方が登場する静止画像が使用されるべきであることを指定する。チャプタ3のエフェクト#6に関連付けられた静止画属性「脇役1、脇役2、脇役3」は、3人の脇役(脇役1、脇役2、脇役3)の全てが登場する静止画像が使用されるべきであることを指定する。チャプタ5のエフェクト#3に関連付けられた静止画属性「多人数、笑顔度高」は、閾値以上の人物が登場し且つ笑顔度の高い人物の頻度がある閾値以上である静止画像が使用されるべきであることを指定する。チャプタ5のエフェクト#4に関連付けられた静止画属性「主人公、笑顔度高」は、主人公が登場し、且つ主人公の笑顔度が閾値以上である静止画像が使用されるべきであることを指定する。このように、人物属性は、各チャプタに登場すべき人物が、主役、脇役、または主役および脇役の双方のいずれであるかを指定することができる。
次いで、フォトムービー作成アプリケーション202は、ブロックB101で抽出した静止画像群から、選定されたシナリオ情報によって示される各チャプタの静止画属性に合致する1以上の静止画像をさらに抽出(本抽出)する(ブロックB103)。そして、フォトムービー作成アプリケーション202は、抽出された静止画像を各チャプタに割り当てることによってフォトムービーを作成し、作成されたフォトムービーを再生する(ブロックB104)。ブロックB104では、フォトムービー作成アプリケーション202は、シナリオ情報によって示される各チャプタに対応するエフェクトを、各チャプタに割り当てられた静止画像に施す。
次に、図9乃至図11を参照して、例えば、スライドショーとして静止画像を表示するにあたって、インデックス情報302Aを用いて、より効果的なエフェクトを施す種々の具体例について説明する。
図4に示したように、(顔画像検出部221、クラスタリング部222及びイベント検出部223の処理結果に基づき)インデキシング部22によって生成されて素材情報データベース302に格納されるインデックス情報302Aには、静止画像から検出された各顔画像について、笑顔度、鮮明度、正面度、人物IDなどの属性情報が含まれている。そこで、例えば静止画像内の顔画像を強調するためのエフェクトを施すとした場合に、すべての顔画像を対象としてエフェクトを一律に施すのではなく、当該属性情報を用いて、より効果的なエフェクトを施すようにする。
いま、図9の(A)に示すように、人物a1〜a3の3人の顔画像を含む静止画像が存在するものと想定する。この時、フォトムービー作成アプリケーション202の再生制御部23は、人物a1〜a3の3人の顔画像の中から、例えば笑顔度の1番高い顔画像を選択する。ここでは、人物a1の顔画像の笑顔度が1番高いものとする。
そこで、再生制御部23は、この笑顔度の1番高い人物a1の顔画像を選択して、例えば、図9の(B)に示すように、当該選択した人物a1の顔画像が照明されている(スポットライトを浴びている)かのような視覚的効果を生じさせるべく、静止画像にエフェクトを施す。インデックス情報302Aには、図4に示したように、各顔画像について、位置およびサイズの情報も含まれている。この位置およびサイズの情報から、再生制御部23は、選択した顔画像の中心を基点として、当該選択した顔画像を含む円形の領域内と領域外とで明度を異ならせるエフェクトを施すことで、選択した顔画像がスポットライトを浴びているかのような視覚的効果を生じさせる。
つまり、人物a1〜a3の3つの顔画像を一律に扱うのではなく、笑顔度の1番高い人物a1の顔画像を選択し、当該選択した人物a1の顔画像のみを対象とするといった、より効果的なエフェクトを施すことを実現する。なお、ここでは、笑顔度を基準に顔画像の選択を行う例を説明したが、鮮明度の1番高い顔画像を選択してもよいし、正面度の1番高い顔画像を選択してもよい。
また、図9を参照しながら説明した例では、1つの静止画像に含まれる複数の顔画像の中からいずれか1つの顔画像を選択した。これに限らず、フォトムービー作成アプリケーション202の再生制御部23は、例えばスライドショーとして表示する複数の静止画像の中から例えば笑顔度の1番高い顔画像を選択し、当該選択した顔画像を含む静止画像のみに当該選択した顔画像を対象としてエフェクトを施すことも可能である。
いま、図10の(A)に示すように、静止画像b1,b2,b3,b4,…からなるスライドショーを表示する場合を想定する。また、静止画像b3に含まれる人物b31の顔画像が、当該スライドショーを構成する静止画像内の顔画像の中で笑顔度が1番高いものであったものとする。
そこで、再生制御部23は、この笑顔度の1番高い人物b31の顔画像を選択して、例えば、図10の(B)に示すように、当該選択した人物b31の顔画像を含む静止画像b3に対し、当該選択した人物b31の顔画像の周辺部を修飾するオブジェクト(例えば笑顔度が1番であることを表すオブジェクト)を配置するエフェクトを施す。このエフェクトも、インデックス情報302Aに含まれる位置およびサイズの情報に基づき、選択した顔画像の中心を基点として、上記オブジェクトを配置することで実施する。
このように、インデックス情報302Aに含まれる属性情報を用いることで、より効果的なエフェクトを種々施すことを実現する。
なお、図10を参照しながら説明した例では、スライドショーを構成する静止画像内の顔画像の中から笑顔度の1番高い顔画像を1つ選択した。前述したように、インデックス情報302Aには、属性情報として人物IDが含まれている。よって、スライドショーの登場人物毎に、笑顔度の1番高い顔画像を1つずつ選択し、選択した顔画像を含む静止画像に当該選択した顔画像を対象とするエフェクトを施すといったことも可能である。
また、スライドショーを構成する静止画像内の顔画像の中から笑顔度の高い順に所定数だけ顔画像を選択して、その順位を表すオブジェクトを配置するエフェクトを施すといったことも可能である。笑顔度の高い順に、その順位を表すオブジェクトを配置するエフェクトを施す適用例としては、例えば、図9の(A)に示した、人物a1〜a3の3人の顔画像を含む1つの静止画像に対し、第1位、第2位、第3位を表すオブジェクトを配置することも考えられる。さらに、笑顔度の高い順に所定数だけ顔画像を選択した後、当該選択した顔画像を含む静止画像をその他の静止画像に優先して表示するようにスライドショーを構成しても良い。
また、この笑顔度、鮮明度、正面度などの属性情報を用いたエフェクトは、静止画像を順次表示するスライドショーのみならず、フォトムービーにおいても当然に適用することが可能である。例えば、図11の(A)に示す静止画像全体を表示する第1の表示形態から図11の(B)に示す(例えば笑顔度が1番高いとして選択された)顔画像を含む所定の領域を拡大表示する第2の表示形態に遷移させるエフェクトを施すことにより、対象とする顔画像にズームインするかのような視覚的効果を生じさせることができる。
その外、インデックス情報302Aに含まれる顔画像の属性情報を用いることで、スライドショーやフォトムービーで顔画像を対象としたエフェクトを施すにあたり、より効果的なエフェクトを種々施すことが可能である。
続いて、図12乃至図16に、フォトムービー作成アプリケーションプログラム202によってエフェクトが施されて表示される画像のいくつかの例を示す。
図12および図13は、静止画像に登場する人物の顔画像を強調するためのエフェクトの例を示している。図12に示す静止画像43では、人物43Aの顔画像にスポットを当てるためのエフェクト44Bが施されている。例えば、静止画像43において、人物43Aが主人公で、他の2人が脇役である場合、「脇役1」、「脇役2」、「主人公」という順でスポットを順次当てる3段階スポットライトのようなエフェクトを使用することも出来る。また、図13に示す静止画像44では、人物44Aの顔画像に対して、人物44Aを強調するためのエフェクト44Bが施されている。エフェクト44Bは、顔画像を囲むイラスト(オブジェクト)を顔画像に重畳している。
また、図14および図15は、複数の静止画像にエフェクトが施される例を示す。図14に示す画面45および図15に示す画面46では、複数の静止画像に対して、それら静止画像を組み合わせて表示するためのエフェクトが施されている。このエフェクトは、複数の静止画像の配置、サイズ、モーション等を決定している。
そして、図16は、複数の静止画像の各々に登場する人物の顔画像にエフェクトが施される例を示す。図16に示す画面47では、複数の静止画像から切り出された顔画像47A〜47Dが表示され、各顔画像が画面47上を移動するエフェクトが施されている。
次に、図17乃至図23のフローチャートを参照して、フォトムービー作成アプリケーションプログラム202の動作手順を説明する。
図17は、フォトムービー作成アプリケーションプログラム202によって実行されるインデキシング処理の手順の例を示すフローチャートである。
まず、監視部21は、素材データベース301を常時監視し、新たな静止画像(静止画像データ)51がHDD109内の素材データベース301に格納されたか否かを判定する(ブロックB11)。新たな静止画像51が格納されていない場合(ブロックB11のNO)、監視部21はブロックB11に戻り、再度、新たな静止画像51が格納されたか否かを判定する。
新たな静止画像51が格納されている場合(ブロックB11のYES)、監視部21は、新たな静止画像51が素材データベース301に格納されたことを、インデキシング部22に通知する(ブロックB12)。
次いで、顔画像検出部221は、静止画像データ51に含まれる顔画像を検出する(ブロックB13)。顔画像検出部221は、静止画像(静止画像データ51)に登場する人物の顔画像に対応する領域を検出し、当該領域の静止画像内における位置及びサイズを検出する。そして、顔画像検出部221は検出した顔画像を分析する(ブロックB14)。顔画像検出部221は、例えば、検出した顔画像の笑顔度、鮮明度、正面度等を算出する。顔画像検出部221は、検出した顔画像を示す情報をクラスタリング部222に出力する。
クラスタリング部222は、検出した顔画像に対してクラスタリング処理を施すことにより、検出した顔画像を人物毎に分類する(ブロックB15)。クラスタリング部222は、顔画像に対して、対応する人物の識別情報(人物ID)を付与する。そして、クラスタリング部222は、顔画像検出部221によって検出された顔画像を示す情報と、顔画像に付与された人物IDを示す情報とをインデックス情報生成部224に出力する。
また、イベント検出部223は、静止画像データ51に対応するイベントを検出する(ブロックB16)。イベント検出部223は、静止画像データ51に対して、分類されたイベントの識別情報(イベントID)を付与する。そして、イベント検出部223は、静止画像データ51に付与されたイベントIDをインデックス情報生成部224に出力する。
インデックス情報生成部224は、顔画像検出部221、クラスタリング部222およびイベント検出部223による処理結果に基づいて、インデックス情報302Aを生成する(ブロックB17)。インデックス情報302Aは、静止画像データ51の生成日時、生成場所及びイベントID、並びに該静止画像データ51に含まれる顔画像を示す顔画像情報を含む。また、この顔画像情報は、例えば、顔画像(例えば、顔画像に対応するデータの格納場所)、人物ID、位置、サイズ、笑顔度、鮮明度、及び正面度を含む。なお、静止画像データ51に複数の顔画像が含まれるとき、インデックス情報302Aは、複数の顔画像に対応する複数の顔画像情報を含む。インデックス情報生成部224は、生成したインデックス情報302Aを素材情報データベース302に格納する(ブロックB18)。
以上の処理により、フォトムービー作成アプリケーションプログラム202に入力された静止画像データ51が素材データベース301に格納され、当該静止画像データ51に対応するインデックス情報302Aが素材情報データベース302に格納される。
また、図18は、フォトムービー作成アプリケーションプログラム202によって実行される動画像生成処理の手順の例を示すフローチャートである。フォトムービー作成アプリケーション202は、フォトムービー及びスライドショーのいずれかの動画像を再生する。
まず、キー画像選択部231はキー画像選択処理を実行する(ブロックB201)。キー画像選択部231は、素材データベース301に格納された静止画像データ51からキー画像を選択する。このキー画像は、素材データベース301から、再生する動画像(フォトムービー又はスライドショー)に用いられる静止画像データ51を抽出するための抽出キーとして用いられる。キー画像選択部231は、選択したキー画像を示す情報を関連画像選択部233に出力する。キー画像選択処理の詳細な手順は、図19及び図20を参照して後述する。
次いで、関連画像選択部233は、キー画像選択部231によって選択されたキー画像を用いて、関連画像選択処理を実行する(ブロックB202)。関連画像選択部233は、素材データベース301から、キー画像に関連する静止画像データ51を選択する。キー画像に関連する静止画像データ51は、キー画像に対して、例えば、日時、人物又は場所の関連を有する静止画像データ51である。関連画像選択部233は、選択したキー画像に関連する静止画像データ51を示す情報を、エフェクト選択部234に出力する。関連画像選択処理の詳細な手順は、図20を参照して後述する。
エフェクト選択部234は、表示モードがフォトムービーモードとスライドショーモードのいずれであるかを判定する(ブロックB203)。この表示モードは、再生される動画像がフォトムービーとスライドショーのいずれであるかを示す。なお、表示モードはユーザによって変更され得る。また、予め設定された表示モードに対応する動画像を再生することや、所定の条件に基づいて表示モードを切り替えることもできる。
表示モードがフォトムービーモードであると判定された場合(ブロックB203のフォトムービー)、エフェクト選択部234は、関連画像選択部233によって選択された静止画像データ51に基づいて、エフェクトデータ303Aと音声データ303Bとを選択する(ブロックB204)。エフェクト選択部234は、選択された静止画像データ51に適したエフェクトデータ303Aと音声データ303Bとを選択する。エフェクト選択部234は、選択された静止画像データ51、エフェクトデータ303A及び音声データ303Bを示す情報を動画像生成部235に出力する。
動画像生成部235は、関連画像選択部233によって選択された静止画像データ51と、エフェクト選択部234によって選択されたエフェクトデータ303A(シナリオデータ303C)及び音声データ303Bとを用いてフォトムービーを作成する(ブロックB205)。動画像生成部235は、生成したフォトムービーを動画像再生部236に出力する。
動画像再生部236は、動画像生成部235によって生成されたフォトムービーに基づいて、フォトムービーに用いられる静止画像データ51を素材データベース301から抽出し、フォトムービーに用いられるエフェクトデータ303A及び音声データ303Bをエフェクトデータベース303から抽出する(ブロックB206)。動画像再生部236は、抽出した静止画像データ51、エフェクトデータ303A及び音声データ303Bを用いて、フォトムービーを再生し、画面(LCD17)に表示する(ブロックB207)。そして、ブロックB201のキー画像選択処理に戻り、キー画像選択部231は、例えば、表示されているフォトムービーから選択された静止画像データ51を新たなキー画像に決定する。
一方、表示モードがスライドショーモードであると判定された場合(ブロックB203のスライドショー)、動画像生成部235は、関連画像選択部233によって選択された静止画像データ51を用いてスライドショーを作成する(ブロックB208)。動画像生成部235は、生成したスライドショーを動画像再生部236に出力する。
動画像再生部236は、動画像生成部235によって生成されたスライドショーに基づいて、スライドショーに用いられる静止画像データ51を素材データベース301から抽出する(ブロックB209)。そして、動画像再生部236は、抽出した静止画像データ51を用いて、スライドショーを再生し、画面(LCD17)に表示する(ブロックB210)。スライドショーでは、抽出された静止画像データ51が所定のタイミングで順次表示される。そして、ブロックB201のキー画像選択処理に戻り、キー画像選択部231は、例えば、表示されているスライドショーから選択された静止画像データ51を新たなキー画像に決定する。
以上の処理により、フォトムービー作成アプリケーションプログラム202は、キー画像に関連する静止画像データ51を用いたスライドショー又はフォトムービーを表示できる。キー画像に関連する静止画像データ51を用いることにより、思いがけない静止画像等を含む動画像をユーザに提示することができる。
図21のフローチャートは、キー画像選択部231によって実行されるキー画像選択処理(図18のブロックB201)の手順の例を示す。ここでは、画面に表示されている動画像(フォトムービー又はスライドショー)からキー画像が選択されることを想定する。
まず、キー画像選択部231は、表示されている動画像から画像が選択されたか否かを判定する(ブロックB31)。キー画像選択部231は、例えば、画面に表示中の画像をクリックする操作を検出したとき、当該画像がキー画像に選択されたものと判定する。画像が選択されていない場合(ブロックB31のNO)、キー画像選択部231はブロックB31の処理に戻り、再度、画像が選択されたか否かを判定する。画像が選択された場合(ブロックB31のYES)、キー画像選択部231は、選択された画像をキー画像に決定する(ブロックB32)。
次いで、キー画像選択部231は、顔画像選択画面41を表示するか否かを判定する(ブロックB33)。キー画像選択部231は、例えば、顔画像選択画面41の表示を指示するボタンが押されたとき、顔画像選択画面41を表示すると判定する。キー画像選択部231は、例えば、キー画像を確定するボタンが押されたとき、顔画像選択画面41を表示しないと判定する。
顔画像選択画面41を表示すると判定された場合(ブロックB33のYES)、キー画像選択部231は顔画像選択画面41を表示する(ブロックB34)。顔画像選択画面41は、例えば、決定されたキー画像に含まれる顔画像のリストを表示する画面である。ユーザは、表示された顔画像のリストから、注目する人物(主人公)の顔画像を選択する操作を行う。そして、キー画像選択部231は、顔画像選択画面41(顔画像のリスト)から選択された顔画像をキー顔画像に決定する(ブロックB35)。なお、顔画像選択画面41を用いて選択される顔画像は、複数であってもよい。
顔画像選択画面41を表示しないと判定された場合(ブロックB32のNO)、キー画像選択部231は、キー画像に含まれるすべての顔画像をキー顔画像に決定する(ブロックB36)。なお、キー画像選択部231は、キー画像に含まれる顔画像から、顔画像の位置、サイズ、鮮明度等に基づく条件を満たす顔画像を選択して、キー顔画像に決定してもよい。
ブロックB35又はブロックB36でキー顔画像を決定した後、キー画像選択部231は、決定したキー画像及びキー顔画像を示す情報を関連画像選択部233に出力する(ブロックB37)。
以上の処理により、キー画像選択部231は、再生中の動画像(フォトムービー又はスライドショー)及び顔画像選択画面41を用いて、静止画像データ51を抽出するためのキー画像及びキー顔画像を決定することができる。関連画像選択部233は、決定されたキー画像及びキー顔画像に基づいて、素材データベース301に格納された静止画像データ51から、キー画像及びキー顔画像に関連する静止画像データ51を選択する。
また、図22のフローチャートは、キー画像選択部231によって実行されるキー画像選択処理(図18のブロックB201)の手順の別の例を示す。ここでは、カレンダー画面42を用いて、キー画像が選択されることを想定する。
まず、カレンダー表示部232は、生成日時に基づいて静止画像データ51が配置されたカレンダー画面42を表示する(ブロックB41)。カレンダー表示部232は、例えば、カレンダー画面42に設けられた日毎の欄に、対応する生成日を有する静止画像データ51のサムネイル画像を表示する。カレンダー表示部232は、対応する生成日を有する静止画像データ51が複数存在するときには、それら複数の静止画像データ51の内の、1つの静止画像データ51のサムネイル画像(代表サムネイル画像)を表示する。ユーザは、カレンダー画面42を用いて、サムネイル画像が表示されている欄に対応する生成日から、いずれかの生成日を選択する。
次に、カレンダー表示部232は、生成日が選択されたか否かを判定する(ブロックB42)。カレンダー表示部232は、例えば、カレンダー画面42上の日毎の欄がクリックされたことを検出したとき、生成日が選択されたと判定する。生成日が選択されていないとき(ブロックB42のNO)、カレンダー表示部232は、ブロックB42の処理に戻り、再度、生成日が選択されたか否かを判定する。
生成日が選択されているとき(ブロックB42のYES)、カレンダー表示部232は、選択された生成日に生成された静止画像データ51が複数存在するか否かを判定する(ブロックB43)。選択された生成日に生成された静止画像データ51が複数存在する場合(ブロックB43のYES)、カレンダー表示部232は、それら複数の静止画像データ51の各々に対応するサムネイル画像のリストを画面に表示する(ブロックB44)。そして、カレンダー表示部232は、表示されたリストから画像が選択されたか否かを判定する(ブロックB45)。リストから画像が選択されていない場合(ブロックB45のNO)、カレンダー表示部232は、ブロックB45に戻り、再度、リストから画像が選択されたか否かを判定する。リストから画像が選択されている場合(ブロックB45のYES)、キー画像選択部231は、選択された画像をキー画像に決定する(ブロックB46)。
選択された生成日に生成された静止画像データ51が複数存在しない場合(すなわち、選択された生成日に生成された静止画像データ51が1つである場合)(ブロックB43のNO)、キー画像選択部231は、選択された生成日に生成された1つの静止画像データ51をキー画像に決定する(ブロックB47)。
ブロックB46又はブロックB47でキー画像が決定された後、キー画像選択部231は、顔画像選択画面41を表示するか否かを判定する(ブロックB48)。キー画像選択部231は、例えば、顔画像選択画面41の表示を指示するボタンが押されたとき、顔画像選択画面41を表示すると判定する。キー画像選択部231は、例えば、キー画像を確定するボタンが押されたとき、顔画像選択画面41を表示しないと判定する。
顔画像選択画面41を表示すると判定された場合(ブロックB48のYES)、キー画像選択部231は顔画像選択画面41を表示する(ブロックB49)。顔画像選択画面41は、例えば、決定されたキー画像に含まれる顔画像のリストを表示する画面である。ユーザは、表示された顔画像のリストから、注目する人物(主人公)の顔画像を選択する操作を行う。そして、キー画像選択部231は、顔画像選択画面41(顔画像のリスト)から選択された顔画像をキー顔画像に決定する(ブロックB50)。なお、顔画像選択画面41を用いて選択される顔画像は、複数であってもよい。
顔画像選択画面41を表示しないと判定された場合(ブロックB48のNO)、キー画像選択部231は、キー画像に含まれる顔画像のうち、所定の条件を満たす顔画像をキー顔画像に決定する(ブロックB51)。キー画像選択部231は、例えば、キー画像に含まれる顔画像から、顔画像の位置、サイズ、鮮明度等に基づく条件を満たす顔画像を選択して、キー顔画像に決定してもよい。
ブロックB50又はブロックB51でキー顔画像を決定した後、キー画像選択部231は、決定したキー画像及びキー顔画像を示す情報を関連画像選択部233に出力する(ブロックB52)。
以上の処理により、キー画像選択部231は、カレンダー画面42及び顔画像選択画面41を用いて、静止画像データ51を抽出するためのキー画像及びキー顔画像を決定することができる。関連画像選択部233は、決定されたキー画像及びキー顔画像に基づいて、素材データベース301に格納された静止画像データ51から、キー画像及びキー顔画像に関連する静止画像データ51を選択する。なお、キー画像は、上述の再生中の動画像やカレンダー画面42から選択する処理に限らず、例えば、素材データベース301に格納された静止画像データ51を示すリストから選択されてもよい。
また、図21は、関連画像選択部233によって実行される関連画像選択処理(図18のブロックB202)の手順の例を示すフローチャートである。
まず、日時関連画像選択部233Aは、素材データベース301に格納された静止画像データ51から、キー画像が生成された日時に関連する日時に生成された静止画像データ51を選択する(ブロックB61)。次に、人物関連画像選択部233Bは、素材データベース301に格納された静止画像データ51から、キー顔画像に関連する人物の顔画像を含む静止画像データ51を選択する(ブロックB62)。そして、場所関連画像選択部233Cは、素材データベース301に格納された静止画像データ51から、キー画像が生成された場所に関連する場所で生成された静止画像データ51を選択する(ブロックB63)。
関連画像選択部233は、日時関連画像選択部233A、人物関連画像選択部233B及び場所関連画像選択部233Cの各々で選択された静止画像データ51を示す情報をエフェクト選択部234に出力する(ブロックB64)。
以上の処理により、関連画像選択部233は、キー画像及びキー顔画像に関連する静止画像データ51を選択する。動画像生成部235は、選択された静止画像データ51を用いて、動画像(フォトムービー又はスライドショー)を生成する。
以上説明したように、本実施形態によれば、インデックス情報302Aに含まれる顔画像の属性情報(笑顔度、鮮明度、正面度、人物ID等)を用いて、より効果的なエフェクトを施すことを実現できる。
なお、本実施形態の画像表示処理の手順は全てソフトウェアによって実行することができる。このため、画像表示処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。