[go: up one dir, main page]

JP2010252008A - Imaging device, displaying device, reproducing device, imaging method and displaying method - Google Patents

Imaging device, displaying device, reproducing device, imaging method and displaying method Download PDF

Info

Publication number
JP2010252008A
JP2010252008A JP2009098665A JP2009098665A JP2010252008A JP 2010252008 A JP2010252008 A JP 2010252008A JP 2009098665 A JP2009098665 A JP 2009098665A JP 2009098665 A JP2009098665 A JP 2009098665A JP 2010252008 A JP2010252008 A JP 2010252008A
Authority
JP
Japan
Prior art keywords
image
unit
person
moving image
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009098665A
Other languages
Japanese (ja)
Inventor
Naohisa Nakada
直久 中田
Aiko Uemura
有為子 植村
Ken Tani
憲 谷
Satoshi Hara
聡司 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009098665A priority Critical patent/JP2010252008A/en
Priority to CN201010161958.0A priority patent/CN101867708B/en
Priority to CN201410210390.5A priority patent/CN103973953B/en
Publication of JP2010252008A publication Critical patent/JP2010252008A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device, a displaying device, a reproducing device, an imaging method and a displaying method, which allow a user to enjoy captured moving images easily and immediately. <P>SOLUTION: The device includes: an imaging section 2 for outputting image data of moving images; a face detecting section 3 for determining whether or not a face is included in an image based on the image data; a face database 4b in which data for identification for identifying a face is stored; a representative image-determining section 1b for determining whether the face included in the image data matches the data for identification based on the determination result by the face detecting section 3 and the data for identification stored in the face database 4b and for deciding that it should be a representative image when both are matched; and a displaying section 8 for displaying the representative image decided by the representative image-determining section 1b. From image data of a plurality of moving images, a commonly appearing person 26 is displayed at the end of the moving images. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮影装置、表示装置、再生装置、撮影方法、および表示方法に関し、詳しくは、いわゆる、ビデオカメラ、デジタルカメラ、カメラ付携帯電話等、動画記録部を有する撮影装置や撮影方法、またはこれらの動画を表示または再生する表示装置、再生装置、表示方法に関する。   The present invention relates to an imaging device, a display device, a playback device, an imaging method, and a display method, and more specifically, a so-called video camera, digital camera, camera-equipped mobile phone, etc. The present invention relates to a display device, a playback device, and a display method for displaying or playing back these moving images.

近年、デジタル機器の記録容量が増大してきており、大量の動画像を記録することが容易になってきている。しかし、これらの記録された動画像は、未編集のままであることが多く、再生の際に、動画像を簡単に取り扱え、楽しみながら鑑賞できる技術が求められている。   In recent years, the recording capacity of digital devices has increased, and it has become easier to record a large amount of moving images. However, these recorded moving images are often left unedited, and there is a need for a technique that enables easy handling and enjoyment of moving images during playback.

そこで、例えば、特許文献1には、映像から登場人物の顔の数、位置、及び大きさを顔姿勢データとして抽出し、この抽出結果を用い、登場人物の分類付けを行っておくことにより、画像検索を可能とした映像分類装置が開示されている。また、特許文献2には、撮影が終了した動画像の終端にエンディング用画像を記録するようにした撮像装置が開示されている。   Therefore, for example, in Patent Document 1, by extracting the number, position, and size of the faces of the characters from the video as face posture data, and using this extraction result, the characters are classified. A video classification device that enables image retrieval is disclosed. Japanese Patent Application Laid-Open No. 2004-228561 discloses an imaging apparatus that records an ending image at the end of a moving image that has been shot.

国際公開第2006/025272号International Publication No. 2006/025272 特開2008−301357号公報JP 2008-301357 A

このように、従来より種々提案されているが、これらはいずれも複雑な操作プロセスを前提としており、撮影した動画を即座に楽しむことができなかった。   As described above, various proposals have been made heretofore, but all of them are based on a complicated operation process, and it has been impossible to immediately enjoy the captured moving image.

本発明は、このような事情を鑑みてなされたものであり、撮影した動画を簡単に即座に楽しむことができる撮影装置、表示装置、再生装置、撮影方法、および表示方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a photographing device, a display device, a reproducing device, a photographing method, and a display method capable of easily and immediately enjoying a captured moving image. And

上記目的を達成するため第1の発明に係わる撮影装置は、撮影モードと再生モードを有する撮影装置において、上記撮影モードで撮影中に撮影動画を記録する記録部と、上記撮影モードで撮影中に上記撮影動画に現れる人物を判定し、判定結果を上記記録部に記録する第1判定部と、上記再生モードによる再生時であって上記撮影動画を複数集めて再生する際に、複数の撮影動作に共通して登場する人物を判定する第2判定部と、上記第2判定部の判定結果を利用し上記動画の一部を取り出し順次再生する再生部と、を有する。   In order to achieve the above object, a photographing apparatus according to a first aspect of the present invention is a photographing apparatus having a photographing mode and a reproduction mode, a recording unit for recording a photographed moving image during photographing in the photographing mode, and during photographing in the photographing mode. A first determination unit for determining a person appearing in the captured moving image and recording the determination result in the recording unit; and a plurality of shooting operations when collecting and reproducing a plurality of the captured moving images during reproduction in the reproduction mode. A second determination unit that determines a person who appears in common, and a reproduction unit that uses the determination result of the second determination unit to extract a part of the moving image and sequentially reproduce it.

第2の発明に係わる撮影装置は、画像を撮影する撮影部と、上記撮像部から連続して取得された画像を動画として記録する動画記録部と、上記撮像部で得た顔画像から、上記撮影動作中に、上記動画記録部に記録された動画に登場する人物を特定する人物特定部と、上記記録された動画をサムネイル表示する時に、上記人物特定結果に従って、上記特定された人物を含む画像を、代表画像として表示する表示制御部と、を有する。
第3の発明に係わる表示装置は、動画に現れる人物を判定する登場人物判定部と、複数の画像を並べて表示するための画像表示部と、上記画像表示部に表示された複数の画像に共通して登場する人物を判定する登場人物判定部と、上記登場人物判定部の判定結果に従って、上記動画の代表画像を決定する代表画像決定部と、を有する。
An imaging apparatus according to a second invention includes an imaging unit that captures an image, a moving image recording unit that records an image continuously acquired from the imaging unit as a moving image, and a facial image obtained by the imaging unit. During the shooting operation, the person specifying unit for specifying a person appearing in the moving image recorded in the moving image recording unit and the specified person according to the person specifying result when the recorded moving image is displayed as a thumbnail are included. A display control unit that displays an image as a representative image.
A display device according to a third invention is common to a character determination unit for determining a person appearing in a moving image, an image display unit for displaying a plurality of images side by side, and a plurality of images displayed on the image display unit. And a representative image determination unit that determines a representative image of the moving image according to a determination result of the character determination unit.

第4の発明に係わる撮影装置は、連続して被写体を撮影して動画像を得る撮像部と、上記撮像部で得られた動画像のうち、上記動画像の主たる登場人物を表す静止画を選択する静止画選択部と、上記動画像の再生時には、上記静止画像と、上記主たる登場人物を表す付加情報とを、関連付けて表示する表示制御部と、を有する。   According to a fourth aspect of the present invention, there is provided an imaging device for continuously capturing an image of a subject to obtain a moving image, and among the moving images obtained by the imaging unit, a still image representing a main character of the moving image. A still image selection unit to be selected; and a display control unit that displays the still image and additional information representing the main character in association with each other when the moving image is reproduced.

第5の発明に係わる撮影装置は、上記第4の発明において、上記登場人物を表す付加情報は、上記撮像部で得られた画像と、記録部に記録されているデータベースとの照合の結果、得られた人名情報である。
第6の発明に係わる撮影装置は、上記第4の発明において、上記付加情報と関連付けられた静止画は、上記動画の先頭または終了時に、再生または動画を表すサムネイルとして表示される。
According to a fifth aspect of the present invention, in the fourth aspect, the additional information representing the character is a result of collation between the image obtained by the imaging unit and a database recorded in the recording unit, It is the obtained person name information.
According to a sixth aspect of the present invention, in the fourth aspect, the still image associated with the additional information is displayed as a thumbnail representing reproduction or a moving image at the beginning or end of the moving image.

第7の発明に係わる撮影装置は、上記第4の発明において、周囲の音声を収音する音声収音部と、上記収音された音声に基づいて笑い声があるか否かを判定する音声判定部と、を有し、上記主たる登場人物は、上記音声判定部で笑い声が検出された時点の前のタイミングで音声を発していた人物を取得る登場人物とする。   According to a seventh aspect of the present invention, there is provided a photographing apparatus according to the fourth aspect, wherein the sound collecting unit picks up the surrounding sound and the sound determination for determining whether or not there is a laughter based on the picked up sound. The main character is a character who can pick up a person who has spoken at a timing before the time when the laughing voice is detected by the voice determination unit.

第8の発明に係わる再生装置は、複数の動画に関して、各々の動画に含まれる主被写体を判定する第1の主被写体判定部と、上記複数の動画に含まれる第1の主被写体群から、第2の主被写体を判定する第2の主被写体判定部と、上記第2の主被写体が登場する部分を優先的に再生するダイジェスト再生部と、を有する。   A playback device according to an eighth aspect of the present invention relates to a plurality of moving images, a first main subject determination unit that determines a main subject included in each moving image, and a first main subject group included in the plurality of moving images. A second main subject determination unit that determines a second main subject; and a digest reproduction unit that preferentially reproduces a portion where the second main subject appears.

第9の発明に係わる表示装置は、動画の画像データを記憶する動画記憶部と、上記動画を構成する静止画について主被写体が存在するか否かを判定する判定部と、上記判定部によって判定された主被写体に基づいて代表画像を決定し、この代表画像を表示する表示部と、を有する。   A display device according to a ninth aspect of the present invention includes a moving image storage unit that stores image data of a moving image, a determination unit that determines whether or not a main subject exists for the still image that constitutes the moving image, and the determination unit that determines A display unit that determines a representative image based on the main subject and displays the representative image.

第10の発明に係わる表示装置は、上記第9の発明において、上記表示部は、複数の各動画について主被写体をサムネイル表示する。
第11の発明に係わる表示装置は、上記第9の発明において、上記表示部は、複数の主被写体の中から代表画像を選択し、この代表画像を表示する。
第12の発明に係わる表示装置は、上記第9の発明において、上記主被写体は、予め登録されている人物像と一致した人物である。
In a display device according to a tenth aspect based on the ninth aspect, the display section displays the main subject as a thumbnail for each of a plurality of moving images.
In a display device according to an eleventh aspect based on the ninth aspect, the display section selects a representative image from a plurality of main subjects and displays the representative image.
In a display device according to a twelfth aspect according to the ninth aspect, the main subject is a person that matches a person image registered in advance.

第13の発明に係わる表示装置は、動画の画像データを記憶する動画記憶部と、上記動画を構成する静止画についての予め登録されている人物が存在するか否かを判定する判定部と、上記判定部によって判定された人物に基づいて代表画像を決定し、この代表画像を表示する表示部と、を有する。
第14の発明に係わる表示装置は、上記第13の発明において、上記判定部は、複数の動画の中で共通して登場する人物が映っている画像を代表画像として決定する。
A display device according to a thirteenth invention includes a moving image storage unit that stores image data of a moving image, a determination unit that determines whether or not there is a person registered in advance for the still image constituting the moving image, A display unit that determines a representative image based on the person determined by the determination unit and displays the representative image.
In the display device according to a fourteenth aspect based on the thirteenth aspect, the determination unit determines an image in which a person appearing in common among a plurality of moving images is shown as a representative image.

第15の発明に係わる撮影装置は、動画の画像データを出力する撮像部と、上記画像データに基づいて、画像の中に顔が含まれているか否かを判定する顔検出部と、顔を識別するための識別用データが記憶された顔データベースと、上記顔検出部による判定結果と、上記顔データベースに記憶された識別用データとに基づいて、上記画像データの中の顔が識別用データと一致するかを判定し、一致した場合には代表画像と決定する代表画像決定部と、上記代表画像決定部によって決定された代表画像を表示する表示部と、を有する 。   An imaging device according to a fifteenth aspect of the invention is an imaging unit that outputs image data of a moving image, a face detection unit that determines whether a face is included in an image based on the image data, a face Based on the face database in which identification data for identification is stored, the determination result by the face detection unit, and the identification data stored in the face database, the face in the image data is the identification data. And a representative image determining unit that determines a representative image if the two match, and a display unit that displays the representative image determined by the representative image determining unit.

第16の発明に係わる撮影方法は、画像を撮影し、連続して取得された画像を動画として記録し、撮影動作中に、上記記録された動画に登場する人物を特定し、上記記録された動画をサムネイル表示する時に、上記人物特定結果に従って、上記特定された人物を含む画像を、代表画像として表示する。   According to a sixteenth aspect of the present invention, there is provided a photographing method for photographing an image, recording continuously obtained images as a moving image, identifying a person appearing in the recorded moving image during a photographing operation, and recording the recorded image. When displaying a moving image as a thumbnail, an image including the specified person is displayed as a representative image according to the person specifying result.

第17の発明に係わる表示方法は、動画に現れる人物を判定し、複数の画像を並べて表示し、上記表示された複数の画像に共通して登場する人物を判定し、上記登場人物の判定結果に従って、上記動画の代表画像を決定する。   According to a seventeenth aspect of the present invention, there is provided a display method for determining a person appearing in a moving image, displaying a plurality of images side by side, determining a person who appears in common in the plurality of displayed images, and determining the character Then, the representative image of the moving image is determined.

本発明によれば、簡単に撮影した動画を簡単に即座に楽しむことができる撮影装置、表示装置、再生装置、撮影方法、および表示方法を提供することができる。   According to the present invention, it is possible to provide a photographing device, a display device, a playback device, a photographing method, and a display method capable of easily and immediately enjoying a moving image that has been photographed easily.

本発明の一実施形態に係わるカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、主被写体を選択するにあたって使用する付加情報を示す図である。It is a figure which shows the additional information used when selecting the main subject in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、複数の動画から代表画像を抽出する例を示す図である。It is a figure which shows the example which extracts a representative image from several moving images in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、複数の動画から代表画像を抽出する他の例を示す図である。It is a figure which shows the other example which extracts a representative image from several moving images in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、一つの動画から代表画像を抽出する例を示す図である。It is a figure which shows the example which extracts a representative image from one moving image in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、複数の動画を選択して再生する様子を示す図である。It is a figure which shows a mode that several moving images are selected and reproduced | regenerated in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、一つの動画を選択して部分再生する様子を示す図である。It is a figure which shows a mode that one moving image is selected and partially reproduced in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラのカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラの画像再生の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image reproduction of the camera concerning one Embodiment of this invention. 本発明の一実施形態に係わるカメラの画像再生の動作を示すフローチャートであり、図9に示すフローチャートの続きである。FIG. 10 is a flowchart showing an image reproduction operation of a camera according to an embodiment of the present invention, and is a continuation of the flowchart shown in FIG. 9. 本発明の一実施形態の変形例に係わるカメラにおいて、複数の動画から代表画像を選択して行うサムネイル表示を示す図である。It is a figure which shows the thumbnail display performed by selecting a representative image from several moving images in the camera concerning the modification of one Embodiment of this invention. 本発明の一実施形態の変形例に係わるカメラのサムネイル表示の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the thumbnail display of the camera concerning the modification of one Embodiment of this invention.

以下、図面に従って本発明を適用したカメラを用いて好ましい一実施形態について説明する。図1は、本発明の一実施形態に係わるカメラ10の電気回路を示すブロック図である。カメラ10は、デジタルカメラであり、画像処理及び制御部1、撮像部2、顔検出部3、記録部4、操作判定部6、音声収録部7、表示部8、時計部9、通信部12等から構成される。   Hereinafter, a preferred embodiment using a camera to which the present invention is applied will be described with reference to the drawings. FIG. 1 is a block diagram showing an electric circuit of a camera 10 according to an embodiment of the present invention. The camera 10 is a digital camera, and includes an image processing and control unit 1, an imaging unit 2, a face detection unit 3, a recording unit 4, an operation determination unit 6, an audio recording unit 7, a display unit 8, a clock unit 9, and a communication unit 12. Etc.

撮像部2は、撮影レンズや、シャッタ等の露出制御部、撮像素子、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって動画の画像データに変換する。この画像データは、信号処理及び制御部1および顔検出部3に出力される。   The imaging unit 2 includes an imaging lens, an exposure control unit such as a shutter, an imaging element, a driving and reading circuit for the imaging element, and converts the subject image formed by the imaging lens into moving image data by the imaging element. This image data is output to the signal processing and control unit 1 and the face detection unit 3.

画像処理及び制御部1は、記憶されているプログラムに従ってカメラ10の全体のシーケンスを制御する。また、撮像部2から出力される画像信号を取り込み、間引き処理、エッジ強調、色補正、画像圧縮等の種々の画像処理を行い、ライブビュー表示、記録部4への記録、表示部8での再生表示等の画像処理を行う。画像処理及び制御部1内には、代表画像決定部1b、合成表示部1c、音声分析部1dを含む。   The image processing and control unit 1 controls the entire sequence of the camera 10 according to a stored program. In addition, the image signal output from the imaging unit 2 is captured, and various image processes such as thinning processing, edge enhancement, color correction, and image compression are performed, and live view display, recording in the recording unit 4, and recording on the display unit 8 are performed. Image processing such as playback display is performed. The image processing and control unit 1 includes a representative image determination unit 1b, a composite display unit 1c, and a voice analysis unit 1d.

代表画像決定部1bは、後述するように、動画像の画像データに基づいて、サムネイル表示やエンディング等に使用する代表画像を決定する。撮影時には主被写体(代表画像の候補)を決定し(図中の「撮影時」の機能)、撮影終了後であって再生開始前に、主被写体に基づいて代表画像を決定する(図中の「再生時」の機能)。合成表示部1cは動画のエンディング用として選択された代表画像を動画の最後に合成する。音声分析部1dは、後述する音声収録部7から入力した周囲の音声データを用いて音声分析を行い、例えば、音声データに笑い声が含まれているか、また音声が大きいか小さいか等を分析する。   As will be described later, the representative image determination unit 1b determines a representative image to be used for thumbnail display, ending, and the like based on the image data of the moving image. The main subject (candidate for representative image) is determined at the time of shooting (the function of “when shooting” in the figure), and the representative image is determined based on the main subject after the shooting is finished and before the start of reproduction (in the figure) "When playing" function). The composition display unit 1c synthesizes the representative image selected for moving image ending at the end of the moving image. The voice analysis unit 1d performs voice analysis using surrounding voice data input from the voice recording unit 7 to be described later, and analyzes, for example, whether the voice data includes a laughing voice and whether the voice is loud or small. .

顔検出部3は、撮像部2から画像データを入力し、この画像データに基づいて、画像の中に人物の顔の部分が含まれているか否かについて判定する。そして、判定の結果、顔の部分が含まれている場合には、顔の位置やその大きさ等を判定し、さらに、後述する顔データベース(顔DB)4bに記録されている複数の人物と同一の特定人物が含まれているか否かも判定する。また、顔検出部3は、顔が含まれていた場合には、笑顔度の判定も行う。笑顔度は、笑顔の程度を数値化したものであり、数値が大きいほど笑顔度も高くなる。   The face detection unit 3 inputs image data from the imaging unit 2, and determines whether or not a human face portion is included in the image based on the image data. If the face is included as a result of the determination, the position and size of the face are determined, and a plurality of persons recorded in a face database (face DB) 4b to be described later are determined. It is also determined whether or not the same specific person is included. The face detection unit 3 also determines the smile level when a face is included. The smile level is a numerical value of the degree of smile. The higher the value, the higher the smile level.

記録部4は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理及び制御部1によって画像処理された動画の画像データを記録する。また、画像データを記録するにあたって、顔の位置・大きさ・特徴等の情報と関連付けられ、この付加情報を記憶する。また、付加情報としては、これ以外にも音声分析部1dによる分析結果や、後述する時計部9によって取得する撮影日時情報等も含まれる。顔DB4bは、撮影者の家族や友人等の顔の画像やその特徴を登録しておくためのデータベースである。また、顔DB4bには、顔の画像に関連付けて、その人の氏名も登録されている。   The recording unit 4 records image data of a moving image acquired by the imaging unit 2 and subjected to image processing by the image processing and control unit 1 when a shooting instruction is given by the release button. Further, when recording image data, this additional information is stored in association with information such as the position, size, and characteristics of the face. Further, the additional information includes the analysis result by the voice analysis unit 1d, shooting date / time information acquired by the clock unit 9 described later, and the like. The face DB 4b is a database for registering facial images of the photographer's family and friends and their characteristics. The face DB 4b also registers the person's name in association with the face image.

操作判定部6は、レリーズ釦等の操作部材の操作状態を判定し、この判定した操作状態を信号処理及び制御部1に出力する。音声収録部7は、周囲の音声を収集するためのマイクと音声信号の増幅等を行うための音声処理回路、およびアナログ音声信号をデジタル音声データに変更するAD変換回路等を含み、音声データを信号処理および制御部1内の音声分析部1dに出力する。   The operation determination unit 6 determines an operation state of an operation member such as a release button and outputs the determined operation state to the signal processing and control unit 1. The sound recording unit 7 includes a microphone for collecting surrounding sounds, a sound processing circuit for performing amplification of sound signals, an AD conversion circuit for changing analog sound signals to digital sound data, and the like. Signal processing and output to the voice analysis unit 1d in the control unit 1.

表示部8は、ライブビュー表示、再生表示、メニュー表示等の各種表示を行う。また、この表示部8はタッチパネルも兼ねており、撮影者の指等がタッチした位置も検出可能である。時計部9は、カレンダー機能や時計機能を有し、撮影時には撮影日時情報を出力する。通信部12は、画像データ等をカメラ10の外部に送信し、通信手段としては、赤外線通信、無線通信、有線通信等の通信があり、またUSBメモリ等による外部出力でも良い。   The display unit 8 performs various displays such as live view display, playback display, and menu display. The display unit 8 also serves as a touch panel and can detect a position touched by a photographer's finger or the like. The clock unit 9 has a calendar function and a clock function, and outputs shooting date / time information during shooting. The communication unit 12 transmits image data or the like to the outside of the camera 10, and the communication means includes communication such as infrared communication, wireless communication, and wired communication, and may be external output using a USB memory or the like.

次に、記録部4に記録される画像データ、および画像データに付帯して記録される付加情報について、図2を用いて説明する。図2(a)は、動画で記録された画像1の関連情報の一例であり、図2(b)は画面の分割例を示し、本実施形態においては、領域A1〜A9の9分割である。各領域A1〜A9では、図2(c)に示すように、顔の大きさをD1〜D3の3段階に分けている。   Next, image data recorded in the recording unit 4 and additional information recorded accompanying the image data will be described with reference to FIG. FIG. 2A is an example of related information of the image 1 recorded as a moving image, and FIG. 2B shows an example of screen division. In the present embodiment, there are nine divisions of the areas A1 to A9. . In each of the areas A1 to A9, as shown in FIG. 2C, the face size is divided into three stages D1 to D3.

図2(a)中、時間(秒)は、動画の画像1について、撮影開始からの経過時間を示している。図2(a)に示すように、撮影開始時(0秒時)には、画像中には、顔が2つ映っている。その内の一人は、特定人物P−A、A4の位置(画面左側中央)に顔のサイズD2(図2(b)参照)、笑顔度は6であり、他の一人は、不明の人物P−X、A6の位置(画面右側中央)に顔のサイズD3、笑顔度が7である。笑顔度は数値が大きいほど、笑顔の程度も高くなる。また、周囲の音声は小さく、このときの撮影日時は9月15日11時21分10秒である。   In FIG. 2A, time (seconds) indicates an elapsed time from the start of shooting for the image 1 of the moving image. As shown in FIG. 2A, at the start of shooting (at 0 seconds), two faces appear in the image. One of them is the face size D2 (see FIG. 2B) at the position of the specific person PA, A4 (center on the left side of the screen), the smile degree is 6, and the other person is the unknown person P The face size D3 and the smile degree are 7 at the positions of X and A6 (center on the right side of the screen) The higher the smile level, the higher the smile level. The surrounding sound is low, and the shooting date and time at this time is 11:21:10 on September 15.

本実施形態においては、図2(a)に示すように、5秒おきに、顔画像の数、位置、大きさ、特徴と、周囲の音声の大きさ、撮影日時情報が判定されて、記録部4に記録される。また、記録部4には、代表画像の候補(主被写体)となりうるかについても、判定し記録される。図2(a)の例では、0秒経過時には、2人が映っているが、顔サイズが共にD2と同じで、しかも画面の両脇(A4およびA6の位置)であることから、いずれの人物も主被写体といえず、候補は「なし」と記録される。   In this embodiment, as shown in FIG. 2 (a), the number, position, size, and characteristics of the face image, the volume of surrounding audio, and the shooting date / time information are determined every 5 seconds and recorded. Part 4 is recorded. Further, the recording unit 4 also determines and records whether or not it can be a representative image candidate (main subject). In the example of FIG. 2A, two people are shown when 0 second elapses, but both face sizes are the same as D2, and both sides of the screen (positions A4 and A6). A person cannot be said to be a main subject, and a candidate is recorded as “none”.

撮影開始から5秒経過時には、2人が映っているが、顔サイズは一方はD2、他方がD3と小さく、かつ画面の両脇(A4およびA6の位置)であることから、いずれの人物も主被写体といえず、候補は「なし」と記録される。次に、撮影開始から10秒経過時には、3人が映っており、このうち特定人物P−Aがまん中(A5の位置)にD2のサイズで映っている。まん中で特定人物あることから、このP−Aは主被写体であり、このP−Aを代表画像の候補として記録する。撮影開始から15秒経過時および20秒経過時も、3人が映っており、これらのタイミングでも、特定人物P−Aがまん中(A5の位置)にD2のサイズで映っている。まん中で特定人物あることから、このP−Aを代表画像の候補として記録する。   When 5 seconds have elapsed since the start of shooting, two people are shown, but the face size is small, D2 on one side and D3 on the other, and both sides of the screen (positions A4 and A6). The candidate is not recorded as a main subject and is recorded as “none”. Next, when 10 seconds have elapsed from the start of shooting, three people are shown, and among these, the specific person PA is shown in the middle (position A5) in the size of D2. Since there is a specific person in the middle, this PA is the main subject, and this PA is recorded as a representative image candidate. At 15 seconds and 20 seconds from the start of shooting, three people are shown, and even at these timings, the specific person PA is shown in the middle (position A5) in the size of D2. Since there is a specific person in the middle, this PA is recorded as a representative image candidate.

次に、図3を用いて、複数の動画像から代表画像を決定する考え方について説明する。動画像A21、動画像B22、動画像C23は、一連に記録された動画像である。各動画像は連続した静止画像の集まりである。動画像A21内には人物26および人物28が映っており、動画像B22内には人物26が映っており、動画像C23内には人物26と人物27が映っている。ここに登場した人物26〜28について、顔DB4b内に登録されている人物と対比して同一人物がいるか否かを判定すると、人物26はB子に対応し、人物27はC子に対応し、人物28は対応する特定人物がおらず、また、顔DB4bにはA子が登録されているが、動画A21〜動画C23には登場していない。   Next, the concept of determining a representative image from a plurality of moving images will be described with reference to FIG. The moving image A21, the moving image B22, and the moving image C23 are moving images recorded in series. Each moving image is a collection of continuous still images. A person 26 and a person 28 are shown in the moving image A21, a person 26 is shown in the moving image B22, and a person 26 and a person 27 are shown in the moving image C23. When it is determined whether or not the persons 26 to 28 appearing here are the same as the persons registered in the face DB 4b, the person 26 corresponds to the B child and the person 27 corresponds to the C child. The person 28 does not have a corresponding specific person, and the child A is registered in the face DB 4b, but does not appear in the moving pictures A21 to C23.

このような一連の動画A21〜動画C23の登場人物を分析すると、いずれの動画21〜23にも、人物26(B子)が登場しており、また、人物28は顔DB4bに登録されておらず、さらに、人物27(C子)は画面中央部23cに登場するものの、最後しか登場しないし、小さな像であることから、代表画像としては人物26(B子)が決定される。本実施形態においては、最初と最後の動画像に登場し、かつある程度の大きさの像である人物を代表画像として決定する。   When characters in such a series of videos A21 to C23 are analyzed, the person 26 (B child) appears in any of the videos 21 to 23, and the person 28 is not registered in the face DB 4b. Furthermore, although the person 27 (C child) appears in the screen center portion 23c, it appears only at the end, and since it is a small image, the person 26 (B child) is determined as the representative image. In the present embodiment, a person who appears in the first and last moving images and has a certain size is determined as a representative image.

次に、図4を用いて、決定された代表画像をエンディング用に表示する例を説明する。動画D31、動画E32、動画F33の例は、いずれも旅行に行った際に撮影された動画である。この動画31〜33に基づいて、図3で説明したのと同様に、代表画像となる人物を決定する。動画D31には人物26が、動画E32には人物26が、それぞれ映っている。また、動画F33を構成する画像33a、33b、33cにも人物26がそれぞれ映っている。これらの分析に基づいて、本例においては、一番頻度が高かった人物26を代表画像として決定する。   Next, an example in which the determined representative image is displayed for ending will be described with reference to FIG. The examples of the moving image D31, the moving image E32, and the moving image F33 are all moving images taken when traveling. Based on the moving images 31 to 33, the person to be the representative image is determined in the same manner as described with reference to FIG. A person 26 is shown in the moving picture D31, and a person 26 is shown in the moving picture E32. A person 26 is also shown in each of the images 33a, 33b, and 33c constituting the moving image F33. Based on these analyses, in this example, the person 26 who has the highest frequency is determined as a representative image.

このように複数の動画を連続再生する場合に、一番頻度の高かった人物を登場人物の中で主演のように扱い、動画再生の終了時に、エンディング34で表示する。すなわち、エンディング34は、図4に示すように、決定された代表画像、すなわち人物26を表示すると共に、主演者の氏名を表示する。ここで主演者の氏名は顔DB4bに登録されている顔画像と氏名とに基づいて検索して表示する。   In this way, when a plurality of moving images are continuously reproduced, the person who has the highest frequency is treated as a leading character among the characters, and displayed at the ending 34 at the end of the moving image reproduction. That is, as shown in FIG. 4, the ending 34 displays the determined representative image, that is, the person 26, and the name of the main performer. Here, the name of the main performer is retrieved and displayed based on the face image and name registered in the face DB 4b.

次に、図5を用いて、1つの動画を再生する際に、その中の一部を再生する部分再生について説明する。図5は、宴会のようなイベントの様子を撮影した動画の例である。このようなイベントでは、参加者が大笑いして盛り上がるシーンがあり、このような場面は後から再生しても楽しむことができる。しかし、部分再生する際に、いきなり大笑いの場面から始めると、大笑いのきっかけとなった理由が分からず、唐突な感じがする。そこで、本実施形態においては、大笑いのシーンの基となった質問のシーンから再生するようにしている。   Next, with reference to FIG. 5, partial playback for playing back a part of a moving image will be described. FIG. 5 is an example of a moving image that captures an event such as a banquet. In such an event, there is a scene where participants laugh and swell, and such a scene can be enjoyed even if played back later. However, if you start from the scene of a big laugh when playing partly, you don't know the reason for the big laugh and you feel abrupt. Therefore, in the present embodiment, reproduction is performed from the question scene that is the basis of the scene of laughter.

すなわち、図5に示す例では、動画の部分41において、人物26が人物29に対して質問し、次のタイミングの動画の部分42において人物29が答え、さらに次のタイミングの動画の部分43で、みんなが大笑いしている。そこで、大笑いしている部分43を検出すると、この大笑いのきっかけとなった動画の部分41から部分再生を行うようにしている。具体的には、音声分析部1dによって、大笑いのシーンの前に発せられた言葉を「答え」とし、この「答え」の前に発せられた言葉を「質問」と判定する。この「質問」から後のシーンを部分再生する。もちろん、「質問」と「答え」の後に、「つっこみ」が入ることもあるので、「質問」特有の語尾が上がる言葉か否かを判定してもよく、また、「ですか?」、「なの?」等、質問特有の語句を含むかを判定しても良い。   That is, in the example shown in FIG. 5, in the video portion 41, the person 26 asks the person 29 a question, the person 29 answers in the next timing video portion 42, and then in the next timing video portion 43. And everyone laughs. Therefore, when a part 43 laughing is detected, partial playback is performed from the part 41 of the moving image that triggered the laughing. Specifically, the speech analysis unit 1d determines that the word issued before the scene of laughter is “answer” and the word issued before this “answer” is determined as “question”. The scene after this “question” is partially reproduced. Of course, “Tsukumi” may be inserted after “Question” and “Answer”, so it may be determined whether the word ends with a specific “Question”. It may be determined whether or not it contains a phrase unique to the question, such as "What?"

次に、図6を用いて、複数の動画を連続して再生する場合について説明する。動画を再生する場合、最初、表示部8に動画のサムネイルが表示される。図6に示した例では、縦3、横3に配置され、合計9個の動画のサムネイルが表示される。図6(a)は、動画のサムネイル表示がなされた状態を示し、図6(b)はユーザが左上端の動画をタッチすることにより選択した様子を示し、図6(c)はまん中上の動画をタッチすることにより選択した様子を示し、このあと図示しないが、右上端の動画を選択している。   Next, the case where a plurality of moving images are continuously reproduced will be described with reference to FIG. When playing back a moving image, first, a thumbnail of the moving image is displayed on the display unit 8. In the example shown in FIG. 6, the thumbnails of nine moving images are displayed in a vertical 3 and horizontal 3 manner. FIG. 6A shows a state where a thumbnail of the moving image is displayed, FIG. 6B shows a state where the user has selected by touching the moving image at the upper left corner, and FIG. 6C shows the upper middle. A state of selection by touching a moving image is shown. After that, although not shown, the moving image in the upper right corner is selected.

複数の動画を選択すると(図6に示す例では3つ)、次に、ユーザは表示部8に表示されている再生マークをタッチする。タッチパネル等によって、ユーザの再生指示を検知すると、カメラ10は、複数の動画の再生を開始する。なお、タッチパネル以外にも、十字釦等によってカーソルを移動させ、OK釦で確定する等、指示の仕方は適宜、変更しても良い。   When a plurality of moving images are selected (three in the example shown in FIG. 6), the user next touches a reproduction mark displayed on the display unit 8. When the user's playback instruction is detected by a touch panel or the like, the camera 10 starts playback of a plurality of moving images. In addition to the touch panel, the instruction may be changed as appropriate, for example, by moving the cursor with the cross button or the like and confirming with the OK button.

次に、図7を用いて、1つの動画の部分を再生する部分再生について説明する。表示部8上で、1つの動画を、図7(a)に示すように選択し、続いて、図7(b)に示すように再生を選択すると、図7(c)に示すように、「部分」と「全編」のいずれかを選択するための表示がなされる。全編は、選択された動画について、最初から最後まで通しで再生表示するモードであり、部分は、選択された動画について、図5を用いて説明したように、大笑いのシーンのきっかとなったシーンから再生するモードである。   Next, with reference to FIG. 7, partial reproduction for reproducing one moving image portion will be described. When one moving image is selected on the display unit 8 as shown in FIG. 7 (a) and then playback is selected as shown in FIG. 7 (b), as shown in FIG. 7 (c), A display for selecting either “part” or “full-length” is displayed. The full version is a mode in which the selected video is reproduced and displayed from the beginning to the end, and the part is a scene that becomes a laughing scene of the selected video as described with reference to FIG. It is a mode to play from.

以上、図3ないし図7を用いて説明した本実施形態の動作を実行するためのフローを、図8ないし図10に示すフローチャートを用いて説明する。図8はカメラ制御のフローである。カメラ制御のフローに入ると、まず、電源がオンか否かの判定を行う(S101)。このステップでは、カメラ10の操作部材としてのパワースイッチがオンか否かを判定し、パワースイッチがオフの場合には、カメラ制御のフローを終了する。なお、カメラ制御のフローを終了しても、パワースイッチの状態を検知しており、パワースイッチがオンとなると、ステップS101から動作を開始する。   The flow for executing the operation of the present embodiment described with reference to FIGS. 3 to 7 will be described with reference to the flowcharts shown in FIGS. FIG. 8 is a camera control flow. If the camera control flow is entered, it is first determined whether or not the power is on (S101). In this step, it is determined whether or not a power switch as an operation member of the camera 10 is on. If the power switch is off, the camera control flow is terminated. Even when the camera control flow is finished, the state of the power switch is detected, and when the power switch is turned on, the operation starts from step S101.

ステップS101における判定の結果、電源がオンであった場合には、次に、撮影モードか否かの判定を行う(S102)。この判定の結果、撮影モードであった場合には、次に、ライブビュー表示を行う(S103)。ここでは、撮像部2によって取得された画像データに基づいて、表示部8に被写体像をライブビュー表示する。ユーザは、ライブビュー表示に基づいて、構図を決めたり、シャッタチャンスを決定し、レリーズ動作を行うことができる。   If the result of determination in step S101 is that the power supply is on, it is next determined whether or not it is in shooting mode (S102). If the result of this determination is that the camera is in shooting mode, then live view display is performed (S103). Here, the subject image is displayed in live view on the display unit 8 based on the image data acquired by the imaging unit 2. The user can determine the composition or the photo opportunity based on the live view display and perform the release operation.

ライブビュー表示を開始すると、次に、記録開始を行うか否かの判定を行う(S104)。ここでは、レリーズ釦を操作されたか否かを操作判定部6において判定する。本実施形態においては、最初、レリーズ釦を操作すると、動画の記録を開始し、再度、レリーズ釦を操作すると、動画の記録を終了する。   Once the live view display is started, it is next determined whether or not to start recording (S104). Here, the operation determination unit 6 determines whether or not the release button has been operated. In the present embodiment, when the release button is first operated, the recording of the moving image is started, and when the release button is operated again, the recording of the moving image is ended.

ステップS104における判定の結果、記録開始でなかった場合には、ステップS101に戻る。一方、判定の結果、記録開始であった場合には、撮影、収音、記録、および計時を行う(S111)。このステップでは、撮像部2によって画像データを取得し、信号処理および制御部1によって画像処理された動画の画像データを記録部4に記録する。また、音声収録部7によって音声データを取得し、音声分析部1dに出力する。また、時計部9によって動画の記録開始からの時間を計時する。   If the result of determination in step S104 is that recording has not started, processing returns to step S101. On the other hand, if the result of determination is that recording has started, shooting, sound collection, recording, and timing are performed (S111). In this step, image data is acquired by the imaging unit 2, and moving image data that has been subjected to image processing by the signal processing and control unit 1 is recorded in the recording unit 4. Also, voice data is acquired by the voice recording unit 7 and output to the voice analysis unit 1d. Further, the clock unit 9 measures the time from the start of moving image recording.

続いて、顔(表情)を検出し、また笑い声の検出を行う(S112)。このステップでは、顔検出部3によって、図2を用いて説明した、顔の位置と特徴、大きさおよび笑顔度について判定する。また、音声収録部7によって取得された音声データを用いて、音声分析部1dは、音声の中に笑い声が含まれているか否か、声が大きいか否か等を検出する。   Subsequently, a face (expression) is detected and laughter is detected (S112). In this step, the face detection unit 3 determines the face position, characteristics, size, and smile level described with reference to FIG. Further, using the voice data acquired by the voice recording unit 7, the voice analysis unit 1d detects whether or not a laughing voice is included in the voice, whether or not the voice is loud, and the like.

続いて、時間ごとの顔に関する情報を記録し、また、時間ごとの笑い声に関する情報を記録する(S113)。ここでは、ステップS112において、検出した顔(表情)や笑い音声の情報を、時間ごとに記録部4に記録する。これによって、図2(a)に示した情報のうち、最下段の候補の情報以外を記録することができる。次に、画面中央でのスナップ写真か否かの判定を行う(S114)。ここで、スナップ写真か否かの判定は、例えば、撮影倍率が1/50程度であるかどうか、言い換えると、例えば、35mmフィルム換算で焦点距離50mmの場合、50×50=2500、つまり2.5m程度より近い被写体であるか、または腰から上の人物像の写真であるかどうか等について判定する。また、スナップ写真であった場合には、さらに顔検出部3によって検出された顔の部分が画面中央にあるか否かを判定する。   Subsequently, information about the face for each hour is recorded, and information about the laughter for each hour is recorded (S113). Here, in step S112, the detected face (expression) and laughing voice information are recorded in the recording unit 4 for each time. This makes it possible to record information other than the lowest candidate information among the information shown in FIG. Next, it is determined whether or not the snapshot is in the center of the screen (S114). Here, the determination as to whether or not it is a snap photograph is, for example, whether or not the photographing magnification is about 1/50, in other words, for example, when the focal length is 50 mm in terms of 35 mm film, 50 × 50 = 2500. It is determined whether the subject is closer than about 5 m or a photograph of a person image above the waist. If it is a snapshot, it is further determined whether or not the face portion detected by the face detector 3 is in the center of the screen.

ステップS114における判定の結果、画面中央のスナップ写真であった場合には、次に、主被写体として候補化し、またそのタイミングを記録する(S115)。ここでは、図2(a)に示した情報のうち、最下段の候補の情報を計時時間に対応させて記録する。この記録を行うと、またはステップS114における判定の結果、画面中央スナップでなかった場合には、次に、記録終了か否かの判定を行う(S116)。ここでは、レリーズ釦が再度、操作されたか否かを操作判定部6によって判定する。この判定の結果、記録終了でなかった場合には、ステップS101に戻る。   If the result of determination in step S114 is a snapshot at the center of the screen, then the candidate is selected as the main subject and its timing is recorded (S115). Here, among the information shown in FIG. 2A, the information on the lowest candidate is recorded in correspondence with the time measurement. If this recording is performed, or if the result of determination in step S114 is that the screen is not center snap, it is next determined whether or not recording has ended (S116). Here, the operation determination unit 6 determines whether or not the release button has been operated again. If the result of this determination is that recording has not ended, processing returns to step S101.

ステップS116における判定の結果、記録終了であった場合には、動画撮影を終了し、ステップS121以下において、エンディング用の画像生成のための前処理を行う。まず、主被写体候補があるか否かの判定を行う(S121)。ここでは、ステップS115における主被写体候補の記録があるか否かの判定を行う。すなわち、図2(a)の情報のうち、最下段にP−Aのように候補となる特定人物が記録されているか否かを判定する。   If the result of determination in step S116 is that recording has been completed, moving image shooting is terminated, and in step S121 and subsequent steps, preprocessing for generating an ending image is performed. First, it is determined whether there is a main subject candidate (S121). Here, it is determined whether or not the main subject candidate is recorded in step S115. That is, it is determined whether or not a candidate specific person is recorded at the bottom of the information in FIG.

ステップS121における判定の結果、主被写体候補が記録されていれば、次に、データベースで対応テキストの判定を行い(S122)、対応テキストが有ったか否かの判定を行う(S123)。ここでは、顔DB4bに候補された特定人物の名前がテキスト情報として登録されているか否かを判定する。   If the result of determination in step S121 is that a main subject candidate has been recorded, next, the corresponding text is determined in the database (S122), and it is determined whether there is corresponding text (S123). Here, it is determined whether or not the name of the specific person who is a candidate in the face DB 4b is registered as text information.

ステップS123における判定の結果、対応テキストが有った場合には、その主被写体の名前を動画の画像データと共に付加情報として記録する(S124)。主被写体名を記録すると、またはステップS123における判定の結果、対応テキストが無かった場合には、次に、全候補の判定が済んだか否かの判定を行う(S125)。このステップでは、図2(a)の最下段に示した候補の全てについて、ステップS121〜S124における処理を行ったか否かの判定を行う。この判定の結果、全候補について判定が済んでいなかった場合には、ステップS121に戻る。一方、全候補について判定が済んだ場合には、ステップS101に戻る。   If the result of determination in step S123 is that there is a corresponding text, the name of the main subject is recorded as additional information together with moving image data (S124). If the main subject name is recorded or if the result of determination in step S123 is that there is no corresponding text, it is next determined whether or not all candidates have been determined (S125). In this step, it is determined whether or not the processing in steps S121 to S124 has been performed for all of the candidates shown in the lowermost stage of FIG. As a result of this determination, if all the candidates have not been determined, the process returns to step S121. On the other hand, if all the candidates have been determined, the process returns to step S101.

ステップS102における判定の結果、撮影モードでなかった場合には、次に、再生モードか否かの判定を行う(S131)。このステップでは、操作判定部6によって再生モードが選択されたか否かの判定を行う。この判定の結果、再生モードでなかった場合には、ステップS101に戻る。   If the result of determination in step S <b> 102 is not shooting mode, it is next determined whether or not playback mode is in effect (S <b> 131). In this step, it is determined whether or not the playback mode has been selected by the operation determination unit 6. If the result of this determination is not playback mode, processing returns to step S101.

一方、ステップS131における判定の結果、再生モードであった場合には、画像再生を行う(S132)。ここでは、選択された複数または1つの動画の再生を行う。複数の動画が選択された場合には、それらの動画を順番に再生する。また、1つの動画の再生の場合には、図5を用いて説明した部分再生を選択することも可能である。この画像再生の詳細は、図9および図10を用いて、後述する。画像再生が終わると、ステップS101に戻る。   On the other hand, if the result of determination in step S131 is playback mode, image playback is performed (S132). Here, the selected plurality or one moving image is reproduced. When a plurality of moving images are selected, the moving images are reproduced in order. In the case of reproducing one moving image, it is possible to select the partial reproduction described with reference to FIG. Details of this image reproduction will be described later with reference to FIGS. When the image reproduction ends, the process returns to step S101.

次に、図9および図10を用いて、画像再生のフローについて説明する。この画像再生のフローに入ると、まず、終了か否かの判定を行う(S201)。このステップでは、再生釦等を再び押圧する等の操作により、ユーザが再生モードの終了を指示したか否かの判定を行う。この判定の結果、終了であった場合には、画像再生を終了し、元のフローにリターンする。   Next, an image reproduction flow will be described with reference to FIGS. 9 and 10. If the flow of image reproduction is entered, it is first determined whether or not it is finished (S201). In this step, it is determined whether or not the user has instructed to end the reproduction mode by an operation such as pressing the reproduction button again. If the result of this determination is end, image playback ends and the flow returns to the original flow.

ステップS201における判定の結果、終了でなかった場合には、サムネイル表示を行う(S202)。このステップでは、選択されている各動画において、最初に候補とされた主被写体が映っている画像を、図6(a)に示すように、表示部8にサムネイル表示する。例えば、図2に示した画像1が選択されている場合には、動画の撮影開始後、10秒経過時にP−Aが候補として記録されているので、この10秒経過時の画像をサムネイル表示する。   If the result of determination in step S201 is not end, thumbnail display is performed (S202). In this step, as shown in FIG. 6A, thumbnails are displayed on the display unit 8 of the images of the main subject that is the first candidate in each selected moving image. For example, when the image 1 shown in FIG. 2 is selected, since PA is recorded as a candidate when 10 seconds have elapsed since the start of moving image recording, the image when 10 seconds has elapsed is displayed as a thumbnail. To do.

サムネイル表示を行うと、次に、選択されたか否かの判定を行う(S203)。ここでは、ユーザが再生を望む動画をタッチしたか否かの判定を行う。この判定の結果、選択された場合には、選択サムネイル枠の表示を行う(S211)。このステップでは、図6(b)(c)、図7(a)に示すように、選択された動画の枠を太線で表示する。なお、選択されたことを示すには、枠線を太くする以外にも、枠線の色を変更したり、フラッシュ表示する等、種々の表示方法に変更しても勿論かまわない。   Once thumbnail display has been performed, it is next determined whether or not it has been selected (S203). Here, it is determined whether or not the user has touched the video that the user desires to play. If the result of this determination is that it has been selected, the selected thumbnail frame is displayed (S211). In this step, as shown in FIGS. 6B, 6C, and 7A, the frame of the selected moving image is displayed with a bold line. In order to indicate that the frame has been selected, it is of course possible to change the display method to various display methods such as changing the color of the frame line or displaying it in flash, in addition to making the frame line thicker.

選択サムネイル枠の表示を行うと、次に、再生画像順番決定を行う(S212)。本実施形態においては、ユーザがタッチした順に動画を再生することにしているので、ここでは、タッチされた順番に動画の再生順番を決定する。続いて、再生画像トータル時間の判定を行う(S213)。ここでは、選択されている動画の各再生時間の総和を求める。再生画像のトータル時間の判定を行うと、ステップS203に戻る。   Once the selected thumbnail frame is displayed, the playback image order is determined (S212). In the present embodiment, the moving images are played back in the order in which the user touches, so here, the playback order of the moving images is determined in the touched order. Subsequently, the total reproduction image time is determined (S213). Here, the sum of the playback times of the selected moving images is obtained. When the total time of the reproduced image is determined, the process returns to step S203.

ステップS203における判定の結果、選択されていなかった場合には、選択終了か否かの判定を行う(S221)。すなわち、ステップS203において選択操作が有る都度、ステップS211に分岐し、選択操作が終了するまでは、ステップS221をS201に分岐する。ユーザが動画再生の操作等を行うと、ステップS221からS222に分岐し、複数動画が選択されたか否かの判定を行う(S222)。ステップS203〜S213において、複数の動画を選択したか否かを判定する。この判定の結果、複数の動画を選択していた場合には、選択した最初と最後の動画に登場する人物を判定する(S223)。ここでは、選択された最初の動画に登場する候補と、最後の動画に登場する候補を抽出する。例えば、図2に示す画像1が選択されると、P−A、P−B、P−Xの3人が登場しているが、候補としては、P−Aが記録されているので、このP−Aを抽出する。   If the result of determination in step S203 is that no selection has been made, it is determined whether or not selection has been completed (S221). That is, every time there is a selection operation in step S203, the process branches to step S211 and step S221 is branched to S201 until the selection operation ends. When the user performs an operation for reproducing a moving image or the like, the process branches from step S221 to S222, and it is determined whether or not a plurality of moving images has been selected (S222). In steps S203 to S213, it is determined whether a plurality of moving images have been selected. As a result of this determination, if a plurality of moving images have been selected, the person appearing in the selected first and last moving images is determined (S223). Here, candidates appearing in the selected first moving image and candidates appearing in the last moving image are extracted. For example, when the image 1 shown in FIG. 2 is selected, three people, PA, PB, and PX, appear, but since PA is recorded as a candidate, Extract PA.

次に、ステップS223において判定された人物が主被写体か否かの判定を行う(S224)。このステップでは、最初の動画で候補として判定された人物と、最後の動画で候補として判定された人物が一致するかを判定する。この判定の結果、一致していた場合には、この候補を主演と判定する(S227)。本実施形態においては、選択された最初と最後の動画の両方に映っている人物を主演として、エンディングにおいて表示を行うようにしている。   Next, it is determined whether or not the person determined in step S223 is the main subject (S224). In this step, it is determined whether the person determined as the candidate in the first moving image matches the person determined as the candidate in the last moving image. As a result of this determination, if they match, this candidate is determined to be the main character (S227). In this embodiment, the person appearing in both the selected first and last moving images is used as a star, and display is performed in the ending.

ステップS224における判定の結果、主被写体が一致していなかった場合、またはステップS222において、複数の動画が選択されていないと判定された場合には、次に、最も長く登場した人物を判定する(S225)。複数の動画で最初と最後に共通する主被写体がいなかった場合には、登場時間が最も長かった人物を検索する。また、1つしか選択されなかった場合にも、登場時間の最も長い人物を検索する。例えば、図5の例では、人物26、29が相当する。   If the result of determination in step S224 is that the main subject does not match, or if it is determined in step S222 that a plurality of moving images has not been selected, then the person who has appeared the longest is determined ( S225). If there is no main subject common to the beginning and end of a plurality of moving images, the person with the longest appearance time is searched. Even when only one is selected, the person with the longest appearance time is searched. For example, in the example of FIG.

最も長く登場した人物の判定を行うと、次に、最も長く登場した人物が主被写体であるか否かの判定を行う(S226)。本実施形態においては、顔DB4bに登録されている人物のみが、主被写体として扱われるので、ここでは、ステップS225において判定された人物が顔DB4bに登録されているか否かの判定を行う。この判定の結果、主被写体であれば、前述したようにステップS227において、主演と判定される。   Once the longest person has been determined, it is next determined whether or not the longest person is the main subject (S226). In the present embodiment, since only the person registered in the face DB 4b is treated as the main subject, it is determined here whether or not the person determined in step S225 is registered in the face DB 4b. As a result of this determination, if it is the main subject, it is determined as the main character in step S227 as described above.

ステップS227において主演と判定すると、またはステップS226における判定の結果、最も長く登場した人物が主被写体でなかった場合には、次に、主演以外の登場人物が有るか否かの判定を行う(S231)。このステップでは、選択されている1つ又は複数の動画の中に登場している人物がいるか否かを判定する。この判定の結果、登場人物がいた場合には、登場人物判定を行う(S232)。例えば、図2(a)に示した画像1では、P−Aが主演と判定されていることから、この登場人物以外のP−BおよびP−Xが登場人物と判定される。なお、登場人物としては、顔DB4bに登録されている人物以外であっても良い。この場合、顔検出部3によって、男性・女性の区別や、年齢等の推定ができれば、それらの情報も併せて取得しておいても良い。   If it is determined in step S227 that it is the main character, or if the result of determination in step S226 is that the person who has appeared the longest is not the main subject, it is next determined whether or not there is a character other than the main character (S231). ). In this step, it is determined whether or not there is a person appearing in the selected one or more moving images. If the result of this determination is that there is a character, character determination is performed (S232). For example, in the image 1 shown in FIG. 2A, since PA is determined to be the main character, PB and PX other than this character are determined to be characters. In addition, as a character, people other than those registered in the face DB 4b may be used. In this case, if the face detection unit 3 can discriminate between males and females and estimate the age, the information may be acquired together.

ステップS232において登場人物判定を行うと、またはステップS231における判定の結果、主演以外には登場人物がいなかった場合には、次に、部分再生か否かの判定を行う(S301)。前述した図7(c)において説明したように、表示部8の「部分」をタッチすると部分再生を実行することから、このステップでは、「部分」をタッチしたか否かの判定を行う。   If the character determination is made in step S232, or if the result of the determination in step S231 is that there is no character other than the main character, it is next determined whether or not partial reproduction is performed (S301). As described with reference to FIG. 7C described above, when “part” on the display unit 8 is touched, partial reproduction is executed. Therefore, in this step, it is determined whether or not “part” is touched.

ステップS301における判定の結果、「部分」をタッチしていなかった場合には、次に、順番に従って再生する(S302)。このステップでは、ステップS212において決定した順番に従って、動画の再生を行う。なお、再生にあたっては、全編再生を行うが、これ以外にも、各動画が長い場合には、それぞれのダイジェスト版を生成し、このダイジェスト版を再生するようにしても良い。この場合、所定時間に区切って、主演の人物の画像を3秒から5秒程度で、テンポ良く表示したり、撮影した画像の先頭画像や、終了画像など、また特徴的なシーンを判定し、その画像のみを3秒程度に切り替えて表示するようにしても良い。   If the result of determination in step S <b> 301 is that “part” has not been touched, playback is then performed in order (S <b> 302). In this step, the moving image is reproduced according to the order determined in step S212. In reproduction, full-length reproduction is performed, but in addition to this, when each moving picture is long, each digest version may be generated and the digest version may be reproduced. In this case, the image of the leading character is displayed at a good tempo in about 3 to 5 seconds divided into predetermined times, and the characteristic scene such as the first image and the end image of the photographed image is determined, Only the image may be displayed by switching to about 3 seconds.

順番に従って再生を開始すると、次に、最後まで再生したか否かの判定を行う(S303)。ここでは、ステップS212において決定された再生順番の最後まで再生したか否かを判定する。この判定の結果、最後まで再生していない場合には、ステップS302に戻り、動画の再生を継続する。   When reproduction is started in accordance with the order, it is next determined whether or not reproduction has been completed to the end (S303). Here, it is determined whether or not playback has been completed up to the end of the playback order determined in step S212. If the result of this determination is that playback has not been completed, the process returns to step S302 to continue playback of the moving image.

ステップS303における判定の結果、最後まで再生した場合には、ステップS304以下においてエンディングの表示を行う。まず、主演判定を行う(S304)。ここでは、ステップS227において、主演判定がなされているか否かの判定を行う。この判定の結果、主演判定がなされていた場合には、次に、主演が最も笑顔度が高い画像を表示する(S305)。図2(a)に示したように、検出された登場人物については、それぞれ笑顔度についても判定され、記録されているので、主演と判定された登場人物について、最も笑顔度の高い画像を検索する。図2(a)に示した例では、主演はP−Aであり、このP−Aの最も笑顔度の高い画像は、撮影開始15秒後であるので、このときのP−Aの画像を、図4の動画34に示すように表示する。   If the result of determination in step S303 is that reproduction has been completed, ending is displayed in step S304 and subsequent steps. First, a lead determination is performed (S304). Here, in step S227, it is determined whether or not the main character is determined. If the result of this determination is that the starring determination has been made, an image in which the starring has the highest smile level is then displayed (S305). As shown in FIG. 2 (a), since the detected characters are also determined and recorded for the smile level, search for the image with the highest smile level for the characters determined to be the main characters. To do. In the example shown in FIG. 2A, the starring is PA, and the image with the highest smile level of PA is 15 seconds after the start of photographing. As shown in the moving image 34 of FIG.

続いて、主演の名前を表示する(S306)。ステップS124において、主被写体の名前が記録されていることから、ここのステップでは、主演が映っている画像から主演の名前を判定し、図4の動画34に示すように表示する。従って、主演がいる場合には、まず、ステップS305において、主演の画像が表示され、続いて、ステップS306において主演の名前が表示される。なお、ステップS232において登場人物がいたと判定された場合には、これらの人物の名前を表示するようにしても良い。登場人物の名前が分からない場合には、登場人物『◎名』、『男性一人』、『おじさん』『赤ちゃん』等、判定できる範囲で表示すると、画面が賑やかになり楽しむことができる。   Subsequently, the name of the lead is displayed (S306). In step S124, since the name of the main subject is recorded, in this step, the name of the main character is determined from the image showing the main character and displayed as shown in the moving image 34 of FIG. Therefore, if there is a star, first, the image of the star is displayed in step S305, and then the name of the star is displayed in step S306. If it is determined in step S232 that there are characters, the names of these characters may be displayed. If you don't know the name of the character, you can display the characters “◎”, “one man”, “uncle”, “baby”, etc. in a determinable range, making the screen lively and enjoyable.

ステップS304における判定の結果、主演がいなかった場合には、全画像共通の日時を表示する(S307)。図2(a)に示したように、動画の撮影時には日時情報も併せて記録されているので、この日時情報に基づいて、複数の動画の共通の日時を表示する。撮影日が共通していればその日を、撮影日が共通でない場合には撮影月を、撮影月が共通でなければ撮影年を表示する。   If the result of determination in step S304 is that there is no star, the date and time common to all images is displayed (S307). As shown in FIG. 2A, since the date / time information is also recorded when the moving image is shot, the date / time common to a plurality of moving images is displayed based on the date / time information. If the shooting date is common, that day is displayed. If the shooting date is not common, the shooting month is displayed. If the shooting date is not common, the shooting year is displayed.

ステップS307において全画像共通日時を表示すると、またはステップS306において主演の名前を表示すると、次に、再生時間が1分以上か否かの判定を行う(S311)。ここでは、ステップS213において求めた再生画像トータル時間に基づいて判定する。この判定の結果、1分以上の場合には、10秒でエンディングの表示を終了し(S312)、一方、判定の結果、1分以内の場合には、3秒でエンディングの表示を終了する(S313)。再生時間が短いのにエンディングが長いと退屈な再生となるからである。本実施形態においては、再生時間に応じてエンディングの表示時間を変更している。   If the date and time common to all images is displayed in step S307 or the name of the main character is displayed in step S306, it is next determined whether or not the reproduction time is 1 minute or longer (S311). Here, the determination is made based on the total reproduction image time obtained in step S213. If the result of this determination is 1 minute or more, the ending display is finished in 10 seconds (S312). On the other hand, if the result of the determination is within 1 minute, the ending display is finished in 3 seconds ( S313). This is because if the playback time is short but the ending is long, the playback becomes boring. In the present embodiment, the ending display time is changed according to the playback time.

ステップS312またはS313においてエンディングの表示を終了すると、ステップ101(図8参照)に戻る。   When the ending display is finished in step S312 or S313, the process returns to step 101 (see FIG. 8).

ステップS301における判定の結果、部分再生であった場合には、次に、順番に従ってファイル判定を行う(S321)。ここでは、図6に示したサムネイルをタッチした順番、またはサムネイル指定と一緒に指定した順番が反映されるようにファイル判定を行う。続いて、指定ファイルに笑い声が有るか否かの判定を行う(S322)。動画の撮影時には、音声収録部7によって音声データを入力し、音声分析部1dにおいて、笑い声が含まれているか否か、またその声の大きさを判定し、図2(a)に示すように、判定結果を動画と共に記録している。この記録に基づいて、このステップでは笑い声が含まれているか否かを判定する。   If the result of determination in step S <b> 301 is partial playback, then file determination is performed according to the order (S <b> 321). Here, the file determination is performed so that the order of touching the thumbnails shown in FIG. 6 or the order specified together with the thumbnail specification is reflected. Subsequently, it is determined whether or not there is a laughter in the designated file (S322). At the time of shooting a moving image, audio data is input by the audio recording unit 7, and the audio analysis unit 1d determines whether or not a laughing voice is included and the magnitude of the voice, as shown in FIG. The determination result is recorded together with the moving image. Based on this record, it is determined in this step whether or not laughter is included.

ステップS322における判定の結果、笑い声が有った場合には、次に、その前の対話からから笑い声までを再生する(S323)。このステップでは、図5において説明したように、笑いのきっかけとなった対話から動画を再生する。なお、きっかけを時点が不明な場合には、笑いの手前の所定時間を再生する。   If the result of determination in step S322 is that there is a laughing voice, then from the previous dialogue to the laughing voice is reproduced (S323). In this step, as described with reference to FIG. 5, the moving image is reproduced from the dialogue that has caused the laugh. If the time point is not clear, a predetermined time before laughing is reproduced.

ステップS323における再生を行うと、次に、最後のファイルまで再生を行ったか否かの判定を行う(S324)。この判定の結果、最後のファイルまで再生が終わっていなかった場合には、ステップS321に戻る。一方、判定の結果、最後のファイルまで再生が終わると、前述のステップS304にジャンプし、エンディングの表示を行って、再生を終了する。   Once playback has been performed in step S323, it is next determined whether playback has been performed up to the last file (S324). If the result of this determination is that playback has not ended up to the last file, processing returns to step S321. On the other hand, as a result of the determination, when the reproduction to the last file is completed, the process jumps to the above-described step S304, displays the ending, and ends the reproduction.

ステップS322における判定の結果、ファイル中に笑い声がなかった場合には、次に、主演が登場しているか否かの判定を行う(S331)。このステップでは、ステップS227において主演判定がなされたかに基づいて判定する。この判定の結果、主演が登場している場合には、主演を含み、音声が大きい部分を再生する(S332)。このステップでは、主演が登場し、かつ声の大きい部分について所定時間の間、再生する。時間が長すぎると退屈な画像となることから、声の大きい部分をすべて再生しなくても良い。この再生を行うと、ステップS324に戻る。   If the result of determination in step S322 is that there is no laughter in the file, it is next determined whether or not a leading character has appeared (S331). In this step, the determination is made based on whether or not the starring determination has been made in step S227. If the result of this determination is that a leading character has appeared, the portion containing the leading character and having a high sound is reproduced (S332). In this step, the main character appears and the loud part is played for a predetermined time. If the time is too long, it becomes a boring image, so it is not necessary to reproduce all the loud parts. When this reproduction is performed, the process returns to step S324.

ステップS331における判定の結果、主演が登場しなかった場合には、人物が登場するか否かの判定を行う(S333)。前述したように、動画撮影時に人物が登場していると、動画の画像と共に記録されているので、この記録結果に基づいて判定する。この判定の結果、人物が登場している場合には、笑顔の人物が多い期間を再生する(S334)。動画の撮影時には、顔検出部3によって笑顔度が判定され、記録されていることから、この笑顔度に基づいて、再生する。一方、ステップS333における判定の結果、人物が登場しなかった場合には、倍速で再生する(S335)。人物が登場しないことから、風景等の画像である場合であり、この場合には倍速で再生しても違和感がないからである。例えば、雄大な山並みをパンニングさせながら撮影した場合、パンニングの時間をかけて再生する必要はなく、倍速でも時間をかけずに雄大さを体感することが可能である。   If the result of determination in step S331 is that the leading character has not appeared, it is determined whether or not a person appears (S333). As described above, if a person appears at the time of moving image shooting, it is recorded together with the moving image, and therefore determination is made based on the recording result. If the result of this determination is that a person has appeared, a period in which there are many smiling persons is reproduced (S334). Since the smile level is determined and recorded by the face detection unit 3 at the time of moving image shooting, playback is performed based on the smile level. On the other hand, if the result of determination in step S333 is that no person has appeared, playback is performed at double speed (S335). This is because a person does not appear and the image is a landscape or the like. In this case, there is no sense of incongruity even if the image is reproduced at double speed. For example, when shooting while panning a majestic mountain range, it is not necessary to play over the panning time, and it is possible to experience the majesticness without spending time even at double speed.

ステップS334またはステップS335における再生を行うと、ステップS324に戻り、最後のファイルまで再生したか否かを判定し、最後まで再生した場合には、前述のステップS304以下において、エンディングの表示を行って再生を終了する。   When playback is performed in step S334 or step S335, the process returns to step S324 to determine whether or not playback has been performed up to the last file. If playback has been performed up to the last file, an ending is displayed in step S304 and subsequent steps. End playback.

このように、本発明の一実施形態においては、複数の動画から一つの動画を生成し再生するにあたって、撮影時には登場人物を判定して記録し(S115)、再生時には複数の画像に共通して登場する人物を主演として(S227)、順次再生表示している。また、主演が登場する代表画像を決定し、この代表画像をエンディングの際に表示するようにしている(S305)。このため、撮影した動画を再生する際に、簡単かつ即座に楽しむことができる。   As described above, in one embodiment of the present invention, when one moving image is generated and reproduced from a plurality of moving images, characters are determined and recorded at the time of shooting (S115), and common to a plurality of images at the time of reproduction. The characters who appear are starring (S227) and are sequentially reproduced and displayed. In addition, a representative image in which the leading role appears is determined, and this representative image is displayed at the time of ending (S305). For this reason, it is possible to easily and immediately enjoy the captured moving image.

また、本発明の一実施形態においては、代表画像を選択するにあたって、まず、撮影時には代表画像となる可能性のある主被写体の候補か否かを判定し(S114およびS115)、撮影終了後であって再生の開始前に、主演が登場する代表画像を決定し(S227)、これをエンディングに表示するようにしている。このように、撮影時と再生時にそれぞれ処理を行っていることから、短時間で再生を行うことができる。複数の動画が集まって、一つの動画を完成するとすれば、主演以外のものを撮影した動画もあり、この場合、撮影中には主演か助演かは分からない。この実施形態においては、再生時に複数の画像を選択して始めることにより、共通して登場する人物から主演を決定するようにしている。つまり、撮影と再生の2段階で、主演の選択を正確に行うようにしている。   In one embodiment of the present invention, when selecting a representative image, it is first determined whether or not it is a candidate for a main subject that may become a representative image at the time of shooting (S114 and S115). Therefore, before the start of reproduction, a representative image in which the leading role appears is determined (S227), and this is displayed in the ending. As described above, since processing is performed at the time of shooting and playback, playback can be performed in a short time. If a plurality of videos are gathered to complete a single video, there are videos that shoot other than the main character. In this case, it is not known whether the main character or the supporting character is being filmed. In this embodiment, by selecting and starting a plurality of images at the time of reproduction, the main character is determined from the characters appearing in common. In other words, the starring is accurately selected in two stages of shooting and playback.

さらに、本発明の一実施形態においては、主被写体の候補については、顔DB3bに登録されている人物の名前を参照して記録している(S121〜S124)。また、エンディングの表示を行う際には、主被写体の中から決定される主演の画像を表示する(S305)と共に、主演の名前も表示している(S306)。主演となったものの名前が表示されることから、さらに楽しむことができる。   Furthermore, in one embodiment of the present invention, main subject candidates are recorded with reference to the names of persons registered in the face DB 3b (S121 to S124). Further, when displaying the ending, the image of the main character determined from the main subjects is displayed (S305), and the name of the main character is also displayed (S306). Since the name of the starring star is displayed, you can enjoy it even more.

さらに、本発明の一実施形態においては、複数の動画を再生する場合、主演を決定するにあたって、選択した最初の動画と最後の動画に登場する人物であって(S223)、かつ主被写体である場合(S224)に主演としている(S227)。最初と最後に登場することから、主演としてのストリーの一貫性が生じ、見ていて楽しむことができる。なお、主演の決定にあたっては、これ以外にも、選択された動画の内、一番多くの動画に映っていた主被写体等の方法により選択するようにしても良い。   Furthermore, in one embodiment of the present invention, when a plurality of moving images are reproduced, the person who appears in the first moving image and the last moving image selected in determining the starring (S223) and the main subject. In the case (S224), the main role is taken (S227). Since it appears at the beginning and end, the consistency of the story as the leading role is created and you can enjoy watching it. In addition, in determining the starring, other than this, it may be selected by a method of a main subject or the like that was shown in the largest number of moving images.

さらに、本発明の一実施形態においては、部分再生を行う場合には、笑い声があるシーンを自動的に選択して再生するようにしている(S322、S323)。笑い声があるシーンは、盛り上がっている状況であり、再生を楽しむことができる。さらに、笑い声があるシーンを再生するにあたって、本実施形態においては、笑い声のきっかけとなった質問のあるシーンから再生するようにしたので、唐突感をなくすことができる。また、どんな会話で盛り上がったかを、理解することができ、一緒に楽しむことができる。   Furthermore, in the embodiment of the present invention, when performing partial reproduction, a scene with a laughing voice is automatically selected and reproduced (S322, S323). Scenes with laughter are lively and can be enjoyed. Furthermore, when playing a scene with laughter, in this embodiment, playback is started from the scene with the question that triggered the laughter, so it is possible to eliminate the abrupt feeling. In addition, you can understand what kind of conversation was exciting and enjoy together.

さらに、本発明の一実施形態においては、部分再生を行う際に、笑い声がない場合には、音声が大きい期間や(S332)、笑顔の人物が多い期間(S334)を再生するようにしている。このため、笑い声がない場合であっても、重要な盛り上がりシーンを判定し、効果的な部分再生として楽しむことができる。   Furthermore, in one embodiment of the present invention, when there is no laughter during partial playback, a period when the voice is loud (S332) or a period when there are many smiling people (S334) is played. . For this reason, even when there is no laughter, it is possible to determine an important excitement scene and enjoy it as an effective partial reproduction.

さらに、本発明の一実施形態においては、エンディングの表示にあたって、主演の画像を表示している(S305)。このため、動画を唐突感なく終わることができる。また、この際に、予め顔DB4bに登録に基づいて、主演の名前を表示しており、仲間内で動画を再生する際に、楽しむことができ、エンディング画像であることを明示できる。また、エンディング画像が文字によって賑やかになり、画像が終わる感じが出て、鑑賞者の気分も盛り上がる。さらに、名前が表示されることによって、主演の顔を知らず、名前しか知らなかった場合でも、あの人はこんな人だったと、理解して楽しむこともできる。映画のエンディングと同様、出演者へのねぎらいにもなるし、出演者のモチベーションも上がる。   Furthermore, in one embodiment of the present invention, the leading image is displayed when displaying the ending (S305). For this reason, it is possible to end the moving image without any sudden feeling. At this time, the name of the leading character is displayed based on the registration in the face DB 4b in advance, and can be enjoyed when the moving image is reproduced in the group, and can be clearly shown as the ending image. In addition, the ending image becomes lively with characters, the feeling that the image ends, and the viewer's mood is also raised. Furthermore, by displaying the name, even if you do not know the face of the starring and know only the name, you can understand and enjoy that person was such a person. Like the ending of the movie, it will be a sneak peek at the performers, and the motivation of the performers will increase.

さらに、本発明の一実施形態においては、エンディング表示の時間は、動画の再生時間によって変更するようにしている(S311〜S313)。このため、動画の再生時間に見当たったエンディング時間とすることができる。   Furthermore, in one embodiment of the present invention, the ending display time is changed according to the moving image playback time (S311 to S313). For this reason, it can be set as the ending time found in the reproduction time of a moving image.

次に、ステップS202におけるサムネイル表示の変形例を図11および図12を用いて説明する。一実施形態においては、各動画において主被写体として候補化された画像の内、一番最初の画像を並べて表示していた。これに対して、本変形例においては、複数の動画に共通して登場する人物ごとにサムネイル表示を行うようにしている。   Next, a modified example of the thumbnail display in step S202 will be described with reference to FIGS. In one embodiment, the first image among images candidated as the main subject in each moving image is displayed side by side. On the other hand, in this modification, thumbnail display is performed for each person who appears in common in a plurality of moving images.

この変形例におけるサムネイル表示を、図11を用いて説明する。この表示例では、動画G41、動画H42、動画J43の3つの動画が記録部4に記録されているとする。動画G41には、人物27、人物26が登場しており、また動画H42には人物26が登場しており、さらに動画J43には人物26、人物27が登場している。   The thumbnail display in this modification will be described with reference to FIG. In this display example, it is assumed that three moving images, a moving image G41, a moving image H42, and a moving image J43, are recorded in the recording unit 4. A person 27 and a person 26 appear in the moving picture G41, a person 26 appears in the moving picture H42, and a person 26 and a person 27 appear in the moving picture J43.

このような動画が記録されている場合、表示部8には、人物26が映っているシーンを集めたサムネイル表示45と、人物27が映っているシーンを集めたサムネイル表示46を交互に表示する。この例では、表示部8には縦横2画像ずつ、合計4画像を表示するようにしている。人物27は3画像しかないので、サムネイル表示46は1画像分を非表示としている。   When such a moving image is recorded, the display unit 8 alternately displays a thumbnail display 45 that collects scenes showing the person 26 and a thumbnail display 46 that collects scenes showing the person 27. . In this example, a total of four images are displayed on the display unit 8 in two vertical and horizontal images. Since the person 27 has only three images, the thumbnail display 46 does not display one image.

次に、共通に登場する人物をサムネイルで表示するための動作を、図12に示すフローチャートを用いて説明する。サムネイル表示のフローに入ると、まず、各動画像の先頭画像を縮小して並べる表示を行う(S401)。続いて、表示サムネイル動画の共通登場人物の検索を行う(S402)。ここでは、顔検出部3によって判定され、記録部4に記録されている登場人物の顔の特徴に基づいて検索する。図2(a)に示した例では、P−A、P−B、P−Xの3人が検索される。   Next, an operation for displaying commonly appearing persons as thumbnails will be described with reference to the flowchart shown in FIG. In the thumbnail display flow, first, the top images of the respective moving images are reduced and arranged (S401). Subsequently, a search for common characters in the display thumbnail video is performed (S402). Here, the search is performed based on the facial features of the characters determined by the face detection unit 3 and recorded in the recording unit 4. In the example shown in FIG. 2A, three persons PA, PB, and PX are searched.

共通登場人物の検索を行うと、次に、共通に登場する人物が有るか否かの判定を行う(S403)。この判定の結果、共通登場人物がいた場合には、次に、所定時間、この変形例では3秒間が経過したか否かを判定する(S404)。この判定の結果、所定時間が経過していなかった場合には、サムネイル表示を終了するか否かの判定を行う(S421)。表示中に表示モードを終了するためにユーザが操作部材を操作した場合には、元のフローに戻る。判定の結果、終了でなければ、ステップS404に戻る。   Once the common character search is performed, it is next determined whether or not there is a person who appears in common (S403). If there is a common character as a result of this determination, it is next determined whether or not a predetermined time, 3 seconds in this modified example, has elapsed (S404). As a result of this determination, if the predetermined time has not elapsed, it is determined whether or not to end the thumbnail display (S421). When the user operates the operation member to end the display mode during display, the process returns to the original flow. If the result of determination is not end, processing returns to step S404.

ステップS404における判定の結果、所定時間が経過すると、次に、最も共通に登場する人を代表画像化してサムネイル表示する(S405)。ここでは、図11に示したサムネイル表示45のように、最多登場の人物26が映っている画像をサムネイル表示する。また、代表画像として表示するにあたって、候補として選択された最初の画像を用いる。続いて、登場しないコマは暗くする(S406)。全画像に登場していない場合もあるので、登場しない画像に相当するサムネイルは黒や所定の色で塗りつぶす等により、そこには登場していないことを表示する。   If the predetermined time has passed as a result of the determination in step S404, then the most commonly appearing person is converted into a representative image and displayed as a thumbnail (S405). Here, like the thumbnail display 45 shown in FIG. 11, an image showing the most frequently appearing person 26 is displayed as a thumbnail. Further, when displaying as a representative image, the first image selected as a candidate is used. Subsequently, the frames that do not appear are darkened (S406). Since there are cases where the image does not appear in all the images, the thumbnail corresponding to the image that does not appear is displayed as black or a predetermined color so as not to appear there.

次に、所定時間、この変形例では3秒間が経過したか否かの判定を行う(S411)。この判定の結果、所定時間が経過していない場合には、ステップS421と同様に、終了か否かの判定を行う(S422)。この判定の結果、終了していない場合には、ステップS411に戻り、一方、終了の場合には、元のフローにリターンする。   Next, it is determined whether or not a predetermined time, in this modification example, 3 seconds has elapsed (S411). As a result of this determination, if the predetermined time has not elapsed, it is determined whether or not the process is completed as in step S421 (S422). If the result of this determination is that it has not ended, processing returns to step S411, whereas if it has ended, processing returns to the original flow.

ステップS411における判定の結果、所定時間が経過した場合には、次に共通に登場する人を代表画像化してサムネイル表示する(S412)。ここでは、図11に示したサムネイル表示46のように、次に最多登場の人物27が映っている画像をサムネイル表示する。続いて、登場しないコマは暗くする(S413)。ステップS406と同様に、登場人物の画像の数がサムネイル表示コマ数に足りない場合には、足りない分のコマを暗くする。図11に示したサムネイル表示46では、3コマしかなかったことから、右上のコマを暗くしている。   If the result of determination in step S411 is that a predetermined time has elapsed, the next common person is represented as a representative image and displayed as a thumbnail (S412). Here, as in the thumbnail display 46 shown in FIG. 11, the next image showing the most frequently appearing person 27 is displayed as a thumbnail. Subsequently, the frames that do not appear are darkened (S413). Similar to step S406, if the number of characters is not enough for the number of thumbnail display frames, the missing frames are darkened. In the thumbnail display 46 shown in FIG. 11, since there are only three frames, the upper right frame is darkened.

続いて、所定時間、この変形例では3秒間が経過したか否かの判定を行う(S414)。この判定の結果、所定時間が経過していない場合には、ステップS421と同様に、終了か否かの判定を行う(S423)。この判定の結果、終了していない場合には、ステップS414に戻り、一方、終了の場合には、元のフローにリターンする。   Subsequently, it is determined whether or not a predetermined time, in this modification example, 3 seconds has elapsed (S414). As a result of the determination, if the predetermined time has not elapsed, it is determined whether or not the process is finished as in step S421 (S423). If the result of this determination is that it has not ended, processing returns to step S414, while if it has ended, processing returns to the original flow.

ステップS414における判定の結果、所定時間が経過した場合には、ステップS401に戻る。   If the result of determination in step S414 is that a predetermined time has elapsed, processing returns to step S401.

このように、本変形例におけるサムネイル表示は、共通して登場する人物を、中心にサムネイル表示を行うようにしている。このため、多数の動画の中から、再生を行う際に、選択を行うことが容易となる。また、本変形例においては、サムネイル表示する際に、登場人物を代表画像化して表示している。候補として選択された画像を代表画像としてサムネイル表示していることから、中央にあり、ある程度、大きく映っている画像が選択されるので、再生表示を選択する際に見易くなる。   As described above, the thumbnail display in this modification is configured to display thumbnails centering on a person who appears in common. For this reason, it becomes easy to select from a large number of moving images when performing playback. In this modification, when displaying thumbnails, the characters are displayed as representative images. Since the images selected as candidates are displayed as thumbnails as representative images, an image that is in the center and appears somewhat large is selected, so that it is easy to see when selecting the reproduction display.

なお、例示としてあげた図11のサムネイル表示45、46は、共通で登場する人物が2人であったが、これに限らず、3人以上でも勿論かまわない。この場合、図12に示したフローチャートでは、3人目以降に対応して、ステップS404〜S406を追加すれば良い。   In addition, although the thumbnail display 45 and 46 of FIG. 11 given as an example has two persons appearing in common, it is not limited to this, and of course, three or more persons may be used. In this case, in the flowchart shown in FIG. 12, steps S404 to S406 may be added corresponding to the third and subsequent persons.

以上説明したように、本発明の一実施形態や変形例においては、動画像に登場する人物を特定し、動画のサムネイル表示する際には、人物の特定結果に従って、特定された人物を含む画像を、代表画像として表示するようにしている。このため、動画を簡単に即座に楽しむことができる。すなわち、サムネイル表示するにあたって、単に先頭の画像を表示するだけでは、動画の主題とする人物が映っていない場合があるが、本実施形態においては、特定された人物が代表画像として表示されることから、簡単に動画を選択することができ、即座に動画を楽しむことができる。また、本発明の一実施形態や変形例においては、撮影時に人物判定を行い、複数動画を再生する場合には、共通に登場する人物を判定している。このため、複数動画から一つの動画を即座に生成することが可能となり、楽しむことができる。   As described above, in one embodiment or modification of the present invention, when a person appearing in a moving image is specified and a thumbnail of a moving image is displayed, an image including the specified person according to the result of specifying the person is displayed. Are displayed as representative images. For this reason, a moving image can be enjoyed instantly and easily. That is, when displaying thumbnails, simply displaying the top image may not show the person who is the subject of the video, but in this embodiment, the identified person is displayed as a representative image. From this, you can easily select a video and enjoy the video instantly. In one embodiment or modification of the present invention, person determination is performed at the time of shooting, and in the case of reproducing a plurality of moving images, a person who appears in common is determined. For this reason, it becomes possible to instantly generate one moving image from a plurality of moving images and enjoy it.

なお、本発明の一実施形態や変形例においては、再生時にはサムネイルを選択してから動画を再生するようにしていたが、これに限らず、サムネイルによる選択を省略しても良い。例えば、同じ登場人物が映った動画が複数集まった時点で、同一登場人物で一貫させたダイジェスト再生を行うようにしても良い。この場合、再生モード画面にダイジェスト再生釦を設け、これを操作すると、最新撮影画像に含まれる登場人物で、統一した動画編集が可能となる。その登場人物が現れる少し前に撮影された動画が有る場合、その人が登場するシーンのみを寄せ集め、いくつかまとめて新しい動画を生成し再生するようにしても良い。また、図3に示した顔DB4bのA子〜C子を表示し、どの顔が選択されるかで、自動編集動画が切り替えられるような楽しみ方も可能である。さらに、顔を選択しなくても、最後に撮影した動画に出てくる人物を主人公にした画像を作るために、最後の画像の登場人物を利用し、他の動画を検索するようにして、いくつかまとめて新しい動画を生成し再生するようにしても良い。   In the embodiment and the modification of the present invention, the moving image is reproduced after selecting the thumbnail at the time of reproduction. However, the present invention is not limited to this, and the selection based on the thumbnail may be omitted. For example, digest reproduction may be performed consistently with the same character at the time when a plurality of moving images showing the same character are gathered. In this case, a digest playback button is provided on the playback mode screen, and when this is operated, unified movie editing is possible with the characters included in the latest photographed image. If there is a video shot just before the character appears, only the scenes in which the character appears can be gathered together, and several new videos can be generated and played back together. In addition, it is possible to enjoy such that the A child to C child of the face DB 4b shown in FIG. 3 are displayed and the automatically edited moving image is switched depending on which face is selected. Furthermore, even if you do not select a face, you can search for other videos using the characters in the last image in order to create an image with the main character of the person appearing in the last video shot, Several new videos may be generated and played back together.

撮影装置が再生装置を兼ねていたが、再生装置を別途設け、撮影装置で撮影した動画を再生装置で再生するようにしても良い。再生装置としては、再生専用機でも良いが、パーソナルコンピュータによって再生するようにしても勿論かまわない。また、再生装置が撮影装置を兼用していても構わない。この場合には、動画を再生するにあたって、再生装置側で自動的に代表画像等を選択して表示することから、思わぬ画像が表示され、楽しむことができる。   Although the image capturing device also serves as a playback device, a playback device may be provided separately, and a moving image captured by the image capturing device may be played back by the playback device. The playback device may be a playback-only machine, but may of course be played back by a personal computer. Further, the playback device may also serve as the photographing device. In this case, when the moving image is reproduced, since the representative image or the like is automatically selected and displayed on the reproducing apparatus side, an unexpected image can be displayed and enjoyed.

また、本発明の一実施形態や変形例においては、説明上、代表画像は主被写体の中から選択されるとしたが、主被写体そのものを代表画像として表示するようにしても良い。さらに、本発明の一実施形態や変形例においては、エンディングにおいて主演と主演者の名前を表示していたが、エンディング以外の、例えば、動画の冒頭部分に表示するようにしても良い。冒頭に表示すると、これから始まる動画を見ようという気持ちを高めることができる。また、誰それが登場するなら見ようか、といった気分を呼び起こすこともできる。さらに、何かが始まるという感じが出てくるし、ある程度、予測と期待が入り交じった気持ちにさせられる。   In the embodiment and modification of the present invention, the representative image is selected from the main subject for the sake of explanation. However, the main subject itself may be displayed as the representative image. Furthermore, in one embodiment or modification of the present invention, the names of the main performers and the main performers are displayed in the ending, but they may be displayed other than the ending, for example, at the beginning of the moving image. When displayed at the beginning, you can increase your willingness to watch the video that will start. It can also evoke the feeling of who will see it if it appears. In addition, there is a feeling that something will begin, and to a certain extent, it makes you feel mixed with predictions and expectations.

さらに、本発明の一実施形態や変形例においては、部分再生は1つの動画が選択された際にしか行っていないが、これに限らず、動画が複数選択された場合でも、各動画の中で部分再生を行うようにしても勿論かまわない。   Furthermore, in one embodiment or modification of the present invention, partial playback is performed only when one video is selected. However, the present invention is not limited to this, and even when multiple videos are selected, Of course, partial reproduction may be performed.

さらに、本発明の一実施形態や変形例においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。   Furthermore, in the embodiment and modification of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, such as a video camera or movie camera. It may be a camera for moving images such as a mobile phone, a personal digital assistant (PDA), a game machine, or the like.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・画像処理及び制御部、1b・・・代表画像決定部、1c・・・合成表示部、1d・・・音声分析部、2・・・撮像部、3・・・顔検出部、4・・・記録部、4b・・・顔DB、6・・・操作判定部、7・・・音声収録部、8・・・表示部、9・・・時計部、10・・・カメラ、12・・・通信部、21・・・動画像A、22・・・動画像B、23・・・動画像C、23c・・・画面中央部、25・・・人物(A子)、26・・・人物(B子)、27・・・人物(C子)、28・・・人物、29・・・人物、31・・・動画D、32・・・動画E、33・・・動画F、34・・・エンディング、41・・・動画G、42・・・動画H、43・・・動画J、45・・・サムネイル表示、46・・・サムネイル表示 DESCRIPTION OF SYMBOLS 1 ... Image processing and control part, 1b ... Representative image determination part, 1c ... Composite display part, 1d ... Speech analysis part, 2 ... Imaging part, 3 ... Face detection part, 4 ... Recording unit, 4b ... Face DB, 6 ... Operation determination unit, 7 ... Audio recording unit, 8 ... Display unit, 9 ... Clock unit, 10 ... Camera, DESCRIPTION OF SYMBOLS 12 ... Communication part, 21 ... Moving image A, 22 ... Moving image B, 23 ... Moving image C, 23c ... Center part of a screen, 25 ... Person (A child), 26 ... person (child B), 27 ... person (child C), 28 ... person, 29 ... person, 31 ... movie D, 32 ... movie E, 33 ... movie F, 34 ... Ending, 41 ... Movie G, 42 ... Movie H, 43 ... Movie J, 45 ... Thumbnail display, 46 ... Thumbnail display

Claims (17)

撮影モードと再生モードを有する撮影装置において、
上記撮影モードで撮影中に撮影動画を記録する記録部と、
上記撮影モードで撮影中に上記撮影動画に現れる人物を判定し、判定結果を上記記録部に記録する第1判定部と、
上記再生モードによる再生時であって上記撮影動画を複数集めて再生する際に、複数の撮影動作に共通して登場する人物を判定する第2判定部と、
上記第2判定部の判定結果を利用し上記動画の一部を取り出し順次再生する再生部と、
を有することを特徴とする撮影装置。
In a photographing device having a photographing mode and a reproduction mode,
A recording unit for recording a shot video during shooting in the shooting mode;
A first determination unit that determines a person appearing in the captured moving image during shooting in the shooting mode and records a determination result in the recording unit;
A second determination unit for determining a person who appears in common in a plurality of shooting operations when collecting and playing back a plurality of the shot videos during playback in the playback mode;
A playback unit that uses the determination result of the second determination unit to take out a part of the moving image and play it back sequentially;
A photographing apparatus comprising:
画像を撮影する撮影部と、
上記撮像部から連続して取得された画像を動画として記録する動画記録部と、
上記撮像部で得た顔画像から、上記撮影動作中に、上記動画記録部に記録された動画に登場する人物を特定する人物特定部と、
上記記録された動画をサムネイル表示する時に、上記人物特定結果に従って、上記特定された人物を含む画像を、代表画像として表示する表示制御部と、
を有することを特徴とする撮影装置。
A shooting section for shooting images;
A moving image recording unit that records images continuously acquired from the imaging unit as a moving image;
A person specifying unit for specifying a person appearing in the moving image recorded in the moving image recording unit during the shooting operation from the face image obtained by the imaging unit;
A display control unit for displaying an image including the specified person as a representative image according to the person specifying result when displaying the recorded moving image as a thumbnail;
A photographing apparatus comprising:
動画に現れる人物を判定する登場人物判定部と、
複数の画像を並べて表示するための画像表示部と、
上記画像表示部に表示された複数の画像に共通して登場する人物を判定する登場人物判定部と、
上記登場人物判定部の判定結果に従って、上記動画の代表画像を決定する代表画像決定部と、
を有することを特徴とする表示装置。
A character determination unit for determining a person appearing in the video;
An image display unit for displaying a plurality of images side by side;
A character determination unit for determining a person who appears in common in the plurality of images displayed on the image display unit;
A representative image determining unit that determines a representative image of the moving image according to the determination result of the character determining unit;
A display device comprising:
連続して被写体を撮影して動画像を得る撮像部と、
上記撮像部で得られた動画像のうち、上記動画像の主たる登場人物を表す静止画を選択する静止画選択部と、
上記動画像の再生時には、上記静止画像と、上記主たる登場人物を表す付加情報とを、関連付けて表示する表示制御部と、
を有することを特徴とする撮影装置。
An imaging unit that continuously captures a subject and obtains a moving image;
Among the moving images obtained by the imaging unit, a still image selecting unit that selects a still image representing the main character of the moving image;
A display control unit that displays the still image and the additional information representing the main character in association with each other during reproduction of the moving image;
A photographing apparatus comprising:
上記登場人物を表す付加情報は、上記撮像部で得られた画像と、記録部に記録されているデータベースとの照合の結果、得られた人名情報であることを特徴とする請求項4に記載の撮影装置。   5. The additional information representing the character is personal name information obtained as a result of collation between an image obtained by the imaging unit and a database recorded in the recording unit. Shooting device. 上記付加情報と関連付けられた静止画は、上記動画の先頭または終了時に、再生または動画を表すサムネイルとして表示されることを特徴とする請求項4に記載の撮影装置。   5. The photographing apparatus according to claim 4, wherein the still image associated with the additional information is displayed as a thumbnail representing reproduction or a moving image at the beginning or end of the moving image. 周囲の音声を収音する音声収音部と、
上記収音された音声に基づいて笑い声があるか否かを判定する音声判定部と、
を有し、
上記主たる登場人物は、上記音声判定部で笑い声が検出された時点の前のタイミングで音声を発していた人物を取得る登場人物とする、
ことを特徴とする請求項4に記載の撮影装置。
A voice pickup unit that picks up surrounding voices,
A voice determination unit that determines whether or not there is a laughing voice based on the collected voice;
Have
The main character is a character who can pick up a person who has spoken at a timing before the time when the laughing voice is detected by the voice determination unit.
The imaging apparatus according to claim 4, wherein:
複数の動画に関して、各々の動画に含まれる主被写体を判定する第1の主被写体判定部と、
上記複数の動画に含まれる第1の主被写体群から、第2の主被写体を判定する第2の主被写体判定部と、
上記第2の主被写体が登場する部分を優先的に再生するダイジェスト再生部と、
を有することを特徴とする再生装置。
A first main subject determination unit that determines a main subject included in each of the plurality of videos;
A second main subject determination unit for determining a second main subject from the first main subject group included in the plurality of videos;
A digest reproduction unit that preferentially reproduces a portion where the second main subject appears;
A playback apparatus comprising:
動画の画像データを記憶する動画記憶部と、
上記動画を構成する静止画について主被写体が存在するか否かを判定する判定部と、
上記判定部によって判定された主被写体に基づいて代表画像を決定し、この代表画像を表示する表示部と、
を有することを特徴とする表示装置。
A moving image storage unit for storing moving image data;
A determination unit for determining whether or not a main subject exists for the still images constituting the moving image;
A display unit for determining a representative image based on the main subject determined by the determination unit and displaying the representative image;
A display device comprising:
上記表示部は、複数の各動画について主被写体をサムネイル表示することを特徴とする請求項9に記載の表示装置。   The display device according to claim 9, wherein the display unit displays a main subject as a thumbnail for each of a plurality of moving images. 上記表示部は、複数の主被写体の中から代表画像を選択し、この代表画像を表示することを特徴とする請求項9に記載の表示装置。   The display device according to claim 9, wherein the display unit selects a representative image from a plurality of main subjects and displays the representative image. 上記主被写体は、予め登録されている人物像と一致した人物であることを特徴とする請求項9に記載の表示装置。   The display device according to claim 9, wherein the main subject is a person who matches a person image registered in advance. 動画の画像データを記憶する動画記憶部と、
上記動画を構成する静止画についての予め登録されている人物が存在するか否かを判定する判定部と、
上記判定部によって判定された人物に基づいて代表画像を決定し、この代表画像を表示する表示部と、
を有することを特徴とする表示装置。
A moving image storage unit for storing moving image data;
A determination unit for determining whether or not there is a person registered in advance for the still images constituting the moving image;
A display unit for determining a representative image based on the person determined by the determination unit and displaying the representative image;
A display device comprising:
上記判定部は、複数の動画の中で共通して登場する人物が映っている画像を代表画像として決定することを特徴とする請求項13に記載の表示装置。   The display device according to claim 13, wherein the determination unit determines an image in which a person appearing in common among a plurality of moving images is shown as a representative image. 動画の画像データを出力する撮像部と、
上記画像データに基づいて、画像の中に顔が含まれているか否かを判定する顔検出部と、
顔を識別するための識別用データが記憶された顔データベースと、
上記顔検出部による判定結果と、上記顔データベースに記憶された識別用データとに基づいて、上記画像データの中の顔が識別用データと一致するかを判定し、一致した場合には代表画像と決定する代表画像決定部と、
上記代表画像決定部によって決定された代表画像を表示する表示部と、
を有することを特徴とする撮影装置。
An imaging unit for outputting video image data;
A face detection unit that determines whether a face is included in the image based on the image data;
A face database storing identification data for identifying faces;
Based on the determination result by the face detection unit and the identification data stored in the face database, it is determined whether the face in the image data matches the identification data. A representative image determination unit for determining
A display unit for displaying the representative image determined by the representative image determination unit;
A photographing apparatus comprising:
画像を撮影し、
連続して取得された画像を動画として記録し、
撮影動作中に、上記記録された動画に登場する人物を特定し、
上記記録された動画をサムネイル表示する時に、上記人物特定結果に従って、上記特定された人物を含む画像を、代表画像として表示する、
ことを特徴とする撮影方法。
Take a picture,
Record continuously acquired images as movies,
During the shooting operation, identify the person appearing in the recorded video,
When displaying the recorded moving image as a thumbnail, according to the person specifying result, an image including the specified person is displayed as a representative image.
An imaging method characterized by the above.
動画に現れる人物を判定し、
複数の画像を並べて表示し、
上記表示された複数の画像に共通して登場する人物を判定し、
上記登場人物の判定結果に従って、上記動画の代表画像を決定する、
ことを特徴とする表示方法。
Determine who appears in the video,
Display multiple images side by side,
Determine who appears in common in the multiple images displayed above,
According to the determination result of the characters, a representative image of the video is determined.
A display method characterized by that.
JP2009098665A 2009-04-15 2009-04-15 Imaging device, displaying device, reproducing device, imaging method and displaying method Pending JP2010252008A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009098665A JP2010252008A (en) 2009-04-15 2009-04-15 Imaging device, displaying device, reproducing device, imaging method and displaying method
CN201010161958.0A CN101867708B (en) 2009-04-15 2010-04-15 Photographing device, display device, reproducing device, photographing method, and display method
CN201410210390.5A CN103973953B (en) 2009-04-15 2010-04-15 Camera, display device, transcriber, method for imaging and display methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009098665A JP2010252008A (en) 2009-04-15 2009-04-15 Imaging device, displaying device, reproducing device, imaging method and displaying method

Publications (1)

Publication Number Publication Date
JP2010252008A true JP2010252008A (en) 2010-11-04

Family

ID=42959254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009098665A Pending JP2010252008A (en) 2009-04-15 2009-04-15 Imaging device, displaying device, reproducing device, imaging method and displaying method

Country Status (2)

Country Link
JP (1) JP2010252008A (en)
CN (2) CN101867708B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216918A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Imaging apparatus, image processing method, and program
JP2013135446A (en) * 2011-12-27 2013-07-08 Canon Inc Imaging apparatus and control method thereof
US10838460B2 (en) 2016-10-07 2020-11-17 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring video analysis system and monitoring video analysis method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5924114B2 (en) * 2012-05-15 2016-05-25 ソニー株式会社 Information processing apparatus, information processing method, computer program, and image display apparatus
JP5872981B2 (en) * 2012-08-02 2016-03-01 オリンパス株式会社 Shooting equipment, moving body shooting method, shooting program
CN103902967A (en) * 2012-12-27 2014-07-02 杭州美盛红外光电技术有限公司 Image identification control device and image identification control method
CN110995999A (en) * 2019-12-12 2020-04-10 北京小米智能科技有限公司 Dynamic photo shooting method and device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6947658B1 (en) * 1998-09-25 2005-09-20 Olympus Optical Co., Ltd. Electronic image filing apparatus having image naming function
JP4280656B2 (en) * 2003-06-20 2009-06-17 キヤノン株式会社 Image display device and image display method thereof
US7469064B2 (en) * 2003-07-11 2008-12-23 Panasonic Corporation Image display apparatus
KR100681017B1 (en) * 2005-02-15 2007-02-09 엘지전자 주식회사 A mobile communication terminal capable of providing a summary of a video and a method of providing a summary using the same
JP2007174378A (en) * 2005-12-22 2007-07-05 Fujifilm Corp Image filing method, digital camera, image filing processing program, and moving picture recording / reproducing apparatus
JP4998026B2 (en) * 2007-03-15 2012-08-15 ソニー株式会社 Image processing apparatus, imaging apparatus, image display control method, and computer program
JP4379491B2 (en) * 2007-04-04 2009-12-09 ソニー株式会社 Face data recording device, playback device, imaging device, image playback system, face data recording method and program
JP2009080580A (en) * 2007-09-25 2009-04-16 Toshiba Corp Video display apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012216918A (en) * 2011-03-31 2012-11-08 Jvc Kenwood Corp Imaging apparatus, image processing method, and program
JP2013135446A (en) * 2011-12-27 2013-07-08 Canon Inc Imaging apparatus and control method thereof
US10838460B2 (en) 2016-10-07 2020-11-17 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring video analysis system and monitoring video analysis method

Also Published As

Publication number Publication date
CN101867708A (en) 2010-10-20
CN103973953A (en) 2014-08-06
CN101867708B (en) 2014-06-18
CN103973953B (en) 2017-07-21

Similar Documents

Publication Publication Date Title
US8643746B2 (en) Video summary including a particular person
TWI554096B (en) Video summary including a feature of interest
JP4683116B2 (en) Information processing apparatus, information processing method, information processing program, and imaging apparatus
EP1347455A2 (en) Contents recording/playback apparatus and contents edit method
JP2011217197A (en) Electronic apparatus, reproduction control system, reproduction control method, and program thereof
JP2010093713A (en) Display control device, display control method, and program
JP2010252008A (en) Imaging device, displaying device, reproducing device, imaging method and displaying method
JP2007241496A (en) Image processing apparatus, image processing method, and program
JP2013121097A (en) Imaging apparatus, imaging method, image generating apparatus, image generating method and program
JP2009188870A (en) Image reproduction system and image reproduction method
JP6830634B1 (en) Information processing method, information processing device and computer program
JP2009239349A (en) Photographing apparatus
JP5310682B2 (en) Karaoke equipment
US20080159584A1 (en) Information processing apparatus and information processing method
JP2010200079A (en) Photography control device
JP2009205322A (en) Image display apparatus, image display method and image display program
KR20200025285A (en) System and method for entertainer experience
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP2010206799A (en) Method of creating animated series of photograph, and device for implementing the same
KR101748576B1 (en) Apparatus and method for segmenting video data in mobile communication teminal
JP2010200056A (en) Recording and reproducing apparatus
JP4978271B2 (en) Imaging apparatus, captured image display method and program
JP6038256B2 (en) Image search system and image search method
JP4673916B2 (en) Information processing apparatus, information processing method, and information processing program
JP5279028B2 (en) Audio processing apparatus, audio processing method, and program