[go: up one dir, main page]

JP2010199772A - Image display apparatus, image display method, and program - Google Patents

Image display apparatus, image display method, and program Download PDF

Info

Publication number
JP2010199772A
JP2010199772A JP2009040227A JP2009040227A JP2010199772A JP 2010199772 A JP2010199772 A JP 2010199772A JP 2009040227 A JP2009040227 A JP 2009040227A JP 2009040227 A JP2009040227 A JP 2009040227A JP 2010199772 A JP2010199772 A JP 2010199772A
Authority
JP
Japan
Prior art keywords
image
person
images
unit
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009040227A
Other languages
Japanese (ja)
Other versions
JP2010199772A5 (en
Inventor
Aiko Uemura
有為子 植村
Ken Tani
憲 谷
Naohisa Nakada
直久 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2009040227A priority Critical patent/JP2010199772A/en
Priority to US12/709,597 priority patent/US8698920B2/en
Publication of JP2010199772A publication Critical patent/JP2010199772A/en
Publication of JP2010199772A5 publication Critical patent/JP2010199772A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device, an image display method, and a program capable of reproducing and displaying an image with such a rich variation as promoting communication. <P>SOLUTION: The image display device includes a recording section 4 storing photographed images, a face detection section 3 detecting the face of a person from a photographed image, a pattern/color decision section 1f deciding colors and patterns of clothes from the image including the person detected by the face detection section, an image retrieval section 1d retrieving an image in which the same person wears different clothes, and a display section 8a displaying the retrieved images together when the image retrieval section 1d retrieves a predetermined number of images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像表示装置、画像表示方法、およびプログラムに関し、詳しくは、撮影装置によって撮影された画像データを再生表示する画像表示装置、画像表示方法、およびプログラムに関する。   The present invention relates to an image display device, an image display method, and a program. More specifically, the present invention relates to an image display device, an image display method, and a program that reproduce and display image data shot by a shooting device.

近年、メモリの大容量化や低価格化が進み、カメラ等の撮影装置内にこれを内蔵して、ここに大量の画像データを保存することが可能となっている。また、カメラ等の背面に設けられている液晶などの表示パネルも大型画面化が進み、保存された画像を表示パネルに表示して鑑賞することが行われている。カメラ等の撮影装置以外にも、パーソナルコンピュータや、撮影装置等と接続したテレビに保存された画像を表示し、みんなで画像を見て楽しむことも増えている。   In recent years, the capacity and cost of a memory have been increased, and it has become possible to store a large amount of image data in a photographing apparatus such as a camera. In addition, a display panel such as a liquid crystal provided on the back surface of a camera or the like has been increased in size, and a stored image is displayed on the display panel and viewed. In addition to photographing devices such as cameras, it has been increasingly seen that images stored on a personal computer or a television connected to the photographing device are displayed and enjoyed together.

表示パネル等で画像を表示するにあたって、大量の画像の中から目的とする画像を探すのは大変である。そこで、画像分類を容易にできるようにした画像表示装置が種々提案されている。例えば、特許文献1には、画像データに、撮影日時、撮影姿勢、撮影場所、撮影者等の付帯情報と一緒に記録し、この付帯情報を用いて、画像を整理保存し、分類検索することにより目的とする画像を鑑賞できるようにした画像表示装置が開示されている。   When displaying an image on a display panel or the like, it is difficult to find a target image from a large number of images. Therefore, various image display apparatuses that can easily classify images have been proposed. For example, Patent Document 1 records image data together with incidental information such as shooting date / time, shooting posture, shooting location, photographer, etc., and uses this incidental information to organize and store images for classification search. Thus, an image display device is disclosed in which a target image can be viewed.

特許3528214号公報Japanese Patent No. 3528214

特許文献1に開示の画像表示装置は、撮影時に一緒に記録された付帯情報を用いて論理的に検索を行うものであって、鑑賞時にコミュニケーションを促すような変化に富んだ画像を再生するものではない。つまり、鑑賞者にとっては、付帯情報から想像される画像しか表示するだけであって、飽きることなく楽しむものではなかった。   The image display device disclosed in Patent Document 1 performs logical search using supplementary information recorded together at the time of shooting, and reproduces a variety of images that encourage communication during viewing. is not. That is, for the viewer, only an image imagined from the incidental information is displayed, and it is not enjoyed without getting tired.

本発明は、このような事情を鑑みてなされたものであり、コミュニケーションを促すような変化に富んだ画像を再生表示することのできる画像表示装置、画像表示方法、およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image display device, an image display method, and a program that can reproduce and display a variety of images that promote communication. And

上記目的を達成するため第1の発明に係わる画像表示装置は、撮影画像内の顔画像を検知する顔検知部と、上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けする分類部と、上記分類部による分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を表示する表示制御部と、を有する。   In order to achieve the above object, an image display device according to a first invention includes a face detection unit that detects a face image in a captured image, the captured image, a pattern of the face image, a color under the face image, or A classification unit that classifies by pattern, and a display control unit that displays images of different colors or patterns on the same face according to the classification result by the classification unit.

第2の発明に係わる画像表示装置は、上記第1の発明において、上記顔検知部は、上記顔画像の大きさと位置を検知可能であり、上記表示制御部は、上記顔画像の大きさ及び/又は位置を変更する。
第3の発明に係わる画像表示装置は、上記第1の発明において、上記表示制御部における表示では、上記分類部によって分類によって分類された複数の画像から人物の部分を、同時に、または順次に表示する。
In the image display device according to a second invention, in the first invention, the face detection unit can detect the size and position of the face image, and the display control unit can detect the size of the face image and Change the position.
According to a third aspect of the present invention, in the first aspect of the present invention, in the display of the display control unit, the portion of the person is displayed simultaneously or sequentially from the plurality of images classified by the classification unit. To do.

第4の発明に係わる画像表示装置は、上記第1の発明において、上記表示制御部における表示の際に、2つの画像の間に、この2つの画像を合成した合成画像を表示する。
第5の発明に係わる画像表示装置は、上記第1の発明において、上記表示制御部は、上記顔画像に基づいて人物の部分を抽出し、上記人物の部分を表示する。
According to a fourth aspect of the present invention, in the first aspect, the composite image obtained by combining the two images is displayed between the two images at the time of display by the display control unit.
In the image display device according to a fifth aspect based on the first aspect, the display control unit extracts a person part based on the face image and displays the person part.

第6の発明に係わる画像表示装置は、撮影画像を記憶する記憶部と、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定する人物判定部と、上記撮影画像上の人物の服装部分を判定する服装判定部と、上記人物判定部によって同一人物と判定された画像について、上記服装判定部によって異なる服装を着用していると判定された画像を検索する検索部と、上記検索部によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する表示部と、を有する。   An image display apparatus according to a sixth aspect of the invention includes a storage unit that stores a captured image, a person determination unit that determines whether or not the image includes the same person as the person specified on the captured image, and the imaging A search for searching for an image determined by the clothes determination unit to wear different clothes for an image determined to be the same person by the clothes determination unit and the person determination unit for determining a clothes part of a person on the image And a display unit that collectively displays the retrieved images when a predetermined number of images are retrieved by the retrieval unit.

第7の発明に係わる画像表示装置は、上記第6の発明において、上記表示部における一括表示では、上記検索部によって検索された予め決められた数の画像を、同時に、または順次に表示する。
第8の発明に係わる画像表示装置は、上記第6の発明において、上記表示部における一括表示では、上記検索部によって検索された画像中の顔の大きさ及び/又は位置を揃える。
According to a seventh aspect of the present invention, in the sixth aspect, in the collective display on the display unit, a predetermined number of images searched by the search unit are displayed simultaneously or sequentially.
In the image display apparatus according to the eighth invention, in the sixth invention, the size and / or position of the face in the image searched by the search unit is aligned in the collective display in the display unit.

第9の発明に係わる画像表示装置は、撮影画像を記憶する記憶部と、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定する人物判定部と、上記撮影画像上の人物の服装部分を判定する服装判定部と、上記人物判定部によって同一人物と判定された画像について、上記服装判定部によって異なる服装を着用していると判定された画像を検索する検索部と、上記検索部によって検索された画像から、人物の部分を抜き出す人物抽出部と、この人物抽出部によって抽出された人物を表示する表示部と、を有する。   An image display device according to a ninth aspect of the present invention is a storage unit that stores a captured image, a person determination unit that determines whether or not the image shows the same person as the person specified on the captured image, and the imaging A search for searching for an image determined by the clothes determination unit to wear different clothes for an image determined to be the same person by the clothes determination unit and the person determination unit for determining a clothes part of a person on the image A person extracting unit that extracts a person portion from the image searched by the searching unit, and a display unit that displays the person extracted by the person extracting unit.

第10の発明に係わる画像表示装置は、上記表示部は、上記検索部によって検索された複数の人物の大きさ、及び/又は位置を揃える。
第11の発明に係わる画像表示装置は、上記第9の発明において、上記表示部は、上記検索部によって検索された複数の人物を、同時、または順次表示する。
In the image display device according to the tenth aspect, the display unit aligns the sizes and / or positions of a plurality of persons searched by the search unit.
In an image display apparatus according to an eleventh aspect based on the ninth aspect, the display unit displays a plurality of persons searched by the search unit simultaneously or sequentially.

第12の発明に係わる画像表示方法は、撮影画像内の顔画像を検知し、上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けし、上記分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を一括表示する。
第13の発明に係わる画像表示方法は、撮影画像を記憶し、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、上記検索によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する。
第14の発明に係わる画像表示方法は、撮影画像を記憶し、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、上記撮影画像上の人物の服装部分を判定し、上記同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、上記検索された画像から、人物の部分を抜き出し、この抽出された人物を表示する。
An image display method according to a twelfth aspect of the invention detects a face image in a photographed image, classifies the photographed image by a pattern of the face image and a color or pattern below the face image, and the classification result Depending on, images of different colors or patterns with the same face are collectively displayed.
According to a thirteenth aspect of the present invention, an image display method according to a thirteenth aspect of the present invention stores a photographed image, determines whether or not the image shows the same person as the person designated on the photographed image. When an image determined to be wearing different clothes is searched and a predetermined number of images are searched by the above search, the searched images are collectively displayed.
According to a fourteenth aspect of the present invention, there is provided an image display method for storing a photographed image, determining whether or not the image includes the same person as the person designated on the photographed image, and determining a clothing portion of the person on the photographed image. The image determined to be the same person is searched for an image determined to be wearing different clothes, and the person portion is extracted from the searched image and the extracted person is displayed. To do.

第15の発明に係わるプログラムは、撮影画像内の顔画像を検知し、上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けし、上記分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を一括表示する。
第16の発明に係わるプログラムは、撮影画像を記憶し、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、上記検索によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する。
第17の発明に係わるプログラムは、撮影画像を記憶し、上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、上記撮影画像上の人物の服装部分を判定し、上記同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、上記検索された画像から、人物の部分を抜き出し、この抽出された人物を表示する。
A program according to a fifteenth invention detects a face image in a photographed image, classifies the photographed image by a pattern of the face image and a color or pattern below the face image, and according to the classification result. Display images of the same face in different colors or patterns.
A program according to a sixteenth aspect of the present invention stores a photographed image, determines whether or not the image shows the same person as the person designated on the photographed image, and applies different clothes to the image determined to be the same person. When an image determined to be worn is searched, and a predetermined number of images are searched by the above search, the searched images are collectively displayed.
A program according to a seventeenth aspect of the present invention stores a photographed image, determines whether or not the image shows the same person as the person designated on the photographed image, and determines a clothing portion of the person on the photographed image. Then, with respect to the image determined to be the same person, an image determined to be wearing different clothes is searched, a person portion is extracted from the searched image, and the extracted person is displayed.

本発明によれば、コミュニケーションを促すような変化に富んだ画像を再生表示することのできる画像表示装置、画像表示方法およびプログラムを提供することができる。   According to the present invention, it is possible to provide an image display device, an image display method, and a program capable of reproducing and displaying an image rich in change that promotes communication.

本発明の一実施形態に係わるカメラにおける電気回路を示すブロック図である。It is a block diagram which shows the electric circuit in the camera concerning one Embodiment of this invention. 本発明の一実施形態に係るカメラにおいて撮影された多数の画像の様子を示す図である。It is a figure which shows the mode of many images image | photographed with the camera which concerns on one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、自分が写っている画像のみを抽出した画像の様子を示す図である。In the camera concerning one Embodiment of this invention, it is a figure which shows the mode of the image which extracted only the image which has shown himself. 本発明の一実施形態に係わるカメラにおいて、自分が写っている画像のみを1つの画面を分割して順次表示してく様子を示す図である。FIG. 4 is a diagram illustrating a state in which only an image in which the subject is photographed is sequentially displayed by dividing one screen in the camera according to the embodiment of the present invention. 本発明の一実施形態におけるカメラにおけるカメラ制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the camera control in the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラにおける画像分類の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the image classification in the camera in one Embodiment of this invention. 本発明の一実施形態に係わるカメラにおいて、画像分類を行うにあたって使用する関連情報を説明する図である。It is a figure explaining the relevant information used when performing image classification in the camera concerning one embodiment of the present invention. 本発明の一実施形態におけるカメラにおける着せ替え再生の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the dress-up reproduction | regeneration in the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラにおける着せ替え表示の変形例を示す図である。It is a figure which shows the modification of the dress-up display in the camera in one Embodiment of this invention. 本発明の一実施形態におけるカメラにおける着せ替え表示の別の変形例を示す図である。It is a figure which shows another modification of the dress-up display in the camera in one Embodiment of this invention.

以下、図面に従って本発明を適用したカメラを用いて好ましい実施形態について説明する。図1は、本発明の一実施形態に係わるカメラ10の電気回路を示すブロック図である。カメラ10は、デジタルカメラであり、画像処理及び制御部1、撮像部2、顔検出部3、記録部4、操作判定部6、GPS7、表示部8a、タッチパネル8b、時計部9、通信部12等から構成される。   Hereinafter, a preferred embodiment will be described using a camera to which the present invention is applied according to the drawings. FIG. 1 is a block diagram showing an electric circuit of a camera 10 according to an embodiment of the present invention. The camera 10 is a digital camera, and includes an image processing and control unit 1, an imaging unit 2, a face detection unit 3, a recording unit 4, an operation determination unit 6, a GPS 7, a display unit 8a, a touch panel 8b, a clock unit 9, and a communication unit 12. Etc.

撮像部2は、撮像素子、撮影レンズ2、シャッタ等の露出制御部、撮像素子の駆動及び読出回路等を含み、撮影レンズによって形成された被写体像を撮像素子によって画像データに変換する。顔検出部3は、撮像部2から画像データを入力し、被写体像の中に顔の像が含まれているか否かを検出する。   The imaging unit 2 includes an imaging device, an imaging lens 2, an exposure control unit such as a shutter, a driving and reading circuit for the imaging device, and the like, and converts a subject image formed by the imaging lens into image data by the imaging device. The face detection unit 3 inputs image data from the imaging unit 2 and detects whether or not a face image is included in the subject image.

画像処理及び制御部1は、記憶されているプログラムに従ってカメラ10全体のシーケンスを制御する。また、撮像部2から出力される画像信号を取り込み、間引き処理、エッジ強調、色補正、画像圧縮、動画処理、コントラスト調整、ホワイトバランス等の種々の画像処理を行い、またライブビュー表示、記録部4への記録、再生表示等の画像処理を行う。画像処理及び制御部1内には、顔特徴抽出部1b、顔位置・大きさ判定部1c、画像検索部1d、画像分類部1e、顔の下のパターン・色判定部1f、および表示制御部8を含んでいる。   The image processing and control unit 1 controls the entire sequence of the camera 10 according to a stored program. In addition, the image signal output from the imaging unit 2 is captured, and various image processing such as thinning processing, edge enhancement, color correction, image compression, moving image processing, contrast adjustment, white balance, and the like is performed. 4 for image processing such as recording to 4 and playback display. In the image processing and control unit 1, a face feature extraction unit 1b, a face position / size determination unit 1c, an image search unit 1d, an image classification unit 1e, a pattern / color determination unit 1f under the face, and a display control unit 8 is included.

顔位置・大きさ判定部1cは、顔検出部3によって顔の像が含まれていることが検出された場合に、その顔の位置と大きさを判定する。顔特徴抽出部1bは、目鼻や口の位置等から顔の特徴を抽出する。抽出された顔の特徴を用いて、登録されている人と同じか否かを判定することができる。顔の下のパターン・色判定部1fは、顔位置・大きさ判定部1cによって顔の位置が検出されると、顔の下の服装のパターン、例えば、縦縞模様、黒丸模様等と、顔の下の服装の色、例えば、赤、青、黄色等を判定する。   When the face detection unit 3 detects that a face image is included, the face position / size determination unit 1c determines the position and size of the face. The facial feature extraction unit 1b extracts facial features from the positions of the eyes, nose and mouth. Using the extracted facial features, it can be determined whether the person is the same as the registered person. When the face position / size determination unit 1c detects the face position, the pattern / color determination unit 1f under the face detects a pattern of clothes under the face, such as a vertical stripe pattern, a black circle pattern, and the like. The color of the lower clothes, for example, red, blue, yellow, etc. is determined.

画像分類部1eは、スナップ写真、ポートレート写真、風景写真等に画像を分類する。画像検索部1eは、後述する関連情報部4bに記録されている関連情報を用いて、画像の検索を行う。関連情報としては、画像分類、撮影日時、顔の下のパターン・色の情報等が含まれる。表示制御部8は、撮影時には撮像部2からの画像信号に基づいてライブビュー表示の制御を行い、再生モード時には記録部4に記録されている画像の再生制御を行う。また、タッチパネル8bでのタッチ操作に応じて、表示の切り替えを行う。   The image classification unit 1e classifies images into snapshots, portrait photos, landscape photos, and the like. The image search unit 1e searches for an image using related information recorded in the related information unit 4b described later. The related information includes image classification, shooting date and time, pattern / color information under the face, and the like. The display control unit 8 controls live view display based on the image signal from the imaging unit 2 during shooting, and performs playback control of the image recorded in the recording unit 4 during playback mode. Further, the display is switched according to a touch operation on the touch panel 8b.

なお、画像処理及び制御部1は、顔検出部3によって検出された顔の大きさを他の画像の顔の大きさと揃えるように画像の拡大や縮小を行い、また、顔の位置を中央等に位置するように画像の移動も行う。さらに、顔検出部3によって検出された顔を含む人物の人物部分のみを切り出し、背景と分離する画像処理も行う。   The image processing and control unit 1 enlarges or reduces the image so that the size of the face detected by the face detection unit 3 is aligned with the size of the face of another image. The image is also moved so as to be located at Furthermore, image processing for cutting out only the person portion of the person including the face detected by the face detection unit 3 and separating it from the background is also performed.

記録部4は、レリーズ釦によって撮影の指示がなされた際に、撮像部2によって取得され、画像処理及び制御部1によって画像処理された画像データを記録する。また、画像データを記録するにあたって、撮影日時等の情報と関連付けられ、この関連情報を記憶する。また、記録部4内には、関連情報部4bが設けられており、記録部4に記録される画像データに関連付けて、撮影日時、画像分類、顔の数、顔の位置、顔の下の服装の色、服装のパターン等の情報が記憶される。この関連情報については、図7を用いて後述する。   The recording unit 4 records the image data acquired by the imaging unit 2 and subjected to the image processing by the image processing and control unit 1 when an instruction for shooting is given by the release button. Also, when recording image data, it is associated with information such as the shooting date and time, and this related information is stored. In addition, a related information unit 4b is provided in the recording unit 4, and in association with image data recorded in the recording unit 4, the shooting date and time, the image classification, the number of faces, the position of the face, Information such as clothing color and clothing pattern is stored. This related information will be described later with reference to FIG.

操作判定部6は、レリーズ釦、パワースイッチ、再生モード釦、サムネイル釦、送り釦、戻し釦、着せ替え釦等、種々の操作部材を含み、これらの操作部材の操作状態を判定し、画像処理及び制御部1に判定結果を送る。画像処理及び制御部1は、操作部材の操作状態に応じて、所定のシーケンスで撮影や再生の制御を行う。GPS7は、全地球測位システム(Global Positioning System)であり、撮影時の位置を測定し、この測定結果を関連情報として関連情報部4bに記憶する。   The operation determination unit 6 includes various operation members such as a release button, a power switch, a playback mode button, a thumbnail button, a feed button, a return button, and a dress-up button. The operation determination unit 6 determines the operation state of these operation members and performs image processing. The determination result is sent to the control unit 1. The image processing and control unit 1 controls photographing and reproduction in a predetermined sequence according to the operation state of the operation member. The GPS 7 is a global positioning system, measures the position at the time of shooting, and stores the measurement result as related information in the related information unit 4b.

表示部8aは、液晶パネル等を含み、撮影前のライブビュー表示や、記録された撮影画像の再生表示を行う。また表示部8aの前面には、タッチパネル8bが設けられており、撮影者等によるタッチ位置等の情報は、画像処理及び制御部1に送られる。タッチパネル8bにおけるタッチ位置は、画像処理及び制御部1において判定される。後述するように、再生表示時に着せ替えモードをタッチすると、同一人物で服装の異なる画像が順次表示される。   The display unit 8a includes a liquid crystal panel and the like, and performs live view display before shooting and reproduction display of recorded shot images. In addition, a touch panel 8 b is provided on the front surface of the display unit 8 a, and information such as a touch position by a photographer is sent to the image processing and control unit 1. The touch position on the touch panel 8b is determined by the image processing and control unit 1. As will be described later, when the change-of-dress mode is touched during playback display, images of the same person and different clothes are sequentially displayed.

時計部9は、カレンダー機能や時計機能を有し、前述したように撮影時には撮影日時情報を出力する。撮影日時情報は、画像整理や画像検索の際に利用できる。通信部12は、デジタル信号に変換された画像データを、テレビやパーソナルコンピュータ等の外部機器に送信する。通信手段としては、有線通信でも、赤外線や電波等を使用した無線通信でも良い。   The clock unit 9 has a calendar function and a clock function, and outputs shooting date / time information during shooting as described above. The shooting date / time information can be used for image organization and image search. The communication unit 12 transmits the image data converted into the digital signal to an external device such as a television or a personal computer. The communication means may be wired communication or wireless communication using infrared rays or radio waves.

次に、本実施形態に係わるカメラの電子アルバムの機能について、図2ないし図4を用いて説明する。記録部4には、多数の画像データが記録されており、この画像データに様々な機会に撮影され、撮影日ごとに整理され、画像分類情報が一緒に関連情報として記録されている。この画像分類については、詳しくは、図6および図7を用いて後述する。図2(a)〜(d)に、撮影日ごとに整理されて記録されている画像群を示す。   Next, functions of the electronic album of the camera according to the present embodiment will be described with reference to FIGS. A large number of image data is recorded in the recording unit 4, and the image data is photographed at various occasions, organized by photographing date, and image classification information is recorded together as related information. This image classification will be described later in detail with reference to FIGS. 2A to 2D show a group of images that are organized and recorded for each shooting date.

この整理された画像群の中で興味のない写真が多数ある場合もあり、その場合には、本実施形態において、ダイジェストで画像を見ることができるようにしている。例えば、自分の写っている写真だけを見たい場合や、見せたい場合があり、この場合には、図3(a)〜(d)に示すように、自分が写っている写真を抽出し、これらを再生表示することを可能としている。特に女性ユーザの場合には、どんな服を着ていたかに興味があり、服装の異なる写真を見たくなったり、見せたい場合がある。   There may be many photographs that are not of interest in the organized image group, and in this case, in this embodiment, the images can be viewed as a digest. For example, there are cases where it is desired to see or show only the photograph in which the subject is photographed. In this case, as shown in FIGS. 3A to 3D, the photograph in which the subject is photographed is extracted, These can be reproduced and displayed. In particular, female users may be interested in what kind of clothes they are wearing and may want to see or show pictures of different clothes.

そこで、本実施形態においては、人物を指定すると、着せ替え感覚で同一人物(自分自身の場合も含む)について服装だけが異なる写真集のようなものを簡単に作成できるようにし、写真を撮る楽しみを増加させている。興味ある人物の服装が変わっていくので、写真集の画像が変化に富み、また服装の違いによって様々シーンを楽しむことができる。   Therefore, in the present embodiment, when a person is specified, it is possible to easily create a photo book such as a photo collection in which only the clothes are different for the same person (including one's own) with the sense of changing clothes. Is increasing. Because the clothes of interested people change, the images in the photo collection are rich in changes, and you can enjoy various scenes depending on the clothes.

また、本実施形態においては、着せ替え感覚で同一人物の服装が変化した画像を集めて表示するが、その際、顔の大きさや位置を揃え、また構図も揃えるようにしている。このため、服装のみが変わっていくような効果を強調できる。また、表示にあたっては、図3に示すように、個々の画像を1枚1枚順次切り替わるスライドショー形式でも良い。図3(a)〜(d)は、同一人物で服装が異なる写真画像であり、表示にあたっては、顔の大きさや位置を揃えるようにしており、図中、縦破線の間に顔が入るように、調節している。   Further, in the present embodiment, images in which the clothes of the same person have changed as if they were dressed are collected and displayed. At this time, the size and position of the face are aligned, and the composition is also aligned. For this reason, the effect that only clothes change can be emphasized. In displaying, as shown in FIG. 3, a slide show format in which individual images are sequentially switched one by one may be used. 3 (a) to 3 (d) are photographic images of the same person and different clothes, and the size and position of the face are aligned when displayed, and the face appears between the vertical dashed lines in the figure. It is adjusted to.

また、図4に示すように、同一画面上を分割し、この画面上に並べて表示することにより、比較できるようにしても良い。この場合、図4(a)のように、左上に1枚表示し、次に、図4(b)のように右上に1枚追加表示し、続いて、図4(c)のように左下に1枚追加表示し、最後に、図4(d)のように4枚全て表示するようにしても良い。また、順次、表示するのではなく、いきなり図4(d)に示すように、最初から4枚を同時に表示するようにしても良い。このように一度に表示しても良いが、順次表示することにより、鑑賞者の期待を高め、1枚1枚ゆっくり見ることができる。   Also, as shown in FIG. 4, the same screen may be divided and displayed side by side on this screen so that comparison can be made. In this case, one image is displayed on the upper left as shown in FIG. 4 (a), then one additional image is displayed on the upper right as shown in FIG. 4 (b), and then the lower left as shown in FIG. 4 (c). It is also possible to display one image at a time and finally display all four images as shown in FIG. Further, instead of displaying sequentially, four sheets may be displayed simultaneously from the beginning as shown in FIG. 4 (d). Although it may be displayed at a time in this way, by sequentially displaying it, the expectation of the viewer can be increased and each image can be viewed slowly.

次に、前述したような電子アルバムを楽しむことのできるカメラ10の動作について、図5ないし図10を用いて説明する。図5に示すカメラ制御のフローに入ると、まず、電源がオンか否かの判定を行う(S100)。このステップでは、カメラ10の操作部材としてのパワースイッチがオンか否かを操作判定部6によって判定し、パワースイッチがオフの場合には、カメラ制御のフローを終了する。なお、カメラ制御のフローを終了しても、パワースイッチの状態を検知しており、パワースイッチがオンとなると、ステップS100から動作を開始する。   Next, the operation of the camera 10 that can enjoy the electronic album as described above will be described with reference to FIGS. If the camera control flow shown in FIG. 5 is entered, it is first determined whether or not the power is on (S100). In this step, the operation determination unit 6 determines whether or not the power switch as the operation member of the camera 10 is on. If the power switch is off, the camera control flow ends. Even when the camera control flow ends, the state of the power switch is detected, and when the power switch is turned on, the operation starts from step S100.

ステップS100における判定の結果、電源がオンであった場合には、次に、撮影モードか否かの判定を行う(S101)。この判定の結果、撮影モードであった場合には、次に、顔検出を行う(S102)。ここでは、撮像部2からの画像データに基づいて、顔検出部3によって顔が含まれているか否かの判定を行う。続いて、露出演算を行う(S103)。ここでは、ステップS102において検出した顔の部分に対して、撮像部2によって取得した画像データを用いて、適正露光となるシャッタ速度や絞り値等の演算を行う。また、画像データのコントラスト信号に基づいて、顔の部分にピントが合うように焦点調節も行う。   If the result of determination in step S100 is that the power supply is on, it is next determined whether or not it is in shooting mode (S101). If the result of this determination is that the camera is in shooting mode, then face detection is performed (S102). Here, based on the image data from the imaging unit 2, the face detection unit 3 determines whether a face is included. Subsequently, an exposure calculation is performed (S103). Here, for the face portion detected in step S102, the image data acquired by the imaging unit 2 is used to calculate the shutter speed, aperture value, and the like for proper exposure. Further, based on the contrast signal of the image data, focus adjustment is performed so that the face portion is in focus.

露出演算を行うと、次に、ライブビュー表示を行う(S104)。ここでは、撮像部2によって取得された画像データに基づいて、表示部8に毎秒30コマ程度で被写体像をライブビュー表示する。ユーザは、ライブビュー表示に基づいて、構図を決めたり、シャッタチャンスを決定し、レリーズ動作を行うことができる。   Once the exposure calculation is performed, next, live view display is performed (S104). Here, based on the image data acquired by the imaging unit 2, a subject image is displayed in live view on the display unit 8 at about 30 frames per second. The user can determine the composition or the photo opportunity based on the live view display and perform the release operation.

ライブビュー表示を行うと、次に、レリーズを行うか否かの判定を行う(S105)。ここでは、レリーズ釦が操作されたか否かを操作判定部6によって判定する。この判定の結果、レリーズでなかった場合には、ステップS100に戻る。一方、ステップS105における判定の結果、レリーズであった場合には、次に、撮影・記録を行う(S131)。この撮影・記録においては、撮像部2によって取得された画像データを、画像処理及び制御部1によって画像処理し、この画像処理された画像データを、記録部4に記録する。   Once live view display has been performed, it is next determined whether or not to release (S105). Here, the operation determination unit 6 determines whether or not the release button has been operated. If the result of this determination is not release, processing returns to step S100. On the other hand, if the result of determination in step S105 is release, shooting and recording are next performed (S131). In this shooting / recording, the image data acquired by the imaging unit 2 is subjected to image processing by the image processing and control unit 1, and the image processed image data is recorded in the recording unit 4.

撮影・記録を行うと、次に、画像分類を行う(S132)。ここでは、撮影画像をスナップ、ポートレート、風景等の撮影主題ごとに分類し、また、撮影画像中の顔の数、位置、大きさ、特徴等を検出し、顔を検出した場合には、顔の下の色やパターン等、種々の情報を得られるよう、画像分類を行う。この画像分類のサブルーチンについては、図6を用いて後述する。画像分類を行うと、この分類結果の記録を行う(S133)。ステップS131において画像データを記録するが、ステップS133は、記録された画像データに関連付けて、後述する図7(a)に示すような表形式で関連情報部4bに記録する。また、このステップでは、上述の情報以外にもGPS7によって検出した撮影位置情報等の関連情報も記録する。分類結果の記録を行うと、ステップS100に戻る。   Once shooting / recording is performed, image classification is performed (S132). Here, the shot images are classified according to shooting subjects such as snap, portrait, landscape, etc., and the number, position, size, features, etc. of the faces in the shot images are detected. Image classification is performed so that various information such as the color and pattern under the face can be obtained. This image classification subroutine will be described later with reference to FIG. When image classification is performed, the classification result is recorded (S133). In step S131, the image data is recorded. In step S133, the image data is recorded in the related information section 4b in a table format as shown in FIG. 7A described later in association with the recorded image data. Further, in this step, related information such as shooting position information detected by the GPS 7 is recorded in addition to the above information. When the classification result is recorded, the process returns to step S100.

ステップS101における判定の結果、撮影モードでなかった場合には、再生モードか否かの判定を行う(S111)。この判定の結果、再生モードでなかった場合には、ステップS100に戻る。一方、再生モードであった場合には、再生表示の1回目か否かの判定を行う(S120)。この判定の結果、再生1回目であれば、最終撮影画像の再生を行う(S121)。ここでは、直近に撮影された最終撮影画像を、表示部8aに再生表示する。   If the result of determination in step S101 is not shooting mode, it is determined whether or not playback mode is in effect (S111). If the result of this determination is not playback mode, processing returns to step S100. On the other hand, if it is the playback mode, it is determined whether or not it is the first playback display (S120). If the result of this determination is the first playback, the last captured image is played back (S121). Here, the last photographed image taken most recently is reproduced and displayed on the display unit 8a.

最終撮影画像を再生表示すると、またはステップS120における判定の結果、再生1回目でなかった場合には、次に、切換操作されたか否かの判定を行う(S122)。ここでは、操作判定部6によって、再生表示されている画像の送り釦または戻し釦の操作、またはサムネイル表示するためのサムネイル釦がなされたか否かを判定する。この判定の結果、これらの操作が行われていた場合には、次に、操作されていたのが、サムネイル釦であったか否かの判定を行う(S124)。   If the last captured image is reproduced and displayed, or if the result of determination in step S120 is not the first reproduction, it is next determined whether or not a switching operation has been performed (S122). Here, the operation determination unit 6 determines whether or not an operation of a feed button or a return button of an image being reproduced and displayed or a thumbnail button for displaying a thumbnail has been performed. If these operations have been performed as a result of this determination, it is next determined whether or not the operation has been a thumbnail button (S124).

ステップS124における判定の結果、サムネイル釦が操作されていた場合には、サムネイル表示を行う(S125)。サムネイル表示は、記録部4に記録されている複数の撮影画像を一覧形式で表示部8aに表示する形式である。サムネイル表示すると、サムネイル表示の中から画像が選択されたか否かの判定を行う(S126)。ユーザがサムネイル表示の中から拡大して見たい画像を、タッチパネル8bをタッチする等によって選択するので、このステップではタッチパネル8b上でのタッチ状態に基づいて選択がなされたか否かの判定を行う。   If the result of determination in step S124 is that the thumbnail button has been operated, thumbnail display is performed (S125). The thumbnail display is a format in which a plurality of photographed images recorded in the recording unit 4 are displayed on the display unit 8a in a list format. When the thumbnails are displayed, it is determined whether an image is selected from the thumbnails (S126). Since the user selects an image to be enlarged from the thumbnail display by touching the touch panel 8b or the like, in this step, it is determined whether or not the selection has been made based on the touch state on the touch panel 8b.

ステップS126における判定の結果、選択されていなかった場合には、ステップS120に戻る。一方、判定の結果、選択されていた場合には、選択された画像を表示部8aに拡大表示する(S127)。   If the result of determination in step S126 is that it has not been selected, processing returns to step S120. On the other hand, if it is selected as a result of the determination, the selected image is enlarged and displayed on the display unit 8a (S127).

ステップS124における判定の結果、サムネイル釦が操作されていなかった場合には、次画像の表示を行う(S128)。このステップでは、再生画像の送り釦または戻し釦の操作に応じた次の画像を記録部4から読み出し、表示部8aに表示する。   If the result of determination in step S124 is that the thumbnail button has not been operated, the next image is displayed (S128). In this step, the next image corresponding to the operation of the playback image feed button or the return button is read from the recording unit 4 and displayed on the display unit 8a.

ステップS122における判定の結果、切換操作がされていなかった場合、またはステップS128において次画像表示を行うと、またはステップS127において選択画像を拡大表示すると、次に、着せ替えモードか否かの判定を行う(S129)。ユーザが、図3および図4を用いて説明した着せ替えモードで再生表示を望む場合には、着せ替え釦を操作するので、ここでは、着せ替え釦が操作されたか否かを操作判定部6によって判定する。   As a result of the determination in step S122, if the switching operation has not been performed, or if the next image display is performed in step S128, or if the selected image is enlarged and displayed in step S127, it is next determined whether or not the mode is the dressing mode. Perform (S129). Since the user operates the dress button when the user desires reproduction display in the dress mode described with reference to FIGS. 3 and 4, the operation determination unit 6 determines whether or not the dress button has been operated. Determine by.

ステップS129における判定の結果、着せ替えモードであった場合には、着せ替え再生を行う(S130)。ここでは、前述の図3、図4を用いて説明した着せ替えモードでの再生表示を行う。着せ替えモードのサブルーチンについては、図8を用いて後述する。着せ替え再生を行うと、ステップS100に戻る。ステップS129における判定の結果、着せ替えモードでなかった場合には、ステップS120に戻る。   If the result of determination in step S129 is the dress-up mode, dress-up playback is performed (S130). Here, reproduction display is performed in the dress-up mode described with reference to FIGS. The subroutine of the dressing mode will be described later with reference to FIG. When dressing reproduction is performed, the process returns to step S100. If the result of determination in step S129 is not dressing mode, processing returns to step S120.

次に、ステップS132における画像分類のサブルーチンについて、図6および図7を用いて説明する。本実施形態においては、ステップS130における着せ替え表示を行うにあたって、スナップ写真やポートレート写真の中から同一人物で異なる服装の写真を検索している。この検索を容易にするために、画像分類部1eにおいて、撮影画像について画像分類を行っている。画像分類は、主に撮影時に得られた画像データとその他の情報に基づいて、図7に示すような形式で、各画像と表形式で関連付け、その結果を関連情報部4bに記録している。撮影時に画像データと共に記録しておくことにより、再生時に検索を迅速に行うことができる。もちろん、撮影時に限らず、再生時に行うようにしても構わない。   Next, the image classification subroutine in step S132 will be described with reference to FIGS. In the present embodiment, when performing dress-up display in step S130, photographs of different clothes by the same person are searched from the snapshots and portrait photographs. In order to facilitate this search, the image classification unit 1e classifies the captured images. Image classification is based on image data obtained at the time of shooting and other information, and is associated with each image in a table format as shown in FIG. 7, and the result is recorded in the related information section 4b. . By recording together with the image data at the time of shooting, the search can be quickly performed at the time of reproduction. Of course, it may be performed not only at the time of shooting but also at the time of reproduction.

図6に示す画像分類のサブルーチンでは、顔検出部3による顔検出結果に基づいて画像に顔の部分が含まれるか否か、顔の大きさや数、顔の特徴などの情報に従って、人物が全身で背景も多く含むスナップ写真、顔の表情を中心としたポートレート写真に分類している。また、撮像部2からの画像データを用いて画像の色情報や彩度情報、またピント合わせの信号等を利用し、花の写真、小物の写真、ペットの写真、風景写真等に判定している。   In the image classification sub-routine shown in FIG. 6, a person is moved to the whole body according to information such as whether or not a face portion is included in the image based on the face detection result by the face detection unit 3, the size and number of faces, and facial features. It is categorized into snapshots with many backgrounds and portraits with a focus on facial expressions. Also, using the image data from the image pickup unit 2, the color information and saturation information of the image, the signal for focusing, etc. are used to determine the photograph of the flower, the photograph of the accessory, the photograph of the pet, the landscape photograph, etc. Yes.

図6に示す画像分類のサブルーチンに入ると、まず、画像の中に顔があるか否かの判定を行う(S301)。この判定は、顔検出部3によって行う。この判定の結果、顔が存在した場合には、次に、中央の人の顔の下の部分の色や、パターンを判定して記録する(S302)。顔の下の部分の色を見ているのは、服装の色として検出するためであり、また、服装のパターンも検出して、これらの情報を関連情報部4bに記録する。   When the image classification subroutine shown in FIG. 6 is entered, it is first determined whether or not there is a face in the image (S301). This determination is performed by the face detection unit 3. If the result of this determination is that there is a face, then the color or pattern of the portion under the face of the central person is determined and recorded (S302). The reason for looking at the color of the lower part of the face is to detect it as the color of the clothes, and also detects the pattern of the clothes and records this information in the related information section 4b.

次に、顔の大きさが大か否かの判定を行う(S303)。この判定の結果、所定の大きさより大きかった場合にはポートレート写真とし(S305)、一方、所定の大きさよりも小さかった場合には、スナップ写真と判定する(S304)。したがって、ステップS303における判定値は、分類分けを行うに相応しい値とする。   Next, it is determined whether or not the face size is large (S303). If the result of this determination is that the image is larger than a predetermined size, the photo is taken as a portrait (S305). Accordingly, the determination value in step S303 is a value suitable for classification.

ステップS304、S305において分類分けを行うと、次に、顔の数、位置、大きさ、特徴を検出し、判定する(S306)。ここでは、顔位置・大きさ判定部1cによる判定結果に基づいて、顔の数、位置、大きさを検出する。また、顔特徴抽出部1bによって、顔の特徴を抽出する。家族や友人等、撮影の可能性のある人物顔の特徴は、例えば、P−A、P−Bのように、予め顔特徴抽出部1bに登録しておき、この登録された顔の特徴と一致するか否かを判定する。これら検出された結果は、関連情報部4bに記録される。   Once classification is performed in steps S304 and S305, the number, position, size, and features of the face are detected and determined (S306). Here, the number, position, and size of faces are detected based on the determination result by the face position / size determination unit 1c. Further, the facial feature extraction unit 1b extracts facial features. The features of a person's face that may be photographed, such as a family member or friend, are registered in advance in the face feature extraction unit 1b, such as PA, P-B, and the registered facial features It is determined whether or not they match. These detected results are recorded in the related information part 4b.

ステップS301における判定の結果、顔がなかった場合には、次に、主要色の判定を行う(S310)ここでは、画面中央等において、画面の主要な色を判定する。続いて、遠距離か否かの判定を行う(S311)。この判定は、撮像部2でピント合わせを行った際のピント位置に基づいて行う。この判定の結果、遠距離にあった場合には、画像は風景写真と判定する(S317)。   If the result of determination in step S <b> 301 is that there is no face, next, the main color is determined (S <b> 310). Here, the main color of the screen is determined at the center of the screen or the like. Subsequently, it is determined whether or not it is a long distance (S311). This determination is made based on the focus position when the imaging unit 2 performs focusing. If the result of this determination is that it is a long distance, the image is determined to be a landscape photograph (S317).

ステップS311における判定の結果、遠距離でなかった場合には、次に、至近側か否かの判定を行う(S312)。この判定も、撮像部2においてピント合わせを行った際のピント位置に基づいて、近距離側のマクロ領域での撮影か否かを判定する。この判定の結果、至近側領域での撮影でなかった場合には、ペットの写真と判定する(S316)。この場合は、遠距離でもなく至近距離でもなく、種々の写真が含まれる可能性があるが、ここではペットと分類する。ペットの写真を探す場合には、この分類で検索することにより、迅速に探し出すことができる。   If the result of determination in step S311 is that it is not a long distance, it is next determined whether or not it is the closest side (S312). Also in this determination, it is determined whether or not the photographing is performed in the macro area on the short distance side based on the focus position when the imaging unit 2 performs the focusing. If the result of this determination is that the image was not taken in the close-up region, it is determined that the photo is a pet (S316). In this case, it is neither a long distance nor a close distance, and various photographs may be included, but here it is classified as a pet. When searching for a photo of a pet, it is possible to quickly find it by searching with this classification.

ステップS312における判定の結果、至近側であった場合には、次に、彩度が高いか否かの判定を行う(S313)。ここでは、画像データの彩度を判定し、所定値より高い場合には、画像を花の写真と判定し(S314)、所定値より彩度が低かった場合には、画像を小物と判定する(S315)。一般に、花の方が小物に比較し、彩度が高いからである。   If the result of determination in step S312 is the near side, it is next determined whether or not the saturation is high (S313). Here, the saturation of the image data is determined. If the saturation is higher than a predetermined value, the image is determined to be a flower photograph (S314). If the saturation is lower than the predetermined value, the image is determined to be an accessory. (S315). This is because, in general, flowers are more saturated than small items.

図7(a)は、画像分類のフローにおいて分類され、関連情報部4bに記録された情報の一例を示す。また、図7(b)は、画面の分割例を示し、本実施形態においては、領域A1〜A9の9分割である。また各領域A1〜A9では、顔の大きさをD1〜D3の3段階に分けている。図中、画像1は、スナップ写真であり、顔の数が2つあり、領域A4に登録済みの人物P−Aが顔の大きさD2で写っており、領域A6には不明の人物P−Xが顔の大きさD3で写っている。また、顔の下の色は青色であり、服装のパターンは縦白縞模様であり、撮影日時は9月15日である。画像1には、2人が写っているが、顔の大きい人(ここでは、P−A)の顔の下の色とパターンを検出するようにしている。   FIG. 7A shows an example of information classified in the image classification flow and recorded in the related information section 4b. FIG. 7B shows an example of screen division. In the present embodiment, the screen is divided into nine areas A1 to A9. In each of the areas A1 to A9, the face size is divided into three levels D1 to D3. In the figure, image 1 is a snapshot, the number of faces is two, a person PA registered in the area A4 is shown with the face size D2, and an unknown person P- is shown in the area A6. X appears in the face size D3. Also, the color under the face is blue, the pattern of clothes is a vertical white stripe pattern, and the shooting date is September 15th. Although two people are shown in the image 1, the color and pattern under the face of a person with a large face (here, PA) are detected.

画像2〜画像5にも画像に関連付けて情報が、図7(a)に示すように、記録されている。画像2には、人物が3人写っており、いずれも顔の大きさはD3で同じ大きさである。この場合には、まん中の人物の顔の下の色とパターンを検出して記録する。また画像5には、人物が2人写っており、いずれも顔の大きさはD2で同じ大きさである。この場合には、優劣が付けられないので、顔の下の色とパターンは両者を記録する。画像5の例では、一人は顔の下に白色で黒丸のパターンの服を着ており、他の一人は顔の下に白色でパターンなしの服を着ている。なお、人物P−A、P−B、P−X等は、顔特徴抽出部1bによって判定される。ここで、P−A、P−Bは家族、友人等、予め登録されている人物であり、P−Xは登録人物ではない場合に付与される。   Information associated with the images is also recorded in the images 2 to 5 as shown in FIG. In the image 2, three people are shown, and the size of the face is D3 and the same size. In this case, the color and pattern under the face of the middle person are detected and recorded. Also, in the image 5, two people are shown, and the size of the face is D2 and the same size. In this case, since superiority or inferiority cannot be attached, both the color and pattern under the face are recorded. In the example of image 5, one person wears a white, black-circle pattern under the face, and the other person wears a white, unpatterned clothes under the face. Persons PA, PB, PX, and the like are determined by the face feature extraction unit 1b. Here, PA and PB are pre-registered persons such as family members and friends, and PX is given when the person is not a registered person.

このような画像分類しておくと、画像検索を迅速かつ効率的に行うことができる。例えば、顔画像を探す場合には、S314〜S317において分類された画像は、検索対象外とすることができ、検索を迅速かつ効率化することができる。また、顔特徴抽出部1bによってP−A、P−B等、人物を区別して記録し、さらに、顔の下の部分、すなわち、服装の部分について、色やパターンを画像ごとに記録するようにしているので、同一人物について、異なった服装をしている画像を、迅速かつ効率的に検索することができる。   When such image classification is performed, image search can be performed quickly and efficiently. For example, when searching for a face image, the images classified in S314 to S317 can be excluded from the search target, and the search can be performed quickly and efficiently. Further, the face feature extraction unit 1b distinguishes and records persons such as PA and PB, and further records colors and patterns for each image of the lower part of the face, that is, the clothes part. Therefore, it is possible to quickly and efficiently search for images of different clothes for the same person.

次に、ステップS130における着せ替え再生のサブルーチンについて、図8に示すフローチャートを用いて説明する。この着せ替え再生のサブルーチンでは、図4を用いて説明したように、表示部8aの画面を4分割し、これに同時に並べて表示、または順次並べて表示を行うか、または、図4に示したように画面を分割することなく、1枚ずつ、同一人物で服装の異なる写真画像の表示を行う。   Next, the dress-up reproduction subroutine in step S130 will be described with reference to the flowchart shown in FIG. In this dress-up playback subroutine, as described with reference to FIG. 4, the screen of the display unit 8a is divided into four and displayed side by side or displayed side by side at the same time, or as shown in FIG. Without splitting the screen, photographic images of the same person and different clothes are displayed one by one.

着せ替え再生のフローに入ると、まず、顔パターンと顔の下の画像の判定を行う(S181)。ここでは、ステップS121、S128、またはS127において選択されて表示されている画像について、顔パターンと、顔の下の画像の色やパターンの判定を行う。この判定にあたっては、図7(a)に示したような関連情報を用いて判定しても良く、また、画像データを用いてパターン分析を行っても良い。関連情報を用いることにより迅速で判定できる。   When the flow for dressing reproduction is entered, first the face pattern and the image under the face are determined (S181). Here, for the image selected and displayed in step S121, S128, or S127, the color and pattern of the face pattern and the image under the face are determined. In this determination, determination may be made using related information as shown in FIG. 7A, or pattern analysis may be performed using image data. It can be determined quickly by using related information.

ステップS181における判定を行うと、次に、検索を開始する(S182)。ここでは、ステップS181において判定された顔パターンと同じで、顔の下が異なる色やパターンの画像をステップS183〜S191において検索する。まず、検索対象が有るか否かの判定を行う(S183)。ここでは、記録部4に記録されている画像で、ステップS183〜S191における検索が終了していない画像が有るか否かの判定を行う。   Once the determination in step S181 is made, the search is then started (S182). Here, in step S183 to S191, an image having the same color or pattern as the face pattern determined in step S181 and different under the face is searched. First, it is determined whether there is a search target (S183). Here, it is determined whether or not there is an image recorded in the recording unit 4 that has not been searched in steps S183 to S191.

ステップS83における判定の結果、検索対象が有る場合には、次に、ステップS121、S128、またはS127において選択された一の画像について、同じ顔があるか否かの判定を行う(S184)。ここでは、選択されている画像の顔と同じ顔、すなわち、同一人物の顔か否かの判定を行う。判定にあたっては、ステップS181において判定した顔パターンを利用する。   If the result of determination in step S83 is that there is a search target, it is next determined whether or not there is the same face for the one image selected in step S121, S128, or S127 (S184). Here, it is determined whether or not the face is the same as the face of the selected image, that is, the face of the same person. For the determination, the face pattern determined in step S181 is used.

ステップS184における判定の結果、同じ顔であれば、次に、違う服を着ているか否かの判定を行う(S185)。ここでは、ステップS184において同じ顔と判定された画像について、顔の下の色やパターンが異なっているかの判定を行う。判定にあたっては、ステップS181において判定した顔の下の画像判定を利用する。   If the result of determination in step S184 is the same face, it is next determined whether or not different clothes are being worn (S185). Here, it is determined whether the color and pattern under the face are different for the images determined to be the same face in step S184. For the determination, the image determination under the face determined in step S181 is used.

ステップS185における判定の結果、違う服を着ていた場合には、次に、その画像が一人しか写っていない画像か否かの判定を行う(S186)。ここでは、同一人物で異なる服を着た写真画像について、一人で写っているか否かを判定する。あえて一人の画像か否かの判定をしているのは、着せ替え再生において、多くの人に見せる場合があり、一緒に写っている人がいる場合には、プライバシーの問題に配慮するためである。一人で写っていなかった場合であって、この画像を使用する場合には、後述するように、一人だけを切り出して使用する。   If the result of determination in step S185 is that different clothes have been worn, it is next determined whether or not the image is an image in which only one person is shown (S186). Here, it is determined whether or not a photograph image of the same person and different clothes is taken alone. The purpose of judging whether or not it is one person's image is that it may be shown to many people in the dress-up playback, and if there are people who are shown together, it is for consideration of privacy issues. is there. When this image is used when it is not photographed alone, only one person is cut out and used as will be described later.

ステップS186における判定の結果、一人で写っていなかった場合には、予備画像として一時記憶する(S188)。一方、判定の結果、一人で写っていた場合には、候補画像として一時記憶する(S187)。候補化すると、次に、4枚済みか否かの判定を行う(S191)。前述したように、本実施形態においては、表示画面を4分割して画像を表示することから、ここでは、4枚の画像が揃ったか否かの判定を行う。   As a result of the determination in step S186, if it is not photographed alone, it is temporarily stored as a preliminary image (S188). On the other hand, as a result of the determination, if it was taken alone, it is temporarily stored as a candidate image (S187). Once the candidates are made, it is next determined whether or not four sheets have been completed (S191). As described above, in the present embodiment, the display screen is divided into four to display images, and therefore it is determined here whether or not four images have been prepared.

ステップS191における判定の結果、4枚済んでいなかった場合、またはステップS188において予備画像として一時記憶した場合、またはステップS185における判定の結果、違う服を着ていなかった場合、またはステップS184における判定の結果、同じ顔でなかった場合には、次に、次の画像を選択し(S189)、ステップS183に戻る。すなわち、次の画像を選択し、この選択画像について、ステップS183〜S191における判定や処理を行う。   If the result of determination in step S191 is that four images have not been completed, or if the image has been temporarily stored as a preliminary image in step S188, or if the result of determination in step S185 is that no different clothes have been worn, or determination in step S184. As a result, if the faces are not the same, the next image is next selected (S189), and the process returns to step S183. That is, the next image is selected, and the determination and processing in steps S183 to S191 are performed on the selected image.

ステップS183における判定の結果、検索対象がなかった場合には、予備を加えて着せ替えで表示する画像が複数あるか否の判定を行う(S201)。ステップS183における判定において、検索対象が無くなるのは、記録部4に記録されている全画像について、ステップS184〜S191における判定や処理が終わった状態である。この状態で、同じ顔で異なる服を着た写真画像が2以上ない場合には、着せ替え再生ができない。そこで、ステップS201における判定の結果、複数の写真画像がなかった場合には、着せ替え再生ができないことから、警告表示を行う(S202)。   If the result of determination in step S183 is that there is no search target, it is determined whether or not there are a plurality of images to be displayed by changing the dress by adding a spare (S201). In the determination in step S183, the search target disappears when all the images recorded in the recording unit 4 have been determined and processed in steps S184 to S191. In this state, if there are not two or more photographic images with the same face and different clothes, it is impossible to change the dress. Therefore, if the result of determination in step S201 is that there are no plural photographic images, a dress-up reproduction cannot be performed, so a warning is displayed (S202).

一方、ステップS201における判定の結果、予備画像を加えて複数の写真画像があった場合には、予備画像の場合は一人だけ取り出しを行う(S203)。ステップS187において候補化された画像が4枚あれば、その4枚を使用して着せ替え表示を行うが、候補化された画像が4枚ない場合には、このステップにおいて、複数の人物が写っている予備画像から、同一人物の画像を取り出す(トリミング)する。   On the other hand, if the result of determination in step S201 is that there are a plurality of photographic images by adding a preliminary image, only one person is extracted in the case of a preliminary image (S203). If there are four images candidated in step S187, the four are used for dress-up display. If there are no four candidated images, a plurality of persons are shown in this step. An image of the same person is extracted (trimmed) from the preliminary image.

ステップS203において一人だけ取り出すと、またはステップS191における判定の結果、4枚揃った場合には、次に、1番大きな顔に揃えて拡大を行う(S192)。ここでは、図3において説明したように、顔の大きさを揃えるために、1番大きな顔に合わせている。なお、1番大きな顔に合わせる以外にも、例えば、中間の大きさに合わせても良く、また、予め設定しておいたサイズ(例えば、画面サイズの1/5等)でも良い。   If only one person is taken out in step S203, or if the result of determination in step S191 is four, then enlargement is performed with the largest face aligned (S192). Here, as described with reference to FIG. 3, the face is adjusted to the largest face in order to make the face size uniform. In addition to matching with the largest face, for example, it may be set to an intermediate size, or may be a preset size (for example, 1/5 of the screen size).

続いて、顔の位置を中央に揃える(S193)。いつも同じ位置に顔を表示することにより、見やすくなる。なお、中央に限らずとも、やや左側や右側でも勿論かまわない。位置を揃えると、次に、検索された4枚の写真画像を、並べて表示、または順次表示する(S194)。ここで、「並べて表示」は、図4で説明したように、表示部8aの画面を4分割して同時又は順次、同一人物で異なる服装の写真画像を表示することである。また、「順次表示する」は、図3で説明したように、表示部8aの画面を分割することなく、同一人物で異なる服装の写真画像を順次表示することである。なお、並べて表示か順次表示かは、メニュー画面等において、ユーザが適宜選択できるようにしても良く、また、いずれか一方のみしかできなくても良い。   Subsequently, the face position is aligned at the center (S193). By always displaying the face at the same position, it becomes easier to see. Of course, the left side and the right side are not limited to the center. When the positions are aligned, the four retrieved photographic images are displayed side by side or sequentially (S194). Here, “display side by side” is to display the photographic images of different clothes for the same person simultaneously or sequentially by dividing the screen of the display unit 8a into four as described in FIG. Further, “sequentially display” is to sequentially display photographic images of different clothes for the same person without dividing the screen of the display unit 8a as described in FIG. Note that whether the images are displayed side by side or sequentially may be selected by the user on a menu screen or the like, or only one of them may be displayed.

ステップS194において着せ替え表示を行うと、またはステップS202における警告表示を行うと、次に、終了するか否かの判定を行う(S195)。着せ替えモードを終了する場合には、ユーザは、再度、着せ替え釦を操作するので、ここでは、着せ替え釦の操作状態を判定する。この判定の結果、終了でなかった場合には、ステップS189に進み、次の画像を選択して、ステップS183に戻る。一方、判定の結果、終了であった場合には、着せ替え再生の動作を終了し、元のフローに戻る。   If the dress change display is performed in step S194 or the warning display is performed in step S202, it is next determined whether or not to end (S195). When ending the dress-up mode, the user operates the dress-up button again, so here the operating state of the dress-up button is determined. If the result of this determination is not end, processing proceeds to step S189, the next image is selected, and processing returns to step S183. On the other hand, as a result of the determination, if it is the end, the dress-up playback operation is ended and the process returns to the original flow.

このように、本実施形態においては、顔画像のパターンと、顔の下の色やパターンに基づいて、同一人物で異なる服を着た写真画像を検索して、これを再生表示している。このため、同一人物でありながら服装が異なることから、変化に富んだコミュニケーションを促すような画像を再生表示すことができる。また、本実施形態においては、検索した結果を表示するにあたって、顔の大きさや、位置を揃えている。このため、見やすくなると共に、比較して見比べやすくなる。   As described above, in this embodiment, based on the pattern of the face image and the color and pattern under the face, photographic images with the same person wearing different clothes are retrieved and displayed. For this reason, since the clothes are different even though they are the same person, it is possible to reproduce and display an image that encourages a variety of communication. In this embodiment, the face size and position are aligned when displaying the search results. For this reason, it becomes easy to see and it becomes easier to compare.

なお、本実施形態においては、並べやすさから画面の分割数を4としている。しかし、画面の分割数は、4以外にも2、3、6、8、9等、適宜変更しても良い。また、本実施形態においては、複数の人物が写っている場合のみ、予備画像とし、ステップS203において一人を取り出すようにしていた。しかし、ステップS186、S188を省略し、すべての画像について、一人を取り出すようにしても良い。   In the present embodiment, the number of screen divisions is set to 4 for ease of arrangement. However, the number of screen divisions may be changed as appropriate, such as 2, 3, 6, 8, 9, etc., in addition to four. In this embodiment, only when a plurality of persons are shown, a preliminary image is used, and one person is extracted in step S203. However, steps S186 and S188 may be omitted and one person may be taken out for all images.

次に、着せ替え表示の表示方法の変形例について、図9を用いて説明する。着せ替え表示としては、図3および図4に示したような表示方法以外にも、例えば、図9に示すように、着せ替えた人物の姿のみを並べていくようにしても良い。すなわち、まず最初に図9(a)に示す写真画像の人物部分31aを表示部8aに表示し、次に人物部分31aに加えて図9(b)に示すように人物部分31bを表示する。   Next, a modified example of the display method for dressing display will be described with reference to FIG. In addition to the display methods as shown in FIGS. 3 and 4, for example, as shown in FIG. 9, only the figure of the dressed person may be displayed. That is, first, the person part 31a of the photographic image shown in FIG. 9A is displayed on the display unit 8a, and then the person part 31b is displayed in addition to the person part 31a as shown in FIG. 9B.

そして、次に図9(c)示すような人物部分31cを追加表示し、その次に、図9(d)に示すように人物部分31dを追加表示する。図9(d)において、同一人物で服装の異なる4枚の写真画像が、表示部8aに表示されるように、詰めて表示する。このような変形例は、図8のフローにおいて、ステップS193をスキップし、ステップS194において、取りだした人物の部分を順次並べて表示すれば良い。   Then, the person portion 31c as shown in FIG. 9C is additionally displayed, and then the person portion 31d is additionally displayed as shown in FIG. 9D. In FIG. 9D, four photographic images with the same person and different clothes are displayed so as to be displayed on the display unit 8a. In such a modification, step S193 may be skipped in the flow of FIG. 8, and the extracted portions of the person may be sequentially displayed in step S194.

次に、図10に着せ替え表示の表示方法の別の変形例を示す。この表示方法、図3のように、着せ替えた人物の写真画像を順次、表示する場合の変形例である。この変形例では、図10(a)と図10(c)の画像が、実際に撮影され、着せ替え再生のフローの中で検索された写真画像である。図3の例では、(a)の次に(c)の写真画像を表示する、本変形例においては、2つの写真画像の間に、モーフィング処理された図10(b)の画像を挿入する。   Next, FIG. 10 shows another modification of the display method for dressing display. This display method is a modification in which photographic images of dressed persons are sequentially displayed as shown in FIG. In this modification, the images shown in FIGS. 10A and 10C are photographic images actually taken and searched in the flow of dressing reproduction. In the example of FIG. 3, the photographic image of (c) is displayed after (a). In this modification, the morphed image of FIG. 10 (b) is inserted between two photographic images. .

モーフィング処理にあたって、図10(a)に示す人物部分32の腕部32aと、図10(c)に示す人物部分33の胴体部分33aを合成して、図10(b)に示すような合成画像を生成する。図10(a)の写真画像の次に、この合成画像を表示し、続いて、図10(c)の写真画像を表示する。本変形例においては、写真画像と写真画像の間に、合成画像を挿入するので、写真画像の変化が滑らかに移り変わるという利点がある。本変形例は、図8のフローにおいて、ステップS194において、順次、表示する際に、このモーフィング処理を行いながら、画像を表示すれば良い。   In the morphing process, the arm portion 32a of the person portion 32 shown in FIG. 10A and the torso portion 33a of the person portion 33 shown in FIG. 10C are combined to form a composite image as shown in FIG. Is generated. Next to the photographic image in FIG. 10A, this composite image is displayed, and subsequently, the photographic image in FIG. 10C is displayed. In this modification, since a composite image is inserted between a photographic image and a photographic image, there is an advantage that the change of the photographic image changes smoothly. In this modified example, when the images are sequentially displayed in step S194 in the flow of FIG. 8, the image may be displayed while performing the morphing process.

なお、本発明の一実施形態や変形例においては、背景のある写真画像の中から人物画像を抜き出している。この抜き出し方としては、撮像系を2つ持つカメラで、ステレオ撮影を行い、視差のない部分を背景として切り取るようにすれば良い。また、強力なストロボ光を照射し、反射光の多い所を抜き出し、その部分を人物画像としても良い。さらに、人物写真を撮影し、これを利用するようにしてもよい。もちろん、顔の部分を検出し、その輪郭に繋がっている部分を人物とみなすようにしても良い。いずれにしても、画像の中から人物の部分を抜き出す方法であれば、本実施形態において利用できる。   In one embodiment or modification of the present invention, a person image is extracted from a background photographic image. As an extraction method, stereo shooting is performed with a camera having two imaging systems, and a portion without parallax may be cut out as a background. Further, it is possible to irradiate a strong strobe light, extract a portion with a lot of reflected light, and use that portion as a human image. Furthermore, a person photograph may be taken and used. Of course, the face portion may be detected and the portion connected to the contour may be regarded as a person. In any case, any method that extracts a person from an image can be used in the present embodiment.

以上説明したように、本発明の実施形態においては、同一人物について異なる服装を着用している画像を検索し、これを表示するようにしている。このため、コミュニケーションを促すような変化に富んだ画像を再生表示することができる。   As described above, in the embodiment of the present invention, an image in which different clothes are worn for the same person is searched and displayed. For this reason, it is possible to reproduce and display an image rich in changes that promotes communication.

また、本発明の実施形態においては、予め決められた数の画像を検索すると(図8の例では、ステップS191において4枚に達すると)、一括して画像を表示するようにしていた。このため、同時または順次、同一人物で異なる服装の画像をまとめて楽しむことができる。さらに、本発明の実施形態においては、顔の位置や大きさを揃えるようにして、表示するようにしている。このため、画像が見やすく、また比較することが簡単にできる。   Further, in the embodiment of the present invention, when a predetermined number of images are searched (in the example of FIG. 8, when four images are reached in step S191), the images are displayed collectively. For this reason, images of different clothes by the same person can be enjoyed together simultaneously or sequentially. Furthermore, in the embodiment of the present invention, the display is performed by aligning the position and size of the face. For this reason, the images are easy to see and can be easily compared.

さらに、本発明の実施形態においては、人物の部分のみを抽出して、これを表示する場合もある。人物部分のみを表示することで、一緒に写っている人のプライバシーを気にする必要がなくなり、また、服装の比較がし易くなる。   Furthermore, in the embodiment of the present invention, only the person portion may be extracted and displayed. By displaying only the person portion, there is no need to worry about the privacy of the people who are together, and it is easy to compare clothes.

なお、本実施形態においては、ステップS186で一人画像と判定された場合には、背景を人物の部分から分離することなく、表示していた。しかし、これに限らず、全ての画像について、背景を人物の部分から分離し、人物の部分のみを表示するようにしても良い。   In the present embodiment, when it is determined that the image is a single person in step S186, the background is displayed without being separated from the person portion. However, the present invention is not limited to this. For all images, the background may be separated from the person portion and only the person portion may be displayed.

また、本実施形態においては、顔の大きさを揃え、かつ顔の位置も揃えていた。しかし、これに限らず、一方のみを揃えるでも構わない。   Further, in the present embodiment, the size of the face is aligned and the position of the face is also aligned. However, the present invention is not limited to this, and only one of them may be prepared.

さらに、本発明の実施形態においては、人物像の検出にあたって、顔検出部を利用したが、これに限らず、目鼻や手足等のパターン解析等、他の検出方法を利用するようにしても良い。また、服装の検出にあたって、顔の下の色やパターンを利用していたが、これ以外の画像解析を利用するようにしても良い。   Furthermore, in the embodiment of the present invention, the face detection unit is used for detecting the human image. However, the present invention is not limited to this, and other detection methods such as pattern analysis of the eyes, nose and limbs may be used. . Further, although the color and pattern under the face are used for detecting the clothes, other image analysis may be used.

さらに、本発明の実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話や携帯情報端末(PDA:Personal Digital Assist)、ゲーム機器等に内蔵されるカメラでも構わない。   Furthermore, in the embodiment of the present invention, the digital camera is used as the photographing device. However, the camera may be a digital single-lens reflex camera or a compact digital camera, and a moving image such as a video camera or a movie camera. For example, a camera built in a mobile phone, a personal digital assistant (PDA), a game machine, or the like.

さらに、本発明の実施形態においては、撮影装置が画像表示装置の機能を有していたが、これに限らず、テレビ、パーソナルコンピュータ等の撮影機能を有さない機器でも勿論かまわない。この場合には、撮影装置で撮影した画像データをこれらの機器の記憶部に一旦格納するようにすれば良い。本実施形態では撮影時に画像分類を行っていたが、これらの機器の場合、予め画像分類等の関連情報が付されていない画像を記憶部に格納した場合には、画像分類等の関連情報を付与すれば良い。また、テレビ等のモニタ機器とカメラ等の撮影装置を連携させて画像表示させるようにしても良い。   Furthermore, in the embodiment of the present invention, the photographing device has the function of the image display device. However, the present invention is not limited to this, and a device having no photographing function such as a television or a personal computer may of course be used. In this case, the image data photographed by the photographing apparatus may be temporarily stored in the storage unit of these devices. In this embodiment, image classification is performed at the time of shooting. However, in the case of these devices, when an image that has not been previously attached with related information such as image classification is stored in the storage unit, related information such as image classification is displayed. Just give it. In addition, a monitor device such as a television and a photographing device such as a camera may be linked to display an image.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1・・・画像処理及び制御部、1b・・・顔特徴抽出部、1c・・・顔位置・大きさ判定部、1d・・・画像検索部、1e・・・画像分類部、2・・・撮像部、3・・・顔検出部、4・・・記録部、4b・・・関連情報部、6・・・操作判定部、7・・・GPS、8・・・表示制御部、8a・・・表示部、8b・・・タッチパネル、9・・・時計部、10・・・カメラ、11a・・・ユーザの指、12・・・通信部、31a・・・人物部分、31b・・・人物部分、31c・・・人物部分、31d・・・人物部分、32・・・人物部分、32a・・・腕部、33・・・人物部分、33a・・・胴体部分 DESCRIPTION OF SYMBOLS 1 ... Image processing and control part, 1b ... Face feature extraction part, 1c ... Face position / size determination part, 1d ... Image search part, 1e ... Image classification part, 2 .... Image pickup unit, 3 ... face detection unit, 4 ... recording unit, 4b ... related information unit, 6 ... operation determination unit, 7 ... GPS, 8 ... display control unit, 8a ... Display part, 8b ... Touch panel, 9 ... Clock part, 10 ... Camera, 11a ... User's finger, 12 ... Communication part, 31a ... Personal part, 31b ... -Person part, 31c ... person part, 31d ... person part, 32 ... person part, 32a ... arm part, 33 ... person part, 33a ... body part

Claims (17)

撮影画像内の顔画像を検知する顔検知部と、
上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けする分類部と、
上記分類部による分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を表示する表示制御部と、
を有することを特徴とする画像表示装置。
A face detection unit for detecting a face image in the captured image;
A classification unit for classifying the captured image into a pattern of a face image and a color or pattern under the face image;
A display control unit that displays images of different colors or patterns on the same face according to the classification result by the classification unit;
An image display device comprising:
上記顔検知部は、上記顔画像の大きさと位置を検知可能であり、
上記表示制御部は、上記顔画像の大きさ及び/又は位置を変更する、
ことを特徴とする請求項1に記載の画像表示装置。
The face detection unit can detect the size and position of the face image,
The display control unit changes the size and / or position of the face image.
The image display apparatus according to claim 1.
上記表示制御部における表示では、上記分類部によって分類によって分類された複数の画像から人物の部分を、同時に、または順次に表示することを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein in the display in the display control unit, a person portion is displayed simultaneously or sequentially from a plurality of images classified by classification by the classification unit. 上記表示制御部における表示の際に、2つの画像の間に、この2つの画像を合成した合成画像を表示することを特徴とする請求項1に記載の画像表示装置。   The image display device according to claim 1, wherein a composite image obtained by synthesizing the two images is displayed between the two images at the time of display by the display control unit. 上記表示制御部は、上記顔画像に基づいて人物の部分を抽出し、上記人物の部分を表示することを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, wherein the display control unit extracts a human part based on the face image and displays the human part. 撮影画像を記憶する記憶部と、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定する人物判定部と、
上記撮影画像上の人物の服装部分を判定する服装判定部と、
上記人物判定部によって同一人物と判定された画像について、上記服装判定部によって異なる服装を着用していると判定された画像を検索する検索部と、
上記検索部によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する表示部と、
を有することを特徴とする画像表示装置。
A storage unit for storing captured images;
A person determination unit that determines whether or not the image includes the same person as the person specified on the captured image;
A clothing determination unit for determining a clothing part of a person on the photographed image;
A search unit for searching for an image determined to be worn by the clothing determination unit as to the image determined to be the same person by the person determination unit;
When a predetermined number of images are searched by the search unit, a display unit that collectively displays the searched images;
An image display device comprising:
上記表示部における一括表示では、上記検索部によって検索された予め決められた数の画像を、同時に、または順次に表示することを特徴とする請求項6に記載の画像表示装置。   The image display device according to claim 6, wherein in the batch display in the display unit, a predetermined number of images searched by the search unit are displayed simultaneously or sequentially. 上記表示部における一括表示では、上記検索部によって検索された画像中の顔の大きさ及び/又は位置を揃えることを特徴とする請求項6に記載の画像表示装置。   The image display device according to claim 6, wherein in the collective display in the display unit, the size and / or position of the face in the image searched by the search unit is aligned. 撮影画像を記憶する記憶部と、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定する人物判定部と、
上記撮影画像上の人物の服装部分を判定する服装判定部と、
上記人物判定部によって同一人物と判定された画像について、上記服装判定部によって異なる服装を着用していると判定された画像を検索する検索部と、
上記検索部によって検索された画像から、人物の部分を抜き出す人物抽出部と、
この人物抽出部によって抽出された人物を表示する表示部と、
を有することを特徴とする画像表示装置。
A storage unit for storing captured images;
A person determination unit that determines whether or not the image includes the same person as the person specified on the captured image;
A clothing determination unit for determining a clothing part of a person on the photographed image;
A search unit for searching for an image determined to be worn by the clothing determination unit as to the image determined to be the same person by the person determination unit;
A person extraction unit that extracts a person part from the image searched by the search unit;
A display unit for displaying the person extracted by the person extraction unit;
An image display device comprising:
上記表示部は、上記検索部によって検索された複数の人物の大きさ、及び/又は位置を揃えることを特徴とする請求項9に記載の画像表示装置。   The image display device according to claim 9, wherein the display unit aligns the sizes and / or positions of a plurality of persons searched by the search unit. 上記表示部は、上記検索部によって検索された複数の人物を、同時、または順次表示することを特徴とする請求項9に記載の画像表示装置。   The image display device according to claim 9, wherein the display unit displays a plurality of persons searched by the search unit simultaneously or sequentially. 撮影画像内の顔画像を検知し、
上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けし、
上記分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を一括表示する、
ことを特徴とする画像表示方法。
Detect the face image in the shot image,
The above shot images are classified by the face image pattern and the color or pattern under the face image,
Depending on the classification result, images of the same face with different colors or patterns are displayed at once.
An image display method characterized by the above.
撮影画像を記憶し、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、
同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、
上記検索によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する、
ことを特徴とする画像表示方法。
Memorize the shot image,
It is determined whether or not the image shows the same person as the person specified on the captured image,
For images determined to be the same person, search for images determined to be wearing different clothes,
When a predetermined number of images are searched by the above search, the searched images are collectively displayed.
An image display method characterized by the above.
撮影画像を記憶し、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、
上記撮影画像上の人物の服装部分を判定し、
上記同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、
上記検索された画像から、人物の部分を抜き出し、
この抽出された人物を表示する、
ことを特徴とする画像表示方法。
Memorize the shot image,
It is determined whether or not the image shows the same person as the person specified on the captured image,
Determine the person's dressed part on the above image,
For images determined to be the same person, search for images determined to be wearing different clothes,
Extract the human part from the searched image,
Display this extracted person,
An image display method characterized by the above.
撮影画像内の顔画像を検知し、
上記撮影画像を、顔画像のパターンと、顔画像の下の色、またはパターンで分類分けし、
上記分類分け結果に応じて同じ顔で異なる色、またはパターンの画像を一括表示する、
ことをコンピュータに実行させるプログラム。
Detect the face image in the shot image,
The above shot images are classified by the face image pattern and the color or pattern under the face image,
Depending on the classification result, images of the same face with different colors or patterns are displayed at once.
A program that causes a computer to execute.
撮影画像を記憶し、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、
同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、
上記検索によって、予め決められた数の画像を検索すると、検索された画像を一括して表示する、
ことをコンピュータに実行させるプログラム。
Memorize the shot image,
It is determined whether or not the image shows the same person as the person specified on the captured image,
For images determined to be the same person, search for images determined to be wearing different clothes,
When a predetermined number of images are searched by the above search, the searched images are collectively displayed.
A program that causes a computer to execute.
撮影画像を記憶し、
上記撮影画像上で指定された人物と同一人物が写っている画像か否かを判定し、
上記撮影画像上の人物の服装部分を判定し、
上記同一人物と判定された画像について、異なる服装を着用していると判定された画像を検索し、
上記検索された画像から、人物の部分を抜き出し、
この抽出された人物を表示する、
ことをコンピュータに実行させるプログラム。
Memorize the shot image,
It is determined whether or not the image shows the same person as the person specified on the captured image,
Determine the person's dressed part on the above image,
For images determined to be the same person, search for images determined to be wearing different clothes,
Extract the human part from the searched image,
Display this extracted person,
A program that causes a computer to execute.
JP2009040227A 2009-02-24 2009-02-24 Image display apparatus, image display method, and program Pending JP2010199772A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009040227A JP2010199772A (en) 2009-02-24 2009-02-24 Image display apparatus, image display method, and program
US12/709,597 US8698920B2 (en) 2009-02-24 2010-02-22 Image display apparatus and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009040227A JP2010199772A (en) 2009-02-24 2009-02-24 Image display apparatus, image display method, and program

Publications (2)

Publication Number Publication Date
JP2010199772A true JP2010199772A (en) 2010-09-09
JP2010199772A5 JP2010199772A5 (en) 2012-03-22

Family

ID=42824065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009040227A Pending JP2010199772A (en) 2009-02-24 2009-02-24 Image display apparatus, image display method, and program

Country Status (1)

Country Link
JP (1) JP2010199772A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013084395A1 (en) * 2011-12-07 2013-06-13 株式会社ニコン Electronic device, information processing method and program
WO2017094800A1 (en) * 2015-11-30 2017-06-08 株式会社ニコン Display device, display program, and display method
CN116767097A (en) * 2022-03-09 2023-09-19 博泰车联网科技(上海)股份有限公司 Intelligent clothes hook and control method thereof, vehicle, vehicle-mounted equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358522A (en) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd Image selection support device, image selection support method, and image selection support program
JP2005136841A (en) * 2003-10-31 2005-05-26 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
US20060251292A1 (en) * 2005-05-09 2006-11-09 Salih Burak Gokturk System and method for recognizing objects from images and identifying relevancy amongst images and information
JP2006318352A (en) * 2005-05-16 2006-11-24 Noritsu Koki Co Ltd Image processing device
JP2007272897A (en) * 2006-03-31 2007-10-18 Fujifilm Corp Digital image processing method and apparatus for context assisted human identification
JP2008139941A (en) * 2006-11-30 2008-06-19 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358522A (en) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd Image selection support device, image selection support method, and image selection support program
JP2005136841A (en) * 2003-10-31 2005-05-26 Casio Comput Co Ltd Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
US20060251292A1 (en) * 2005-05-09 2006-11-09 Salih Burak Gokturk System and method for recognizing objects from images and identifying relevancy amongst images and information
JP2006318352A (en) * 2005-05-16 2006-11-24 Noritsu Koki Co Ltd Image processing device
JP2007272897A (en) * 2006-03-31 2007-10-18 Fujifilm Corp Digital image processing method and apparatus for context assisted human identification
JP2008139941A (en) * 2006-11-30 2008-06-19 Seiko Epson Corp Image processing apparatus, image processing method, and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNH200600115007; 佐藤 正章,外1名: '服装・顔を用いた人物検索システム' 松下テクニカルジャーナル 第52巻,第3号, 20060618, P.67-71, 松下電器産業株式会社 *
JPN6012032848; 佐藤 正章,外1名: '服装・顔を用いた人物検索システム' 松下テクニカルジャーナル 第52巻,第3号, 20060618, P.67-71, 松下電器産業株式会社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013084395A1 (en) * 2011-12-07 2013-06-13 株式会社ニコン Electronic device, information processing method and program
WO2017094800A1 (en) * 2015-11-30 2017-06-08 株式会社ニコン Display device, display program, and display method
CN116767097A (en) * 2022-03-09 2023-09-19 博泰车联网科技(上海)股份有限公司 Intelligent clothes hook and control method thereof, vehicle, vehicle-mounted equipment and storage medium

Similar Documents

Publication Publication Date Title
US8698920B2 (en) Image display apparatus and image display method
CN101790035B (en) camera
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
KR100596910B1 (en) Image display controlling method, and image display controlling apparatus
JP2010183317A (en) Imaging device, image composition and display device, image composition and display method, and program
US8760551B2 (en) Systems and methods for image capturing based on user interest
JP2011060272A (en) Method of providing ui and display apparatus adopting the same
JP2011257979A (en) Image retrieval device, image retrieval method, and camera
US8355050B2 (en) Image replay system, digital camera, and image replay device
JP2013121097A (en) Imaging apparatus, imaging method, image generating apparatus, image generating method and program
US20160055662A1 (en) Image extracting apparatus, image extracting method and computer readable recording medium for recording program for extracting images based on reference image and time-related information
US10447935B2 (en) Image generating apparatus, image generating method and computer readable recording medium for recording program for generating new image from images related to reference image
US9374525B2 (en) Shooting apparatus and shooting method
JP2010199772A (en) Image display apparatus, image display method, and program
JP2013168969A (en) Image display method, and image display device
JP5032363B2 (en) Image display method
JP5440588B2 (en) Composition determination apparatus, composition determination method, and program
JP2010199771A (en) Image display apparatus, image display method, and program
JP2012032728A (en) Image display device and its method
US20050052550A1 (en) Image-file managing system and optical apparatus for observing object
JP5675922B2 (en) Shooting display device
JP2007110262A (en) Image viewing software and image storage device
JP5368165B2 (en) Imaging display device and imaging display method
JP2012256327A (en) Image display apparatus, image display method, and image display program
JP2010147773A (en) Camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702