[go: up one dir, main page]

JP2007041964A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2007041964A
JP2007041964A JP2005227140A JP2005227140A JP2007041964A JP 2007041964 A JP2007041964 A JP 2007041964A JP 2005227140 A JP2005227140 A JP 2005227140A JP 2005227140 A JP2005227140 A JP 2005227140A JP 2007041964 A JP2007041964 A JP 2007041964A
Authority
JP
Japan
Prior art keywords
image processing
distance
processing apparatus
person
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005227140A
Other languages
Japanese (ja)
Inventor
Takahiro Higashimura
貴裕 東村
Shogo Hamazaki
省吾 濱崎
Kenji Hisatomi
健治 久富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005227140A priority Critical patent/JP2007041964A/en
Publication of JP2007041964A publication Critical patent/JP2007041964A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 写真の被写体である人物間の親密度を定量化したパラメータを算出し、写真の効率的な検索や視聴ができる画像処理装置を提供する。
【解決手段】 画像処理装置100は、撮影された写真を入力する写真入力部10と、入力された写真から親密度を算出する親密度算出部11と、親密度算出部11が出力した親密度を関連情報として、写真入力部10から入力された写真とリンクしてデータ格納部13に格納するとともに、関連情報をキーとして必要な写真を検索するデータベース管理部12と、写真及びその関連情報を格納するデータ格納部13と、ユーザから抽出条件の入力を受ける抽出条件入力部14と、ユーザからの抽出条件を受付けて、その抽出条件に基づいた検索キーでデータベース管理部12に検索結果の写真を出力するデータ抽出部15と、抽出された画像データを表示する出力部16とを備える。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of calculating a parameter quantifying the intimacy between persons who are subjects of a photograph and efficiently searching and viewing the photograph.
An image processing apparatus includes a photo input unit that inputs a photographed photo, a closeness calculation unit that calculates a closeness from the input photo, and a closeness that is output from the closeness calculation unit. As related information and linked to the photo input from the photo input unit 10 and stored in the data storage unit 13, and the database management unit 12 for searching for the necessary photo using the related information as a key, and the photo and its related information A data storage unit 13 to be stored, an extraction condition input unit 14 that receives an input of an extraction condition from a user, and accepts an extraction condition from the user, and a search result photo to the database management unit 12 with a search key based on the extraction condition Is output, and an output unit 16 that displays the extracted image data is provided.
[Selection] Figure 1

Description

本発明は、静止画又は動画等の画像データを処理する画像処理装置に関するものであり、特に、データベースに蓄積されている画像データ群から好みの写真の検索、分類等を行う機能を有する画像処理装置に関する。   The present invention relates to an image processing apparatus for processing image data such as a still image or a moving image, and in particular, an image processing having a function of searching and classifying a favorite photograph from a group of image data stored in a database. Relates to the device.

近年、デジタルスチルカメラ(以下、単にデジカメと記す)やカメラ付き携帯電話等のデジタル映像を撮影する個人向けの撮影装置が急速に普及している。このような撮影装置においては、記憶容量が増大し、ユーザは多くの写真を撮影して記録していくことが可能となった。しかし、記録される写真の量が増加することで限られた時間で画像データの視聴や、大量の写真の中から目的の写真の検索が困難となり、より効率的な写真の検索、分類方法が求められている。   In recent years, personal photographing devices such as digital still cameras (hereinafter simply referred to as “digital cameras”) and mobile phones with cameras have been rapidly spreading. In such a photographing apparatus, the storage capacity has increased, and the user can take and record many photographs. However, increasing the amount of photos to be recorded makes it difficult to view image data in a limited time or to search for the desired photo from a large number of photos. It has been demanded.

そして、デジカメで撮影した写真には、知人や家族等の人物を被写体とすることが多く、被写体人物を検索キーとした写真を選択して視聴する新しい視聴方法や、コンピュータを使った写真の視聴方法として、写真毎に付与されたキーワードを活用して写真を管理し視聴に役立てる、いわゆる電子アルバム・ツールがある。例えば、Adobe Systems社の製品であるAdobe Photoshop Albumなどである。これらのツールにおいて、ユーザはあらかじめ全ての写真に対して画像情報として写っている人物名をキーワードとして付与し、視聴時に人物名を検索キーとして目的の人物が写っている写真を絞り込んで一覧表示であるサムネイル表示や順次表示であるスライドショー表示を行う。しかしながら、この従来の方法では、大量に撮影した写真の1枚1枚に対して、ユーザがあらかじめキーワードを入力、設定する必要があるため、手間と時間を要するという課題がある。   In many cases, photos taken with digital cameras are taken from people such as acquaintances and family members, and a new viewing method for selecting and viewing photos using the subject person as a search key, and viewing photos using a computer. As a method, there is a so-called electronic album tool that uses a keyword assigned to each photo to manage the photo and use it for viewing. For example, Adobe Photoshop Album, which is a product of Adobe Systems. In these tools, the user assigns in advance a person's name shown as image information to all pictures as a keyword, and narrows down the pictures showing the target person using the person name as a search key when viewing. A thumbnail display or a slide show display that is a sequential display is performed. However, this conventional method has a problem that it takes time and effort because the user needs to input and set keywords in advance for each of a large number of photographs taken.

また、写真の視聴の際の検索対象となる人物としては仲の良い親友や家族などが想定されるが、仲の良い人物はそもそも撮影対象となる頻度も多く、被写体として頻繁に出現して、人物名で検索するのみでは快適な視聴に適した枚数まで絞り込めず、その結果、ユーザは多くの写真を視聴しなければならないという視聴効率の問題が生じる。   In addition, close friends and family members are assumed as the search targets when viewing photos, but close friends are often subject to photography in the first place, and frequently appear as subjects, In this case, it is not possible to narrow down the number of images suitable for comfortable viewing, and as a result, there arises a problem of viewing efficiency that the user has to view many photos.

そして、写真の画像情報から被写体の人物関係を推定し、画像の検索に役立てる方法が考えられる。例えば、被写体人物間の人間関係を推定する従来技術として、撮影された人物の年齢層、性別などの個人の属性を人物の顔から推定し、被写体全員について推定された個人の属性から総合的に判断して、恋人、家族、友人等のグループ属性を推定する情報提供装置が開示されている(例えば、特許文献1参照)。この情報提供装置は、例えば、十代の男性と女性のカップルが写っている画像に対しては、「友人」または「恋人」とグループを推定してグループ化を行う。
特開2004−227158号公報
Then, a method of estimating the personal relationship of the subject from the image information of the photograph and using it for searching for an image can be considered. For example, as a conventional technique for estimating the human relationship between subject persons, personal attributes such as age group and sex of the photographed person are estimated from the face of the person, and comprehensively based on the individual attributes estimated for all the subjects. An information providing apparatus that judges and estimates group attributes such as a lover, family, and friend is disclosed (see, for example, Patent Document 1). For example, this information providing apparatus performs grouping by estimating a group of “friends” or “lovers” for an image of a couple of teenage men and women.
JP 2004-227158 A

しかしながら、上述した特許文献においては、被写体全員の個人属性に基づいて、被写体全員を1つの集団として恋人、家族、友人等あらかじめ想定したグループ属性に単純に当てはめてグループ化を行っているに過ぎず、写真に写っている被写体である人物間の関係、例えば1枚の写真に写っている被写体である任意の2人の親密度を比較することはできない。   However, in the above-mentioned patent document, based on the personal attributes of all the subjects, all the subjects are simply grouped by applying them to a group attribute that is assumed in advance, such as a lover, family, or friend. It is impossible to compare the relationship between persons as subjects in a photograph, for example, the intimacy of any two people as subjects in a single photograph.

また、デジカメ、カメラ付携帯の普及で個人ユーザが管理する写真の量が増大し、大量の写真の中から目的の写真の検索方法として、時系列的なソートやアルバムソフトでの人名検索以外に、ユーザの手間を要しない、娯楽性のある新たな方法が求められている。   Also, with the widespread use of digital cameras and camera-equipped mobile phones, the amount of photos managed by individual users has increased, and as a method of searching for desired photos from a large number of photos, in addition to time-series sorting and album name search with album software Therefore, there is a demand for new entertainment methods that do not require user effort.

本発明は、これらの課題に鑑みてなされたものであり、画像データから被写体である人物間の親密度に関するパラメータを自動的に算出し、親密度に基づく写真の効率的な検索、視聴等を可能とする画像処理装置を提供することを目的とする。   The present invention has been made in view of these problems, and automatically calculates parameters related to intimacy between persons who are subjects from image data, and can efficiently search and view photos based on intimacy. An object of the present invention is to provide an image processing apparatus that can be used.

前記従来の課題を解決するために、本発明に係る画像処理装置は、画像データを用いて画像処理を行う画像処理装置であって、前記画像データを格納する格納手段と、前記画像データから被写体である人物を検出する人物検出手段と、前記人物検出手段で検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定手段と、前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出手段と、前記パラメータに基づき、前記格納手段に格納されている画像データを抽出するデータ抽出手段とを備えることを特徴とする。   In order to solve the above-described conventional problems, an image processing apparatus according to the present invention is an image processing apparatus that performs image processing using image data, a storage unit that stores the image data, and a subject from the image data A person detecting means for detecting a person, a distance measuring means for calculating a distance between each person when two or more persons are detected by the person detecting means, and a distance between the persons based on the distance. Parameter calculating means for calculating a parameter relating to the familiarity of the image data, and data extracting means for extracting image data stored in the storage means based on the parameter.

この構成により、本発明に係る画像処理装置は、距離測定手段において入力された写真に写っている人物間の距離を算出して、パラメータ算出手段において被写体である人物間の親密度に関するパラメータを算出し、当該パラメータを用いてデータ抽出手段で格納手段から画像データを抽出することにより、ユーザの手間を要することなく、親密度に基づいた写真の検索、視聴等ができる。   With this configuration, the image processing apparatus according to the present invention calculates the distance between the persons shown in the photograph input by the distance measuring unit, and calculates the parameter related to the intimacy between the persons who are subjects in the parameter calculating unit. Then, by extracting the image data from the storage means by the data extraction means using the parameters, it is possible to search for, view, and the like photos based on the familiarity without requiring the user's trouble.

また、本発明に係る画像処理装置は、さらに、通信履歴を保持する通信履歴保持手段を備え、前記パラメータ算出手段は、前記通信履歴保持手段の保持する通信履歴に基づいて、親密度に関する前記パラメータを増減させることを特徴とする。   Further, the image processing apparatus according to the present invention further includes a communication history holding unit that holds a communication history, and the parameter calculation unit uses the parameter related to familiarity based on the communication history held by the communication history holding unit. It is characterized by increasing or decreasing.

さらに、本発明に係る画像処理装置は、さらに、前記画像データの保存履歴、参照履歴、及び修正履歴の少なくとも1つを保持する履歴保持手段を備え、前記パラメータ算出手段は、前記履歴保持手段の保持する履歴に基づいて、親密度に関する前記パラメータを増減させることを特徴とする。   Furthermore, the image processing apparatus according to the present invention further includes history holding means for holding at least one of a storage history, a reference history, and a correction history of the image data, and the parameter calculation means includes the history holding means. The parameter related to closeness is increased or decreased based on the history to be stored.

これらの構成により、履歴保持手段に保持されている画像データの保存履歴、参照履歴、修正履歴等の履歴情報や、通信履歴保持手段に保持されている他のユーザとの通信履歴により、パラメータ算出手段は、親密度に関するパラメータを増減させ、データ抽出手段は、より精度の高い親密度に基づいて前記格納手段に格納されている画像データを抽出することが可能となる。   With these configurations, parameter calculation is performed based on history information such as the storage history, reference history, and correction history of image data held in the history holding unit, and communication history with other users held in the communication history holding unit. The means increases or decreases the parameter related to the familiarity, and the data extracting means can extract the image data stored in the storage means based on the familiarity with higher accuracy.

尚、前記目的を達成するために、本発明は、前記画像処理装置の特徴的な構成手段をステップとする画像処理方法としたり、それらのステップを全て含むプログラムとして実現することもできる。そして、そのプログラムは、画像処理装置が備えるROM等に格納しておくだけでなく、CD−ROM等の記録媒体や通信ネットワークを介して流通させることもできる。   In order to achieve the above object, the present invention can be realized as an image processing method using characteristic constituent means of the image processing apparatus as steps, or as a program including all these steps. The program is not only stored in a ROM or the like included in the image processing apparatus, but can also be distributed via a recording medium such as a CD-ROM or a communication network.

本発明に係る画像処理装置は、写真の被写体である人物間の親密度に関するパラメータを被写体である人物間の距離から自動的に算出して、大量の写真の効率的な検索、視聴等に役立てることができるという作用効果を奏する。   The image processing apparatus according to the present invention automatically calculates a parameter related to intimacy between persons who are photograph subjects from the distance between the persons who are subjects, and is useful for efficient search, viewing, etc. of a large number of photos. There is an effect of being able to.

以下、本発明に係る画像処理装置の実施の形態について、図面を参照して説明を行う。   Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings.

(実施の形態1)
図1は、本実施の形態1に係る画像処理装置100の構成を示す機能ブロック図である。
(Embodiment 1)
FIG. 1 is a functional block diagram showing the configuration of the image processing apparatus 100 according to the first embodiment.

一般に、2人の人物の間の距離が近いほど、その2人は親密な間柄であると考えられるため、本実施の形態1に係る画像処理装置100は、写真に写っている2人の人物間の距離から、人間関係の繋がりの強さを親疎の度合いで表した指標である親密度を定量化して算出して、写真の検索や視聴時に用いることを特徴とする。   In general, the closer the distance between the two persons, the closer the two are considered to be intimate relations. Therefore, the image processing apparatus 100 according to the first embodiment uses the two persons shown in the photograph. It is characterized in that the intimacy, which is an index representing the strength of the relationship between human beings by the degree of intimacy, is quantified and calculated from the distance between them and used for searching and viewing photos.

図1に示すように、本発明に係る画像処理装置100は、撮影された写真を入力する写真入力部10と、入力された写真から親密度を算出する親密度算出部11と、親密度算出部11が出力した親密度を関連情報として、写真入力部10から入力された写真とリンクしてデータ格納部13に格納するとともに、関連情報をキーとして必要な写真を検索するデータベース管理部12と、写真及びその関連情報を格納するデータ格納部13と、ユーザから抽出条件の入力を受ける抽出条件入力部14と、ユーザからの抽出条件を受付けて、その抽出条件に基づいた検索キーでデータベース管理部12に検索結果の写真を出力するデータ抽出部15と、抽出された画像データを表示する出力部16とを備える。   As shown in FIG. 1, an image processing apparatus 100 according to the present invention includes a photo input unit 10 that inputs a photographed photo, a closeness calculation unit 11 that calculates a closeness from the input photo, and a closeness calculation. A database management unit 12 that searches the necessary photos using the related information as a key, and stores the intimacy output by the unit 11 as related information in the data storage unit 13 linked to the photo input from the photo input unit 10; , A data storage unit 13 for storing a photograph and its related information, an extraction condition input unit 14 for receiving an extraction condition input from a user, and receiving an extraction condition from the user and managing a database with a search key based on the extraction condition The data extraction part 15 which outputs the photograph of a search result to the part 12 and the output part 16 which displays the extracted image data are provided.

また、親密度算出部11は、入力された写真から、写真上での人物の顔が写っている領域(以下、顔領域とする)を検出し、出力する人物検出部21と、人物検出部21で検出した顔領域から2つの顔領域の間の距離を算出する距離測定部23と、距離測定部23で算出した顔領域間の距離から親密度に関するパラメータを算出するパラメータ算出部22とを備える。   In addition, the closeness calculation unit 11 detects a region (hereinafter referred to as a face region) in which a person's face is captured from the input photograph, and outputs a person detection unit 21 and a person detection unit. A distance measurement unit 23 that calculates a distance between the two face regions from the face region detected in 21, and a parameter calculation unit 22 that calculates a parameter related to intimacy from the distance between the face regions calculated by the distance measurement unit 23. Prepare.

なお、データベース管理部12における画像と関連情報とのリンク管理の具体的な方法としては、Exif(Exchangeable image file format)形式に代表されるように写真のデータファイルの一部に親密度テーブルを格納する管理方法としてもよいし、写真のファイル名と親密度テーブルのファイル名とで一部に共通な文字を使用するという命名則(例えば、写真ファイルfoo.picと親密度テーブルファイルfoo.dat)で管理しても良いし、写真のファイルと親密度テーブルのファイルとをリンク付けるポインタ情報で管理する方法でもよい。   As a specific method for managing the link between the image and the related information in the database management unit 12, a closeness table is stored in a part of the photo data file as represented by the Exif (Exchangeable image file format) format. It is also possible to use a common management method for the photo file name and the file name of the closeness table (for example, the photo file foo.pic and the closeness table file foo.dat). Alternatively, it may be managed by using pointer information for linking a photo file and a closeness table file.

また、データ格納部13には、M枚の写真Picが入っていて、識別子j(j=1,2,…,M)を添え字として任意の写真をPic(j)として特定できる。なお、写真を特定する手段として、写真ファイルの命名則や、写真の格納場所を表すポインタリストを用いることもできる。   Further, the data storage unit 13 contains M photos Pic, and an identifier j (j = 1, 2,..., M) can be used as a subscript to specify an arbitrary photo as Pic (j). As a means for specifying a photo, a photo file naming rule or a pointer list indicating a photo storage location may be used.

次に、本実施の形態1に係る画像処理装置100の親密度算出部11の動作概要について説明する。図2は、親密度算出部11の動作ステップを示すフローチャートである。   Next, an outline of the operation of the familiarity calculating unit 11 of the image processing apparatus 100 according to the first embodiment will be described. FIG. 2 is a flowchart showing the operation steps of the familiarity calculation unit 11.

最初に、親密度算出部11の人物検出部21は、入力された写真から顔領域を検出し、顔領域の数をカウントする(ステップS201)。   First, the person detection unit 21 of the familiarity calculation unit 11 detects a face area from the input photograph and counts the number of face areas (step S201).

そして、人物検出部21は、検出された顔領域が2つ以上あるか判断し(ステップS202)、顔領域が2つ以上検出された場合においては(ステップS202でYes)、パラメータ算出部22の距離測定部23において、検出された顔間の距離を測定し(ステップS203)、測定された距離から親密度を算出する(ステップS204)。一方、顔領域が2つ以上検出されない場合には(ステップS202でNo)、そのまま処理を終了する。ここで、人物検出部21における顔領域を検出するステップS201に関しては、入力された写真からエッジ画像を抽出し、あらかじめ用意された顔学習辞書を用いて顔画像が含まれている矩形画像を抽出する方法が「特許文献:特開2003−44853」で実現できる。   Then, the person detection unit 21 determines whether there are two or more detected face regions (step S202), and when two or more face regions are detected (Yes in step S202), the parameter calculation unit 22 The distance measuring unit 23 measures the distance between the detected faces (step S203), and calculates the familiarity from the measured distance (step S204). On the other hand, when two or more face areas are not detected (No in step S202), the process is terminated. Here, in step S201 for detecting a face area in the person detection unit 21, an edge image is extracted from the input photograph, and a rectangular image including the face image is extracted using a face learning dictionary prepared in advance. This method can be realized by “Patent Document: JP-A-2003-44853”.

なお、顔領域を検出する方法にこの従来方式を挙げているが、顔領域を検出する方法であれば別の方式を用いても良く、これに限定するのではないことは言うまでもない。また、抽出された顔画像が含まれる矩形領域に内接する楕円を顔領域と仮定したり、矩形領域内の肌色領域を顔領域とすることで、実際の顔の形状により近い顔領域を得ることができる。また、顔間の距離算出であるステップS203は、さらに、後述の図3に示すアルゴリズムで実現される。   Although this conventional method is mentioned as a method for detecting a face area, it is needless to say that another method may be used as long as it is a method for detecting a face area, and the method is not limited to this. Also, it is assumed that an ellipse inscribed in the rectangular area including the extracted face image is a face area, or a skin color area in the rectangular area is used as a face area, thereby obtaining a face area closer to the actual face shape. Can do. Further, step S203, which is a distance calculation between faces, is further realized by an algorithm shown in FIG.

図3は、図2に示すステップS203の詳細な動作ステップを示すフローチャートである。   FIG. 3 is a flowchart showing detailed operation steps of step S203 shown in FIG.

最初に、ステップS201で検出された顔領域の数がN個とすると、親密度算出部11における親密度の算出は、検出されたN個の顔領域のうち任意の2個の顔領域の組み合わせを決定する(ステップS301)。   First, assuming that the number of face areas detected in step S201 is N, the familiarity calculation unit 11 calculates a combination of two arbitrary face areas among the detected N face areas. Is determined (step S301).

次に、親密度算出部11におけるg個の組み合わせについてのループを開始し(ステップS302)、2個のそれぞれの顔領域の重心を算出し(ステップS303)、2個の顔領域の間の距離を算出し(ステップS304)、顔領域の間の距離を親密度テーブルT(j)に格納する(ステップS305)処理をg回繰り返して、g個の組み合わせについてのループを終了する(ステップS306)。尚、gは下記の(数1)で求められる検出された全ての顔領域の組合せの数であり、例えば被写体が2人の場合にはg=1であり、被写体が3人の場合にはg=3となる。   Next, a loop for g combinations in the familiarity calculation unit 11 is started (step S302), and the centroids of the two face areas are calculated (step S303), and the distance between the two face areas Is calculated (step S304), and the distance between the face regions is stored in the familiarity table T (j) (step S305). The process is repeated g times, and the loop for the g combinations ends (step S306). . Note that g is the number of combinations of all detected face areas obtained by (Equation 1) below. For example, when there are two subjects, g = 1, and when there are three subjects. g = 3.

(数1)
g=N2=N!/(2!(N−2)!)
(Equation 1)
g = N C 2 = N! / (2! (N-2)!)

また、ステップS302において、親密度算出部11は、写真Pic(j)に写っている人物の顔領域の組合せごとに算出された親密度に関するパラメータを図4に示すような親密度テーブルT(j)として作成する。   Further, in step S302, the familiarity calculating unit 11 sets parameters related to the familiarity calculated for each combination of the face areas of the person shown in the picture Pic (j) as shown in FIG. ) To create.

図4は、写真Pic(j)の親密度テーブルT(j)のデータ構成の一例を示す参考図である。   FIG. 4 is a reference diagram illustrating an example of a data configuration of the closeness table T (j) of the photograph Pic (j).

この親密度テーブルT(j)は複数のレコードで構成され、各レコードは一つの写真内の顔の組合せを表す識別子(i=1,2,…,g)を使って、それぞれの顔の組合せに対応する親密度F(i)を格納する親密度フィールドと顔領域の組合せを格納する組合せフィールドとからなる。この親密度テーブルT(j)の顔領域の組合せを組合せフィールドに格納し、距離を一時的に親密度フィールドに格納する。親密度フィールドに一時的に格納されている距離をステップS305で親密度に変換し、親密度テーブルT(j)の親密度フィールドに格納する。ここで、写真Pic(j)にリンクされた親密度テーブルを親密度テーブルT(j)と表す。   This closeness table T (j) is composed of a plurality of records, and each record uses an identifier (i = 1, 2,..., G) representing a combination of faces in one photograph, and each face combination. Is composed of a familiarity field for storing the familiarity F (i) corresponding to, and a combination field for storing a combination of face regions. The combination of the face areas of the closeness table T (j) is stored in the combination field, and the distance is temporarily stored in the closeness field. The distance temporarily stored in the familiarity field is converted into the familiarity in step S305, and stored in the familiarity field of the familiarity table T (j). Here, the familiarity table linked to the picture Pic (j) is represented as a familiarity table T (j).

次に、親密度算出部11の距離測定部23における顔領域の間の距離の算出方法をより具体的に説明する。   Next, a method for calculating the distance between face areas in the distance measuring unit 23 of the familiarity calculating unit 11 will be described more specifically.

図5は、本発明の画像処理装置100の写真入力部10に入力される写真50の一例を示す参考図である。図5に示す写真50には人物51と人物52の2人が被写体として写っている。   FIG. 5 is a reference diagram illustrating an example of a photograph 50 input to the photograph input unit 10 of the image processing apparatus 100 of the present invention. In the photograph 50 shown in FIG. 5, a person 51 and a person 52 are shown as subjects.

図6は、図5に示した写真50の人物51と人物52の顔領域を表す図であり、人物51の顔領域は楕円61、人物52の顔領域は楕円62で表されている。また、楕円61の重心を重心63、楕円62の重心を重心64とする。距離測定部23は、これら2つの重心63,64を直線で結び、その直線のうち、楕円61と楕円62の領域外の線分の長さを顔領域間の距離dとして測定する。   FIG. 6 is a diagram illustrating the face areas of the person 51 and the person 52 in the photograph 50 shown in FIG. 5. The face area of the person 51 is represented by an ellipse 61 and the face area of the person 52 is represented by an ellipse 62. The center of gravity of the ellipse 61 is defined as the center of gravity 63, and the center of gravity of the ellipse 62 is defined as the center of gravity 64. The distance measuring unit 23 connects the two centroids 63 and 64 with a straight line, and measures the length of a line segment outside the area of the ellipse 61 and the ellipse 62 among the straight lines as the distance d between the face areas.

この方法により求められた距離dから、親密度は下記に示す(数2)として算出される。尚、(数2)において、Sは親密度、αは係数、dは人物間の距離である。   From the distance d obtained by this method, the familiarity is calculated as (Equation 2) shown below. In (Expression 2), S is a closeness, α is a coefficient, and d is a distance between persons.

(数2)
S=αd
(Equation 2)
S = αd

ここで、本発明に係る画像処理装置100においては、出力される親密度は顔の間の距離によるものであり、顔の間(人物間)の距離は親密であるほど近くなると考えられるため、(数2)で得られる親密度Sの値が「小さい」ほど人物間の実際の親密さは「高い」ことになる。なお、αは0以上の数とする。   Here, in the image processing apparatus 100 according to the present invention, the output closeness is based on the distance between the faces, and the distance between the faces (between persons) is considered to be closer as the intimacy is increased. The smaller the value of the familiarity S obtained in Equation 2), the higher the actual intimacy between persons. Α is a number of 0 or more.

なお、人物間の距離は顔領域の間の距離として説明したが、体も含めた人物の外形の間の距離としてもよい。
また、顔領域間の距離dは被写体の人物の顔領域の大きさで正規化したものとしてもよい。
In addition, although the distance between persons was demonstrated as the distance between face areas, it is good also as a distance between the external shapes of a person including a body.
Further, the distance d between the face areas may be normalized by the size of the face area of the subject person.

図7は、ズームの倍率以外は同じ条件で撮影した2つの写真を表した参考図である。   FIG. 7 is a reference diagram showing two photographs taken under the same conditions except for the zoom magnification.

図7において、あるズーム倍率で撮影した写真70と、より高倍率のズームで撮影した写真71とにおいて、人物51と人物52の顔領域の間の距離d1、d2を比較すると、より高倍率のズームで撮影したd2の方がd1より大きくなる。   In FIG. 7, comparing the distances d1 and d2 between the face areas of the person 51 and the person 52 in a photograph 70 taken at a certain zoom magnification and a photograph 71 taken at a higher magnification zoom, the higher magnification can be obtained. D2 shot with zoom is larger than d1.

そして、このまま写真70と写真71との親密度を(数2)で算出すると、より高倍率のズームで撮影した写真71の方が写真70より(数2)で得られる値が大きくなり、親密さが低くなる。しかし、同じ被写体を同じ条件で撮影しているため、写真70と写真71では同じ親密度となるべきである。   Then, if the closeness of the photograph 70 and the photograph 71 is calculated as in (Expression 2), the value obtained in the (Expression 2) of the photograph 71 taken with the higher magnification zoom is larger than that of the photograph 70, and the intimacy is close. Becomes lower. However, since the same subject is taken under the same conditions, the photographs 70 and 71 should have the same closeness.

そこで、顔領域の幅により顔領域間の距離dを正規化することを考える。こうすることにより、ズームの倍率による距離dの増大を補正でき、望ましい親密度を算出することが可能となる。2つの顔領域の幅をa、bとし、a、bを利用して顔領域間の距離dを正規化する親密度Sの算出式を(数3)に示す。   Therefore, consider normalizing the distance d between the face regions by the width of the face region. By so doing, it is possible to correct an increase in the distance d due to the zoom magnification, and it is possible to calculate a desired familiarity. A formula for calculating the familiarity S for normalizing the distance d between the face areas using a and b, where a and b are the widths of the two face areas is shown in (Equation 3).

(数3)
c=(a+b)/2
α=1/c
S=αd
(Equation 3)
c = (a + b) / 2
α = 1 / c
S = αd

なお、人物間の距離を体も含めた人物の外形の間の距離とする場合、人物の外形の幅で人物間の距離を正規化するとしてもよい。   When the distance between persons is the distance between the outlines of the persons including the body, the distance between the persons may be normalized by the width of the outline of the person.

なお、(数3)において、顔領域間の距離dに写真の大きさ(例えば、長辺方向の画素数)を係数としてしかけたものを親密度Sとしてもよい。   In (Equation 3), the familiarity S may be obtained by multiplying the distance d between the face regions by using the size of the photograph (for example, the number of pixels in the long side direction) as a coefficient.

図8は、写真80と、人物に注目し写真80の一部の領域をトリミングした写真81を示す参考図である。   FIG. 8 is a reference diagram showing a photograph 80 and a photograph 81 obtained by trimming a part of the photograph 80 while paying attention to a person.

図8に示すように、すでに撮影された写真を人物に注目してトリミングした場合、トリミングした領域に写っている人物がその他の領域と比較してより重要であると考えられるため、トリミングした領域に写っている人物の親密度を高くすることが望ましい。この場合、写真をトリミングしているため、被写体の人物間の距離d1は写真80と写真81で変化しないが、写真の横方向の画素数y2はy1よりも小さくなる。本発明に係る画像処理装置80においては、この画素数y1とy2により、トリミングした写真のより望ましい親密度Sを算出することが可能となる。写真の横方向の画素数による係数yを利用した親密度Sの算出式を下記の(数4)に示す。   As shown in FIG. 8, when a photograph that has already been taken is cropped by paying attention to a person, the person in the trimmed area is considered to be more important than other areas. It is desirable to increase the familiarity of the person in the photo. In this case, since the photograph is trimmed, the distance d1 between the persons of the subject does not change between the photograph 80 and the photograph 81, but the number of pixels y2 in the lateral direction of the photograph is smaller than y1. In the image processing apparatus 80 according to the present invention, it is possible to calculate a more desirable closeness S of the trimmed photograph based on the pixel numbers y1 and y2. A formula for calculating the familiarity S using the coefficient y depending on the number of pixels in the horizontal direction of the photograph is shown in the following (Formula 4).

(数4)
α=y
S=αd
(Equation 4)
α = y
S = αd

この(数4)を用いることにより、写真のサイズ(画素数)を利用し親密度Sを算出することができる。   By using this (Equation 4), it is possible to calculate the familiarity S using the size (number of pixels) of the photograph.

なお、(数4)において、yを写真の横方向の長さとして親密度Sを算出しているが、これに限定するものではない。また、図8では横方向をy1およびy2で表し、長辺方向としているが、これに限定するものではなく、短辺方向でも良く、また、辺ではなく、写真全体の画素数としてもよい。   In (Equation 4), the familiarity S is calculated by using y as the length in the horizontal direction of the photograph. However, the present invention is not limited to this. In FIG. 8, the horizontal direction is represented by y1 and y2, and the long side direction is used. However, the present invention is not limited to this, and the short side direction may be used.

また、顔領域の幅により画素数yを正規化してもよい。顔領域の幅により顔領域間の距離dおよび写真の横方向の画素数yを正規化した親密度の算出式を(数5)に示す。ここで、Sは親密度、aは人物1の顔の幅、bは人物2の顔の幅、dは人物間の距離、yは写真の横方向の画素数による係数である。   Further, the number of pixels y may be normalized by the width of the face area. A formula for calculating the familiarity in which the distance d between the face areas and the number of pixels y in the horizontal direction of the photograph are normalized by the width of the face area is shown in (Formula 5). Here, S is the familiarity, a is the width of the face of the person 1, b is the width of the face of the person 2, d is the distance between the persons, and y is a coefficient based on the number of pixels in the horizontal direction of the photograph.

(数5)
c=(a+b)/2
α=y/c2
S=αd
(Equation 5)
c = (a + b) / 2
α = y / c 2
S = αd

この(数5)を用いることにより、親密度算出部11は、ズームの倍率による距離dの増大を補正して、かつトリミングした写真のより望ましい親密度を算出することができる。   By using this (Equation 5), the familiarity calculating unit 11 can correct the increase in the distance d due to the zoom magnification and calculate a more desirable familiarity of the trimmed photograph.

次に、以上の構成、方法により算出された親密度を利用して、画像処理装置100における画像データを抽出する方法について説明する。   Next, a method for extracting image data in the image processing apparatus 100 using the familiarity calculated by the above configuration and method will be described.

図1のデータ格納部13に格納されている各写真Pic(j)に対する親密度テーブルT(j)の顔領域のそれぞれについて人物名が付与されていると、抽出条件入力部14に入力された人物名をデータ抽出部15が受け、データ格納部13に格納されている写真のうち、目的となる人物の顔領域が存在する写真Pic(j)をデータベース管理部12に抽出せしめることができる。   When a person name is assigned to each face area of the familiarity table T (j) for each picture Pic (j) stored in the data storage unit 13 of FIG. The data extraction unit 15 receives the person name, and the photo Pic (j) in which the face area of the target person exists among the photos stored in the data storage unit 13 can be extracted by the database management unit 12.

しかしながら、目的の人物が写っている写真が多数格納されていると、ユーザは抽出された写真をさらに絞り込む必要があり、効率よく視聴することは困難になる。そこで、本発明では、親密度算出部11が算出した親密度を使うことで、親密度順に写真をソートすることができ、ユーザが親密度の高い順に写真を見ることができる。このため、ユーザは抽出された写真を仲良く写っている写真から優先的に効率よく視聴することができる。なお、ここでは、顔領域のそれぞれに人物名が付与されているとしたが、人物名が付与されていない場合でも、写真から顔領域をマウス等の入力手段で指定することで、任意の顔領域を選択できる。   However, if a large number of photographs showing the target person are stored, the user needs to further narrow down the extracted photographs, making it difficult to view efficiently. Therefore, in the present invention, by using the intimacy calculated by the intimacy calculating unit 11, the photos can be sorted in the order of intimacy, and the user can view the photos in descending order of intimacy. For this reason, the user can preferentially and efficiently view the extracted photo from the photo showing the friendship. Here, a person name is assigned to each face area, but even if no person name is assigned, any face can be specified by specifying the face area from the photograph with an input means such as a mouse. You can select an area.

図9は、本実施の形態1に係る画像処理装置100のデータベース管理部12、データ抽出部15、及び出力部16の動作ステップを表すフローチャートである。   FIG. 9 is a flowchart showing operation steps of the database management unit 12, the data extraction unit 15, and the output unit 16 of the image processing apparatus 100 according to the first embodiment.

最初に、データ抽出部15は、抽出条件入力部14に入力されたP人の名前を受け付けて、データベース管理部12に対してP人の全員が写っている写真を検索するよう指示する(ステップS901)。   First, the data extraction unit 15 receives the names of P people input to the extraction condition input unit 14 and instructs the database management unit 12 to search for a photo in which all of the P people are shown (step S1). S901).

図10は、P人の名前を受け付ける写真検索用入力画面103の一例を示す参考図である。   FIG. 10 is a reference diagram showing an example of the photo search input screen 103 that accepts the names of P people.

図10において、写真検索用入力画面103には、人物名を入力するテキスト入力ボックス101と、検索実行を指示するボタン102とが表示されている。   In FIG. 10, a text input box 101 for inputting a person name and a button 102 for instructing execution of a search are displayed on the photo search input screen 103.

また、図11は、データベース管理部12においてデータ格納部13から抽出した写真をリストアップした抽出データリストL1、及び抽出データリストL1のデータを並べ替えたソート済みデータリストL2を示す参考図である。   FIG. 11 is a reference diagram showing an extracted data list L1 in which photographs extracted from the data storage unit 13 in the database management unit 12 are listed, and a sorted data list L2 in which the data in the extracted data list L1 is rearranged. .

図11(a)に示す抽出データリストL1は、複数のレコードで構成されており、各レコードは抽出した写真の識別子である写真IDを格納するフィールドと、後述する代表親密度を格納するフィールドからなる。   The extracted data list L1 shown in FIG. 11A includes a plurality of records, and each record includes a field that stores a photo ID that is an identifier of the extracted photo, and a field that stores a representative familiarity described later. Become.

図11(b)に示すソート済みデータリストL2は、複数のレコードで構成されており、各レコードは抽出した写真を管理する写真IDを格納するフィールドと、代表親密度を格納するフィールドと、レコード番号を格納するフィールドからなる。   The sorted data list L2 shown in FIG. 11B includes a plurality of records. Each record has a field for storing a photo ID for managing the extracted photo, a field for storing a representative familiarity, and a record. It consists of a field for storing numbers.

データベース管理部12は、データ格納部13に格納されているM個全ての写真に対して次の処理(ステップS903〜ステップS905)のループを繰り返す(ステップS902)。即ち、データ格納部13からj番目の写真Pic(j)とその写真Pic(j)にリンクされた親密度テーブルT(j)を取り出す(ステップS903)。そして、データベース管理部12は、その親密度テーブルT(j)の全てのレコードの組合せフィールドを調べ、P人の全ての人名が含まれている(つまり写真Pic(j)にP人全てが写っている)か調べる(ステップS904)。   The database management unit 12 repeats the loop of the next processing (step S903 to step S905) for all M photos stored in the data storage unit 13 (step S902). That is, the jth photo Pic (j) and the closeness table T (j) linked to the photo Pic (j) are extracted from the data storage unit 13 (step S903). Then, the database management unit 12 examines the combination fields of all the records of the familiarity table T (j) and includes all the names of P persons (that is, all the P persons are shown in the picture Pic (j)). (Step S904).

そして、P人全てが写真に含まれている場合には(ステップS904でYes)、抽出データリストL1に写真IDとしてjと、その写真Pic(j)の代表親密度との組み合わせのレコードを追加する(ステップS905)。一方、P人全てが含まれていない場合には(ステップS904でNo)、次の写真Pic(j+1)について処理ループに移行する。   If all P people are included in the photo (Yes in step S904), a record of a combination of j as the photo ID and the representative familiarity of the photo Pic (j) is added to the extracted data list L1. (Step S905). On the other hand, if not all P persons are included (No in step S904), the process shifts to the processing loop for the next picture Pic (j + 1).

ここで、写真Pic(j)の代表親密度は、例えば、AとBの2人の人物名がテキスト入力ボックス161に入力された場合、A、Bの2人が写っている(人物名が付与されている)写真Pic(j)にリンク付けされている親密度テーブルT(j)からAとBの顔領域の組合せに対応する親密度F(i)とする。また、AとBとCの3人の人物名がテキスト入力ボックス161に入力された場合、3人が写っている(人物名が付与されている)写真Pic(j)にリンク付けされている親密度テーブルT(j)からAとBの親密度、AとCの親密度、BとCの親密度のうち、値が最小であるものを代表親密度としたり、AとBの親密度、AとCの親密度、BとCの親密度の平均値を代表親密度にする。全てのM回ループが終了すると(ステップS906)、データ抽出部15は、抽出データリストL1の全てのレコードについて、代表親密度をキーとして昇順にソートし、ソートした結果はソート済みデータリストL2に格納する(ステップS907)。   Here, the representative familiarity of the picture Pic (j) is, for example, when two person names A and B are input in the text input box 161, the two persons A and B are shown (the person name is It is assumed that the familiarity F (i) corresponding to the combination of the face areas of A and B from the familiarity table T (j) linked to the photograph Pic (j) given). When the names of three persons A, B, and C are entered in the text input box 161, they are linked to a picture Pic (j) in which three persons are shown (person names are given). From the familiarity table T (j), the familiarity of A and B, the familiarity of A and C, and the familiarity of B and C are set as the representative familiarity, or the familiarity of A and B , A and C intimacy, and B and C average intimacy are set as representative intimacy. When all the M times loops are completed (step S906), the data extraction unit 15 sorts all the records in the extraction data list L1 in ascending order using the representative familiarity as a key, and the sorted result is sorted into the sorted data list L2. Store (step S907).

なお、上述したデータ抽出部15の説明では、写真に親密度があらかじめ付与されているとして説明したが、データ抽出時に親密度を算出するとしてもよい。   In the description of the data extraction unit 15 described above, it has been described that the closeness is given to the photo in advance, but the closeness may be calculated at the time of data extraction.

次に、データ抽出部15は、ソート済みデータリストL2のレコードを上から順次読み出し、写真IDに相当する写真を画面に順に表示する(ステップS908)。なお、ソート以外の表示方法として、ランク分けをし、写真を表示することもできる。ここで、ランクとは親密度の値によってA,B,Cなどと区分することができる。具体的には、代表親密度が0以上50未満であれば親密度が高いことを示すランクA、50以上100未満であれば親密度が中程度であることを示すランクB、100以上であれば親密度が低いことを示すランクCとする。   Next, the data extraction unit 15 sequentially reads the records in the sorted data list L2 from the top, and sequentially displays the photos corresponding to the photo IDs on the screen (step S908). In addition, as a display method other than sorting, ranking can be performed and pictures can be displayed. Here, the rank can be classified as A, B, C, etc. according to the value of intimacy. Specifically, rank A indicating that the familiarity is high if the representative familiarity is 0 or more and less than 50, rank B indicating that the familiarity is medium if the representative familiarity is less than 100 or less, and 100 or more. For example, rank C indicates that the intimacy is low.

図12は、写真を親密度の順に配置した画面120の参考図である。   FIG. 12 is a reference diagram of a screen 120 in which photographs are arranged in order of closeness.

図12において、画面120には、親密度の昇順に左から右に、上から下に9枚の写真を表示している。このとき、各写真の左上にはデータリストL2のレコード番号を、下部には親密度のランクを表示することで、わかり易い表示を実現できている。また、任意のランクの写真のみを表示することもできる。   In FIG. 12, the screen 120 displays nine photos from left to right and from top to bottom in ascending order of familiarity. At this time, by displaying the record number of the data list L2 at the upper left of each photograph and the rank of the intimacy at the lower part, an easy-to-understand display can be realized. It is also possible to display only photos of any rank.

ユーザは、画面120で気に入った写真をマウス等の入力手段で指定することで、その写真を選択したり拡大表示したりすることが可能である。また、本実施の形態1に係る画像処理装置100においては、例えば、年賀状に使う家族の写真を選び出す場合に、家族が写っている複数の写真を親密である順に視聴することができ、家族が最も仲良く写っている写真を簡単に選び出すことができる。   The user can select a photograph that he / she likes on the screen 120 using an input means such as a mouse, and can select or enlarge the photograph. In addition, in the image processing apparatus 100 according to the first embodiment, for example, when selecting a family photo to be used for a New Year's card, a plurality of photos showing the family can be viewed in the order of closeness, You can easily select the best photo.

なお、抽出した結果として画像を表示する以外にも、データ抽出の結果として、写真IDや画像データのファイル名など、画像データへのポインタ情報や関連情報のリストをデータ抽出結果リストとして出力するとしてもよい。   In addition to displaying an image as a result of extraction, as a result of data extraction, a list of pointer information to image data and related information such as a photo ID and a file name of image data is output as a data extraction result list. Also good.

以上のように、本実施の形態1に係る画像処理装置100において、親密度算出部11は、距離測定部23において測定された被写体の顔領域の距離に基づいて、(数1)〜(数5)のいずれかを用いて被写体である人物間の親密度Sを算出することができ、また、データ抽出部15は、親密度Sをデータ格納部13に格納されている大量の写真の中から目的の写真の検索に用いることができ、大量の写真の効率的な検索、視聴等に役立てることができる。   As described above, in the image processing apparatus 100 according to the first embodiment, the familiarity calculating unit 11 is based on the distances of the face area of the subject measured by the distance measuring unit 23, and 5), it is possible to calculate the closeness S between persons who are subjects, and the data extraction unit 15 includes the closeness S in a large number of photographs stored in the data storage unit 13. Therefore, it can be used for searching for a desired photo, and can be used for efficient search and viewing of a large number of photos.

また、抽出した写真を親密度が高い順にユーザに提示することで、目的の画像に到達するまでの視聴枚数を減らすことができ、効率の良い写真の検索や視聴方法を提案できる。   Also, by presenting the extracted photos to the user in descending order of closeness, the number of views until reaching the target image can be reduced, and an efficient photo search and viewing method can be proposed.

さらに、親密度に応じて写真をグループ化して、例えば、「仲がよい」グループ、「まあまあ仲がよい」グループ、「あまり仲が良くない」グループといったグループに分類し、ユーザに提示して、娯楽性のある写真の新たなソート方法を提供することができる。   Furthermore, photos are grouped according to intimacy and classified into groups such as “good friends” group, “somewhat good friends” group, and “not so good friends” groups, and presented to users. It is possible to provide a new sorting method for entertaining photos.

(実施の形態2)
次に、本発明に係る画像処理装置の第二の実施の形態について図面を参照しながら説明する。尚、本実施の形態2に係る画像処理装置は、親密度を算出する際に、被写体の人物の人数、顔の向き、表情等を判断して親密度に関するパラメータを変更することを特徴とする。
(Embodiment 2)
Next, a second embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. Note that the image processing apparatus according to the second embodiment is characterized in that, when calculating the familiarity, the number of subjects, the orientation of the face, the facial expression, and the like are determined, and parameters related to the familiarity are changed. .

図13は、本実施の形態2に係る画像処理装置1300の機能ブロック図を示す。本実施の形態2の画像処理装置1300は、被写体間の距離に加えて、被写体の人物の人数、顔の向き、表情を利用する親密度算出部1301を備える。尚、上述した実施の形態1に係る画像処理装置と同様の構成については同様の符号を付して、その詳細な説明を省略する。   FIG. 13 is a functional block diagram of the image processing apparatus 1300 according to the second embodiment. The image processing apparatus 1300 according to the second embodiment includes a closeness calculation unit 1301 that uses the number of persons, face orientation, and facial expression of a subject in addition to the distance between subjects. In addition, the same code | symbol is attached | subjected about the structure similar to the image processing apparatus which concerns on Embodiment 1 mentioned above, and the detailed description is abbreviate | omitted.

図13に示す親密度算出部1301は、人物検出部21と、パラメータ算出部1302で構成され、パラメータ算出部1302は、距離測定部23に加えて、人数処理部1303、顔向き判定部1304、及び表情判定部1305を備えている。   The familiarity calculation unit 1301 illustrated in FIG. 13 includes a person detection unit 21 and a parameter calculation unit 1302. The parameter calculation unit 1302 includes a number processing unit 1303, a face orientation determination unit 1304, in addition to the distance measurement unit 23. And a facial expression determination unit 1305.

そして、パラメータ算出部1302は人数処理部1303、顔向き判定部1304、又は表情判定部1305のうち少なくとも1つから出力される値を用いて、親密度を算出する。このような構成により、撮影時の状況をより反映した親密度を算出することができる。   The parameter calculation unit 1302 calculates the familiarity using a value output from at least one of the number processing unit 1303, the face orientation determination unit 1304, or the facial expression determination unit 1305. With such a configuration, it is possible to calculate the familiarity more reflecting the situation at the time of shooting.

次に、パラメータ算出部1302の人数処理部1303、顔向き判定部1304、表情判定部1305のそれぞれの処理について順に説明していく。   Next, the processes of the number processing unit 1303, the face orientation determination unit 1304, and the facial expression determination unit 1305 of the parameter calculation unit 1302 will be described in order.

人数処理部1303は、人物検出部21で検出された顔領域の数Nによって、入力された写真に何人が写っているかを判断し係数Kを出力する。例えば、集合写真では、多人数が限られたフレームのなかに写るために、それぞれの人物間の距離が近くなってしまう。これは、親密であるから距離が近くなっているのではないため、集合写真のような写真では、親密さを低くするために親密度の値が大きいことが望ましい。   The number processing unit 1303 determines how many people are in the input photo based on the number N of face areas detected by the person detection unit 21 and outputs a coefficient K. For example, in a group photo, since a large number of people are captured in a limited frame, the distance between each person becomes close. Since this is an intimacy, the distance is not close. Therefore, in a photo such as a group photo, it is desirable that the value of intimacy be large in order to reduce the intimacy.

そこで、人数処理部1303はN=2の時に親密度が最小となり、Nが増すほど漸次増大するようなK=N−1を係数として出力する。人数処理部1303が出力する係数Kを用いて親密度を算出することで、写真に写っている人数を考慮した親密度を算出することができる。これは、集合写真等多人数で写っている写真の親密度を算出するときに有効であり、K=N−1を係数として親密度を算出することで、集合写真等大人数で写っている写真の、より望ましい親密度を算出できる。   Therefore, the number of persons processing unit 1303 outputs K = N−1 as a coefficient that has a minimum intimacy when N = 2 and gradually increases as N increases. By calculating the familiarity using the coefficient K output from the number processing unit 1303, it is possible to calculate the familiarity in consideration of the number of people in the photograph. This is effective when calculating the intimacy of a group photo such as a group photo, and by calculating the intimacy using a coefficient K = N-1 as a group photo A more desirable intimacy of a photo can be calculated.

顔向き判定部1304は、人物検出部21で検出された顔領域のそれぞれの向きを検出し顔領域の向きから係数Eを算出する。   The face orientation determination unit 1304 detects the orientation of each face area detected by the person detection unit 21 and calculates a coefficient E from the face area orientation.

図14は、図5に示す写真50の撮影時のカメラと被写体人物51、52の頭141、142の位置関係を上から見た図を示す。   FIG. 14 shows a top view of the positional relationship between the camera and the heads 141 and 142 of the subject persons 51 and 52 when the photograph 50 shown in FIG. 5 is taken.

本図に示す方向144、方向147はそれぞれ頭141、142の中心を通りカメラの光軸と並行であり、方向143−145と方向146−148はそれぞれ頭141、142の中心を通り、図14の平面上で方向144、方向147と直角に交わる。頭141、142の向きはカメラに対して左向きである方向145、148から右回りにθ1、θ2をとっている。   The direction 144 and the direction 147 shown in this figure pass through the centers of the heads 141 and 142, respectively, and are parallel to the optical axis of the camera, and the directions 143-145 and 146-148 pass through the centers of the heads 141 and 142, respectively. Intersects the direction 144 and the direction 147 at right angles on the plane. The directions of the heads 141 and 142 are θ1 and θ2 clockwise from the directions 145 and 148 that are leftward with respect to the camera.

頭141と頭142の顔がそれぞれ方向144、方向147を向いているよりも、それぞれ向き合う方向になる、方向145、方向146に向いているほうが2人は親密であると判断する。   It is determined that the faces of the head 141 and the head 142 are intimate rather than facing the direction 144 and the direction 147, respectively, and facing the direction 145 and the direction 146, respectively.

そこで、例えば、頭141の顔の向きが方向145の時に親密度にかける係数E1をE1=0.8とし、方向144のときにE1=1.0に、方向143のときにE1=1.2とする。このE1は角度θ1の変化に応じて図15に示すように線形に変化させることができる。   Therefore, for example, the coefficient E1 to be applied to the familiarity when the face direction of the head 141 is the direction 145 is E1 = 0.8, E1 = 1.0 when the direction is 144, E1 = 1. 2. This E1 can be changed linearly as shown in FIG. 15 in accordance with the change of the angle θ1.

図15は、図14に示す頭141、142の顔の向き(角度θ1、θ2)による係数E1およびE2の変化を示す図である。   FIG. 15 is a diagram illustrating changes in the coefficients E1 and E2 depending on the face orientations (angles θ1 and θ2) of the heads 141 and 142 shown in FIG.

図15(a)に示すように、人物141は、顔の向きが方向145の時に親密度にかける係数E1をE1=0.8に、方向144のときにE1=1.0に、方向143のときにE1=1.2とし、角度の変化に応じて線形に変化させることができる。   As shown in FIG. 15A, the person 141 sets the coefficient E1 to be applied to the intimacy when the face orientation is the direction 145 to E1 = 0.8, and when the face 144 is the direction 144 to E1 = 1.0 and the direction 143 In this case, E1 = 1.2 and can be changed linearly according to the change of the angle.

また、図15(b)に示すように、人物142は、顔の向きが方向146の時に親密度にかける係数E2をE2=0.8に、方向147のときにE2=1.0に、方向148のときにE2=1.2とし、角度の変化に応じて線形に変化させることができる。   Further, as shown in FIG. 15B, the person 142 sets the coefficient E2 to be applied to the intimacy when the face orientation is the direction 146 to E2 = 0.8, and when the face direction is the direction 147, E2 = 1.0. In the direction 148, E2 = 1.2, and can be changed linearly according to the change in angle.

このように、顔向き判定部1304は、それぞれの顔向きから得られた係数E1、E2から係数Eを算出する。係数Eは、例えば、E1とE2の積とする。親密度の算出にこの係数Eを利用することで、被写体の顔の向きを考慮した親密度を算出することができる。なお、顔の向きの検出については、先にあげた「特許文献:特開2003−44853」で詳しく述べられている。本実施の形態1においては、顔の向きの検出手法にこの従来方式を用いたとして説明するが、顔の向きを検出できる手法であれば別の方式を用いても良く、顔の向きの検出方式を限定するものではないことは言うまでもない。   Thus, the face orientation determination unit 1304 calculates the coefficient E from the coefficients E1 and E2 obtained from the respective face orientations. The coefficient E is, for example, the product of E1 and E2. By using this coefficient E for calculating intimacy, it is possible to calculate intimacy in consideration of the face direction of the subject. The detection of the face orientation is described in detail in the above-mentioned “Patent Document: JP-A-2003-44853”. In the first embodiment, it is assumed that this conventional method is used as the face orientation detection method. However, any other method may be used as long as it can detect the face orientation. Needless to say, the method is not limited.

表情判定部1305は、人物検出部21で検出された顔領域から表情を判定し、表情の種類により係数Hを算出する。写真を撮影する時に、被写体の人物が楽しく写真を撮りたい場合は、表情にも楽しさが表れると考えられる。そこで、無表情の顔と比較して楽しさを表す表情として喜びの表情を利用する。例えば、顔領域の示す表情が喜びの表情であると、H=0.8とする。なお、喜び以外の表情を用いてもよく、例えば、怒りの表情であれば、H=1.2にすることができる。この係数Hを利用することで、被写体の表情を考慮したより望ましい親密度を算出することができる。   The expression determination unit 1305 determines an expression from the face area detected by the person detection unit 21, and calculates a coefficient H based on the type of expression. When taking a picture, if the subject person wants to take pictures happily, the expression can also be fun. Therefore, the expression of joy is used as an expression that expresses fun compared to the expressionless face. For example, if the facial expression indicated by the face area is a joyful facial expression, H = 0.8. An expression other than pleasure may be used. For example, if the expression is angry, H = 1.2 can be set. By using this coefficient H, it is possible to calculate a more desirable closeness in consideration of the facial expression of the subject.

尚、表情の判定方法としては、顔を含んだ画像を入力として、あらかじめ用意しておいた無表情顔と、入力した満面表情顔との比較から顔の特徴点の動きを求め、「喜」、「怒」、「哀」、「恐怖」、「驚」のどの表情にあたるか判定する方法が提案されている。詳しくは「ズデネクほか “動き情報を用いた表情特徴の自動抽出手法” 電子情報通信学会論文誌 Vol.J81−D−II,No.6,pp.1150−1159,1998」
で述べられている。この表情判定方法を本実施の形態2に適用する場合、事前に無表情顔を登録する必要がある。本実施の形態2では、表情の判定手法にこの従来方式を用いたとして説明するが、表情を判定できる手法であれば別の方式を用いても良く、表情の判定方式を限定するものではないことは言うまでもない。
As a facial expression determination method, an image including a face is input, and the facial feature point movement is obtained by comparing the prepared expressionless face with the input full expression face. , “Angry”, “Sorrow”, “Fear”, and “Surprised” have been proposed. For details, see “Zudenek et al.“ Automatic Extraction Method of Facial Expression Features Using Motion Information ”. IEICE Transactions Vol. J81-D-II, No. 6, pp. 1150-1159, 1998”
It is stated in. When this expression determination method is applied to the second embodiment, it is necessary to register an expressionless face in advance. In the second embodiment, description will be made assuming that this conventional method is used as a facial expression determination method. However, another method may be used as long as it can determine a facial expression, and the facial expression determination method is not limited. Needless to say.

このような構成の親密度算出部1301を用いることで、人物間の距離に加えて、人数、顔の向き、表情を利用した、撮影時の状況をより反映した親密度を算出することができる。人物間の距離に加えて、人数、顔の向き、表情を利用した親密度Sの算出式を(数6)に示す。ここで、Kは被写体の人数による係数であり、Eは顔向きによる係数であり、Hは表情による係数である。   By using the familiarity calculation unit 1301 having such a configuration, it is possible to calculate the familiarity that more reflects the situation at the time of shooting using the number of people, the orientation of the face, and the facial expression in addition to the distance between the persons. . A formula for calculating the intimacy S using the number of people, the direction of the face, and the expression in addition to the distance between the persons is shown in (Formula 6). Here, K is a coefficient based on the number of subjects, E is a coefficient based on the face orientation, and H is a coefficient based on facial expressions.

(数6)
c=(a+b)/2
α=(y/c2)×KEH
S=αd
(Equation 6)
c = (a + b) / 2
α = (y / c 2 ) × KEH
S = αd

なお、顔領域の幅による正規化、人数による係数K、表向きによる係数E、表情による係数Hは任意に組み合わせて使用することができる。また、データを抽出する際に、データ格納部13に格納されている写真や、通信の履歴等を用いてもよい。   The normalization based on the width of the face area, the coefficient K based on the number of people, the coefficient E based on the face orientation, and the coefficient H based on the facial expression can be used in any combination. Further, when extracting data, a photograph stored in the data storage unit 13, a communication history, or the like may be used.

次に、データ抽出時にデータ格納部13に格納されている写真の関連情報を用いてデータ抽出を行う方法について述べる。   Next, a method for performing data extraction using related information of photographs stored in the data storage unit 13 at the time of data extraction will be described.

図16は、データ格納部13に格納されている写真の関連情報を用いて、抽出した写真の代表親密度を変更する際におけるデータベース管理部12、データ抽出部15、及び出力部16の動作ステップを表すフローチャートである。データ格納部13に格納されている写真の関連情報を用いる方法の一つとして、統計処理を用いる方法を述べる。   FIG. 16 shows operation steps of the database management unit 12, the data extraction unit 15, and the output unit 16 when changing the representative familiarity of the extracted photo using the related information of the photo stored in the data storage unit 13. It is a flowchart showing. A method using statistical processing will be described as one of the methods using the related information of photographs stored in the data storage unit 13.

尚、本図において、ステップS1601からステップS1604までの処理は、上述した図9のステップS901からステップS904と、ステップS1606からステップS1609までの処理は、ステップS905からステップS908までの処理と同様であるため、その説明を省略する。   In this figure, the processing from step S1601 to step S1604 is the same as the processing from step S905 to step S908 in step S901 to step S904 and the processing from step S1606 to step S1609 in FIG. Therefore, the description is omitted.

本図において、データベース管理部12は、その親密度テーブルT(j)の全てのレコードの組合せフィールドを調べ、P人の全ての人名が含まれている(つまり写真Pic(j)にP人全てが写っている)か調べる処理(ステップS1604)の後に、抽出データリストL1にリストアップされた写真をデータ格納部13に格納されている写真の全部または、一部を母集合として統計処理した結果を用いてPic(j)にリンクされている親密度テーブルT(j)に格納されている親密度F(i)を一時的に変更する処理(ステップS1605)を実行する。そして、ステップS1605で一時的に変更された親密度F(i)を用いて親密度テーブルT(j)から代表親密度を算出し、抽出データリストL1を作成する(ステップS1606)。   In this figure, the database management unit 12 examines the combination fields of all the records in the familiarity table T (j) and includes all the names of P persons (that is, all the P persons are included in the picture Pic (j)). After the process (step S1604) to check whether the photograph is listed in the extracted data list L1, all or a part of the photographs stored in the data storage unit 13 are statistically processed as a mother set. Is used to temporarily change the familiarity F (i) stored in the familiarity table T (j) linked to Pic (j) (step S1605). Then, using the familiarity F (i) temporarily changed in step S1605, the representative familiarity is calculated from the familiarity table T (j), and the extracted data list L1 is created (step S1606).

この方法により、本実施の形態2に係る画像処理装置1300においては、例えば、人物名で抽出され、抽出データリストL1にリストアップされた写真がデータ格納部13に格納されている写真に対してどの程度の割合を占めるかにより親密度を変更することができる。具体的には、例えば、最近1ヶ月間に格納された写真のうち、目的の2人の写っている写真の枚数が最も多い場合、その2人の親密さを強くするために、その2人の親密度をステップS1605で0.8倍にする。   With this method, in the image processing apparatus 1300 according to the second embodiment, for example, photographs extracted with a person name and listed in the extracted data list L1 are stored in the data storage unit 13. The intimacy can be changed according to what proportion it occupies. Specifically, for example, among the photos stored in the last month, if the number of photos of the target two people is the largest, in order to strengthen the intimacy of the two people, Is increased by 0.8 times in step S1605.

以上の説明のように、本実施の形態2に係る画像処理装置1300は、親密度算出部1301において、人数処理部1303、顔向き判定部1304、及び表情判定部1305を備えるため、親密度を被写体の人数、表情、顔向き等の撮影状況に合わせて自動的に変更して付与することが可能となり、より精度の高い親密度を算出して、より適切に写真検索、分類等を行うことが可能となる。   As described above, the image processing apparatus 1300 according to the second embodiment includes the number-of-people processing unit 1303, the face orientation determining unit 1304, and the facial expression determining unit 1305 in the familiarity calculating unit 1301. It can be automatically changed according to the shooting situation such as the number of subjects, facial expressions, face orientation, etc., and more accurate intimacy can be calculated for more appropriate photo search, classification, etc. Is possible.

また、撮影時に算出された親密度を、参照履歴、保存履歴、修正履歴、被写体となっている回数等を利用して視聴時に更新することで、よりユーザの好みに合わせた親密度を算出して、視聴時の人間関係をも考慮した検索や視聴をユーザに提供できる。   In addition, the familiarity calculated at the time of shooting is updated at the time of viewing using the reference history, the storage history, the correction history, the number of times the subject is used, etc., thereby calculating the familiarity more suited to the user's preference. Thus, it is possible to provide the user with search and viewing in consideration of the human relationship during viewing.

(実施の形態3)
次に、本発明に係る画像処理装置の第三の実施の形態について図面を参照しながら説明を行う。尚、本実施の形態3に係る画像処理装置は、メールの送受信等の通信履歴を記録する通信履歴保持部を備え、通信履歴に応じて親密度を変更することを特徴とする。
(Embodiment 3)
Next, a third embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. Note that the image processing apparatus according to the third embodiment includes a communication history holding unit that records a communication history such as mail transmission / reception, and changes the closeness according to the communication history.

図17は、本実施の形態3に係る通信履歴保持部1701を加えた画像処理装置1700の機能ブロック図を示す。尚、図17において上述した実施の形態1に係る画像処理装置と同様の機能構成については同様の符号を付して、その詳細な説明を省略する。   FIG. 17 is a functional block diagram of an image processing apparatus 1700 to which a communication history holding unit 1701 according to the third embodiment is added. In FIG. 17, the same functional configuration as that of the image processing apparatus according to the first embodiment described above is denoted by the same reference numeral, and detailed description thereof is omitted.

通信履歴保持部1701は、他の端末とのメール送受信等の通信の履歴を保持している。本発明では通信に関する構成自体は重要ではないため特に記してはいないが、通信の履歴については、このような構成をとることで、図16のステップS1605において、通信履歴を利用することで親密度を変更することができ、ユーザの人物関係をより的確に表した親密度として利用することができる。   The communication history holding unit 1701 holds a history of communication such as mail transmission / reception with other terminals. In the present invention, the communication configuration itself is not important and is not particularly described. However, with regard to the communication history, the communication history is used in step S1605 in FIG. Can be used, and can be used as an intimacy representing the user's personal relationship more accurately.

例えば、ある特定の人物とのメール交換や写真の交換等の通信が他の人物との通信より多い場合、通信履歴保持部1701において通信履歴を記録しておき、その人物とユーザが通信履歴の上では最も親密であると判断できる。このように、通信履歴から推定できる親密さで写真から得られる親密度を増減させることで、ユーザの人物関係をより的確に表した親密度を利用することができる。   For example, when communication such as email exchange or photo exchange with a specific person is more than communication with another person, a communication history is recorded in the communication history holding unit 1701, and the person and the user Above, it can be judged that it is the most intimate. In this way, by increasing or decreasing the intimacy obtained from the photograph with the intimacy that can be estimated from the communication history, it is possible to use intimacy that more accurately represents the user's personal relationship.

なお、本実施の形態3では、データの抽出として写真を例にあげて説明したが、写真に限定するものではなく、動画等でもよい。また、親密度の利用はデータの抽出だけでなく、親密である人物にはデータの自動配布を行ったり、あまり親密でない人物には配布するデータにコピー禁止や、再配布禁止の条件をつける条件付き配布に対しても利用することができる。   In the third embodiment, a photo is taken as an example of data extraction. However, the present invention is not limited to a photo, and a moving image or the like may be used. In addition, the use of intimacy is not only the extraction of data, but it also automatically distributes data to people who are intimate, and provides conditions that prohibit copying and redistribution to data that is distributed to people who are not very intimate It can also be used for attached distribution.

以上のように、本実施の形態3に係る画像処理装置1700によれば、通信履歴保持部1701において記録されている通信履歴を用いて、写真の被写体である人物間の親密度を変更できる。従って、通信履歴を利用することで、より精度の高い親密度に基づいて、抽出時の状況に即した画像データを抽出し、視聴時の人間関係をも考慮した写真の検索や視聴をユーザに提供できる。   As described above, according to the image processing apparatus 1700 according to the third embodiment, it is possible to change the intimacy between persons who are subjects of a photograph using the communication history recorded in the communication history holding unit 1701. Therefore, by using the communication history, image data that matches the situation at the time of extraction is extracted based on a more precise familiarity, and the user can search and view photos that take into account human relationships at the time of viewing. Can be provided.

(変形例)
次に、本発明に係る画像処理装置の変形例を示す。本変形例においては、GPS等の距離センサを用いて被写体間の撮影時の実際の距離を正確に把握して、親密度を算出することを特徴とするものである。
(Modification)
Next, a modification of the image processing apparatus according to the present invention will be shown. The present modification is characterized in that the closeness is calculated by accurately grasping the actual distance at the time of shooting between subjects using a distance sensor such as GPS.

図18は、撮影時に3人の人物が前後に配列して撮影された場合の参考図であり、図18(a)は、被写体である人物3人を上から見た図であり、図18(b)は、図18(a)の配置で撮影された写真の参考図である。   FIG. 18 is a reference diagram in the case where three persons are photographed in the front-rear direction at the time of photographing, and FIG. 18A is a diagram of the three persons as subjects viewed from above. FIG. 18B is a reference diagram of a photograph taken with the arrangement of FIG.

このため、本変形例では、図19の画像処理装置1900の機能ブロック図に示すように、例えば、GPS、距離測定用レーザ等の距離センサ1901を設け、実空間での人物間の距離を計測し、この正確な距離に基づいてパラメータ算出部22において人物間の親密度を算出する。本変形例の画像処理装置1900では、写真上における顔領域間の距離のみを用いるのではなく、実空間での人物間の距離を測定し、新密度の算出に用いることができる。   Therefore, in this modification, as shown in the functional block diagram of the image processing apparatus 1900 in FIG. 19, for example, a distance sensor 1901 such as a GPS or a distance measuring laser is provided to measure the distance between persons in real space. Then, based on this accurate distance, the parameter calculation unit 22 calculates the closeness between persons. In the image processing apparatus 1900 of this modification, not only the distance between face areas on a photograph but also the distance between persons in a real space can be measured and used for calculating a new density.

従って、本変形例の画像処理装置1900では、実空間での人物間の距離を写真に付与して親密度を判断することが可能となり、より精度の高い親密度に基づいて画像データの検索や視聴が可能となる。   Accordingly, in the image processing apparatus 1900 of this modification, it is possible to determine the intimacy by giving the distance between persons in the real space to the photograph, and it is possible to search for image data based on the more intimate intimacy. Viewing is possible.

尚、上述した実施の形態の説明においては、データ格納部から写真データを抽出するデータ抽出部や、写真データを画面に表示するための出力部を備える構成としたが、これらの処理部を備えない、例えば、写真データを用いずに単に人物間の距離から親密度を算出する親密度算出装置とすることも考え得る。   In the above description of the embodiment, the data extraction unit for extracting photo data from the data storage unit and the output unit for displaying the photo data on the screen are provided. However, these processing units are provided. For example, it is possible to consider a closeness calculation device that simply calculates closeness from the distance between persons without using photo data.

本発明に係る画像処理装置は、例えば、静止画又は動画を撮影するデジタルスチルカメラ、カメラ付き携帯端末やムービーカメラ等の撮影装置、静止画又は動画を読み取るイメージスキャナ又はムービーキャプチャ等のデータ読み取り装置で読みとられた静止画または動画の画像情報を処理する装置、PC等に適用することができる。   An image processing apparatus according to the present invention includes, for example, a digital still camera that captures a still image or a moving image, a photographing device such as a camera-equipped mobile terminal or a movie camera, an image scanner that reads a still image or a moving image, or a data reading device such as a movie capture. The present invention can be applied to an apparatus, a PC, or the like that processes image information of a still image or a moving image read in the above.

実施の形態1に係る画像処理装置の構成を示す機能ブロック図Functional block diagram showing the configuration of the image processing apparatus according to the first embodiment 親密度算出部の動作ステップを示すフローチャートA flowchart showing the operation steps of the intimacy calculation unit 図2に示すステップS203の詳細な動作ステップを示すフローチャートThe flowchart which shows the detailed operation | movement step of step S203 shown in FIG. 写真Pic(j)の親密度テーブルT(j)のデータ構成の一例を示す参考図Reference diagram showing an example of the data structure of the closeness table T (j) of the picture Pic (j) 画像処理装置の写真入力部に入力される写真の一例を示す参考図Reference diagram showing an example of a photograph input to the photograph input unit of the image processing apparatus 図5に示した写真の人物の顔領域を表す図The figure showing the face area of the person of the photograph shown in FIG. ズームの倍率以外は同じ条件で撮影した2つの写真を表した参考図Reference diagram showing two photos taken under the same conditions except for zoom magnification 人物に注目し写真の一部の領域をトリミングした写真を示す参考図Reference diagram showing a photograph that crops a part of the photo focusing on a person 実施の形態1に係る画像処理装置のデータベース管理部、データ抽出部、及び出力部の動作ステップを表すフローチャート6 is a flowchart showing operation steps of a database management unit, a data extraction unit, and an output unit of the image processing apparatus according to the first embodiment. P人の名前を受け付ける写真検索用入力画面の一例を示す参考図Reference diagram showing an example of a photo search input screen that accepts P's name データベース管理部においてデータ格納部から抽出した写真をリストアップした抽出データリストL1、及び抽出データリストL1のデータを並べ替えたソート済みデータリストL2を示す参考図Reference diagram showing an extracted data list L1 that lists photos extracted from the data storage unit in the database management unit, and a sorted data list L2 in which the data in the extracted data list L1 is rearranged 写真を親密度の順に配置した画面の参考図Reference diagram of screen with photos arranged in order of familiarity 実施の形態2に係る画像処理装置の機能ブロック図Functional block diagram of an image processing apparatus according to Embodiment 2 図5に示す写真の撮影時のカメラと被写体人物の頭の位置関係を上から見た図FIG. 5 is a top view of the positional relationship between the camera and the head of the subject person when the photograph shown in FIG. 5 is taken. 図14に示す頭の顔の向きによる係数E1およびE2の変化を示す図The figure which shows the change of the coefficients E1 and E2 by the direction of the head face shown in FIG. データ格納部に格納されている写真の関連情報を用いて、抽出した写真の代表親密度を変更する際におけるデータベース管理部、データ抽出部、及び出力部の動作ステップを表すフローチャートThe flowchart showing the operation steps of the database management unit, the data extraction unit, and the output unit when changing the representative familiarity of the extracted photo using the related information of the photo stored in the data storage unit 実施の形態3に係る通信履歴保持部を加えた画像処理装置の機能ブロック図Functional block diagram of an image processing apparatus to which a communication history holding unit according to Embodiment 3 is added 撮影時に3人の人物が前後に配列して撮影された場合の参考図Reference diagram when three people are photographed in a line up and down at the time of shooting 画像処理装置の機能ブロック図Functional block diagram of image processing apparatus

符号の説明Explanation of symbols

10 写真入力部
11,1301 親密度算出部
12 データベース管理部
13 データ格納部
14 抽出条件入力部
15 データ抽出部
16 出力部
21 人物検出部
22,1302 パラメータ算出部
23 距離測定部
50 写真
51,52 被写体人物
100,1300,1700,1900 画像処理装置
1303 人数処理部
1304 顔向き判定部
1305 表情判定部
1701 通信履歴保持部
1901 距離センサ
DESCRIPTION OF SYMBOLS 10 Photo input part 11,1301 Closeness calculation part 12 Database management part 13 Data storage part 14 Extraction condition input part 15 Data extraction part 16 Output part 21 Person detection part 22,1302 Parameter calculation part 23 Distance measurement part 50 Photograph 51,52 Subject person 100, 1300, 1700, 1900 Image processing device 1303 Number processing unit 1304 Face direction determination unit 1305 Expression determination unit 1701 Communication history holding unit 1901 Distance sensor

Claims (16)

画像データを用いて画像処理を行う画像処理装置であって、
前記画像データを格納する格納手段と、
前記画像データから被写体である人物を検出する人物検出手段と、
前記人物検出手段で検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定手段と、
前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出手段と、
前記パラメータに基づき、前記格納手段に格納されている画像データを抽出するデータ抽出手段とを備える
ことを特徴とする画像処理装置。
An image processing apparatus that performs image processing using image data,
Storage means for storing the image data;
Person detecting means for detecting a person as a subject from the image data;
A distance measuring means for calculating a distance between each person when two or more persons are detected by the person detecting means;
Parameter calculating means for calculating a parameter related to the intimacy between the persons based on the distance;
An image processing apparatus comprising: data extraction means for extracting image data stored in the storage means based on the parameters.
前記人物検出手段は、被写体である前記人物の顔領域を検出する顔領域検出部を備え、
前記距離測定手段は、前記顔領域検出部で検出された顔領域間の距離を算出し、
前記パラメータ算出手段は、前記距離に比例して、前記距離が短い場合には、被写体である前記人物間の親密度が高いことを示すパラメータを算出する
ことを特徴とする請求項1記載の画像処理装置。
The person detection means includes a face area detection unit that detects a face area of the person as a subject,
The distance measuring means calculates a distance between the face areas detected by the face area detecting unit;
The image according to claim 1, wherein the parameter calculation unit calculates a parameter indicating that the closeness between the persons as subjects is high when the distance is short in proportion to the distance. Processing equipment.
前記距離測定手段は、前記顔領域検出部において検出された2つの顔領域の重心間の距離を、被写体である前記人物の顔領域の大きさで正規化することにより前記距離を算出する
ことを特徴とする請求項2記載の画像処理装置。
The distance measuring means calculates the distance by normalizing the distance between the centroids of the two face areas detected by the face area detecting unit with the size of the face area of the person who is the subject. The image processing apparatus according to claim 2, wherein:
前記画像処理装置は、さらに、
前記画像データの画素数を検出する画素数検出手段を備え、
前記パラメータ算出手段は、前記画像データの画素数に応じて親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
Comprising pixel number detecting means for detecting the number of pixels of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity according to the number of pixels of the image data.
前記画像処理装置は、さらに、
画像データの被写体である人物の数を検出する人数検出手段を備え、
前記パラメータ算出手段は、前記人数検出手段で検出された人数によって親密度に関するパラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
A number-of-people detection means for detecting the number of persons who are subjects of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases a parameter related to intimacy according to the number of persons detected by the number of persons detection unit.
前記画像処理装置は、さらに、
画像データの被写体である人物の顔の向きを判定する顔向き判定手段を備え、
前記パラメータ算出手段は、前記顔向き判定手段で検出された人物の顔の向きに基づいて親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
A face orientation judging means for judging the orientation of the face of the person who is the subject of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity based on a face orientation of the person detected by the face orientation determination unit.
前記画像処理装置は、さらに、
画像データの被写体である人物の表情を判定する表情判定手段を備え、
前記パラメータ算出手段は、前記表情判定手段で検出された人物の表情に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
Equipped with facial expression determination means for determining the facial expression of the person who is the subject of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to intimacy based on the facial expression of the person detected by the facial expression determination unit.
前記画像処理装置は、さらに、
前記人物間の実際の距離を計測する距離センサを備え、
前記パラメータ算出手段は、前記距離センサにより検出される距離に基づいて、親密度に関する前記パラメータを算出する
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
A distance sensor for measuring the actual distance between the persons,
The image processing apparatus according to claim 1, wherein the parameter calculation unit calculates the parameter related to intimacy based on a distance detected by the distance sensor.
前記画像処理装置は、さらに、
通信履歴を保持する通信履歴保持手段を備え、
前記パラメータ算出手段は、前記通信履歴保持手段の保持する通信履歴に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
Communication history holding means for holding a communication history is provided,
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to intimacy based on a communication history held by the communication history holding unit.
前記画像処理装置は、さらに、
前記画像データの保存履歴、参照履歴、及び修正履歴の少なくとも1つを保持する履歴保持手段を備え、
前記パラメータ算出手段は、前記履歴保持手段の保持する履歴に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。
The image processing apparatus further includes:
A history holding means for holding at least one of a storage history, a reference history, and a correction history of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity based on a history held by the history holding unit.
前記格納手段には、さらに、少なくとも前記顔領域と前記親密度に関するパラメータとの関係が記述された親密度テーブルが格納され、
前記画像処理装置は、さらに、
前記画像データの前記格納手段からの抽出条件を入力する入力手段を備え、
前記データ抽出手段は、前記親密度テーブルを参照して、前記抽出条件を満たす画像データを前記格納手段から抽出する
ことを特徴とする請求項2記載の画像処理装置。
The storage means further stores a closeness table in which a relationship between at least the face area and the parameters related to the closeness is described.
The image processing apparatus further includes:
Input means for inputting extraction conditions from the storage means of the image data;
The image processing apparatus according to claim 2, wherein the data extraction unit extracts image data satisfying the extraction condition from the storage unit with reference to the closeness table.
画像データを用いて画像処理を行う画像処理装置に用いる画像処理方法であって、
前記画像データを格納する格納ステップと、
前記画像データから被写体である人物を検出する人物検出ステップと、
前記人物検出ステップにおいて検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定ステップと、
前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出ステップと、
前記パラメータに基づき、前記格納ステップにおいて格納されている画像データを抽出するデータ抽出ステップとを含む
ことを特徴とする画像処理方法。
An image processing method used in an image processing apparatus that performs image processing using image data,
A storing step for storing the image data;
A person detecting step of detecting a person as a subject from the image data;
A distance measuring step of calculating a distance between each person when two or more persons are detected in the person detecting step;
A parameter calculating step for calculating a parameter related to the intimacy between the persons based on the distance;
A data extraction step of extracting the image data stored in the storage step based on the parameter.
前記人物検出ステップにおいては、被写体である前記人物の顔領域を検出する顔領域検出ステップを含み、
前記距離測定ステップにおいては、前記顔領域検出ステップで検出された顔領域間の距離を算出し、
前記パラメータ算出ステップにおいては、前記距離に比例して、前記距離が短い場合には、被写体である前記人物間の親密度が高いことを示すパラメータを算出する
ことを特徴とする請求項12記載の画像処理方法。
The person detection step includes a face area detection step of detecting a face area of the person as a subject,
In the distance measuring step, the distance between the face areas detected in the face area detecting step is calculated,
13. The parameter calculation step according to claim 12, wherein when the distance is short in proportion to the distance, a parameter indicating that the closeness between the persons who are subjects is high is calculated. Image processing method.
前記距離測定ステップにおいては、前記顔領域検出部において検出された2つの顔領域の重心間の距離を、被写体である前記人物の顔領域の大きさで正規化することにより前記距離を算出する
ことを特徴とする請求項13記載の画像処理方法。
In the distance measurement step, the distance is calculated by normalizing the distance between the centroids of the two face areas detected by the face area detection unit with the size of the face area of the person as a subject. The image processing method according to claim 13.
コンピュータに請求項12〜14の何れかに記載の画像処理方法を実現させる
ことを特徴とするプログラム。
A program for causing a computer to realize the image processing method according to any one of claims 12 to 14.
請求項15に記載のプログラムを記録した
ことを特徴とするコンピュータ読み取り可能な記録媒体。
A computer-readable recording medium, wherein the program according to claim 15 is recorded.
JP2005227140A 2005-08-04 2005-08-04 Image processing device Pending JP2007041964A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005227140A JP2007041964A (en) 2005-08-04 2005-08-04 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005227140A JP2007041964A (en) 2005-08-04 2005-08-04 Image processing device

Publications (1)

Publication Number Publication Date
JP2007041964A true JP2007041964A (en) 2007-02-15

Family

ID=37799869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005227140A Pending JP2007041964A (en) 2005-08-04 2005-08-04 Image processing device

Country Status (1)

Country Link
JP (1) JP2007041964A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167063A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Imaging apparatus and method
JP2008225886A (en) * 2007-03-13 2008-09-25 Olympus Imaging Corp Image display device, image display method, and program
JP2009100284A (en) * 2007-10-17 2009-05-07 Fujifilm Corp Imaging apparatus and imaging control method
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program
JP2009205467A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device, and image output program
JP2009231956A (en) * 2008-03-19 2009-10-08 Fujifilm Corp Imaging device and imaging control method
JP2010016796A (en) * 2008-06-06 2010-01-21 Sony Corp Image capturing apparatus, image capturing method, and computer program
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera
JP2010140069A (en) * 2008-12-09 2010-06-24 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
JPWO2009016833A1 (en) * 2007-07-31 2010-10-14 パナソニック株式会社 Video analysis device, method for calculating evaluation value between persons by video analysis
JP2010263265A (en) * 2009-04-30 2010-11-18 Olympus Imaging Corp Photography display device, and photography display method
JP2011004409A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
JP2011082913A (en) * 2009-10-09 2011-04-21 Sony Corp Imaging apparatus, imaging method and imaging program
JP2011082915A (en) * 2009-10-09 2011-04-21 Sony Corp Information processor, image extraction method and image extraction program
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
JP2013017050A (en) * 2011-07-04 2013-01-24 Dainippon Printing Co Ltd Imaging device, image provision server device, and image provision program
JP2013041493A (en) * 2011-08-18 2013-02-28 Nippon Hoso Kyokai <Nhk> Face image feature amount generation apparatus and program for generating face image feature amount
US8447761B2 (en) 2009-12-03 2013-05-21 Panasonic Corporation Lifestyle collecting apparatus, user interface device, and lifestyle collecting method
US8463052B2 (en) 2009-09-15 2013-06-11 Kabushiki Kaisha Toshiba Electronic apparatus and image search method
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
JP2013200715A (en) * 2012-03-26 2013-10-03 Fujifilm Corp Image evaluating device, image evaluating method, image evaluating system, and program
JP2013255287A (en) * 2013-09-11 2013-12-19 Olympus Imaging Corp Photography and display device
JP2014506701A (en) * 2011-02-18 2014-03-17 グーグル・インコーポレーテッド Affinity-based ranking for search and display
JP2014053965A (en) * 2013-12-03 2014-03-20 Olympus Imaging Corp Subject state determination method
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
WO2014148209A1 (en) 2013-03-19 2014-09-25 富士フイルム株式会社 Electronic album creation device and electronic album production method
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
CN111339330A (en) * 2020-03-12 2020-06-26 Oppo广东移动通信有限公司 Photo processing method and device, storage medium and electronic equipment
US10776627B2 (en) 2017-07-18 2020-09-15 Panasonic Corporation Human flow analysis method, human flow analysis apparatus, and human flow analysis system

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872941B2 (en) 2006-11-07 2014-10-28 Sony Corporation Imaging apparatus and imaging method
US8009219B2 (en) 2006-12-07 2011-08-30 Sony Corporation Image display system, display apparatus, and display method
US7876374B2 (en) 2006-12-07 2011-01-25 Sony Corporation Image display system, display apparatus, and display method
JP2008167063A (en) * 2006-12-27 2008-07-17 Fujifilm Corp Imaging apparatus and method
JP2008225886A (en) * 2007-03-13 2008-09-25 Olympus Imaging Corp Image display device, image display method, and program
US8687925B2 (en) 2007-04-10 2014-04-01 Sony Corporation Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program
JPWO2009016833A1 (en) * 2007-07-31 2010-10-14 パナソニック株式会社 Video analysis device, method for calculating evaluation value between persons by video analysis
US10262449B2 (en) 2007-08-06 2019-04-16 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10529114B2 (en) 2007-08-06 2020-01-07 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US9568998B2 (en) 2007-08-06 2017-02-14 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US10937221B2 (en) 2007-08-06 2021-03-02 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US9972116B2 (en) 2007-08-06 2018-05-15 Sony Corporation Information processing apparatus, system, and method for displaying bio-information or kinetic information
US8797331B2 (en) 2007-08-06 2014-08-05 Sony Corporation Information processing apparatus, system, and method thereof
JP2009100284A (en) * 2007-10-17 2009-05-07 Fujifilm Corp Imaging apparatus and imaging control method
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program
JP2009205467A (en) * 2008-02-28 2009-09-10 Seiko Epson Corp Image output method, image output device, and image output program
US8116539B2 (en) 2008-03-19 2012-02-14 Fujifilm Corporation Image capturing apparatus and method for controlling image capturing
JP2009231956A (en) * 2008-03-19 2009-10-08 Fujifilm Corp Imaging device and imaging control method
JP2010016796A (en) * 2008-06-06 2010-01-21 Sony Corp Image capturing apparatus, image capturing method, and computer program
US8467581B2 (en) 2008-06-06 2013-06-18 Sony Corporation Image capturing apparatus, image capturing method, and computer program
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
JP2010055468A (en) * 2008-08-29 2010-03-11 Nikon Corp Image processing apparatus, and camera
JP2010140069A (en) * 2008-12-09 2010-06-24 Sony Corp Image processing apparatus, imaging apparatus, image processing method, and program
US8503735B2 (en) 2008-12-09 2013-08-06 Sony Corporation Image processing to perform grouping based on depth-of-relationship values
JP2010263265A (en) * 2009-04-30 2010-11-18 Olympus Imaging Corp Photography display device, and photography display method
US8463052B2 (en) 2009-09-15 2013-06-11 Kabushiki Kaisha Toshiba Electronic apparatus and image search method
JP2011082915A (en) * 2009-10-09 2011-04-21 Sony Corp Information processor, image extraction method and image extraction program
JP2011082913A (en) * 2009-10-09 2011-04-21 Sony Corp Imaging apparatus, imaging method and imaging program
US8909636B2 (en) 2009-12-03 2014-12-09 Panasonic Intellectual Property Corporation Of America Lifestyle collecting apparatus, user interface device, and lifestyle collecting method
US8447761B2 (en) 2009-12-03 2013-05-21 Panasonic Corporation Lifestyle collecting apparatus, user interface device, and lifestyle collecting method
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
JP2011004409A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
JP2016157476A (en) * 2011-02-18 2016-09-01 グーグル インコーポレイテッド Affinity based ranking for search and display
JP2014506701A (en) * 2011-02-18 2014-03-17 グーグル・インコーポレーテッド Affinity-based ranking for search and display
JP2013017050A (en) * 2011-07-04 2013-01-24 Dainippon Printing Co Ltd Imaging device, image provision server device, and image provision program
JP2013041493A (en) * 2011-08-18 2013-02-28 Nippon Hoso Kyokai <Nhk> Face image feature amount generation apparatus and program for generating face image feature amount
JP2013200715A (en) * 2012-03-26 2013-10-03 Fujifilm Corp Image evaluating device, image evaluating method, image evaluating system, and program
US9851873B2 (en) 2013-03-19 2017-12-26 Fujifilm Corporation Electronic album creating apparatus and method of producing electronic album
WO2014148209A1 (en) 2013-03-19 2014-09-25 富士フイルム株式会社 Electronic album creation device and electronic album production method
JP2013255287A (en) * 2013-09-11 2013-12-19 Olympus Imaging Corp Photography and display device
JP2014053965A (en) * 2013-12-03 2014-03-20 Olympus Imaging Corp Subject state determination method
US10776627B2 (en) 2017-07-18 2020-09-15 Panasonic Corporation Human flow analysis method, human flow analysis apparatus, and human flow analysis system
CN111339330A (en) * 2020-03-12 2020-06-26 Oppo广东移动通信有限公司 Photo processing method and device, storage medium and electronic equipment
CN111339330B (en) * 2020-03-12 2023-09-01 Oppo广东移动通信有限公司 Photo processing method and device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP2007041964A (en) Image processing device
US8238615B2 (en) Method for comparing photographer aesthetic quality
US8311364B2 (en) Estimating aesthetic quality of digital images
US9076069B2 (en) Registering metadata apparatus
US8330826B2 (en) Method for measuring photographer&#39;s aesthetic quality progress
KR101325110B1 (en) Information processing apparatus and method, and computer-readable recording medium
JP6323465B2 (en) Album creating program, album creating method, and album creating apparatus
US10459968B2 (en) Image processing system and image processing method
US9521211B2 (en) Content processing device, content processing method, computer-readable recording medium, and integrated circuit
US20050271352A1 (en) Apparatus and program for image classification
KR101475939B1 (en) A control method of an image processing apparatus, an image processing apparatus,
WO2011001587A1 (en) Content classification device, content classification method, and content classification program
JP5334159B2 (en) Photo display method and system on electronic map
US20030193582A1 (en) Method for storing an image, method and system for retrieving a registered image and method for performing image processing on a registered image
US11645349B2 (en) Generating location based photo discovery suggestions
US20170019590A1 (en) Imaging apparatus, information processing apparatus, image photographing assist system and image photographing assist method
US9639778B2 (en) Information processing apparatus, control method thereof, and storage medium
JP4490214B2 (en) Electronic album display system, electronic album display method, and electronic album display program
JP7167283B2 (en) Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program
JP2004280254A (en) Content classification method and apparatus
JP4457988B2 (en) Image management apparatus, image management method, and computer program
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
CN114707055B (en) A photo pose recommendation method integrating image content and feature extraction
WO2010087451A1 (en) Image display device, image display method, and image display program