JP2007041964A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2007041964A JP2007041964A JP2005227140A JP2005227140A JP2007041964A JP 2007041964 A JP2007041964 A JP 2007041964A JP 2005227140 A JP2005227140 A JP 2005227140A JP 2005227140 A JP2005227140 A JP 2005227140A JP 2007041964 A JP2007041964 A JP 2007041964A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- distance
- processing apparatus
- person
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 写真の被写体である人物間の親密度を定量化したパラメータを算出し、写真の効率的な検索や視聴ができる画像処理装置を提供する。
【解決手段】 画像処理装置100は、撮影された写真を入力する写真入力部10と、入力された写真から親密度を算出する親密度算出部11と、親密度算出部11が出力した親密度を関連情報として、写真入力部10から入力された写真とリンクしてデータ格納部13に格納するとともに、関連情報をキーとして必要な写真を検索するデータベース管理部12と、写真及びその関連情報を格納するデータ格納部13と、ユーザから抽出条件の入力を受ける抽出条件入力部14と、ユーザからの抽出条件を受付けて、その抽出条件に基づいた検索キーでデータベース管理部12に検索結果の写真を出力するデータ抽出部15と、抽出された画像データを表示する出力部16とを備える。
【選択図】 図1PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of calculating a parameter quantifying the intimacy between persons who are subjects of a photograph and efficiently searching and viewing the photograph.
An image processing apparatus includes a photo input unit that inputs a photographed photo, a closeness calculation unit that calculates a closeness from the input photo, and a closeness that is output from the closeness calculation unit. As related information and linked to the photo input from the photo input unit 10 and stored in the data storage unit 13, and the database management unit 12 for searching for the necessary photo using the related information as a key, and the photo and its related information A data storage unit 13 to be stored, an extraction condition input unit 14 that receives an input of an extraction condition from a user, and accepts an extraction condition from the user, and a search result photo to the database management unit 12 with a search key based on the extraction condition Is output, and an output unit 16 that displays the extracted image data is provided.
[Selection] Figure 1
Description
本発明は、静止画又は動画等の画像データを処理する画像処理装置に関するものであり、特に、データベースに蓄積されている画像データ群から好みの写真の検索、分類等を行う機能を有する画像処理装置に関する。 The present invention relates to an image processing apparatus for processing image data such as a still image or a moving image, and in particular, an image processing having a function of searching and classifying a favorite photograph from a group of image data stored in a database. Relates to the device.
近年、デジタルスチルカメラ(以下、単にデジカメと記す)やカメラ付き携帯電話等のデジタル映像を撮影する個人向けの撮影装置が急速に普及している。このような撮影装置においては、記憶容量が増大し、ユーザは多くの写真を撮影して記録していくことが可能となった。しかし、記録される写真の量が増加することで限られた時間で画像データの視聴や、大量の写真の中から目的の写真の検索が困難となり、より効率的な写真の検索、分類方法が求められている。 In recent years, personal photographing devices such as digital still cameras (hereinafter simply referred to as “digital cameras”) and mobile phones with cameras have been rapidly spreading. In such a photographing apparatus, the storage capacity has increased, and the user can take and record many photographs. However, increasing the amount of photos to be recorded makes it difficult to view image data in a limited time or to search for the desired photo from a large number of photos. It has been demanded.
そして、デジカメで撮影した写真には、知人や家族等の人物を被写体とすることが多く、被写体人物を検索キーとした写真を選択して視聴する新しい視聴方法や、コンピュータを使った写真の視聴方法として、写真毎に付与されたキーワードを活用して写真を管理し視聴に役立てる、いわゆる電子アルバム・ツールがある。例えば、Adobe Systems社の製品であるAdobe Photoshop Albumなどである。これらのツールにおいて、ユーザはあらかじめ全ての写真に対して画像情報として写っている人物名をキーワードとして付与し、視聴時に人物名を検索キーとして目的の人物が写っている写真を絞り込んで一覧表示であるサムネイル表示や順次表示であるスライドショー表示を行う。しかしながら、この従来の方法では、大量に撮影した写真の1枚1枚に対して、ユーザがあらかじめキーワードを入力、設定する必要があるため、手間と時間を要するという課題がある。 In many cases, photos taken with digital cameras are taken from people such as acquaintances and family members, and a new viewing method for selecting and viewing photos using the subject person as a search key, and viewing photos using a computer. As a method, there is a so-called electronic album tool that uses a keyword assigned to each photo to manage the photo and use it for viewing. For example, Adobe Photoshop Album, which is a product of Adobe Systems. In these tools, the user assigns in advance a person's name shown as image information to all pictures as a keyword, and narrows down the pictures showing the target person using the person name as a search key when viewing. A thumbnail display or a slide show display that is a sequential display is performed. However, this conventional method has a problem that it takes time and effort because the user needs to input and set keywords in advance for each of a large number of photographs taken.
また、写真の視聴の際の検索対象となる人物としては仲の良い親友や家族などが想定されるが、仲の良い人物はそもそも撮影対象となる頻度も多く、被写体として頻繁に出現して、人物名で検索するのみでは快適な視聴に適した枚数まで絞り込めず、その結果、ユーザは多くの写真を視聴しなければならないという視聴効率の問題が生じる。 In addition, close friends and family members are assumed as the search targets when viewing photos, but close friends are often subject to photography in the first place, and frequently appear as subjects, In this case, it is not possible to narrow down the number of images suitable for comfortable viewing, and as a result, there arises a problem of viewing efficiency that the user has to view many photos.
そして、写真の画像情報から被写体の人物関係を推定し、画像の検索に役立てる方法が考えられる。例えば、被写体人物間の人間関係を推定する従来技術として、撮影された人物の年齢層、性別などの個人の属性を人物の顔から推定し、被写体全員について推定された個人の属性から総合的に判断して、恋人、家族、友人等のグループ属性を推定する情報提供装置が開示されている(例えば、特許文献1参照)。この情報提供装置は、例えば、十代の男性と女性のカップルが写っている画像に対しては、「友人」または「恋人」とグループを推定してグループ化を行う。
しかしながら、上述した特許文献においては、被写体全員の個人属性に基づいて、被写体全員を1つの集団として恋人、家族、友人等あらかじめ想定したグループ属性に単純に当てはめてグループ化を行っているに過ぎず、写真に写っている被写体である人物間の関係、例えば1枚の写真に写っている被写体である任意の2人の親密度を比較することはできない。 However, in the above-mentioned patent document, based on the personal attributes of all the subjects, all the subjects are simply grouped by applying them to a group attribute that is assumed in advance, such as a lover, family, or friend. It is impossible to compare the relationship between persons as subjects in a photograph, for example, the intimacy of any two people as subjects in a single photograph.
また、デジカメ、カメラ付携帯の普及で個人ユーザが管理する写真の量が増大し、大量の写真の中から目的の写真の検索方法として、時系列的なソートやアルバムソフトでの人名検索以外に、ユーザの手間を要しない、娯楽性のある新たな方法が求められている。 Also, with the widespread use of digital cameras and camera-equipped mobile phones, the amount of photos managed by individual users has increased, and as a method of searching for desired photos from a large number of photos, in addition to time-series sorting and album name search with album software Therefore, there is a demand for new entertainment methods that do not require user effort.
本発明は、これらの課題に鑑みてなされたものであり、画像データから被写体である人物間の親密度に関するパラメータを自動的に算出し、親密度に基づく写真の効率的な検索、視聴等を可能とする画像処理装置を提供することを目的とする。 The present invention has been made in view of these problems, and automatically calculates parameters related to intimacy between persons who are subjects from image data, and can efficiently search and view photos based on intimacy. An object of the present invention is to provide an image processing apparatus that can be used.
前記従来の課題を解決するために、本発明に係る画像処理装置は、画像データを用いて画像処理を行う画像処理装置であって、前記画像データを格納する格納手段と、前記画像データから被写体である人物を検出する人物検出手段と、前記人物検出手段で検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定手段と、前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出手段と、前記パラメータに基づき、前記格納手段に格納されている画像データを抽出するデータ抽出手段とを備えることを特徴とする。 In order to solve the above-described conventional problems, an image processing apparatus according to the present invention is an image processing apparatus that performs image processing using image data, a storage unit that stores the image data, and a subject from the image data A person detecting means for detecting a person, a distance measuring means for calculating a distance between each person when two or more persons are detected by the person detecting means, and a distance between the persons based on the distance. Parameter calculating means for calculating a parameter relating to the familiarity of the image data, and data extracting means for extracting image data stored in the storage means based on the parameter.
この構成により、本発明に係る画像処理装置は、距離測定手段において入力された写真に写っている人物間の距離を算出して、パラメータ算出手段において被写体である人物間の親密度に関するパラメータを算出し、当該パラメータを用いてデータ抽出手段で格納手段から画像データを抽出することにより、ユーザの手間を要することなく、親密度に基づいた写真の検索、視聴等ができる。 With this configuration, the image processing apparatus according to the present invention calculates the distance between the persons shown in the photograph input by the distance measuring unit, and calculates the parameter related to the intimacy between the persons who are subjects in the parameter calculating unit. Then, by extracting the image data from the storage means by the data extraction means using the parameters, it is possible to search for, view, and the like photos based on the familiarity without requiring the user's trouble.
また、本発明に係る画像処理装置は、さらに、通信履歴を保持する通信履歴保持手段を備え、前記パラメータ算出手段は、前記通信履歴保持手段の保持する通信履歴に基づいて、親密度に関する前記パラメータを増減させることを特徴とする。 Further, the image processing apparatus according to the present invention further includes a communication history holding unit that holds a communication history, and the parameter calculation unit uses the parameter related to familiarity based on the communication history held by the communication history holding unit. It is characterized by increasing or decreasing.
さらに、本発明に係る画像処理装置は、さらに、前記画像データの保存履歴、参照履歴、及び修正履歴の少なくとも1つを保持する履歴保持手段を備え、前記パラメータ算出手段は、前記履歴保持手段の保持する履歴に基づいて、親密度に関する前記パラメータを増減させることを特徴とする。 Furthermore, the image processing apparatus according to the present invention further includes history holding means for holding at least one of a storage history, a reference history, and a correction history of the image data, and the parameter calculation means includes the history holding means. The parameter related to closeness is increased or decreased based on the history to be stored.
これらの構成により、履歴保持手段に保持されている画像データの保存履歴、参照履歴、修正履歴等の履歴情報や、通信履歴保持手段に保持されている他のユーザとの通信履歴により、パラメータ算出手段は、親密度に関するパラメータを増減させ、データ抽出手段は、より精度の高い親密度に基づいて前記格納手段に格納されている画像データを抽出することが可能となる。 With these configurations, parameter calculation is performed based on history information such as the storage history, reference history, and correction history of image data held in the history holding unit, and communication history with other users held in the communication history holding unit. The means increases or decreases the parameter related to the familiarity, and the data extracting means can extract the image data stored in the storage means based on the familiarity with higher accuracy.
尚、前記目的を達成するために、本発明は、前記画像処理装置の特徴的な構成手段をステップとする画像処理方法としたり、それらのステップを全て含むプログラムとして実現することもできる。そして、そのプログラムは、画像処理装置が備えるROM等に格納しておくだけでなく、CD−ROM等の記録媒体や通信ネットワークを介して流通させることもできる。 In order to achieve the above object, the present invention can be realized as an image processing method using characteristic constituent means of the image processing apparatus as steps, or as a program including all these steps. The program is not only stored in a ROM or the like included in the image processing apparatus, but can also be distributed via a recording medium such as a CD-ROM or a communication network.
本発明に係る画像処理装置は、写真の被写体である人物間の親密度に関するパラメータを被写体である人物間の距離から自動的に算出して、大量の写真の効率的な検索、視聴等に役立てることができるという作用効果を奏する。 The image processing apparatus according to the present invention automatically calculates a parameter related to intimacy between persons who are photograph subjects from the distance between the persons who are subjects, and is useful for efficient search, viewing, etc. of a large number of photos. There is an effect of being able to.
以下、本発明に係る画像処理装置の実施の形態について、図面を参照して説明を行う。 Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings.
(実施の形態1)
図1は、本実施の形態1に係る画像処理装置100の構成を示す機能ブロック図である。
(Embodiment 1)
FIG. 1 is a functional block diagram showing the configuration of the
一般に、2人の人物の間の距離が近いほど、その2人は親密な間柄であると考えられるため、本実施の形態1に係る画像処理装置100は、写真に写っている2人の人物間の距離から、人間関係の繋がりの強さを親疎の度合いで表した指標である親密度を定量化して算出して、写真の検索や視聴時に用いることを特徴とする。
In general, the closer the distance between the two persons, the closer the two are considered to be intimate relations. Therefore, the
図1に示すように、本発明に係る画像処理装置100は、撮影された写真を入力する写真入力部10と、入力された写真から親密度を算出する親密度算出部11と、親密度算出部11が出力した親密度を関連情報として、写真入力部10から入力された写真とリンクしてデータ格納部13に格納するとともに、関連情報をキーとして必要な写真を検索するデータベース管理部12と、写真及びその関連情報を格納するデータ格納部13と、ユーザから抽出条件の入力を受ける抽出条件入力部14と、ユーザからの抽出条件を受付けて、その抽出条件に基づいた検索キーでデータベース管理部12に検索結果の写真を出力するデータ抽出部15と、抽出された画像データを表示する出力部16とを備える。
As shown in FIG. 1, an
また、親密度算出部11は、入力された写真から、写真上での人物の顔が写っている領域(以下、顔領域とする)を検出し、出力する人物検出部21と、人物検出部21で検出した顔領域から2つの顔領域の間の距離を算出する距離測定部23と、距離測定部23で算出した顔領域間の距離から親密度に関するパラメータを算出するパラメータ算出部22とを備える。
In addition, the
なお、データベース管理部12における画像と関連情報とのリンク管理の具体的な方法としては、Exif(Exchangeable image file format)形式に代表されるように写真のデータファイルの一部に親密度テーブルを格納する管理方法としてもよいし、写真のファイル名と親密度テーブルのファイル名とで一部に共通な文字を使用するという命名則(例えば、写真ファイルfoo.picと親密度テーブルファイルfoo.dat)で管理しても良いし、写真のファイルと親密度テーブルのファイルとをリンク付けるポインタ情報で管理する方法でもよい。
As a specific method for managing the link between the image and the related information in the
また、データ格納部13には、M枚の写真Picが入っていて、識別子j(j=1,2,…,M)を添え字として任意の写真をPic(j)として特定できる。なお、写真を特定する手段として、写真ファイルの命名則や、写真の格納場所を表すポインタリストを用いることもできる。
Further, the
次に、本実施の形態1に係る画像処理装置100の親密度算出部11の動作概要について説明する。図2は、親密度算出部11の動作ステップを示すフローチャートである。
Next, an outline of the operation of the
最初に、親密度算出部11の人物検出部21は、入力された写真から顔領域を検出し、顔領域の数をカウントする(ステップS201)。
First, the
そして、人物検出部21は、検出された顔領域が2つ以上あるか判断し(ステップS202)、顔領域が2つ以上検出された場合においては(ステップS202でYes)、パラメータ算出部22の距離測定部23において、検出された顔間の距離を測定し(ステップS203)、測定された距離から親密度を算出する(ステップS204)。一方、顔領域が2つ以上検出されない場合には(ステップS202でNo)、そのまま処理を終了する。ここで、人物検出部21における顔領域を検出するステップS201に関しては、入力された写真からエッジ画像を抽出し、あらかじめ用意された顔学習辞書を用いて顔画像が含まれている矩形画像を抽出する方法が「特許文献:特開2003−44853」で実現できる。
Then, the
なお、顔領域を検出する方法にこの従来方式を挙げているが、顔領域を検出する方法であれば別の方式を用いても良く、これに限定するのではないことは言うまでもない。また、抽出された顔画像が含まれる矩形領域に内接する楕円を顔領域と仮定したり、矩形領域内の肌色領域を顔領域とすることで、実際の顔の形状により近い顔領域を得ることができる。また、顔間の距離算出であるステップS203は、さらに、後述の図3に示すアルゴリズムで実現される。 Although this conventional method is mentioned as a method for detecting a face area, it is needless to say that another method may be used as long as it is a method for detecting a face area, and the method is not limited to this. Also, it is assumed that an ellipse inscribed in the rectangular area including the extracted face image is a face area, or a skin color area in the rectangular area is used as a face area, thereby obtaining a face area closer to the actual face shape. Can do. Further, step S203, which is a distance calculation between faces, is further realized by an algorithm shown in FIG.
図3は、図2に示すステップS203の詳細な動作ステップを示すフローチャートである。 FIG. 3 is a flowchart showing detailed operation steps of step S203 shown in FIG.
最初に、ステップS201で検出された顔領域の数がN個とすると、親密度算出部11における親密度の算出は、検出されたN個の顔領域のうち任意の2個の顔領域の組み合わせを決定する(ステップS301)。
First, assuming that the number of face areas detected in step S201 is N, the
次に、親密度算出部11におけるg個の組み合わせについてのループを開始し(ステップS302)、2個のそれぞれの顔領域の重心を算出し(ステップS303)、2個の顔領域の間の距離を算出し(ステップS304)、顔領域の間の距離を親密度テーブルT(j)に格納する(ステップS305)処理をg回繰り返して、g個の組み合わせについてのループを終了する(ステップS306)。尚、gは下記の(数1)で求められる検出された全ての顔領域の組合せの数であり、例えば被写体が2人の場合にはg=1であり、被写体が3人の場合にはg=3となる。
Next, a loop for g combinations in the
(数1)
g=NC2=N!/(2!(N−2)!)
(Equation 1)
g = N C 2 = N! / (2! (N-2)!)
また、ステップS302において、親密度算出部11は、写真Pic(j)に写っている人物の顔領域の組合せごとに算出された親密度に関するパラメータを図4に示すような親密度テーブルT(j)として作成する。
Further, in step S302, the
図4は、写真Pic(j)の親密度テーブルT(j)のデータ構成の一例を示す参考図である。 FIG. 4 is a reference diagram illustrating an example of a data configuration of the closeness table T (j) of the photograph Pic (j).
この親密度テーブルT(j)は複数のレコードで構成され、各レコードは一つの写真内の顔の組合せを表す識別子(i=1,2,…,g)を使って、それぞれの顔の組合せに対応する親密度F(i)を格納する親密度フィールドと顔領域の組合せを格納する組合せフィールドとからなる。この親密度テーブルT(j)の顔領域の組合せを組合せフィールドに格納し、距離を一時的に親密度フィールドに格納する。親密度フィールドに一時的に格納されている距離をステップS305で親密度に変換し、親密度テーブルT(j)の親密度フィールドに格納する。ここで、写真Pic(j)にリンクされた親密度テーブルを親密度テーブルT(j)と表す。 This closeness table T (j) is composed of a plurality of records, and each record uses an identifier (i = 1, 2,..., G) representing a combination of faces in one photograph, and each face combination. Is composed of a familiarity field for storing the familiarity F (i) corresponding to, and a combination field for storing a combination of face regions. The combination of the face areas of the closeness table T (j) is stored in the combination field, and the distance is temporarily stored in the closeness field. The distance temporarily stored in the familiarity field is converted into the familiarity in step S305, and stored in the familiarity field of the familiarity table T (j). Here, the familiarity table linked to the picture Pic (j) is represented as a familiarity table T (j).
次に、親密度算出部11の距離測定部23における顔領域の間の距離の算出方法をより具体的に説明する。
Next, a method for calculating the distance between face areas in the
図5は、本発明の画像処理装置100の写真入力部10に入力される写真50の一例を示す参考図である。図5に示す写真50には人物51と人物52の2人が被写体として写っている。
FIG. 5 is a reference diagram illustrating an example of a
図6は、図5に示した写真50の人物51と人物52の顔領域を表す図であり、人物51の顔領域は楕円61、人物52の顔領域は楕円62で表されている。また、楕円61の重心を重心63、楕円62の重心を重心64とする。距離測定部23は、これら2つの重心63,64を直線で結び、その直線のうち、楕円61と楕円62の領域外の線分の長さを顔領域間の距離dとして測定する。
FIG. 6 is a diagram illustrating the face areas of the
この方法により求められた距離dから、親密度は下記に示す(数2)として算出される。尚、(数2)において、Sは親密度、αは係数、dは人物間の距離である。 From the distance d obtained by this method, the familiarity is calculated as (Equation 2) shown below. In (Expression 2), S is a closeness, α is a coefficient, and d is a distance between persons.
(数2)
S=αd
(Equation 2)
S = αd
ここで、本発明に係る画像処理装置100においては、出力される親密度は顔の間の距離によるものであり、顔の間(人物間)の距離は親密であるほど近くなると考えられるため、(数2)で得られる親密度Sの値が「小さい」ほど人物間の実際の親密さは「高い」ことになる。なお、αは0以上の数とする。
Here, in the
なお、人物間の距離は顔領域の間の距離として説明したが、体も含めた人物の外形の間の距離としてもよい。
また、顔領域間の距離dは被写体の人物の顔領域の大きさで正規化したものとしてもよい。
In addition, although the distance between persons was demonstrated as the distance between face areas, it is good also as a distance between the external shapes of a person including a body.
Further, the distance d between the face areas may be normalized by the size of the face area of the subject person.
図7は、ズームの倍率以外は同じ条件で撮影した2つの写真を表した参考図である。 FIG. 7 is a reference diagram showing two photographs taken under the same conditions except for the zoom magnification.
図7において、あるズーム倍率で撮影した写真70と、より高倍率のズームで撮影した写真71とにおいて、人物51と人物52の顔領域の間の距離d1、d2を比較すると、より高倍率のズームで撮影したd2の方がd1より大きくなる。
In FIG. 7, comparing the distances d1 and d2 between the face areas of the
そして、このまま写真70と写真71との親密度を(数2)で算出すると、より高倍率のズームで撮影した写真71の方が写真70より(数2)で得られる値が大きくなり、親密さが低くなる。しかし、同じ被写体を同じ条件で撮影しているため、写真70と写真71では同じ親密度となるべきである。
Then, if the closeness of the
そこで、顔領域の幅により顔領域間の距離dを正規化することを考える。こうすることにより、ズームの倍率による距離dの増大を補正でき、望ましい親密度を算出することが可能となる。2つの顔領域の幅をa、bとし、a、bを利用して顔領域間の距離dを正規化する親密度Sの算出式を(数3)に示す。 Therefore, consider normalizing the distance d between the face regions by the width of the face region. By so doing, it is possible to correct an increase in the distance d due to the zoom magnification, and it is possible to calculate a desired familiarity. A formula for calculating the familiarity S for normalizing the distance d between the face areas using a and b, where a and b are the widths of the two face areas is shown in (Equation 3).
(数3)
c=(a+b)/2
α=1/c
S=αd
(Equation 3)
c = (a + b) / 2
α = 1 / c
S = αd
なお、人物間の距離を体も含めた人物の外形の間の距離とする場合、人物の外形の幅で人物間の距離を正規化するとしてもよい。 When the distance between persons is the distance between the outlines of the persons including the body, the distance between the persons may be normalized by the width of the outline of the person.
なお、(数3)において、顔領域間の距離dに写真の大きさ(例えば、長辺方向の画素数)を係数としてしかけたものを親密度Sとしてもよい。 In (Equation 3), the familiarity S may be obtained by multiplying the distance d between the face regions by using the size of the photograph (for example, the number of pixels in the long side direction) as a coefficient.
図8は、写真80と、人物に注目し写真80の一部の領域をトリミングした写真81を示す参考図である。
FIG. 8 is a reference diagram showing a
図8に示すように、すでに撮影された写真を人物に注目してトリミングした場合、トリミングした領域に写っている人物がその他の領域と比較してより重要であると考えられるため、トリミングした領域に写っている人物の親密度を高くすることが望ましい。この場合、写真をトリミングしているため、被写体の人物間の距離d1は写真80と写真81で変化しないが、写真の横方向の画素数y2はy1よりも小さくなる。本発明に係る画像処理装置80においては、この画素数y1とy2により、トリミングした写真のより望ましい親密度Sを算出することが可能となる。写真の横方向の画素数による係数yを利用した親密度Sの算出式を下記の(数4)に示す。
As shown in FIG. 8, when a photograph that has already been taken is cropped by paying attention to a person, the person in the trimmed area is considered to be more important than other areas. It is desirable to increase the familiarity of the person in the photo. In this case, since the photograph is trimmed, the distance d1 between the persons of the subject does not change between the
(数4)
α=y
S=αd
(Equation 4)
α = y
S = αd
この(数4)を用いることにより、写真のサイズ(画素数)を利用し親密度Sを算出することができる。 By using this (Equation 4), it is possible to calculate the familiarity S using the size (number of pixels) of the photograph.
なお、(数4)において、yを写真の横方向の長さとして親密度Sを算出しているが、これに限定するものではない。また、図8では横方向をy1およびy2で表し、長辺方向としているが、これに限定するものではなく、短辺方向でも良く、また、辺ではなく、写真全体の画素数としてもよい。 In (Equation 4), the familiarity S is calculated by using y as the length in the horizontal direction of the photograph. However, the present invention is not limited to this. In FIG. 8, the horizontal direction is represented by y1 and y2, and the long side direction is used. However, the present invention is not limited to this, and the short side direction may be used.
また、顔領域の幅により画素数yを正規化してもよい。顔領域の幅により顔領域間の距離dおよび写真の横方向の画素数yを正規化した親密度の算出式を(数5)に示す。ここで、Sは親密度、aは人物1の顔の幅、bは人物2の顔の幅、dは人物間の距離、yは写真の横方向の画素数による係数である。
Further, the number of pixels y may be normalized by the width of the face area. A formula for calculating the familiarity in which the distance d between the face areas and the number of pixels y in the horizontal direction of the photograph are normalized by the width of the face area is shown in (Formula 5). Here, S is the familiarity, a is the width of the face of the
(数5)
c=(a+b)/2
α=y/c2
S=αd
(Equation 5)
c = (a + b) / 2
α = y / c 2
S = αd
この(数5)を用いることにより、親密度算出部11は、ズームの倍率による距離dの増大を補正して、かつトリミングした写真のより望ましい親密度を算出することができる。
By using this (Equation 5), the
次に、以上の構成、方法により算出された親密度を利用して、画像処理装置100における画像データを抽出する方法について説明する。
Next, a method for extracting image data in the
図1のデータ格納部13に格納されている各写真Pic(j)に対する親密度テーブルT(j)の顔領域のそれぞれについて人物名が付与されていると、抽出条件入力部14に入力された人物名をデータ抽出部15が受け、データ格納部13に格納されている写真のうち、目的となる人物の顔領域が存在する写真Pic(j)をデータベース管理部12に抽出せしめることができる。
When a person name is assigned to each face area of the familiarity table T (j) for each picture Pic (j) stored in the
しかしながら、目的の人物が写っている写真が多数格納されていると、ユーザは抽出された写真をさらに絞り込む必要があり、効率よく視聴することは困難になる。そこで、本発明では、親密度算出部11が算出した親密度を使うことで、親密度順に写真をソートすることができ、ユーザが親密度の高い順に写真を見ることができる。このため、ユーザは抽出された写真を仲良く写っている写真から優先的に効率よく視聴することができる。なお、ここでは、顔領域のそれぞれに人物名が付与されているとしたが、人物名が付与されていない場合でも、写真から顔領域をマウス等の入力手段で指定することで、任意の顔領域を選択できる。
However, if a large number of photographs showing the target person are stored, the user needs to further narrow down the extracted photographs, making it difficult to view efficiently. Therefore, in the present invention, by using the intimacy calculated by the
図9は、本実施の形態1に係る画像処理装置100のデータベース管理部12、データ抽出部15、及び出力部16の動作ステップを表すフローチャートである。
FIG. 9 is a flowchart showing operation steps of the
最初に、データ抽出部15は、抽出条件入力部14に入力されたP人の名前を受け付けて、データベース管理部12に対してP人の全員が写っている写真を検索するよう指示する(ステップS901)。
First, the
図10は、P人の名前を受け付ける写真検索用入力画面103の一例を示す参考図である。
FIG. 10 is a reference diagram showing an example of the photo
図10において、写真検索用入力画面103には、人物名を入力するテキスト入力ボックス101と、検索実行を指示するボタン102とが表示されている。
In FIG. 10, a
また、図11は、データベース管理部12においてデータ格納部13から抽出した写真をリストアップした抽出データリストL1、及び抽出データリストL1のデータを並べ替えたソート済みデータリストL2を示す参考図である。
FIG. 11 is a reference diagram showing an extracted data list L1 in which photographs extracted from the
図11(a)に示す抽出データリストL1は、複数のレコードで構成されており、各レコードは抽出した写真の識別子である写真IDを格納するフィールドと、後述する代表親密度を格納するフィールドからなる。 The extracted data list L1 shown in FIG. 11A includes a plurality of records, and each record includes a field that stores a photo ID that is an identifier of the extracted photo, and a field that stores a representative familiarity described later. Become.
図11(b)に示すソート済みデータリストL2は、複数のレコードで構成されており、各レコードは抽出した写真を管理する写真IDを格納するフィールドと、代表親密度を格納するフィールドと、レコード番号を格納するフィールドからなる。 The sorted data list L2 shown in FIG. 11B includes a plurality of records. Each record has a field for storing a photo ID for managing the extracted photo, a field for storing a representative familiarity, and a record. It consists of a field for storing numbers.
データベース管理部12は、データ格納部13に格納されているM個全ての写真に対して次の処理(ステップS903〜ステップS905)のループを繰り返す(ステップS902)。即ち、データ格納部13からj番目の写真Pic(j)とその写真Pic(j)にリンクされた親密度テーブルT(j)を取り出す(ステップS903)。そして、データベース管理部12は、その親密度テーブルT(j)の全てのレコードの組合せフィールドを調べ、P人の全ての人名が含まれている(つまり写真Pic(j)にP人全てが写っている)か調べる(ステップS904)。
The
そして、P人全てが写真に含まれている場合には(ステップS904でYes)、抽出データリストL1に写真IDとしてjと、その写真Pic(j)の代表親密度との組み合わせのレコードを追加する(ステップS905)。一方、P人全てが含まれていない場合には(ステップS904でNo)、次の写真Pic(j+1)について処理ループに移行する。 If all P people are included in the photo (Yes in step S904), a record of a combination of j as the photo ID and the representative familiarity of the photo Pic (j) is added to the extracted data list L1. (Step S905). On the other hand, if not all P persons are included (No in step S904), the process shifts to the processing loop for the next picture Pic (j + 1).
ここで、写真Pic(j)の代表親密度は、例えば、AとBの2人の人物名がテキスト入力ボックス161に入力された場合、A、Bの2人が写っている(人物名が付与されている)写真Pic(j)にリンク付けされている親密度テーブルT(j)からAとBの顔領域の組合せに対応する親密度F(i)とする。また、AとBとCの3人の人物名がテキスト入力ボックス161に入力された場合、3人が写っている(人物名が付与されている)写真Pic(j)にリンク付けされている親密度テーブルT(j)からAとBの親密度、AとCの親密度、BとCの親密度のうち、値が最小であるものを代表親密度としたり、AとBの親密度、AとCの親密度、BとCの親密度の平均値を代表親密度にする。全てのM回ループが終了すると(ステップS906)、データ抽出部15は、抽出データリストL1の全てのレコードについて、代表親密度をキーとして昇順にソートし、ソートした結果はソート済みデータリストL2に格納する(ステップS907)。
Here, the representative familiarity of the picture Pic (j) is, for example, when two person names A and B are input in the text input box 161, the two persons A and B are shown (the person name is It is assumed that the familiarity F (i) corresponding to the combination of the face areas of A and B from the familiarity table T (j) linked to the photograph Pic (j) given). When the names of three persons A, B, and C are entered in the text input box 161, they are linked to a picture Pic (j) in which three persons are shown (person names are given). From the familiarity table T (j), the familiarity of A and B, the familiarity of A and C, and the familiarity of B and C are set as the representative familiarity, or the familiarity of A and B , A and C intimacy, and B and C average intimacy are set as representative intimacy. When all the M times loops are completed (step S906), the
なお、上述したデータ抽出部15の説明では、写真に親密度があらかじめ付与されているとして説明したが、データ抽出時に親密度を算出するとしてもよい。
In the description of the
次に、データ抽出部15は、ソート済みデータリストL2のレコードを上から順次読み出し、写真IDに相当する写真を画面に順に表示する(ステップS908)。なお、ソート以外の表示方法として、ランク分けをし、写真を表示することもできる。ここで、ランクとは親密度の値によってA,B,Cなどと区分することができる。具体的には、代表親密度が0以上50未満であれば親密度が高いことを示すランクA、50以上100未満であれば親密度が中程度であることを示すランクB、100以上であれば親密度が低いことを示すランクCとする。
Next, the
図12は、写真を親密度の順に配置した画面120の参考図である。
FIG. 12 is a reference diagram of a
図12において、画面120には、親密度の昇順に左から右に、上から下に9枚の写真を表示している。このとき、各写真の左上にはデータリストL2のレコード番号を、下部には親密度のランクを表示することで、わかり易い表示を実現できている。また、任意のランクの写真のみを表示することもできる。
In FIG. 12, the
ユーザは、画面120で気に入った写真をマウス等の入力手段で指定することで、その写真を選択したり拡大表示したりすることが可能である。また、本実施の形態1に係る画像処理装置100においては、例えば、年賀状に使う家族の写真を選び出す場合に、家族が写っている複数の写真を親密である順に視聴することができ、家族が最も仲良く写っている写真を簡単に選び出すことができる。
The user can select a photograph that he / she likes on the
なお、抽出した結果として画像を表示する以外にも、データ抽出の結果として、写真IDや画像データのファイル名など、画像データへのポインタ情報や関連情報のリストをデータ抽出結果リストとして出力するとしてもよい。 In addition to displaying an image as a result of extraction, as a result of data extraction, a list of pointer information to image data and related information such as a photo ID and a file name of image data is output as a data extraction result list. Also good.
以上のように、本実施の形態1に係る画像処理装置100において、親密度算出部11は、距離測定部23において測定された被写体の顔領域の距離に基づいて、(数1)〜(数5)のいずれかを用いて被写体である人物間の親密度Sを算出することができ、また、データ抽出部15は、親密度Sをデータ格納部13に格納されている大量の写真の中から目的の写真の検索に用いることができ、大量の写真の効率的な検索、視聴等に役立てることができる。
As described above, in the
また、抽出した写真を親密度が高い順にユーザに提示することで、目的の画像に到達するまでの視聴枚数を減らすことができ、効率の良い写真の検索や視聴方法を提案できる。 Also, by presenting the extracted photos to the user in descending order of closeness, the number of views until reaching the target image can be reduced, and an efficient photo search and viewing method can be proposed.
さらに、親密度に応じて写真をグループ化して、例えば、「仲がよい」グループ、「まあまあ仲がよい」グループ、「あまり仲が良くない」グループといったグループに分類し、ユーザに提示して、娯楽性のある写真の新たなソート方法を提供することができる。 Furthermore, photos are grouped according to intimacy and classified into groups such as “good friends” group, “somewhat good friends” group, and “not so good friends” groups, and presented to users. It is possible to provide a new sorting method for entertaining photos.
(実施の形態2)
次に、本発明に係る画像処理装置の第二の実施の形態について図面を参照しながら説明する。尚、本実施の形態2に係る画像処理装置は、親密度を算出する際に、被写体の人物の人数、顔の向き、表情等を判断して親密度に関するパラメータを変更することを特徴とする。
(Embodiment 2)
Next, a second embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. Note that the image processing apparatus according to the second embodiment is characterized in that, when calculating the familiarity, the number of subjects, the orientation of the face, the facial expression, and the like are determined, and parameters related to the familiarity are changed. .
図13は、本実施の形態2に係る画像処理装置1300の機能ブロック図を示す。本実施の形態2の画像処理装置1300は、被写体間の距離に加えて、被写体の人物の人数、顔の向き、表情を利用する親密度算出部1301を備える。尚、上述した実施の形態1に係る画像処理装置と同様の構成については同様の符号を付して、その詳細な説明を省略する。
FIG. 13 is a functional block diagram of the
図13に示す親密度算出部1301は、人物検出部21と、パラメータ算出部1302で構成され、パラメータ算出部1302は、距離測定部23に加えて、人数処理部1303、顔向き判定部1304、及び表情判定部1305を備えている。
The
そして、パラメータ算出部1302は人数処理部1303、顔向き判定部1304、又は表情判定部1305のうち少なくとも1つから出力される値を用いて、親密度を算出する。このような構成により、撮影時の状況をより反映した親密度を算出することができる。
The
次に、パラメータ算出部1302の人数処理部1303、顔向き判定部1304、表情判定部1305のそれぞれの処理について順に説明していく。
Next, the processes of the
人数処理部1303は、人物検出部21で検出された顔領域の数Nによって、入力された写真に何人が写っているかを判断し係数Kを出力する。例えば、集合写真では、多人数が限られたフレームのなかに写るために、それぞれの人物間の距離が近くなってしまう。これは、親密であるから距離が近くなっているのではないため、集合写真のような写真では、親密さを低くするために親密度の値が大きいことが望ましい。
The
そこで、人数処理部1303はN=2の時に親密度が最小となり、Nが増すほど漸次増大するようなK=N−1を係数として出力する。人数処理部1303が出力する係数Kを用いて親密度を算出することで、写真に写っている人数を考慮した親密度を算出することができる。これは、集合写真等多人数で写っている写真の親密度を算出するときに有効であり、K=N−1を係数として親密度を算出することで、集合写真等大人数で写っている写真の、より望ましい親密度を算出できる。
Therefore, the number of
顔向き判定部1304は、人物検出部21で検出された顔領域のそれぞれの向きを検出し顔領域の向きから係数Eを算出する。
The face
図14は、図5に示す写真50の撮影時のカメラと被写体人物51、52の頭141、142の位置関係を上から見た図を示す。
FIG. 14 shows a top view of the positional relationship between the camera and the
本図に示す方向144、方向147はそれぞれ頭141、142の中心を通りカメラの光軸と並行であり、方向143−145と方向146−148はそれぞれ頭141、142の中心を通り、図14の平面上で方向144、方向147と直角に交わる。頭141、142の向きはカメラに対して左向きである方向145、148から右回りにθ1、θ2をとっている。
The
頭141と頭142の顔がそれぞれ方向144、方向147を向いているよりも、それぞれ向き合う方向になる、方向145、方向146に向いているほうが2人は親密であると判断する。
It is determined that the faces of the
そこで、例えば、頭141の顔の向きが方向145の時に親密度にかける係数E1をE1=0.8とし、方向144のときにE1=1.0に、方向143のときにE1=1.2とする。このE1は角度θ1の変化に応じて図15に示すように線形に変化させることができる。
Therefore, for example, the coefficient E1 to be applied to the familiarity when the face direction of the
図15は、図14に示す頭141、142の顔の向き(角度θ1、θ2)による係数E1およびE2の変化を示す図である。
FIG. 15 is a diagram illustrating changes in the coefficients E1 and E2 depending on the face orientations (angles θ1 and θ2) of the
図15(a)に示すように、人物141は、顔の向きが方向145の時に親密度にかける係数E1をE1=0.8に、方向144のときにE1=1.0に、方向143のときにE1=1.2とし、角度の変化に応じて線形に変化させることができる。
As shown in FIG. 15A, the
また、図15(b)に示すように、人物142は、顔の向きが方向146の時に親密度にかける係数E2をE2=0.8に、方向147のときにE2=1.0に、方向148のときにE2=1.2とし、角度の変化に応じて線形に変化させることができる。
Further, as shown in FIG. 15B, the
このように、顔向き判定部1304は、それぞれの顔向きから得られた係数E1、E2から係数Eを算出する。係数Eは、例えば、E1とE2の積とする。親密度の算出にこの係数Eを利用することで、被写体の顔の向きを考慮した親密度を算出することができる。なお、顔の向きの検出については、先にあげた「特許文献:特開2003−44853」で詳しく述べられている。本実施の形態1においては、顔の向きの検出手法にこの従来方式を用いたとして説明するが、顔の向きを検出できる手法であれば別の方式を用いても良く、顔の向きの検出方式を限定するものではないことは言うまでもない。
Thus, the face
表情判定部1305は、人物検出部21で検出された顔領域から表情を判定し、表情の種類により係数Hを算出する。写真を撮影する時に、被写体の人物が楽しく写真を撮りたい場合は、表情にも楽しさが表れると考えられる。そこで、無表情の顔と比較して楽しさを表す表情として喜びの表情を利用する。例えば、顔領域の示す表情が喜びの表情であると、H=0.8とする。なお、喜び以外の表情を用いてもよく、例えば、怒りの表情であれば、H=1.2にすることができる。この係数Hを利用することで、被写体の表情を考慮したより望ましい親密度を算出することができる。
The
尚、表情の判定方法としては、顔を含んだ画像を入力として、あらかじめ用意しておいた無表情顔と、入力した満面表情顔との比較から顔の特徴点の動きを求め、「喜」、「怒」、「哀」、「恐怖」、「驚」のどの表情にあたるか判定する方法が提案されている。詳しくは「ズデネクほか “動き情報を用いた表情特徴の自動抽出手法” 電子情報通信学会論文誌 Vol.J81−D−II,No.6,pp.1150−1159,1998」
で述べられている。この表情判定方法を本実施の形態2に適用する場合、事前に無表情顔を登録する必要がある。本実施の形態2では、表情の判定手法にこの従来方式を用いたとして説明するが、表情を判定できる手法であれば別の方式を用いても良く、表情の判定方式を限定するものではないことは言うまでもない。
As a facial expression determination method, an image including a face is input, and the facial feature point movement is obtained by comparing the prepared expressionless face with the input full expression face. , “Angry”, “Sorrow”, “Fear”, and “Surprised” have been proposed. For details, see “Zudenek et al.“ Automatic Extraction Method of Facial Expression Features Using Motion Information ”. IEICE Transactions Vol. J81-D-II, No. 6, pp. 1150-1159, 1998”
It is stated in. When this expression determination method is applied to the second embodiment, it is necessary to register an expressionless face in advance. In the second embodiment, description will be made assuming that this conventional method is used as a facial expression determination method. However, another method may be used as long as it can determine a facial expression, and the facial expression determination method is not limited. Needless to say.
このような構成の親密度算出部1301を用いることで、人物間の距離に加えて、人数、顔の向き、表情を利用した、撮影時の状況をより反映した親密度を算出することができる。人物間の距離に加えて、人数、顔の向き、表情を利用した親密度Sの算出式を(数6)に示す。ここで、Kは被写体の人数による係数であり、Eは顔向きによる係数であり、Hは表情による係数である。
By using the
(数6)
c=(a+b)/2
α=(y/c2)×KEH
S=αd
(Equation 6)
c = (a + b) / 2
α = (y / c 2 ) × KEH
S = αd
なお、顔領域の幅による正規化、人数による係数K、表向きによる係数E、表情による係数Hは任意に組み合わせて使用することができる。また、データを抽出する際に、データ格納部13に格納されている写真や、通信の履歴等を用いてもよい。
The normalization based on the width of the face area, the coefficient K based on the number of people, the coefficient E based on the face orientation, and the coefficient H based on the facial expression can be used in any combination. Further, when extracting data, a photograph stored in the
次に、データ抽出時にデータ格納部13に格納されている写真の関連情報を用いてデータ抽出を行う方法について述べる。
Next, a method for performing data extraction using related information of photographs stored in the
図16は、データ格納部13に格納されている写真の関連情報を用いて、抽出した写真の代表親密度を変更する際におけるデータベース管理部12、データ抽出部15、及び出力部16の動作ステップを表すフローチャートである。データ格納部13に格納されている写真の関連情報を用いる方法の一つとして、統計処理を用いる方法を述べる。
FIG. 16 shows operation steps of the
尚、本図において、ステップS1601からステップS1604までの処理は、上述した図9のステップS901からステップS904と、ステップS1606からステップS1609までの処理は、ステップS905からステップS908までの処理と同様であるため、その説明を省略する。 In this figure, the processing from step S1601 to step S1604 is the same as the processing from step S905 to step S908 in step S901 to step S904 and the processing from step S1606 to step S1609 in FIG. Therefore, the description is omitted.
本図において、データベース管理部12は、その親密度テーブルT(j)の全てのレコードの組合せフィールドを調べ、P人の全ての人名が含まれている(つまり写真Pic(j)にP人全てが写っている)か調べる処理(ステップS1604)の後に、抽出データリストL1にリストアップされた写真をデータ格納部13に格納されている写真の全部または、一部を母集合として統計処理した結果を用いてPic(j)にリンクされている親密度テーブルT(j)に格納されている親密度F(i)を一時的に変更する処理(ステップS1605)を実行する。そして、ステップS1605で一時的に変更された親密度F(i)を用いて親密度テーブルT(j)から代表親密度を算出し、抽出データリストL1を作成する(ステップS1606)。
In this figure, the
この方法により、本実施の形態2に係る画像処理装置1300においては、例えば、人物名で抽出され、抽出データリストL1にリストアップされた写真がデータ格納部13に格納されている写真に対してどの程度の割合を占めるかにより親密度を変更することができる。具体的には、例えば、最近1ヶ月間に格納された写真のうち、目的の2人の写っている写真の枚数が最も多い場合、その2人の親密さを強くするために、その2人の親密度をステップS1605で0.8倍にする。
With this method, in the
以上の説明のように、本実施の形態2に係る画像処理装置1300は、親密度算出部1301において、人数処理部1303、顔向き判定部1304、及び表情判定部1305を備えるため、親密度を被写体の人数、表情、顔向き等の撮影状況に合わせて自動的に変更して付与することが可能となり、より精度の高い親密度を算出して、より適切に写真検索、分類等を行うことが可能となる。
As described above, the
また、撮影時に算出された親密度を、参照履歴、保存履歴、修正履歴、被写体となっている回数等を利用して視聴時に更新することで、よりユーザの好みに合わせた親密度を算出して、視聴時の人間関係をも考慮した検索や視聴をユーザに提供できる。 In addition, the familiarity calculated at the time of shooting is updated at the time of viewing using the reference history, the storage history, the correction history, the number of times the subject is used, etc., thereby calculating the familiarity more suited to the user's preference. Thus, it is possible to provide the user with search and viewing in consideration of the human relationship during viewing.
(実施の形態3)
次に、本発明に係る画像処理装置の第三の実施の形態について図面を参照しながら説明を行う。尚、本実施の形態3に係る画像処理装置は、メールの送受信等の通信履歴を記録する通信履歴保持部を備え、通信履歴に応じて親密度を変更することを特徴とする。
(Embodiment 3)
Next, a third embodiment of the image processing apparatus according to the present invention will be described with reference to the drawings. Note that the image processing apparatus according to the third embodiment includes a communication history holding unit that records a communication history such as mail transmission / reception, and changes the closeness according to the communication history.
図17は、本実施の形態3に係る通信履歴保持部1701を加えた画像処理装置1700の機能ブロック図を示す。尚、図17において上述した実施の形態1に係る画像処理装置と同様の機能構成については同様の符号を付して、その詳細な説明を省略する。
FIG. 17 is a functional block diagram of an
通信履歴保持部1701は、他の端末とのメール送受信等の通信の履歴を保持している。本発明では通信に関する構成自体は重要ではないため特に記してはいないが、通信の履歴については、このような構成をとることで、図16のステップS1605において、通信履歴を利用することで親密度を変更することができ、ユーザの人物関係をより的確に表した親密度として利用することができる。
The communication
例えば、ある特定の人物とのメール交換や写真の交換等の通信が他の人物との通信より多い場合、通信履歴保持部1701において通信履歴を記録しておき、その人物とユーザが通信履歴の上では最も親密であると判断できる。このように、通信履歴から推定できる親密さで写真から得られる親密度を増減させることで、ユーザの人物関係をより的確に表した親密度を利用することができる。
For example, when communication such as email exchange or photo exchange with a specific person is more than communication with another person, a communication history is recorded in the communication
なお、本実施の形態3では、データの抽出として写真を例にあげて説明したが、写真に限定するものではなく、動画等でもよい。また、親密度の利用はデータの抽出だけでなく、親密である人物にはデータの自動配布を行ったり、あまり親密でない人物には配布するデータにコピー禁止や、再配布禁止の条件をつける条件付き配布に対しても利用することができる。 In the third embodiment, a photo is taken as an example of data extraction. However, the present invention is not limited to a photo, and a moving image or the like may be used. In addition, the use of intimacy is not only the extraction of data, but it also automatically distributes data to people who are intimate, and provides conditions that prohibit copying and redistribution to data that is distributed to people who are not very intimate It can also be used for attached distribution.
以上のように、本実施の形態3に係る画像処理装置1700によれば、通信履歴保持部1701において記録されている通信履歴を用いて、写真の被写体である人物間の親密度を変更できる。従って、通信履歴を利用することで、より精度の高い親密度に基づいて、抽出時の状況に即した画像データを抽出し、視聴時の人間関係をも考慮した写真の検索や視聴をユーザに提供できる。
As described above, according to the
(変形例)
次に、本発明に係る画像処理装置の変形例を示す。本変形例においては、GPS等の距離センサを用いて被写体間の撮影時の実際の距離を正確に把握して、親密度を算出することを特徴とするものである。
(Modification)
Next, a modification of the image processing apparatus according to the present invention will be shown. The present modification is characterized in that the closeness is calculated by accurately grasping the actual distance at the time of shooting between subjects using a distance sensor such as GPS.
図18は、撮影時に3人の人物が前後に配列して撮影された場合の参考図であり、図18(a)は、被写体である人物3人を上から見た図であり、図18(b)は、図18(a)の配置で撮影された写真の参考図である。 FIG. 18 is a reference diagram in the case where three persons are photographed in the front-rear direction at the time of photographing, and FIG. 18A is a diagram of the three persons as subjects viewed from above. FIG. 18B is a reference diagram of a photograph taken with the arrangement of FIG.
このため、本変形例では、図19の画像処理装置1900の機能ブロック図に示すように、例えば、GPS、距離測定用レーザ等の距離センサ1901を設け、実空間での人物間の距離を計測し、この正確な距離に基づいてパラメータ算出部22において人物間の親密度を算出する。本変形例の画像処理装置1900では、写真上における顔領域間の距離のみを用いるのではなく、実空間での人物間の距離を測定し、新密度の算出に用いることができる。
Therefore, in this modification, as shown in the functional block diagram of the
従って、本変形例の画像処理装置1900では、実空間での人物間の距離を写真に付与して親密度を判断することが可能となり、より精度の高い親密度に基づいて画像データの検索や視聴が可能となる。
Accordingly, in the
尚、上述した実施の形態の説明においては、データ格納部から写真データを抽出するデータ抽出部や、写真データを画面に表示するための出力部を備える構成としたが、これらの処理部を備えない、例えば、写真データを用いずに単に人物間の距離から親密度を算出する親密度算出装置とすることも考え得る。 In the above description of the embodiment, the data extraction unit for extracting photo data from the data storage unit and the output unit for displaying the photo data on the screen are provided. However, these processing units are provided. For example, it is possible to consider a closeness calculation device that simply calculates closeness from the distance between persons without using photo data.
本発明に係る画像処理装置は、例えば、静止画又は動画を撮影するデジタルスチルカメラ、カメラ付き携帯端末やムービーカメラ等の撮影装置、静止画又は動画を読み取るイメージスキャナ又はムービーキャプチャ等のデータ読み取り装置で読みとられた静止画または動画の画像情報を処理する装置、PC等に適用することができる。 An image processing apparatus according to the present invention includes, for example, a digital still camera that captures a still image or a moving image, a photographing device such as a camera-equipped mobile terminal or a movie camera, an image scanner that reads a still image or a moving image, or a data reading device such as a movie capture. The present invention can be applied to an apparatus, a PC, or the like that processes image information of a still image or a moving image read in the above.
10 写真入力部
11,1301 親密度算出部
12 データベース管理部
13 データ格納部
14 抽出条件入力部
15 データ抽出部
16 出力部
21 人物検出部
22,1302 パラメータ算出部
23 距離測定部
50 写真
51,52 被写体人物
100,1300,1700,1900 画像処理装置
1303 人数処理部
1304 顔向き判定部
1305 表情判定部
1701 通信履歴保持部
1901 距離センサ
DESCRIPTION OF
Claims (16)
前記画像データを格納する格納手段と、
前記画像データから被写体である人物を検出する人物検出手段と、
前記人物検出手段で検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定手段と、
前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出手段と、
前記パラメータに基づき、前記格納手段に格納されている画像データを抽出するデータ抽出手段とを備える
ことを特徴とする画像処理装置。 An image processing apparatus that performs image processing using image data,
Storage means for storing the image data;
Person detecting means for detecting a person as a subject from the image data;
A distance measuring means for calculating a distance between each person when two or more persons are detected by the person detecting means;
Parameter calculating means for calculating a parameter related to the intimacy between the persons based on the distance;
An image processing apparatus comprising: data extraction means for extracting image data stored in the storage means based on the parameters.
前記距離測定手段は、前記顔領域検出部で検出された顔領域間の距離を算出し、
前記パラメータ算出手段は、前記距離に比例して、前記距離が短い場合には、被写体である前記人物間の親密度が高いことを示すパラメータを算出する
ことを特徴とする請求項1記載の画像処理装置。 The person detection means includes a face area detection unit that detects a face area of the person as a subject,
The distance measuring means calculates a distance between the face areas detected by the face area detecting unit;
The image according to claim 1, wherein the parameter calculation unit calculates a parameter indicating that the closeness between the persons as subjects is high when the distance is short in proportion to the distance. Processing equipment.
ことを特徴とする請求項2記載の画像処理装置。 The distance measuring means calculates the distance by normalizing the distance between the centroids of the two face areas detected by the face area detecting unit with the size of the face area of the person who is the subject. The image processing apparatus according to claim 2, wherein:
前記画像データの画素数を検出する画素数検出手段を備え、
前記パラメータ算出手段は、前記画像データの画素数に応じて親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
Comprising pixel number detecting means for detecting the number of pixels of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity according to the number of pixels of the image data.
画像データの被写体である人物の数を検出する人数検出手段を備え、
前記パラメータ算出手段は、前記人数検出手段で検出された人数によって親密度に関するパラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
A number-of-people detection means for detecting the number of persons who are subjects of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases a parameter related to intimacy according to the number of persons detected by the number of persons detection unit.
画像データの被写体である人物の顔の向きを判定する顔向き判定手段を備え、
前記パラメータ算出手段は、前記顔向き判定手段で検出された人物の顔の向きに基づいて親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
A face orientation judging means for judging the orientation of the face of the person who is the subject of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity based on a face orientation of the person detected by the face orientation determination unit.
画像データの被写体である人物の表情を判定する表情判定手段を備え、
前記パラメータ算出手段は、前記表情判定手段で検出された人物の表情に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
Equipped with facial expression determination means for determining the facial expression of the person who is the subject of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to intimacy based on the facial expression of the person detected by the facial expression determination unit.
前記人物間の実際の距離を計測する距離センサを備え、
前記パラメータ算出手段は、前記距離センサにより検出される距離に基づいて、親密度に関する前記パラメータを算出する
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
A distance sensor for measuring the actual distance between the persons,
The image processing apparatus according to claim 1, wherein the parameter calculation unit calculates the parameter related to intimacy based on a distance detected by the distance sensor.
通信履歴を保持する通信履歴保持手段を備え、
前記パラメータ算出手段は、前記通信履歴保持手段の保持する通信履歴に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
Communication history holding means for holding a communication history is provided,
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to intimacy based on a communication history held by the communication history holding unit.
前記画像データの保存履歴、参照履歴、及び修正履歴の少なくとも1つを保持する履歴保持手段を備え、
前記パラメータ算出手段は、前記履歴保持手段の保持する履歴に基づいて、親密度に関する前記パラメータを増減させる
ことを特徴とする請求項1記載の画像処理装置。 The image processing apparatus further includes:
A history holding means for holding at least one of a storage history, a reference history, and a correction history of the image data;
The image processing apparatus according to claim 1, wherein the parameter calculation unit increases or decreases the parameter related to familiarity based on a history held by the history holding unit.
前記画像処理装置は、さらに、
前記画像データの前記格納手段からの抽出条件を入力する入力手段を備え、
前記データ抽出手段は、前記親密度テーブルを参照して、前記抽出条件を満たす画像データを前記格納手段から抽出する
ことを特徴とする請求項2記載の画像処理装置。 The storage means further stores a closeness table in which a relationship between at least the face area and the parameters related to the closeness is described.
The image processing apparatus further includes:
Input means for inputting extraction conditions from the storage means of the image data;
The image processing apparatus according to claim 2, wherein the data extraction unit extracts image data satisfying the extraction condition from the storage unit with reference to the closeness table.
前記画像データを格納する格納ステップと、
前記画像データから被写体である人物を検出する人物検出ステップと、
前記人物検出ステップにおいて検出された人物が2人以上の場合に、各人物間の距離を算出する距離測定ステップと、
前記距離に基づいて、前記人物間の親密度に関するパラメータを算出するパラメータ算出ステップと、
前記パラメータに基づき、前記格納ステップにおいて格納されている画像データを抽出するデータ抽出ステップとを含む
ことを特徴とする画像処理方法。 An image processing method used in an image processing apparatus that performs image processing using image data,
A storing step for storing the image data;
A person detecting step of detecting a person as a subject from the image data;
A distance measuring step of calculating a distance between each person when two or more persons are detected in the person detecting step;
A parameter calculating step for calculating a parameter related to the intimacy between the persons based on the distance;
A data extraction step of extracting the image data stored in the storage step based on the parameter.
前記距離測定ステップにおいては、前記顔領域検出ステップで検出された顔領域間の距離を算出し、
前記パラメータ算出ステップにおいては、前記距離に比例して、前記距離が短い場合には、被写体である前記人物間の親密度が高いことを示すパラメータを算出する
ことを特徴とする請求項12記載の画像処理方法。 The person detection step includes a face area detection step of detecting a face area of the person as a subject,
In the distance measuring step, the distance between the face areas detected in the face area detecting step is calculated,
13. The parameter calculation step according to claim 12, wherein when the distance is short in proportion to the distance, a parameter indicating that the closeness between the persons who are subjects is high is calculated. Image processing method.
ことを特徴とする請求項13記載の画像処理方法。 In the distance measurement step, the distance is calculated by normalizing the distance between the centroids of the two face areas detected by the face area detection unit with the size of the face area of the person as a subject. The image processing method according to claim 13.
ことを特徴とするプログラム。 A program for causing a computer to realize the image processing method according to any one of claims 12 to 14.
ことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium, wherein the program according to claim 15 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005227140A JP2007041964A (en) | 2005-08-04 | 2005-08-04 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005227140A JP2007041964A (en) | 2005-08-04 | 2005-08-04 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007041964A true JP2007041964A (en) | 2007-02-15 |
Family
ID=37799869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005227140A Pending JP2007041964A (en) | 2005-08-04 | 2005-08-04 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007041964A (en) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008167063A (en) * | 2006-12-27 | 2008-07-17 | Fujifilm Corp | Imaging apparatus and method |
JP2008225886A (en) * | 2007-03-13 | 2008-09-25 | Olympus Imaging Corp | Image display device, image display method, and program |
JP2009100284A (en) * | 2007-10-17 | 2009-05-07 | Fujifilm Corp | Imaging apparatus and imaging control method |
JP2009135616A (en) * | 2007-11-28 | 2009-06-18 | Softbank Mobile Corp | Communication terminal, information processing method, and program |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
JP2009231956A (en) * | 2008-03-19 | 2009-10-08 | Fujifilm Corp | Imaging device and imaging control method |
JP2010016796A (en) * | 2008-06-06 | 2010-01-21 | Sony Corp | Image capturing apparatus, image capturing method, and computer program |
JP2010055468A (en) * | 2008-08-29 | 2010-03-11 | Nikon Corp | Image processing apparatus, and camera |
JP2010140069A (en) * | 2008-12-09 | 2010-06-24 | Sony Corp | Image processing apparatus, imaging apparatus, image processing method, and program |
JPWO2009016833A1 (en) * | 2007-07-31 | 2010-10-14 | パナソニック株式会社 | Video analysis device, method for calculating evaluation value between persons by video analysis |
JP2010263265A (en) * | 2009-04-30 | 2010-11-18 | Olympus Imaging Corp | Photography display device, and photography display method |
JP2011004409A (en) * | 2010-07-30 | 2011-01-06 | Casio Computer Co Ltd | Imaging apparatus, control program and method of controlling display |
US7876374B2 (en) | 2006-12-07 | 2011-01-25 | Sony Corporation | Image display system, display apparatus, and display method |
JP2011082913A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Imaging apparatus, imaging method and imaging program |
JP2011082915A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Information processor, image extraction method and image extraction program |
JP2011160219A (en) * | 2010-02-01 | 2011-08-18 | Olympus Imaging Corp | Imaging apparatus, and imaging method of the same |
JP2013017050A (en) * | 2011-07-04 | 2013-01-24 | Dainippon Printing Co Ltd | Imaging device, image provision server device, and image provision program |
JP2013041493A (en) * | 2011-08-18 | 2013-02-28 | Nippon Hoso Kyokai <Nhk> | Face image feature amount generation apparatus and program for generating face image feature amount |
US8447761B2 (en) | 2009-12-03 | 2013-05-21 | Panasonic Corporation | Lifestyle collecting apparatus, user interface device, and lifestyle collecting method |
US8463052B2 (en) | 2009-09-15 | 2013-06-11 | Kabushiki Kaisha Toshiba | Electronic apparatus and image search method |
US8477207B2 (en) | 2008-06-06 | 2013-07-02 | Sony Corporation | Image capturing apparatus, image capturing method, and computer program |
JP2013200715A (en) * | 2012-03-26 | 2013-10-03 | Fujifilm Corp | Image evaluating device, image evaluating method, image evaluating system, and program |
JP2013255287A (en) * | 2013-09-11 | 2013-12-19 | Olympus Imaging Corp | Photography and display device |
JP2014506701A (en) * | 2011-02-18 | 2014-03-17 | グーグル・インコーポレーテッド | Affinity-based ranking for search and display |
JP2014053965A (en) * | 2013-12-03 | 2014-03-20 | Olympus Imaging Corp | Subject state determination method |
US8687925B2 (en) | 2007-04-10 | 2014-04-01 | Sony Corporation | Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program |
US8797331B2 (en) | 2007-08-06 | 2014-08-05 | Sony Corporation | Information processing apparatus, system, and method thereof |
WO2014148209A1 (en) | 2013-03-19 | 2014-09-25 | 富士フイルム株式会社 | Electronic album creation device and electronic album production method |
US8872941B2 (en) | 2006-11-07 | 2014-10-28 | Sony Corporation | Imaging apparatus and imaging method |
CN111339330A (en) * | 2020-03-12 | 2020-06-26 | Oppo广东移动通信有限公司 | Photo processing method and device, storage medium and electronic equipment |
US10776627B2 (en) | 2017-07-18 | 2020-09-15 | Panasonic Corporation | Human flow analysis method, human flow analysis apparatus, and human flow analysis system |
-
2005
- 2005-08-04 JP JP2005227140A patent/JP2007041964A/en active Pending
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8872941B2 (en) | 2006-11-07 | 2014-10-28 | Sony Corporation | Imaging apparatus and imaging method |
US8009219B2 (en) | 2006-12-07 | 2011-08-30 | Sony Corporation | Image display system, display apparatus, and display method |
US7876374B2 (en) | 2006-12-07 | 2011-01-25 | Sony Corporation | Image display system, display apparatus, and display method |
JP2008167063A (en) * | 2006-12-27 | 2008-07-17 | Fujifilm Corp | Imaging apparatus and method |
JP2008225886A (en) * | 2007-03-13 | 2008-09-25 | Olympus Imaging Corp | Image display device, image display method, and program |
US8687925B2 (en) | 2007-04-10 | 2014-04-01 | Sony Corporation | Image storage processing apparatus, image search apparatus, image storage processing method, image search method and program |
JPWO2009016833A1 (en) * | 2007-07-31 | 2010-10-14 | パナソニック株式会社 | Video analysis device, method for calculating evaluation value between persons by video analysis |
US10262449B2 (en) | 2007-08-06 | 2019-04-16 | Sony Corporation | Information processing apparatus, system, and method for displaying bio-information or kinetic information |
US10529114B2 (en) | 2007-08-06 | 2020-01-07 | Sony Corporation | Information processing apparatus, system, and method for displaying bio-information or kinetic information |
US9568998B2 (en) | 2007-08-06 | 2017-02-14 | Sony Corporation | Information processing apparatus, system, and method for displaying bio-information or kinetic information |
US10937221B2 (en) | 2007-08-06 | 2021-03-02 | Sony Corporation | Information processing apparatus, system, and method for displaying bio-information or kinetic information |
US9972116B2 (en) | 2007-08-06 | 2018-05-15 | Sony Corporation | Information processing apparatus, system, and method for displaying bio-information or kinetic information |
US8797331B2 (en) | 2007-08-06 | 2014-08-05 | Sony Corporation | Information processing apparatus, system, and method thereof |
JP2009100284A (en) * | 2007-10-17 | 2009-05-07 | Fujifilm Corp | Imaging apparatus and imaging control method |
JP2009135616A (en) * | 2007-11-28 | 2009-06-18 | Softbank Mobile Corp | Communication terminal, information processing method, and program |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
US8116539B2 (en) | 2008-03-19 | 2012-02-14 | Fujifilm Corporation | Image capturing apparatus and method for controlling image capturing |
JP2009231956A (en) * | 2008-03-19 | 2009-10-08 | Fujifilm Corp | Imaging device and imaging control method |
JP2010016796A (en) * | 2008-06-06 | 2010-01-21 | Sony Corp | Image capturing apparatus, image capturing method, and computer program |
US8467581B2 (en) | 2008-06-06 | 2013-06-18 | Sony Corporation | Image capturing apparatus, image capturing method, and computer program |
US8477207B2 (en) | 2008-06-06 | 2013-07-02 | Sony Corporation | Image capturing apparatus, image capturing method, and computer program |
JP2010055468A (en) * | 2008-08-29 | 2010-03-11 | Nikon Corp | Image processing apparatus, and camera |
JP2010140069A (en) * | 2008-12-09 | 2010-06-24 | Sony Corp | Image processing apparatus, imaging apparatus, image processing method, and program |
US8503735B2 (en) | 2008-12-09 | 2013-08-06 | Sony Corporation | Image processing to perform grouping based on depth-of-relationship values |
JP2010263265A (en) * | 2009-04-30 | 2010-11-18 | Olympus Imaging Corp | Photography display device, and photography display method |
US8463052B2 (en) | 2009-09-15 | 2013-06-11 | Kabushiki Kaisha Toshiba | Electronic apparatus and image search method |
JP2011082915A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Information processor, image extraction method and image extraction program |
JP2011082913A (en) * | 2009-10-09 | 2011-04-21 | Sony Corp | Imaging apparatus, imaging method and imaging program |
US8909636B2 (en) | 2009-12-03 | 2014-12-09 | Panasonic Intellectual Property Corporation Of America | Lifestyle collecting apparatus, user interface device, and lifestyle collecting method |
US8447761B2 (en) | 2009-12-03 | 2013-05-21 | Panasonic Corporation | Lifestyle collecting apparatus, user interface device, and lifestyle collecting method |
JP2011160219A (en) * | 2010-02-01 | 2011-08-18 | Olympus Imaging Corp | Imaging apparatus, and imaging method of the same |
JP2011004409A (en) * | 2010-07-30 | 2011-01-06 | Casio Computer Co Ltd | Imaging apparatus, control program and method of controlling display |
JP2016157476A (en) * | 2011-02-18 | 2016-09-01 | グーグル インコーポレイテッド | Affinity based ranking for search and display |
JP2014506701A (en) * | 2011-02-18 | 2014-03-17 | グーグル・インコーポレーテッド | Affinity-based ranking for search and display |
JP2013017050A (en) * | 2011-07-04 | 2013-01-24 | Dainippon Printing Co Ltd | Imaging device, image provision server device, and image provision program |
JP2013041493A (en) * | 2011-08-18 | 2013-02-28 | Nippon Hoso Kyokai <Nhk> | Face image feature amount generation apparatus and program for generating face image feature amount |
JP2013200715A (en) * | 2012-03-26 | 2013-10-03 | Fujifilm Corp | Image evaluating device, image evaluating method, image evaluating system, and program |
US9851873B2 (en) | 2013-03-19 | 2017-12-26 | Fujifilm Corporation | Electronic album creating apparatus and method of producing electronic album |
WO2014148209A1 (en) | 2013-03-19 | 2014-09-25 | 富士フイルム株式会社 | Electronic album creation device and electronic album production method |
JP2013255287A (en) * | 2013-09-11 | 2013-12-19 | Olympus Imaging Corp | Photography and display device |
JP2014053965A (en) * | 2013-12-03 | 2014-03-20 | Olympus Imaging Corp | Subject state determination method |
US10776627B2 (en) | 2017-07-18 | 2020-09-15 | Panasonic Corporation | Human flow analysis method, human flow analysis apparatus, and human flow analysis system |
CN111339330A (en) * | 2020-03-12 | 2020-06-26 | Oppo广东移动通信有限公司 | Photo processing method and device, storage medium and electronic equipment |
CN111339330B (en) * | 2020-03-12 | 2023-09-01 | Oppo广东移动通信有限公司 | Photo processing method and device, storage medium and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007041964A (en) | Image processing device | |
US8238615B2 (en) | Method for comparing photographer aesthetic quality | |
US8311364B2 (en) | Estimating aesthetic quality of digital images | |
US9076069B2 (en) | Registering metadata apparatus | |
US8330826B2 (en) | Method for measuring photographer's aesthetic quality progress | |
KR101325110B1 (en) | Information processing apparatus and method, and computer-readable recording medium | |
JP6323465B2 (en) | Album creating program, album creating method, and album creating apparatus | |
US10459968B2 (en) | Image processing system and image processing method | |
US9521211B2 (en) | Content processing device, content processing method, computer-readable recording medium, and integrated circuit | |
US20050271352A1 (en) | Apparatus and program for image classification | |
KR101475939B1 (en) | A control method of an image processing apparatus, an image processing apparatus, | |
WO2011001587A1 (en) | Content classification device, content classification method, and content classification program | |
JP5334159B2 (en) | Photo display method and system on electronic map | |
US20030193582A1 (en) | Method for storing an image, method and system for retrieving a registered image and method for performing image processing on a registered image | |
US11645349B2 (en) | Generating location based photo discovery suggestions | |
US20170019590A1 (en) | Imaging apparatus, information processing apparatus, image photographing assist system and image photographing assist method | |
US9639778B2 (en) | Information processing apparatus, control method thereof, and storage medium | |
JP4490214B2 (en) | Electronic album display system, electronic album display method, and electronic album display program | |
JP7167283B2 (en) | Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and recording medium storing the program | |
JP2004280254A (en) | Content classification method and apparatus | |
JP4457988B2 (en) | Image management apparatus, image management method, and computer program | |
JP6410427B2 (en) | Information processing apparatus, information processing method, and program | |
JP6323548B2 (en) | Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method | |
CN114707055B (en) | A photo pose recommendation method integrating image content and feature extraction | |
WO2010087451A1 (en) | Image display device, image display method, and image display program |