JP2008311885A - Digital camera, camera phone - Google Patents
Digital camera, camera phone Download PDFInfo
- Publication number
- JP2008311885A JP2008311885A JP2007156929A JP2007156929A JP2008311885A JP 2008311885 A JP2008311885 A JP 2008311885A JP 2007156929 A JP2007156929 A JP 2007156929A JP 2007156929 A JP2007156929 A JP 2007156929A JP 2008311885 A JP2008311885 A JP 2008311885A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- subject
- image information
- face image
- order
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】従来技術における連続撮影は、装置に記憶されたフォーカス位置の順番で撮影されるため、撮影する順番を撮影前にユーザが確認することはできなかった。
【解決手段】本発明の撮像装置(0200)では、撮像順序決定部(0203)にてユーザが決定した撮像順序に基づいて制御部(0204)が撮像部(0202)を制御して複数の被写体にピントを合わせて連続撮影を行うため、適切な撮像順序で被写体の連続撮像を行うことができる。
【選択図】 図2Since continuous shooting in the prior art is performed in the order of focus positions stored in an apparatus, a user cannot confirm the order of shooting before shooting.
In an imaging apparatus (0200) according to the present invention, a control unit (0204) controls an imaging unit (0202) based on an imaging order determined by a user in an imaging order determination unit (0203), and a plurality of subjects. Since continuous shooting is performed while focusing on the subject, continuous shooting of the subject can be performed in an appropriate shooting order.
[Selection] Figure 2
Description
本発明は、デジタルカメラ、カメラ付き携帯電話などにおける撮像技術に関する。 The present invention relates to an imaging technique in a digital camera, a mobile phone with a camera, and the like.
近年のデジタルカメラでは連続撮影可能なものも多数開発されており、これらの連続撮影可能なデジタルカメラの多くは被写体のフォーカスの合わせ方などに特徴を有している。例えば、特許文献1では、撮影前にフォーカス位置の距離データを複数記憶しておき、記憶した複数の距離データに基づき、異なるフォーカス位置にて連続的に撮影することができる。特許文献2では、特許文献1と同じくフォーカス位置を変えながら連続的に撮影を行い、被写体にフォーカスが合った良好な画像のみを選択して記憶することとしている。
しかしながら、従来技術における連続撮影は、予め装置に記憶されたデフォルトのフォーカス位置の順番で連続的に撮影されるため、被写体にピントが全く合っていない画像も多く、撮影処理に非常に無駄が生じていた。また、このようなピントが合っていない画像を含む複数の画像の中からピントが合った画像を探すことは処理が煩雑であり、特に、デジタルカメラやデジタルカメラ付き携帯電話などに備えられている液晶ディスプレイが小型である場合や、フォーカス位置による撮像画像の違いが微細である場合には、連続撮影した複数の同様の各画像において、いずれの被写体にピントが合っているのかを撮影後に確認することは非常に困難であった。そこで、本発明では、ピントを合わせて撮像を行いたい被写体のみを効率的に撮像する撮像装置を提供することを目的とする。 However, since continuous shooting in the prior art is continuously shot in the order of the default focus positions stored in advance in the apparatus, there are many images in which the subject is not in focus at all, and the shooting process is very wasteful. It was. In addition, searching for a focused image from a plurality of images including images that are not in focus is cumbersome, and is particularly provided in digital cameras, mobile phones with digital cameras, and the like. When the liquid crystal display is small or the difference in the captured image depending on the focus position is small, check which subject is in focus in each of the multiple similar images taken after shooting. It was very difficult. Accordingly, an object of the present invention is to provide an imaging apparatus that efficiently images only a subject that is desired to be focused and imaged.
上記課題を解決するために、
(1)第一発明では、撮像領域の複数の被写体に対して各被写体に適した撮像条件を取得する撮像条件取得部と、前記撮像条件に基づいて各被写体を連続的に撮像する撮像部と、前記撮像部にて各被写体を撮像する撮像順序を決定する撮像順序決定部と、前記決定された撮像順序に応じて前記撮像部における撮像動作を制御する制御部と、からなる撮像装置を提供する。
(2)第二発明では、前記撮像部は、撮像直前に再度撮像条件を取得する撮像条件再取得手段を有することを特徴とする第一発明に記載の撮像装置を提供する。
(3)第三発明では、前記撮像順序決定部は、撮像装置と各被写体のフォーカス距離に応じて撮像順序を決定するフォーカス距離依存決定手段を有することを特徴とする第一発明又は第二発明に記載の撮像装置を提供する。
(4)第四発明では、撮像領域の被写体の顔領域を認識する顔領域認識部と、前記撮像順序決定部は、撮像領域に占める前記認識した顔領域が大きい順に撮像順序を決定する顔領域依存決定手段と、を有することを特徴とする第一発明から第三発明のいずれか一に記載の撮像装置を提供する。
(5)第五発明では、顔画像情報を保持する顔画像情報保持部と、撮像領域の被写体の顔画像情報である被写体顔画像情報を取得する被写体顔画像情報取得部と、前記保持された顔画像情報と、前記取得された被写体顔画像情報とを比較する顔画像情報比較部と、前記撮像順序決定部は、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、該人物の撮像順序を他の被写体よりも上位にする顔画像情報依存決定手段と、を有することを特徴とする第一発明から第四発明のいずれか一に記載の撮像装置を提供する。
(6)第六発明では、前記顔画像情報保持部は、顔画像情報とその顔画像情報で識別される人物の写真を撮影した回数、メール回数、電話回数のいずれか一以上の応答頻度を示す応答頻度情報を関連付けて保持する応答頻度情報保持手段と、前記撮像順序決定部は、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が複数存在する場合には、前記応答頻度の多い順に撮像順序を決定する応答頻度情報依存決定手段と、を有する第五発明に記載の撮像装置を提供する。
(7)第七発明では、前記顔画像情報保持部は、顔画像情報とメールアドレスを関連付けて保持するメールアドレス保持手段と、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、撮像部で該人物の撮像後に前記顔画像情報に関連付けられたメールアドレスに対して撮像画像を送信する撮像画像送信部と、を有する第五発明又は第六発明に記載の撮像装置を提供する。
(8)第八発明では、撮像領域の複数の被写体に対して各被写体に適した撮像条件を取得する撮像条件取得ステップと、撮像デバイスにて各被写体を撮像する撮像順序を決定する撮像順序決定ステップと、前記決定された撮像順序に応じて撮像デバイスにおける撮像動作を制御する制御ステップと、前記制御ステップでの制御により、前記撮像条件に基づいて各被写体を連続的に撮像する撮像ステップと、からなる撮像方法を提案する。
To solve the above problem,
(1) In the first invention, an imaging condition acquisition unit that acquires imaging conditions suitable for each subject for a plurality of subjects in the imaging region, and an imaging unit that continuously images each subject based on the imaging conditions An imaging apparatus comprising: an imaging order determination unit that determines an imaging order for imaging each subject in the imaging unit; and a control unit that controls an imaging operation in the imaging unit according to the determined imaging order To do.
(2) In the second invention, there is provided the imaging apparatus according to the first invention, wherein the imaging unit includes an imaging condition re-acquisition unit that acquires an imaging condition again immediately before imaging.
(3) In the third invention, the imaging order determining unit includes a focus distance dependency determining unit that determines an imaging order according to a focus distance between the imaging apparatus and each subject. The imaging device described in 1. is provided.
(4) In the fourth invention, the face area recognition unit for recognizing the face area of the subject in the imaging area, and the imaging order determination unit determine the imaging order in descending order of the recognized face area in the imaging area. There is provided an imaging apparatus according to any one of the first to third inventions, characterized in that the imaging apparatus has dependency determination means.
(5) In the fifth invention, a face image information holding unit that holds face image information, a subject face image information acquisition unit that acquires subject face image information that is face image information of a subject in an imaging region, and the held The face image information comparing unit that compares the face image information with the acquired subject face image information, and the imaging order determining unit are configured to obtain the acquired subject face image information and the held face image according to the comparison result. And a face image information dependence determining unit that places the imaging order of the person higher than other subjects when there is a subject determined to be the same person as the information. To 4th invention is provided.
(6) In the sixth invention, the face image information holding unit has a response frequency that is at least one of the number of times the face image information and the photograph of the person identified by the face image information are taken, the number of mails, and the number of calls The response frequency information holding unit that holds the response frequency information to be shown and the imaging order determination unit, according to the comparison result, the acquired subject face image information and the held face image information are the same person When there are a plurality of determined subjects, there is provided an imaging apparatus according to a fifth aspect of the present invention, comprising response frequency information dependence determining means for determining an imaging order in descending order of the response frequency.
(7) In the seventh invention, the face image information holding unit holds mail address holding means that holds face image information and an email address in association with each other, and holds the acquired subject face image information according to the comparison result. When there is a subject whose face image information is determined to be the same person, a captured image transmission unit that transmits a captured image to a mail address associated with the face image information after the person is imaged by the imaging unit And an imaging device according to the fifth or sixth invention.
(8) In the eighth invention, an imaging condition acquisition step for acquiring imaging conditions suitable for each subject for a plurality of subjects in the imaging region, and an imaging order determination for determining an imaging order for imaging each subject by the imaging device A control step for controlling an imaging operation in an imaging device in accordance with the determined imaging order, and an imaging step for continuously imaging each subject based on the imaging conditions by control in the control step; An imaging method comprising:
以上のような構成をとる本発明の撮像装置では、連続的にピントを合わせて撮影する被写体を選択して撮像順序を決定し、決定した撮像順序で撮像が行われるため、いずれの被写体にもピントが合っていない無駄な画像を取得することがなく、撮像したい被写体だけにピントを合わせて最適な順序で効率的に撮像処理を行うことができる。 In the imaging apparatus of the present invention configured as described above, the subject to be continuously focused is selected and the imaging order is determined, and imaging is performed in the determined imaging order. It is possible to efficiently perform imaging processing in an optimal order by focusing only on a subject to be captured without acquiring a useless image that is not in focus.
本発明を実施するための最良の形態について、図面を用いて詳細に説明する。なお、本発明はこれら実施の形態になんら限定されるものではなく、その要旨を逸脱しない範囲において種々なる態様で実施しうる。なお、以下の実施形態と請求項の関係は次のとおりである。実施形態1は主として請求項1、2、8などについて説明する。実施形態2は主として請求項3などについて説明する、実施形態3は主として請求項4などについて説明する。実施形態4は主として請求項5、6、7などについて説明する。
The best mode for carrying out the present invention will be described in detail with reference to the drawings. In addition, this invention is not limited to these embodiment at all, and can be implemented with various aspects in the range which does not deviate from the summary. In addition, the relationship between the following embodiment and a claim is as follows. The first embodiment will mainly describe
≪実施形態1≫(実施形態1の概念)実施形態1について説明する。図1に本撮像装置として携帯電話を利用した場合の概要を例示する。図1に示すように、本撮像装置(0100)は、複数の被写体(0107)が存在する場合に、いずれの被写体にピントを合わせて撮像するか、及び、複数の被写体をどのような順番で撮像するか、という各被写体の撮像順序を決定することを特徴とする撮像装置に関する。なお、決定した撮像順序(0102)は、撮像装置のディスプレイ(0101)等に表示された被写体(0103)に重ねて表示することで、いずれの被写体がどのような撮像順序で撮像されるのかを確認することができるようにしても良い。
<<
(実施形態1の構成)図2に本実施形態にかかる撮像装置の機能ブロック図を示す。本実施形態にかかる「撮像装置」(0200)は、「撮像条件取得部」(0201)と、「撮像部」(0202)と、「撮像順序決定部」(0203)と、「制御部」(0204)と、からなる。また、撮像部は「撮像条件再取得手段」(0205)を有していても良い。 (Configuration of Embodiment 1) FIG. 2 is a functional block diagram of an image pickup apparatus according to this embodiment. The “imaging device” (0200) according to the present embodiment includes an “imaging condition acquisition unit” (0201), an “imaging unit” (0202), an “imaging order determination unit” (0203), and a “control unit” ( 0204). Further, the imaging unit may include “imaging condition re-acquisition means” (0205).
(実施形態1の構成の説明)「撮像装置」(0200)は、少なくとも撮像条件取得部(0201)、撮像部(0202)、撮像順序決定部(0203)、制御部(0204)から構成される装置であり、これらの構成及び機能に限られるものではない。例えば、これらの構成に加えて撮像条件再取得手段(0205)を備えていても良いし、実施形態2以降に記載の構成を備えていても良い。撮像装置は、デジタルカメラ、カメラ付き携帯電話、カメラ付きPDA、カメラ付きノートパソコン等といった、CCDカメラを備えた電子機器が該当する。 (Description of Configuration of First Embodiment) The “imaging device” (0200) includes at least an imaging condition acquisition unit (0201), an imaging unit (0202), an imaging order determination unit (0203), and a control unit (0204). The apparatus is not limited to these configurations and functions. For example, in addition to these configurations, the imaging condition reacquisition unit (0205) may be provided, or the configurations described in the second and subsequent embodiments may be provided. The imaging apparatus corresponds to an electronic device including a CCD camera, such as a digital camera, a mobile phone with a camera, a PDA with a camera, a notebook computer with a camera, or the like.
「撮像条件取得部」(0201)は、撮像領域の複数の被写体に対して被写体に適した撮像条件を取得するように構成されている。「撮像領域」とは、撮像する領域をいい、デジタルカメラやカメラ付き携帯電話では、通常はファインダーとして利用されるディスプレイに表示された範囲が撮像領域に該当する。「撮像条件」とは、フォーカス位置、絞り、シャッタースピード、フラッシュの有無などである。「被写体に適した撮像条件」とは、各被写体の撮影に適した撮像条件である。これらは、マニュアルで設定することとしても良いし、AF(AutoFocus)、AE(Automatic Exposure)などの機能を利用して、自動で設定することとしても良い。 The “imaging condition acquisition unit” (0201) is configured to acquire imaging conditions suitable for the subject for a plurality of subjects in the imaging region. An “imaging area” refers to an area to be imaged. In a digital camera or a mobile phone with a camera, a range displayed on a display that is normally used as a viewfinder corresponds to the imaging area. The “imaging condition” includes a focus position, an aperture, a shutter speed, presence / absence of a flash, and the like. The “imaging condition suitable for the subject” is an imaging condition suitable for photographing each subject. These may be set manually, or may be set automatically using functions such as AF (AutoFocus) and AE (Automatic Exposure).
撮像条件取得部では、撮像領域に複数の被写体(必ずしも人である必要は無い)が存在することを認識すると、AF、AEなどを利用してこれら複数の被写体の最適条件を取得する。また、手動でフォーカス位置等を設定する場合には、フォーカス位置を示すフレームなどをディスプレイ上に表示してこれをユーザが移動させることでフォーカス位置を設定する。また、該フォーカス位置における絞り、シャッタースピード等を順次設定していく。このようにして設定された撮像条件は、記憶領域等に記憶される。 When recognizing that there are a plurality of subjects (not necessarily humans) in the imaging region, the imaging condition acquisition unit acquires the optimum conditions of the plurality of subjects using AF, AE, or the like. When manually setting the focus position or the like, the focus position is set by displaying a frame indicating the focus position on the display and moving the frame. In addition, an aperture, a shutter speed, and the like at the focus position are sequentially set. The imaging conditions set in this way are stored in a storage area or the like.
「撮像部」(0202)は、前記撮像条件に基づいて各被写体を連続的に撮像するように構成されている。撮像部は、CCDカメラなどからなる。撮像部では、ユーザによるシャッターの押下、タイマーによるシャッター設定などにより撮像指示を受け付けると、制御部での制御に基づいて設定された撮像順序にて各被写体にピントを合わせて連続的に撮像する。撮像部は、原則として撮像条件取得部にて取得された撮像条件にて各被写体を撮像するが、撮像部が「撮像条件再取得手段」(0205)を有する場合には、撮像直前にAF,AE機能を利用して再度撮像条件を取得して撮像を行うこととしても良い。撮像条件再取得手段は、全ての被写体について再度撮像条件を取得するようにしても良いし、各被写体毎に撮像条件を再取得するようにしても良い。撮像条件再取得手段を備えている場合には、撮像条件取得部にて撮像条件を取得してから実際に撮像を行うまでの間に被写体が移動してしまったとしても、再度被写体の移動にあわせた最適な撮像条件を取得することができる。また、全ての被写体に対して撮像条件を再取得する必要がなく、例えば、風景などの動きが少ない被写体については、再度撮像条件を取得する必要性が乏しいため、個別に撮像条件の再取得を行うか否かを設定することができるようにすることが望ましい。 The “imaging unit” (0202) is configured to continuously image each subject based on the imaging conditions. The imaging unit is composed of a CCD camera or the like. When the imaging unit accepts an imaging instruction by pressing the shutter by the user, setting a shutter by a timer, or the like, the imaging unit continuously focuses and images each subject in the imaging order set based on the control by the control unit. In principle, the imaging unit images each subject under the imaging conditions acquired by the imaging condition acquisition unit. When the imaging unit has “imaging condition re-acquisition means” (0205), AF, It is also possible to acquire an imaging condition again using the AE function and perform imaging. The imaging condition re-acquisition means may acquire the imaging conditions for all the subjects again, or may acquire the imaging conditions for each subject again. When the imaging condition re-acquisition means is provided, even if the subject moves between the acquisition of the imaging condition by the imaging condition acquisition unit and the actual imaging, the subject is moved again. It is possible to acquire optimal imaging conditions combined. Also, there is no need to re-acquire the imaging conditions for all subjects.For example, for subjects with little movement such as landscapes, there is little need to acquire the imaging conditions again. It is desirable to be able to set whether or not to do so.
「撮像順序決定部」(0203)は、前記撮像部にて各被写体を撮像する撮像順序を決定するように構成されている。「撮像順序」とは、撮像部での連続撮影時に各被写体に対してピントを合わせて撮像が行われる順序である。撮像順序は手動で設定することとしても良いし、自動で設定することとしても良い。 The “imaging order determination unit” (0203) is configured to determine an imaging order in which each subject is imaged by the imaging unit. The “imaging order” is an order in which imaging is performed with each subject in focus during continuous shooting by the imaging unit. The imaging order may be set manually or may be set automatically.
図3から図5は、手動で撮像順序を決定する方法の具体例である。図3は、複数の被写体が撮像領域に表示された状態(図3(a))において、カーソル(0301)を表示し(図3(b))、カーソルの操作で被写体の撮像順序を決定する様子を示す。カーソルは、デジタルカメラや携帯電話の十字キーを利用して移動させることができる。図1に例示する携帯電話の構造では、携帯電話の十字キー(0104)を利用してカーソルを操作することができる。まず、複数の被写体の中から1番目にピントを合わせて撮像を行いたい被写体にカーソルを合わせる。カーソルを被写体に合わせた状態で、「決定キー」に相当するキー(図1に示す0105など)を押下することで1番目にピントを合わせて撮像を行いたい被写体を選択することができる(図3(c))。同様にして2〜4番目にピントを合わせて撮像する被写体の撮像順序を決定する(図3(d))。このとき、決定した順番をディスプレイ上に表示することで撮像順序をユーザに明示することができる。なお、前記撮像条件取得部では、撮像条件を撮像順序を決定する際に取得することとしても良い。この場合、フォーカス位置を被写体上の決定キーが押下された位置とすることとしても良いし、選択された被写体の顔が存在する領域をAF機能により自動認識して該領域をフォーカス位置としても良い。図3(c)、(d)では、選択された被写体の顔が存在する領域を認識して顔領域の中心をフォーカス位置としている。ただし、図3(d)中<4>(図中は○数字)の番号が付された木は人物ではないため、顔領域ではなく相対的に明るい点などがフォーカス位置となる。また、図3(c)、(d)に示すように、決定キーが押下された箇所や被写体の顔領域に重ねて撮像順序を表示することで、ユーザは撮像順序と共にフォーカス位置まで確認することもでき、極めて利便性が向上する。 3 to 5 are specific examples of a method for manually determining the imaging order. FIG. 3 shows a cursor (0301) in a state where a plurality of subjects are displayed in the imaging region (FIG. 3A) (FIG. 3B), and determines the imaging order of the subjects by operating the cursor. Show the state. The cursor can be moved by using a cross key of a digital camera or a mobile phone. In the structure of the mobile phone illustrated in FIG. 1, the cursor can be operated using the cross key (0104) of the mobile phone. First, the cursor is placed on the subject to be imaged by focusing first among a plurality of subjects. By pressing a key (such as 0105 shown in FIG. 1) corresponding to the “decision key” with the cursor positioned on the subject, the subject to be focused first can be selected (FIG. 1). 3 (c)). Similarly, the imaging order of the subject to be imaged with the second to fourth focus is determined (FIG. 3D). At this time, the imaging order can be clearly indicated to the user by displaying the determined order on the display. The imaging condition acquisition unit may acquire the imaging conditions when determining the imaging order. In this case, the focus position may be set to the position where the determination key on the subject is pressed, or the area where the face of the selected subject exists is automatically recognized by the AF function, and the area may be set as the focus position. . 3C and 3D, the area where the face of the selected subject exists is recognized and the center of the face area is set as the focus position. However, since the tree numbered <4> in FIG. 3D (circle number in the figure) is not a person, a relatively bright point or the like is not a face area but a focus position. Also, as shown in FIGS. 3C and 3D, the imaging order is displayed over the place where the enter key is pressed or the face area of the subject, so that the user can confirm the imaging order and the focus position. It is also possible to improve convenience.
上記具体例において、ディスプレイがタッチパネルである場合には、被写体をタッチパネル上の操作により選択することも可能である。 In the above specific example, when the display is a touch panel, it is possible to select a subject by an operation on the touch panel.
図4は、カメラ付き携帯電話などを用いて撮像順序を決定する方法の具体例の一つである。図4は、撮像領域を12分割してディスプレイ上に表示した状態である(図4(a))。この12分割された各領域は、携帯電話の「テンキー(0〜9)、*、#」の12のキーに対応しており、これらのキーを押下する順番で撮像順序を決定することができる。例えば、図1に示す携帯電話の構造では、0〜9、*、#の12個のキー(0106)が図4の12分割された撮像領域に対応する。例えば、ユーザがまず携帯電話の「5」キーを押下げすると、左から2番目、上から2番目の分割領域が選択されて点滅表示される(図4(b))。そして、決定キーに相当するキーの押下げにより、当該領域の被写体が1番目にピントが合わされて撮像される被写体に決定される。なお、分割領域の選択中(点滅表示中)に十字キーなどにより選択された分割領域を上下左右に微調整可能としても良い。同様にして、「4」、「6」、「1」の順番に数字キーを押下げすることで、2〜4番目の分割領域を選択して撮像する被写体とその順序を決定することができる(図4(c))。なお、撮像順序の決定と共に撮像条件を取得する場合には、分割領域の中心点をフォーカス位置とすると被写体の顔におけるピントがぶれてしまう可能性がある。このため、分割領域に含まれる被写体の顔の位置をAF機能などにより自動認識し、顔が存在する領域をフォーカス位置とすることが望ましい(図4(d))。 FIG. 4 is one example of a method for determining the imaging order using a camera-equipped mobile phone or the like. FIG. 4 shows a state in which the imaging area is divided into 12 parts and displayed on the display (FIG. 4A). Each of the 12 divided areas corresponds to 12 keys of the “ten-key (0-9), *, #” of the mobile phone, and the imaging order can be determined in the order of pressing these keys. . For example, in the structure of the mobile phone shown in FIG. 1, 12 keys (0106) 0 to 9, *, and # correspond to the 12-divided imaging area shown in FIG. For example, when the user first depresses the “5” key of the mobile phone, the second divided area from the left and the second divided area from the top are selected and blinked (FIG. 4B). Then, by depressing a key corresponding to the enter key, the subject in the area is determined as the subject to be imaged with the first focus. Note that the divided area selected by the cross key or the like during selection of the divided area (while blinking) may be finely adjusted in the vertical and horizontal directions. Similarly, by depressing the numeric keys in the order of “4”, “6”, “1”, it is possible to select the second to fourth divided areas and determine the subject to be imaged and its order. (FIG. 4 (c)). Note that when acquiring the imaging conditions together with the determination of the imaging order, the focus on the face of the subject may be blurred if the center point of the divided area is the focus position. For this reason, it is desirable that the position of the face of the subject included in the divided area is automatically recognized by the AF function or the like, and the area where the face exists is set as the focus position (FIG. 4D).
図5は、多点測距型の一眼デジタルカメラなどにおいて撮像順序を決定する方法の具体例の一つである。図5(a)は、多点測距型の一眼デジタルカメラなどがディスプレイ上に複数のフォーカスエリア(0501)をスーパーインポーズした場合を例示しており、この状態でいずれかのフォーカスエリアの位置を順番に選択することで被写体の撮影順序を決定することができる。図5(b)では、複数のフォーカスエリアのいずれかを順番に選択して1から4の被写体の撮像順序を決定した様子を示している。なお、撮像順序の決定と共に撮像条件を取得する場合には、フォーカスエリアが存在する点をフォーカス位置とすると被写体の顔におけるピントがぶれてしまう可能性がある。このため、フォーカスエリア付近の被写体の顔の位置をAF機能などにより自動認識し、顔が存在する領域をフォーカス位置とすることが望ましい(図5(c))。
FIG. 5 is one specific example of a method for determining the imaging order in a multipoint ranging type single-lens digital camera or the like. FIG. 5A illustrates a case where a multipoint ranging type single-lens digital camera or the like superimposes a plurality of focus areas (0501) on the display, and the position of any focus area in this state is illustrated. The shooting order of subjects can be determined by selecting in order. FIG. 5B shows a state in which one of a plurality of focus areas is selected in order and the imaging order of the
以上のようにして撮像順序が決定すると、決定した撮像順序は撮像条件と関連付けられて合焦点情報として記憶領域に記憶される。図6(a)にテーブル状に記憶された合焦点情報を例示する。合焦点情報とは、撮像順序、表示位置、距離、絞り、シャッタースピード、フラッシュの有無などを関連付けて保持する情報である。表示位置とは、ディスプレイ上の被写体の表示位置をXY座標で表したものであり、フォーカス領域の中心点を表している。このため、表示位置の座標を中心として各被写体にピントが合うように各撮像条件が設定される。図6(b)に座標軸と座標の関係を例示する。距離とは、デジタルカメラから被写体までのフォーカス距離を示す。フォーカス距離は、周知の測定技術により測定可能である。 When the imaging order is determined as described above, the determined imaging order is stored in the storage area as in-focus information in association with the imaging condition. FIG. 6A illustrates in-focus information stored in a table shape. The in-focus information is information that is stored in association with the imaging order, display position, distance, aperture, shutter speed, presence / absence of flash, and the like. The display position represents the display position of the subject on the display in XY coordinates, and represents the center point of the focus area. For this reason, each imaging condition is set so that each subject is focused around the coordinates of the display position. FIG. 6B illustrates the relationship between coordinate axes and coordinates. The distance indicates a focus distance from the digital camera to the subject. The focus distance can be measured by a known measurement technique.
「制御部」(0204)は、前記決定された撮像順序に応じて前記撮像部における撮像動作を制御するように構成されている。デジタルカメラのシャッターボタンなどの押下げを検知すると、制御部では、記憶領域に記憶された合焦点情報から撮像領域の被写体の撮像順序と、各被写体の撮像条件を参照し、撮像順序が1番目の被写体の撮像条件にてデジタルカメラの各種設定を行う。そして、制御部が撮像部へ撮像指示を出力し1番目の被写体に適した撮像条件にて複数の被写体の撮像が実行される。1番目の被写体に適した条件での撮像が実行されると、続いて2番目の被写体の撮像条件にてデジタルカメラの各種設定が行われ、撮像部への撮像指示が出力されて2番目の被写体に適した撮像条件にて複数の被写体の撮像が実行される。該処理が撮像順序が設定されている全ての被写体に対して行われることで、撮像部で連続的に各被写体にピントが合わされて最適な条件で撮像される。 The “control unit” (0204) is configured to control the imaging operation in the imaging unit in accordance with the determined imaging order. When the pressing of the shutter button of the digital camera is detected, the control unit refers to the imaging order of the subject in the imaging area and the imaging condition of each subject from the in-focus information stored in the storage area, and the imaging order is the first. Various settings of the digital camera are performed under the imaging conditions of the subject. Then, the control unit outputs an imaging instruction to the imaging unit, and imaging of a plurality of subjects is executed under imaging conditions suitable for the first subject. When imaging under conditions suitable for the first subject is executed, various settings of the digital camera are subsequently performed under the imaging conditions for the second subject, and an imaging instruction is output to the imaging unit to output the second subject. Imaging of a plurality of subjects is executed under imaging conditions suitable for the subject. By performing this process for all the subjects for which the imaging order is set, the imaging unit continuously focuses on each subject and images are captured under the optimum conditions.
(実施形態1のハードウェア構成)図7に本実施形態の撮像装置のハードウェア構成を示す。本撮像装置の構成要素である各部は、ハードウェアとハードウェア上で実行可能なソフトウェアからなる。ハードウェアとしては、演算処理を行うCPU(0701)、ソフトウェアや各データを一時的に記録するための揮発性メモリ(0702)、ソフトウェアなどの各データを記録するための不揮発性メモリ(0703)、撮像を行う撮像素子やレンズ絞りシャッターなどからなる撮像デバイス(0704)、データの入出力を行うためのI/Oデバイス(0705)、これらを繋ぐシステムバス(0706)などからなる。I/Oデバイスには必要に応じて十字キーやタッチパネル、ファインダーとして撮像領域を表示するディスプレイ等が接続される。また、ソフトウェアとしては、撮像順序を決定するための撮像順序決定プログラム、撮像順序に応じて撮像動作を制御する制御プログラム等である。これらのプログラムは、不揮発性メモリの所定のアドレスA1、A2に格納されており、必要に応じて揮発性メモリの所定のアドレスa1、a2に展開されて、CPU(0701)による演算処理により動作する。不揮発性メモリや揮発性メモリには、上記プログラムの他にも、合焦点情報や撮像された画像ファイル等が記録される。 (Hardware Configuration of Embodiment 1) FIG. 7 shows the hardware configuration of the image pickup apparatus of this embodiment. Each unit, which is a component of the imaging apparatus, includes hardware and software that can be executed on the hardware. As hardware, a CPU (0701) that performs arithmetic processing, a volatile memory (0702) for temporarily recording software and each data, a non-volatile memory (0703) for recording each data such as software, An image pickup device (0704) including an image pickup element for taking an image and a lens aperture shutter, an I / O device (0705) for inputting and outputting data, a system bus (0706) for connecting them, and the like. The I / O device is connected to a cross key, a touch panel, a display for displaying an imaging area as a viewfinder, and the like as necessary. The software includes an imaging order determination program for determining the imaging order, a control program for controlling the imaging operation in accordance with the imaging order, and the like. These programs are stored at predetermined addresses A1 and A2 of the nonvolatile memory, and are expanded to predetermined addresses a1 and a2 of the volatile memory as necessary, and operate by arithmetic processing by the CPU (0701). . In addition to the above programs, in-focus information and captured image files are recorded in the nonvolatile memory and volatile memory.
本撮像装置を構成する撮像条件取得部及び撮像部は撮像デバイスなどからなり、撮像順序決定部はCPU及び各メモリと撮像順序決定プログラムなどからなり、制御部はCPU及び各メモリと制御プログラムなどからなる。以下、本撮像装置の処理を具体的に説明する。 The imaging condition acquisition unit and the imaging unit that constitute the imaging apparatus include an imaging device, the imaging order determination unit includes a CPU and each memory and an imaging order determination program, and the control unit includes the CPU, each memory, and a control program. Become. Hereinafter, the processing of the imaging apparatus will be specifically described.
(実施形態1の具体例)図8を用いて本撮像装置の具体的な処理の流れを説明する。本撮像装置では、まず一般的な撮像モードと連続撮像モードの選択を行う(S0801)。一般的な撮像モードを選択した場合(S0802;NO)には、連続撮影を行わない一般的な撮像を行うため連続撮影を行うための処理を終了する。 (Specific Example of Embodiment 1) A specific processing flow of the imaging apparatus will be described with reference to FIG. In this imaging apparatus, first, a general imaging mode and a continuous imaging mode are selected (S0801). When a general imaging mode is selected (S0802; NO), the process for performing continuous shooting is terminated to perform general imaging without continuous shooting.
連続撮像モードを選択した場合には、CPUでは、ディスプレイの撮像領域に撮像対象となる被写体を表示する(S0803)と共に、不揮発性メモリに格納された撮像順序決定プログラムを揮発性メモリのワーク領域に展開して起動する。撮像順序決定プログラムが起動すると、十字キーやタッチパネルなどの入力デバイスを利用してピントを合わせて撮像する対象となる被写体の決定と各被写体の撮像順序を受付可能な状態となる。この状態において、図3から図5に示した方法などにより、被写体の位置と各被写体の撮像順序を決定する。また、撮像順序と共に各被写体のフォーカス位置を定めても良い。まず、撮像順序=1とし(S0804)、ユーザにより一つ目の撮像対象となる被写体が選択されると(S0805)、撮像順序決定プログラムでは撮像順序と、被写体の表示位置を記憶する(S0806)。そして、撮像デバイスでは該被写体についてその被写体位置でのAF,AEを行い(S0807、S0808)、AF,AE情報などの撮像条件を撮像順序と共に合焦点情報として不揮発性メモリに記憶する(S0809)。このとき、AF,AE情報以外の情報、例えば、シャッタースピード、フラッシュの有無などの情報についても記憶しても良い。そして、2つ目以降の撮像対象となる被写体の入力があると(S0810;YES)、撮像順序を1増加させて(S0811)他の被写体についても同様の処理により撮像順序及び撮像条件が順次記憶される。これらの処理が完了すると、不揮発性メモリには図6(a)に示すような合焦点情報が記憶された状態となる。なお、撮像対象となる被写体の選択処理の完了は「決定キー」の2回押しや「終了キー」などを設けてこれを選択することで明示的に処理を終了することができる。 When the continuous imaging mode is selected, the CPU displays the subject to be imaged in the imaging area of the display (S0803), and stores the imaging order determination program stored in the nonvolatile memory in the work area of the volatile memory. Expand and launch. When the imaging order determination program is activated, it becomes possible to accept a subject to be focused and an imaging order for each subject using an input device such as a cross key or a touch panel. In this state, the position of the subject and the imaging order of each subject are determined by the method shown in FIGS. Further, the focus position of each subject may be determined together with the imaging order. First, the imaging order = 1 is set (S0804), and when the subject is selected as the first imaging target (S0805), the imaging order determination program stores the imaging order and the display position of the subject (S0806). . Then, the imaging device performs AF and AE at the subject position on the subject (S0807, S0808), and stores imaging conditions such as AF and AE information in the nonvolatile memory as in-focus information together with the imaging order (S0809). At this time, information other than AF and AE information, for example, information such as shutter speed and presence / absence of flash may be stored. If there is an input of a subject to be imaged after the second (S0810; YES), the imaging sequence is incremented by 1 (S0811), and the imaging sequence and imaging conditions are sequentially stored for other subjects by the same processing. Is done. When these processes are completed, the in-focus information as shown in FIG. 6A is stored in the nonvolatile memory. It should be noted that the completion of the process of selecting the subject to be imaged can be explicitly terminated by providing a “determine key” twice or by selecting an “end key”.
被写体の選択が終了し(S0810;NO)、撮像順序が決定すると、撮像処理に移行する。このとき、撮像装置が撮像条件再取得手段を備えている場合には、撮像直前に撮像条件を再取得するか否かを設定することができる。撮像条件を再取得する場合(S0812;YES)には、再取得を実行するか否かを示すフラグである再取得実行フラグを設定する(S0813)。再取得実行フラグは揮発性メモリに一時的に格納される。 When the selection of the subject is completed (S0810; NO) and the imaging order is determined, the process proceeds to the imaging process. At this time, when the imaging apparatus includes an imaging condition reacquisition unit, it is possible to set whether or not to acquire the imaging condition immediately before imaging. When the imaging condition is reacquired (S0812; YES), a reacquisition execution flag that is a flag indicating whether or not the reacquisition is executed is set (S0813). The reacquisition execution flag is temporarily stored in the volatile memory.
以上の処理が終了した状態において、シャッタースイッチがONになると(S0814)、CPUは不揮発性メモリに格納された制御プログラムを揮発性メモリのワーク領域に展開して起動する。制御プログラムは、不揮発性メモリに格納されている合焦点情報を参照して撮像順序が1番である被写体の表示位置を読み出し(S0815)、該被写体にピントが合うように撮像デバイスのフォーカスを設定し、同時に絞り等の設定も行う(S0816)。撮像装置が撮像条件再取得手段を備えており、かつ再取得実行フラグ=1である場合(S0817;YES)には、一番目の被写体の位置で再度AF,AEなどを行い撮像条件を再度取得する(S0818、S0819)。そして、撮像デバイスの設定が完了すると、シャッターが駆動し(S0820)、露光して(S0821)撮像が行われる。撮像が行われると、撮像素子から画像ファイルを読み出して(S0822)不揮発性メモリに記憶される(S0823)。不揮発性メモリに画像ファイルが記憶されると、次の被写体の撮像動作に移行し、制御プログラムは2番目の被写体について同様の処理を行う(S0824;YES)。そして、全ての選択した被写体について撮影を行い画像ファイルが記憶されると(S0824;NO)、連続撮影が終了する。この際、連続撮影した画像ファイルとは別に、撮像順序を明確に示すために、1枚目に撮影した画像に被写体のフォーカス位置、撮像順序等の情報を重畳した画像ファイルを記憶することとしても良い(S0825)。撮像した画像ファイルは、ファイル名を通常撮影した場合の画像ファイルと異なり、連続撮影された画像ファイルであることを直感的に認識しうるファイル名で保存することが望ましい。例えば、「AAA_01.jpg」、「AAA_02.jpg」というように、同一の識別子と連番であることを示す識別子とを組み合わせてファイル名とする。また、画像ファイルを不揮発性メモリに格納する前に、揮発性メモリに一時的に格納した段階でユーザが必要な画像ファイルを選択し、不必要な画像ファイルは不揮発性メモリに保存せずに揮発メモリから削除するようにしても良い。 When the shutter switch is turned on in the state where the above processing is completed (S0814), the CPU loads and starts the control program stored in the nonvolatile memory in the work area of the volatile memory. The control program refers to the in-focus information stored in the non-volatile memory, reads the display position of the subject whose imaging order is No. 1 (S0815), and sets the focus of the imaging device so that the subject is in focus At the same time, the aperture is set (S0816). When the imaging apparatus includes an imaging condition reacquisition unit and the reacquisition execution flag = 1 (S0817; YES), AF, AE, etc. are performed again at the position of the first subject to acquire the imaging conditions again. (S0818, S0819). When the setting of the imaging device is completed, the shutter is driven (S0820), exposed (S0821), and imaging is performed. When imaging is performed, an image file is read from the imaging device (S0822) and stored in the nonvolatile memory (S0823). When the image file is stored in the non-volatile memory, the process proceeds to the imaging operation for the next subject, and the control program performs the same processing for the second subject (S0824; YES). When all the selected subjects are photographed and the image file is stored (S0824; NO), the continuous photographing ends. At this time, in order to clearly indicate the imaging order, an image file in which information such as the focus position of the subject and the imaging order is superimposed on the first image may be stored separately from the continuously captured image file. Good (S0825). It is desirable to store the captured image file with a file name that allows the user to intuitively recognize that the file name is a continuously captured image file, unlike an image file when the file name is normally captured. For example, a file name is formed by combining the same identifier and an identifier indicating a serial number, such as “AAA — 01.jpg” and “AAA — 02.jpg”. Also, before storing the image file in the non-volatile memory, the user selects a necessary image file at the stage of temporarily storing it in the volatile memory, and the unnecessary image file is volatilized without being saved in the non-volatile memory. It may be deleted from the memory.
撮像後の画像は、設定した撮像順序に応じて記憶されるため、どのような順番でいずれの被写体にピントが合わされたものであるかをユーザは撮像前に知ることができる。このため、撮像後にピントが合った画像ファイルを即座にその被写体である者に送信して渡すことなどができる。このため、撮像後にその被写体である者に画像ファイルを送信して渡す場合などには、ユーザが定めた撮像順序又は、ディスプレイ上に表示された撮像順序に基づいて、連続撮像した画像の中から即座にその者にピントが合わされている画像を探し出すことができる。 Since the captured image is stored in accordance with the set imaging order, the user can know in what order and which subject is focused before imaging. For this reason, an image file in focus after imaging can be immediately transmitted to a person who is the subject and passed. For this reason, when an image file is transmitted and passed to a person who is the subject after imaging, the image is continuously picked up from images continuously captured based on the imaging order determined by the user or the imaging order displayed on the display. You can instantly find an image that is in focus for that person.
なお、以上のハードウェア構成及び処理の具体例は一例であり、他の同様なハードウェア構成にて本件発明を実現しても良い。 Note that the specific examples of the hardware configuration and processing described above are merely examples, and the present invention may be implemented with other similar hardware configurations.
(実施形態1の効果)以上のような構成をとる本実施形態の撮像装置では、連続的にピントを合わせて撮影する被写体を選択して撮像順序を決定し、決定した撮像順序で撮像が行われるため、いずれの被写体にもピントが合っていない無駄な画像を取得することがなく、撮像したい被写体だけにピントを合わせて最適な順序で効率的に撮像処理を行うことができる。 (Effect of Embodiment 1) In the imaging apparatus of the present embodiment having the above-described configuration, an imaging order is determined by selecting subjects to be continuously focused, and imaging is performed in the determined imaging order. Therefore, it is possible to efficiently perform imaging processing in an optimal order by focusing only on the subject to be imaged without acquiring a useless image in which no subject is in focus.
≪実施形態2≫(実施形態2の概念)実施形態2について説明する。実施形態2では、実施形態1の撮像装置を基本とし、被写体のフォーカス距離により撮像順序を決定する点に特徴を有する撮像装置について説明する。
<<
(実施形態2の構成)図9に本実施形態にかかる撮像装置の機能ブロック図を示す。本実施形態にかかる「撮像装置」(0900)は、「撮像条件取得部」(0901)と、「撮像部」(0902)と、「撮像順序決定部」(0903)と、「制御部」(0904)とを基本とし、さらに、撮像順序決定部が「フォーカス距離依存決定手段」(0905)を有することを特徴とする。 (Configuration of Second Embodiment) FIG. 9 is a functional block diagram of an image pickup apparatus according to this embodiment. The “imaging device” (0900) according to the present embodiment includes an “imaging condition acquisition unit” (0901), an “imaging unit” (0902), an “imaging order determination unit” (0903), and a “control unit” ( 0904), and the imaging order determining unit includes “focus distance dependency determining means” (0905).
(実施形態2の構成の説明)「フォーカス距離依存決定手段」(0905)は、撮像装置と各被写体のフォーカス距離に応じて撮像順序を決定するように構成されている。図10は、フォーカス距離に応じて撮像順序を決定する方法の具体例である。まず、複数の被写体が撮像領域に表示された状態において(図10(a))、カーソルを表示し、カーソルの操作で複数の被写体の中からピントを合わせて撮像を行いたい被写体にカーソルを合わせて複数の被写体を選択する(図10(b))。すなわち、図10(b)に表示された数字は被写体の選択順を示している。このとき、ピント調整のためのフォーカス位置を被写体上の決定キーが押下された位置とし、AF機能等を利用して撮像装置から各被写体までのフォーカス距離を測定する。また、フォーカス位置はAF機能により被写体の顔が存在する領域を自動認識して決定することとしても良い。さらに、フォーカス距離以外の絞り値などの他の撮像条件についても取得しても良い。これをテーブル状に表したものを図11に示す。フォーカス距離依存決定手段では、図11のように各被写体に対応するフォーカス距離が取得されると、フォーカス距離の近い順又は遠い順に撮像順序を決定する。例えば、フォーカス距離の近い順に撮像順序を決定する場合には、図11に示すテーブルでは、2番目に選択された被写体のフォーカス距離が最も近いため、該被写体の撮像順序が1番目、ということになる。また、同様にして、他の撮像条件で撮像される被写体についてもフォーカス距離に応じて撮像順序が決定する。図10(c)は、フォーカス距離依存撮像手段によって決定された撮像順序を○数字にて表示している様子を示している。このように、決定された撮像順序は撮影前に表示されることが望ましい。 (Explanation of Configuration of Embodiment 2) “Focus distance dependency determining means” (0905) is configured to determine the imaging order according to the imaging apparatus and the focus distance of each subject. FIG. 10 is a specific example of a method for determining the imaging order according to the focus distance. First, in a state where a plurality of subjects are displayed in the imaging area (FIG. 10A), the cursor is displayed, and the cursor is moved to the subject to be imaged by focusing on the plurality of subjects by operating the cursor. Multiple subjects are selected (FIG. 10B). That is, the numbers displayed in FIG. 10B indicate the selection order of subjects. At this time, the focus position for focus adjustment is set to the position where the determination key on the subject is pressed, and the focus distance from the imaging device to each subject is measured using the AF function or the like. The focus position may be determined by automatically recognizing an area where the subject's face is present by the AF function. Furthermore, other imaging conditions such as an aperture value other than the focus distance may be acquired. This is shown in a table form in FIG. When the focus distance corresponding to each subject is acquired as shown in FIG. 11, the focus distance dependency determining means determines the imaging order in the order of closer or farther focus distance. For example, when the imaging order is determined in order of increasing focus distance, in the table shown in FIG. 11, since the focus distance of the second selected subject is the shortest, the imaging order of the subject is first. Become. Similarly, the imaging order of a subject that is imaged under other imaging conditions is determined according to the focus distance. FIG. 10C shows a state in which the imaging order determined by the focus distance-dependent imaging means is displayed with a numeral. As described above, it is desirable that the determined imaging order is displayed before imaging.
なお、フォーカス距離は近い順であっても良いし、遠い順であっても良い。フォーカス距離を近い順、あるいは遠い順として撮像条件を決定すると、連続撮影の際にフォーカシングレンズの移動時間を短くすることができ、より効率的に撮像デバイスの制御を行うことができる。 Note that the focus distance may be in the order of closeness or the order of distantness. When the imaging conditions are determined by setting the focus distance to the closest or farther order, the moving time of the focusing lens can be shortened during continuous shooting, and the imaging device can be controlled more efficiently.
また、フォーカス距離の遠い被写体よりもフォーカス距離が近い被写体の方が、同じ移動距離を移動した場合における撮像領域上の移動距離は大きくなる。すなわち、フォーカス距離が近い被写体は僅かに移動しただけでも撮像領域上の表示位置やフォーカス位置が大きく変化するが、フォーカス位置が遠くなるほど撮像領域上における被写体の動きの変化は小さくなる。すなわち、撮像条件取得部で取得した撮像条件を利用して撮像する場合には、フォーカス距離が近い被写体ほど早めに撮影することが望ましい。このため、フォーカス距離依存決定手段では、フォーカス距離の近い順に撮像順序を決定することが遠い順に決定する場合よりも望ましい。 In addition, a subject with a shorter focus distance than a subject with a longer focus distance has a larger movement distance on the imaging region when the same movement distance is moved. That is, even if the subject with a short focus distance moves slightly, the display position and the focus position on the imaging area change greatly, but the change in the movement of the object on the imaging area becomes smaller as the focus position becomes farther. In other words, when imaging using the imaging conditions acquired by the imaging condition acquisition unit, it is desirable to shoot an object with a shorter focus distance earlier. For this reason, in the focus distance dependency determining means, it is more preferable to determine the imaging order in the order of increasing focus distance than in the order of increasing distance.
撮像順序は、各被写体の選択作業中であっても、各被写体のフォーカス位置が定まれば即座に決定することも可能である。この場合には、被写体の選択時に取得したフォーカス位置に応じて撮像順序を適宜表示することとしても良い。例えば、図12に示すように、一の被写体を選択してAF機能によりフォーカス位置を取得すると、最初に選択された被写体は、他の被写体が選択されていない状態であれば、撮像順序は必然的に1番目となる。このため、撮像領域を表示しているディスプレイ上には撮像順序を示す○数字1を被写体の近傍(又は選択するために決定キーが押下された位置、以下同じ)に表示する(図12(a))。次に別の被写体を選択すると、この2番目に選択した被写体についてAF機能によりフォーカス位置を取得する。そして、2番目に取得したフォーカス距離と1番目に取得したフォーカス距離とを比較し、2番目の被写体のフォーカス距離の方が近ければ、ディスプレイ上には、○数字1を2番目に選択した被写体の近傍に表示し、○数字2を1番目に選択した被写体の近傍に表示する(図12(b))。一方、2番目に取得したフォーカス距離の方が遠ければディスプレイ上には○数字2を当該2番目の被写体の近傍に表示する(図12(c))。このようにして被写体の選択の旅にフォーカス距離を測定して撮像順序を表示した場合、ユーザは選択と同時にフォーカス距離に応じた撮像順序を確認することができる。
The imaging order can be determined immediately even if each subject is being selected, once the focus position of each subject is determined. In this case, the imaging order may be appropriately displayed according to the focus position acquired when the subject is selected. For example, as shown in FIG. 12, when one subject is selected and the focus position is acquired by the AF function, the imaging order is inevitably if the first selected subject is in a state where no other subject is selected. First. For this reason, on the display displaying the imaging region, the
なお、撮像装置のAF機能などにより、複数の被写体が存在する位置を自動で検出することができるのであれば、被写体の検出と各被写体にピントを合わせた撮像順序の決定を自動で行うことも可能である。ただし、例えばフォーカス距離の近い順に撮像順序が定められる、といった所定のルールにて撮像順序が定められることをディスプレイ上に表示するなどして予めユーザに知らせる手段を備えるか、所定のルールで定められた撮像順序を上記のようにディスプレイ上に表示することが望ましい。 If the position where a plurality of subjects exist can be automatically detected by the AF function of the imaging device or the like, the detection of the subject and the determination of the imaging order in which each subject is focused can be automatically performed. Is possible. However, for example, it is provided with means for notifying the user in advance by displaying on the display that the imaging order is determined according to a predetermined rule such that the imaging order is determined in order of increasing focus distance, or determined according to the predetermined rule. It is desirable to display the imaging order on the display as described above.
上記の被写体の選択においては、実施形態1に記載したように、カーソルの代わりにタッチパネルを利用して選択しても良いし、撮像領域を12分割して携帯電話の「テンキー(0〜9)、*、#」の12のキーを利用して選択しても良いし、多点測距を利用して選択しても良い。ピントを合わせる被写体を選択した後の撮像順序の決定方法は上記カーソルの場合と同様である。 In the above-described subject selection, as described in the first embodiment, the touch panel may be used instead of the cursor, or the imaging area is divided into 12 and the “ten keys (0 to 9) of the mobile phone are divided. , *, # ”May be selected using twelve keys, or multipoint ranging may be used for selection. The method for determining the imaging order after selecting the subject to be focused is the same as in the case of the cursor.
(実施形態2のハードウェア構成)図13に本実施形態の撮像装置のハードウェア構成を示す。本撮像装置の構成要素である各部は、ハードウェアとハードウェア上で実行可能なソフトウェアからなる。ハードウェアとしては、演算処理を行うCPU(1301)、ソフトウェアや各データを一時的に記録するための揮発性メモリ(1302)、ソフトウェアなどの各データを記録するための不揮発性メモリ(1303)、撮像を行う撮像素子やレンズ絞りシャッターなどからなる撮像デバイス(1304)、データの入出力を行うためのI/Oデバイス(1305)、これらを繋ぐシステムバス(1306)などからなる。I/Oデバイスには必要に応じて十字キーやタッチパネルや、ファインダーとして撮像領域を表示するディスプレイ等が接続される。また、ソフトウェアとしては、撮像順序を決定するための撮像順序決定プログラム、撮像順序に応じて撮像動作を制御する制御プログラム等である。ただし、本実施形態の撮像順序決定プログラムは、撮像装置と各被写体のフォーカス距離に応じて撮像順序を決定するフォーカス距離依存決定機能が付加されている点で実施形態1の撮像順序決定プログラムとは相違する。これらのプログラムは、不揮発性メモリの所定のアドレスA1、A2に格納されており、必要に応じて揮発性メモリの所定のアドレスa1、a2に展開されて、CPU(1301)による演算処理により動作する。不揮発性メモリや揮発性メモリには、上記プログラムの他にも、合焦点情報や撮像された画像ファイル等が記録される。 (Hardware Configuration of Embodiment 2) FIG. 13 shows the hardware configuration of the image pickup apparatus of this embodiment. Each unit, which is a component of the imaging apparatus, includes hardware and software that can be executed on the hardware. As hardware, a CPU (1301) that performs arithmetic processing, a volatile memory (1302) for temporarily recording software and each data, a non-volatile memory (1303) for recording each data such as software, An image pickup device (1304) including an image pickup element for taking an image and a lens aperture shutter, an I / O device (1305) for inputting and outputting data, a system bus (1306) for connecting them, and the like. The I / O device is connected to a cross key, a touch panel, a display for displaying an imaging area as a finder, or the like as necessary. The software includes an imaging order determination program for determining the imaging order, a control program for controlling the imaging operation in accordance with the imaging order, and the like. However, the imaging order determination program according to the first embodiment is different from the imaging order determination program according to the first embodiment in that a focus distance dependency determination function for determining an imaging order according to the focus distance between the imaging apparatus and each subject is added. Is different. These programs are stored at predetermined addresses A1 and A2 of the non-volatile memory, and are expanded to predetermined addresses a1 and a2 of the volatile memory as necessary, and operate by arithmetic processing by the CPU (1301). . In addition to the above programs, in-focus information and captured image files are recorded in the nonvolatile memory and volatile memory.
本撮像装置を構成する撮像条件取得部及び撮像部は撮像デバイスなどからなり、撮像順序決定部及びフォーカス距離依存決定手段はCPU及び各メモリと撮像順序決定プログラムなどからなり、制御部はCPU及び各メモリと制御プログラムなどからなる。以下、本撮像装置の処理を具体的に説明する。 The imaging condition acquisition unit and the imaging unit constituting the imaging apparatus include an imaging device, the imaging order determination unit and the focus distance dependency determination unit include a CPU, each memory, an imaging order determination program, and the like. Consists of memory and control program. Hereinafter, the processing of the imaging apparatus will be specifically described.
(実施形態2の具体例)図14を用いて本撮像装置の具体的な処理の流れを説明する。本撮像装置では、複数の被写体を選択して再取得実行フラグを付す処理まで(S1401〜S1413)は実施形態1の具体例における処理と同様である。そして、撮像順序決定プログラムのフォーカス距離依存決定機能を利用して、フォーカス距離に応じた撮像順序の並び替えを行う場合には、被写体のフォーカス位置の近い順に並び替えを行うか(S1427)、フォーカス位置の遠い順に並び替えを行うか(S1428)などの選択を受け付ける(S1426)。フォーカス距離の近い順に並び替えを行う指示を受け付けた場合には、不揮発性メモリの合焦点情報からフォーカス距離情報を読み出し、フォーカス距離の近い順に撮像順序を決定する。同様に、フォーカス距離の遠い順に並び替えを行う指示を受け付けた場合には、不揮発性メモリの合焦点情報からフォーカス距離情報を読み出し、フォーカス距離の遠い順に撮像順序を決定する。フォーカス距離に応じて並び替えを行わない場合には、実施形態1と同様に、撮像順序は被写体を選択した順番で決定する。以降の処理(S1414〜S1425)は実施形態1と同様であるため説明を省略する。 (Specific Example of Embodiment 2) A specific processing flow of the imaging apparatus will be described with reference to FIG. In the present imaging apparatus, the processes from selecting a plurality of subjects and attaching a reacquisition execution flag (S1401 to S1413) are the same as the processes in the specific example of the first embodiment. Then, when rearranging the imaging order according to the focus distance using the focus distance dependency determination function of the imaging order determination program, is the rearrangement in order of the focus position of the subject (S1427) or the focus? Selection such as whether to rearrange in order of increasing position (S1428) is accepted (S1426). When an instruction to rearrange the images in order from the closest focus distance is received, the focus distance information is read from the in-focus information in the nonvolatile memory, and the imaging order is determined in the order from the closest focus distance. Similarly, when an instruction to rearrange in order of increasing focus distance is received, the focus distance information is read from the in-focus information of the nonvolatile memory, and the imaging order is determined in order of increasing focus distance. When rearrangement is not performed according to the focus distance, the imaging order is determined in the order in which the subject is selected, as in the first embodiment. Subsequent processes (S1414 to S1425) are the same as those in the first embodiment, and thus description thereof is omitted.
フォーカス距離に応じて撮像順序を決定した場合には、連続撮影の際にフォーカシングレンズの移動時間を短くすることができ、より効率的に撮像デバイスの制御を行うことができる。また、フォーカス距離が近い順に撮像順序を決定した場合には、移動の影響が大きい近い被写体から撮像することができるため、被写体の移動によるフォーカス位置のずれなどを極力抑えることができる。また、撮像後の画像は、被写体のフォーカス距離に応じた撮像順序にて記憶されるため、どのような順番でいずれの距離の被写体にピントが合わされて撮像されているかをユーザは撮像前に知ることができる。このため、撮像後にその被写体である者にピントが合った画像ファイルを送信して渡す場合などには、フォーカス距離又はフォーカス距離に応じてディスプレイ上に表示された撮像順序に基づいて、連続撮像した画像の中から即座にその者にピントが合わされている画像を探し出すことができる。 When the imaging order is determined according to the focus distance, the moving time of the focusing lens can be shortened during continuous shooting, and the imaging device can be controlled more efficiently. In addition, when the imaging order is determined in order of increasing focus distance, it is possible to capture images from a close subject having a large influence of movement, and therefore, it is possible to suppress the shift of the focus position due to the movement of the subject as much as possible. In addition, since the captured images are stored in the imaging order corresponding to the focus distance of the subject, the user knows in what order the subject at which distance is focused and imaged before imaging. be able to. For this reason, when an image file in focus is transmitted to the person who is the subject after imaging, the image is continuously captured based on the focus distance or the imaging order displayed on the display according to the focus distance. It is possible to immediately find an image in which the person is in focus from among the images.
なお、以上のハードウェア構成及び処理の具体例は一例であり、他の同様なハードウェア構成にて本件発明を実現しても良い。 Note that the specific examples of the hardware configuration and processing described above are merely examples, and the present invention may be implemented with other similar hardware configurations.
(実施形態2の効果)以上のような構成をとる本実施形態の撮像装置では、実施形態1の効果に加えて、撮像順序を被写体のフォーカス距離に応じて並び替えることができる。このため、連続撮影の際にフォーカシングレンズの移動時間を短くすることができ、より効率的に撮像デバイスの制御を行うことができる。また、被写体の移動によるフォーカス位置のずれなどを極力抑えることができる (Effects of Second Embodiment) In addition to the effects of the first embodiment, the image pickup apparatus having the above-described configuration can rearrange the imaging order according to the focus distance of the subject. For this reason, the moving time of the focusing lens can be shortened during continuous shooting, and the imaging device can be controlled more efficiently. In addition, it is possible to minimize the shift of the focus position due to the movement of the subject.
≪実施形態3≫(実施形態3の概念)実施形態3について説明する。実施形態3では、実施形態1又は2の撮像装置を基本とし、被写体の顔領域の大きさにより撮像順序を決定する点に特徴を有する撮像装置について説明する。
<<
(実施形態3の構成)図15に本実施形態にかかる撮像装置の機能ブロック図を示す。本実施形態にかかる「撮像装置」(1500)は、「撮像条件取得部」(1501)と、「撮像部」(1502)と、「撮像順序決定部」(1503)と、「制御部」(1504)と、「顔領域認識部」(1505)を有し、撮像順序決定部が「顔領域依存決定手段」(1506)を有することを特徴とする。また、実施形態2に記載した各構成を有することとしても良い。
(Configuration of Third Embodiment) FIG. 15 is a functional block diagram of an image pickup apparatus according to the present embodiment. The “imaging device” (1500) according to the present embodiment includes an “imaging condition acquisition unit” (1501), an “imaging unit” (1502), an “imaging order determination unit” (1503), and a “control unit” ( 1504) and a “face area recognizing unit” (1505), and the imaging order determining unit includes “face area dependence determining means” (1506). Moreover, it is good also as having each structure described in
(実施形態3の構成の説明)「顔領域認識部」(1505)は、撮像領域の被写体の顔領域を認識するように構成されている。「顔領域」とは、撮影領域上の被写体の顔が占める領域である。顔領域は、撮像領域として表示されたディスプレイ上の画像から、顔の輪郭形状、目、鼻、口、耳などの各パーツの距離間隔、肌の色情報などの情報を得て人間の顔として認識された領域である。 (Description of Configuration of Embodiment 3) The “face area recognition unit” (1505) is configured to recognize the face area of the subject in the imaging area. The “face area” is an area occupied by the face of the subject on the shooting area. The face area is obtained as a human face by obtaining information such as the contour shape of the face, the distance between each part of the eyes, nose, mouth, ears, and skin color information from the image on the display displayed as the imaging area. It is a recognized area.
「顔領域依存決定手段」(1506)は、撮像順序決定部(1503)が有し、撮像領域に占める前記顔領域認識部にて認識した顔領域が大きい順に撮像順序を決定する手段である。撮像領域において、一般的に撮像装置に近い被写体ほど撮像領域に占める顔領域が大きくなる。このため、顔領域が大きい順に撮像順序を決定することで、近い被写体から順番にピントを合わせて撮像することができるので、実施形態2のフォーカス距離の近い順に撮像順序を決定する場合と同様の効果が期待できる。すなわち、連続撮影の際にフォーカシングレンズの移動時間を短くすることができ、より効率的に撮像デバイスの制御を行うことや、被写体の移動によるフォーカス位置のずれなどを極力抑えることができる。また、子供や大人を同時に撮像する場合には、必ずしも撮像装置からの距離が近い順に顔領域の大きさが大きくなるとは限らない。しかし、このような場合でも、撮像時に撮像領域における各被写体の顔領域の大きさをディスプレイ等を利用して視覚的に確認することができるため、撮像時に直感的に撮像順序を確認することができる。また、顔領域により決定された撮像順序を、ディスプレイ上に表示することで、より確実に撮像順序を利用者に知らせることができる。 The “face area dependence determining unit” (1506) is a unit that the imaging order determining unit (1503) has, and determines the imaging order in descending order of the face areas recognized by the face area recognition unit in the imaging area. In the imaging area, the face area that occupies the imaging area generally increases as the subject is closer to the imaging apparatus. For this reason, by determining the imaging order in descending order of the face area, it is possible to focus on images in order from the closest subject, so that the imaging order is determined in the order from the closest focus distance in the second embodiment. The effect can be expected. That is, the moving time of the focusing lens can be shortened during continuous shooting, and the imaging device can be controlled more efficiently, and the shift of the focus position due to the movement of the subject can be suppressed as much as possible. In the case of simultaneously capturing images of children and adults, the size of the face area does not necessarily increase in order of increasing distance from the imaging device. However, even in such a case, since the size of the face area of each subject in the imaging area can be visually confirmed using a display or the like during imaging, it is possible to intuitively confirm the imaging order during imaging. it can. Further, by displaying the imaging order determined by the face area on the display, the imaging order can be more reliably notified to the user.
図16は、顔領域の大きさにより撮像順序を決定し、決定した撮像順序をディスプレイ上に表示する場合の具体例の一つを示す。まず、実施形態1又は2に記載の方法等を利用して、ピントを合わせて撮像する被写体を選択する。ユーザの選択によらず、自動で被写体を認識するようにしても良い。この際に図16(a)に示すように、被写体を選択した順番を表示するようにしても良い。被写体の選択に応じて、ディスプレイ上の各被写体の顔領域が占める範囲をフレームで表示する。被写体の選択が終了すると、自動又はユーザからの指示により、顔領域依存決定手段を利用して顔領域の占める大きさに応じて撮像順序が決定される。顔領域の大きさは、顔領域として認識された範囲のピクセル数を計測したり、顔領域を示すフレームが占める面積を計測したりすることで算出することができる。図16(b)の○数字は算出された被写体の顔領域の大きい順に決定した撮像順序を表示している。これにより、ユーザは、撮像前にディスプレイ上に表示された撮像領域に占める顔領域の大きさからピントを合わせて撮像する被写体の順番を確認することができる。なお、決定された撮像順序は、ディスプレイ上に表示されることが望ましい。撮像順序を表示することで、より撮像順序を正確にユーザに知らせることができる。 FIG. 16 shows one specific example in the case where the imaging order is determined based on the size of the face area, and the determined imaging order is displayed on the display. First, using the method described in the first or second embodiment, a subject to be focused and selected is selected. The subject may be automatically recognized regardless of the user's selection. At this time, as shown in FIG. 16A, the order in which the subjects are selected may be displayed. The range occupied by the face area of each subject on the display is displayed in a frame according to the selection of the subject. When the selection of the subject is completed, the imaging order is determined in accordance with the size occupied by the face area using the face area dependence determining means either automatically or in accordance with an instruction from the user. The size of the face area can be calculated by measuring the number of pixels in the range recognized as the face area, or by measuring the area occupied by the frame indicating the face area. The numbers in FIG. 16B indicate the imaging order determined in descending order of the calculated face area of the subject. Thereby, the user can confirm the order of subjects to be imaged by focusing on the size of the face area occupied in the imaging area displayed on the display before imaging. Note that the determined imaging order is desirably displayed on the display. By displaying the imaging order, the user can be more accurately notified of the imaging order.
(実施形態3のハードウェア構成)図17に本実施形態の撮像装置のハードウェア構成を示す。本撮像装置の構成要素である各部は、ハードウェアとハードウェア上で実行可能なソフトウェアからなる。ハードウェアとしては、演算処理を行うCPU(1701)、ソフトウェアや各データを一時的に記録するための揮発性メモリ(1702)、ソフトウェアなどの各データを記録するための不揮発性メモリ(1703)、撮像を行う撮像素子やレンズ絞りシャッターなどからなる撮像デバイス(1704)、データの入出力を行うためのI/Oデバイス(1705)、これらを繋ぐシステムバス(1706)などからなる。I/Oデバイスには必要に応じて十字キーやタッチパネルや、ファインダーとして撮像領域を表示するディスプレイ等が接続される。また、ソフトウェアとしては、撮像順序を決定するための撮像順序決定プログラム、撮像順序に応じて撮像動作を制御する制御プログラム、顔領域の大きさを認識する顔領域認識プログラム等である。ただし、本実施形態の撮像順序決定プログラムは、撮像領域に占める顔領域の大きさに応じて撮像順序を決定する顔領域依存決定機能が付加されている点で実施形態1又は2の撮像順序決定プログラムとは相違する。これらのプログラムは、不揮発性メモリの所定のアドレスA1、A2、A3に格納されており、必要に応じて揮発性メモリの所定のアドレスa1、a2、a3に展開されて、CPU(1701)による演算処理により動作する。不揮発性メモリや揮発性メモリには、上記プログラムの他にも、合焦点情報や撮像された画像ファイル等が記録される。 (Hardware Configuration of Embodiment 3) FIG. 17 shows the hardware configuration of the image pickup apparatus of this embodiment. Each unit, which is a component of the imaging apparatus, includes hardware and software that can be executed on the hardware. As hardware, a CPU (1701) that performs arithmetic processing, a volatile memory (1702) for temporarily recording software and each data, a non-volatile memory (1703) for recording each data such as software, An image pickup device (1704) including an image pickup element for picking up an image and a lens aperture shutter, an I / O device (1705) for inputting and outputting data, a system bus (1706) for connecting them, and the like. The I / O device is connected to a cross key, a touch panel, a display for displaying an imaging area as a finder, or the like as necessary. The software includes an imaging order determination program for determining the imaging order, a control program for controlling the imaging operation according to the imaging order, a face area recognition program for recognizing the size of the face area, and the like. However, the imaging order determination program according to the present embodiment is provided with a face area dependency determination function that determines the imaging order according to the size of the face area in the imaging area. It is different from the program. These programs are stored at predetermined addresses A1, A2, and A3 of the nonvolatile memory, and are expanded to predetermined addresses a1, a2, and a3 of the volatile memory as necessary, and are calculated by the CPU (1701). It works by processing. In addition to the above programs, in-focus information and captured image files are recorded in the nonvolatile memory and volatile memory.
本撮像装置を構成する撮像条件取得部及び撮像部は撮像デバイスなどからなり、撮像順序決定部及びフォーカス距離依存決定手段はCPU及び各メモリと撮像順序決定プログラムなどからなり、制御部はCPU及び各メモリと制御プログラムなどからなり、顔領域認識部はCPU及び各メモリと顔領域認識プログラムなどからなる。以下、本撮像装置の処理を具体的に説明する。 The imaging condition acquisition unit and the imaging unit constituting the imaging apparatus include an imaging device, the imaging order determination unit and the focus distance dependency determination unit include a CPU, each memory, an imaging order determination program, and the like. The face area recognition unit includes a CPU, each memory and a face area recognition program. Hereinafter, the processing of the imaging apparatus will be specifically described.
(実施形態3の具体例)図18を用いて本撮像装置の具体的な処理の流れを説明する。本撮像装置では、複数の被写体を選択して再取得実行フラグを付す処理まで(S1801〜S1813)は実施形態1の具体例における処理と同様である。ただし、被写体の選択(S1805)の後、撮像順序及び被写体の位置と共に顔領域認識プログラムにより認識された顔領域の大きさについても記憶しておく。そして、撮像順序決定プログラムの顔領域依存決定機能を利用して、顔領域の大きさに応じた撮像順序の並び替えを行う場合(S1826;YES)には、顔領域の大きい順に撮像順序の並び替えを行い撮像順序を決定する(S1827)。顔領域の大きさに応じて並び替えを行わない場合(S1826;NO)には、実施形態1と同様に、撮像順序は被写体を選択した順番で決定する。以降の処理(S1814〜S1825)は実施形態1と同様であるため説明を省略する。 (Specific Example of Embodiment 3) A specific processing flow of the imaging apparatus will be described with reference to FIG. In the present imaging apparatus, the processing up to the processing of selecting a plurality of subjects and attaching a reacquisition execution flag (S1801 to S1813) is the same as the processing in the specific example of the first embodiment. However, after the selection of the subject (S1805), the size of the face area recognized by the face area recognition program is stored together with the imaging order and the position of the subject. When rearrangement of the imaging order according to the size of the face area is performed using the face area dependence determination function of the imaging order determination program (S1826; YES), the imaging order is arranged in descending order of the face area. The order is changed and the imaging order is determined (S1827). When the rearrangement is not performed according to the size of the face area (S1826; NO), as in the first embodiment, the imaging order is determined in the order in which the subject is selected. Subsequent processes (S1814 to S1825) are the same as those in the first embodiment, and thus description thereof is omitted.
顔領域の大きさに応じて撮像順序を決定した場合には、撮像後の画像は、被写体の顔領域の大きい順の撮像順序にて記憶されるため、どのような順番でいずれの被写体にピントが合わされて撮像されているかをユーザは撮像前に知ることができる。このため、撮像後にその被写体である者に画像ファイルを送信して渡す場合などには、顔領域の大きさ又は、顔領域の大きさに応じてディスプレイ上に表示された撮像順序に基づいて、連続撮像した画像の中から即座にその者にピントが合わされている画像を探し出すことができる。 When the imaging order is determined according to the size of the face area, the captured images are stored in the order of imaging in descending order of the face area of the subject. The user can know whether or not images are captured before imaging. For this reason, when sending an image file to the person who is the subject after imaging, for example, based on the size of the face area or the imaging order displayed on the display according to the size of the face area, An image in which the person is in focus can be found immediately from images that have been continuously captured.
なお、以上のハードウェア構成及び処理の具体例は一例であり、他の同様なハードウェア構成にて本件発明を実現しても良い。 Note that the specific examples of the hardware configuration and processing described above are merely examples, and the present invention may be implemented with other similar hardware configurations.
(実施形態3の効果)以上のような構成をとる本実施形態の撮像装置では、実施形態1の効果に加えて、撮像順序を被写体の顔領域の大きさに応じて並び替えることができる。このため、連続撮影の際にフォーカシングレンズの移動時間を短くすることができ、より効率的に撮像デバイスの制御を行うことや、被写体の移動によるフォーカス位置のずれなどを極力抑えることができる。さらに、被写体が撮像される順番がより分かりやすくなり、ユーザの利便性が向上する。 (Effect of Embodiment 3) In addition to the effects of the first embodiment, the imaging apparatus of the present embodiment having the above-described configuration can rearrange the imaging order according to the size of the face area of the subject. For this reason, the moving time of the focusing lens can be shortened during continuous shooting, and the imaging device can be controlled more efficiently and the shift of the focus position due to the movement of the subject can be suppressed as much as possible. Furthermore, the order in which the subject is imaged becomes easier to understand, and the convenience for the user is improved.
≪実施形態4≫(実施形態4の概念)実施形態4について説明する。実施形態4では、実施形態1から3の撮像装置のいずれかを基本とし、取得した被写体の顔画像情報により撮像順序を決定する点に特徴を有する撮像装置について説明する。
<<
(実施形態4の構成)図19に本実施形態にかかる撮像装置の機能ブロック図を示す。本実施形態にかかる「撮像装置」(1900)は、「撮像条件取得部」(1901)と、「撮像部」(1902)と、「撮像順序決定部」(1903)と、「制御部」(1904)と、「顔画像情報保持部」(1905)と、「被写体顔画像情報取得部」(1906)と、「顔画像情報比較部」(1907)を有し、撮像順序決定部が「顔画像情報依存決定手段」(1908)を有することを特徴とする。また、顔画像情報保持部は「応答頻度情報保持手段」(1909)を、撮像順序決定部は「応答頻度情報依存決定手段」(1910)を上記構成に加えて有していても良い。さらに、顔画像情報保持部が「メールアドレス保持手段」(1911)を有し、「撮像画像送信部」(1912)を上記構成に加えて有していても良い。また、実施形態2又は3に記載した各構成を有することとしても良い。
(Configuration of Embodiment 4) FIG. 19 is a functional block diagram of an image pickup apparatus according to this embodiment. The “imaging device” (1900) according to the present embodiment includes an “imaging condition acquisition unit” (1901), an “imaging unit” (1902), an “imaging order determination unit” (1903), and a “control unit” ( 1904), a “face image information holding unit” (1905), a “subject face image information acquisition unit” (1906), and a “face image information comparison unit” (1907). The image information dependence determining means ”(1908) is included. In addition to the above configuration, the face image information holding unit may include “response frequency information holding unit” (1909), and the imaging order determination unit may include “response frequency information dependency determining unit” (1910). Further, the face image information holding unit may include a “mail address holding unit” (1911) and a “captured image transmission unit” (1912) in addition to the above configuration. Moreover, it is good also as having each structure described in
(実施形態4の構成の説明)「顔画像情報保持部」(1905)は、顔画像情報を保持するように構成されている。顔画像情報とは、顔が表示された画像ファイルを含む情報である。例えば、撮像装置がデジタルカメラである場合には、過去に撮影した画像としてメモリに記憶されている画像のうち、顔が表示された画像ファイルがこれに該当し、撮像装置が携帯電話である場合には、携帯電話のアドレス帳などに記憶されている顔画像ファイルなどがこれに該当する。顔画像情報としては、目、鼻、口、顔の輪郭等の顔の特徴点を抽出して画像ファイルと共に保持していても良い。 (Description of Configuration of Embodiment 4) The “face image information holding unit” (1905) is configured to hold face image information. The face image information is information including an image file displaying a face. For example, when the imaging device is a digital camera, among the images stored in the memory as images taken in the past, the image file displaying the face corresponds to this, and the imaging device is a mobile phone Corresponds to a face image file stored in an address book of a mobile phone. As the face image information, facial feature points such as eyes, nose, mouth and face outline may be extracted and held together with the image file.
「被写体顔画像情報取得部」(1906)は、撮像領域の被写体の顔画像情報である被写体顔画像情報を取得するように構成されている。被写体顔画像情報取得部は、撮像領域の被写体の顔領域を認識し、認識した顔領域に表示された画像を取得することで被写体顔画像情報を取得する。被写体顔画像情報取得部では、顔画像情報を取得する被写体をユーザが選択することとしても良いが、撮像装置にて自動で人物の顔を検出して被写体顔画像情報を取得することとしても良い。 The “subject face image information acquisition unit” (1906) is configured to acquire subject face image information that is face image information of a subject in the imaging region. The subject face image information acquisition unit recognizes the face area of the subject in the imaging area, and acquires subject face image information by acquiring an image displayed in the recognized face area. In the subject face image information acquisition unit, the user may select the subject from which the face image information is to be acquired. Alternatively, the subject face image information may be acquired by automatically detecting a human face with the imaging device. .
「顔画像情報比較部」(1907)は、前記顔画像情報保持部に保持された顔画像情報と、前記被写体顔画像情報取得部にて取得された被写体顔画像情報とを比較するように構成されている。被写体顔画像情報取得部にて被写体顔画像情報を取得すると、顔画像情報比較部では、まず、取得した被写体顔画像情報から被写体の目、鼻、口、顔の輪郭等を特徴点として抽出する。そして、抽出された特徴点を顔画像情報保持部に保持されている顔画像情報と比較し、特徴点の一致不一致などから被写体顔画像情報にて表される人物の画像が、顔画像情報保持部に保持されている画像の中の人物に一致するか否かを判断する。なお、特開2004−320286号公報などにより既に顔認証技術については開示されている通りである。上記比較した結果、特徴点の所定割合以上が合致する場合には、比較した両者は同一人物であるとの比較結果が出力される。なお、本実施形態における同一人物であるか否かの比較技術は、セキュリティ等に応用するものではないため、必ずしも厳密な同一性までを要求するものではない。このため、比較結果は、親子や兄弟姉妹など似ている人物を同一人物とみなす程度の誤差を許容するものである。 The “face image information comparison unit” (1907) is configured to compare the face image information held in the face image information holding unit with the subject face image information acquired by the subject face image information acquisition unit. Has been. When the subject face image information is acquired by the subject face image information acquisition unit, the face image information comparison unit first extracts the subject's eye, nose, mouth, face outline, etc. as feature points from the acquired subject face image information. . Then, the extracted feature points are compared with the face image information held in the face image information holding unit, and the image of the person represented by the subject face image information from the matching / mismatching of the feature points is stored in the face image information. It is determined whether or not it matches the person in the image held in the section. Note that face authentication technology is already disclosed in Japanese Patent Application Laid-Open No. 2004-320286. As a result of the comparison, if a predetermined ratio or more of the feature points match, a comparison result indicating that the compared two are the same person is output. Note that the comparison technique for determining whether or not they are the same person in the present embodiment does not apply to security or the like, and therefore does not necessarily require strict identity. For this reason, the comparison result allows an error to the extent that similar persons such as parents and siblings are regarded as the same person.
「顔画像情報依存決定手段」(1908)は、前記撮像順序決定部が有し、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、該人物の撮像順序を他の被写体よりも上位にする手段である。 The “face image information dependency determining means” (1908) is included in the imaging order determining unit, and determines that the acquired subject face image information and the held face image information are the same person according to the comparison result. When there is a photographed subject, this means is a means for placing the person in the image capturing order higher than other subjects.
図20に顔画像情報依存決定手段を用いた場合の具体例を示す。なお、説明のため、図中の各被写体にA,B,Cの番号を付している。まず、撮像装置は、被写体顔画像情報取得部にて撮像領域に表示された顔画像を認識して、人物の顔が表示されている領域を顔フレームで表す。このとき、仮に、便宜上A,B,Cの順番で顔画像を認識したとして、この認識した順番を被写体に重ねて表示すると、図20(a)に示すように、A,B,Cの順番で1,2,3の番号が表示される。フォーカス領域は被写体の顔領域としている。この状態で、携帯電話の数字キー等を利用して被写体の撮像順序を選択することとしても良い(例えば、数字の「2」キーを押した場合には、被写体Bが撮像順序の1番目に選択されるなど)が、顔画像情報依存決定手段を備えている場合には、以下のように処理が行われる。
FIG. 20 shows a specific example when the face image information dependence determining means is used. For the sake of explanation, the numbers A, B, and C are given to each subject in the figure. First, the imaging apparatus recognizes the face image displayed in the imaging area by the subject face image information acquisition unit, and represents the area where the face of the person is displayed as a face frame. At this time, assuming that the face images are recognized in the order of A, B, and C for the sake of convenience, when the recognized order is superimposed on the subject, the order of A, B, and C is displayed as shown in FIG. The
まず、被写体画像情報取得部では、選択された被写体A,B,Cの被写体顔画像情報を取得し、顔画像情報比較部では、取得した画像を顔画像情報保持部にて保持されている顔画像情報と比較する。仮に、被写体B,Cの被写体顔画像情報が、顔画像情報保持部に保持されている顔画像情報との比較で同一人物であると判断された場合には、被写体B.Cの撮像順序を被写体Aよりも上位にする。本ケースでは、被写体B,Cの撮像順序を被写体Aよりも上位にし、被写体B,C間の順番は認識された順番とし、被写体B,C,Aの順番で撮像順序を決定する。図20(b)では、顔画像情報依存決定手段により決定された撮像順序を○数字にて撮像領域上に表示した場合を示している。 First, the subject image information acquisition unit acquires subject face image information of the selected subjects A, B, and C, and the face image information comparison unit stores the acquired image in the face image information holding unit. Compare with image information. If it is determined that the subject face image information of the subjects B and C is the same person as compared with the face image information held in the face image information holding unit, the subject B. The imaging order of C is set higher than the subject A. In this case, the imaging order of the subjects B and C is set higher than the subject A, the order between the subjects B and C is set as the recognized order, and the imaging order is determined in the order of the subjects B, C, and A. FIG. 20B shows a case where the imaging order determined by the face image information dependency determining means is displayed on the imaging area with a numeral.
「応答頻度情報保持手段」(1909)は、顔画像情報保持部が有し、顔画像情報とその顔画像情報で識別される人物の写真を撮影した回数、メール回数、電話回数のいずれか一以上の応答頻度を示す応答頻度情報を関連付けて保持する手段である。「顔画像情報で識別される人物の写真を撮影した回数」とは、顔画像情報保持部が保持している顔画像情報と合致した回数などで表すことができる。例えば、まず、ある人物Dを初めて撮影した際にその人物Dの顔画像から特徴的部分を抽出して顔画像情報として顔画像情報保持部にて保持し、人物Dの撮影回数のカウンターに1を設定する。そして、その後撮影した画像から同じように抽出した特徴点が人物Dの顔画像情報と一致すると、人物Dの撮影回数のカウンターを1増加し、2とする。このようにして撮影の度に特徴点を比較することで撮影回数をカウントすることができる。また、撮影回数ではなく、現在保持している撮像画像の中から人物Dが撮影されている画像枚数(画像ファイル数)をカウントしても良い。「メール回数」とは、電子メールの送受信回数や携帯電話を利用したメールサービス利用回数などで表すことができる。携帯電話を利用したメールサービスとは、各キャリアの利用者端末間など限られたキャリア同士でやり取りされるメッセージ交換サービスなどである。メール回数をカウントする場合には、少なくとも撮像装置が電子メール等の送受信機能を有することが必要である。「電話回数」とは、電話の発着信回数などで表すことができる。電話回数をカウントする場合には、少なくとも撮像装置が電話機能を有することが必要である。図21(a)にこれらの応答頻度情報と顔画像情報とをテーブル状に関連付けて保持している様子を示す。各情報にはIDを付して識別している。 The “response frequency information holding unit” (1909) is included in the face image information holding unit, and is any one of the number of times of taking the face image information and the photograph of the person identified by the face image information, the number of mails, and the number of calls. This is means for associating and holding response frequency information indicating the above response frequency. The “number of times a photograph of a person identified by face image information is taken” can be represented by the number of times the face image information held by the face image information holding unit is matched. For example, when a person D is photographed for the first time, a characteristic part is extracted from the face image of the person D and is stored as face image information in the face image information holding unit. Set. Then, when the feature points extracted in the same manner from the photographed image coincide with the face image information of the person D, the counter of the number of photographing times of the person D is incremented by 1, and is set to 2. In this way, the number of times of photographing can be counted by comparing the feature points at every photographing. In addition, the number of images (number of image files) in which the person D is captured from the currently held captured images may be counted instead of the number of times of capturing. The “number of times of mail” can be expressed by the number of times of sending / receiving e-mails, the number of times of using a mail service using a mobile phone, or the like. The mail service using a mobile phone is a message exchange service that is exchanged between limited carriers such as user terminals of each carrier. In order to count the number of mails, it is necessary that at least the imaging device has a transmission / reception function such as an electronic mail. The “number of calls” can be expressed by the number of incoming and outgoing calls. When counting the number of calls, at least the imaging device needs to have a telephone function. FIG. 21A shows a state in which these response frequency information and face image information are held in association with each other in a table form. Each information is identified with an ID.
「応答頻度情報依存決定手段」(1910)は、前記撮像順序決定部が有し、前記顔画像情報比較部での比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が複数存在する場合には、前記応答頻度の多い順に撮像順序を決定する手段である。「応答頻度の多い順に撮像順序を決定する」とは、応答頻度情報保持手段に保持されている応答頻度情報が、写真を撮影した回数、メール回数、電話回数いずれか一つであれば、単純に回数の多い者の順に撮像順序を決定する。また、写真を撮影した回数、メール回数、電話回数のいずれか二以上を有している場合には、応答頻度情報に優先順位を付すこととしても良い。例えば、まずは写真を撮影した回数の大小で撮像順序を決定し、写真を撮影した回数が同数の者が複数存在する場合には、メール回数の大小で撮像順序を決定するという具合である。また、各回数を単純に合計した回数を利用しても良いし、各回数に重み付けをして合計した回数を利用しても良い。 The “response frequency information dependence determining unit” (1910) is included in the imaging order determining unit, and in accordance with the comparison result in the face image information comparing unit, the acquired subject face image information and held face image information When there are a plurality of subjects that are determined to be the same person, the imaging order is determined in descending order of the response frequency. “Determine the imaging order in the order of frequency of response” means that the response frequency information stored in the response frequency information storage means is simple if the number of times the photo is taken, the number of emails, or the number of calls is one. The imaging order is determined in descending order of the number of times. In addition, when there are two or more of the number of times a photograph is taken, the number of emails, and the number of calls, priority may be given to the response frequency information. For example, first, the imaging order is determined based on the number of times a photograph is taken, and when there are a plurality of persons with the same number of photographs, the imaging order is determined based on the number of emails. In addition, the number of times obtained by simply summing each number of times may be used, or the number of times obtained by weighting each number may be used.
図20及び図21を用いて応答頻度情報に応じて撮像順序を決定する方法を説明する。図20(a)に示すように被写体A,B,Cがピントを合わせて撮像する被写体として選択された場合に、顔画像情報依存決定手段を利用して顔画像情報との比較結果に応じて被写体B,Cの撮像順序を上位にすることは既に説明した通りであるが、応答頻度情報依存決定手段では、さらに被写体B,C間の撮像順序を定めることができる。取得した被写体Bと被写体Cの被写体顔画像情報が、それぞれ顔画像情報保持部に保持されている「F−001」、「F−021」で表される顔画像情報と一致し、顔画像情報比較部にてそれぞれが同一人物であるとの比較結果が得られると、図21(a)に示すように、被写体B,Cはそれぞれ応答頻度情報のID「003」とID「028」が対応することがわかる。そして、図21(b)に示すように合焦点情報にID欄を設けて、対応するIDを入力する。応答頻度情報依存決定手段では、顔画像情報ID欄のIDに基づいて、応答頻度情報保持手段に保持されている応答頻度情報を参照する。本ケースでは、各応答回数の合計回数が多い順に撮像順序を決定するとすると、図21(a)に示す応答頻度情報が保持されている場合には、「ID:028」で表される被写体Cの方が「ID:003」で表される被写体Bよりも各応答回数の合計回数が多いため、被写体Cの撮像順序を上位にする。この結果、最終的に決定される撮像順序は被写体C,B,Aの順番となる。このとき、決定された撮像順序は、図20(c)に示すように撮像領域の被写体の近傍に表示されることが望ましい。 A method for determining the imaging order according to the response frequency information will be described with reference to FIGS. As shown in FIG. 20 (a), when subjects A, B, and C are selected as subjects to be focused and imaged, according to the comparison result with the face image information using the face image information dependence determining means. Although it has already been described that the imaging order of the subjects B and C is made higher, the response frequency information dependence determining means can further determine the imaging order between the subjects B and C. The acquired subject face image information of the subject B and the subject C matches the face image information represented by “F-001” and “F-021” held in the face image information holding unit, respectively. When the comparison unit obtains a comparison result that each person is the same person, as shown in FIG. 21A, the subjects B and C correspond to ID “003” and ID “028” of the response frequency information, respectively. I understand that And as shown in FIG.21 (b), an ID column is provided in focusing information, and corresponding ID is input. The response frequency information dependence determining means refers to the response frequency information held in the response frequency information holding means based on the ID in the face image information ID column. In this case, if the imaging order is determined in descending order of the total number of response times, the subject C represented by “ID: 028” is obtained when the response frequency information shown in FIG. Since the total number of response times is higher than that of the subject B represented by “ID: 003”, the imaging order of the subject C is set higher. As a result, the finally determined imaging order is the order of subjects C, B, and A. At this time, it is desirable that the determined imaging order is displayed in the vicinity of the subject in the imaging area as shown in FIG.
「メールアドレス保持手段」(1911)は、顔画像情報保持部が有し、顔画像情報とメールアドレスを関連付けて保持する手段である。「メールアドレス」とは、インターネットを利用して通信可能なメールアドレスのみならず、特定のキャリア間で利用可能なショートメールサービスのアドレス、携帯端末同士で赤外線通信やブルートゥース(登録商標)通信を行う場合の端末間の識別情報なども含まれる。顔画像情報保持部は、メールアドレス保持手段を有する場合には、図21(c)に示すように顔画像情報とメールアドレスを関連付けて保持する。なお、このとき、メールアドレスのみならず、そのメールアドレスと共に登録されている名称、電話番号なども保持していても良い。メールアドレス保持手段は、携帯電話などに備えているアドレス帳機能が該当する。また、図20(d)に示すように、顔画像情報と被写体顔画像情報が一致した場合には、メールアドレス保持手段を参照して、顔画像情報と関連付けられている登録名やメールアドレスを被写体に重畳表示するようにしても良い。 The “mail address holding means” (1911) is a means that the face image information holding unit has and holds the face image information and the mail address in association with each other. “Mail address” means not only mail addresses that can be communicated using the Internet, but also short mail service addresses that can be used between specific carriers, and infrared communication and Bluetooth (registered trademark) communication between mobile terminals. In addition, identification information between terminals is also included. When the face image information holding unit has the mail address holding means, the face image information and the mail address are held in association with each other as shown in FIG. At this time, not only the mail address but also a name and a telephone number registered together with the mail address may be held. The mail address holding means corresponds to an address book function provided in a mobile phone or the like. In addition, as shown in FIG. 20D, when the face image information and the subject face image information match, the registered address and mail address associated with the face image information are referred to by referring to the mail address holding means. You may make it superimpose on a to-be-photographed object.
「撮像画像送信部」(1912)は、前記顔画像情報比較部での比較結果に応じて、前記被写体顔画像情報取得部にて取得した被写体顔画像情報と前記顔画像情報保持部に保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、撮像部で該人物の撮像後に前記顔画像情報に関連付けられたメールアドレスに対して撮像画像を送信するように構成されている。前記顔画像情報比較部にて被写体顔画像情報と顔画像情報とが同一人物であると判断した被写体が存在する場合には、撮像画像送信部では、図21(c)に示すように、顔画像情報に関連付けられたメールアドレスを、メールアドレス保持手段を参照して取得する。そして、メール機能を起動し、該人物にピントが合わされた画像ファイルを添付して取得したメールアドレスを宛先として送信する。これにより、撮像後にユーザがメール機能を起動して該人物に画像ファイルを送信する手間が削減され、利便性が向上する。 The “captured image transmission unit” (1912) is held in the subject face image information acquired by the subject face image information acquisition unit and the face image information holding unit according to the comparison result in the face image information comparison unit. When there is a subject determined to be the same person as the face image information, the image pickup unit transmits the picked-up image to the mail address associated with the face image information after picking up the person Has been. When there is an object whose face image information and face image information are determined to be the same person by the face image information comparison unit, the captured image transmission unit, as shown in FIG. The mail address associated with the image information is acquired with reference to the mail address holding means. Then, the mail function is activated, and the mail address acquired by attaching the image file focused on the person is transmitted as the destination. As a result, it is possible to reduce the trouble of the user starting the mail function after image capturing and transmitting the image file to the person, and the convenience is improved.
(実施形態4のハードウェア構成)図22に本実施形態の撮像装置のハードウェア構成を示す。本撮像装置の構成要素である各部は、ハードウェアとハードウェア上で実行可能なソフトウェアからなる。ハードウェアとしては、演算処理を行うCPU(2201)、ソフトウェアや各データを一時的に記録するための揮発性メモリ(2202)、ソフトウェアなどの各データを記録するための不揮発性メモリ(2203)、撮像を行う撮像素子やレンズ絞りシャッターなどからなる撮像デバイス(2204)、データの入出力を行うためのI/Oデバイス(2205)、これらを繋ぐシステムバス(2206)などからなる。I/Oデバイスには必要に応じて十字キーやタッチパネルや、ファインダーとして撮像領域を表示するディスプレイ等が接続される。また、ソフトウェアとしては、撮像順序を決定するための撮像順序決定プログラム、撮像順序に応じて撮像動作を制御する制御プログラム、被写体顔画像情報を取得する被写体画像取得プログラム、顔画像情報を比較する顔画像情報比較プログラム等である。ただし、本実施形態の撮像順序決定プログラムは、顔画像情報の比較結果に応じて撮像順序を決定する顔画像情報依存決定機能が付加されている点で実施形態1から3の撮像順序決定プログラムとは相違する。撮像順序決定プログラムには、応答頻度情報依存決定機能を有していても良い。また、メール送信プログラムを有していても良い。これらのプログラムは、不揮発性メモリの所定のアドレスA1、A2、A3、A4、A5等に格納されており、必要に応じて揮発性メモリの所定のアドレスa1、a2、a3、a4、a5等に展開されて、CPUによる演算処理により動作する。不揮発性メモリや揮発性メモリには、上記プログラムの他にも、合焦点情報や撮像された画像ファイル等が記録される。
(Hardware Configuration of Embodiment 4) FIG. 22 shows the hardware configuration of the image pickup apparatus of this embodiment. Each unit, which is a component of the imaging apparatus, includes hardware and software that can be executed on the hardware. As hardware, a CPU (2201) that performs arithmetic processing, a volatile memory (2202) for temporarily recording software and each data, a non-volatile memory (2203) for recording each data such as software, An image pickup device (2204) including an image pickup element for taking an image and a lens aperture shutter, an I / O device (2205) for inputting and outputting data, and a system bus (2206) for connecting them are included. The I / O device is connected to a cross key, a touch panel, a display for displaying an imaging area as a finder, or the like as necessary. The software includes an imaging order determination program for determining an imaging order, a control program for controlling an imaging operation according to the imaging order, a subject image acquisition program for acquiring subject face image information, and a face for comparing face image information. An image information comparison program. However, the imaging order determination program of the present embodiment is the same as the imaging order determination program of
本撮像装置を構成する撮像条件取得部及び撮像部は撮像デバイスなどからなり、撮像順序決定部及びフォーカス距離依存決定手段はCPU及び各メモリと撮像順序決定プログラムなどからなり、制御部はCPU及び各メモリと制御プログラムなどからなり、顔画像情報保持部は不揮発性メモリなどからなり、被写体顔画像情報取得部はCPU、各メモリ及びI/Oデバイスに接続されたディスプレイと被写体顔画像情報取得プログラムなどからなり、顔画像情報比較部はCPU及び各メモリと顔画像情報比較プログラムなどからなり、撮像画像送信部はCPU及び各メモリとメール送信プログラム、I/Oデバイスに接続されたネットワークデバイスなどからなる。以下、本撮像装置の処理を具体的に説明する。 The imaging condition acquisition unit and the imaging unit constituting the imaging apparatus include an imaging device, the imaging order determination unit and the focus distance dependency determination unit include a CPU, each memory, an imaging order determination program, and the like. The face image information holding unit is composed of a nonvolatile memory, the subject face image information acquisition unit is a CPU, a display connected to each memory and I / O device, and a subject face image information acquisition program. The face image information comparison unit includes a CPU, each memory, and a face image information comparison program, and the captured image transmission unit includes a CPU, each memory, a mail transmission program, a network device connected to the I / O device, and the like. . Hereinafter, the processing of the imaging apparatus will be specifically described.
(実施形態4の具体例)図23を用いて本撮像装置の具体的な処理の流れを説明する。本撮像装置では、まず一般的な撮像モードと顔認識連続撮像モードの選択を行う(S2301)。一般的な撮像モードを選択した場合(S2302;NO)には、顔認識連続撮影を行わない一般的な撮像を行うため連続撮影を行うための処理を終了する。 (Specific Example of Embodiment 4) A specific processing flow of the imaging apparatus will be described with reference to FIG. In this imaging apparatus, first, a general imaging mode and a face recognition continuous imaging mode are selected (S2301). When the general imaging mode is selected (S2302; NO), the processing for performing continuous shooting is terminated to perform general imaging without performing face recognition continuous shooting.
顔認識連続撮像モードを選択した場合には、CPUでは、ディスプレイの撮像領域に撮像対象となる被写体を表示する(S2303)と共に、不揮発性メモリに格納された撮像順序決定プログラム及び被写体顔画像情報取得プログラム、被写体画像取得プログラム、顔画像情報比較プログラムを揮発性メモリのワーク領域に展開して起動する。撮像順序決定プログラムが起動すると、十字キーやタッチパネルなどを入力デバイスとし、ピントを合わせて撮像する対象となる被写体の決定と各被写体の撮像順序を受付可能な状態となる。この状態において、被写体の位置と各被写体の撮像順序を決定する。また、撮像順序と共に各被写体のフォーカス位置を定めても良い。まず、撮像順序=1とし(S2304)、ユーザにより一つ目の撮像対象となる被写体が選択されると(S2305)、撮像順序決定プログラムでは撮像順序と、被写体の表示位置を記憶する(S2306)。そして、撮像デバイスでは該被写体についてその被写体位置でのAF,AEを行い(S2307、S2308)、AF,AE情報などの撮像条件を撮像順序と共に合焦点情報として不揮発性メモリに記憶する(S2309)。 When the face recognition continuous imaging mode is selected, the CPU displays the subject to be imaged in the imaging area of the display (S2303) and obtains the imaging order determination program and subject face image information stored in the nonvolatile memory. The program, the subject image acquisition program, and the face image information comparison program are expanded and started in the work area of the volatile memory. When the imaging order determination program is activated, the input device such as a cross key or a touch panel can be used to determine the subject to be focused and accept the imaging order of each subject. In this state, the position of the subject and the imaging order of each subject are determined. Further, the focus position of each subject may be determined together with the imaging order. First, the imaging order = 1 is set (S2304), and when the user selects the first subject to be imaged (S2305), the imaging order determination program stores the imaging order and the display position of the subject (S2306). . Then, the imaging device performs AF and AE at the subject position on the subject (S2307, S2308), and stores the imaging conditions such as AF and AE information in the nonvolatile memory together with the imaging order as in-focus information (S2309).
また、被写体顔画像情報取得プログラムにより、ディスプレイ上に表示されている各被写体の顔部分の画像から顔の特徴点部分を抽出し(S2310)、これを被写体顔画像情報として揮発性メモリに一時的に記憶する。被写体顔画像情報が揮発性メモリの所定のアドレスに記憶されると、顔画像情報比較プログラムでは、不揮発性メモリの所定のアドレスに格納されている顔画像情報を読み出し、揮発性メモリに格納された被写体顔画像情報と同一人物である顔画像情報が不揮発性メモリに格納されているか否かを顔の特徴点に基づいて比較しながら検索し、不揮発性メモリに格納されている顔画像情報と同一人物であるか否かを判断する(S2311)。同一人物であるとの判定結果が得られた場合には、図21(b)に示すように、合焦点情報のID欄に同一人物であると判定した顔画像情報のIDを入力する。そして、2つ目以降の被写体の選択についても同様の処理により撮像条件と共に人物一致フラグを合焦点情報に格納していく。このとき、選択された順番に仮の撮像順序を定めていく。被写体の選択が完了すると、顔画像情報に応じて撮像順序を決定する場合(S2314;YES)には、撮像順序決定プログラムでは、顔画像情報依存決定機能により合焦点情報のID欄にIDが入力されている被写体の撮像順序を上位にする(S2316)。 In addition, the subject face image information acquisition program extracts facial feature point portions from the face portion images of each subject displayed on the display (S2310), and temporarily stores them in the volatile memory as subject face image information. To remember. When the subject face image information is stored at a predetermined address in the volatile memory, the face image information comparison program reads the face image information stored at the predetermined address in the nonvolatile memory and stores it in the volatile memory. The face image information that is the same person as the subject face image information is searched based on whether or not the face image information is stored in the nonvolatile memory based on the feature points of the face, and is the same as the face image information stored in the nonvolatile memory It is determined whether or not the person is a person (S2311). When the determination result that the person is the same person is obtained, as shown in FIG. 21B, the ID of the face image information that is determined to be the same person is input in the ID column of the in-focus information. For the selection of the second and subsequent subjects, the person matching flag is stored in the in-focus information together with the imaging conditions by the same process. At this time, the provisional imaging order is determined in the selected order. When the selection of the subject is completed, when the imaging order is determined according to the face image information (S2314; YES), the imaging order determination program inputs an ID into the ID column of the in-focus information by the face image information dependency determination function. The imaging order of the subject that has been selected is set higher (S2316).
さらに、撮像順序決定プログラムが応答頻度情報決定機能を有している場合について説明する。応答頻度情報決定機能を利用するためには、予め不揮発性メモリに格納されている顔画像情報保持部とその顔画像情報で識別される人物の写真を撮影した回数、メール回数、電話回数のいずれか一以上の応答頻度を示す応答頻度情報を関連付けて保持している必要がある。応答頻度情報決定機能は、複数の被写体の合焦点情報のID欄にIDが入力されている場合に利用される。応答頻度情報決定機能を利用する場合には(S2317;YES)、IDが入力された顔画像情報に関連付けられた応答頻度情報を不揮発性メモリから読み出し、応答頻度が多い被写体から順に撮像順序を決定する(S2318)。決定された撮像順序は、ディスプレイ上に表示することが望ましい。ユーザは表示された撮像順序を撮像前に視覚的に確認することができる。以降の撮像が実行されるまでの処理(S2319〜S2327)は実施形態1から3のいずれかと同様であるため説明を省略する。なお、本具体例では、処理フローを簡略化するため再取得実行フラグに関する処理を記載していないが、本具体例に再取得実行フラグに関する処理を付け加えることも可能である。 Further, a case where the imaging order determination program has a response frequency information determination function will be described. In order to use the response frequency information determination function, any one of the number of times the photograph of the person identified by the face image information holding unit and the face image information stored in the nonvolatile memory is taken, the number of mails, and the number of calls Response frequency information indicating one or more response frequencies must be stored in association with each other. The response frequency information determination function is used when an ID is input in the ID column of the in-focus information of a plurality of subjects. When using the response frequency information determination function (S2317; YES), the response frequency information associated with the face image information to which the ID is input is read from the nonvolatile memory, and the imaging order is determined in order from the subject with the highest response frequency. (S2318). It is desirable to display the determined imaging order on the display. The user can visually confirm the displayed imaging order before imaging. Since the subsequent processing (S2319 to S2327) until imaging is performed is the same as that in any one of the first to third embodiments, description thereof is omitted. In this specific example, processing related to the reacquisition execution flag is not described in order to simplify the processing flow, but processing related to the reacquisition execution flag may be added to this specific example.
撮像後の画像は、顔画像情報が保持されている被写体の撮像順序が上位となっている。このとき、撮像前に撮像順序をディスプレイ表示するようにすることで、どのような順番でいずれの被写体にピントが合わされて撮像されているかをユーザは撮像前に知ることができる。また、顔画像情報が保持されている被写体は、撮像装置のユーザと親密である可能性が高いため、このような人物にピントが合わされた画像の撮像順序を上位とすることで、連続撮影した後の画像の中から効率的に親密な人物の画像をより効率的に探し出すことができる。 In the image after imaging, the imaging order of the subject in which the face image information is held is higher. At this time, by displaying the imaging order on the display before imaging, the user can know in which order the subject is focused and captured before imaging. In addition, since the subject holding the face image information is likely to be intimate with the user of the imaging device, continuous shooting was performed by setting the imaging order of the image focused on such a person at the top. An intimate person image can be efficiently searched from the subsequent images more efficiently.
上記構成に加えて、メール送信プログラムを有する場合には、連続撮影された後に以下の処理が行われることになる。連続撮影が完了すると、不揮発性メモリの所定のアドレスに格納されているメール送信プログラムが揮発性メモリのワーク領域に展開されて起動する。メール送信プログラムでは、まず、合焦点情報のID欄にIDが入力されているか否か、すなわち、顔認証された人物がいるか否かを調べる。顔認証された人物がない場合には、メール送信プログラムはそのまま終了する。顔認証された人物がおり、メールを送信する場合には(S2328;YES)、IDと撮像順序から、撮像後の画像ファイルを特定し、これを揮発性メモリに一時的に格納する。また、該IDにて特定される被写体の顔画像情報に含まれているメールアドレスを検索し、メールアドレスが顔画像情報に含まれている場合には、前記揮発性メモリに可能された画像ファイルを添付ファイルとして該メールアドレス宛にメールを送信する(S2329)。 In addition to the above configuration, when the mail transmission program is included, the following processing is performed after continuous shooting. When the continuous shooting is completed, the mail transmission program stored at a predetermined address in the non-volatile memory is expanded and started in the work area of the volatile memory. In the mail transmission program, first, it is checked whether or not an ID is input in the ID column of the in-focus information, that is, whether or not there is a person whose face is authenticated. If there is no person whose face has been authenticated, the mail transmission program ends as it is. When there is a person whose face has been authenticated and an e-mail is to be sent (S2328; YES), the image file after imaging is specified from the ID and the imaging order, and this is temporarily stored in the volatile memory. In addition, when the mail address included in the face image information of the subject specified by the ID is searched and the mail address is included in the face image information, the image file stored in the volatile memory is stored. Is sent as an attached file to the mail address (S2329).
メール送信プログラムを有している場合には、自動的にピントが合った画像を被写体の当事者に送信することができるため、撮像後にユーザがメール機能を起動して該人物に画像ファイルを送信する手間が削減され、利便性が向上する。 If you have a mail transmission program, you can automatically send an in-focus image to the subject's party, so the user activates the mail function after imaging and sends the image file to the person Time and effort are reduced, and convenience is improved.
なお、以上のハードウェア構成及び処理の具体例は一例であり、他の同様なハードウェア構成にて本件発明を実現しても良い。 Note that the specific examples of the hardware configuration and processing described above are merely examples, and the present invention may be implemented with other similar hardware configurations.
(実施形態4の効果)以上のような構成をとる本実施形態の撮像装置では、実施形態1の効果に加えて、撮像順序を顔画像情報に応じて並び替えることができる。このため、被写体が撮像された画像をより効率的に探し出すことができ、ユーザの利便性が向上する。さらに、メール送信プログラムを備えている場合には、撮像した画像ファイルを送信する手間も削減されるため、より利便性が向上する。 (Effect of Embodiment 4) In addition to the effects of the first embodiment, the imaging apparatus of the present embodiment having the above-described configuration can rearrange the imaging order according to face image information. For this reason, it is possible to more efficiently find an image in which the subject is captured, and the convenience for the user is improved. Furthermore, when the mail transmission program is provided, the trouble of transmitting the captured image file is reduced, and the convenience is further improved.
<実施例>以下に、図24、図25を用いて撮像装置としてカメラ付き携帯電話を利用した場合の実施例を例示する。 <Embodiment> An embodiment in the case where a camera-equipped mobile phone is used as an image pickup apparatus will be described below with reference to FIGS.
図24(a)は折り畳み型携帯電話を開いた状態におけるメインパネル側を示しており、図24(b)はサブパネル側を示している。携帯電話は、カーソルキー(2401)、決定キー(2402)、テンキー及び*、#キー(2403)、メインパネル(2404)、スピーカー(2405)、サブカメラ(2406)、メインカメラ(2407)、フラッシュ(2408)、サブパネル(2409)などから構成されている。カメラ付き携帯電話では、メインカメラにCCD素子が利用され、メインカメラを介して撮像条件を取得したり、撮像を実行したりすることができる。メインカメラを介して取得された画像は、メインパネルに表示される。メインパネルでは、撮像領域を表示すると共に、各種操作を行うためのカーソル表示やメニュー表示を行う。そして、カーソルキー及び決定キー、テンキー等で、撮像する被写体の選択、撮像順序の決定、撮像実行指示等の操作を行うことができる。 FIG. 24A shows the main panel side in the state in which the folding cellular phone is opened, and FIG. 24B shows the sub panel side. The mobile phone includes a cursor key (2401), an enter key (2402), ten keys and *, # key (2403), main panel (2404), speaker (2405), sub camera (2406), main camera (2407), flash (2408), sub-panel (2409), and the like. In a camera-equipped mobile phone, a CCD element is used for a main camera, and it is possible to acquire imaging conditions and execute imaging via the main camera. Images acquired via the main camera are displayed on the main panel. On the main panel, an imaging area is displayed, and a cursor display and menu display for performing various operations are performed. Then, operations such as selection of a subject to be imaged, determination of an imaging order, and an imaging execution instruction can be performed with a cursor key, a determination key, a numeric keypad, and the like.
図25はカメラ付き携帯電話の機能ブロック図である。カメラ付き携帯電話は、大きく撮像部(2501)、制御部(2502)、入出力部(2503)、メモリ部(2504)に分けられる。撮像部は、撮像条件に関わる撮影レンズ(2505)、絞り(2506)、シャッター(2507)と、これらの設定を行うAF駆動回路(2508)、絞り駆動回路(2509)、シャッター駆動回路(2510)と、設定された撮像条件で撮像を行う撮像素子(2511)と、撮像素子からの電気的な信号を映像信号として処理をする映像信号処理部(2512)と、フォーカス位置、絞りの量などの撮像条件を取得するAFセンサ(2513)、AEセンサ(2514)と、フラッシュ(2515)と、フラッシュの有無及びタイミング等を制御するフラッシュ制御回路(2516)などからなる。制御部は、撮像部にて取得された撮像画像から人物の特徴点を抽出する特徴点抽出部(2517)と、被写体に重ねて表示するフレームや数字などのキャラクタを生成するキャラクタ生成部(2519)と、生成したキャラクタを重ねて表示する対象となる被写体を指定する被写体指定部(2520)と、撮像部にて取得された画像とキャラクタ画像とを合成する画像合成部(2518)からなる。入出力部は、無線通信を行う無線部(2521)と、通信を制御する通信制御部(2522)と、制御部にて制御された画像をディスプレイ表示用に処理する表示処理部(2523)と、表示処理部にて処理された画像を表示する表示部(2524)と、スピーカーから出力する音声の処理及びマイクから入力された音声の処理を行う音声処理部(2525)と、処理された音声をスピーカーから出力する音声出力部(2526)と、音声を音声処理部にマイクなどにて音声を入力する音声入力部(2527)と、制御部に入力するための各種操作を行う操作部(2528)とからなる。メモリ部は、各種アプリケーションプログラムを記憶するプログラムメモリ(2529)と、撮影画像、合焦点情報、アドレス帳、履歴情報、特徴点情報を記憶する汎用メモリ(2530)とからなる。撮像部では、撮像条件を取得したり、撮像を実行したりすることができる。制御部では、撮像順序を定めるための各種操作を行うために表示する画像の生成、各種操作による指示を受け付け、プログラムメモリに記憶されたプログラムや汎用メモリに記憶された合焦点情報/アドレス帳/履歴情報を利用して撮像する被写体の選択及び撮像順序の決定、プログラムメモリに記憶された顔認証プログラムを利用して抽出した被写体の顔の特徴点の比較や認証、合焦点情報を読み出して撮像部における各種撮像条件の制御等を行うことができる。入出力部では、表示された撮像領域に対応する指示の入力や、シャッターの押下げによる撮像指示などを入力することができる。 FIG. 25 is a functional block diagram of a camera-equipped mobile phone. A camera-equipped mobile phone is roughly divided into an imaging unit (2501), a control unit (2502), an input / output unit (2503), and a memory unit (2504). The imaging unit includes a photographic lens (2505), an aperture (2506), a shutter (2507) related to imaging conditions, an AF drive circuit (2508), an aperture drive circuit (2509), and a shutter drive circuit (2510) that perform these settings. An image pickup device (2511) that picks up an image under the set image pickup conditions, a video signal processing unit (2512) that processes an electrical signal from the image pickup device as a video signal, a focus position, an aperture amount, etc. It comprises an AF sensor (2513), an AE sensor (2514) for acquiring imaging conditions, a flash (2515), a flash control circuit (2516) for controlling the presence / absence and timing of the flash, and the like. The control unit includes a feature point extraction unit (2517) that extracts a feature point of a person from a captured image acquired by the imaging unit, and a character generation unit (2519) that generates characters such as frames and numbers to be displayed over the subject. ), A subject designation unit (2520) for designating a subject to be displayed with the generated character superimposed, and an image synthesis unit (2518) for synthesizing the image acquired by the imaging unit and the character image. The input / output unit includes a wireless unit (2521) that performs wireless communication, a communication control unit (2522) that controls communication, and a display processing unit (2523) that processes an image controlled by the control unit for display display. A display unit (2524) for displaying an image processed by the display processing unit, an audio processing unit (2525) for processing audio output from a speaker and audio input from a microphone, and processed audio Is output from the speaker, an audio input unit (2527) for inputting audio to the audio processing unit with a microphone or the like, and an operation unit (2528) for performing various operations for inputting to the control unit. ). The memory unit includes a program memory (2529) that stores various application programs, and a general-purpose memory (2530) that stores captured images, in-focus information, address book, history information, and feature point information. The imaging unit can acquire imaging conditions or execute imaging. The control unit accepts the generation of an image to be displayed for performing various operations for determining the imaging order, the instructions by the various operations, and the program stored in the program memory and the in-focus information / address book / stored in the general-purpose memory. Selection of subjects to be imaged using history information and determination of imaging sequence, comparison and authentication of feature points of subjects' faces extracted using a face authentication program stored in the program memory, and readout of in-focus information Various imaging conditions in the unit can be controlled. The input / output unit can input an instruction corresponding to the displayed imaging area, an imaging instruction by pressing the shutter, and the like.
0200 撮像装置
0201 撮像条件取得部
0202 撮像部
0203 撮像順序決定部
0204 制御部
0205 撮像条件再取得手段
0905 フォーカス距離依存決定手段
1505 顔領域認識部
1506 顔領域依存決定手段
1905 顔画像情報保持部
1906 被写体顔画像情報取得部
1907 顔画像情報比較部
1908 顔画像情報依存決定手段
1909 応答頻度情報保持手段
1910 応答頻度情報依存決定手段
1911 メールアドレス保持手段
1912 撮像画像送信部
0200
Claims (8)
前記撮像条件に基づいて各被写体を連続的に撮像する撮像部と、
前記撮像部にて各被写体を撮像する撮像順序を決定する撮像順序決定部と、
前記決定された撮像順序に応じて前記撮像部における撮像動作を制御する制御部と、
からなる撮像装置。 An imaging condition acquisition unit that acquires imaging conditions suitable for each subject for a plurality of subjects in the imaging region;
An imaging unit that continuously images each subject based on the imaging conditions;
An imaging order determining unit that determines an imaging order for imaging each subject in the imaging unit;
A control unit that controls an imaging operation in the imaging unit according to the determined imaging order;
An imaging apparatus comprising:
前記撮像順序決定部は、撮像領域に占める前記認識した顔領域が大きい順に撮像順序を決定する顔領域依存決定手段と、
を有することを特徴とする請求項1から3のいずれか一に記載の撮像装置。 A face area recognition unit for recognizing the face area of the subject in the imaging area;
The imaging order determining unit is a face area dependence determining unit that determines the imaging order in descending order of the recognized face area in the imaging area;
The imaging apparatus according to claim 1, wherein the imaging apparatus includes:
撮像領域の被写体の顔画像情報である被写体顔画像情報を取得する被写体顔画像情報取得部と、
前記保持された顔画像情報と、前記取得された被写体顔画像情報とを比較する顔画像情報比較部と、
前記撮像順序決定部は、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、該人物の撮像順序を他の被写体よりも上位にする顔画像情報依存決定手段と、
を有することを特徴とする請求項1から4のいずれか一に記載の撮像装置。 A face image information holding unit for holding face image information;
A subject face image information acquisition unit that acquires subject face image information that is face image information of a subject in the imaging region;
A face image information comparison unit that compares the held face image information with the acquired subject face image information;
If there is a subject for which the acquired subject face image information and the held face image information are the same person according to the comparison result, the imaging order determination unit determines the imaging order of the person. A face image information dependency determining means that ranks higher than other subjects;
5. The imaging apparatus according to claim 1, wherein the imaging apparatus includes:
前記撮像順序決定部は、前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が複数存在する場合には、前記応答頻度の多い順に撮像順序を決定する応答頻度情報依存決定手段と、
を有する請求項5に記載の撮像装置。 The face image information holding unit holds, in association with each other, face image information and response frequency information indicating a response frequency of one or more of the number of times a photograph of a person identified by the face image information is taken, the number of mails, and the number of calls. Response frequency information holding means,
The imaging order determination unit has a high response frequency when there are a plurality of subjects for which it is determined that the acquired subject face image information and the held face image information are the same person according to the comparison result. Response frequency information dependence determining means for sequentially determining the imaging order;
The imaging device according to claim 5 having.
前記比較結果に応じて、取得した被写体顔画像情報と保持された顔画像情報とが同一人物であると判断した被写体が存在する場合には、撮像部で該人物の撮像後に前記顔画像情報に関連付けられたメールアドレスに対して撮像画像を送信する撮像画像送信部と、
を有する請求項5又は6に記載の撮像装置。 The face image information holding unit includes a mail address holding unit that holds face image information and a mail address in association with each other,
If there is a subject for which the acquired subject face image information and the held face image information are the same person according to the comparison result, the face image information is included in the face image information after the person is imaged by the imaging unit. A captured image transmission unit that transmits a captured image to an associated email address;
The imaging apparatus according to claim 5 or 6, comprising:
撮像デバイスにて各被写体を撮像する撮像順序を決定する撮像順序決定ステップと、
前記決定された撮像順序に応じて撮像デバイスにおける撮像動作を制御する制御ステップと、
前記制御ステップでの制御により、前記撮像条件に基づいて各被写体を連続的に撮像する撮像ステップと、
からなる撮像方法。 An imaging condition acquisition step of acquiring imaging conditions suitable for each subject for a plurality of subjects in the imaging region;
An imaging order determining step for determining an imaging order for imaging each subject by the imaging device;
A control step of controlling an imaging operation in the imaging device in accordance with the determined imaging order;
An imaging step of continuously imaging each subject based on the imaging conditions by control in the control step;
An imaging method comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007156929A JP4848569B2 (en) | 2007-06-14 | 2007-06-14 | Digital camera, camera phone |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007156929A JP4848569B2 (en) | 2007-06-14 | 2007-06-14 | Digital camera, camera phone |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008311885A true JP2008311885A (en) | 2008-12-25 |
| JP4848569B2 JP4848569B2 (en) | 2011-12-28 |
Family
ID=40239099
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007156929A Expired - Fee Related JP4848569B2 (en) | 2007-06-14 | 2007-06-14 | Digital camera, camera phone |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4848569B2 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010171586A (en) * | 2009-01-21 | 2010-08-05 | Canon Inc | Image supply side apparatus, image request side apparatus, image communication system, control method, and program |
| JP2010217613A (en) * | 2009-03-18 | 2010-09-30 | Nec Corp | Information processing apparatus having autofocus function, and method or the like for controlling the same |
| JP2013190756A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which said program is recorded |
| JP2014021318A (en) * | 2012-07-19 | 2014-02-03 | Casio Comput Co Ltd | Imaging device, imaging method, and program |
| US8713113B2 (en) | 2009-08-07 | 2014-04-29 | Nec Casio Mobile Communications, Ltd. | Communication terminal device, and recording medium |
| JP2015115714A (en) * | 2013-12-10 | 2015-06-22 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM |
| KR101838033B1 (en) * | 2011-11-25 | 2018-03-15 | 삼성전자 주식회사 | Method and apparatus for providing image photography of a user device |
| WO2023175803A1 (en) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | Camera control device, control method, and non-transitory computer-readable medium |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003143461A (en) * | 2001-11-01 | 2003-05-16 | Seiko Epson Corp | Digital still camera |
| JP2005339000A (en) * | 2004-05-25 | 2005-12-08 | Casio Comput Co Ltd | Image recognition apparatus and program |
| JP2006254272A (en) * | 2005-03-14 | 2006-09-21 | Sanyo Electric Co Ltd | Imaging apparatus |
| JP2007041866A (en) * | 2005-08-03 | 2007-02-15 | Canon Inc | Information processing apparatus, information processing method, and program |
-
2007
- 2007-06-14 JP JP2007156929A patent/JP4848569B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003143461A (en) * | 2001-11-01 | 2003-05-16 | Seiko Epson Corp | Digital still camera |
| JP2005339000A (en) * | 2004-05-25 | 2005-12-08 | Casio Comput Co Ltd | Image recognition apparatus and program |
| JP2006254272A (en) * | 2005-03-14 | 2006-09-21 | Sanyo Electric Co Ltd | Imaging apparatus |
| JP2007041866A (en) * | 2005-08-03 | 2007-02-15 | Canon Inc | Information processing apparatus, information processing method, and program |
Cited By (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010171586A (en) * | 2009-01-21 | 2010-08-05 | Canon Inc | Image supply side apparatus, image request side apparatus, image communication system, control method, and program |
| JP2010217613A (en) * | 2009-03-18 | 2010-09-30 | Nec Corp | Information processing apparatus having autofocus function, and method or the like for controlling the same |
| US8713113B2 (en) | 2009-08-07 | 2014-04-29 | Nec Casio Mobile Communications, Ltd. | Communication terminal device, and recording medium |
| US9015260B2 (en) | 2009-08-07 | 2015-04-21 | Nec Casio Mobile Communications, Ltd. | Communication terminal device, and recording medium for image storage, selection and email attachment |
| KR101838033B1 (en) * | 2011-11-25 | 2018-03-15 | 삼성전자 주식회사 | Method and apparatus for providing image photography of a user device |
| JP2013190756A (en) * | 2012-03-15 | 2013-09-26 | Omron Corp | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which said program is recorded |
| US9253408B2 (en) | 2012-03-15 | 2016-02-02 | Omron Corporation | Photographing device, photographing device controlling method, photographing device controlling program, and computer-readable recording medium in which photographing device controlling program is recorded |
| JP2014021318A (en) * | 2012-07-19 | 2014-02-03 | Casio Comput Co Ltd | Imaging device, imaging method, and program |
| JP2015115714A (en) * | 2013-12-10 | 2015-06-22 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM |
| WO2023175803A1 (en) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | Camera control device, control method, and non-transitory computer-readable medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4848569B2 (en) | 2011-12-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4848569B2 (en) | Digital camera, camera phone | |
| KR101477178B1 (en) | A portable terminal having a dual camera and a photographing method using the same | |
| US9967458B2 (en) | Controlling a client terminal to automatically determine image settings | |
| JP6186521B2 (en) | Focus control device, imaging device, focus control method, and focus control program | |
| JP4659088B2 (en) | Mobile device with camera | |
| CN101731004B (en) | Image picking-up device, computer readable recording medium including recorded program for control of the device, and control method | |
| CN102783136B (en) | For taking the imaging device of self-portrait images | |
| CN103312959B (en) | Filming apparatus and filming apparatus control method | |
| CN104204940B (en) | Photographic device with projector and control method thereof | |
| JP5948492B2 (en) | Imaging apparatus and focus control method | |
| JP2008311886A (en) | Imaging apparatus and imaging method | |
| CN105960604B (en) | Photographic device and focusing control method | |
| JP5753323B2 (en) | Imaging apparatus and image display method | |
| KR20100007981A (en) | Portable terminal, control method for portable terminal, control program for portable terminal, and computer readable recording medium having recorded the program therein | |
| CN105744170A (en) | Picture photographing device and method | |
| CN105549300A (en) | Automatic focusing method and device | |
| JP2011141374A (en) | Autofocus control method | |
| JP2014045404A (en) | Portable terminal | |
| CN110419210A (en) | Photographic device, image capture method and imaging program | |
| JP2010041527A (en) | Photographing support method, system, program | |
| JP2010252238A (en) | Imaging apparatus and imaging method | |
| JP5023932B2 (en) | Imaging apparatus, image capturing method by scenario, and program | |
| JP2003060979A (en) | Electronic camera | |
| JP7128347B2 (en) | Image processing device, image processing method and program, imaging device | |
| JP2010161704A (en) | Mobile terminal, photographing control method thereof, program, and recording medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090805 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110221 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110421 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110513 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110711 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110803 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110826 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110930 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4848569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141028 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141028 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |