[go: up one dir, main page]

JP2010130590A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2010130590A
JP2010130590A JP2008305689A JP2008305689A JP2010130590A JP 2010130590 A JP2010130590 A JP 2010130590A JP 2008305689 A JP2008305689 A JP 2008305689A JP 2008305689 A JP2008305689 A JP 2008305689A JP 2010130590 A JP2010130590 A JP 2010130590A
Authority
JP
Japan
Prior art keywords
imaging
main subject
unit
position information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008305689A
Other languages
Japanese (ja)
Inventor
Naozumi Sugimura
直純 杉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung R&D Institute Japan Co Ltd
Original Assignee
Samsung Yokohama Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Yokohama Research Institute filed Critical Samsung Yokohama Research Institute
Priority to JP2008305689A priority Critical patent/JP2010130590A/en
Publication of JP2010130590A publication Critical patent/JP2010130590A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】被写体像の中から意図する撮影対象を容易に識別することが可能な撮像装置及び撮像方法を提供する。
【解決手段】撮像レンズを介して被写体像の画像データを取得する撮影部101,102,103,104と、撮影位置に関する第1の位置情報を取得する撮影位置情報取得部130と、主被写体の被写体位置に関する第2の位置情報を取得する被写体位置情報取得部140と、撮像レンズの撮影方向に関する撮影方向情報を取得する撮影方向情報取得部150と、第1の位置情報と第2の位置情報に基づいて主被写体との位置関係を算出する位置関係算出部110と、算出された主被写体との位置関係と、撮像レンズの撮像方向に基づいて、被写体像における主被写体像の位置を算出する主被写体像位置算出部110とを有する。
【選択図】図2
An imaging apparatus and an imaging method capable of easily identifying an intended imaging target from a subject image.
Shooting units 101, 102, 103, and 104 that acquire image data of a subject image via an imaging lens, a shooting position information acquisition unit 130 that acquires first position information related to a shooting position, and a main subject A subject position information acquisition unit 140 that acquires second position information related to the subject position, a shooting direction information acquisition unit 150 that acquires shooting direction information related to the shooting direction of the imaging lens, and first position information and second position information. Based on the positional relationship calculation unit 110 that calculates the positional relationship with the main subject, and calculates the position of the main subject image in the subject image based on the calculated positional relationship with the main subject and the imaging direction of the imaging lens. A main subject image position calculation unit 110.
[Selection] Figure 2

Description

本発明は、撮像装置及び撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

デジタルスチルカメラやビデオカメラ等の撮像装置には、被写体にピントを合わせるため、フォーカス制御(AF:自動焦点制御)が行われるものがある。例えば、コントラスト方式のAFは、撮影して取得された画像データのコントラスト値(ぼけ具合など)に基づいて、フォーカスレンズの合焦位置を検出する。また、人物の顔認識や撮影シーン認識等の技術を用いて、焦点を合わせる場所を特定することで、自動焦点の精度を向上させる場合がある。   Some imaging devices such as digital still cameras and video cameras perform focus control (AF: automatic focus control) to focus on a subject. For example, contrast AF detects the in-focus position of the focus lens based on the contrast value (such as the degree of blur) of image data acquired by shooting. In addition, the accuracy of autofocus may be improved by specifying a place to focus using techniques such as human face recognition and photographic scene recognition.

一方、近年では、GPS(Global Positioning System)を用いた撮像装置に関する技術がある。例えば、特許文献1には、GPSを用いて検出した位置情報を画像情報と共に記録する技術が開示されている。また、特許文献2には、GPSを用いて検出した位置情報とデータベースを用いて撮影方位を特定する技術が開示されている。更に、特許文献3には、撮影時において、GPSを用いて検出した位置情報を含むメタ情報を生成する技術が開示されている。   On the other hand, in recent years, there is a technique related to an imaging apparatus using a GPS (Global Positioning System). For example, Patent Document 1 discloses a technique for recording position information detected using GPS together with image information. Patent Document 2 discloses a technique for specifying a shooting direction using position information detected using GPS and a database. Further, Patent Document 3 discloses a technique for generating meta information including position information detected using GPS at the time of photographing.

特開2008−148333号公報JP 2008-148333 A 特開2008−152374号公報JP 2008-152374 A 特開2008−148220号公報JP 2008-148220 A

ところで、従来のフォーカス制御では、撮影して取得された画像データに基づいて合焦位置を検出するため、撮影対象を正確に認識できない場合、焦点を適正に合わせることができないという問題があった。特に、被写体に撮影対象物が多数写り込んでいる場合、撮像装置はどの撮影対象物に焦点を合わせればよいか判断できず、撮影者が意図していない場所に焦点が合ってしまうという問題があった。   By the way, in the conventional focus control, since the in-focus position is detected based on the image data acquired by photographing, there is a problem that the focus cannot be properly adjusted when the photographing object cannot be accurately recognized. In particular, when a large number of objects to be photographed are captured in the subject, the imaging apparatus cannot determine which object to focus on, and the problem is that the photographer focuses on a place that is not intended by the photographer. there were.

この問題を解決するため、顔認識技術を用いて、人物に焦点を合わせるという技術が用いられている。しかし、被写体中に人物が多数存在している場合、顔認識技術を用いても、撮影者が撮影対象として意図する人物に焦点を合わせることができるとは限られなかった。更に、撮影者が意図する人物が、被写体像中に小さく写っている場合や、人物の一部のみが映っている場合は、顔認識技術は有効ではなかった。   In order to solve this problem, a technique of focusing on a person using a face recognition technique is used. However, when there are a large number of persons in a subject, even if face recognition technology is used, it is not always possible to focus on the person the photographer intends to shoot. Furthermore, the face recognition technology is not effective when the person intended by the photographer is small in the subject image or when only a part of the person is shown.

また、超音波等を用いて反射時間を測定することで焦点位置を検出する技術があるが、顔認識術などに比べてさらに精度が悪かった。   In addition, there is a technique for detecting a focal position by measuring a reflection time using ultrasonic waves or the like, but the accuracy is worse than that of face recognition or the like.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、被写体像の中から意図する撮影対象を容易に識別することが可能な、新規かつ改良された撮像装置及び撮像方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is a new and improved technique capable of easily identifying an intended photographing target from a subject image. An imaging device and an imaging method are provided.

上記課題を解決するために、本発明のある観点によれば、撮像レンズを介して被写体像の画像データを取得する撮影部と、撮影位置に関する第1の位置情報を取得する撮影位置情報取得部と、主被写体の被写体位置に関する第2の位置情報を取得する被写体位置情報取得部と、撮像レンズの撮影方向に関する撮影方向情報を取得する撮影方向情報取得部と、第1の位置情報と第2の位置情報に基づいて主被写体との位置関係を算出する位置関係算出部と、算出された主被写体との位置関係と、撮像レンズの撮像方向に基づいて、被写体像における主被写体像の位置を算出する主被写体像位置算出部とを有する撮像装置が提供される。   In order to solve the above-described problem, according to an aspect of the present invention, an imaging unit that acquires image data of a subject image via an imaging lens, and an imaging position information acquisition unit that acquires first position information regarding the imaging position A subject position information acquisition unit that acquires second position information related to the subject position of the main subject, a shooting direction information acquisition unit that acquires shooting direction information related to the shooting direction of the imaging lens, first position information, and second A positional relationship calculation unit that calculates a positional relationship with the main subject based on the positional information of the main subject, and the position of the main subject image in the subject image based on the calculated positional relationship with the main subject and the imaging direction of the imaging lens. An imaging device having a main subject image position calculation unit for calculation is provided.

かかる構成により、主被写体との位置関係が、撮影位置に関する第1の位置情報と、主被写体の被写体位置に関する第2の位置情報に基づいて算出され、被写体像における主被写体像の位置が、算出された主被写体との位置関係と、撮像レンズの撮影方向に基づいて算出される。   With this configuration, the positional relationship with the main subject is calculated based on the first position information regarding the shooting position and the second position information regarding the subject position of the main subject, and the position of the main subject image in the subject image is calculated. It is calculated based on the positional relationship with the main subject and the shooting direction of the imaging lens.

上記被写体像を表示し、算出された主被写体像の位置に基づいて、主被写体の位置を表示する表示部を更に有する。   The apparatus further includes a display unit that displays the subject image and displays the position of the main subject based on the calculated position of the main subject image.

上記被写体像の中から人物の顔又は人物形状を検出する形状認識部を更に有し、表示部は、検出された人物の顔又は人物形状と、被写体像における主被写体像の位置に基づいて、主被写体の位置を表示する。   Further comprising a shape recognition unit for detecting a human face or human shape from the subject image, the display unit based on the detected human face or human shape and the position of the main subject image in the subject image, Displays the position of the main subject.

上記位置関係算出部は、主被写体との距離を算出し、算出された主被写体との距離に基づいて、フォーカスレンズを駆動し、主被写体像を撮影部の撮像面に合焦させる合焦制御部を更に有する。   The positional relationship calculation unit calculates the distance to the main subject, drives the focus lens based on the calculated distance to the main subject, and focuses the main subject image on the imaging surface of the imaging unit. It further has a part.

上記合焦制御部は、検出された人物の顔又は人物形状と、算出された主被写体との距離に基づいて、主被写体像を撮影部の撮像面に合焦させる。   The focusing control unit focuses the main subject image on the imaging surface of the imaging unit based on the detected distance between the human face or person shape and the calculated main subject.

また、上記課題を解決するために、本発明の別の観点によれば、撮像レンズを介して被写体像の画像データを取得するステップと、撮影位置に関する第1の位置情報を取得するステップと、主被写体の被写体位置に関する第2の位置情報を取得するステップと、撮像レンズの撮影方向に関する撮影方向情報を取得するステップと、第1の位置情報と第2の位置情報に基づいて主被写体との位置関係を算出するステップと、算出された主被写体との位置関係と、撮像レンズの撮像方向に基づいて、被写体像における主被写体像の位置を算出するステップとを有する撮像方法が提供される。   In order to solve the above-mentioned problem, according to another aspect of the present invention, a step of acquiring image data of a subject image via an imaging lens, a step of acquiring first position information related to a shooting position, A step of acquiring second position information relating to the subject position of the main subject, a step of obtaining shooting direction information relating to the shooting direction of the imaging lens, and the main subject based on the first position information and the second position information; An imaging method is provided that includes a step of calculating a positional relationship, a step of calculating the position of the main subject image in the subject image based on the calculated positional relationship with the main subject and the imaging direction of the imaging lens.

本発明によれば、被写体像の中から意図する撮影対象を容易に識別することができる。   According to the present invention, an intended photographing target can be easily identified from a subject image.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

<一実施形態の構成>
[撮像システムの構成]
まず、本発明の一実施形態に係る撮像システムの構成について説明する。図1は、本実施形態に係る撮像システムの構成を示すブロック図である。
<Configuration of one embodiment>
[Configuration of imaging system]
First, the configuration of an imaging system according to an embodiment of the present invention will be described. FIG. 1 is a block diagram illustrating a configuration of an imaging system according to the present embodiment.

本実施形態の撮像システムは、撮像装置100と位置情報発信装置200からなる。撮像装置100は、例えばデジタルスチルカメラ等であり、位置情報発信装置200から被写体の位置情報を受信する。また、撮像装置100は、例えばアンテナ132を介してGPS(Global Positioning System)を用いて検出した撮像装置100自体の位置情報を取得する。   The imaging system of this embodiment includes an imaging device 100 and a position information transmission device 200. The imaging device 100 is, for example, a digital still camera or the like, and receives subject position information from the position information transmission device 200. Further, the imaging device 100 acquires position information of the imaging device 100 itself detected using, for example, a GPS (Global Positioning System) via the antenna 132.

位置情報発信装置200は、例えばユーザが携帯可能な大きさであり、撮像装置100の被写体となる人物によって携行される。位置情報発信装置200は、例えばアンテナ232を介してGPSを用いて検出した装置自体の位置情報を取得する。位置情報発信装置200は、取得した位置情報を撮像装置100に送信する。位置情報発信装置200が被写体となる人物に携行されているとき、位置情報発信装置200が撮像装置100に送信する位置情報は、その人物の位置情報である。   The position information transmission device 200 is, for example, a size that can be carried by a user, and is carried by a person who is a subject of the imaging device 100. The position information transmission device 200 acquires the position information of the device itself detected using GPS via the antenna 232, for example. The position information transmission device 200 transmits the acquired position information to the imaging device 100. When the position information transmitting apparatus 200 is carried by a person who is a subject, the position information transmitted from the position information transmitting apparatus 200 to the imaging apparatus 100 is the position information of the person.

本実施形態によれば、GPSによって撮像装置100と位置情報発信装置200の両者の位置関係を容易に取得することができる。なお、本実施形態ではGPSを用いて撮像装置100と位置情報発信装置200の位置情報を取得するとしたが、本発明はかかる例に限定されない。例えば、限定された領域のみの位置情報(撮像装置100と被写体との距離や位置関係)を取得可能な局地的な位置取得システム(Positioning System)を用いてもよい。
また、図1では、アンテナ132、232が装置の外部に設けられている場合について示しているが、例えばアンテナ132、232は装置内部に設けられてもよい。
According to the present embodiment, the positional relationship between the image capturing apparatus 100 and the position information transmitting apparatus 200 can be easily acquired by GPS. In the present embodiment, the position information of the imaging device 100 and the position information transmission device 200 is acquired using GPS, but the present invention is not limited to such an example. For example, a local position acquisition system (Positioning System) that can acquire position information (distance and positional relationship between the imaging apparatus 100 and the subject) of only a limited area may be used.
1 shows the case where the antennas 132 and 232 are provided outside the apparatus, the antennas 132 and 232 may be provided inside the apparatus, for example.

[撮像装置100の構成]
次に、本発明の一実施形態に係る撮像装置100の構成について説明する。図2は、本実施形態に係る撮像装置100の構成を示すブロック図である。撮像装置100は、例えばデジタルスチルカメラであり、静止画像を撮影することができる。
[Configuration of Imaging Device 100]
Next, the configuration of the imaging device 100 according to an embodiment of the present invention will be described. FIG. 2 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the present embodiment. The imaging device 100 is a digital still camera, for example, and can capture a still image.

本実施形態に係る撮像装置100は、例えば、光学ブロック101と、駆動部102と、撮像素子103と、アナログ処理回路104と、画像処理部105と、MPU110と、ROM121と、RAM122と、操作入力I/F123と、操作入力部124と、表示制御部125と、表示部126と、メモリカードI/F127と、メモリカード128と、外部入出力I/F129と、GPS通信部130と、無線通信部140などからなる。   The imaging apparatus 100 according to the present embodiment includes, for example, an optical block 101, a driving unit 102, an imaging element 103, an analog processing circuit 104, an image processing unit 105, an MPU 110, a ROM 121, a RAM 122, and an operation input. I / F 123, operation input unit 124, display control unit 125, display unit 126, memory card I / F 127, memory card 128, external input / output I / F 129, GPS communication unit 130, and wireless communication Part 140 and the like.

光学ブロック101は、例えば、ズームレンズ、絞り、フォーカスレンズなどからなる。光学ブロック101は、外部の光情報を撮像素子103に結像させる光学系システムであり、被写体からの光を撮像素子103まで透過させる。ズームレンズは、焦点距離を変化させて画角を変えるレンズである。絞りは、透過する光量を調節する機構であり、ズームレンズ用モータによって駆動される。フォーカスレンズは、光軸方向に移動することで撮像素子103の撮像面に被写体像を合焦させる。フォーカスレンズは、フォーカスレンズ用モータによって駆動される。モータは、それぞれ駆動部102から駆動信号を受けて駆動する。   The optical block 101 includes, for example, a zoom lens, a diaphragm, and a focus lens. The optical block 101 is an optical system that forms an image of external light information on the image sensor 103, and transmits light from the subject to the image sensor 103. The zoom lens is a lens that changes the angle of view by changing the focal length. The diaphragm is a mechanism that adjusts the amount of light that is transmitted, and is driven by a zoom lens motor. The focus lens moves in the optical axis direction to focus the subject image on the imaging surface of the imaging element 103. The focus lens is driven by a focus lens motor. Each motor receives a drive signal from the drive unit 102 and is driven.

撮像素子103は、光電変換素子の一例であり、光学ブロック101を透過して入射した光情報を電気信号に変換する光電変換が可能な複数の素子から構成される。各素子は受光した光に応じた電気信号を生成する。撮像素子103は、CCD(charge coupled device)センサー、CMOS(complementary metal oxide semiconductor)センサー等を適用することができる。   The image sensor 103 is an example of a photoelectric conversion element, and includes a plurality of elements that can perform photoelectric conversion that converts optical information that has passed through the optical block 101 and entered into an electrical signal. Each element generates an electrical signal corresponding to the received light. As the image sensor 103, a CCD (charge coupled device) sensor, a CMOS (complementary metal oxide semiconductor) sensor, or the like can be applied.

なお、撮像素子103の露光時間を制御するため、非撮影時に光を遮って撮影時のみ光が当たるように、メカニカルシャッター(図示せず。)を適用することができる。また、これに限定されず、電子シャッター(図示せず。)を適用してもよい。なお、メカニカルシャッター又は電子シャッターの動作は、シャッターボタン124a(操作入力部124の1つ)のスイッチによって行われる。   Note that in order to control the exposure time of the image sensor 103, a mechanical shutter (not shown) can be applied so that the light is blocked during non-shooting and the light is applied only during shooting. Further, the present invention is not limited to this, and an electronic shutter (not shown) may be applied. Note that the operation of the mechanical shutter or the electronic shutter is performed by a switch of the shutter button 124a (one of the operation input units 124).

アナログ処理回路104は、例えばCDS/AMP部、A/D変換部、画像入力コントローラを有する。CDS/AMP部(相関二重サンプリング回路(correlated double sampling)/増幅器(amplifier))は、撮像素子103から出力された電気信号に含まれる低周波ノイズを除去すると共に、電気信号を任意のレベルまで増幅する。A/D変換部は、CDS/AMP部から出力された電気信号をデジタル変換してデジタル信号を生成する。A/D変換部は、生成したデジタル信号を画像入力コントローラに出力する。
なお、光学ブロック101、駆動部102、撮像素子103、アナログ処理回路104を組み合わせてなる構成は、撮像部の一例である。
The analog processing circuit 104 includes, for example, a CDS / AMP unit, an A / D conversion unit, and an image input controller. The CDS / AMP unit (correlated double sampling circuit / amplifier) removes low-frequency noise contained in the electric signal output from the image sensor 103 and brings the electric signal to an arbitrary level. Amplify. The A / D conversion unit digitally converts the electrical signal output from the CDS / AMP unit to generate a digital signal. The A / D conversion unit outputs the generated digital signal to the image input controller.
Note that the configuration in which the optical block 101, the drive unit 102, the imaging element 103, and the analog processing circuit 104 are combined is an example of an imaging unit.

画像入力コントローラは、A/D変換部から出力されたデジタル信号に対して処理を施し、画像処理が可能となる画像信号を生成する。画像入力コントローラは、生成した画像信号を例えば画像処理部105に出力する。また、画像入力コントローラは、RAM122への画像データの読み書きを制御する。   The image input controller performs processing on the digital signal output from the A / D conversion unit to generate an image signal that can be processed. The image input controller outputs the generated image signal to the image processing unit 105, for example. The image input controller controls reading / writing of image data to / from the RAM 122.

画像処理部105は、画像入力コントローラから画像信号を受け、WB制御値、γ値、輪郭強調制御値などに基づいて、画像処理された画像信号を生成する。画像処理部105は、画像信号に基づいてAE評価値及びAF評価値を算出して、それぞれをMPU110に送る。   The image processing unit 105 receives an image signal from the image input controller, and generates an image signal subjected to image processing based on a WB control value, a γ value, a contour enhancement control value, and the like. The image processing unit 105 calculates an AE evaluation value and an AF evaluation value based on the image signal and sends them to the MPU 110.

画像処理部105は、圧縮処理を行ってもよく、圧縮処理前の画像信号を受けて、例えばJPEG圧縮形式、又はMPEG圧縮形式などの圧縮形式で画像信号を圧縮処理する。画像処理部105は、圧縮処理で生成した画像データを例えばメモリカードI/F127に送る。   The image processing unit 105 may perform compression processing, receives an image signal before compression processing, and compresses the image signal in a compression format such as JPEG compression format or MPEG compression format. The image processing unit 105 sends the image data generated by the compression process to, for example, the memory card I / F 127.

MPU110は、例えばROM121に記録されたプログラムによって演算処理装置及び制御装置として機能し、撮像装置100内に設けられた各構成要素の処理を制御する。MPU110は、例えば、フォーカス制御や露出制御に基づいて駆動部102に信号を出力して光学ブロック101を駆動させる。また、MPU110は、操作入力部124からの信号に基づいて撮像装置100の各構成要素を制御する。なお、本実施形態においては、MPU110が1つだけからなる構成であるが、信号系の命令と操作系の命令とを別々のMPUで行うなど複数のMPUから構成されてもよい。   The MPU 110 functions as an arithmetic processing device and a control device according to a program recorded in the ROM 121, for example, and controls processing of each component provided in the imaging device 100. The MPU 110 drives the optical block 101 by outputting a signal to the drive unit 102 based on, for example, focus control or exposure control. Further, the MPU 110 controls each component of the imaging device 100 based on a signal from the operation input unit 124. In this embodiment, only one MPU 110 is used. However, the MPU 110 may be configured by a plurality of MPUs such as a separate MPU for signal-related commands and operation-related commands.

MPU110は、例えば、タイミングジェネレータと、適正AWB算出部と、ビデオAF制御部と、フォーカス制御部と、AE制御部と、絞り制御部と、画像処理選択部と、GUI管理部などを有する。   The MPU 110 includes, for example, a timing generator, a proper AWB calculation unit, a video AF control unit, a focus control unit, an AE control unit, an aperture control unit, an image processing selection unit, a GUI management unit, and the like.

タイミングジェネレータは、撮像素子103やCDS/AMP部にタイミング信号を出力し、撮像素子103を構成している各画素の露光期間の制御や、電荷の読み出し制御を行う。   The timing generator outputs a timing signal to the image sensor 103 and the CDS / AMP unit, and controls the exposure period of each pixel constituting the image sensor 103 and the charge readout control.

適正AWB算出部は、撮像素子103で受光した被写体像に応じた画像信号の色情報に基づいて、WB制御値を算出する。適正AWB算出部は、例えば、被写体に応じた適正なホワイトバランス(WB)が得られるようにWB制御値を算出する。適正AWB算出部は、算出したWB制御値を画像処理部105に送る。   The appropriate AWB calculation unit calculates the WB control value based on the color information of the image signal corresponding to the subject image received by the image sensor 103. For example, the appropriate AWB calculation unit calculates the WB control value so that an appropriate white balance (WB) corresponding to the subject is obtained. The appropriate AWB calculation unit sends the calculated WB control value to the image processing unit 105.

ビデオAF制御部は、画像処理部105で算出されたAF(auto focus:自動焦点)評価値に基づいて、フォーカスレンズの合焦位置を算出する。なお、AF評価値は、画像信号の輝度値に基づいて画像処理部105で算出されたものである。AF評価値は、例えば画像のコントラスト値であり、コントラスト値がピークとなったとき、被写体像が撮像素子103の撮像面で合焦していると判断する(コントラスト検出方式)。   The video AF control unit calculates the focus position of the focus lens based on the AF (auto focus) evaluation value calculated by the image processing unit 105. The AF evaluation value is calculated by the image processing unit 105 based on the luminance value of the image signal. The AF evaluation value is, for example, a contrast value of an image. When the contrast value reaches a peak, it is determined that the subject image is in focus on the imaging surface of the image sensor 103 (contrast detection method).

フォーカス制御部は、フォーカス制御開始の操作信号を受けると、フォーカスレンズを一方向に移動する制御信号を生成して、生成した制御信号を駆動部102に出力する。フォーカス制御部は、合焦制御部の一例であり、後述する方法で算出された主被写体との距離に基づいて、フォーカスレンズを駆動し、主被写体像を撮像素子103の撮像面に合焦させる。また、フォーカス制御部は、主被写体像を撮像素子103の撮像面に合焦させる際、後述する検出された人物の顔又は人物形状を更に考慮してもよい。   Upon receiving the focus control start operation signal, the focus control unit generates a control signal for moving the focus lens in one direction, and outputs the generated control signal to the drive unit 102. The focus control unit is an example of a focus control unit, and drives the focus lens based on the distance from the main subject calculated by a method described later to focus the main subject image on the imaging surface of the image sensor 103. . Further, the focus control unit may further consider a detected human face or human shape, which will be described later, when the main subject image is focused on the imaging surface of the imaging device 103.

駆動部102は、フォーカス制御部から受けた制御信号に基づいて駆動信号を生成する。駆動部102は、生成した駆動信号をモータに送る。駆動部102は、フォーカス制御時、フォーカスレンズを光軸方向に駆動する。   The drive unit 102 generates a drive signal based on the control signal received from the focus control unit. The drive unit 102 sends the generated drive signal to the motor. The drive unit 102 drives the focus lens in the optical axis direction during focus control.

AE制御部は、画像処理部105で算出されたAE(auto exposure:自動露光)評価値に基づいて、絞りの絞り量やシャッター速度を算出する。なお、AE評価値は、画像信号の輝度値に基づいて画像処理部105で算出されたものである。AE制御部は、算出の結果得られた絞り量を絞り制御部に出力する。   Based on the AE (auto exposure) evaluation value calculated by the image processing unit 105, the AE control unit calculates the aperture amount of the aperture and the shutter speed. The AE evaluation value is calculated by the image processing unit 105 based on the luminance value of the image signal. The AE control unit outputs the aperture amount obtained as a result of the calculation to the aperture control unit.

絞り制御部は、取得した絞り量を制御信号として駆動部102に出力する。絞り制御部は、撮影時に、本撮影に用いる絞り値に基づいて光量を制御する。駆動部102は、絞り制御部から受けた制御信号に基づいて駆動信号を生成する。駆動部102は、生成した駆動信号をモータに送る。   The aperture control unit outputs the acquired aperture amount to the drive unit 102 as a control signal. The aperture control unit controls the amount of light based on the aperture value used for the actual shooting at the time of shooting. The drive unit 102 generates a drive signal based on the control signal received from the aperture control unit. The drive unit 102 sends the generated drive signal to the motor.

画像処理選択部は、画像信号に対するガンマ補正、輪郭強調処理などの画像処理を行うか否かを選択したり、各画像処理に必要なパラメータを設定したりする。画像処理選択部は、選択結果や設定したパラメータを画像処理部105に送る。   The image processing selection unit selects whether or not to perform image processing such as gamma correction and contour enhancement processing on the image signal, and sets parameters necessary for each image processing. The image processing selection unit sends the selection result and the set parameters to the image processing unit 105.

GUI管理部は、表示部126に表示される画像のサムネイル画面や、撮像装置100の操作のためのメニュー画面などのGUI(graphic user interface)を管理する。GUI管理部は、例えば、操作入力部124からの操作信号を受けて、操作信号に基づいた制御信号を表示制御部125に送る。   The GUI management unit manages a GUI (graphic user interface) such as a thumbnail screen of images displayed on the display unit 126 and a menu screen for operating the imaging apparatus 100. For example, the GUI management unit receives an operation signal from the operation input unit 124 and sends a control signal based on the operation signal to the display control unit 125.

RAM122は、例えば、SDRAM(synchronous DRAM)であり、撮影した画像の画像データを一時的に保存する。RAM122は、複数の画像の画像データを記憶できる記憶容量を有している。また、RAM122は、フォーカス制御時の画像信号を順次保持し、画像信号を出力する。また、RAM122は、MPU110の動作プログラムを保存する。RAM122への画像の読み書きは、画像入力コントローラによって制御される。   The RAM 122 is, for example, an SDRAM (synchronous DRAM), and temporarily stores image data of captured images. The RAM 122 has a storage capacity capable of storing image data of a plurality of images. The RAM 122 sequentially holds image signals at the time of focus control and outputs image signals. The RAM 122 stores an operation program for the MPU 110. Reading and writing of images to and from the RAM 122 is controlled by an image input controller.

操作入力部124は、例えば、撮像装置100に設けられた上下左右キー124b、電源スイッチ、モードダイヤル、シャッターボタン124aなどである。操作入力部124は、ユーザによる操作に基づいて操作信号を操作入力I/F123を介してMPU110等に送る。例えば、シャッターボタン124aは、ユーザによる半押し、全押し、解除が可能である。シャッターボタン124aは、半押し(S1操作)されたときフォーカス制御開始の操作信号を出力し、半押し解除でフォーカス制御が終了する。また、シャッターボタン124aは、全押し(S2操作)されたとき、撮影開始の操作信号を出力する。   The operation input unit 124 is, for example, an up / down / left / right key 124b, a power switch, a mode dial, or a shutter button 124a provided in the imaging apparatus 100. The operation input unit 124 sends an operation signal to the MPU 110 or the like via the operation input I / F 123 based on an operation by the user. For example, the shutter button 124a can be half pressed, fully pressed, or released by the user. When the shutter button 124a is half-pressed (S1 operation), an operation signal for starting focus control is output, and when the half-press is released, the focus control ends. Further, when the shutter button 124a is fully pressed (S2 operation), an operation signal for starting photographing is output.

表示制御部125は、例えばRAM122に割り当てられたVRAMから画像データを受けて、LCD(liquid crystal display:液晶画面)、有機ELディスプレイ等の表示部126に画像を表示する。   The display control unit 125 receives image data from, for example, a VRAM assigned to the RAM 122 and displays an image on a display unit 126 such as an LCD (liquid crystal display) or an organic EL display.

表示部126は、撮像装置100本体に設けられる。表示部126が表示する画像は、例えば、VRAMから読み出された撮影前の画像(被写体像)(ライブビュー表示)、撮像装置100の各種設定画面や、撮像して記録された画像などである。また、表示部126は、後述する方法で算出された主被写体像の位置に基づいて、主被写体の位置を画面に表示する。また、表示部126は、主被写体の位置を画面に表示する際、後述する形状認識部によって検出された人物の顔や人物形状を更に考慮してもよい。   The display unit 126 is provided in the main body of the imaging device 100. The image displayed by the display unit 126 is, for example, an image before shooting (subject image) (live view display) read from the VRAM, various setting screens of the imaging device 100, images recorded and recorded, and the like. . The display unit 126 displays the position of the main subject on the screen based on the position of the main subject image calculated by a method described later. Further, when displaying the position of the main subject on the screen, the display unit 126 may further take into account the human face and the human shape detected by the shape recognition unit described later.

VRAM(video RAM)は、画像表示用のメモリであり、複数のチャネルを有する。VRAMは、RAM122からの画像表示用の画像データの入力と、表示制御部125への画像データの出力を同時に実行できる。表示部126の解像度や最大発色数はVRAMの容量に依存する。   VRAM (video RAM) is a memory for image display and has a plurality of channels. The VRAM can simultaneously input image data for image display from the RAM 122 and output image data to the display control unit 125. The resolution and the maximum number of colors of the display unit 126 depend on the capacity of the VRAM.

メモリカードI/F127は、メモリカード128への画像データの書き込み、又はメモリカード128に記録された画像データや設定情報などの読み出しを制御する。メモリカード128は、磁気ディスク、半導体記憶媒体などであり、撮影された画像データを記録する。なお、本実施形態は、メモリカードに限定されず、例えば、光ディスク(CD、DVD、ブルーレイディスク等)、光磁気ディスクなどでもよい。メモリカード128は、撮像装置100から着脱可能に構成されてもよい。   The memory card I / F 127 controls writing of image data to the memory card 128 or reading of image data and setting information recorded on the memory card 128. The memory card 128 is a magnetic disk, a semiconductor storage medium, or the like, and records captured image data. Note that the present embodiment is not limited to a memory card, and may be, for example, an optical disc (CD, DVD, Blu-ray disc, etc.), a magneto-optical disc, or the like. The memory card 128 may be configured to be detachable from the imaging device 100.

外部入出力I/F129は、例えば、USB端子、IEEE 1394端子等であり、外部装置と接続可能なインターフェースである。各種データは、外部入出力I/F129を介して、撮像装置100に各種情報や指令が入力される。   The external input / output I / F 129 is, for example, a USB terminal, an IEEE 1394 terminal, or the like, and is an interface that can be connected to an external device. Various types of data are input to the imaging apparatus 100 via the external input / output I / F 129.

GPS通信部130は、撮影位置情報取得部の一例であり、GPS衛星から電波を受信して、撮像装置100の現在位置の位置情報(第1の位置情報)を取得する。ここで、位置情報とは、現在位置の例えば緯度、経度、高度などである。   The GPS communication unit 130 is an example of a shooting position information acquisition unit, receives radio waves from GPS satellites, and acquires position information (first position information) of the current position of the imaging device 100. Here, the position information is, for example, latitude, longitude, altitude, etc. of the current position.

無線通信部140は、被写体位置情報取得部の一例であり、位置情報発信装置200に接続して、位置情報発信装置200から位置情報発信装置200を特定する識別情報や位置情報発信装置200の位置情報(第2の位置情報)を受信する。   The wireless communication unit 140 is an example of a subject position information acquisition unit, and is connected to the position information transmission device 200 to identify the position information transmission device 200 from the position information transmission device 200 and the position of the position information transmission device 200. Information (second position information) is received.

電子コンパス150は、撮影方向情報取得部の一例であり、地磁気センサーを用いて方位を検知する。本実施形態では、通常用いられる電子コンパスを適用することができる。電子コンパス150は、撮像装置100の光学ブロック101の撮像レンズの方向と同一にして、撮像装置100に設置される。これにより、電子コンパス150は、撮影時の撮影方向に関する撮影方向情報を取得することができる。   The electronic compass 150 is an example of an imaging direction information acquisition unit, and detects an orientation using a geomagnetic sensor. In the present embodiment, a commonly used electronic compass can be applied. The electronic compass 150 is installed in the imaging apparatus 100 in the same direction as the imaging lens of the optical block 101 of the imaging apparatus 100. Thereby, the electronic compass 150 can acquire shooting direction information related to the shooting direction at the time of shooting.

また、MPU110は、位置関係算出部と、主被写体像位置算出部と、形状認識部を有する。位置関係算出部は、撮像装置100の位置情報と位置情報発信装置200の位置情報に基づいて主被写体との位置関係を算出する。主被写体像位置算出部は、算出された主被写体と撮像装置100の位置関係と、撮像レンズの撮像方向に基づいて、被写体像における主被写体像の位置を算出する。形状認識部は、被写体像の中から人物の顔又は人物形状を検出する。   Further, the MPU 110 includes a positional relationship calculation unit, a main subject image position calculation unit, and a shape recognition unit. The positional relationship calculation unit calculates the positional relationship with the main subject based on the positional information of the imaging device 100 and the positional information of the positional information transmission device 200. The main subject image position calculation unit calculates the position of the main subject image in the subject image based on the calculated positional relationship between the main subject and the imaging apparatus 100 and the imaging direction of the imaging lens. The shape recognition unit detects a human face or a human shape from the subject image.

[位置情報発信装置200の構成]
次に、本発明の一実施形態に係る位置情報発信装置200の構成について説明する。図3は、本実施形態に係る位置情報発信装置200の構成を示すブロック図である。
[Configuration of Position Information Transmitting Device 200]
Next, the configuration of the position information transmission device 200 according to an embodiment of the present invention will be described. FIG. 3 is a block diagram illustrating a configuration of the position information transmission device 200 according to the present embodiment.

本実施形態に係る位置情報発信装置200は、例えば、MPU210と、ROM221と、RAM222と、GPS通信部230と、無線通信部240と、操作入力部224等を有する。   The position information transmission apparatus 200 according to the present embodiment includes, for example, an MPU 210, a ROM 221, a RAM 222, a GPS communication unit 230, a wireless communication unit 240, an operation input unit 224, and the like.

MPU210は、例えばROM221に記録されたプログラムによって演算処理装置及び制御装置として機能し、位置情報発信装置200内に設けられた各構成要素の処理を制御する。また、MPU210は、操作入力部224からの信号に基づいて位置情報発信装置200の各構成要素を制御する。なお、本実施形態においては、MPU110が1つだけからなる構成であるが、信号系の命令と操作系の命令とを別々のMPUで行うなど複数のMPUから構成されてもよい。   The MPU 210 functions as an arithmetic processing device and a control device according to a program recorded in the ROM 221, for example, and controls processing of each component provided in the position information transmission device 200. Further, the MPU 210 controls each component of the position information transmission device 200 based on a signal from the operation input unit 224. In this embodiment, only one MPU 110 is used. However, the MPU 110 may be configured by a plurality of MPUs such as a separate MPU for signal-related commands and operation-related commands.

ROM221は、例えば位置情報発信装置200の識別情報を保存している。また、RAM222は、例えば、取得した位置情報を一時的に保存する。また、RAM222は、MPU210の動作プログラムを保存する。操作入力部224は、ユーザによる操作に基づいて操作信号をMPU210等に送る。   The ROM 221 stores, for example, identification information of the position information transmission device 200. The RAM 222 temporarily stores the acquired position information, for example. The RAM 222 stores an operation program for the MPU 210. The operation input unit 224 sends an operation signal to the MPU 210 or the like based on an operation by the user.

GPS通信部230は、GPS衛星から電波を受信して、位置情報発信装置200の現在位置の位置情報を取得する。ここで、位置情報とは、位置情報発信装置200の現在位置の例えば緯度、経度、高度などである。   The GPS communication unit 230 receives radio waves from GPS satellites and acquires position information on the current position of the position information transmission device 200. Here, the position information is, for example, the latitude, longitude, altitude, and the like of the current position of the position information transmission device 200.

無線通信部240は、撮像装置100に接続して、位置情報発信装置200を特定する識別情報や位置情報発信装置200の位置情報(第2の位置情報)を撮像装置100に送信する。   The wireless communication unit 240 is connected to the imaging apparatus 100 and transmits identification information for specifying the positional information transmission apparatus 200 and positional information (second positional information) of the positional information transmission apparatus 200 to the imaging apparatus 100.

なお、撮像装置100及び位置情報発信装置200における一連の処理は、ハードウェアで処理してもよいし、コンピュータ上のプログラムによるソフトウェア処理で実現してもよい。   Note that a series of processing in the imaging device 100 and the position information transmission device 200 may be performed by hardware or may be realized by software processing using a program on a computer.

<一実施形態の動作>
次に、図4〜図6を参照して、本実施形態に係る撮像装置100の動作について説明する。図4は、本実施形態に係る撮像装置100の動作を示すフローチャートである。図5は、撮像装置100と被写体である人物20、22との関係を示す説明図である。図6は、人物20、22が表示された撮像装置100の表示部126を示す説明図である。図6では、撮像装置100が更に人物群を撮影している様子を表している。
<Operation of One Embodiment>
Next, the operation of the imaging apparatus 100 according to the present embodiment will be described with reference to FIGS. FIG. 4 is a flowchart illustrating the operation of the imaging apparatus 100 according to the present embodiment. FIG. 5 is an explanatory diagram showing a relationship between the imaging apparatus 100 and the persons 20 and 22 as subjects. FIG. 6 is an explanatory diagram showing the display unit 126 of the imaging apparatus 100 on which the persons 20 and 22 are displayed. FIG. 6 illustrates a state in which the image capturing apparatus 100 further captures a person group.

ここでは、図5に示すように、人物20が大勢いるシーンで、撮影者10が意図する人物22を撮影する場合について、説明する。このとき、人物22は、撮影前に予め位置情報発信装置200を携行しておく。また、撮像装置100は、予め位置情報発信装置200の識別情報を取得しておく。   Here, as shown in FIG. 5, a case where a person 22 intended by the photographer 10 is photographed in a scene where there are many persons 20 will be described. At this time, the person 22 carries the position information transmission device 200 in advance before photographing. Moreover, the imaging device 100 acquires the identification information of the position information transmission device 200 in advance.

まず、撮像装置100は、人物22が携行している位置情報発信装置200から被写体の位置情報と、位置情報発信装置200の識別情報(被写体情報)を受信しているか否かを判断する(ステップS101)。位置情報及び識別情報を受信するまでは、待機状態となる。受信した識別情報が、予め取得しておいた識別情報と一致する場合は、被写体の人物22からの情報であると判断する。   First, the imaging apparatus 100 determines whether or not the position information transmitting apparatus 200 carried by the person 22 has received the position information of the subject and the identification information (subject information) of the position information transmitting apparatus 200 (step). S101). Until position information and identification information are received, a standby state is established. If the received identification information matches the previously acquired identification information, it is determined that the information is from the person 22 of the subject.

また、撮像装置100は、電子コンパス150から撮像レンズが向いている撮影方向に関する撮影方向情報を取得する(ステップS102)。更に、撮像装置100は、GPS通信部130から撮像装置100自体の位置情報を取得する(ステップS103)。   In addition, the imaging apparatus 100 acquires shooting direction information regarding the shooting direction in which the imaging lens faces from the electronic compass 150 (step S102). Furthermore, the imaging device 100 acquires position information of the imaging device 100 itself from the GPS communication unit 130 (step S103).

次に、撮像装置100の位置情報と、被写体人物22の位置情報の差分を計算して、撮像装置100と被写体との間の距離を算出する(ステップS104)。これにより、被写体が撮像装置100からどの程度はなれているかが分かる。また、撮像装置100の位置と、被写体人物22の位置を結んだ線分の方向と、電子コンパス150を用いて算出した撮像装置100の撮影方向に基づいて、撮像装置100に対する被写体人物22の方向を算出する(ステップS104)。例えば、図5に示すように、被写体人物22は、撮像装置100の撮影方向に対して角度Aの方向にいるという情報を算出できる。   Next, the difference between the position information of the imaging device 100 and the position information of the subject person 22 is calculated, and the distance between the imaging device 100 and the subject is calculated (step S104). Thereby, it can be seen how far the subject is from the imaging apparatus 100. The direction of the subject person 22 with respect to the imaging device 100 based on the direction of the line connecting the position of the imaging device 100, the position of the subject person 22, and the shooting direction of the imaging device 100 calculated using the electronic compass 150. Is calculated (step S104). For example, as illustrated in FIG. 5, information that the subject person 22 is in the direction of the angle A with respect to the shooting direction of the imaging apparatus 100 can be calculated.

また、撮像装置100は、顔認識技術を用いて、被写体像に含まれる人物20、22の顔を認識する(ステップS105)。なお、顔認識技術に限定されず、人の形状を認識する形状認識技術を用いてもよい。   In addition, the imaging apparatus 100 recognizes the faces of the persons 20 and 22 included in the subject image using a face recognition technique (step S105). Note that the present invention is not limited to the face recognition technique, and a shape recognition technique for recognizing a person's shape may be used.

そして、算出された撮像装置100から被写体人物22までの距離及び方向に基づいて、被写体人物22が、撮影された被写体像(表示部126の画面)のうちどの位置にいるか、又は被写体像(表示部126の画面)から外れた位置にいるかを判断する(ステップS106)。なお、被写体人物22が表示部126の画面に含まれるかどうかは、撮像レンズの画角も考慮して計算する。被写体人物22が表示部126の画面の内側にいると判断された場合は、顔認識技術と合わせて、図6(A)に示すように、顔検出枠(被写体枠)190を画面上に表示する(ステップS108)。一方、被写体人物22が表示部126の画面の内側にいると判断された場合は、図6(B)に示すように、被写体人物22がいる方向を指した矢印192を画面上に表示する(ステップS107)。これにより、人物が大勢いるシーンでも、被写体人物22がどの辺りにいるかを簡潔に知ることができる。   Then, based on the calculated distance and direction from the imaging device 100 to the subject person 22, the subject person 22 is located in the captured subject image (screen of the display unit 126) or the subject image (display). It is determined whether the position is out of the screen of the unit 126 (step S106). Whether or not the subject person 22 is included in the screen of the display unit 126 is calculated in consideration of the angle of view of the imaging lens. When it is determined that the subject person 22 is inside the screen of the display unit 126, a face detection frame (subject frame) 190 is displayed on the screen as shown in FIG. (Step S108). On the other hand, if it is determined that the subject person 22 is inside the screen of the display unit 126, an arrow 192 pointing to the direction in which the subject person 22 is present is displayed on the screen as shown in FIG. Step S107). Thereby, even in a scene where there are many people, it is possible to simply know where the subject person 22 is.

そして、ユーザによってシャッターボタン124aが半押し操作されたか否かを判断する(ステップS109)。半押し操作されたときは、算出された被写体人物22までの距離を用いてフォーカス制御を開始し、ステップS108で表示された顔検出枠190にピントを合わせる(ステップS110)。
なお、半押し操作される前に、ステップS108で表示された顔検出枠190にピントが合うように、出された被写体人物22までの距離を用いて予めフォーカス制御を開始してもよい。
Then, it is determined whether or not the user has pressed the shutter button 124a halfway (step S109). When half-pressed, the focus control is started using the calculated distance to the subject person 22, and the face detection frame 190 displayed in step S108 is focused (step S110).
Note that focus control may be started in advance using the distance to the subject person 22 so that the face detection frame 190 displayed in step S108 is in focus before being half-pressed.

その後、ユーザによってシャッターボタン124aが全押し操作されたか否かを判断し(ステップS111)、全押し操作されたときは、本撮影処理をする(ステップS112)。なお、上記では、顔検出後にピントを合わせるとしたが、本実施形態では、被写体との距離も算出できるため、算出された距離に基づいてピントを合わせた後、顔検出をして顔検出枠190を表示部126に表示するとしてもよい。   Thereafter, it is determined whether or not the shutter button 124a is fully pressed by the user (step S111). When the shutter button 124a is fully pressed, the main photographing process is performed (step S112). In the above description, the focus is adjusted after the face is detected. However, in this embodiment, since the distance to the subject can also be calculated, the face is detected based on the calculated distance and the face is detected. 190 may be displayed on the display unit 126.

上述した通り、本実施形態の撮像装置100によれば、撮像装置100側では、撮像装置100の位置情報と、位置情報発信装置200を有する撮影対象(例えば被写体人物22)の位置情報の差分を計算する。その結果、撮像装置100から撮影対象がどの程度離れているかを算出することができる。また、表示部126の画面上(ないしは、画面外)のどの位置に撮影対象が存在するかの情報も同時に得ることができる。   As described above, according to the imaging apparatus 100 of the present embodiment, on the imaging apparatus 100 side, the difference between the positional information of the imaging apparatus 100 and the positional information of the shooting target (for example, the subject person 22) having the positional information transmission apparatus 200 is obtained. calculate. As a result, it is possible to calculate how far the imaging target is from the imaging apparatus 100. In addition, information on which position on the screen of the display unit 126 (or outside the screen) the photographing object is present can be obtained at the same time.

撮像装置100は、上記の位置情報を用いて、撮影対象の画面上の位置を判別し、その撮影対象に焦点が合うように制御を行う。さらに、撮影対象の顔を認識し、その顔に焦点が合うように制御を行えば、より高精度なフォーカス制御(自動焦点制御)を行うことができる。   The imaging apparatus 100 determines the position of the shooting target on the screen using the position information and performs control so that the shooting target is focused. Furthermore, if a face to be photographed is recognized and control is performed so that the face is in focus, more accurate focus control (automatic focus control) can be performed.

また、レンズの焦点位置を合わせる際には、撮影対象がどの位置に存在しているかを撮像装置100の画面上に表示する。これにより、ユーザは、撮影対象がどこに映っているのかを容易に知ることができると共に、焦点が正しく合っていることを確認できる。また、撮影対象が画面外に出ている場合には、撮影対象がどこにいるのかを矢印のような記号で印すようにすれば、ユーザの利便性が向上する。   Further, when the focal position of the lens is adjusted, the position where the photographing target exists is displayed on the screen of the imaging apparatus 100. Accordingly, the user can easily know where the photographing target is reflected and can confirm that the focus is correct. Further, when the shooting target is out of the screen, the user's convenience is improved by marking where the shooting target is with a symbol such as an arrow.

本実施形態は、例えば、被写体中に多数の人物が含まれている場合でも、撮影者が意図する人物を識別することができ、その人物に確実にピントを合わせることができる。例えば、運動会や学芸会など子供が大勢いて、撮影者が意図する自分の子供を見つけにくいシーン等に適用することができる。本実施形態によれば、被写体像の中から意図する撮影対象を容易に識別することができる。撮影対象となる人物に、予め位置情報発信装置200を携行させておくことで、撮像装置100が容易に撮影対象を発見することができ、更にフォーカス制御を迅速に行なうことができる。   In the present embodiment, for example, even when a subject includes a large number of persons, the person intended by the photographer can be identified, and the person can be surely focused. For example, the present invention can be applied to a scene where there are a large number of children such as athletic meet and school entertainment party and it is difficult for the photographer to find his / her child. According to the present embodiment, the intended photographing target can be easily identified from the subject image. By bringing the position information transmission device 200 to the person to be imaged in advance, the image capturing apparatus 100 can easily find the object to be imaged, and the focus control can be quickly performed.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

例えば、上記実施形態では、位置情報発信装置200が1台であり、撮像装置100が1台である撮像システムについて説明したが、本発明はかかる例に限定されない。例えば、位置情報発信装置200が複数台であり、撮像装置100が1台である撮像システムであってもよい。このとき、撮像装置100は、撮影前に予め複数台のそれぞれの位置情報発信装置200の識別番号を記憶しておけば、複数人を意図する被写体としたい時にも、それぞれの人物を識別することができる。   For example, in the above-described embodiment, the imaging system in which the position information transmission device 200 is one and the imaging device 100 is one has been described, but the present invention is not limited to such an example. For example, an imaging system in which there are a plurality of positional information transmission devices 200 and one imaging device 100 may be used. At this time, if the imaging device 100 stores the identification numbers of the plurality of position information transmission devices 200 in advance before shooting, the imaging device 100 can identify each person even when a plurality of people are intended subjects. Can do.

本発明の一実施形態に係る撮像システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an imaging system according to an embodiment of the present invention. 同実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on the same embodiment. 同実施形態に係る位置情報発信装置の構成を示すブロック図である。It is a block diagram which shows the structure of the positional infomation transmission apparatus which concerns on the same embodiment. 同実施形態に係る撮像装置の動作を示すフローチャートである。4 is a flowchart illustrating an operation of the imaging apparatus according to the embodiment. 撮像装置と被写体である人物との関係を示す説明図である。It is explanatory drawing which shows the relationship between an imaging device and the person who is a to-be-photographed object. 人物が表示された撮像装置の表示部を示す説明図である。It is explanatory drawing which shows the display part of the imaging device on which the person was displayed.

符号の説明Explanation of symbols

100 撮像装置
101 光学ブロック
102 駆動部
103 撮像素子
104 アナログ処理回路
105 画像処理部
110、210 MPU
121、221 ROM
122、222 RAM
123 操作入力I/F
124、224 操作入力部
125 表示制御部
126 表示部
127 メモリカードI/F
128 メモリカード
129 外部入出力I/F
130、230 GPS通信部
132、232 アンテナ
140、240 無線通信部
150 電子コンパス
200 位置情報発信装置
DESCRIPTION OF SYMBOLS 100 Imaging device 101 Optical block 102 Drive part 103 Image pick-up element 104 Analog processing circuit 105 Image processing part 110, 210 MPU
121,221 ROM
122, 222 RAM
123 Operation input I / F
124, 224 Operation input unit 125 Display control unit 126 Display unit 127 Memory card I / F
128 Memory card 129 External input / output I / F
130, 230 GPS communication unit 132, 232 Antenna 140, 240 Wireless communication unit 150 Electronic compass 200 Location information transmitter

Claims (6)

撮像レンズを介して被写体像の画像データを取得する撮影部と、
撮影位置に関する第1の位置情報を取得する撮影位置情報取得部と、
主被写体の被写体位置に関する第2の位置情報を取得する被写体位置情報取得部と、
前記撮像レンズの撮影方向に関する撮影方向情報を取得する撮影方向情報取得部と、
前記第1の位置情報と前記第2の位置情報に基づいて前記主被写体との位置関係を算出する位置関係算出部と、
前記算出された主被写体との位置関係と、前記撮像レンズの撮像方向に基づいて、前記被写体像における前記主被写体像の位置を算出する主被写体像位置算出部と
を有する、撮像装置。
An imaging unit that acquires image data of a subject image via an imaging lens;
A shooting position information acquisition unit that acquires first position information related to the shooting position;
A subject position information acquisition unit that acquires second position information related to the subject position of the main subject;
A shooting direction information acquisition unit that acquires shooting direction information related to the shooting direction of the imaging lens;
A positional relationship calculating unit that calculates a positional relationship with the main subject based on the first positional information and the second positional information;
An imaging apparatus comprising: a main subject image position calculation unit that calculates a position of the main subject image in the subject image based on the calculated positional relationship with the main subject and an imaging direction of the imaging lens.
前記被写体像を表示し、前記算出された主被写体像の位置に基づいて、前記主被写体の位置を表示する表示部を更に有する、請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a display unit that displays the subject image and displays the position of the main subject based on the calculated position of the main subject image. 前記被写体像の中から人物の顔又は人物形状を検出する形状認識部を更に有し、
前記表示部は、前記検出された人物の顔又は人物形状と、前記被写体像における前記主被写体像の位置に基づいて、前記主被写体の位置を表示する、請求項2に記載の撮像装置。
A shape recognition unit for detecting a human face or a human shape from the subject image;
The imaging apparatus according to claim 2, wherein the display unit displays the position of the main subject based on the detected face or shape of the person and the position of the main subject image in the subject image.
前記位置関係算出部は、前記主被写体との距離を算出し、
前記算出された主被写体との距離に基づいて、フォーカスレンズを駆動し、前記主被写体像を前記撮影部の撮像面に合焦させる合焦制御部を更に有する、請求項1〜3のいずれかに記載の撮像装置。
The positional relationship calculation unit calculates a distance from the main subject,
4. The apparatus according to claim 1, further comprising: a focus control unit that drives a focus lens based on the calculated distance from the main subject and focuses the main subject image on the imaging surface of the imaging unit. The imaging device described in 1.
前記合焦制御部は、前記検出された人物の顔又は人物形状と、前記算出された主被写体との距離に基づいて、前記主被写体像を前記撮影部の撮像面に合焦させる、請求項4に記載の撮像装置。   The focus control unit focuses the main subject image on an imaging surface of the photographing unit based on a distance between the detected human face or person shape and the calculated main subject. 5. The imaging device according to 4. 撮像レンズを介して被写体像の画像データを取得するステップと、
撮影位置に関する第1の位置情報を取得するステップと、
主被写体の被写体位置に関する第2の位置情報を取得するステップと、
前記撮像レンズの撮影方向に関する撮影方向情報を取得するステップと、
前記第1の位置情報と前記第2の位置情報に基づいて前記主被写体との位置関係を算出するステップと、
前記算出された主被写体との位置関係と、前記撮像レンズの撮像方向に基づいて、前記被写体像における前記主被写体像の位置を算出するステップと
を有する、撮像方法。


Acquiring image data of a subject image via an imaging lens;
Obtaining first position information relating to the shooting position;
Obtaining second position information relating to the subject position of the main subject;
Obtaining shooting direction information relating to the shooting direction of the imaging lens;
Calculating a positional relationship with the main subject based on the first position information and the second position information;
An imaging method comprising: calculating a position of the main subject image in the subject image based on the calculated positional relationship with the main subject and an imaging direction of the imaging lens.


JP2008305689A 2008-11-28 2008-11-28 Imaging apparatus and imaging method Pending JP2010130590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008305689A JP2010130590A (en) 2008-11-28 2008-11-28 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008305689A JP2010130590A (en) 2008-11-28 2008-11-28 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2010130590A true JP2010130590A (en) 2010-06-10

Family

ID=42330592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008305689A Pending JP2010130590A (en) 2008-11-28 2008-11-28 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2010130590A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013251796A (en) * 2012-06-01 2013-12-12 Sharp Corp Photographing device, and control method and control program of the same
US10965876B2 (en) 2017-11-08 2021-03-30 Panasonic Intellectual Property Management Co., Ltd. Imaging system, imaging method, and not-transitory recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Imaging equipment
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314851A (en) * 2001-04-10 2002-10-25 Nikon Corp Imaging equipment
JP2008276214A (en) * 2007-04-04 2008-11-13 Nikon Corp Digital camera

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013251796A (en) * 2012-06-01 2013-12-12 Sharp Corp Photographing device, and control method and control program of the same
US10965876B2 (en) 2017-11-08 2021-03-30 Panasonic Intellectual Property Management Co., Ltd. Imaging system, imaging method, and not-transitory recording medium

Similar Documents

Publication Publication Date Title
JP4702441B2 (en) Imaging apparatus and imaging method
JP5609270B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP4571617B2 (en) Imaging apparatus and imaging method
JP4127491B2 (en) Camera with auto focus function
KR20110056099A (en) Digital recording device, its control method and recording medium storing program for executing same
JP4533735B2 (en) Stereo imaging device
JP2009251557A (en) Imaging apparatus
CN103188440B (en) Camera and camera method
JP2003307669A (en) camera
JP2014048329A (en) Imaging device
JP4767904B2 (en) Imaging apparatus and imaging method
WO2012132626A1 (en) Image display apparatus and image display method
JP2011217334A (en) Imaging apparatus and method of controlling the same
JP2010130590A (en) Imaging apparatus and imaging method
JP5486662B2 (en) Imaging device and camera body
JP4702220B2 (en) Imaging apparatus and imaging method
JP2009111827A (en) Imaging device and image file providing system
JP2009008842A (en) Imaging system, imaging apparatus, method and program
JP2006174010A (en) Imaging apparatus
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP2010060810A (en) Imaging apparatus and imaging method
JP5176934B2 (en) Electronic camera
JP2003315665A (en) camera
JPH11344746A (en) Camera
JP2009141669A (en) Imaging apparatus, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110914

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204