[go: up one dir, main page]

JP2012124554A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2012124554A
JP2012124554A JP2010271201A JP2010271201A JP2012124554A JP 2012124554 A JP2012124554 A JP 2012124554A JP 2010271201 A JP2010271201 A JP 2010271201A JP 2010271201 A JP2010271201 A JP 2010271201A JP 2012124554 A JP2012124554 A JP 2012124554A
Authority
JP
Japan
Prior art keywords
subject
distance
unit
information
long
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010271201A
Other languages
Japanese (ja)
Inventor
Takahito Fukute
隆仁 福手
Takeshi Togashi
豪 富樫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010271201A priority Critical patent/JP2012124554A/en
Publication of JP2012124554A publication Critical patent/JP2012124554A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 簡易な方法で画像処理による遠距離の被写体の測距を行い,その被写体の位置や名称の情報を得ることができる撮像装置を提供することである。
【解決手段】 一つの被写体を異なる場所から撮影した一対の画像を画像処理し,該二画像から検出した該被写体の画像間視差から該被写体までの距離を演算する遠距離測距演算部と,前記姿勢計測部からの姿勢情報および前記方位計測部から方位情報を用いた補助情報を表示し,撮影した画像を前記遠距離測距演算部に伝達する遠距離測距制御部とを備える。
【選択図】 図1
PROBLEM TO BE SOLVED: To provide an imaging device capable of measuring a distance object by image processing by a simple method and obtaining information on the position and name of the object.
A long-distance ranging calculation unit that performs image processing on a pair of images obtained by photographing one subject from different locations, and calculates a distance to the subject from parallax between the images of the subject detected from the two images; A long-distance ranging control unit that displays posture information from the posture measuring unit and auxiliary information using the azimuth information from the azimuth measuring unit and transmits a photographed image to the long-distance ranging calculation unit;
[Selection] Figure 1

Description

本発明は,測位機能を備え,装置本体の位置だけでなく,記録した被写体の位置や名称を表示および記録可能な撮像装置および撮像装置の制御方法に関する。   The present invention relates to an imaging apparatus having a positioning function and capable of displaying and recording not only the position of the apparatus main body but also the position and name of a recorded subject, and a control method for the imaging apparatus.

従来,撮像装置に測位機能を備え,装置本体の位置,すなわち撮影場所の位置情報を画像に付与することで後から撮影場所の確認を容易にしたりする機能がある。また,これをさらに応用し,撮影した場所だけでなく,被写体の位置情報や名称を表示および記録する技術が提案されている。例えば,特許文献1では,GPSなどによるカメラ位置測位,位相差センサなどによる被写体の測距,及び方位センサなどによる方位計測を行い,取得したカメラ位置,被写体との距離,及び方位を基に被写体の位置を算出する技術が開示されている。また,算出した被写体位置をキーとしてデータベースを検索してズーム値に応じた名称を取り出し,取り出した名称をスルー画像に重畳表示し,撮影を行うと撮影画像及び撮影画像に対応付けた被写体情報を記録する技術が開示されている。   2. Description of the Related Art Conventionally, an imaging apparatus has a positioning function, and has a function of easily confirming a shooting location later by adding position information of the apparatus body, that is, position information of the shooting location to an image. In addition, a technique for displaying and recording not only the shooting location but also the position information and name of the subject has been proposed. For example, in Patent Document 1, a camera position is measured by GPS or the like, a subject is measured by a phase difference sensor or the like, and a direction is measured by an azimuth sensor or the like, and the subject is based on the acquired camera position, distance to the subject, and direction. A technique for calculating the position of is disclosed. Further, the database is searched using the calculated subject position as a key, a name corresponding to the zoom value is extracted, the extracted name is superimposed and displayed on the through image, and the subject information associated with the photographed image and the photographed image is obtained when photographing is performed. A technique for recording is disclosed.

一方で,位相差センサなどの測距手段ではなく,複数のカメラで撮影された画像を画像処理して被写体までの距離を測定する技術が提案されている。例えば,特許文献2では自動車用の車室内に取り付けられたステレオカメラから車外の対象風景を撮像し,その撮像した画像を画像処理して車両から対象物までの距離を計測する技術が開示されている。   On the other hand, there has been proposed a technique for measuring the distance to a subject by performing image processing on images taken by a plurality of cameras instead of a distance measuring means such as a phase difference sensor. For example, Patent Document 2 discloses a technique for capturing an object scene outside a vehicle from a stereo camera mounted in a vehicle interior, and processing the captured image to measure the distance from the vehicle to the object. Yes.

特開2001−169164号公報JP 2001-169164 A 特開平05−114099号公報Japanese Patent Laid-Open No. 05-114099

しかしながら,特許文献1に開示された位相差センサや光パルス測距装置などの測距手段では,その測距原理から比較的近距離の被写体を高精度に測距するのには適しているが,遠距離の被写体の測距には適していない。例えば位相差センサは,カメラ内部の撮影レンズの異なる場所を通った2つの像をずれ量を用いて測距するため,被写体が遠距離になるほど2つの像のずれ量が少なくなり,測距精度が落ちる。また,光パルス測距装置は,投射光が被写体で反射して戻ってくるまでの時間で測距するため,遠距離の被写体では投射光が届かず測距できない。これに対して,より大きなセンサを用いたり,より強力な投射が可能な装置にすることである程度改善は可能であるが,カメラの外形寸法が大きくなり,コストがかかるため非現実的である。また,AF(Auto Focus)用途という観点では,同じ測距誤差でも遠方の被写体ほど焦点ずれへの影響が小さくなり,ある一定距離以上の被写体に対しては無限遠として扱うことができるため,遠距離の被写体に対する測距精度が要求されない。したがって,遠方の被写体に限っては,AF用途の測距手段を被写体の位置や名称などの情報を得るための測距手段として兼用できないという問題があった。   However, the distance measuring means such as the phase difference sensor and the optical pulse distance measuring device disclosed in Patent Document 1 is suitable for measuring an object at a relatively close distance with high accuracy from the distance measuring principle. , Not suitable for distance measurement of long-distance subjects. For example, the phase difference sensor measures the distance between two images that pass through different locations on the camera's photographic lens, using the amount of displacement. Therefore, the distance between the two images decreases as the subject moves further, and the accuracy of distance measurement is reduced. Falls. In addition, since the optical pulse ranging device measures the distance by the time until the projection light is reflected by the subject and returns, the projection light does not reach the subject at a long distance and cannot measure the distance. On the other hand, it can be improved to some extent by using a larger sensor or a device capable of more powerful projection, but it is unrealistic because the outer dimensions of the camera increase and the cost increases. Further, from the viewpoint of AF (Auto Focus) application, even with the same distance measurement error, the farther the subject, the smaller the influence on the defocusing is, and the subject beyond a certain distance can be treated as infinity. Ranging accuracy for distance objects is not required. Therefore, there is a problem that the distance measuring means for AF cannot be used as the distance measuring means for obtaining information such as the position and name of the subject only for a far object.

一方で,特許文献2に開示された測距方法は,2画像の水平距離差が確保できれば原理的に遠距離の測距に適しているが,それぞれの撮影光軸が平行で,かつ一定距離以上離れた状態で撮影した複数画像を用いる必要がある。本特許文献でも2台のあらかじめ光軸が調整,固定されたステレオカメラを用いており,持ち出し可能な小型の撮像装置での適用は困難であるという問題があった。   On the other hand, the distance measuring method disclosed in Patent Document 2 is suitable for distance measurement in principle if a horizontal distance difference between two images can be ensured, but each imaging optical axis is parallel and a fixed distance. It is necessary to use a plurality of images taken with the above distances. Also in this patent document, there are two stereo cameras whose optical axes are adjusted and fixed in advance, and there is a problem that it is difficult to apply in a small imaging device that can be taken out.

そこで,本発明の目的は,簡易な方法で画像処理による遠距離の被写体の測距を行い,その被写体の位置や名称の情報を得ることができる撮像装置を提供することである。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus capable of measuring a distance object by image processing by a simple method and obtaining information on the position and name of the object.

上記目的を達成するための本発明に係る撮像装置の構成は、
現在位置座標を取得するGPS部と,
近距離の被写体までの距離を計測する近距離測距部と,
遠距離の被写体までの距離を計測する遠距離測距部と,
撮影方位を計測する方位計測部と,
撮影時の水平方向や仰角方向の姿勢を計測する姿勢計測部と,
前記近距離測距部が計測した被写体までの距離と,前記遠距離測距部が計測した被写体までの距離のいずれか一方を選択する被写体距離判定部と,
被写体位置座標の演算を行う被写体位置算出部と,
を備えた撮像装置において,
前記被写体距離判定部は,前記近距離測距部が計測した被写体までの距離があらかじめ設定されたしきい値以下の場合は前記近距離測距部が計測した距離を選択し,しきい値より大きい場合は前記遠距離測距部が計測した距離を選択し,
前記被写体距離判定部が選択した被写体までの距離情報と,前記GPS部が算出した現在位置座標と,前記方位計測部が計測した撮影方位情報を用いて,前記被写体位置算出部により被写体位置を算出することを特徴とする。
In order to achieve the above object, the configuration of the imaging apparatus according to the present invention is as follows.
A GPS unit for acquiring current position coordinates;
A near-distance ranging unit that measures the distance to a near-distance subject;
A long-distance ranging unit that measures the distance to a long-distance subject;
An azimuth measuring unit for measuring the shooting direction;
A posture measurement unit that measures the posture in the horizontal and elevation directions during shooting,
A subject distance determination unit that selects either the distance to the subject measured by the short-range distance measuring unit or the distance to the subject measured by the long-range distance measuring unit;
A subject position calculation unit for calculating subject position coordinates;
In an imaging device comprising
The subject distance determination unit selects the distance measured by the short distance measurement unit when the distance to the subject measured by the short distance measurement unit is equal to or less than a preset threshold value, If it is larger, select the distance measured by the long-distance ranging unit,
The subject position calculation unit calculates the subject position using the distance information to the subject selected by the subject distance determination unit, the current position coordinates calculated by the GPS unit, and the shooting direction information measured by the direction measurement unit. It is characterized by doing.

本発明によれば,画像処理による遠距離の被写体の測距を行い,簡易な方法でその被写体の位置や名称の情報を得ることができる撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of measuring a distance object by image processing and obtaining information on the position and name of the object by a simple method.

本実施形態の被写体情報取得部の構成を示すブロック図The block diagram which shows the structure of the to-be-photographed object information acquisition part of this embodiment. 本実施形態の被写体情報取得の処理の流れを示すフロー図Flow chart showing the flow of subject information acquisition processing of this embodiment 本実施形態を適用したデジタルカメラの全体構成を示すブロック図The block diagram which shows the whole structure of the digital camera to which this embodiment is applied 本実施形態の加速度センサによるデジタルカメラの姿勢検出の概念図Conceptual diagram of posture detection of digital camera by acceleration sensor of this embodiment 本実施形態の測距後の被写体位置算出の概念図Conceptual diagram of subject position calculation after ranging according to this embodiment 電子方位差器の説明図Illustration of electronic azimuth sensor

以下,本発明をデジタルカメラに適用した実施形態を,図面を参照して説明する。   Embodiments in which the present invention is applied to a digital camera will be described below with reference to the drawings.

最初に,デジタルカメラの全体構成を図3に基づき説明する。図3は,撮像装置の全体構成を示すブロック図である。撮像装置の操作部1は,電源ボタン,再生ボタン,表示切り替えボタン,モードダイアル,ズームスイッチ,レリーズスイッチ(以上不図示)等を備え,操作者による様々な操作を検出する。操作者が操作部1の電源ボタンをONすると,電源部4のシステム系電源回路が起動する。その後,CPU5が起動し,操作者によるモードダイアルの操作に伴う撮像装置のモードの設定状態等を検出する。   First, the overall configuration of the digital camera will be described with reference to FIG. FIG. 3 is a block diagram illustrating the overall configuration of the imaging apparatus. The operation unit 1 of the imaging apparatus includes a power button, a playback button, a display switching button, a mode dial, a zoom switch, a release switch (not shown) and the like, and detects various operations by the operator. When the operator turns on the power button of the operation unit 1, the system power supply circuit of the power supply unit 4 is activated. Thereafter, the CPU 5 is activated to detect the mode setting state of the image pickup apparatus and the like accompanying the mode dial operation by the operator.

CPU5は,検出したモードが撮影モードであれば,電源回路を制御して撮像電源やバックライト電源を起動すると共に,アナログフロントエンド(以後AFE)6,メカドライバ7,液晶表示ドライバ8の初期設定を行う。メカドライバ7は,シャッタ,絞り,フォーカスやズームなどのレンズ群からなる光学系11を駆動する。AFE6は,CCD12を駆動する。液晶表示ドライバ8は,液晶パネル9を駆動する。これにより撮影可能状態に移行する。   If the detected mode is the photographing mode, the CPU 5 controls the power supply circuit to activate the imaging power supply and the backlight power supply, and initializes the analog front end (hereinafter referred to as AFE) 6, the mechanical driver 7, and the liquid crystal display driver 8. I do. The mechanical driver 7 drives an optical system 11 including a lens group such as a shutter, a diaphragm, a focus, and a zoom. The AFE 6 drives the CCD 12. The liquid crystal display driver 8 drives the liquid crystal panel 9. As a result, the state shifts to the photographing enabled state.

CPU5は,撮像装置全体の制御及びCCD12から得られた画像の処理を行う。撮像装置全体の制御としては,例えば,操作部1のボタン操作の検知とそれに応じた撮像駆動モード・表示モードの切換え制御,記録メディア13への書き込み・読み出し処理,液晶表示ドライバ8への表示データ送信,電源部4のON/OFF制御等である。CPU5は,前記以外にも,各種LEDの点灯制御,ストロボ14の充電・発光制御等も行う。   The CPU 5 controls the entire image pickup apparatus and processes an image obtained from the CCD 12. As control of the entire imaging apparatus, for example, detection of button operation of the operation unit 1 and switching control of the imaging drive mode / display mode corresponding thereto, writing / reading processing to the recording medium 13, display data to the liquid crystal display driver 8 Transmission, ON / OFF control of the power supply unit 4 and the like. In addition to the above, the CPU 5 also performs lighting control of various LEDs, charge / light emission control of the strobe 14, and the like.

撮影者が撮影可能状態でレリーズボタンを半押しすると,近距離測距部としての位相差センサ21はそのときのAF(Auto Focus)設定にしたがい,被写体までの距離を測距する。AF設定は,例えば画面を分割してそれぞれの領域で測距を行うマルチパターンAF,中央の定められた固定点で測距を行う中央一点AFなどである。それと同時にCPU5はその時の撮影モード(Av優先,Tv優先,オートなど)に応じてシャッタ速度,絞り値,ISO感度を決定し,撮影待機状態に移行する。この状態で撮影者がレリーズボタンを全押しすると,決定した撮影条件でCCD12から画像を取り込み,画像処理を行ってメディア13に記録を行う。この時,設定や撮影状況に応じてストロボの充電・発光制御も行う。   When the photographer presses the release button halfway in a state where photographing is possible, the phase difference sensor 21 as a short-distance ranging unit measures the distance to the subject according to the AF (Auto Focus) setting at that time. The AF setting includes, for example, a multi-pattern AF that divides the screen and performs distance measurement in each area, a center single point AF that performs distance measurement at a fixed point in the center, and the like. At the same time, the CPU 5 determines the shutter speed, aperture value, and ISO sensitivity according to the shooting mode (Av priority, Tv priority, auto, etc.) at that time, and shifts to the shooting standby state. In this state, when the photographer fully presses the release button, an image is captured from the CCD 12 under the determined photographing condition, is subjected to image processing, and is recorded on the medium 13. At this time, strobe charging / flash control is also performed according to the settings and shooting conditions.

次に図1を用いて本実施形態の被写体情報取得部16の構成を説明する。被写体情報取得部16は,GPS部としてのGPSアンテナ22およびGPS処理CPU23,方位計測部としての方位センサ24,姿勢計測部としての加速度センサ25,被写体情報取得CPU26,被写体情報記録手段としての被写体情報記録ROM27から構成される。被写体情報取得CPU26は,被写体距離判定部30,遠距離測距制御部31,遠距離測距演算部32,被写体位置算出部33,被写体名称検索部としての機能を併せ持つ。   Next, the configuration of the subject information acquisition unit 16 of the present embodiment will be described with reference to FIG. The subject information acquisition unit 16 includes a GPS antenna 22 and a GPS processing CPU 23 as a GPS unit, an orientation sensor 24 as an orientation measurement unit, an acceleration sensor 25 as an orientation measurement unit, a subject information acquisition CPU 26, and subject information as subject information recording means. It consists of a recording ROM 27. The subject information acquisition CPU 26 also has functions as a subject distance determination unit 30, a long-distance ranging control unit 31, a long-distance ranging calculation unit 32, a subject position calculation unit 33, and a subject name search unit.

本実施形態では,遠距離測距部として2画像によるステレオマッチング画像処理技術を用いている。画像処理技術そのものは従来技術と同じであり,同一方位すなわち互いに光軸が平行で,かつ同一姿勢すなわち互いに水平方向に回転していない(ロールしていない)2つの画像を用いる。一方の画像に写った被写体と同じ対象物をパターンマッチングによって他方の画像から探し出し,これらの水平座標の差(視差)を求めることで被写体までの距離を求める方法である。被写体情報取得CPU26は,2画像間の光軸方位や水平方向の姿勢状態が相対的にずれないように,方位センサ24,加速度センサ25から得た方位情報やカメラの姿勢情報を液晶パネル9に表示してユーザーの撮影を補助しつつ,CPU5などを介して撮像部を制御して一対の画像を取得する。さらに取得した画像に対して画像演算処理を行い,被写体までの距離RFARを算出する。さらに,GPSアンテナ22およびGPS処理CPU23を制御してカメラの位置情報を取得し,方位センサ24から得た方位とRFARを用いて被写体の位置座標を算出する。算出した位置情報をキーにして本体内の被写体情報記録ROM27に記録された位置座標に対する名称情報のデータベースを検索して被写体の名称を取得し,液晶パネル9に表示する。 In this embodiment, a stereo matching image processing technique using two images is used as the long-distance ranging unit. The image processing technique itself is the same as the conventional technique, and uses two images having the same orientation, that is, the optical axes are parallel to each other, and the same posture, that is, not rotating in the horizontal direction. This is a method of finding the same object as the subject shown in one image from the other image by pattern matching, and obtaining the distance to the subject by obtaining the difference (parallax) between these horizontal coordinates. The subject information acquisition CPU 26 stores the orientation information obtained from the orientation sensor 24 and the acceleration sensor 25 and the orientation information of the camera on the liquid crystal panel 9 so that the optical axis orientation between the two images and the orientation state in the horizontal direction do not relatively shift. A pair of images is acquired by controlling the imaging unit via the CPU 5 or the like while displaying and assisting the user's shooting. Further, image calculation processing is performed on the acquired image, and a distance R FAR to the subject is calculated. Further, the GPS antenna 22 and the GPS processing CPU 23 are controlled to acquire the position information of the camera, and the position coordinates of the subject are calculated using the direction and the R FAR obtained from the direction sensor 24. Using the calculated position information as a key, a name information database for the position coordinates recorded in the object information recording ROM 27 in the main body is searched to acquire the name of the object and display it on the liquid crystal panel 9.

被写体情報取得までの具体的な処理の流れを図2を用いて説明する。まず,被写体情報取得CPU26はGPSアンテナ22およびGPS処理CPU23を制御してカメラの位置情報PC1(x,y,z)を取得し(S201),被写体情報取得の待機状態に遷移する(S202)。この状態でユーザーが被写体情報を取得したい被写体をAF枠内に捕捉してレリーズボタンを半押しすると,被写体情報取得CPU26はまず方位センサ24からカメラ光軸方向の方位Dを取得する(S203)。方位Dは,図5(b)に示すように,北向きを基準(0°)として,時計回りに角度で出力される。東であれば90°,南西であれば225°である。 A specific flow of processing up to subject information acquisition will be described with reference to FIG. First, the subject information acquisition CPU 26 controls the GPS antenna 22 and the GPS processing CPU 23 to acquire camera position information P C1 (x 1 , y 1 , z 1 ) (S201), and transitions to a subject information acquisition standby state. (S202). If the user in this state by pressing the half-release button to capture in the AF frame to an object to be acquired object information, the object information acquisition CPU26 first obtained from the azimuth sensor 24 orientation D 1 of the camera optical axis direction (S203) . Orientation D 1, as shown in FIG. 5 (b), the north as a reference (0 °), is output at an angle clockwise. It is 90 ° for the east and 225 ° for the southwest.

次に,被写体情報取得CPU26は加速度センサ25からの情報を取得してカメラの仰角を検知する(S204)。加速度センサ25は3つの互いに直交する検出軸を持ち,図4(a)に示すようにカメラ横方向がx軸,レンズ光軸方向がy軸,カメラ上下方向がz軸となるように設置されている。正位置で水平に構えた場合,z軸にのみ重力加速度Gがかかるため,各軸の加速度は,図4(b)に示すようにAx=Ay=0,Az=−Gとなる。正位置で角度θだけ上に向けて構えた場合,y軸とz軸にGがかかり,図4(c)に示すようにAx=0,Ay=−Gsinθ,Az=−Gcosθとなる。静止していればカメラにかかる加速度はGのみであるから,θ=tan−1(Ay/Az)によってカメラの仰角θを算出することができる。 Next, the subject information acquisition CPU 26 acquires information from the acceleration sensor 25 and detects the elevation angle of the camera (S204). The acceleration sensor 25 has three detection axes orthogonal to each other, and is installed so that the horizontal direction of the camera is the x axis, the optical axis direction of the lens is the y axis, and the vertical direction of the camera is the z axis as shown in FIG. ing. When held horizontally at the normal position, gravitational acceleration G is applied only to the z-axis, so the acceleration of each axis is Ax = Ay = 0 and Az = −G as shown in FIG. In the normal position, when it is held upward by an angle θ, G is applied to the y-axis and the z-axis, and Ax = 0, Ay = −Gsinθ, Az = −Gcosθ as shown in FIG. If the camera is stationary, the acceleration applied to the camera is only G. Therefore, the elevation angle θ of the camera can be calculated by θ = tan −1 (Ay / Az).

方位Dを取得するとともに,CPU5を介して位相差センサ21から被写体までの距離RAFを取得し,従来通りCPU5はメカドライバ7を介して光学系11を駆動し,フォーカスを合わせる(S205)。被写体情報取得CPU26の被写体距離判定部30は,RAFがあらかじめ定められた遠距離測距しきい値Rth以下かどうかを判定し(S206),RAF≦Rthの時は被写体情報取得CPU26内の被写体位置算出部33が以下のようにRAFを用いた被写体位置P算出を行う(S207)。なお,GPS処理CPU23が演算する位置情報は緯度,経度,高度の3次元であるが,被写体情報を得るための位置情報検索は緯度,経度だけで可能であるため,2次元平面での演算を行う。図5(a)に示すように,S204で取得した仰角θから,RAFの水平成分はRAFcosθと求まる。図5(b)に示すように,Po(x,y)はPC1(x,y)から方位D方向に距離RAFcosθだけ離れているので,Po(x,y)=(x+RAFcosθsinD, y+RAFcosθcosD)によって算出することができる。 Acquires the orientation D 1, obtains a distance R AF from the phase difference sensor 21 to the object through the CPU 5, conventionally CPU 5 drives the optical system 11 via a mechanical driver 7, adjust the focus (S205) . The subject distance determination unit 30 of the subject information acquisition CPU 26 determines whether or not R AF is equal to or smaller than a predetermined long-distance ranging threshold R th (S206). When R AF ≦ R th , the subject information acquisition CPU 26 subject position calculation unit 33 of the inner performs object position P O calculated using R AF as follows (S207). The position information calculated by the GPS processing CPU 23 is three-dimensional latitude, longitude, and altitude. However, since position information search for obtaining subject information is possible only by latitude and longitude, calculation on a two-dimensional plane is performed. Do. As shown in FIG. 5 (a), the elevation angle θ obtained in S204, the horizontal component of R AF is determined as R AF cos [theta]. As shown in FIG. 5B, Po (x 2 , y 2 ) is separated from P C1 (x 1 , y 1 ) by the distance R AF cos θ in the direction D 1 , so Po (x 2 , y 2 ) = (x 1 + R AF cos θ sin D 1 , y 1 + R AF cos θ cos D 1 ).

次に,被写体情報取得CPU26内の被写体名称検索部は,算出した被写体位置Pをキーにして被写体情報記録ROM27に記録された位置座標の中から最も近い座標を検索して,対応する名称情報を取得する(S208)。さらに,取得した被写体名称をCPU5を介して液晶パネル9のライブ画像に重畳表示する(S209)。この状態でユーザーがレリーズボタンを全押しすると(S210),AFE6を介してCCD12からキャプチャした画像情報に従来通りの画像処理を行った上で(S211),カメラの位置情報PC1,被写体の位置情報Pおよび被写体名称を画像に付加してメディア13に記録する(S212)。 Next, the subject name retrieval unit in the subject information acquisition CPU 26 retrieves the closest coordinates from the position coordinates recorded in the subject information recording ROM 27 using the calculated subject position PO as a key, and corresponding name information. Is acquired (S208). Further, the acquired subject name is superimposed and displayed on the live image on the liquid crystal panel 9 via the CPU 5 (S209). When the user fully presses the release button in this state (S210), the image information captured from the CCD 12 via the AFE 6 is subjected to conventional image processing (S211), and the camera position information P C1 and the subject position are detected. The information Po and subject name are added to the image and recorded on the medium 13 (S212).

一方,S206でRAF>Rthだった場合,被写体情報取得のための遠距離測距を行うかどうかをユーザーに選択させる画面を液晶パネル9に表示する(S213)。ユーザーが「いいえ」を選択した場合は,レリーズ全押し待機状態となり(S214),撮像部から取得した画像情報に従来通りの画像処理を行った上で(S215),カメラの位置情報PC1のみを画像に付加してメディア13に記録する(S216)。一方,S212でユーザーが「はい」を選択した場合は,被写体情報取得CPU26内の遠距離測距制御部31が以下のステップで遠距離測距を行う。 On the other hand, if R AF > R th in S206, a screen for allowing the user to select whether or not to perform long-distance ranging for acquiring subject information is displayed on the liquid crystal panel 9 (S213). If the user selects “No”, the release full-press standby state is entered (S214), the image information obtained from the image pickup unit is subjected to conventional image processing (S215), and only the camera position information PC1 is obtained. Is added to the image and recorded on the medium 13 (S216). On the other hand, when the user selects “Yes” in S212, the long-distance ranging control unit 31 in the subject information acquisition CPU 26 performs long-distance ranging in the following steps.

まず,S204と同様に,加速度センサ25から各軸の加速度情報を取得して演算したカメラの姿勢情報を電子水準器40としてライブ画像に重畳表示し,水平状態,すなわちAx=Ay=0,Az=−Gの状態で撮影するようガイドを行う(S217)。ここでレリーズ全押し待機状態となり(S218),ユーザーが撮影した画像(画像Aと呼ぶ)を,CPU5内部の一時メモリに一旦保存しておく(S219)。次に,ユーザーに水平方向に移動して再度撮影するよう要請するメッセージを液晶パネル9に表示する(S220)。それとともに,図6(a)に示すように,現在の方位Dと画像Aの方位Dとのずれ角を示す電子方位差器41と,加速度センサ25からの加速度情報を演算して得られた現在のカメラの姿勢情報を示す電子水準器40とをライブ画像にガイド表示する(S221)。 First, as in S204, the camera posture information calculated by acquiring the acceleration information of each axis from the acceleration sensor 25 is superimposed on the live image as the electronic level 40, and is in a horizontal state, that is, Ax = Ay = 0, Az. = G guide is performed so as to shoot in the state of -G (S217). Here, a release full press standby state is entered (S218), and an image (referred to as image A) taken by the user is temporarily stored in a temporary memory inside the CPU 5 (S219). Next, a message requesting the user to move in the horizontal direction and shoot again is displayed on the liquid crystal panel 9 (S220). At the same time, as shown in FIG. 6 (a), the electronic azimuth difference 41 indicating the deviation angle between the orientation D 1 of the current heading D and the image A, obtained by calculating the acceleration information from the acceleration sensor 25 The electronic level 40 indicating the current camera posture information is displayed as a guide on the live image (S221).

電子方位差器41は,図6(a)のようにコンパスを模した円形をしており,Dを時計の12時方向の基準位置に線で表示し,現在の方位DをDに対する相対方位として線を重ねて表示する。相対方位が一定以下になると,二つの線が重なって表示され,これにより撮影者は同一方位であることを知ることができる。また,電子水準器40は,カメラの水平方向の姿勢に応じて水準バー43が左右に移動することでカメラの姿勢を報知する。例えば,図6(b)のようにカメラ正位置から見て右側を下げると水準バー43が左に移動し,図6(c)のようにカメラ正位置から見て左側を下げると水準バー43が右に移動する。水準バー43と水平基準ライン44が重なることで,撮影者は水平状態であることを知ることができる。 Electronic azimuth difference 41 is circular simulating a compass as shown in FIG. 6 (a), displays a line of D 1 to the reference position of the 12 o'clock direction of the watch, with respect to D 1 the current direction D The line is displayed as a relative orientation. When the relative azimuth is below a certain level, the two lines are displayed in an overlapping manner, so that the photographer can know that the azimuth is the same. In addition, the electronic level 40 notifies the camera posture by moving the level bar 43 to the left and right according to the horizontal posture of the camera. For example, as shown in FIG. 6B, the level bar 43 moves to the left when the right side is viewed from the camera's normal position, and when the left side is viewed from the camera's normal position as shown in FIG. 6C, the level bar 43 is moved. Moves to the right. Since the level bar 43 and the horizontal reference line 44 overlap, the photographer can know that the camera is in a horizontal state.

ここでレリーズ半押し待機状態となるので(S222),ユーザーはガイドに従って移動した後,電子水準器40および電子方位差器41の各線が重なった状態で被写体が画角内に入るように構図を決める。ここでレリーズボタンを半押しすると,再度GPSアンテナ22およびGPS処理CPU23を制御してカメラ位置PC2(x,y,z)を取得する(S223)。さらに,この時の方位Dを取得し(S224),被写体情報取得CPU26はDと前回取得した画像の方位Dとのずれ角ΔD=D-Dを算出し,これが最小方位差Dth以下かどうかを判定する(S225)。ΔD>Dthの時は,被写体位置算出の精度が確保されないため,ユーザーに再測定を促すメッセージを表示して(S226),S222に戻る。ΔD≦Dthの時は,ユーザーに被写体位置算出可能である旨のメッセージを表示し,ユーザーに撮影を促す(S227)。 Since the release half-press standby state is set here (S222), the user moves in accordance with the guide, and then composes the subject so that the subject falls within the angle of view with the lines of the electronic level 40 and the electronic azimuth difference 41 overlapping. Decide. If the release button is half-pressed here, the GPS antenna 22 and the GPS processing CPU 23 are controlled again to acquire the camera position P C2 (x 2 , y 2 , z 2 ) (S223). Further, to get the orientation D 2 at this time (S224), the photographic subject information obtaining CPU26 calculates the deviation angle [Delta] D = D 2 -D 1 with orientation D 1 of the D 2 and previously acquired image, which is the minimum misorientation determines whether or not the D th below (S225). When ΔD> D th , since the accuracy of subject position calculation is not ensured, a message prompting the user to remeasure is displayed (S226), and the process returns to S222. When ΔD ≦ Dth , a message indicating that the subject position can be calculated is displayed to the user, and the user is prompted to shoot (S227).

ここでレリーズ全押し待機状態となり(S228),この状態でユーザーが撮影した画像(画像Bと呼ぶ)は,画像Aと同様にCPU5内部の一時メモリの異なる領域に保存する(S229)。さらに,PCとPCから,図5(c)に示すような2画像の撮影位置差ΔPc=((x−x)+(y−y))1/2 を算出する(S230)。なお,ここでの演算においては,GPSのx座標とy座標のみを使用し,z座標情報を使用していない。 Here, a release full press standby state is entered (S228), and an image (referred to as image B) taken by the user in this state is stored in a different area of the temporary memory inside the CPU 5 as in the case of image A (S229). Further, from the PC 1 and the PC 2 , the imaging position difference ΔPc = ((x 1 −x 2 ) 2 + (y 1 −y 2 ) 2 ) 1/2 as shown in FIG. 5C is calculated. (S230). In this calculation, only the GPS x-coordinate and y-coordinate are used, and z-coordinate information is not used.

次に,被写体情報取得CPU26内の遠距離測距演算部32は,一時保存した画像A,画像Bおよび撮影位置差ΔPcから,上述のステレオマッチング画像処理技術を用いて被写体距離RFARを算出する(S231)。このとき,図6(b)に示すように,撮影した画像A,Bを順次液晶パネル9に表示し,被写体情報を取得したい被写体が撮影された領域A42をユーザーに選択させ,領域A42について演算を行う。 Next, the long-distance ranging calculation unit 32 in the subject information acquisition CPU 26 calculates the subject distance R FAR from the temporarily stored images A and B and the photographing position difference ΔPc using the above-described stereo matching image processing technique. (S231). At this time, as shown in FIG. 6 (b), the captured images A and B are sequentially displayed on the liquid crystal panel 9, and the user selects the area A42 where the subject whose subject information is desired to be acquired is selected. I do.

次に,被写体情報取得CPU26内の被写体位置算出部33は,S207と同様にRFARを用いた被写体位置POFの算出を行う(S232)。すなわち,POF(x,y)=(x+RFARcosθsinD, y+RFARcosθcosD)によって算出することができる。 Next, the subject position calculation unit 33 in the subject information acquisition CPU 26 calculates the subject position P OF using RFAR as in S207 (S232). That is, P OF (x 2 , y 2 ) = (x 1 + R FAR cos θ sin D 1 , y 1 + R FAR cos θ cos D 1 ) can be calculated.

次に,被写体情報取得CPU26内の被写体名称検索部は,算出した被写体位置POFをキーにして被写体情報記録ROM27を検索し(S233),画像Aにはカメラの位置情報PC1,被写体の位置情報POFおよび被写体名称,画像Bにはカメラの位置情報PC2,被写体の位置情報POFおよび被写体名称を付加してメディア13に記録する(S234)。 Then, the object name search unit of the photographic subject information obtaining the CPU26 is to the calculated object position P OF a key searching subject information recording ROM 27 (S233), the camera position information P C1 to the image A, the position of the subject The camera position information P C2 , the subject position information P OF and the subject name are added to the information P OF and subject name, and the image B is recorded on the medium 13 (S234).

なお,いずれの方法においても,被写体名称を検索結果に複数の名称候補が該当した場合は,候補を全て表示してユーザーに選択させ,選択された被写体名称を画像に付加する。   In any method, when a plurality of candidate names correspond to the search result of the subject name, all the candidates are displayed and selected by the user, and the selected subject name is added to the image.

以上,本発明をその好適な実施形態に基づいて詳述してきたが,本発明はこれら特定の実施形態に限られるものではなく,この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。例えば,本実施例では姿勢計測部として加速度センサを用いたが,重力センサや角速度センサに演算を施して姿勢情報を取得してもよい。   The present invention has been described in detail on the basis of preferred embodiments thereof, but the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined. For example, although an acceleration sensor is used as the posture measurement unit in the present embodiment, posture information may be acquired by performing calculation on a gravity sensor or an angular velocity sensor.

また,近距離測距部として位相差センサを用いたが,光パルス測距装置を用いてもよい。また,本実施例では,カメラ内部に位置座標に対する名称情報のデータベースを有する場合について記述したが,PCなどの記録装置やネットワーク上にデータベースがあってもよい。この場合,撮影した一対の画像が遠距離測距可能であることを示す識別子を画像に関連付けて記録することにより,PC上での後処理によって遠距離測距を行った上で,PC上またはネットワーク上のデータベースを検索して被写体名称を取得することができる。   Further, although the phase difference sensor is used as the short-range distance measuring unit, an optical pulse distance measuring device may be used. In this embodiment, the case where the camera has a database of name information for position coordinates is described. However, the database may be on a recording device such as a PC or on a network. In this case, an identifier indicating that a pair of captured images can be measured at a long distance is recorded in association with the image, so that a long distance measurement is performed by post-processing on the PC, and then the PC or A subject name can be acquired by searching a database on the network.

1 操作部
5 CPU
9 液晶パネル
21 位相差センサ
22 GPSアンテナ
23 GPS処理CPU
24 方位センサ
25 加速度センサ
26 被写体情報取得CPU
27 被写体情報記録ROM
30 被写体距離判定部
31 遠距離測距制御部
32 遠距離測距演算部
33 被写体位置算出部
34 被写体名称検索部
1 Operation unit 5 CPU
9 Liquid crystal panel 21 Phase difference sensor 22 GPS antenna 23 GPS processing CPU
24 Direction sensor 25 Acceleration sensor 26 Subject information acquisition CPU
27 Subject information recording ROM
30 Subject Distance Determination Unit 31 Long Distance Measurement Control Unit 32 Long Distance Distance Calculation Unit 33 Subject Position Calculation Unit 34 Subject Name Search Unit

Claims (9)

現在位置座標を取得するGPS部と,
近距離の被写体までの距離を計測する近距離測距部と,
遠距離の被写体までの距離を計測する遠距離測距部と,
撮影方位を計測する方位計測部と,
撮影時の水平方向や仰角方向の姿勢を計測する姿勢計測部と,
前記近距離測距部が計測した被写体までの距離と,前記遠距離測距部が計測した被写体までの距離のいずれか一方を選択する被写体距離判定部と,
被写体位置座標の演算を行う被写体位置算出部と,
を備えた撮像装置において,
前記被写体距離判定部は,前記近距離測距部が計測した被写体までの距離があらかじめ設定されたしきい値以下の場合は前記近距離測距部が計測した距離を選択し,しきい値より大きい場合は前記遠距離測距部が計測した距離を選択し,
前記被写体距離判定部が選択した被写体までの距離情報と,前記GPS部が算出した現在位置座標と,前記方位計測部が計測した撮影方位情報を用いて,前記被写体位置算出部により被写体位置を算出することを特徴とする撮像装置。
A GPS unit for acquiring current position coordinates;
A near-distance ranging unit that measures the distance to a near-distance subject;
A long-distance ranging unit that measures the distance to a long-distance subject;
An azimuth measuring unit for measuring the shooting direction;
A posture measurement unit that measures the posture in the horizontal and elevation directions during shooting,
A subject distance determination unit that selects either the distance to the subject measured by the short-range distance measuring unit or the distance to the subject measured by the long-range distance measuring unit;
A subject position calculation unit for calculating subject position coordinates;
In an imaging device comprising
The subject distance determination unit selects the distance measured by the short distance measurement unit when the distance to the subject measured by the short distance measurement unit is equal to or less than a preset threshold value, If it is larger, select the distance measured by the long-distance ranging unit,
The subject position calculation unit calculates the subject position using the distance information to the subject selected by the subject distance determination unit, the current position coordinates calculated by the GPS unit, and the shooting direction information measured by the direction measurement unit. An imaging apparatus characterized by:
前記被写体位置算出部により算出した前記被写体位置情報を,撮影した画像とともに記録媒体に記録する画像記録部を具備することを特徴とする請求項1に記載の撮像装置。 The imaging apparatus according to claim 1, further comprising an image recording unit that records the subject position information calculated by the subject position calculation unit on a recording medium together with a captured image. 前記GPS部が算出した現在位置座標と,前記被写体距離判定部が選択した被写体までの距離情報と,前記方位計測部が計測した撮影方位情報と,前記姿勢計測部が計測した姿勢情報を用いて被写体の位置座標を演算する被写体位置算出部と,
位置座標および位置座標に関連付けられた位置名称を記録した被写体情報記録手段と,
前記被写体位置算出部が算出した被写体位置座標をもとに,前記被写体情報記録手段により記録された位置座標および位置座標に関連付けられた位置名称のデータベースを検索して被写体名称の候補を取得する被写体名称検索部と,
前記被写体名称検索部が取得した被写体名称の候補を表示する表示部と,
前記GPS部が算出した現在位置座標と,前記被写体位置算出部が算出した被写体位置情報と,前記被写体名称検索部が取得した被写体名称を撮影画像に関連付けて記録媒体に記録する記録部と,
を具備することを特徴とする請求項1に記載の撮像装置。
Using the current position coordinates calculated by the GPS unit, the distance information to the subject selected by the subject distance determination unit, the shooting direction information measured by the direction measurement unit, and the posture information measured by the posture measurement unit A subject position calculator for calculating the position coordinates of the subject;
Subject information recording means for recording position coordinates and position names associated with the position coordinates;
A subject for which a candidate for a subject name is obtained by searching the position coordinates recorded by the subject information recording means and the position name database associated with the position coordinates based on the subject position coordinates calculated by the subject position calculation unit A name search unit;
A display unit for displaying subject name candidates acquired by the subject name search unit;
A current position coordinate calculated by the GPS unit, subject position information calculated by the subject position calculation unit, and a recording unit that records the subject name acquired by the subject name search unit on a recording medium in association with a captured image;
The imaging apparatus according to claim 1, further comprising:
前記遠距離測距部は,
一つの被写体を異なる場所から撮影した一対の画像を画像処理し,該二画像から検出した該被写体の画像間視差から該被写体までの距離を演算する遠距離測距演算部と,
前記姿勢計測部からの姿勢情報および前記方位計測部からの方位情報を用いた補助情報を表示し,撮影した画像を前記遠距離測距演算部に伝達する遠距離測距制御部と,
を有することを特徴とする請求項1乃至請求項3のいずれか1項に記載の撮像装置。
The long-distance ranging unit is
A long-distance ranging calculation unit that performs image processing on a pair of images obtained by shooting one subject from different locations, and calculates a distance to the subject from the parallax between the images detected from the two images;
A long-distance ranging control unit for displaying auxiliary information using the posture information from the posture measuring unit and the azimuth information from the azimuth measuring unit, and transmitting a captured image to the long-distance ranging calculation unit;
The imaging apparatus according to claim 1, wherein the imaging apparatus includes:
撮影する一対の画像のうち一枚目の撮影時における前記補助情報は,
前記姿勢計測部からの姿勢情報であることを特徴とする請求項4に記載の撮像装置。
The auxiliary information at the time of shooting the first of a pair of images to be shot is:
The imaging apparatus according to claim 4, wherein the imaging apparatus is attitude information from the attitude measurement unit.
撮影する一対の画像のうち二枚目の撮影時における前記補助情報は,
前記姿勢計測部からの姿勢情報と,
撮影する一対の画像のうち一枚目の撮影における前記方位計測部によって測定された方位と,撮影する一対の画像のうち二枚目の撮影における前記方位計測部によって測定された方位との差分を表示する方位差分情報と,
であることを特徴とする請求項4または請求項5に記載の撮像装置。
The auxiliary information at the time of shooting the second of the pair of images to be shot is
Attitude information from the attitude measurement unit;
The difference between the azimuth measured by the azimuth measuring unit in the first shooting of the pair of images to be shot and the azimuth measured by the azimuth measuring unit in the second shooting of the pair of images to be shot. Direction difference information to be displayed,
The imaging device according to claim 4, wherein the imaging device is an imaging device.
前記遠距離測距演算部は,
撮影した画像を表示して被写体情報の取得対象となる被写体が撮影された領域を撮影者に選択させ,該領域情報を付加して前記遠距離測距演算部に伝達し,
前記遠距離測距演算部は該領域のみを画像処理して被写体距離を演算することを特徴とする請求項4乃至請求項6のいずれか1項に記載の撮像装置。
The long-distance ranging calculation unit is
The photographed image is displayed and the photographer selects a region where the subject whose subject information is to be acquired is photographed, and the region information is added and transmitted to the long-distance ranging calculation unit.
The imaging apparatus according to claim 4, wherein the long-distance ranging calculation unit calculates a subject distance by performing image processing only on the region.
前記画像記録部は,
前記一対の画像が前記遠距離測距手段によって遠距離測距の演算が可能であることを示す識別子を該二画像に関連付けて記録媒体に記録することを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像装置。
The image recording unit
8. The pair of images is recorded on a recording medium in association with the two images, an identifier indicating that the long-distance ranging unit can calculate long-distance ranging. The imaging device according to any one of the above.
前記被写体位置算出部は,前記GPS部から取得した現在位置座標情報のうち,緯度情報と経度情報のみを用いて被写体位置を算出することを特徴とする請求項1乃至請求項8のいずれか1項に記載の撮像装置。
9. The object position calculation unit according to claim 1, wherein the object position calculation unit calculates the object position using only latitude information and longitude information among the current position coordinate information acquired from the GPS unit. The imaging device according to item.
JP2010271201A 2010-12-06 2010-12-06 Imaging apparatus Pending JP2012124554A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010271201A JP2012124554A (en) 2010-12-06 2010-12-06 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271201A JP2012124554A (en) 2010-12-06 2010-12-06 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2012124554A true JP2012124554A (en) 2012-06-28

Family

ID=46505593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271201A Pending JP2012124554A (en) 2010-12-06 2010-12-06 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2012124554A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016114719A (en) * 2014-12-12 2016-06-23 株式会社メイクソフトウェア Picture photography game unit and control program
US9721346B2 (en) 2013-03-12 2017-08-01 Fujifilm Corporation Image assessment device, method, and computer readable medium for 3-dimensional measuring and capturing of image pair range
CN117321632A (en) * 2021-05-18 2023-12-29 斯纳普公司 Different depth determination using stereo vision and phase detection autofocus (PDAF)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9721346B2 (en) 2013-03-12 2017-08-01 Fujifilm Corporation Image assessment device, method, and computer readable medium for 3-dimensional measuring and capturing of image pair range
JP2016114719A (en) * 2014-12-12 2016-06-23 株式会社メイクソフトウェア Picture photography game unit and control program
CN117321632A (en) * 2021-05-18 2023-12-29 斯纳普公司 Different depth determination using stereo vision and phase detection autofocus (PDAF)

Similar Documents

Publication Publication Date Title
US8027577B2 (en) Camera
KR101256543B1 (en) Image capturing apparatus, image capturing method, and storage medium
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
JP5738657B2 (en) Imaging device
EP2812756A2 (en) Method and system for automatic 3-d image creation
CN103907340A (en) Image generation device and image generation method
KR101214081B1 (en) Image expression mapping system using space image and numeric information
JP6764693B2 (en) Satellite signal processing method and satellite signal processing equipment
JP7152137B2 (en) Photogrammetry system and photogrammetry method
US8537247B2 (en) Photographing device which measures azimuth during photographing
JP2018146524A (en) Survey system
KR101296601B1 (en) The camera control system and method for producing the panorama of map information
JP2011058854A (en) Portable terminal
CN101191979A (en) Autofocus method and system
JP2012124554A (en) Imaging apparatus
JP2006270274A (en) Object recognition apparatus and method
CN112154650A (en) Focusing control method and device for shooting device and unmanned aerial vehicle
JP5920807B2 (en) Optical axis direction identification method, optical axis direction identification device, and optical axis direction identification program
KR100926274B1 (en) Automated Shooting System for Geographic Panoramas
JP2012189467A (en) Positioning device, pace per step data correction method and program
JP2019062279A (en) Imaging device, imaging system, and control method of imaging system
KR20180009570A (en) Monitoring system wherein location of object is displayed on map
JP2009177611A (en) Digital camera
JP2021169989A (en) Self-positioning system, vehicle, and self-positioning method
JP6402640B2 (en) Shooting system