[go: up one dir, main page]

JP2009270893A - Position measuring device, position measuring method, and program - Google Patents

Position measuring device, position measuring method, and program Download PDF

Info

Publication number
JP2009270893A
JP2009270893A JP2008120562A JP2008120562A JP2009270893A JP 2009270893 A JP2009270893 A JP 2009270893A JP 2008120562 A JP2008120562 A JP 2008120562A JP 2008120562 A JP2008120562 A JP 2008120562A JP 2009270893 A JP2009270893 A JP 2009270893A
Authority
JP
Japan
Prior art keywords
image
point light
light source
exposure time
led
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008120562A
Other languages
Japanese (ja)
Inventor
Yasuji Seko
保次 瀬古
Hiroyuki Hotta
宏之 堀田
Yasuyuki Saguchi
泰之 佐口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2008120562A priority Critical patent/JP2009270893A/en
Publication of JP2009270893A publication Critical patent/JP2009270893A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position measuring device or the like for measuring a position of an object in a simple configuration and high accuracy. <P>SOLUTION: The position measurement device 300 includes: a camera 30 for setting an exposure time so as to have a saturation exposure amount or more of an imaging element and photographing four point LEDs 11-14 provided on the object 100; a storing part for storing position relationship of LEDs 11-14; and a calculation part for obtaining the position of the object 100 from the position relationship of images of LEDs 11-14 photographed with the camera 30 based on the position relationship by reading the position relationship of LEDs 11-14 stored to the storing part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、位置計測装置、位置計測方法、プログラムに関する。   The present invention relates to a position measuring device, a position measuring method, and a program.

所定の対象物の三次元空間における位置を計測する手段として、2台のカメラで対象物を撮影し、カメラ同士の間の距離を基線とした三角測量によって対象物の位置座標を算出する方法が知られている。   As a means for measuring the position of a predetermined object in a three-dimensional space, a method of photographing the object with two cameras and calculating the position coordinates of the object by triangulation using the distance between the cameras as a baseline. Are known.

例えば、特許文献1には、基準体上の少なくとも3点の三次元座標を求めることにより基準体上に基準座標系を定め、被検体上の所定点の三次元座標を求めることにより所定点の基準座標系上の位置を求める三次元座標計測方法が開示されている。   For example, in Patent Document 1, a reference coordinate system is defined on a reference body by obtaining three-dimensional coordinates of at least three points on the reference body, and a predetermined point is obtained by obtaining three-dimensional coordinates of the predetermined point on the subject. A three-dimensional coordinate measurement method for obtaining a position on a reference coordinate system is disclosed.

また、特許文献2には、最小二乗法等でカメラ姿勢の行列Tを求め、この行列からカメラの回転角(ψn,θn,φn)をn個求め、この回転角からオイラー角等で回転させた行列T’を求め、行列TとT’の各要素の差の絶対値の和を差Sとして求め、この差Sが最小になるものの回転角をカメラの姿勢として出力するカメラ姿勢の検出装置が開示されている。   In Patent Document 2, a camera posture matrix T is obtained by the least square method or the like, and n camera rotation angles (φn, θn, φn) are obtained from this matrix, and rotated from this rotation angle by Euler angles or the like. A camera posture detection device for obtaining a matrix T ′, obtaining a sum of absolute values of differences between the elements of the matrices T and T ′ as a difference S, and outputting a rotation angle of the difference S as a camera posture. Is disclosed.

特開平5−164517号公報JP-A-5-164517 特開平10−62145号公報JP-A-10-62145

本発明は、対象物に備えられた点光源を撮影し、撮影された画像における点光源の位置を高精度に計測することで、対象物の位置計測を高精度に行うことができる位置計測装置等を提供することを目的とする。   The present invention captures a point light source provided in an object and measures the position of the point light source in the captured image with high accuracy, thereby enabling the position measurement of the object to be performed with high accuracy. The purpose is to provide.

請求項1に係る発明は、対象物に設けられた4点以上の点光源を、撮像素子の飽和露光量以上になるように露光時間を設定し撮影する撮影部と、前記点光源の位置関係を記憶する記憶部と、前記記憶部に記憶されている前記点光源の位置関係を読み出し、当該位置関係および前記撮影部により撮影された点光源の像の位置関係から前記対象物の位置を求める演算部と、を備えることを特徴とする位置計測装置である。   According to a first aspect of the present invention, there is provided a positional relationship between an imaging unit configured to shoot four or more point light sources provided on an object by setting an exposure time so as to be equal to or greater than a saturation exposure amount of an image sensor, and the point light source. And the positional relationship between the point light sources stored in the storage unit, and the position of the object is obtained from the positional relationship and the positional relationship of the image of the point light source captured by the imaging unit. And a calculation unit.

請求項2に係る発明は、前記撮影部は、前記点光源の像の半径が飽和露光時間における点光源の像の半径の2倍以上になるときの時間を前記露光時間として設定することを特徴とする請求項1に記載の位置計測装置である。
請求項3に係る発明は、前記撮影部は、飽和露光時間の4倍以上となる時間を前記露光時間として設定することを特徴とする請求項1に記載の位置計測装置である。
請求項4に係る発明は、前記撮影部は、当該撮影部が撮影するフレーム毎に前記露光時間を変更し、撮影された点光源の像の大きさに応じて露光時間を設定することを特徴とする請求項1に記載の位置計測装置である。
請求項5に係る発明は、前記撮影部は、球面収差により前記点光源の像がリング状になる光学系を備えることを特徴とする請求項1に記載の位置計測装置である。
請求項6に係る発明は、前記撮影部は、前記点光源から出射される赤外光を撮影することを特徴とする請求項1に記載の位置計測装置である。
請求項7に係る発明は、前記撮影部により撮影された前記点光源の像から、当該点光源の像の大きさに応じて、前記演算部で前記対象物の位置を求めるための点光源の像を選択する選択部を更に有することを特徴とする請求項1に記載の位置計測装置である。
The invention according to claim 2 is characterized in that the photographing unit sets, as the exposure time, a time when the radius of the image of the point light source is at least twice the radius of the image of the point light source during the saturation exposure time. The position measuring device according to claim 1.
The invention according to claim 3 is the position measurement apparatus according to claim 1, wherein the photographing unit sets a time that is four times or more of a saturation exposure time as the exposure time.
The invention according to claim 4 is characterized in that the photographing unit changes the exposure time for each frame photographed by the photographing unit, and sets the exposure time according to the size of the photographed point light source image. The position measuring device according to claim 1.
The invention according to claim 5 is the position measurement apparatus according to claim 1, wherein the photographing unit includes an optical system in which an image of the point light source is formed in a ring shape due to spherical aberration.
The invention according to claim 6 is the position measuring apparatus according to claim 1, wherein the photographing unit photographs infrared light emitted from the point light source.
According to a seventh aspect of the present invention, there is provided a point light source for obtaining a position of the object by the calculation unit according to a size of the point light source image from the image of the point light source photographed by the photographing unit. The position measurement apparatus according to claim 1, further comprising a selection unit that selects an image.

請求項8に係る発明は、対象物に設けられた4点以上の点光源を撮像素子の飽和露光量以上になるように露光時間を設定して撮影し、前記対象物における前記点光源の位置関係および撮影された点光源の像の位置関係から当該対象物の位置を求めることを特徴とする位置計測方法である。   According to an eighth aspect of the present invention, four or more point light sources provided on an object are photographed by setting an exposure time so as to be equal to or greater than the saturation exposure amount of the image sensor, and the position of the point light source on the object The position measurement method is characterized in that the position of the object is obtained from the relation and the positional relation of the image of the photographed point light source.

請求項9に係る発明は、前記露光時間は、撮影を行うフレーム毎に変更され、撮影された点光源の像の大きさに応じて選択され設定されることを特徴とする請求項8に記載の位置計測方法である。
請求項10に係る発明は、撮影された前記点光源の像から、当該点光源の像の大きさに応じて前記対象物の位置を求めるための点光源を更に選択することを特徴とする請求項8に記載の位置計測方法である。
The invention according to claim 9 is characterized in that the exposure time is changed for each frame to be photographed and is selected and set according to the size of the photographed point light source image. This is a position measurement method.
According to a tenth aspect of the present invention, a point light source for determining the position of the object is further selected from the captured image of the point light source according to the size of the point light source image. Item 9. The position measurement method according to Item 8.

請求項11に係る発明は、コンピュータに、対象物に設けられた4点以上の点光源を撮像素子の飽和露光量以上で撮影するための露光時間を設定する機能と、メモリから前記点光源の位置関係を読み出し、当該位置関係および撮影された点光源の像の位置関係から前記対象物の位置を求める機能と、を実現させるプログラムである。   According to an eleventh aspect of the present invention, there is provided a computer having a function of setting an exposure time for photographing at least four point light sources provided on an object at a saturation exposure amount of an image sensor, and from a memory, the point light source A program that reads a positional relationship and realizes the function of obtaining the position of the object from the positional relationship and the positional relationship of the image of the photographed point light source.

請求項1の発明によれば、本構成を採用しない場合に比較して、簡単な構成で撮影された画像において点光源の像の位置をより高精度に求めることができるため、対象物の位置をより高精度に求めることができる位置計測装置を得ることができる。
請求項2の発明によれば、本構成を採用しない場合に比較して、撮影された画像において点光源の像の位置をより高精度に求めることができる。
請求項3の発明によれば、本構成を採用しない場合に比較して、より簡易な手法で撮影部の露光時間を設定することができる。
請求項4の発明によれば、本構成を採用しない場合に比較して、対象物が移動するような場合でも対象物の位置計測の精度への影響を受けにくくすることができる。
請求項5の発明によれば、本構成を採用しない場合に比較して、撮影された画像において点光源の像の位置をより簡単に求めることができる。
請求項6の発明によれば、本構成を採用しない場合に比較して、撮影された画像中で背景と点光源の像とのコントラストの差が生じやすくなるため、点光源の像をより抽出しやすくなる。
請求項7の発明によれば、本構成を採用しない場合に比較して、対象物の位置を求める点光源の選択を行うことができ、対象物の位置をより高精度に求めることができる。
請求項8の発明によれば、本構成を採用しない場合に比較して、簡単な構成で撮影された点光源の像の位置をより高精度に求めることができるため、対象物の位置をより高精度に行うことができる位置計測方法を得ることができる。
請求項9の発明によれば、本構成を採用しない場合に比較して、対象物が移動するような場合でも対象物の位置計測の精度への影響を受けにくくすることができる。
請求項10の発明によれば、本構成を採用しない場合に比較して、対象物の位置を求める点光源の選択を行うことができ、対象物の位置をより高精度に求めることができる。
請求項11の発明によれば、対象物の位置計測を高精度に行う機能を、コンピュータにより実現できる。
According to the first aspect of the present invention, since the position of the image of the point light source can be obtained with higher accuracy in an image photographed with a simple configuration as compared with the case where the present configuration is not adopted, the position of the object Can be obtained with higher accuracy.
According to the second aspect of the present invention, the position of the image of the point light source can be obtained with higher accuracy in the photographed image as compared with the case where this configuration is not adopted.
According to the invention of claim 3, it is possible to set the exposure time of the photographing unit by a simpler method as compared with the case where this configuration is not adopted.
According to the fourth aspect of the present invention, compared to the case where the present configuration is not adopted, even when the object moves, it is less likely to be affected by the accuracy of the position measurement of the object.
According to the invention of claim 5, the position of the image of the point light source can be obtained more easily in the photographed image as compared with the case where this configuration is not adopted.
According to the sixth aspect of the present invention, since a difference in contrast between the background and the point light source image is more likely to occur in the captured image as compared with the case where the present configuration is not adopted, the point light source image is further extracted. It becomes easy to do.
According to the seventh aspect of the present invention, it is possible to select a point light source for obtaining the position of the object, and to obtain the position of the object with higher accuracy than in the case where this configuration is not adopted.
According to the eighth aspect of the present invention, since the position of the image of the point light source captured with a simple configuration can be obtained with higher accuracy than in the case where the present configuration is not adopted, the position of the object is further increased. A position measurement method that can be performed with high accuracy can be obtained.
According to invention of Claim 9, compared with the case where this structure is not employ | adopted, even when a target object moves, it can make it difficult to be influenced by the precision of the position measurement of a target object.
According to the tenth aspect of the present invention, it is possible to select a point light source for obtaining the position of the object, and to obtain the position of the object with higher accuracy than in the case where this configuration is not adopted.
According to the eleventh aspect of the invention, the function of measuring the position of the object with high accuracy can be realized by a computer.

以下、添付図面を参照して、本発明の実施形態について詳細に説明する。
<装置構成>
図1は、本実施形態が適用される位置計測装置、および位置計測を行う対象物を含んだ全体構成を説明した図である。
図1に示した全体構成では、位置計測対象である対象物100と、対象物100の三次元位置および三軸角度を計算する位置計測装置300とを有する。そして、対象物100には点光源の一例としてのLED(Light Emitting Diode)が4点以上備えられている。図1に示した形態では、対象物100は、4点のLEDであるLED11〜14を備える。また、位置計測装置300は、対象物100を撮影する撮影部の一例としてのカメラ30と、カメラ30により撮影された画像に基づいて対象物100の三次元位置および三軸角度を演算する演算装置40とを備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<Device configuration>
FIG. 1 is a diagram illustrating an overall configuration including a position measurement device to which the present embodiment is applied and an object for performing position measurement.
The overall configuration illustrated in FIG. 1 includes a target object 100 that is a position measurement target, and a position measurement device 300 that calculates a three-dimensional position and a three-axis angle of the target object 100. The object 100 is provided with four or more LEDs (Light Emitting Diodes) as an example of a point light source. In the form shown in FIG. 1, the object 100 includes LEDs 11 to 14 that are four-point LEDs. In addition, the position measuring device 300 is a camera 30 as an example of a photographing unit that photographs the object 100, and an arithmetic device that calculates a three-dimensional position and a three-axis angle of the object 100 based on an image photographed by the camera 30. 40.

図2は、カメラ30の構成例を示す図である。
カメラ30は、LED11〜14から出射された光を収束する光学系31と、光学系31により収束された光を検出する撮像素子の一例であるイメージセンサ32とを備える。
FIG. 2 is a diagram illustrating a configuration example of the camera 30.
The camera 30 includes an optical system 31 that converges the light emitted from the LEDs 11 to 14 and an image sensor 32 that is an example of an image sensor that detects the light converged by the optical system 31.

光学系31は、単一のレンズまたは複数のレンズを組み合わせて構成される。例えば、2つの半球レンズを使用し、その球面側を向かい合わせに組み合わせたツインレンズが用いられる。   The optical system 31 is configured by combining a single lens or a plurality of lenses. For example, a twin lens is used in which two hemispherical lenses are used and their spherical surfaces are combined face to face.

イメージセンサ32は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等を配列して構成される。このイメージセンサ32の表面がカメラ30の撮像面となる。イメージセンサ32の前面に、LED11〜14の発光波長に応じたフィルタを設置することにより、余計な光が排除され、LED11〜14の像のみが撮影されることとなる。本実施の形態の場合、フィルタとして、赤外光を透過させるものを使用し、イメージセンサ32により赤外光を撮影することが好ましい。このようにすることで、撮影された画像中で背景とLED11〜14の像とのコントラストの差が生じやすく、LEDの像をより抽出しやすくなる。具体的には例えば、LED11〜14の発光波長を900nmとした場合、イメージセンサ32の前面に850nmよりも長い波長だけを透過するフィルタを設置する。   The image sensor 32 is configured by arranging a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), and the like. The surface of the image sensor 32 becomes an imaging surface of the camera 30. By installing a filter according to the emission wavelength of the LEDs 11 to 14 on the front surface of the image sensor 32, unnecessary light is eliminated and only images of the LEDs 11 to 14 are taken. In the case of the present embodiment, it is preferable to use a filter that transmits infrared light as a filter, and image the infrared light with the image sensor 32. By doing so, a difference in contrast between the background and the images of the LEDs 11 to 14 is likely to occur in the captured image, and it becomes easier to extract the LED image. Specifically, for example, when the emission wavelength of the LEDs 11 to 14 is 900 nm, a filter that transmits only a wavelength longer than 850 nm is installed on the front surface of the image sensor 32.

また、カメラ30は、露光時間が設定できるようになっており、撮影された画像におけるLEDの像の位置を求めるために、適当な露光時間を設定する。
本実施の形態では、この露光時間は、イメージセンサ32の飽和露光量以上になるように設定を行う。このように露光時間の設定をすることにより、イメージセンサ32上でのLEDの像がより大きく撮影され、画像におけるLEDの像の位置をより高精度に求めることができる。
Further, the camera 30 can set the exposure time, and sets an appropriate exposure time in order to obtain the position of the LED image in the photographed image.
In the present embodiment, the exposure time is set to be equal to or greater than the saturation exposure amount of the image sensor 32. By setting the exposure time in this manner, a larger image of the LED on the image sensor 32 is taken, and the position of the LED image in the image can be obtained with higher accuracy.

図3(a)〜(b)は、露光時間を、イメージセンサ32の飽和露光量以上になるように設定を行なった場合と行なわなかった場合とで、LEDの像を比較した図である。
このうち、図3(a)は、露光時間を、イメージセンサ32の飽和露光量以上になるような設定を行なわなかった場合のLEDの像である。また、図3(b)は、露光時間をイメージセンサ32の飽和露光量以上になるような設定を行なった場合のLEDの像である。なお、撮影条件としては、LEDとして光源のサイズが1mmのものを使用し、LEDからカメラ30を1m離して撮影した。またイメージセンサ32としては、100万画素のものを使用した。
FIGS. 3A and 3B are diagrams comparing the LED images when the exposure time is set to be equal to or greater than the saturation exposure amount of the image sensor 32 and when the exposure time is not set.
Among these, FIG. 3A shows an image of the LED when the exposure time is not set to be equal to or greater than the saturation exposure amount of the image sensor 32. FIG. 3B shows an LED image when the exposure time is set to be equal to or greater than the saturation exposure amount of the image sensor 32. In addition, as a photographing condition, a LED having a light source size of 1 mm was used, and the camera 30 was photographed with a distance of 1 m from the LED. As the image sensor 32, an image sensor having 1 million pixels was used.

図3(a)〜(b)において、格子状に区切られた各ブロックは、イメージセンサ32の1ピクセルに対応する。図3(a)〜(b)で示したように、LEDの像は、二重の円状となる。このうち内側の円状の部分は、高い輝度の部分である。そして、その回りを弱い輝度の部分が外側の円状の像として撮影される。図3(a)におけるLEDの像では、内側の円状の部分の大きさは、イメージセンサ32の1ピクセルのサイズとなる。しかしながら、このような1ピクセル程度の画像情報では、単にそのピクセル位置にLEDの像が撮影されたという情報しか得られない。
一方、図3(b)において、LEDの像は、内側の円状の部分が4ピクセルのサイズとなる。即ち、図3(a)におけるLEDの像に比較して、その半径が2倍となっている。このようにLEDの像を撮影することで、画像中でのLEDの像の位置をより正確に抽出することができる。また、画像中でのLEDの像がよりはっきりと撮影されるため、背景とのコントラストの差がより大きくなり、画像中からLEDの像を抽出するのが、より容易になりやすい。
3A and 3B, each block divided in a lattice shape corresponds to one pixel of the image sensor 32. As shown in FIGS. 3A to 3B, the LED image has a double circular shape. Of these, the inner circular portion is a portion with high luminance. Then, a weak luminance portion is photographed as a circular image on the outside. In the LED image in FIG. 3A, the size of the inner circular portion is the size of one pixel of the image sensor 32. However, such image information of about one pixel can only provide information that an LED image is taken at the pixel position.
On the other hand, in FIG. 3B, the inner circular portion of the LED image has a size of 4 pixels. That is, the radius is twice that of the LED image in FIG. By photographing the LED image in this manner, the position of the LED image in the image can be extracted more accurately. Moreover, since the image of the LED in the image is captured more clearly, the difference in contrast with the background becomes larger, and it is easier to extract the LED image from the image.

次に、このようなLEDの像を撮影するための具体的な手段について更に詳しく説明を行う。
図4(a)は、露光時間とイメージセンサ32の出力電圧との関係を説明した図である。また、図4(b)は、露光時間とイメージセンサ32に撮影されるLEDの像の半径との関係を説明した図である。
図4(a)において、露光時間が0から経過するに従い、イメージセンサ32の出力電圧は比例的に増加するが、一定の露光時間(t)経過すると、出力電圧は、上限値である飽和出力電圧で飽和し、その後は、出力電圧は飽和出力電圧で一定のままであることがわかる。この露光時間(t)においてイメージセンサ32は、飽和露光量に達している。ここでは、この露光時間(t)を、以降、「飽和露光時間」と呼ぶ。
Next, specific means for photographing such an LED image will be described in more detail.
FIG. 4A illustrates the relationship between the exposure time and the output voltage of the image sensor 32. FIG. 4B is a diagram illustrating the relationship between the exposure time and the radius of the LED image taken by the image sensor 32.
In FIG. 4A, the output voltage of the image sensor 32 increases proportionally as the exposure time elapses from 0. However, when the fixed exposure time (t 1 ) elapses, the output voltage is saturated at the upper limit value. It can be seen that the output voltage saturates and thereafter the output voltage remains constant at the saturation output voltage. In this exposure time (t 1 ), the image sensor 32 reaches the saturation exposure amount. Here, this exposure time (t 1 ) is hereinafter referred to as “saturation exposure time”.

また図4(b)において、露光時間が0からtにおいて、イメージセンサ32に撮影されるLEDの像の半径は、rで一定であるが、飽和露光時間経過後は、LEDの像の半径は、比例的に増加することがわかる。ここで、飽和露光時間においてイメージセンサ32に蓄積された電荷は、単位面積当たりの電荷をDとすると、πr となり、毎秒I=πr /tで増えたことになる。ここで、LEDの像の半径を、飽和露光時間のときのLEDの像と比較して、その半径を2倍とするためには、電荷が、π(2r必要となる。この電荷を蓄積するための露光時間(t)は、π(2r/I=4tである。即ち、露光時間を飽和露光時間の4倍以上とすることで、飽和露光時間におけるLEDの像に比較して、その半径を2倍以上とすることができる。 In FIG. 4B, the radius of the LED image taken by the image sensor 32 from 0 to t 1 is constant at r 1 , but after the saturation exposure time has elapsed, It can be seen that the radius increases proportionally. Here, the charge accumulated in the image sensor 32 during the saturation exposure time is πr 1 2 D s when the charge per unit area is D s, and increases at I r = πr 1 2 D s / t 1 per second. It will be. Here, in order to double the radius of the image of the LED with that of the LED at the time of the saturation exposure time, an electric charge of π (2r 1 ) 2 D s is required. The exposure time (t 2 ) for accumulating this charge is π (2r 1 ) 2 D s / I r = 4t 1 . That is, by setting the exposure time to 4 times or more of the saturation exposure time, the radius can be set to 2 times or more compared to the LED image at the saturation exposure time.

なお、撮影されるLEDの像は、図3(a)〜(b)に示したような二重円状のものに限られるものではない。
図5(a)は、撮影されるLEDの像の他の例として、リング状のものを示した図である。図5(a)において、5点のLEDの像がリング状に撮影されていることがわかる。このような画像を撮影するには、図5(b)に示した半球レンズを光学系31(図2参照)として使用すればよい。半球レンズは球面収差を有するため、この球面収差によりイメージセンサ32に撮影されるLEDの像がリング状となる。そして、実際にLEDの像の位置を求めるためには、このリング状のLEDの像の中心位置をLEDの像の位置とすればよい。
In addition, the image | photographed LED image is not restricted to the thing of a double circle shape as shown to Fig.3 (a)-(b).
FIG. 5A is a diagram showing a ring-shaped image as another example of a captured LED image. In FIG. 5A, it can be seen that five LED images are taken in a ring shape. In order to capture such an image, the hemispherical lens shown in FIG. 5B may be used as the optical system 31 (see FIG. 2). Since the hemispherical lens has spherical aberration, the image of the LED imaged on the image sensor 32 by the spherical aberration becomes a ring shape. In order to actually obtain the position of the LED image, the center position of the ring-shaped LED image may be set as the LED image position.

また、露光時間の設定は、カメラ30(図2参照)が撮影するフレーム毎に露光時間を変更し、撮影されたLEDの像の大きさに応じて、最適な露光時間を選択し設定することが好ましい。
図6は、カメラ30が撮影するフレーム毎に露光時間を変更し、撮影されたLEDの像の大きさに応じて、最適な露光時間を選択し設定する具体的な手法を説明した図である。
図6において、横軸はフレーム数を表し、縦軸は露光時間を表す。そして、カメラ30が撮影するフレーム数とそれに対応する露光時間との関係を示した。
ここでは、4フレームを1セットとし、この1セットにおいて露光時間を1フレーム毎に4段階に変更して撮影を行う。即ち、図6における黒丸の箇所に対応した露出時間でフレーム毎に撮影を行っていく。そして、1セット毎に撮影されたLEDの像の大きさが適当な大きさとなったものを選択する。
The exposure time is set by changing the exposure time for each frame taken by the camera 30 (see FIG. 2), and selecting and setting the optimum exposure time according to the size of the taken LED image. Is preferred.
FIG. 6 is a diagram illustrating a specific method of changing the exposure time for each frame captured by the camera 30 and selecting and setting an optimal exposure time according to the size of the captured LED image. .
In FIG. 6, the horizontal axis represents the number of frames, and the vertical axis represents the exposure time. The relationship between the number of frames taken by the camera 30 and the corresponding exposure time is shown.
Here, four frames are set as one set, and in this one set, the exposure time is changed in four stages for each frame, and shooting is performed. In other words, shooting is performed for each frame with an exposure time corresponding to the black circle in FIG. Then, the LED image taken for each set is selected to have an appropriate size.

このような形態で適宜最適な露光時間で撮影した画像中から、LEDの像を抽出することで、後述する対象物100(図1参照)の位置を求める演算を精度よく行うことができる。例えば、対象物100が移動するような場合に、その時々において対象物100に設けられているLEDの像の位置や輝度が変化するが、このような場合でも適宜最適な露光時間で撮影したLEDの像を選択できるため、影響を受けにくい。よって、後述するLEDの位置を求めることにより対象物100の位置を求める演算を行う際に計算変動が生じにくくなる。   By extracting an LED image from an image captured in such a form with an optimal exposure time as appropriate, a calculation for obtaining the position of an object 100 (see FIG. 1) described later can be accurately performed. For example, when the object 100 moves, the position and brightness of the LED image provided on the object 100 change from time to time. Even in such a case, the LED imaged with an optimal exposure time as appropriate Because it is possible to select the image, it is difficult to be affected. Therefore, calculation fluctuations are less likely to occur when calculating the position of the object 100 by determining the position of the LED described later.

図7は、演算装置40の構成を説明した図である。
演算装置40は、図7に示したように、対象物100(図1参照)に設けられたLEDの位置関係を記憶する記憶部41と、カメラ30により撮影された入力画像としてのLEDの像を取り込み、4点以上のLEDの像を選択する選択部42と、記憶部41よりLEDの位置関係を読み出し、この位置関係および画像におけるLEDの像の位置関係から対象物100の三次元位置および三軸角度を求める演算部43とからなる。
FIG. 7 is a diagram illustrating the configuration of the arithmetic device 40.
As shown in FIG. 7, the arithmetic device 40 includes a storage unit 41 that stores the positional relationship of LEDs provided on the object 100 (see FIG. 1), and an LED image as an input image captured by the camera 30. The selection unit 42 that selects four or more LED images and the positional relationship of the LEDs from the storage unit 41 are read, and the three-dimensional position of the object 100 and the positional relationship of the LED images in the image And an arithmetic unit 43 for obtaining a triaxial angle.

また、図8は、演算装置40の動作を説明したフローチャートである。
以下、図7と図8に基づき、演算装置40の動作の概略を説明する。
演算装置40は、例えばパーソナルコンピュータ等で実現される。選択部42は、カメラ30により撮影されたLEDの像を取得する(ステップ101)。そして、LEDの像の中から所定の条件を満たす4点以上のLEDの像を選択する(ステップ102)。この選択は、例えば、前述したようにイメージセンサ32(図2参照)の飽和露光時間におけるLEDの像に比較して、半径が2倍以上となるLEDの像を選択してもよく、また後述する演算部43における演算において計算変動が小さくなるようなLEDの像を選択してもよい。次に、演算部43が、選択されたLEDの像に対応するLEDの位置関係を記憶部41から読み出す(ステップ103)。そして、演算部43は、この位置情報と、選択部42により選択されたLEDの像の位置関係とに基づき、LEDが設けられた対象物100の三次元位置、三軸角度を求め、対象物100の位置計測結果として出力する(ステップ104)。
FIG. 8 is a flowchart for explaining the operation of the arithmetic unit 40.
Hereinafter, an outline of the operation of the arithmetic unit 40 will be described with reference to FIGS. 7 and 8.
The arithmetic device 40 is realized by, for example, a personal computer. The selection part 42 acquires the image of LED image | photographed with the camera 30 (step 101). Then, four or more LED images satisfying a predetermined condition are selected from the LED images (step 102). For this selection, for example, as described above, an LED image whose radius is twice or more compared to the LED image at the saturation exposure time of the image sensor 32 (see FIG. 2) may be selected. The image of the LED may be selected such that the calculation variation is reduced in the calculation in the calculation unit 43. Next, the calculation unit 43 reads the positional relationship of the LEDs corresponding to the selected LED image from the storage unit 41 (step 103). And the calculating part 43 calculates | requires the three-dimensional position and triaxial angle of the target object 100 in which LED was provided based on this positional information and the positional relationship of the image of LED selected by the selection part 42, and the target object 100 position measurement results are output (step 104).

次に、選択されたLEDの像が4点で同一平面上にある場合を例として対象物100の三次元位置、三軸角度を算出する方法について説明を行う。ここでは、対象物100には、図1で説明した場合と同様に4点のLEDであるLED11〜14が備えられているものとする。
LED11の位置について、対象物100を基準とした座標系における座標を[X,Y,Zとする。また、カメラ30により撮影された画像上(イメージセンサ32上)(図2参照)の座標系におけるLED11の点の像の座標を[u,v]とする。なお以下の説明で、カメラ30の位置を原点とした座標系をカメラ座標系とし、このカメラ座標系におけるLED11の座標を[Xc1,Yc1,Zc1とする。
この場合、射影行列Pとして3行4列の行列を用いて、以下の関係式が成り立つ。
Next, a method of calculating the three-dimensional position and the three-axis angle of the object 100 will be described by taking as an example the case where the selected LED images are on the same plane with four points. Here, it is assumed that the object 100 includes LEDs 11 to 14 that are four-point LEDs as in the case described with reference to FIG.
For the position of the LED 11, the coordinates in the coordinate system with the object 100 as a reference are [X 1 , Y 1 , Z 1 ] T. Further, the coordinates of the image of the point of the LED 11 in the coordinate system on the image photographed by the camera 30 (on the image sensor 32) (see FIG. 2) are defined as [u 1 , v 1 ]. In the following description, the coordinate system with the position of the camera 30 as the origin is taken as the camera coordinate system, and the coordinates of the LED 11 in this camera coordinate system are taken as [X c1 , Y c1 , Z c1 ] T.
In this case, using the 3 × 4 matrix as the projection matrix P, the following relational expression is established.

Figure 2009270893
Figure 2009270893

数1式の中の射影行列Pは定数倍の不定性があり、これが数1式の左辺の係数hによって吸収される。よって、P34=1とおくことができる。また、LED11〜14は同一平面上にあるために、Z座標を0とすることができる。そこで、Z=0とすると、数1式のZに対応する射影行列Pの第3列を省略することができる。そのため数1式は、以下のように変形できる。この場合の射影行列の未知数は8個となる。 The projection matrix P in Formula 1 has a constant multiple indefiniteness, and this is absorbed by the coefficient h on the left side of Formula 1. Accordingly, P 34 = 1 can be set. Further, since the LEDs 11 to 14 are on the same plane, the Z coordinate can be set to zero. Therefore, if Z 1 = 0, the third column of the projection matrix P corresponding to Z 1 in Equation 1 can be omitted. Therefore, Formula 1 can be modified as follows. In this case, there are 8 unknown projection matrices.

Figure 2009270893
Figure 2009270893

この数2式から次の2つの拘束式が得られる。   The following two constraint equations are obtained from this equation (2).

Figure 2009270893
Figure 2009270893

数3式で示した関係は、LED12〜14についても同様に成り立つ。即ち、LED12〜14に対して、以下の関係式が成り立つ。なお、ここで、LED12〜14の対象物100を基準とした座標系における座標をそれぞれ、[X,Y,Z、[X,Y,Z、[X,Y,Zとし、カメラ30により撮影された画像上の座標系におけるLED12〜14の点の像の座標をそれぞれ、[u,v]、[u,v]、[u,v]としている。またLED11と同様にZ=Z=Z=0としている。 The relationship represented by Equation 3 holds true for the LEDs 12 to 14 as well. That is, the following relational expressions hold for the LEDs 12 to 14. Here, the coordinates in the coordinate system based on the object 100 of the LEDs 12 to 14 are [X 2 , Y 2 , Z 2 ] T , [X 3 , Y 3 , Z 3 ] T , [X 4, respectively. , Y 4 , Z 4 ] T, and the coordinates of the images of the points of the LEDs 12 to 14 in the coordinate system on the image taken by the camera 30 are [u 2 , v 2 ], [u 3 , v 3 ], [U 4 , v 4 ]. Further, similarly to the LED 11, Z 2 = Z 3 = Z 4 = 0.

Figure 2009270893
Figure 2009270893

数3式および数4式を整理すると次式が得られる。   The following formula is obtained by rearranging formula 3 and formula 4.

Figure 2009270893
数5式において左辺第1項をAとし、また左辺第2項は射影行列Pの3列目がない行列の要素を表していることからP3とし、右辺をBとして書き表すと、以下の式となる。
Figure 2009270893
In equation (5), the first term on the left side is A, and the second term on the left side is P3 because it represents an element of the matrix that does not have the third column of the projection matrix P. Become.

Figure 2009270893
Figure 2009270893

数6式の両辺にAの逆行列を左からかけると、   When the inverse matrix of A is applied to both sides of Equation 6 from the left,

Figure 2009270893
Figure 2009270893

となり、P3を求めることができる。
また、射影行列Pは、カメラ内部行列Cとカメラ外部行列[r1 r2 r3 t]との積で表すことができる。
Thus, P3 can be obtained.
The projection matrix P can be represented by the product of the camera inner matrix C and the camera outer matrix [r1 r2 r3 t].

Figure 2009270893
Figure 2009270893

ここで、r1、r2、r3は、対象物100上の座標系をカメラ座標系に変換する回転ベクトルであり、tは、平行移動ベクトルである。そして、これらのベクトルは全て3つの要素を有する列ベクトルとして表される。P3は射影行列Pの第3列目がない行列であるので、   Here, r1, r2, and r3 are rotation vectors for converting the coordinate system on the object 100 to the camera coordinate system, and t is a translation vector. These vectors are all represented as column vectors having three elements. Since P3 is a matrix without the third column of the projection matrix P,

Figure 2009270893
Figure 2009270893

となる。よって、   It becomes. Therefore,

Figure 2009270893
Figure 2009270893

となり、列ベクトルr1、r2、tを算出することができる。また、r3は、r1、r2と直交することから、   Thus, the column vectors r1, r2, and t can be calculated. Since r3 is orthogonal to r1 and r2,

Figure 2009270893
Figure 2009270893

と表すことができる。よって数11式よりr3を算出することができる。以上のようにして回転ベクトルr1、r2、r3と、平行移動ベクトルtが全て算出できたことになる。そこで、R=[r1 r2 r3]とすると、LED11〜14の三次元位置は、カメラ座標系を使用して、以下のように表すことができる。なおここで、カメラ座標系におけるLED12〜14の座標をそれぞれ[Xc2,Yc2,Zc2、[Xc3,Yc3,Zc3、[Xc4,Yc4,Zc4としている。 It can be expressed as. Therefore, r3 can be calculated from Equation (11). As described above, all the rotation vectors r1, r2, and r3 and the translation vector t can be calculated. Therefore, when R = [r1 r2 r3], the three-dimensional positions of the LEDs 11 to 14 can be expressed as follows using the camera coordinate system. Note here, the LED12~14 coordinates in the camera coordinate system, respectively [X c2, Y c2, Z c2] T, [X c3, Y c3, Z c3] T, [X c4, Y c4, Z c4] T It is said.

Figure 2009270893
Figure 2009270893

数12式の関係式から、LED11〜14のカメラ座標が特定できるため、対象物100の三次元位置および三軸角度が求まることとなる。よって、以上のようにして対象物100の位置が計測できる。
なお、以上の説明は、選択されたLEDが4点の場合を説明したが、5点以上になった場合も同様の手法を用いて算出可能である。
Since the camera coordinates of the LEDs 11 to 14 can be specified from the relational expression of Formula 12, the three-dimensional position and the three-axis angle of the object 100 are obtained. Therefore, the position of the object 100 can be measured as described above.
In the above description, the case where the number of selected LEDs is four has been described, but the calculation can be performed using the same method when the number of selected LEDs is five or more.

なお、以上詳述した本実施の形態において、点光源をLEDにより構成されるとしたが、これに限定するものではない。例えば、点光源としてLEDの代わりに再帰反射板を設け、カメラ30の近くに設けられた照明装置から光を照射し、再帰反射板による反射光をカメラ30により撮影するようにしても良い。   In addition, in this Embodiment explained in full detail above, although the point light source was comprised by LED, it is not limited to this. For example, a retroreflecting plate may be provided instead of the LED as a point light source, light may be emitted from an illumination device provided near the camera 30, and reflected light from the retroreflecting plate may be captured by the camera 30.

本実施形態が適用される位置計測装置、および位置計測を行う対象物を含んだ全体構成を説明した図である。It is a figure explaining the whole structure containing the position measuring apparatus with which this embodiment is applied, and the target object which performs position measurement. カメラの構成例を示す図である。It is a figure which shows the structural example of a camera. 露光時間を、イメージセンサの飽和露光量以上になるように設定を行なった場合と行なわなかった場合とで、LEDの像を比較した図である。It is the figure which compared the image of LED with the case where it does not perform when the exposure time is set so that it may become more than the saturated exposure amount of an image sensor. (a)は、露光時間とイメージセンサの出力電圧との関係を説明した図である。また(b)は、露光時間とイメージセンサに撮影されるLEDの像の半径との関係を説明した図である。(A) is the figure explaining the relationship between exposure time and the output voltage of an image sensor. Further, (b) is a diagram illustrating the relationship between the exposure time and the radius of the LED image taken by the image sensor. (a)は、撮影されるLEDの像の他の例として、リング状のものを示した図である。また(b)は、半球レンズを光学系として使用した場合を説明した図である。(A) is the figure which showed the ring-shaped thing as another example of the image of LED image | photographed. (B) is a diagram illustrating a case where a hemispherical lens is used as an optical system. カメラが撮影するフレーム毎に露光時間を変更し、撮影されたLEDの像の大きさに応じて、最適な露光時間を選択し設定する具体的な手法を説明した図である。It is a figure explaining the specific method which changes exposure time for every flame | frame which a camera image | photographs, and selects and sets optimal exposure time according to the magnitude | size of the image | photographed LED. 演算装置の構成を説明した図である。It is a figure explaining the structure of the arithmetic unit. 演算装置の動作を説明したフローチャートである。It is the flowchart explaining operation | movement of the arithmetic unit.

符号の説明Explanation of symbols

11〜14…LED、30…カメラ、31…光学系、32…イメージセンサ、40…演算装置、41…記憶部、42…選択部、43…演算部、100…対象物、300…位置計測装置 DESCRIPTION OF SYMBOLS 11-14 ... LED, 30 ... Camera, 31 ... Optical system, 32 ... Image sensor, 40 ... Calculation device, 41 ... Storage part, 42 ... Selection part, 43 ... Calculation part, 100 ... Object, 300 ... Position measuring device

Claims (11)

対象物に設けられた4点以上の点光源を、撮像素子の飽和露光量以上になるように露光時間を設定し撮影する撮影部と、
前記点光源の位置関係を記憶する記憶部と、
前記記憶部に記憶されている前記点光源の位置関係を読み出し、当該位置関係および前記撮影部により撮影された点光源の像の位置関係から前記対象物の位置を求める演算部と、
を備えることを特徴とする位置計測装置。
An imaging unit that sets and shoots an exposure time such that four or more point light sources provided on the object are equal to or greater than the saturation exposure amount of the image sensor;
A storage unit for storing the positional relationship of the point light sources;
A calculation unit that reads the positional relationship of the point light sources stored in the storage unit, and obtains the position of the object from the positional relationship and the positional relationship of the image of the point light source captured by the imaging unit;
A position measuring device comprising:
前記撮影部は、前記点光源の像の半径が飽和露光時間における点光源の像の半径の2倍以上になるときの時間を前記露光時間として設定することを特徴とする請求項1に記載の位置計測装置。   The said imaging | photography part sets the time when the radius of the image of the said point light source becomes 2 times or more of the radius of the image of a point light source in saturation exposure time as said exposure time. Position measuring device. 前記撮影部は、飽和露光時間の4倍以上となる時間を前記露光時間として設定することを特徴とする請求項1に記載の位置計測装置。   The position measurement apparatus according to claim 1, wherein the photographing unit sets a time that is four times or more of a saturation exposure time as the exposure time. 前記撮影部は、当該撮影部が撮影するフレーム毎に前記露光時間を変更し、撮影された点光源の像の大きさに応じて露光時間を設定することを特徴とする請求項1に記載の位置計測装置。   The said imaging | photography part changes the said exposure time for every flame | frame which the said imaging | photography part image | photographs, and sets exposure time according to the magnitude | size of the image | photographed point light source image. Position measuring device. 前記撮影部は、球面収差により前記点光源の像がリング状になる光学系を備えることを特徴とする請求項1に記載の位置計測装置。   The position measurement apparatus according to claim 1, wherein the photographing unit includes an optical system in which an image of the point light source is ring-shaped due to spherical aberration. 前記撮影部は、前記点光源から出射される赤外光を撮影することを特徴とする請求項1に記載の位置計測装置。   The position measurement apparatus according to claim 1, wherein the photographing unit photographs infrared light emitted from the point light source. 前記撮影部により撮影された前記点光源の像から、当該点光源の像の大きさに応じて、前記演算部で前記対象物の位置を求めるための点光源の像を選択する選択部を更に有することを特徴とする請求項1に記載の位置計測装置。   A selection unit that selects, from the image of the point light source captured by the imaging unit, a point light source image for determining the position of the object by the calculation unit according to the size of the image of the point light source; The position measuring device according to claim 1, comprising: 対象物に設けられた4点以上の点光源を撮像素子の飽和露光量以上になるように露光時間を設定して撮影し、
前記対象物における前記点光源の位置関係および撮影された点光源の像の位置関係から当該対象物の位置を求めることを特徴とする位置計測方法。
Shoot with 4 or more point light sources provided on the object set with an exposure time so that it is equal to or greater than the saturation exposure amount of the image sensor,
A position measurement method characterized in that the position of the target object is obtained from the positional relation of the point light source in the target object and the positional relation of a photographed point light source image.
前記露光時間は、撮影を行うフレーム毎に変更され、撮影された点光源の像の大きさに応じて選択され設定されることを特徴とする請求項8に記載の位置計測方法。   9. The position measurement method according to claim 8, wherein the exposure time is changed for each frame to be photographed, and is selected and set according to the size of the photographed point light source image. 撮影された前記点光源の像から、当該点光源の像の大きさに応じて前記対象物の位置を求めるための点光源を更に選択することを特徴とする請求項8に記載の位置計測方法。   9. The position measuring method according to claim 8, further comprising selecting a point light source for obtaining the position of the object from the photographed image of the point light source in accordance with the size of the image of the point light source. . コンピュータに、
対象物に設けられた4点以上の点光源を撮像素子の飽和露光量以上で撮影するための露光時間を設定する機能と、
メモリから前記点光源の位置関係を読み出し、当該位置関係および撮影された点光源の像の位置関係から前記対象物の位置を求める機能と、
を実現させるプログラム。
On the computer,
A function for setting an exposure time for photographing four or more point light sources provided on an object at a saturation exposure amount or more of the image sensor;
A function of reading the positional relationship of the point light source from the memory, and obtaining the position of the object from the positional relationship and the positional relationship of the image of the captured point light source;
A program that realizes
JP2008120562A 2008-05-02 2008-05-02 Position measuring device, position measuring method, and program Pending JP2009270893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008120562A JP2009270893A (en) 2008-05-02 2008-05-02 Position measuring device, position measuring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008120562A JP2009270893A (en) 2008-05-02 2008-05-02 Position measuring device, position measuring method, and program

Publications (1)

Publication Number Publication Date
JP2009270893A true JP2009270893A (en) 2009-11-19

Family

ID=41437586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008120562A Pending JP2009270893A (en) 2008-05-02 2008-05-02 Position measuring device, position measuring method, and program

Country Status (1)

Country Link
JP (1) JP2009270893A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027000A (en) * 2010-06-22 2012-02-09 Itt:Kk Image measurement processor, image measurement processing method and image measurement processing program by single camera
KR20170085388A (en) * 2016-01-14 2017-07-24 삼성전자주식회사 Display controller and application processor including the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027000A (en) * 2010-06-22 2012-02-09 Itt:Kk Image measurement processor, image measurement processing method and image measurement processing program by single camera
KR20170085388A (en) * 2016-01-14 2017-07-24 삼성전자주식회사 Display controller and application processor including the same
KR102433924B1 (en) 2016-01-14 2022-08-19 삼성전자주식회사 Display controller and application processor including the same

Similar Documents

Publication Publication Date Title
CN104395694B (en) Motion sensor device with multiple light sources
JP5820257B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6112769B2 (en) Information processing apparatus and information processing method
JP5834615B2 (en) PROJECTOR, ITS CONTROL METHOD, ITS PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
CN108702437A (en) High dynamic range depth for 3D imaging systems generates
JP2020503817A (en) Apparatus and method for obtaining distance information from viewpoint
JP5440615B2 (en) Stereo camera device
JP6786225B2 (en) Image processing equipment, imaging equipment and image processing programs
JP2009139246A (en) Image processing apparatus, image processing method, image processing program, position detection apparatus, and moving body including the same
JP5849522B2 (en) Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program
JP7179472B2 (en) Processing device, processing system, imaging device, processing method, program, and recording medium
JP6556013B2 (en) PROCESSING DEVICE, PROCESSING SYSTEM, IMAGING DEVICE, PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
CN107113379A (en) The brightness adjusting method of infrared light supply moves with device, optics and catches video camera
JP2009284188A (en) Color imaging apparatus
JPWO2019026287A1 (en) Imaging device and information processing method
WO2014171418A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
WO2013150830A1 (en) Glare measurement system
TWI394435B (en) Method and system for determining movement of an imaging device
US10721395B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP2017134561A (en) Image processing device, imaging apparatus and image processing program
CN105143816B (en) Three-dimensional shape measuring device, three-dimensional shape measuring method and three-dimensional shape measuring program
JP2009270893A (en) Position measuring device, position measuring method, and program
JP6257260B2 (en) Imaging apparatus and control method thereof
JP7118776B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM