[go: up one dir, main page]

JP2014053859A - Mobile object observation system - Google Patents

Mobile object observation system Download PDF

Info

Publication number
JP2014053859A
JP2014053859A JP2012198695A JP2012198695A JP2014053859A JP 2014053859 A JP2014053859 A JP 2014053859A JP 2012198695 A JP2012198695 A JP 2012198695A JP 2012198695 A JP2012198695 A JP 2012198695A JP 2014053859 A JP2014053859 A JP 2014053859A
Authority
JP
Japan
Prior art keywords
frame
moving body
moving
image
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012198695A
Other languages
Japanese (ja)
Inventor
Hisashi Takado
寿士 高堂
Tadashi Aoki
正 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012198695A priority Critical patent/JP2014053859A/en
Publication of JP2014053859A publication Critical patent/JP2014053859A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Camera Data Copying Or Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently store image data without reducing an information amount of regions of a mobile object and a desired still object while capacity of the image data is compressed.SOLUTION: The mobile object observation device includes: an imaging apparatus (10) for imaging a plurality of continuous frames; a mobile object detecting section (112) for detecting a mobile object in response to the plurality of imaged frames; a still object detecting section (113) for detecting a still object in response to the imaged frame; and a partial image generating section (114) for cutting out respective regions of the detected mobile object and still object. The still object detecting section detects the still object in at least one frame including the mobile object in the frames from the frame where the mobile object detecting section detects the mobile object to the frame where the mobile object is eliminated.

Description

本発明は、移動体観測装置に関する。   The present invention relates to a moving object observation apparatus.

監視カメラ分野で、画像データを圧縮する技術として、動体を検出し、動体領域と動体以外の領域とで、異なる階調数で画像を変換して出力する装置が知られている(特許文献1)。   In the surveillance camera field, as a technique for compressing image data, there is known an apparatus that detects a moving object and converts and outputs an image with a different number of gradations in a moving object region and a region other than the moving object (Patent Document 1). ).

特開2009−253747号公報JP 2009-253747 A

ところで、天体観測において、流星やスペースデブリ等の移動体を動画で観測する場合には、移動体の情報だけでなく、静止物体として観測される恒星の位置や明るさの情報が重要である。なぜなら、既知の恒星の明るさを基準として、流星やスペースデブリの相対的な明るさを算出し、その情報から移動体の地上からの距離や大きさを算出することができるからである。したがって、移動体の画像情報に加え、少なくとも一つ静止物体として観測される恒星の輝度情報も圧縮することなく保存することが必要とされている。しかしながら、移動体検出領域以外の階調を圧縮するため、マーカーとする静止物体の階調情報が減ってしまうという課題がある。   By the way, in astronomical observation, when moving objects such as meteors and space debris are observed with moving images, not only information on moving objects but also information on the position and brightness of a star observed as a stationary object is important. This is because the relative brightness of meteors and space debris can be calculated on the basis of the brightness of known stars, and the distance and size of the moving object from the ground can be calculated from the information. Therefore, in addition to the image information of the moving object, it is necessary to store the luminance information of the star observed as at least one stationary object without being compressed. However, since the gradation other than the moving object detection area is compressed, there is a problem that the gradation information of the stationary object as a marker is reduced.

本発明の目的は、画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することである。   An object of the present invention is to efficiently store image data while reducing the amount of information of the area of the moving object and a desired stationary object while compressing the capacity of the image data.

本発明の移動体観測装置は、連続した複数のフレームの撮像を行う撮像装置と、前記撮像された複数のフレームを基に移動体を検出する移動体検出部と、前記撮像されたフレームを基に静止物体を検出する静止物体検出部と、前記検出された移動体及び静止物体の領域をそれぞれ切り出す部分画像生成部とを有し、前記静止物体検出部は、前記移動体検出部により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出することを特徴とする。   The moving body observation apparatus of the present invention includes an imaging apparatus that captures a plurality of consecutive frames, a moving body detection unit that detects a moving body based on the plurality of captured frames, and the captured frames. A stationary object detection unit that detects a stationary object, and a partial image generation unit that cuts out the areas of the detected moving object and the stationary object, respectively, and the stationary object detection unit is moved by the moving object detection unit. The stationary object in at least one frame including the moving body is detected from the frame in which the moving body is detected to the frame in which the moving body disappears.

画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することができる。   The image data can be efficiently stored without reducing the amount of information of the area of the moving object and the desired stationary object while compressing the capacity of the image data.

移動体検出装置の構成例を示す図である。It is a figure which shows the structural example of a moving body detection apparatus. 移動体と静止物体の切り出しを行うフローチャートである。It is a flowchart which cuts out a moving body and a stationary object. 移動体検出と静止物体検出の切り出し領域の模式図である。It is a schematic diagram of the cut-out area | region of a mobile body detection and a stationary object detection. 移動体と静止物体の位置情報と輝度情報付加の一例を示す図である。It is a figure which shows an example of the positional information and luminance information addition of a moving body and a stationary object. 静止物体を切り出して保存する場合のフローチャートである。It is a flowchart in the case of cutting out and storing a stationary object. 移動体検出と静止物体検出の切り出し領域の模式図である。It is a schematic diagram of the cut-out area | region of a mobile body detection and a stationary object detection. 移動体検出前後のフレームの移動体推定画像領域を検出した模式図である。It is the schematic diagram which detected the mobile body estimation image area | region of the flame | frame before and behind a mobile body detection. 切り出し保存する場合のフローチャートである。It is a flowchart in the case of cutting out and preserve | saving. 移動体検出前のフレームの移動体推定画像領域を検出した模式図である。It is the schematic diagram which detected the mobile body estimation image area | region of the flame | frame before a mobile body detection. 移動体検出前後のフレームの位置座標と輝度情報を示した図である。It is the figure which showed the position coordinate and luminance information of the flame | frame before and behind a mobile body detection. 移動体検出前後のフレームの位置座標を示した図である。It is the figure which showed the position coordinate of the flame | frame before and behind a mobile body detection.

(第1の実施形態)
図1は、本発明の第1の実施形態に係る移動体観測装置の構成の一例を示す図である。移動体観測装置1は、撮像装置10、画像処理装置11及び画像保存装置12を有する。画像処理装置11は、画像入力部110、一時記憶部111、移動体検出部112、静止物体検出部113、部分画像生成部114、制御部115及び画像出力部116を有する。撮像装置10は、光学系と撮像素子を有し、光学系により被写体を撮像素子に結像させ、撮像素子で被写体光が電気信号(画像信号)に変換される。光学系は例えばレンズや天体望遠鏡等を用いることができ、撮像素子はCCDイメージセンサやCMOSイメージセンサなどを用いることができる。撮像装置10は、所定の撮像時間(例えば16.6ミリ秒)おきに定期的に連続した複数のフレームの画像を撮像して出力する。画像入力部110は、撮像装置10で変換された電気信号(画像信号)に関して、各種信号処理を行う。例えば、電気信号がアナログ信号の場合、画像入力部110は、アナログ信号をデジタル信号に変換する。一時記憶部111は、画像入力部110からの入力信号を画像フレーム毎に一時記憶する。一時記憶部111は、数十フレームから数百フレームを一時記憶することができ、一時記憶部111の容量を超えるデータが入力された場合は、過去のデータから順に上書きされる。例えば、一時記憶部111は、DRAM(dynamic random access memory)等の半導体メモリを用いることができる。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a moving object observation apparatus according to the first embodiment of the present invention. The moving body observation device 1 includes an imaging device 10, an image processing device 11, and an image storage device 12. The image processing apparatus 11 includes an image input unit 110, a temporary storage unit 111, a moving body detection unit 112, a stationary object detection unit 113, a partial image generation unit 114, a control unit 115, and an image output unit 116. The image pickup apparatus 10 includes an optical system and an image pickup element. The image of the subject is formed on the image pickup element by the optical system, and the subject light is converted into an electric signal (image signal) by the image pickup element. For example, a lens or an astronomical telescope can be used as the optical system, and a CCD image sensor or a CMOS image sensor can be used as the imaging device. The imaging device 10 captures and outputs images of a plurality of consecutive frames periodically at a predetermined imaging time (for example, 16.6 milliseconds). The image input unit 110 performs various signal processing on the electrical signal (image signal) converted by the imaging device 10. For example, when the electrical signal is an analog signal, the image input unit 110 converts the analog signal into a digital signal. The temporary storage unit 111 temporarily stores an input signal from the image input unit 110 for each image frame. The temporary storage unit 111 can temporarily store several tens to several hundred frames. When data exceeding the capacity of the temporary storage unit 111 is input, the data is overwritten in order from the past data. For example, the temporary storage unit 111 can use a semiconductor memory such as a DRAM (dynamic random access memory).

移動体検出部112は、一時記憶部111に記憶された画像信号を処理して移動体を検出する。すなわち、移動体検出部112は、撮像装置10により撮像された複数のフレームを基に移動体を検出する。移動体検出のアルゴリズムは、特に限定されず、例えば、2フレーム画像間の差分をとり、差分値が閾値を超えたら、移動体として検出するといった方法を用いることができる。移動体検出部112は、移動体を検出した結果を制御部115に出力する。例えば、移動体検出部112は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。静止物体検出部113は、一時記憶部111に記憶された画像信号を処理し、静止物体を検出する。すなわち、静止物体検出部113は、撮像装置10により撮像されたフレームを基に静止物体を検出する。本実施形態では、静止物体検出部113は、移動体検出部112が移動体を検出した画像に対してのみ、静止物体検出を行うことが特徴である。静止物体検出部113は、上記の移動体を含む領域をマスキングして除外した画像において、物体抽出を行う。静止物体抽出の方法としては、例えば、画像をある閾値で2値化して、ある所定の大きさ、明るさ以上のものを抽出するという方法がある。また、抽出する物体は、ユーザーによって設定できるようにしてもよい。例えば、静止物体検出部113は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。   The moving body detection unit 112 processes the image signal stored in the temporary storage unit 111 and detects the moving body. That is, the moving body detection unit 112 detects a moving body based on a plurality of frames imaged by the imaging device 10. The algorithm for detecting the moving object is not particularly limited. For example, a method of taking a difference between two frame images and detecting the moving object when the difference value exceeds a threshold value can be used. The moving body detection unit 112 outputs the result of detecting the moving body to the control unit 115. For example, the moving body detection unit 112 can be used by being implemented as a functional block in an FPGA (Field-Programmable Gate Array). The stationary object detection unit 113 processes the image signal stored in the temporary storage unit 111 and detects a stationary object. That is, the stationary object detection unit 113 detects a stationary object based on the frame imaged by the imaging device 10. The present embodiment is characterized in that the stationary object detection unit 113 performs stationary object detection only on an image in which the moving body detection unit 112 has detected the moving body. The stationary object detection unit 113 performs object extraction in an image obtained by masking and removing the region including the moving object. As a method for extracting a stationary object, for example, there is a method in which an image is binarized with a certain threshold value and an object having a certain size and brightness is extracted. Further, the object to be extracted may be set by the user. For example, the stationary object detection unit 113 can be used by being implemented as a functional block in an FPGA (Field-Programmable Gate Array).

部分画像生成部114は、撮像装置10により撮像された複数のフレームを基に、移動体検出部112により検出された移動体の領域及び静止物体検出部113により検出された静止物体の領域をそれぞれ切り出す。部分画像生成部114は、移動体検出部112から移動体の位置情報を入力し、移動体検知された場合に画像を一時記憶部111から入力する。そして、部分画像生成部114は、移動体検出された画像全体から移動体を含む周辺領域を切り出す。また、部分画像生成部114は、静止物体検出部113から静止物体の位置情報を入力し、静止物体を含む周辺領域を切り出す。詳細については後述する。例えば、部分画像生成部114は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。   The partial image generation unit 114 determines the area of the moving object detected by the moving object detection unit 112 and the area of the stationary object detected by the stationary object detection unit 113 based on the plurality of frames captured by the imaging device 10. cut. The partial image generation unit 114 inputs the position information of the moving body from the moving body detection unit 112 and inputs an image from the temporary storage unit 111 when the moving body is detected. Then, the partial image generation unit 114 cuts out a peripheral area including the moving body from the entire image detected by the moving body. In addition, the partial image generation unit 114 receives the position information of the stationary object from the stationary object detection unit 113, and cuts out a peripheral region including the stationary object. Details will be described later. For example, the partial image generation unit 114 can be used by being implemented as a functional block in an FPGA (Field-Programmable Gate Array).

制御部115は、移動体検出部112の検出信号やユーザー設定部(不図示)の入力信号を入力し、画像出力部116に入力された部分画像のうち、どの画像を画像保存装置12に出力するかを制御する。制御部115は、移動体検出されている場合には、移動体周辺の切り出し画像を出力するように制御する。また、制御部115は、移動体検出がされてからのフレーム数に応じて、静止物体の切り出し画像を出力するか判断して、制御を行う。例えば、制御部115は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。   The control unit 115 receives a detection signal from the moving body detection unit 112 and an input signal from a user setting unit (not shown), and outputs which image among the partial images input to the image output unit 116 to the image storage device 12. Control what to do. When the moving body is detected, the control unit 115 controls to output a cut-out image around the moving body. In addition, the control unit 115 performs control by determining whether to output a cutout image of a stationary object according to the number of frames after the moving object is detected. For example, the control unit 115 can be used by being implemented as a functional block in an FPGA (Field-Programmable Gate Array).

画像出力部116は、部分画像生成部114で生成された画像情報を制御部115の制御に基づいて、画像保存装置12に出力する。例えば、画像出力部116は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。画像保存装置12は、画像出力部116から出力された画像情報やその他の情報を保存する。画像保存装置12は、不揮発性であればよく、ハードディスク(HDD)やフラッシュメモリドライブ(SSD)、などを用いることができる。また、画像保存装置12は、ネットワーク上のサーバであって、画像処理装置11とネットワークで接続される形態でもよい。   The image output unit 116 outputs the image information generated by the partial image generation unit 114 to the image storage device 12 based on the control of the control unit 115. For example, the image output unit 116 can be used by being implemented as a functional block in an FPGA (Field-Programmable Gate Array). The image storage device 12 stores the image information and other information output from the image output unit 116. The image storage device 12 may be non-volatile, and a hard disk (HDD), a flash memory drive (SSD), or the like can be used. The image storage device 12 may be a server on a network and connected to the image processing device 11 via a network.

次に、移動体検出から画像出力までの動作の詳細を図2〜3を用いて説明する。図2と図3を用いて、移動体検出から移動体消失までの画像群における画像処理の手順を説明する。図3の移動体30が検出されたNフレーム目の画像を例にとって説明する。図2はあるフレーム画像を処理するフローを示している。ステップS20では、画像入力部110は、撮像装置10から画像データを取得し、一時記憶部111に記憶させる。次に、ステップS21では、移動体検出部112は、一時記憶部111に記憶されたN−1フレーム画像データを用いて、N−1フレームとNフレームの画像間の差分をとる。これにより、移動体検出部112は、移動体が存在するか否かを検出する。移動体が非検出の場合は、その後の画像演算は行わない。移動体が検出された場合は、ステップS22において、移動体検出部112は、移動体の位置情報を部分画像生成部114に出力し、部分画像生成部114は、一時記憶部111から画像を入力し、移動体を含む領域を切り出す処理を行う。この際、移動体が複数検出された場合は、移動体検出部112は複数の移動体を全て検出し、部分画像生成部114は複数の移動体を含む領域を切り出す処理を行う。この際に、移動体を含む領域は、画素が連続した領域である。図3の移動体30を含む領域は矩形で示されているが、切り出し形状は矩形に限定されるものではなく、画像データが横方向、縦方向共に連続していればよい。切り出された移動体30を含む画像データは、画像出力部116内のバッファに一時記憶される。   Next, details of the operation from the moving object detection to the image output will be described with reference to FIGS. A procedure of image processing in an image group from detection of a moving object to disappearance of the moving object will be described with reference to FIGS. A description will be given by taking as an example an image of the Nth frame in which the moving body 30 in FIG. 3 is detected. FIG. 2 shows a flow of processing a certain frame image. In step S <b> 20, the image input unit 110 acquires image data from the imaging device 10 and stores it in the temporary storage unit 111. Next, in step S <b> 21, the moving body detection unit 112 uses the N−1 frame image data stored in the temporary storage unit 111 to obtain a difference between the N−1 frame and N frame images. Thereby, the mobile body detection part 112 detects whether a mobile body exists. When the moving body is not detected, the subsequent image calculation is not performed. If a moving object is detected, in step S22, the moving object detection unit 112 outputs the position information of the moving object to the partial image generation unit 114, and the partial image generation unit 114 inputs an image from the temporary storage unit 111. Then, a process of cutting out the area including the moving body is performed. At this time, when a plurality of moving bodies are detected, the moving body detecting unit 112 detects all of the plurality of moving bodies, and the partial image generating unit 114 performs a process of cutting out an area including the plurality of moving bodies. At this time, the region including the moving body is a region where pixels are continuous. Although the area including the moving body 30 in FIG. 3 is shown as a rectangle, the cutout shape is not limited to a rectangle, and it is sufficient that the image data is continuous in both the horizontal and vertical directions. Image data including the cut out moving body 30 is temporarily stored in a buffer in the image output unit 116.

ステップS23では、静止物体検出部113は、静止物体の検出を行う。静止物体検出部113は、上記の移動体30を含む領域をマスキングして除外した画像において静止物体抽出を行う。静止物体抽出の方法としては、例えば、画像をある閾値で2値化して、ある所定の大きさ、明るさ以上のものを抽出するという方法がある。抽出する物体は、使用者によって設定できるようにしてもよい。明るさが既知の静止物体を少なくとも一つ検出することで、静止物体の輝度と移動体の輝度データを比較することができる。静止物体が既知の物体であり、輝度がわかっている場合は、相対比較により、静止物体の輝度を算出することができる。移動体の絶対位置も精度良く算出するには、静止物体の検出は二つ以上がより望ましい。移動体の天球上の絶対位置を算出する場合、撮像装置10の方向と、静止物体との相対位置から算出する。静止物体として1点だけを抽出した場合、撮像装置10の向きの設定と実際とのずれが、移動体30の絶対位置精度に影響する。例えば、撮像装置10が想定より平行になっておらず斜めになっていた場合、移動体30の天球上の位置は撮像装置10が斜めの分だけ誤差を生じる。それに対し、静止物体として2点以上を検出した場合、天球上の位置が既に分かっている二つの静止物体の位置から移動体の位置を算出できるので、撮像装置10が斜めになっている影響を除去できる。   In step S23, the stationary object detection unit 113 detects a stationary object. The stationary object detection unit 113 performs stationary object extraction on an image obtained by masking and excluding the region including the moving body 30 described above. As a method for extracting a stationary object, for example, there is a method in which an image is binarized with a certain threshold value and an object having a certain size and brightness is extracted. The object to be extracted may be set by the user. By detecting at least one stationary object with known brightness, the luminance of the stationary object can be compared with the luminance data of the moving object. When the stationary object is a known object and the luminance is known, the luminance of the stationary object can be calculated by relative comparison. In order to calculate the absolute position of the moving object with high accuracy, it is more desirable to detect two or more stationary objects. When calculating the absolute position of the moving object on the celestial sphere, it is calculated from the direction of the imaging device 10 and the relative position of the stationary object. When only one point is extracted as a stationary object, the deviation between the setting of the orientation of the imaging device 10 and the actual one affects the absolute position accuracy of the moving body 30. For example, when the imaging apparatus 10 is not parallel and slanted as expected, an error occurs in the position of the moving body 30 on the celestial sphere due to the inclination of the imaging apparatus 10. On the other hand, when two or more points are detected as stationary objects, the position of the moving object can be calculated from the positions of two stationary objects whose positions on the celestial sphere are already known. Can be removed.

次に、静止物体の周辺領域を切り出す処理を行う。静止物体検出部113は、検出した静止物体の位置情報を部分画像生成部114に出力する。移動体の切り出し処理と同様に、静止物体の切り出し領域は間引きをせず連続した領域である。図3の静止物体31及び32を含む領域は矩形で示されているが、切り出し形状は矩形に限定されるものではなく、画像データが横方向、縦方向共に連続していればよい。移動体30を含む領域の画像データと静止物体31及び32を含む領域の画像データは、部分画像生成部114から画像出力部116に出力される。画像出力部116は、制御部115の制御信号に基づいて出力する。制御部115は、移動体検出されている場合は、移動体30を含む領域と静止物体31及び32を含む領域を出力し、移動体検出されていない場合は、移動体を含む領域と静止物体を含む領域を出力しない。   Next, a process of cutting out the peripheral area of the stationary object is performed. The stationary object detection unit 113 outputs the detected position information of the stationary object to the partial image generation unit 114. Similar to the moving object clipping process, the stationary object clipping area is a continuous area without thinning. Although the area including the stationary objects 31 and 32 in FIG. 3 is indicated by a rectangle, the cutout shape is not limited to a rectangle, and it is sufficient that the image data is continuous in both the horizontal and vertical directions. The image data of the area including the moving body 30 and the image data of the area including the stationary objects 31 and 32 are output from the partial image generation unit 114 to the image output unit 116. The image output unit 116 outputs based on the control signal of the control unit 115. When the moving body is detected, the control unit 115 outputs the area including the moving body 30 and the area including the stationary objects 31 and 32. When the moving body is not detected, the control unit 115 outputs the area including the moving body and the stationary object. Do not output the area containing.

切り出した画像の出力形式の一例を示す。この例では、同一フレームの移動体と静止物体を一つの画像ファイルとして保存する場合を述べるが、別々の画像ファイルとして保存してもよい。画像データは、バイナリデータ形式で専用フォーマットのRAW画像で保存する。画像データは、画像データ領域とヘッダを有する。ヘッダには、フレーム番号、物体数、物体識別番号、切り出した部分画像領域の座標情報を含む。フレーム番号は、撮像開始からのフレームカウント数など、その画像がいつ撮像された画像かを識別できる情報であればよい。時刻情報を含んでもよい。物体数は、移動体とマーカーとなる静止物体の数を示す。切り出した部分画像の領域情報は、矩形領域の場合、左上端の座標値と右下端の座標値を指定する。画像データ領域は、1番目の部分画像データをバイナリデータとして格納した後、2番目の部分画像データを格納する。移動体、静止物体の数だけ格納する。1番目と2番目の部分画像の境界を判断するには、部分画像の領域情報から部分画像の画素数を算出すればよい。ステップS24では、画像保存装置12は、画像出力部116により出力される画像を保存する。   An example of the output format of the clipped image is shown. In this example, a case where a moving body and a stationary object of the same frame are stored as one image file will be described, but they may be stored as separate image files. The image data is saved as a RAW image in a dedicated format in a binary data format. The image data has an image data area and a header. The header includes a frame number, the number of objects, an object identification number, and coordinate information of the cut out partial image area. The frame number may be any information that can identify when the image is captured, such as the frame count from the start of imaging. Time information may be included. The number of objects indicates the number of moving objects and stationary objects that are markers. As the region information of the cut out partial image, in the case of a rectangular region, the coordinate value of the upper left corner and the coordinate value of the lower right corner are designated. The image data area stores the first partial image data as binary data and then stores the second partial image data. Store the number of moving and stationary objects. In order to determine the boundary between the first and second partial images, the number of pixels in the partial image may be calculated from the area information of the partial image. In step S <b> 24, the image storage device 12 stores the image output by the image output unit 116.

以上の処理をフレーム毎に行うと、図3に示すように移動体30を検出してから移動体30が消失するまでの間、移動体30を含む領域の画像情報と静止物体31及び32を含む領域の画像情報を、空間解像度を保ったまま保存することができる。   When the above processing is performed for each frame, the image information of the area including the moving body 30 and the stationary objects 31 and 32 are detected until the moving body 30 disappears after the moving body 30 is detected as shown in FIG. The image information of the included area can be saved while maintaining the spatial resolution.

また、静止物体を含む領域は、移動体が検出された全てのフレームで保存する必要はない。移動体が初めに検出されたフレームのみ静止物体を含む領域を保存してもよい。図5から図6を用いて説明する。図5は、あるフレームの画像処理の手順を示している。ステップS50では、画像入力部110は、差像装置10から入力した画像を一時記憶部111に記憶させる。ステップS51では、移動体検出部112は、移動体を検出する。移動体を検出した場合には、ステップS52において、部分画像生成部114は、一時記憶部111から画像を入力し、移動体周辺の画像を切り出して画像出力部116に出力する。ステップS53では、制御部115は、前フレームにおいて移動体が検出されていたか否かを判定する。判定方法は、制御部115がカウンタを備え、移動体検出部112で移動体が検出された場合にカウンタを増加し、移動体が検出されなかった場合にカウンタを0に戻すことで可能である。カウンタが0のときは、前フレームに移動体が検出されていないと判断し、ステップS54に進む。それ以外の場合は、ステップS55に進む。ステップS54では、静止物体検出部113は静止物体を検出し、部分画像生成部114は静止物体周辺の領域を切り出して、画像出力部116に出力する。ステップS55では、画像保存装置12は、画像出力部116により出力される画像を保存する。   In addition, it is not necessary to save the area including the stationary object in every frame in which the moving object is detected. An area including a stationary object may be stored only in a frame in which the moving object is first detected. This will be described with reference to FIGS. FIG. 5 shows an image processing procedure for a certain frame. In step S <b> 50, the image input unit 110 stores the image input from the difference image device 10 in the temporary storage unit 111. In step S51, the moving body detection unit 112 detects a moving body. When the moving body is detected, in step S52, the partial image generation unit 114 inputs an image from the temporary storage unit 111, cuts out an image around the moving body, and outputs the image to the image output unit 116. In step S53, the control unit 115 determines whether or not a moving object has been detected in the previous frame. The determination method can be achieved by the control unit 115 having a counter and increasing the counter when the moving body detecting unit 112 detects the moving body, and returning the counter to 0 when the moving body is not detected. . When the counter is 0, it is determined that no moving object is detected in the previous frame, and the process proceeds to step S54. In cases other than that described here, process flow proceeds to Step S55. In step S <b> 54, the stationary object detection unit 113 detects a stationary object, and the partial image generation unit 114 cuts out a region around the stationary object and outputs it to the image output unit 116. In step S <b> 55, the image storage device 12 stores the image output by the image output unit 116.

以上のように、静止物体検出部113は、移動体検出部112により移動体が検出された時の1フレームでのみ2つ以上の静止物体31及び32を検出する。以上のフローにより、移動体が検出された最初のフレームのみ移動体周辺領域の画像と静止物体周辺領域の画像を切り出して保存し、その他のフレームでは、移動体周辺領域の画像のみ切り出して保存することができる。また、静止物体を含む周辺領域の画像を保存するフレームは、移動体を検出した初めてのフレームに限られるわけではない。ある移動体が検出されてから消失するまでの任意のフレームでよい。静止物体検出部113は、移動体検出部112により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出すればよい。移動体検出から移動体消失までのフレームで静止物体の輝度変化等が気にならない場合は、以上の方法をとることで、画像データを更に圧縮するのに有効である。   As described above, the stationary object detection unit 113 detects the two or more stationary objects 31 and 32 only in one frame when the moving body detection unit 112 detects the moving body. With the above flow, only the first frame in which the moving object is detected is cut out and saved in the moving object peripheral area image and the stationary object peripheral area image, and in the other frames, only the moving object peripheral area image is cut out and saved. be able to. Further, the frame for storing the image of the peripheral area including the stationary object is not limited to the first frame in which the moving object is detected. Any frame from when a certain moving body is detected to disappearing may be used. The stationary object detection unit 113 may detect a stationary object in at least one frame including the moving body from the frame where the moving body is detected by the moving body detection unit 112 to the frame where the moving body disappears. If the change in brightness of a stationary object is not a concern in the frame from the detection of the moving object to the disappearance of the moving object, the above method is effective for further compressing the image data.

(第2の実施形態)
本発明の第2の実施形態では、移動体を含む周辺領域と静止物体を含む周辺領域の画像データを保存するのに加え、位置情報と輝度情報を画像データに付加する。その方法について説明する。移動体観測装置の構成は第1の実施形態と同じであるが、移動体検出部112と静止物体検出部113に位置情報演算と輝度情報演算の機能を追加している。移動体検出がされてから、移動体を含む周辺領域と静止物体を含む周辺領域を切り出すまでの処理は、第1の実施形態と同様である。画像の位置情報と輝度情報について図4を用いて説明する。
(Second Embodiment)
In the second embodiment of the present invention, in addition to storing image data of a peripheral region including a moving object and a peripheral region including a stationary object, position information and luminance information are added to the image data. The method will be described. The configuration of the moving body observation apparatus is the same as that of the first embodiment, but functions of position information calculation and luminance information calculation are added to the moving body detection unit 112 and the stationary object detection unit 113. The process from the detection of the moving body to the extraction of the surrounding area including the moving body and the surrounding area including the stationary object is the same as in the first embodiment. Image position information and luminance information will be described with reference to FIG.

位置情報は、画像全体において移動体30及び/又は静止物体31,32の位置がどこにあるかを示す情報である。位置情報として、移動体30や静止物体31,32の輝度重心座標を用いることができる。図4に例示した位置情報は、画素数が横1920画素、縦1080画素の画像において、左端の座標を原点(0,0)としたときの輝度重心座標である。また、位置情報は、天球座標系の赤道、赤緯を単位として表してもよい。撮像装置10の方角を示す情報から画像の左端の赤道、赤緯座標を算出する。そして、撮像素子の画角から画像の1画素単位が、天球上の座標の単位でいくつに相当するかが分かる。この二つの情報から、画像座標と天球座標系の換算を行うことができる。輝度情報は、移動体30や静止物体31,32の明るさを示す情報である。例えば、A/D変換後のデジタルデータのカウント値を移動体30又は静止物体31,32の領域にわたって平均をとった値を輝度情報として用いることができる。図4には、画像のビット深度が14ビットの画像について、物体として抽出された領域の平均値を移動体30や静止物体31,32の輝度情報としている。輝度情報は、平均値に限定されるものでなく、物体として抽出された領域の中央値や、最大値などでもよい。また、移動体と静止物体の輝度情報として、等級で表した情報を画像に付加してもよい。   The position information is information indicating where the moving body 30 and / or the stationary objects 31 and 32 are located in the entire image. As the position information, the luminance barycentric coordinates of the moving body 30 and the stationary objects 31 and 32 can be used. The position information illustrated in FIG. 4 is the luminance center-of-gravity coordinates when the left end coordinate is the origin (0, 0) in an image having 1920 pixels in the horizontal direction and 1080 pixels in the vertical direction. The position information may be expressed in units of the equator and declination of the celestial coordinate system. From the information indicating the direction of the imaging device 10, the equator and declination coordinates at the left end of the image are calculated. From the angle of view of the image sensor, it can be seen how many pixel units of the image correspond to the coordinate unit on the celestial sphere. From these two pieces of information, the image coordinates and the celestial coordinate system can be converted. The luminance information is information indicating the brightness of the moving body 30 and the stationary objects 31 and 32. For example, a value obtained by averaging the count values of the digital data after A / D conversion over the area of the moving body 30 or the stationary objects 31 and 32 can be used as the luminance information. In FIG. 4, the average value of the area extracted as an object for the image having a bit depth of 14 bits is used as luminance information of the moving body 30 and the stationary objects 31 and 32. The luminance information is not limited to the average value, and may be a median value or a maximum value of an area extracted as an object. Further, as luminance information of the moving object and the stationary object, information represented by a grade may be added to the image.

移動体の位置情報と輝度情報は、移動体検出部112により検出と同時に算出される。また、静止物体の位置情報と輝度情報は、静止物体検出部113により検出と同時に算出される。移動体検出部112と静止物体検出部113で算出された情報は、部分画像生成部114に出力された後、切り出された領域画像とともに、画像出力部115に出力され、画像保存装置12で保存される。部分画像生成部114は、移動体の位置情報及び輝度情報を移動体を含む画像に付加し、静止物体の位置情報及び輝度情報を静止物体を含む画像に付加して出力する。   The position information and luminance information of the moving object are calculated simultaneously with the detection by the moving object detection unit 112. In addition, the position information and luminance information of the stationary object are calculated simultaneously with the detection by the stationary object detection unit 113. The information calculated by the moving object detection unit 112 and the stationary object detection unit 113 is output to the partial image generation unit 114, and then output to the image output unit 115 together with the clipped region image, and is stored by the image storage device 12. Is done. The partial image generation unit 114 adds the position information and luminance information of the moving object to the image including the moving object, and adds the position information and luminance information of the stationary object to the image including the stationary object and outputs the image.

位置情報と輝度情報のデータの付加方法の一例として、専用RAWフォーマットのヘッダを使用することができる。予め定めたヘッダフォーマットに位置情報と輝度情報を付加する領域を確保し、その部分にバイナリデータ又はテキストデータで位置情報及び輝度情報を保存する。画像データに加え、位置情報と輝度情報を付加することで、画像保存装置12の画像を詳細に解析する前に、簡易的に移動体と静止物体の相対位置と相対輝度を把握することができる。それにより、観測者の画像解析の負担を軽減することができる。   As an example of a method of adding position information and luminance information data, a dedicated RAW format header can be used. An area for adding position information and luminance information is secured in a predetermined header format, and the position information and luminance information are stored as binary data or text data in that portion. By adding position information and luminance information in addition to image data, it is possible to easily grasp the relative position and relative luminance of the moving body and the stationary object before analyzing the image of the image storage device 12 in detail. . As a result, the burden of observer image analysis can be reduced.

(第3の実施形態)
第1及び第2の実施形態では、移動体が検出されたフレームから、移動体が消失するフレームまでのフレームについて、移動体周辺の領域と静止物体周辺の領域を切り出している。これに対し、本発明の第3の実施形態では、移動体検出以前のフレームの画像と移動体消失フレーム後も追加して画像を切り出す。その理由について説明する。流星などの移動体においては、段々と輝度が上昇し、段々と輝度が減少する。そのため、移動体検出前の画像においても、移動体が光り始めている途中の微弱な発光現象を捉えている可能性がある。逆に、移動体検出後の画像においても、移動体検出部112では閾値の関係で検出できない微弱な発光現象が画像として残っている可能性がある。そこで、移動体検出前の画像や移動体消失フレームの画像において、移動体が存在すると想定される部分を切り出すことが必要である。
(Third embodiment)
In the first and second embodiments, the area around the moving body and the area around the stationary object are cut out from the frame where the moving body is detected to the frame where the moving body disappears. On the other hand, in the third embodiment of the present invention, an image is cut out by adding an image of a frame before detection of the moving object and a frame after the disappearance of the moving object. The reason will be described. In a moving object such as a meteor, the brightness gradually increases and the brightness gradually decreases. Therefore, there is a possibility that a weak light emission phenomenon in the middle of the movement of the moving body is captured even in the image before the moving body is detected. On the other hand, even in the image after the moving body is detected, there is a possibility that a weak light emission phenomenon that cannot be detected by the moving body detecting unit 112 due to the threshold value remains as an image. Therefore, it is necessary to cut out a portion that is assumed to have a moving body in the image before the moving body detection and the image of the moving body disappearing frame.

本発明の第3の実施形態の構成は、第1及び第2の実施形態と同じである。画像処理の方法について、図7と図8を用いて説明する。図7は、移動体検出前後の画像群を例示したものである。N−1フレーム目が移動体検出前のフレーム画像で、Nフレームが移動体検出画像、N+3フレーム目が移動体消失画像である。移動体30が検出されている間の画像処理は、第1〜第3の実施形態の方法と同様であるので、移動体検出前フレームと移動体消失フレームの画像抽出処理について述べる。   The configuration of the third embodiment of the present invention is the same as that of the first and second embodiments. The image processing method will be described with reference to FIGS. FIG. 7 illustrates an image group before and after detection of a moving object. The N-1th frame is a frame image before moving object detection, the N frame is a moving object detection image, and the N + 3th frame is a moving object lost image. Since the image processing while the moving body 30 is detected is the same as the method of the first to third embodiments, the image extraction processing of the pre-moving body detection frame and the moving body disappearing frame will be described.

図8(a)は、移動体検出直前フレームにおいて移動体推定位置を切り出すフローチャートを示している。まず、ステップS80では、移動体検出部112は、移動体検出フレーム(Nフレーム目)とその次のフレーム(N+1フレーム目)の移動体30の位置座標を抽出する。移動体30の位置座標は、例えば、移動体30の輝度重心座標でよい。   FIG. 8A shows a flowchart for extracting the moving object estimated position in the frame immediately before the moving object detection. First, in step S80, the moving object detection unit 112 extracts the position coordinates of the moving object 30 in the moving object detection frame (Nth frame) and the next frame (N + 1th frame). The position coordinates of the moving body 30 may be, for example, the luminance center-of-gravity coordinates of the moving body 30.

ステップS81では、移動体検出部112は、移動体検出フレーム(Nフレーム目)とその次のフレーム(N+1フレーム目)の移動体30の位置座標の差分を計算し、移動体検出前フレーム(N−1フレーム)の画像における移動体33の推定位置座標を算出する。例えば、Nフレーム目の移動体30の輝度重心座標が(X,Y)=(254、167)で、N+1フレーム目の移動体30の輝度重心座標が(X,Y)=(356,268)とする。その場合、差分座標は(ΔX,ΔY)=(102,101)となり、N−1フレーム目における推定位置座標は(254−102,167−101)=(152,66)となる。   In step S81, the moving object detection unit 112 calculates the difference between the position coordinates of the moving object 30 between the moving object detection frame (Nth frame) and the next frame (N + 1th frame), and the moving object detection frame (N The estimated position coordinates of the moving body 33 in the (-1 frame) image are calculated. For example, the luminance centroid coordinates of the moving body 30 in the Nth frame are (X, Y) = (254, 167), and the luminance centroid coordinates of the moving body 30 in the N + 1th frame are (X, Y) = (356, 268). And In this case, the difference coordinates are (ΔX, ΔY) = (102, 101), and the estimated position coordinates in the (N−1) th frame are (254-102, 167-101) = (152, 66).

ステップS82では、移動体検出部112は、移動体33の移動体推定位置が画像領域内にあるかを判定する。上記の例では画像領域内の座標となっているので、ステップS83に進む。画像領域を外れている場合にはその時点で処理を終了する。   In step S82, the moving body detection unit 112 determines whether the moving body estimated position of the moving body 33 is within the image area. In the above example, since the coordinates are in the image area, the process proceeds to step S83. If it is out of the image area, the process is terminated at that time.

ステップS83では、部分画像生成部114は、移動体検出直前フレーム(N−1フレーム)の画像において、移動体33の移動体推定位置を含む周辺の領域を切り出す。ステップS84では、画像保存装置12は、部分画像生成部114により切り出された画像を保存する。   In step S <b> 83, the partial image generation unit 114 cuts out a peripheral region including the estimated moving body position of the moving body 33 in the image of the frame immediately before the moving body detection (N−1 frame). In step S84, the image storage device 12 stores the image cut out by the partial image generation unit 114.

以上の画像処理の手順により、移動体検出前フレームの推定位置周辺の領域の画像を取得する。移動体消失フレーム(N+3フレーム目)においても、移動体消失前のフレーム(N+2フレーム目)と移動体消失2フレーム前(N+1フレーム目)の画像から、移動体34の移動体推定位置を算出する。移動体推定位置が画像領域内にある場合は、移動体消失フレームにおける推定位置周辺の領域を切り出す。   Through the above image processing procedure, an image of the area around the estimated position of the pre-moving object detection frame is acquired. Also in the moving object disappearance frame (N + 3th frame), the estimated moving object position of the moving object 34 is calculated from the frame before the moving object disappearance (N + 2 frame) and the image before the moving object disappearance 2 frames (N + 1 frame). . If the estimated position of the moving object is within the image area, an area around the estimated position in the moving object disappearing frame is cut out.

図8(b)は、移動体消失時のフローチャートを示す。ステップS85では、移動体検出部112は、消失直前フレーム(図7におけるN+2フレーム)と消失の2フレーム前(N+1フレーム)の位置の移動体30の輝度重心位置情報を取得する。ステップS86では、移動体検出部112は、上記の2フレームの位置の差分から移動体消失フレーム(N+3フレーム目)の移動体34の移動体推定位置を算出する。ステップS87では、移動体検出部112は、移動体推定位置が画像領域内か否かを判定する。移動体推定位置が画像領域内ならば、ステップS88で、部分画像生成部114は、移動体消失フレーム(N+3フレーム目)において、移動体34の移動体推定位置を含む領域を切り出す。ステップS89では、画像保存装置12は、部分画像生成部114により切り出された画像を保存する。   FIG. 8B shows a flowchart when the moving object disappears. In step S85, the moving body detection unit 112 acquires the luminance gravity center position information of the moving body 30 at the position immediately before the disappearance (N + 2 frame in FIG. 7) and 2 frames before the disappearance (N + 1 frame). In step S86, the moving object detection unit 112 calculates the estimated moving object position of the moving object 34 in the moving object disappearing frame (N + 3rd frame) from the difference between the positions of the two frames. In step S87, the moving body detection unit 112 determines whether or not the moving body estimated position is within the image area. If the estimated moving body position is within the image area, in step S88, the partial image generating unit 114 cuts out an area including the estimated moving body position of the moving object 34 in the moving object disappearing frame (N + 3th frame). In step S89, the image storage device 12 stores the image cut out by the partial image generation unit 114.

以上のように、部分画像生成部114は、移動体検出部112により移動体が検出されたフレームの前のフレーム内及び移動体が消失したフレーム内の移動体33及び34の移動体推定位置を算出し、その移動体推定位置の領域を切り出して出力する。以上の処理を行うことにより、移動体検出前と移動体消失時の移動体推定画像を切り出すことができる。また、第2の実施形態と同様に、移動体の位置情報と輝度情報を保存してもよい。移動体検出前のフレームや移動体検出後のフレームに関しては、移動体推定位置の位置情報と、同時に、静止物体の周辺領域の画像を保存することにより、移動体検出部112では検出できない微弱な現象を後から詳細な画像解析で解析することができる。   As described above, the partial image generation unit 114 determines the estimated positions of the moving objects 33 and 34 in the frame before the frame where the moving object is detected by the moving object detection unit 112 and in the frame where the moving object disappears. The area of the estimated position of the moving object is cut out and output. By performing the above processing, it is possible to cut out a moving body estimated image before the moving body is detected and when the moving body is lost. Further, as in the second embodiment, the position information and luminance information of the moving body may be stored. With respect to the frame before moving object detection and the frame after moving object detection, the position information of the estimated position of the moving object and, at the same time, the image of the peripheral area of the stationary object are stored, so that the moving object detection unit 112 cannot detect it. The phenomenon can be analyzed later with detailed image analysis.

(第4の実施形態)
第3の実施形態において、移動体検出以前のフレームの画像と移動体消失フレーム後も追加して画像を切り出した。第3の実施形態のフローチャートの場合、移動体が2つ以上検出された場合に、移動体が同一物体かどうかを判断できず、移動体推定位置を誤る可能性がある。そこで、本発明の第4の実施形態では、移動体推定位置を移動体検出フレームとその後の2フレームの計3フレームの移動体位置を用いて、移動体検出前のフレームの移動体推定位置を算出する方法について述べる。
(Fourth embodiment)
In the third embodiment, the image of the frame before the moving object detection and the image after the moving object disappearance frame are additionally cut out. In the flowchart of the third embodiment, when two or more moving objects are detected, it is not possible to determine whether the moving objects are the same object, and there is a possibility that the estimated moving object position is incorrect. Therefore, in the fourth embodiment of the present invention, the moving object estimated position of the frame before the moving object detection is calculated by using the moving object estimated position as the moving object detection frame and the subsequent two frames. The calculation method will be described.

図9は、移動体検出前後の画像群を示したものである。移動体90の1フレーム遅れで移動体91が出現している。この場合、N+1フレームとNフレームを比較した場合、移動体90同士を比較すれば正しく移動体推定位置を計算できる。しかし、N+1フレームの移動体91とNフレームの移動体90を比較すると、N−1フレームにおける移動体92の移動体推定位置を正しく算出できなくなる。   FIG. 9 shows a group of images before and after detecting the moving object. A moving body 91 appears with a delay of one frame of the moving body 90. In this case, when the N + 1 frame and the N frame are compared, the mobile body estimated position can be correctly calculated by comparing the mobile bodies 90 with each other. However, if the mobile body 91 of N + 1 frame and the mobile body 90 of N frame are compared, the mobile body estimated position of the mobile body 92 in the N-1 frame cannot be calculated correctly.

そこで、第4の実施形態では、NフレームとN+1フレームの位置座標と輝度値から同一の移動体か否かを判断し、移動体92の移動体推定位置を算出する。図9の移動体連続画像の模式図を用いて説明する。図10は、移動体90と移動体91の位置座標と輝度カウント値を表した図である。N+1フレームとNフレームの輝度カウント値を比較する。Nフレームのカウント値50に対して、N+1フレームにおける輝度カウント値の近い48を同一物体とみなし、差分座標値からN−1フレームにおける移動体92の移動体推定位置を算出する。そして、部分画像生成部114は、移動体92の移動体推定位置周辺の領域を切り出す。部分画像生成部114は、移動体検出部112により移動体が検出されたフレームとその後の少なくとも1フレームの移動体の検出位置と輝度情報を基に、移動体検出部112で移動体が検出されたフレームの前のフレーム内の移動体の移動体推定位置を算出する。   Therefore, in the fourth embodiment, it is determined whether or not the moving body is the same from the position coordinates and luminance values of the N and N + 1 frames, and the moving body estimated position of the moving body 92 is calculated. This will be described with reference to the schematic diagram of the moving object continuous image of FIG. FIG. 10 is a diagram showing the position coordinates and luminance count values of the moving body 90 and the moving body 91. The brightness count values of N + 1 frame and N frame are compared. For the count value 50 of N frame, 48 close to the brightness count value in N + 1 frame is regarded as the same object, and the moving body estimated position of the moving body 92 in N-1 frame is calculated from the difference coordinate value. Then, the partial image generation unit 114 cuts out a region around the moving body estimated position of the moving body 92. In the partial image generation unit 114, the moving body detection unit 112 detects the moving body based on the frame where the moving body is detected by the moving body detection unit 112 and the detection position and luminance information of the moving body of at least one frame thereafter. The moving object estimated position of the moving object in the previous frame is calculated.

(第5の実施形態)
本発明の第5の実施形態では、第4の実施形態の移動体推定位置算出において、Nフレーム、N+1フレーム、N+2フレームの3フレームを使って、移動体がほぼ同一の速度で動いていると仮定して移動体推定位置を算出する。二つの移動体の輝度カウント値が近い場合に、第5の実施形態の方法を用いることができる。図11は、移動体90と移動体91の画像上の座標を示している。移動体検出部112は、N+1フレームとNフレームの移動体の差分座標Δv1及びΔv2を算出する。Δv1=(200,50)、Δv2=(100,400)となる。次に、N+2フレームとN+1フレームの移動体の差分座標Δv11、Δv22、Δv21、Δv12を算出する。Δv11=(200,50)、Δv22=(300,0)、Δv21=(300,−300)、Δv12=(200,350)となる。Δv1とΔv11の差分座標が同一なので、Nフレームで出現した移動体90の速度はΔv1=(200,50)として、N−1フレームの移動体92の移動体推定位置を(250−200,100−50)=(50,50)と算出する。そして、部分画像生成部114は、その座標の周辺領域を切り出す。
(Fifth embodiment)
In the fifth embodiment of the present invention, in the mobile object estimated position calculation of the fourth embodiment, the mobile object moves at substantially the same speed using three frames of N frames, N + 1 frames, and N + 2 frames. Assuming that the moving object estimated position is calculated. The method of the fifth embodiment can be used when the brightness count values of the two moving objects are close. FIG. 11 shows the coordinates of the moving body 90 and the moving body 91 on the image. The moving body detection unit 112 calculates difference coordinates Δv1 and Δv2 between the moving body of the N + 1 frame and the N frame. Δv1 = (200, 50), Δv2 = (100, 400). Next, difference coordinates Δv11, Δv22, Δv21, Δv12 of the moving body of the N + 2 frame and the N + 1 frame are calculated. Δv11 = (200, 50), Δv22 = (300, 0), Δv21 = (300, −300), Δv12 = (200, 350). Since the difference coordinates of Δv1 and Δv11 are the same, the speed of the moving body 90 that appears in the N frame is Δv1 = (200, 50), and the estimated moving position of the moving body 92 in the N−1 frame is (250−200, 100). −50) = (50, 50). Then, the partial image generation unit 114 cuts out the peripheral area of the coordinates.

部分画像生成部114は、移動体検出部112により移動体が検出されたフレームとその後の少なくとも2フレームの移動体の検出位置を基に、移動体検出部112により移動体が検出されたフレームの前のフレーム内の移動体の移動体推定位置を算出する。   The partial image generation unit 114 determines the frame of the frame in which the moving body is detected by the moving body detection unit 112 based on the detection position of the moving body in which the moving body is detected by the moving body detection unit 112 and at least two frames thereafter. The moving body estimated position of the moving body in the previous frame is calculated.

第1〜第5の実施形態によれば、移動体観測において、画像保存装置に保存される画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することができる。   According to the first to fifth embodiments, in the moving object observation, while compressing the capacity of the image data stored in the image storage device, without reducing the information amount of the area of the moving object and the desired stationary object, Image data can be stored efficiently.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

10 撮像装置、112 移動体検出部、113 静止物体検出部、114 部分画像生成部 DESCRIPTION OF SYMBOLS 10 Imaging device, 112 Moving body detection part, 113 Still object detection part, 114 Partial image generation part

Claims (6)

連続した複数のフレームの撮像を行う撮像装置と、
前記撮像された複数のフレームを基に移動体を検出する移動体検出部と、
前記撮像されたフレームを基に静止物体を検出する静止物体検出部と、
前記検出された移動体及び静止物体の領域をそれぞれ切り出す部分画像生成部とを有し、
前記静止物体検出部は、前記移動体検出部により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出することを特徴とする移動体観測装置。
An imaging device for imaging a plurality of consecutive frames;
A moving body detection unit that detects a moving body based on the plurality of captured frames;
A stationary object detection unit that detects a stationary object based on the captured frame;
A partial image generation unit that cuts out the areas of the detected moving object and stationary object,
The stationary object detection unit detects a stationary object in at least one frame including the moving body from a frame where the moving body is detected by the moving body detection unit to a frame where the moving body disappears. Mobile observation device.
前記部分画像生成部は、前記移動体の位置情報及び輝度情報を前記移動体を含む画像に付加し、前記静止物体の位置情報及び輝度情報を前記静止物体を含む画像に付加して出力することを特徴とする請求項1記載の移動体観測装置。   The partial image generation unit adds position information and luminance information of the moving object to an image including the moving object, and adds position information and luminance information of the stationary object to an image including the stationary object and outputs the image. The moving body observation apparatus according to claim 1. 前記部分画像生成部は、前記移動体検出部により移動体が検出されたフレームの前のフレーム内及び前記移動体が消失したフレーム内の前記移動体の移動体推定位置を算出し、前記移動体推定位置の領域を切り出して出力することを特徴とする請求項1又は2記載の移動体観測装置。   The partial image generation unit calculates a moving body estimated position of the moving body in a frame before the frame in which the moving body is detected by the moving body detection unit and in a frame in which the moving body has disappeared. 3. The moving object observation apparatus according to claim 1, wherein a region of the estimated position is cut out and output. 前記部分画像生成部は、前記移動体検出部により移動体が検出されたフレームとその後の少なくとも1フレームの移動体の検出位置と輝度情報を基に、前記移動体検出部により移動体が検出されたフレームの前のフレーム内の前記移動体の移動体推定位置を算出することを特徴とする請求項3記載の移動体観測装置。   The partial image generation unit detects the moving object by the moving object detection unit based on the frame where the moving object is detected by the moving object detection unit and the detection position and luminance information of the moving object of at least one frame thereafter. 4. The moving object observation apparatus according to claim 3, wherein a moving object estimated position of the moving object in a frame before the frame is calculated. 前記部分画像生成部は、前記移動体検出部により移動体が検出されたフレームとその後の少なくとも2フレームの移動体の検出位置を基に、前記移動体検出部により移動体が検出されたフレームの前のフレーム内の前記移動体の移動体推定位置を算出することを特徴とする請求項3記載の移動体観測装置。   The partial image generation unit is configured to detect a frame in which the moving object is detected by the moving object detection unit based on a detection position of the moving object detected by the moving object detection unit and at least two frames after that. The moving body observation apparatus according to claim 3, wherein a moving body estimated position of the moving body in a previous frame is calculated. 前記静止物体検出部は、前記移動体検出部により移動体が検出された時の1フレームでのみ2つ以上の静止物体を検出することを特徴とする請求項1〜5のいずれか1項に記載の移動体観測装置。   The said stationary object detection part detects two or more stationary objects only in 1 frame when a mobile body is detected by the said mobile body detection part, The any one of Claims 1-5 characterized by the above-mentioned. The moving body observation apparatus described.
JP2012198695A 2012-09-10 2012-09-10 Mobile object observation system Pending JP2014053859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012198695A JP2014053859A (en) 2012-09-10 2012-09-10 Mobile object observation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012198695A JP2014053859A (en) 2012-09-10 2012-09-10 Mobile object observation system

Publications (1)

Publication Number Publication Date
JP2014053859A true JP2014053859A (en) 2014-03-20

Family

ID=50611904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012198695A Pending JP2014053859A (en) 2012-09-10 2012-09-10 Mobile object observation system

Country Status (1)

Country Link
JP (1) JP2014053859A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201756A (en) * 2015-04-14 2016-12-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
JP2019153208A (en) * 2018-03-06 2019-09-12 キヤノン株式会社 Image processor, method for processing image, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201756A (en) * 2015-04-14 2016-12-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
JP2019153208A (en) * 2018-03-06 2019-09-12 キヤノン株式会社 Image processor, method for processing image, and program
JP7030565B2 (en) 2018-03-06 2022-03-07 キヤノン株式会社 Image processing equipment, image processing methods and programs

Similar Documents

Publication Publication Date Title
JP4915655B2 (en) Automatic tracking device
US10943141B2 (en) Object detection device and object detection method
CN106709895A (en) Image generating method and apparatus
JP5484184B2 (en) Image processing apparatus, image processing method, and program
US20140270362A1 (en) Fast edge-based object relocalization and detection using contextual filtering
KR20180054808A (en) Motion detection within images
JPWO2016199244A1 (en) Object recognition device and object recognition system
US10122912B2 (en) Device and method for detecting regions in an image
KR20120044484A (en) Apparatus and method for tracking object in image processing system
JP6494418B2 (en) Image analysis apparatus, image analysis method, and program
US9747507B2 (en) Ground plane detection
US20180047271A1 (en) Fire detection method, fire detection apparatus and electronic equipment
US9031355B2 (en) Method of system for image stabilization through image processing, and zoom camera including image stabilization function
JP2018180945A (en) Object detection apparatus and program
JP2014048131A (en) Image processing device, method, and program
WO2018027527A1 (en) Optical system imaging quality detection method and apparatus
WO2018159467A1 (en) Mobile entity detector, mobile entity detection method, and computer-readable recording medium
TW201421423A (en) Image sensor and operating method thereof
JP2018142828A (en) Deposit detector and deposit detection method
US9392146B2 (en) Apparatus and method for extracting object
JP2014053859A (en) Mobile object observation system
US20180150966A1 (en) System and method for estimating object size
JP6108437B2 (en) Finger direction identification system, finger direction identification method, and program thereof
US10997734B2 (en) Gas detection-use image processing device, gas detection-use image processing method, and gas detection-use image processing program
JP6030457B2 (en) Image detection apparatus, control program, and image detection method