JP2014053859A - Mobile object observation system - Google Patents
Mobile object observation system Download PDFInfo
- Publication number
- JP2014053859A JP2014053859A JP2012198695A JP2012198695A JP2014053859A JP 2014053859 A JP2014053859 A JP 2014053859A JP 2012198695 A JP2012198695 A JP 2012198695A JP 2012198695 A JP2012198695 A JP 2012198695A JP 2014053859 A JP2014053859 A JP 2014053859A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- moving body
- moving
- image
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Camera Data Copying Or Recording (AREA)
Abstract
Description
本発明は、移動体観測装置に関する。 The present invention relates to a moving object observation apparatus.
監視カメラ分野で、画像データを圧縮する技術として、動体を検出し、動体領域と動体以外の領域とで、異なる階調数で画像を変換して出力する装置が知られている(特許文献1)。 In the surveillance camera field, as a technique for compressing image data, there is known an apparatus that detects a moving object and converts and outputs an image with a different number of gradations in a moving object region and a region other than the moving object (Patent Document 1). ).
ところで、天体観測において、流星やスペースデブリ等の移動体を動画で観測する場合には、移動体の情報だけでなく、静止物体として観測される恒星の位置や明るさの情報が重要である。なぜなら、既知の恒星の明るさを基準として、流星やスペースデブリの相対的な明るさを算出し、その情報から移動体の地上からの距離や大きさを算出することができるからである。したがって、移動体の画像情報に加え、少なくとも一つ静止物体として観測される恒星の輝度情報も圧縮することなく保存することが必要とされている。しかしながら、移動体検出領域以外の階調を圧縮するため、マーカーとする静止物体の階調情報が減ってしまうという課題がある。 By the way, in astronomical observation, when moving objects such as meteors and space debris are observed with moving images, not only information on moving objects but also information on the position and brightness of a star observed as a stationary object is important. This is because the relative brightness of meteors and space debris can be calculated on the basis of the brightness of known stars, and the distance and size of the moving object from the ground can be calculated from the information. Therefore, in addition to the image information of the moving object, it is necessary to store the luminance information of the star observed as at least one stationary object without being compressed. However, since the gradation other than the moving object detection area is compressed, there is a problem that the gradation information of the stationary object as a marker is reduced.
本発明の目的は、画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することである。 An object of the present invention is to efficiently store image data while reducing the amount of information of the area of the moving object and a desired stationary object while compressing the capacity of the image data.
本発明の移動体観測装置は、連続した複数のフレームの撮像を行う撮像装置と、前記撮像された複数のフレームを基に移動体を検出する移動体検出部と、前記撮像されたフレームを基に静止物体を検出する静止物体検出部と、前記検出された移動体及び静止物体の領域をそれぞれ切り出す部分画像生成部とを有し、前記静止物体検出部は、前記移動体検出部により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出することを特徴とする。 The moving body observation apparatus of the present invention includes an imaging apparatus that captures a plurality of consecutive frames, a moving body detection unit that detects a moving body based on the plurality of captured frames, and the captured frames. A stationary object detection unit that detects a stationary object, and a partial image generation unit that cuts out the areas of the detected moving object and the stationary object, respectively, and the stationary object detection unit is moved by the moving object detection unit. The stationary object in at least one frame including the moving body is detected from the frame in which the moving body is detected to the frame in which the moving body disappears.
画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することができる。 The image data can be efficiently stored without reducing the amount of information of the area of the moving object and the desired stationary object while compressing the capacity of the image data.
(第1の実施形態)
図1は、本発明の第1の実施形態に係る移動体観測装置の構成の一例を示す図である。移動体観測装置1は、撮像装置10、画像処理装置11及び画像保存装置12を有する。画像処理装置11は、画像入力部110、一時記憶部111、移動体検出部112、静止物体検出部113、部分画像生成部114、制御部115及び画像出力部116を有する。撮像装置10は、光学系と撮像素子を有し、光学系により被写体を撮像素子に結像させ、撮像素子で被写体光が電気信号(画像信号)に変換される。光学系は例えばレンズや天体望遠鏡等を用いることができ、撮像素子はCCDイメージセンサやCMOSイメージセンサなどを用いることができる。撮像装置10は、所定の撮像時間(例えば16.6ミリ秒)おきに定期的に連続した複数のフレームの画像を撮像して出力する。画像入力部110は、撮像装置10で変換された電気信号(画像信号)に関して、各種信号処理を行う。例えば、電気信号がアナログ信号の場合、画像入力部110は、アナログ信号をデジタル信号に変換する。一時記憶部111は、画像入力部110からの入力信号を画像フレーム毎に一時記憶する。一時記憶部111は、数十フレームから数百フレームを一時記憶することができ、一時記憶部111の容量を超えるデータが入力された場合は、過去のデータから順に上書きされる。例えば、一時記憶部111は、DRAM(dynamic random access memory)等の半導体メモリを用いることができる。
(First embodiment)
FIG. 1 is a diagram illustrating an example of a configuration of a moving object observation apparatus according to the first embodiment of the present invention. The moving
移動体検出部112は、一時記憶部111に記憶された画像信号を処理して移動体を検出する。すなわち、移動体検出部112は、撮像装置10により撮像された複数のフレームを基に移動体を検出する。移動体検出のアルゴリズムは、特に限定されず、例えば、2フレーム画像間の差分をとり、差分値が閾値を超えたら、移動体として検出するといった方法を用いることができる。移動体検出部112は、移動体を検出した結果を制御部115に出力する。例えば、移動体検出部112は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。静止物体検出部113は、一時記憶部111に記憶された画像信号を処理し、静止物体を検出する。すなわち、静止物体検出部113は、撮像装置10により撮像されたフレームを基に静止物体を検出する。本実施形態では、静止物体検出部113は、移動体検出部112が移動体を検出した画像に対してのみ、静止物体検出を行うことが特徴である。静止物体検出部113は、上記の移動体を含む領域をマスキングして除外した画像において、物体抽出を行う。静止物体抽出の方法としては、例えば、画像をある閾値で2値化して、ある所定の大きさ、明るさ以上のものを抽出するという方法がある。また、抽出する物体は、ユーザーによって設定できるようにしてもよい。例えば、静止物体検出部113は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。
The moving
部分画像生成部114は、撮像装置10により撮像された複数のフレームを基に、移動体検出部112により検出された移動体の領域及び静止物体検出部113により検出された静止物体の領域をそれぞれ切り出す。部分画像生成部114は、移動体検出部112から移動体の位置情報を入力し、移動体検知された場合に画像を一時記憶部111から入力する。そして、部分画像生成部114は、移動体検出された画像全体から移動体を含む周辺領域を切り出す。また、部分画像生成部114は、静止物体検出部113から静止物体の位置情報を入力し、静止物体を含む周辺領域を切り出す。詳細については後述する。例えば、部分画像生成部114は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。
The partial
制御部115は、移動体検出部112の検出信号やユーザー設定部(不図示)の入力信号を入力し、画像出力部116に入力された部分画像のうち、どの画像を画像保存装置12に出力するかを制御する。制御部115は、移動体検出されている場合には、移動体周辺の切り出し画像を出力するように制御する。また、制御部115は、移動体検出がされてからのフレーム数に応じて、静止物体の切り出し画像を出力するか判断して、制御を行う。例えば、制御部115は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。
The
画像出力部116は、部分画像生成部114で生成された画像情報を制御部115の制御に基づいて、画像保存装置12に出力する。例えば、画像出力部116は、FPGA(Field-Programmable Gate Array)内の機能ブロックとして実装することで用いることができる。画像保存装置12は、画像出力部116から出力された画像情報やその他の情報を保存する。画像保存装置12は、不揮発性であればよく、ハードディスク(HDD)やフラッシュメモリドライブ(SSD)、などを用いることができる。また、画像保存装置12は、ネットワーク上のサーバであって、画像処理装置11とネットワークで接続される形態でもよい。
The
次に、移動体検出から画像出力までの動作の詳細を図2〜3を用いて説明する。図2と図3を用いて、移動体検出から移動体消失までの画像群における画像処理の手順を説明する。図3の移動体30が検出されたNフレーム目の画像を例にとって説明する。図2はあるフレーム画像を処理するフローを示している。ステップS20では、画像入力部110は、撮像装置10から画像データを取得し、一時記憶部111に記憶させる。次に、ステップS21では、移動体検出部112は、一時記憶部111に記憶されたN−1フレーム画像データを用いて、N−1フレームとNフレームの画像間の差分をとる。これにより、移動体検出部112は、移動体が存在するか否かを検出する。移動体が非検出の場合は、その後の画像演算は行わない。移動体が検出された場合は、ステップS22において、移動体検出部112は、移動体の位置情報を部分画像生成部114に出力し、部分画像生成部114は、一時記憶部111から画像を入力し、移動体を含む領域を切り出す処理を行う。この際、移動体が複数検出された場合は、移動体検出部112は複数の移動体を全て検出し、部分画像生成部114は複数の移動体を含む領域を切り出す処理を行う。この際に、移動体を含む領域は、画素が連続した領域である。図3の移動体30を含む領域は矩形で示されているが、切り出し形状は矩形に限定されるものではなく、画像データが横方向、縦方向共に連続していればよい。切り出された移動体30を含む画像データは、画像出力部116内のバッファに一時記憶される。
Next, details of the operation from the moving object detection to the image output will be described with reference to FIGS. A procedure of image processing in an image group from detection of a moving object to disappearance of the moving object will be described with reference to FIGS. A description will be given by taking as an example an image of the Nth frame in which the moving
ステップS23では、静止物体検出部113は、静止物体の検出を行う。静止物体検出部113は、上記の移動体30を含む領域をマスキングして除外した画像において静止物体抽出を行う。静止物体抽出の方法としては、例えば、画像をある閾値で2値化して、ある所定の大きさ、明るさ以上のものを抽出するという方法がある。抽出する物体は、使用者によって設定できるようにしてもよい。明るさが既知の静止物体を少なくとも一つ検出することで、静止物体の輝度と移動体の輝度データを比較することができる。静止物体が既知の物体であり、輝度がわかっている場合は、相対比較により、静止物体の輝度を算出することができる。移動体の絶対位置も精度良く算出するには、静止物体の検出は二つ以上がより望ましい。移動体の天球上の絶対位置を算出する場合、撮像装置10の方向と、静止物体との相対位置から算出する。静止物体として1点だけを抽出した場合、撮像装置10の向きの設定と実際とのずれが、移動体30の絶対位置精度に影響する。例えば、撮像装置10が想定より平行になっておらず斜めになっていた場合、移動体30の天球上の位置は撮像装置10が斜めの分だけ誤差を生じる。それに対し、静止物体として2点以上を検出した場合、天球上の位置が既に分かっている二つの静止物体の位置から移動体の位置を算出できるので、撮像装置10が斜めになっている影響を除去できる。
In step S23, the stationary
次に、静止物体の周辺領域を切り出す処理を行う。静止物体検出部113は、検出した静止物体の位置情報を部分画像生成部114に出力する。移動体の切り出し処理と同様に、静止物体の切り出し領域は間引きをせず連続した領域である。図3の静止物体31及び32を含む領域は矩形で示されているが、切り出し形状は矩形に限定されるものではなく、画像データが横方向、縦方向共に連続していればよい。移動体30を含む領域の画像データと静止物体31及び32を含む領域の画像データは、部分画像生成部114から画像出力部116に出力される。画像出力部116は、制御部115の制御信号に基づいて出力する。制御部115は、移動体検出されている場合は、移動体30を含む領域と静止物体31及び32を含む領域を出力し、移動体検出されていない場合は、移動体を含む領域と静止物体を含む領域を出力しない。
Next, a process of cutting out the peripheral area of the stationary object is performed. The stationary
切り出した画像の出力形式の一例を示す。この例では、同一フレームの移動体と静止物体を一つの画像ファイルとして保存する場合を述べるが、別々の画像ファイルとして保存してもよい。画像データは、バイナリデータ形式で専用フォーマットのRAW画像で保存する。画像データは、画像データ領域とヘッダを有する。ヘッダには、フレーム番号、物体数、物体識別番号、切り出した部分画像領域の座標情報を含む。フレーム番号は、撮像開始からのフレームカウント数など、その画像がいつ撮像された画像かを識別できる情報であればよい。時刻情報を含んでもよい。物体数は、移動体とマーカーとなる静止物体の数を示す。切り出した部分画像の領域情報は、矩形領域の場合、左上端の座標値と右下端の座標値を指定する。画像データ領域は、1番目の部分画像データをバイナリデータとして格納した後、2番目の部分画像データを格納する。移動体、静止物体の数だけ格納する。1番目と2番目の部分画像の境界を判断するには、部分画像の領域情報から部分画像の画素数を算出すればよい。ステップS24では、画像保存装置12は、画像出力部116により出力される画像を保存する。
An example of the output format of the clipped image is shown. In this example, a case where a moving body and a stationary object of the same frame are stored as one image file will be described, but they may be stored as separate image files. The image data is saved as a RAW image in a dedicated format in a binary data format. The image data has an image data area and a header. The header includes a frame number, the number of objects, an object identification number, and coordinate information of the cut out partial image area. The frame number may be any information that can identify when the image is captured, such as the frame count from the start of imaging. Time information may be included. The number of objects indicates the number of moving objects and stationary objects that are markers. As the region information of the cut out partial image, in the case of a rectangular region, the coordinate value of the upper left corner and the coordinate value of the lower right corner are designated. The image data area stores the first partial image data as binary data and then stores the second partial image data. Store the number of moving and stationary objects. In order to determine the boundary between the first and second partial images, the number of pixels in the partial image may be calculated from the area information of the partial image. In step S <b> 24, the
以上の処理をフレーム毎に行うと、図3に示すように移動体30を検出してから移動体30が消失するまでの間、移動体30を含む領域の画像情報と静止物体31及び32を含む領域の画像情報を、空間解像度を保ったまま保存することができる。
When the above processing is performed for each frame, the image information of the area including the moving
また、静止物体を含む領域は、移動体が検出された全てのフレームで保存する必要はない。移動体が初めに検出されたフレームのみ静止物体を含む領域を保存してもよい。図5から図6を用いて説明する。図5は、あるフレームの画像処理の手順を示している。ステップS50では、画像入力部110は、差像装置10から入力した画像を一時記憶部111に記憶させる。ステップS51では、移動体検出部112は、移動体を検出する。移動体を検出した場合には、ステップS52において、部分画像生成部114は、一時記憶部111から画像を入力し、移動体周辺の画像を切り出して画像出力部116に出力する。ステップS53では、制御部115は、前フレームにおいて移動体が検出されていたか否かを判定する。判定方法は、制御部115がカウンタを備え、移動体検出部112で移動体が検出された場合にカウンタを増加し、移動体が検出されなかった場合にカウンタを0に戻すことで可能である。カウンタが0のときは、前フレームに移動体が検出されていないと判断し、ステップS54に進む。それ以外の場合は、ステップS55に進む。ステップS54では、静止物体検出部113は静止物体を検出し、部分画像生成部114は静止物体周辺の領域を切り出して、画像出力部116に出力する。ステップS55では、画像保存装置12は、画像出力部116により出力される画像を保存する。
In addition, it is not necessary to save the area including the stationary object in every frame in which the moving object is detected. An area including a stationary object may be stored only in a frame in which the moving object is first detected. This will be described with reference to FIGS. FIG. 5 shows an image processing procedure for a certain frame. In step S <b> 50, the
以上のように、静止物体検出部113は、移動体検出部112により移動体が検出された時の1フレームでのみ2つ以上の静止物体31及び32を検出する。以上のフローにより、移動体が検出された最初のフレームのみ移動体周辺領域の画像と静止物体周辺領域の画像を切り出して保存し、その他のフレームでは、移動体周辺領域の画像のみ切り出して保存することができる。また、静止物体を含む周辺領域の画像を保存するフレームは、移動体を検出した初めてのフレームに限られるわけではない。ある移動体が検出されてから消失するまでの任意のフレームでよい。静止物体検出部113は、移動体検出部112により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出すればよい。移動体検出から移動体消失までのフレームで静止物体の輝度変化等が気にならない場合は、以上の方法をとることで、画像データを更に圧縮するのに有効である。
As described above, the stationary
(第2の実施形態)
本発明の第2の実施形態では、移動体を含む周辺領域と静止物体を含む周辺領域の画像データを保存するのに加え、位置情報と輝度情報を画像データに付加する。その方法について説明する。移動体観測装置の構成は第1の実施形態と同じであるが、移動体検出部112と静止物体検出部113に位置情報演算と輝度情報演算の機能を追加している。移動体検出がされてから、移動体を含む周辺領域と静止物体を含む周辺領域を切り出すまでの処理は、第1の実施形態と同様である。画像の位置情報と輝度情報について図4を用いて説明する。
(Second Embodiment)
In the second embodiment of the present invention, in addition to storing image data of a peripheral region including a moving object and a peripheral region including a stationary object, position information and luminance information are added to the image data. The method will be described. The configuration of the moving body observation apparatus is the same as that of the first embodiment, but functions of position information calculation and luminance information calculation are added to the moving
位置情報は、画像全体において移動体30及び/又は静止物体31,32の位置がどこにあるかを示す情報である。位置情報として、移動体30や静止物体31,32の輝度重心座標を用いることができる。図4に例示した位置情報は、画素数が横1920画素、縦1080画素の画像において、左端の座標を原点(0,0)としたときの輝度重心座標である。また、位置情報は、天球座標系の赤道、赤緯を単位として表してもよい。撮像装置10の方角を示す情報から画像の左端の赤道、赤緯座標を算出する。そして、撮像素子の画角から画像の1画素単位が、天球上の座標の単位でいくつに相当するかが分かる。この二つの情報から、画像座標と天球座標系の換算を行うことができる。輝度情報は、移動体30や静止物体31,32の明るさを示す情報である。例えば、A/D変換後のデジタルデータのカウント値を移動体30又は静止物体31,32の領域にわたって平均をとった値を輝度情報として用いることができる。図4には、画像のビット深度が14ビットの画像について、物体として抽出された領域の平均値を移動体30や静止物体31,32の輝度情報としている。輝度情報は、平均値に限定されるものでなく、物体として抽出された領域の中央値や、最大値などでもよい。また、移動体と静止物体の輝度情報として、等級で表した情報を画像に付加してもよい。
The position information is information indicating where the moving
移動体の位置情報と輝度情報は、移動体検出部112により検出と同時に算出される。また、静止物体の位置情報と輝度情報は、静止物体検出部113により検出と同時に算出される。移動体検出部112と静止物体検出部113で算出された情報は、部分画像生成部114に出力された後、切り出された領域画像とともに、画像出力部115に出力され、画像保存装置12で保存される。部分画像生成部114は、移動体の位置情報及び輝度情報を移動体を含む画像に付加し、静止物体の位置情報及び輝度情報を静止物体を含む画像に付加して出力する。
The position information and luminance information of the moving object are calculated simultaneously with the detection by the moving
位置情報と輝度情報のデータの付加方法の一例として、専用RAWフォーマットのヘッダを使用することができる。予め定めたヘッダフォーマットに位置情報と輝度情報を付加する領域を確保し、その部分にバイナリデータ又はテキストデータで位置情報及び輝度情報を保存する。画像データに加え、位置情報と輝度情報を付加することで、画像保存装置12の画像を詳細に解析する前に、簡易的に移動体と静止物体の相対位置と相対輝度を把握することができる。それにより、観測者の画像解析の負担を軽減することができる。
As an example of a method of adding position information and luminance information data, a dedicated RAW format header can be used. An area for adding position information and luminance information is secured in a predetermined header format, and the position information and luminance information are stored as binary data or text data in that portion. By adding position information and luminance information in addition to image data, it is possible to easily grasp the relative position and relative luminance of the moving body and the stationary object before analyzing the image of the
(第3の実施形態)
第1及び第2の実施形態では、移動体が検出されたフレームから、移動体が消失するフレームまでのフレームについて、移動体周辺の領域と静止物体周辺の領域を切り出している。これに対し、本発明の第3の実施形態では、移動体検出以前のフレームの画像と移動体消失フレーム後も追加して画像を切り出す。その理由について説明する。流星などの移動体においては、段々と輝度が上昇し、段々と輝度が減少する。そのため、移動体検出前の画像においても、移動体が光り始めている途中の微弱な発光現象を捉えている可能性がある。逆に、移動体検出後の画像においても、移動体検出部112では閾値の関係で検出できない微弱な発光現象が画像として残っている可能性がある。そこで、移動体検出前の画像や移動体消失フレームの画像において、移動体が存在すると想定される部分を切り出すことが必要である。
(Third embodiment)
In the first and second embodiments, the area around the moving body and the area around the stationary object are cut out from the frame where the moving body is detected to the frame where the moving body disappears. On the other hand, in the third embodiment of the present invention, an image is cut out by adding an image of a frame before detection of the moving object and a frame after the disappearance of the moving object. The reason will be described. In a moving object such as a meteor, the brightness gradually increases and the brightness gradually decreases. Therefore, there is a possibility that a weak light emission phenomenon in the middle of the movement of the moving body is captured even in the image before the moving body is detected. On the other hand, even in the image after the moving body is detected, there is a possibility that a weak light emission phenomenon that cannot be detected by the moving
本発明の第3の実施形態の構成は、第1及び第2の実施形態と同じである。画像処理の方法について、図7と図8を用いて説明する。図7は、移動体検出前後の画像群を例示したものである。N−1フレーム目が移動体検出前のフレーム画像で、Nフレームが移動体検出画像、N+3フレーム目が移動体消失画像である。移動体30が検出されている間の画像処理は、第1〜第3の実施形態の方法と同様であるので、移動体検出前フレームと移動体消失フレームの画像抽出処理について述べる。
The configuration of the third embodiment of the present invention is the same as that of the first and second embodiments. The image processing method will be described with reference to FIGS. FIG. 7 illustrates an image group before and after detection of a moving object. The N-1th frame is a frame image before moving object detection, the N frame is a moving object detection image, and the N + 3th frame is a moving object lost image. Since the image processing while the moving
図8(a)は、移動体検出直前フレームにおいて移動体推定位置を切り出すフローチャートを示している。まず、ステップS80では、移動体検出部112は、移動体検出フレーム(Nフレーム目)とその次のフレーム(N+1フレーム目)の移動体30の位置座標を抽出する。移動体30の位置座標は、例えば、移動体30の輝度重心座標でよい。
FIG. 8A shows a flowchart for extracting the moving object estimated position in the frame immediately before the moving object detection. First, in step S80, the moving
ステップS81では、移動体検出部112は、移動体検出フレーム(Nフレーム目)とその次のフレーム(N+1フレーム目)の移動体30の位置座標の差分を計算し、移動体検出前フレーム(N−1フレーム)の画像における移動体33の推定位置座標を算出する。例えば、Nフレーム目の移動体30の輝度重心座標が(X,Y)=(254、167)で、N+1フレーム目の移動体30の輝度重心座標が(X,Y)=(356,268)とする。その場合、差分座標は(ΔX,ΔY)=(102,101)となり、N−1フレーム目における推定位置座標は(254−102,167−101)=(152,66)となる。
In step S81, the moving
ステップS82では、移動体検出部112は、移動体33の移動体推定位置が画像領域内にあるかを判定する。上記の例では画像領域内の座標となっているので、ステップS83に進む。画像領域を外れている場合にはその時点で処理を終了する。
In step S82, the moving
ステップS83では、部分画像生成部114は、移動体検出直前フレーム(N−1フレーム)の画像において、移動体33の移動体推定位置を含む周辺の領域を切り出す。ステップS84では、画像保存装置12は、部分画像生成部114により切り出された画像を保存する。
In step S <b> 83, the partial
以上の画像処理の手順により、移動体検出前フレームの推定位置周辺の領域の画像を取得する。移動体消失フレーム(N+3フレーム目)においても、移動体消失前のフレーム(N+2フレーム目)と移動体消失2フレーム前(N+1フレーム目)の画像から、移動体34の移動体推定位置を算出する。移動体推定位置が画像領域内にある場合は、移動体消失フレームにおける推定位置周辺の領域を切り出す。
Through the above image processing procedure, an image of the area around the estimated position of the pre-moving object detection frame is acquired. Also in the moving object disappearance frame (N + 3th frame), the estimated moving object position of the moving
図8(b)は、移動体消失時のフローチャートを示す。ステップS85では、移動体検出部112は、消失直前フレーム(図7におけるN+2フレーム)と消失の2フレーム前(N+1フレーム)の位置の移動体30の輝度重心位置情報を取得する。ステップS86では、移動体検出部112は、上記の2フレームの位置の差分から移動体消失フレーム(N+3フレーム目)の移動体34の移動体推定位置を算出する。ステップS87では、移動体検出部112は、移動体推定位置が画像領域内か否かを判定する。移動体推定位置が画像領域内ならば、ステップS88で、部分画像生成部114は、移動体消失フレーム(N+3フレーム目)において、移動体34の移動体推定位置を含む領域を切り出す。ステップS89では、画像保存装置12は、部分画像生成部114により切り出された画像を保存する。
FIG. 8B shows a flowchart when the moving object disappears. In step S85, the moving
以上のように、部分画像生成部114は、移動体検出部112により移動体が検出されたフレームの前のフレーム内及び移動体が消失したフレーム内の移動体33及び34の移動体推定位置を算出し、その移動体推定位置の領域を切り出して出力する。以上の処理を行うことにより、移動体検出前と移動体消失時の移動体推定画像を切り出すことができる。また、第2の実施形態と同様に、移動体の位置情報と輝度情報を保存してもよい。移動体検出前のフレームや移動体検出後のフレームに関しては、移動体推定位置の位置情報と、同時に、静止物体の周辺領域の画像を保存することにより、移動体検出部112では検出できない微弱な現象を後から詳細な画像解析で解析することができる。
As described above, the partial
(第4の実施形態)
第3の実施形態において、移動体検出以前のフレームの画像と移動体消失フレーム後も追加して画像を切り出した。第3の実施形態のフローチャートの場合、移動体が2つ以上検出された場合に、移動体が同一物体かどうかを判断できず、移動体推定位置を誤る可能性がある。そこで、本発明の第4の実施形態では、移動体推定位置を移動体検出フレームとその後の2フレームの計3フレームの移動体位置を用いて、移動体検出前のフレームの移動体推定位置を算出する方法について述べる。
(Fourth embodiment)
In the third embodiment, the image of the frame before the moving object detection and the image after the moving object disappearance frame are additionally cut out. In the flowchart of the third embodiment, when two or more moving objects are detected, it is not possible to determine whether the moving objects are the same object, and there is a possibility that the estimated moving object position is incorrect. Therefore, in the fourth embodiment of the present invention, the moving object estimated position of the frame before the moving object detection is calculated by using the moving object estimated position as the moving object detection frame and the subsequent two frames. The calculation method will be described.
図9は、移動体検出前後の画像群を示したものである。移動体90の1フレーム遅れで移動体91が出現している。この場合、N+1フレームとNフレームを比較した場合、移動体90同士を比較すれば正しく移動体推定位置を計算できる。しかし、N+1フレームの移動体91とNフレームの移動体90を比較すると、N−1フレームにおける移動体92の移動体推定位置を正しく算出できなくなる。
FIG. 9 shows a group of images before and after detecting the moving object. A moving
そこで、第4の実施形態では、NフレームとN+1フレームの位置座標と輝度値から同一の移動体か否かを判断し、移動体92の移動体推定位置を算出する。図9の移動体連続画像の模式図を用いて説明する。図10は、移動体90と移動体91の位置座標と輝度カウント値を表した図である。N+1フレームとNフレームの輝度カウント値を比較する。Nフレームのカウント値50に対して、N+1フレームにおける輝度カウント値の近い48を同一物体とみなし、差分座標値からN−1フレームにおける移動体92の移動体推定位置を算出する。そして、部分画像生成部114は、移動体92の移動体推定位置周辺の領域を切り出す。部分画像生成部114は、移動体検出部112により移動体が検出されたフレームとその後の少なくとも1フレームの移動体の検出位置と輝度情報を基に、移動体検出部112で移動体が検出されたフレームの前のフレーム内の移動体の移動体推定位置を算出する。
Therefore, in the fourth embodiment, it is determined whether or not the moving body is the same from the position coordinates and luminance values of the N and N + 1 frames, and the moving body estimated position of the moving
(第5の実施形態)
本発明の第5の実施形態では、第4の実施形態の移動体推定位置算出において、Nフレーム、N+1フレーム、N+2フレームの3フレームを使って、移動体がほぼ同一の速度で動いていると仮定して移動体推定位置を算出する。二つの移動体の輝度カウント値が近い場合に、第5の実施形態の方法を用いることができる。図11は、移動体90と移動体91の画像上の座標を示している。移動体検出部112は、N+1フレームとNフレームの移動体の差分座標Δv1及びΔv2を算出する。Δv1=(200,50)、Δv2=(100,400)となる。次に、N+2フレームとN+1フレームの移動体の差分座標Δv11、Δv22、Δv21、Δv12を算出する。Δv11=(200,50)、Δv22=(300,0)、Δv21=(300,−300)、Δv12=(200,350)となる。Δv1とΔv11の差分座標が同一なので、Nフレームで出現した移動体90の速度はΔv1=(200,50)として、N−1フレームの移動体92の移動体推定位置を(250−200,100−50)=(50,50)と算出する。そして、部分画像生成部114は、その座標の周辺領域を切り出す。
(Fifth embodiment)
In the fifth embodiment of the present invention, in the mobile object estimated position calculation of the fourth embodiment, the mobile object moves at substantially the same speed using three frames of N frames, N + 1 frames, and N + 2 frames. Assuming that the moving object estimated position is calculated. The method of the fifth embodiment can be used when the brightness count values of the two moving objects are close. FIG. 11 shows the coordinates of the moving
部分画像生成部114は、移動体検出部112により移動体が検出されたフレームとその後の少なくとも2フレームの移動体の検出位置を基に、移動体検出部112により移動体が検出されたフレームの前のフレーム内の移動体の移動体推定位置を算出する。
The partial
第1〜第5の実施形態によれば、移動体観測において、画像保存装置に保存される画像データの容量を圧縮しつつ、移動体と所望の静止物体の領域の情報量を減らすことなく、効率的に画像データを保存することができる。 According to the first to fifth embodiments, in the moving object observation, while compressing the capacity of the image data stored in the image storage device, without reducing the information amount of the area of the moving object and the desired stationary object, Image data can be stored efficiently.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
10 撮像装置、112 移動体検出部、113 静止物体検出部、114 部分画像生成部
DESCRIPTION OF
Claims (6)
前記撮像された複数のフレームを基に移動体を検出する移動体検出部と、
前記撮像されたフレームを基に静止物体を検出する静止物体検出部と、
前記検出された移動体及び静止物体の領域をそれぞれ切り出す部分画像生成部とを有し、
前記静止物体検出部は、前記移動体検出部により移動体が検出されたフレームから移動体が消失するフレームまでの中で移動体を含む少なくとも一つのフレーム内の静止物体を検出することを特徴とする移動体観測装置。 An imaging device for imaging a plurality of consecutive frames;
A moving body detection unit that detects a moving body based on the plurality of captured frames;
A stationary object detection unit that detects a stationary object based on the captured frame;
A partial image generation unit that cuts out the areas of the detected moving object and stationary object,
The stationary object detection unit detects a stationary object in at least one frame including the moving body from a frame where the moving body is detected by the moving body detection unit to a frame where the moving body disappears. Mobile observation device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012198695A JP2014053859A (en) | 2012-09-10 | 2012-09-10 | Mobile object observation system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012198695A JP2014053859A (en) | 2012-09-10 | 2012-09-10 | Mobile object observation system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014053859A true JP2014053859A (en) | 2014-03-20 |
Family
ID=50611904
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012198695A Pending JP2014053859A (en) | 2012-09-10 | 2012-09-10 | Mobile object observation system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014053859A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016201756A (en) * | 2015-04-14 | 2016-12-01 | ソニー株式会社 | Image processing apparatus, image processing method, and image processing system |
| JP2019153208A (en) * | 2018-03-06 | 2019-09-12 | キヤノン株式会社 | Image processor, method for processing image, and program |
-
2012
- 2012-09-10 JP JP2012198695A patent/JP2014053859A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016201756A (en) * | 2015-04-14 | 2016-12-01 | ソニー株式会社 | Image processing apparatus, image processing method, and image processing system |
| JP2019153208A (en) * | 2018-03-06 | 2019-09-12 | キヤノン株式会社 | Image processor, method for processing image, and program |
| JP7030565B2 (en) | 2018-03-06 | 2022-03-07 | キヤノン株式会社 | Image processing equipment, image processing methods and programs |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4915655B2 (en) | Automatic tracking device | |
| US10943141B2 (en) | Object detection device and object detection method | |
| CN106709895A (en) | Image generating method and apparatus | |
| JP5484184B2 (en) | Image processing apparatus, image processing method, and program | |
| US20140270362A1 (en) | Fast edge-based object relocalization and detection using contextual filtering | |
| KR20180054808A (en) | Motion detection within images | |
| JPWO2016199244A1 (en) | Object recognition device and object recognition system | |
| US10122912B2 (en) | Device and method for detecting regions in an image | |
| KR20120044484A (en) | Apparatus and method for tracking object in image processing system | |
| JP6494418B2 (en) | Image analysis apparatus, image analysis method, and program | |
| US9747507B2 (en) | Ground plane detection | |
| US20180047271A1 (en) | Fire detection method, fire detection apparatus and electronic equipment | |
| US9031355B2 (en) | Method of system for image stabilization through image processing, and zoom camera including image stabilization function | |
| JP2018180945A (en) | Object detection apparatus and program | |
| JP2014048131A (en) | Image processing device, method, and program | |
| WO2018027527A1 (en) | Optical system imaging quality detection method and apparatus | |
| WO2018159467A1 (en) | Mobile entity detector, mobile entity detection method, and computer-readable recording medium | |
| TW201421423A (en) | Image sensor and operating method thereof | |
| JP2018142828A (en) | Deposit detector and deposit detection method | |
| US9392146B2 (en) | Apparatus and method for extracting object | |
| JP2014053859A (en) | Mobile object observation system | |
| US20180150966A1 (en) | System and method for estimating object size | |
| JP6108437B2 (en) | Finger direction identification system, finger direction identification method, and program thereof | |
| US10997734B2 (en) | Gas detection-use image processing device, gas detection-use image processing method, and gas detection-use image processing program | |
| JP6030457B2 (en) | Image detection apparatus, control program, and image detection method |