JP2011081657A - Imaging system - Google Patents
Imaging system Download PDFInfo
- Publication number
- JP2011081657A JP2011081657A JP2009234303A JP2009234303A JP2011081657A JP 2011081657 A JP2011081657 A JP 2011081657A JP 2009234303 A JP2009234303 A JP 2009234303A JP 2009234303 A JP2009234303 A JP 2009234303A JP 2011081657 A JP2011081657 A JP 2011081657A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- frame
- predetermined condition
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 187
- 238000001514 detection method Methods 0.000 claims description 34
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000003287 optical effect Effects 0.000 abstract description 29
- 230000005484 gravity Effects 0.000 abstract description 12
- 238000000034 method Methods 0.000 description 70
- 238000001444 catalytic combustion detection Methods 0.000 description 26
- 238000003333 near-infrared imaging Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 238000012790 confirmation Methods 0.000 description 14
- 238000005286 illumination Methods 0.000 description 6
- 235000013399 edible fruits Nutrition 0.000 description 5
- 230000010287 polarization Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、所定の条件に合致する移動体を撮像して記録する撮像システムに関する。 The present invention relates to an imaging system that captures and records a moving object that meets a predetermined condition.
従来、移動体すなわち車両のナンバープレートを読み取る車両ナンバー読み取りシステムが知られている。車両ナンバー読み取りシステムは、走行車線毎に取り付けられた1台のカメラ及び位置センサを備える。位置センサが車両を検出すると、位置センサに対応する走行車線上に設けられたカメラに撮像指令が出され、撮像指令を受信したカメラが車両の詳細な画像を撮像する(特許文献1)。 Conventionally, a vehicle number reading system for reading a moving body, that is, a vehicle license plate, is known. The vehicle number reading system includes one camera and a position sensor attached to each traveling lane. When the position sensor detects the vehicle, an imaging command is issued to the camera provided on the traveling lane corresponding to the position sensor, and the camera that has received the imaging command captures a detailed image of the vehicle (Patent Document 1).
しかし、従来の構成では、各走行車線にカメラを設ける必要があり、多数の走行車線を監視しなければならない場合に、カメラの設置コストが多大なものとなる。また、車両の移動を記録する必要があるとき、カメラが1走行車線に1つではカメラの画角の制限により、車両の移動を的確に撮像することができない。一方、カメラを1走行車線に複数設ける構成では、各カメラ間の画角調整や連動を調節しながらカメラを設置しなければならないため、設置コストがさらに増大する。 However, in the conventional configuration, it is necessary to provide a camera in each traveling lane, and when a large number of traveling lanes must be monitored, the installation cost of the camera becomes great. Further, when it is necessary to record the movement of the vehicle, it is not possible to accurately capture the movement of the vehicle due to the limitation of the angle of view of the camera if there is one camera in one travel lane. On the other hand, in the configuration in which a plurality of cameras are provided in one travel lane, the installation cost is further increased because the cameras must be installed while adjusting the angle of view and the interlocking between the cameras.
本発明は、これらの問題を鑑みてなされたものであり、1台のカメラを用いて移動体の移動を記録しながら、移動体の詳細な画像を撮像することが可能な撮像システムを得ることを目的とする。 The present invention has been made in view of these problems, and provides an imaging system capable of capturing a detailed image of a moving object while recording the movement of the moving object using a single camera. With the goal.
本願発明による撮像システムは、第1の撮像領域と第1の撮像領域と異なる第2の撮像領域とを有し、第1の撮像領域と第2の撮像領域とに跨って一方向に移動する被写体像を撮像する撮像手段と、第1の撮像領域に配置されるカラー画像撮像用フィルタと、第2の撮像領域に配置される不可視光画像撮像用フィルタと、撮像手段が撮像した画像を記憶する記憶手段と、記憶手段の記憶した画像を記録媒体に記録する記録手段と、第1の撮像領域又は第2の撮像領域のいずれか一方の画像に基づいて被写体像が所定の条件に合致するか否かを判断する判断手段とを備え、撮像手段は、カラー画像用フィルタを透過した被写体像を撮像してカラー画像を出力し、不可視光画像撮像用フィルタを透過した被写体像を撮像して不可視光画像を出力し、判断手段は、被写体像が所定の条件に合致したと判断した場合は、所定の条件に合致したときから所定の期間だけ前に撮像されて記憶手段に記憶されている画像を記録手段に記録させることを特徴とする。 An imaging system according to the present invention has a first imaging area and a second imaging area that is different from the first imaging area, and moves in one direction across the first imaging area and the second imaging area. An image pickup unit for picking up a subject image, a color image pickup filter arranged in the first image pickup region, an invisible light image pickup filter arranged in the second image pickup region, and an image picked up by the image pickup unit are stored. The subject image matches a predetermined condition on the basis of either the first imaging area or the second imaging area, the storage means for recording, the recording means for recording the image stored in the storage means on the recording medium, and the first imaging area or the second imaging area. An imaging unit that captures the subject image that has passed through the color image filter and outputs a color image, and that captures the subject image that has passed through the invisible light image capturing filter. Output invisible light image When the determination unit determines that the subject image matches a predetermined condition, the recording unit records an image that has been captured and stored in the storage unit a predetermined period before the predetermined condition is met. It is characterized by that.
被写体が第1の撮像領域又は第2の撮像領域のいずれか一方の領域から他方の領域に移動したか否かを検知する検知手段をさらに備え、判断手段は、被写体像が所定の条件に合致したとき、かつ被写体が他方の領域に移動したと検知手段が検知したときに、そのときから所定の期間だけ前に撮像されて記憶手段に記憶されている画像を記録手段に記録させることが好ましい。 The image processing apparatus further includes detection means for detecting whether or not the subject has moved from one of the first imaging area and the second imaging area to the other area, and the determination means matches the subject image with a predetermined condition. When the detection means detects that the subject has moved to the other area, it is preferable to cause the recording means to record an image that has been imaged and stored in the storage means a predetermined period before that time. .
撮像手段は、第1の撮像領域から第2の撮像領域へ移動する被写体像を撮像し、判断手段は、カラー画像に基づいて被写体像が所定の条件に合致したか否かを判別し、所定条件に合致した場合は、被写体像の不可視光画像を記録手段に記録させてもよい。 The imaging unit images a subject image that moves from the first imaging region to the second imaging region, and the determination unit determines whether the subject image meets a predetermined condition based on the color image, If the condition is met, an invisible light image of the subject image may be recorded by the recording means.
判断手段は、所定条件に合致した場合は、被写体像の不可視光画像およびカラー画像を記録手段に記録させることが好ましい。 Preferably, the determination unit causes the recording unit to record the invisible light image and the color image of the subject image when the predetermined condition is met.
判断手段は、撮像手段の画角を複数の領域に仮想的に分割し、被写体像が領域を複数回移動したときに所定の条件に合致したと判断することが好ましい。 Preferably, the determination unit virtually divides the angle of view of the imaging unit into a plurality of regions, and determines that the predetermined condition is met when the subject image moves the region a plurality of times.
判断手段は、撮像手段の画角において所定の位置を被写体像が通過するときに所定の条件に合致したと判断することが好ましい。 The determination unit preferably determines that a predetermined condition is met when the subject image passes through a predetermined position at the angle of view of the imaging unit.
判断手段は、被写体像が所定の色を有するときに所定の条件に合致したと判断してもよい。 The determination means may determine that a predetermined condition is met when the subject image has a predetermined color.
あるいは、判断手段は、被写体像が所定の形状を有するときに所定の条件に合致したと判断してもよい。 Alternatively, the determination unit may determine that a predetermined condition is met when the subject image has a predetermined shape.
撮像手段は、1つの撮像素子上に設けられる第1の撮像領域及び第2の撮像領域とを有することが好ましい。 The imaging means preferably has a first imaging area and a second imaging area provided on one imaging element.
撮像手段は、第1の撮像素子と第2の撮像素子とを有し、第1の撮像領域は第1の撮像素子上に設けられ、第2の撮像領域は第2の撮像素子上に設けられてもよい。 The image pickup means includes a first image pickup element and a second image pickup element, the first image pickup area is provided on the first image pickup element, and the second image pickup area is provided on the second image pickup element. May be.
撮像システムは車両監視システムであって、撮像手段は、道路の近辺に固定されて画角が固定され、判断手段は、画角における所定の範囲を車両が通過するときに所定の条件に合致したと判断してもよい。 The imaging system is a vehicle monitoring system, the imaging means is fixed in the vicinity of the road and the angle of view is fixed, and the judging means meets a predetermined condition when the vehicle passes a predetermined range in the angle of view. You may judge.
撮像システムは車両監視システムであって、撮像手段は、道路の近辺に固定されて画角が固定され、判断手段は、画角を複数の領域に仮想的に分割し、車両が領域を複数回移動したときに所定の条件に合致したと判断してもよい。 The imaging system is a vehicle monitoring system, the imaging means is fixed in the vicinity of the road and the angle of view is fixed, and the judging means virtually divides the angle of view into a plurality of areas, and the vehicle When moving, it may be determined that a predetermined condition is met.
以上のように本発明によれば、1台のカメラを用いて移動体の移動を記録しながら、移動体の詳細な画像を撮像することが可能な撮像システムを得る。 As described above, according to the present invention, an imaging system capable of capturing a detailed image of a moving body while recording the movement of the moving body using one camera is obtained.
以下、本発明による第1の実施形態について、図1から3を用いて説明する。 Hereinafter, a first embodiment according to the present invention will be described with reference to FIGS.
第1の撮像システム100は、被写体像を撮像可能な位置に設けられる第1の端末装置200と、第1の端末装置200と離れた位置に設けられる中央制御機300を備える。
The
第1の端末装置200は、第1の撮像装置210と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。
The first
中央制御機300は、中央通信制御部310と、アラーム320と、中央記録部330と、中央演算部340とを備える。
The
第1の撮像装置210は、撮像光学系を構成する撮像レンズ211と、撮像素子である第1のCCD212と、赤外画像撮像用フィルタである第1の可視光カットフィルタ213と、第1の偏光フィルタ214と、カラー画像撮像用フィルタである第1の赤外カットフィルタ215と、光路長調整フィルタ216とを備える。
The
撮像レンズ211は、深い被写界深度を実現するための焦点距離と絞りを有し、パンフォーカス撮影が可能である。これにより、撮像レンズ211は、第1の撮像装置210からの距離が10mから100mまでの間に存在する被写体に同時に合焦することが可能である。
The
第1のCCD212は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第1の撮像面217を有する。第1の端末装置200の重力方向が第1の撮像面217の長手方向と一致するように、第1の端末装置200の内部に第1のCCD212が設けられる。第1の撮像面217は、重力上方と下方に二等分される。重力上方に設けられる部位が近赤外線撮像領域218を成し、重力下方に設けられる部位が可視光線撮像領域219を成す。第1のCCD212は、第1の撮像面217、すなわち近赤外線撮像領域218及び可視光線撮像領域219に結像した被写体像を一度に撮像する。撮像は例えば1秒間に10回行われ、CCD212は1秒間に10フレームから成る動画を端末演算部及び端末記録部250に出力する。撮像のフレームレートは、必要に応じて適宜設定される。
The
第1の偏光フィルタ214は、特定の偏光状態を有する光のみを透過する光学フィルタである。第1の可視光カットフィルタ(近赤外線透過フィルタ)213は、可視光を透過せず、赤外線に含まれる近赤外線のみを透過する光学フィルタであって、不可視光画像撮像用フィルタを成す。第1の偏光フィルタ214は、近赤外線撮像領域218の全面を覆うように第1のCCD212に取り付けられる。そして、第1の偏光フィルタ214及び近赤外線撮像領域218の全面を覆うように、かつ第1の偏光フィルタ214の撮像レンズ211側に、第1の可視光カットフィルタ213が第1のCCD212に取り付けられる。
The first polarizing
第1の赤外カットフィルタ215は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであって、カラー画像撮像用フィルタを成す。光路長調整フィルタ216は、透過する光の光路長を調整するために設けられるフィルタであり、全ての波長の光を透過する。光路長調整フィルタ216は、可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。そして、光路長調整フィルタ216の撮像レンズ211側に、第1の赤外カットフィルタ215が光路長調整フィルタ及び可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。光路長調整フィルタ216の屈折率や厚さは、第1の赤外カットフィルタ215及び光路長調整フィルタ216による光路長が、第1の可視光カットフィルタ213及び第1の偏光フィルタ214による光路長と等しくなるように、各フィルタの屈折率や厚さを加味して調整される。
The first
第1の撮像装置210は、例えば、高速道路の走行車線監視のために走行車線上方に設置され、遠方から接近する車を撮影する。第1の撮像面217上に結像する被写体像の天地は、撮像レンズ211の機能により被写体の天地と反転する。そのため、被写体、例えば走行して接近してくる車が、第1の撮像装置210に対して比較的遠方に位置しているときは、車の被写体像は下方の可視光線撮像領域219に位置する。そして、車が接近してきて、第1の撮像装置210に対して比較的近距離に位置すると、車の被写体像は上方の近赤外線撮像領域218に位置する。これにより、比較的遠方に位置する被写体に関してはカラー画像が得られ、比較的近距離に位置する被写体に関しては赤外線撮影画像が得られる(図3参照)。
For example, the
車両検出部230は、第1の撮像装置210の撮像可能範囲内であって、近赤外線撮像領域218に結像する被写体像の位置を検出可能な場所に取り付けられるループコイルであり、車両の通過を検知する。端末演算部220及び近赤外照明部240と電気的に接続され、車両を検出したとき端末演算部220及び近赤外照明部240に車両検出信号を送信する。
The
近赤外照明部240は、道路を走行する車両を照明可能な場所、かつ近赤外線撮像領域218に結像する被写体像を照明可能な位置、例えば路側帯や道路上のフリーフロー型ゲートに設けられる。車両検出部230から車両検出信号を受信したとき、近赤外光を車両に向けて照射する。
The near-
端末演算部220は、車両検出部230から車両検出信号を、また第1のCCD212から動画を受信して、画像処理を行う。画像処理では、後述する蛇行記録処理、路側帯通行記録処理、車色記録処理、車種記録処理を実行する。これらの記録処理において、端末演算部220は、近赤外線撮像領域218に結像した自動車登録番号標又は車両番号標(いわゆるナンバープレート)及び運転者を撮像して静止画を作成し、端末記録部250に送信する。
The
端末記録部250は、ハードディスク、あるいはDRAMなどの半導体記憶装置からなる記憶手段であって、第1の撮像装置210から受信した動画や端末演算部220から受信した静止画を一時的に記憶する。
The
端末通信制御部260は、有線あるいは無線通信により、中央制御機300と電気的に接続される。そして、端末記録部250が記録している静止画及び動画のうち、各記録処理において後述する条件に合致するものを中央制御機300に送信する。
The terminal
中央制御機300が備える中央通信制御部310は、静止画及び動画を受信し、中央記録部330に送信する。また、端末通信制御部260から静止画あるいは動画を受信したときに、アラーム320に警報信号を送信する。
The central
中央記録部330は、ハードディスク等の記録手段であって、中央通信制御部310から受信した静止画及び動画を記録する。
The
アラーム320は、スピーカ、ディスプレイ、あるいは警告灯であって、中央通信制御部310から警報信号を受信したとき、警告音を発したり、警告画像を表示したり、警告光を明滅したりする。
The
中央演算部340は、静止画に含まれるナンバープレートから車両の自動車登録番号等を読み出して、監視対象登録番号と一致するか否かを判断する。
The
次に、図4及び5を用いて蛇行記録処理について説明する。蛇行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。
Next, the meandering recording process will be described with reference to FIGS. The meander recording process is started by the
ステップS401において、蛇行イニシャルセット処理が実行される。蛇行イニシャルセット処理は、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出し、抽出した走行車線エリアに車線番号を割り当て、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。なお、走行車線は、道路上において白線や黄線などにより所定の幅で区切られた、車両が通行する領域をいう。また、動画から1つのフレームを抽出する作業をキャプチャと呼び、蛇行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。
In step S401, a meandering initial setting process is executed. In the meandering initial set process, an area occupied by the travel lane, that is, a travel lane area is extracted from the image captured by the
ステップS402では、車線変更回数パラメータmに0を代入して初期化する。車線変更回数パラメータmは、観察対象となった車両が行った車線変更の数を示すパラメータである。 In step S402, initialization is performed by assigning 0 to the lane change count parameter m. The lane change frequency parameter m is a parameter indicating the number of lane changes made by the vehicle that is the observation target.
ステップS403では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。
In step S403, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the
ステップS404では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。 In step S404, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.
ステップS405では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。 In step S405, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.
ステップS406では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。この特定作業をマーキングと呼ぶ。 In step S406, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time. This specific operation is called marking.
ステップS407では、ステップS406においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。 In step S407, the travel lane area where the moving body marked in step S406 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the mobile body is currently located is specified.
ステップS408では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。そして、フレームをキャプチャするたびに、フレーム番号パラメータnを1つ増やす。これにより、ステップS404においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。
In step S408, one frame is captured from the moving image output from the
ステップS409では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。 In step S409, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.
ステップS410では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。 In step S410, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.
ステップS411では、ステップS410においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。 In step S411, the travel lane area where the moving body marked in step S410 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the moving body is currently located is specified.
ステップS412では、ステップS407において算出した車線番号と、ステップS411において算出した車線番号とが異なるかを判断する。異なる場合、処理はステップS413に進む。同じ場合、処理はステップS414に進む。 In step S412, it is determined whether the lane number calculated in step S407 is different from the lane number calculated in step S411. If they are different, the process proceeds to step S413. If they are the same, the process proceeds to step S414.
ステップS413では、車線変更回数パラメータmを1だけ増やす。ステップS412において、車線番号が異なる場合、移動体が走行車線を変更したと考えられるためである。 In step S413, the lane change count parameter m is increased by one. This is because if the lane number is different in step S412, it is considered that the moving body has changed the traveling lane.
ステップS414では、車線変更回数パラメータmが最大車線変更回数mMAX以上であるか否かを判断する。最大車線変更回数mMAXは、移動体に許される車線変更回数の最大値であり、蛇行記録処理を実行する前にユーザが決定する。車線変更回数パラメータmが最大車線変更回数mMAX以上である場合、処理はステップS415に進み、そうでない場合、処理はステップS408に進む。 In step S414, it is determined whether or not the lane change number parameter m is equal to or greater than the maximum lane change number mMAX. The maximum number of lane changes mMAX is the maximum value of the number of lane changes allowed for the moving body, and is determined by the user before executing the meander recording process. If the lane change number parameter m is greater than or equal to the maximum lane change number mMAX, the process proceeds to step S415; otherwise, the process proceeds to step S408.
ステップS415では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての走行車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。
In step S415, a plurality of frames are captured from the moving image received from the
ステップS416では、ステップS415においてキャプチャした全てのフレームを、端末通信制御部260を介して中央制御機300へ送信させる。中央制御機300では、受信した全てのフレームが中央記録部330に記憶される。そして、処理が終了する。
In step S416, all the frames captured in step S415 are transmitted to the
蛇行イニシャルセット処理について説明する。 The meandering initial setting process will be described.
ステップS501では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。
In step S501, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the
次のステップS502では、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。 In the next step S502, a number is assigned to the extracted travel lane area. When the image shown in FIG. 3 is obtained, the roadside zone located on the right side of the traveling lane in which the vehicle imaged in the near-infrared image is present is the lane number L1, and the rightmost image in which the vehicle imaged in the near-infrared image is present. Is the lane number L2, the left lane is the lane number L3, and the leftmost lane where there is no imaged vehicle is the lane number L4.
次のステップS503では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして、処理が終了する。 In the next step S503, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.
蛇行記録処理によれば、車線変更を最大車線変更回数mMAX以上繰り返す車両を自動的に撮像及び記録することができる。 According to the meander recording process, it is possible to automatically image and record a vehicle that repeats the lane change for the maximum number of lane changes mMAX or more.
次に、図6及び7を用いて路側帯通行記録処理について説明する。路側帯通行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。
Next, the roadside band traffic recording process will be described with reference to FIGS. The roadside band traffic recording process is started by the
ステップS601において、通行イニシャルセット処理が実行される。通行イニシャルセット処理は、走行車線エリアに車線番号を割り当て、最大路側帯通行回数mMAXを設定し、動画から1つのフレームを抽出し、そして路側帯を認識する処理であり、詳細に関しては後述される。最大路側帯通行回数mMAXは、移動体が路側帯を通行した回数、より詳しくは期間の最大値であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。 In step S601, a pass initial setting process is executed. The traffic initial setting process is a process of assigning a lane number to the traveling lane area, setting the maximum roadside band traffic count mMAX, extracting one frame from the moving image, and recognizing the roadside band, which will be described in detail later. . The maximum roadside band traffic number mMAX is the number of times the mobile body has passed the roadside band, more specifically the maximum value of the period, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.
ステップS602では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、観察対象となった車両が路側帯を通行した回数、より詳しくは期間を示すパラメータである。 In step S602, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation count parameter m is a parameter indicating the number of times that the vehicle to be observed has passed the roadside belt, more specifically, the period.
ステップS603では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。
In step S603, initialization is performed by assigning 1 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the
ステップS604では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。 In step S604, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.
ステップS605では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。 In step S605, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.
ステップS606では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。 In step S606, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.
ステップS607では、フレーム番号パラメータnを1増やす。 In step S607, the frame number parameter n is incremented by one.
ステップS608では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS604においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。
In step S608, one frame is captured from the moving image output by the
ステップS609では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。 In step S609, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.
ステップS610では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。 In step S610, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.
ステップS611では、フレーム番号パラメータnを1増やす。 In step S611, the frame number parameter n is incremented by one.
ステップS612では、移動体が路側帯に位置するか否かを判断する。判断は、ステップS610においてマーキングされた移動体が路側帯に相当する走行車線エリア内に存在するか否かを画像処理することにより決定する。移動体が路側帯に位置する場合、処理はステップS613に進み、そうでない場合、処理はステップS608に戻る。 In step S612, it is determined whether or not the mobile object is located in the roadside band. The determination is made by performing image processing to determine whether or not the moving body marked in step S610 is present in the travel lane area corresponding to the roadside zone. If the moving body is located in the roadside belt, the process proceeds to step S613; otherwise, the process returns to step S608.
ステップS613では、確認回数パラメータmを1増やす。ステップS612において、移動体が路側帯に位置するためである。 In step S613, the confirmation count parameter m is incremented by one. This is because the moving body is located in the roadside band in step S612.
ステップS614では、確認回数パラメータmが最大路側帯通行確認回数mMAX以上であるか否かを判断する。フレームは所定の周期で取得されるため、路側帯に位置する移動体を撮像したフレームの数を数えることにより、移動体が路側帯に存在する時間を測定することができる。確認回数パラメータmが最大路側帯通行確認回数mMAX以上である場合、処理はステップS615に進み、そうでない場合、処理はステップS608に戻る。 In step S614, it is determined whether or not the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX. Since the frames are acquired at a predetermined cycle, the time during which the moving body exists in the roadside band can be measured by counting the number of frames obtained by imaging the moving body located in the roadside band. If the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX, the process proceeds to step S615; otherwise, the process returns to step S608.
ステップS615では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS616に進み、そうでない場合、処理はステップS608に戻る。
In step S615, it is determined using the signal from the
ステップS616では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。
In step S616, a plurality of frames are captured from the moving image received from the
ステップS617では、ステップS616においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。
In step S617, all the frames captured in step S616 are transmitted to the
通行イニシャルセット処理について説明する。 The traffic initial set process will be described.
ステップS701では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。そして、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。
In step S701, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the
ステップS702では、最大路側帯通行確認回数mMAXを取得する。 In step S702, the maximum roadside band traffic confirmation count mMAX is acquired.
次のステップS703では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。 In the next step S703, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object.
ステップS704では、路側帯を構成するエリアを路側帯エリアとして認識する。そして、処理が終了する。 In step S704, the area constituting the roadside belt is recognized as the roadside belt area. Then, the process ends.
路側帯通行記録処理によれば、最大路側帯通行確認回数mMAX以上路側帯に存在する車両を自動的に撮像及び記録することができる。 According to the roadside band traffic recording process, it is possible to automatically capture and record a vehicle existing in the roadside band for the maximum roadside band traffic confirmation count mMAX or more.
次に、図8及び9を用いて車色記録処理について説明する。車色記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。
Next, the vehicle color recording process will be described with reference to FIGS. The vehicle color recording process is started by the
ステップS801において、車色イニシャルセット処理が実行される。車色イニシャルセット処理は、検出対称となる車色を設定する処理であり、詳細に関しては後述される。検出対称となる車色は、ユーザにより決定される。 In step S801, a vehicle color initial set process is executed. The vehicle color initial set process is a process for setting a vehicle color that is symmetrical to the detection, and will be described in detail later. The vehicle color that becomes detection symmetry is determined by the user.
ステップS802では、フレーム番号パラメータnに0を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。
In step S802, initialization is performed by assigning 0 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the
ステップS803では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。 In step S803, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.
ステップS804では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。 In step S804, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.
ステップS805では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。 In step S805, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.
ステップS806では、マーキングした移動体に関して算出した論理積Rに対しn+1番目のフレームを加算して、色情報を有する色認識画像Cを算出する。 In step S806, the n + 1-th frame is added to the logical product R calculated for the marked moving body to calculate a color recognition image C having color information.
ステップS807では、移動体の車色が検索対象の車色(目的色)と一致するか否かを判断する。移動体の車色が検索対象の色と合致する場合、処理がステップS808に進み、そうでない場合、処理はステップS802に戻る。 In step S807, it is determined whether or not the vehicle color of the moving object matches the vehicle color (target color) to be searched. If the vehicle color of the moving object matches the color to be searched, the process proceeds to step S808; otherwise, the process returns to step S802.
ステップS808では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。ここでキャプチャされるフレームはカラー画像である。これにより、カラー画像を端末記録部250に記録し、移動体の車体の色を認識することができる。
In step S808, one frame is captured from the moving image output by the
ステップS809では、フレーム番号パラメータnを1増やす。 In step S809, the frame number parameter n is incremented by one.
ステップS810では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS803及びS808においてキャプチャした3つのフレームと合わせて、4つのフレームがキャプチャされていることになる。このうち、直近にキャプチャされた3つのフレームを用いて、以下の処理を行う。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。
In step S810, one frame is captured from the moving image output by the
ステップS811では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。 In step S811, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.
ステップS812では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。 In step S812, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.
ステップS813では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS814に進み、そうでない場合、処理はステップS809に戻る。
In step S813, it is determined using the signal from the
ステップS814では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。
In step S814, a plurality of frames are captured from the moving image received from the
ステップS815では、ステップS814においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。
In step S815, all the frames captured in step S814 are transmitted to the
車色イニシャルセット処理について説明する。 The car color initial set process will be described.
ステップS901では、検出対称となる車色をユーザが設定する。車色は、HSV(色相、彩度、明度)、RGB(赤、緑、青)色空間などを用いて設定される。ユーザが設定した後に、処理が終了する。 In step S901, the user sets a vehicle color that is symmetrical to the detection. The vehicle color is set using HSV (hue, saturation, brightness), RGB (red, green, blue) color space, or the like. After the user sets, the process ends.
車色記録処理によれば、所望の車色を有する車両を自動的に撮像及び記録することができる。 According to the vehicle color recording process, a vehicle having a desired vehicle color can be automatically imaged and recorded.
次に、図10及び11を用いて車種記録処理について説明する。車種記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。
Next, the vehicle type recording process will be described with reference to FIGS. The vehicle type recording process is started by the
ステップS1001において、車種イニシャルセット処理が実行される。車種イニシャルセット処理は、車種情報を設定し、最大車種検出回数mMAXを設定し、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。最大車種検出回数mMAXは、所望の車種(目的車種)に該当する移動体を撮像したフレームの数であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。 In step S1001, a vehicle type initial set process is executed. The vehicle type initial set process is a process of setting the vehicle type information, setting the maximum vehicle type detection count mMAX, and extracting one frame from the moving image, and will be described in detail later. The maximum vehicle type detection count mMAX is the number of frames in which a moving body corresponding to a desired vehicle type (target vehicle type) is imaged, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.
ステップS1002では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、所望の車種に該当する移動体を撮像した回数を示すパラメータである。 In step S1002, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation number parameter m is a parameter indicating the number of times a moving body corresponding to a desired vehicle type is imaged.
ステップS1003では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。
In step S1003, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the
ステップS1004では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。 In step S1004, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.
ステップS1005では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。 In step S1005, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment of capturing a specific frame to the moment of capturing a frame after a predetermined time, that is, a moving object.
ステップS1006では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。 In step S1006, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.
ステップS1007では、フレーム番号パラメータnを1増やす。 In step S1007, the frame number parameter n is incremented by one.
ステップS1008では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS1004においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。
In step S1008, one frame is captured from the moving image output by the
ステップS1009では、フレーム番号パラメータnを1増やす。 In step S1009, the frame number parameter n is incremented by one.
ステップS1010では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。 In step S1010, a difference S between the nth frame and the (n + 1) th frame and a difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.
ステップS1011では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。 In step S1011, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.
ステップS1012では、移動体が所望の車種に該当するか否かを判断する。判断は、ステップS1010においてマーキングされた移動体が目的車種に該当するか否かを画像処理することにより決定する。移動体が目的車種に該当する場合、処理はステップS1013に進み、そうでない場合、処理はステップS1014に進む。 In step S1012, it is determined whether or not the mobile object corresponds to a desired vehicle type. The determination is made by performing image processing on whether or not the mobile object marked in step S1010 corresponds to the target vehicle type. If the mobile object corresponds to the target vehicle type, the process proceeds to step S1013; otherwise, the process proceeds to step S1014.
ステップS1013では、確認回数パラメータmを1増やす。ステップS1012において、移動体が目的車種に該当するためである。 In step S1013, the confirmation count parameter m is incremented by one. This is because the mobile body corresponds to the target vehicle type in step S1012.
ステップS1014では、確認回数パラメータmが最大車種検出回数mMAX以上であるか否かを判断する。目的車種に該当する移動体を撮像したフレームの数を数え、その数が最大車種検出回数mMAX以上であるときに、移動体が目的車種に該当すると判断する。これにより、目的車種検出の確度を上げることができる。確認回数パラメータmが最大車種検出回数mMAX以上である場合、処理はステップS1015に進み、そうでない場合、処理はステップS1008に戻る。 In step S1014, it is determined whether or not the confirmation number parameter m is equal to or greater than the maximum vehicle type detection number mMAX. The number of frames in which the moving object corresponding to the target vehicle type is imaged is counted, and it is determined that the moving object corresponds to the target vehicle type when the number is equal to or greater than the maximum vehicle type detection count mMAX. Thereby, the accuracy of target vehicle type detection can be raised. If the confirmation count parameter m is equal to or greater than the maximum vehicle type detection count mMAX, the process proceeds to step S1015; otherwise, the process returns to step S1008.
ステップS1015では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS1016に進み、そうでない場合、処理はステップS1008に戻る。
In step S1015, it is determined using the signal from the
ステップS1016では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。
In step S1016, a plurality of frames are captured from the moving image received from the
ステップS1017では、ステップS1016においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。
In step S1017, the terminal
車種イニシャルセット処理について説明する。 The vehicle type initial set process will be described.
ステップS1101では、検出対称となる車種をユーザが入力する。 In step S1101, the user inputs a vehicle type that is symmetrical to the detection.
ステップS1102では、最大車種検出回数mMAXを取得する。 In step S1102, the maximum vehicle type detection count mMAX is acquired.
次のステップS1103では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして処理が終了する。 In the next step S1103, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.
車種記録処理によれば、所望の車種に該当する車両を自動的に撮像及び記録することができる。 According to the vehicle type recording process, a vehicle corresponding to a desired vehicle type can be automatically imaged and recorded.
本実施形態によれば、移動体の移動を監視しながら、移動体の詳細な画像を撮像することが可能となる。 According to the present embodiment, it is possible to capture a detailed image of the moving body while monitoring the movement of the moving body.
なお、本実施形態では、図2に示すように、撮像レンズ211の光軸が通る位置を境に近赤外線撮像領域218と可視光線撮像領域219とを2等分割したが、目的や撮影状況に応じて、一方の撮像領域の割合を大きくしてもよい。
In the present embodiment, as shown in FIG. 2, the near-
また、移動体が撮影ポイントに位置するか否かの判別処理としてループコイルの受信信号を用いたが、これに代わって、抽出した移動体の像の撮像素子面上での移動速度及び移動方向を算出し、この移動速度および移動方向に基づいて、近赤外線撮像領域218内の撮影ポイントに対応する領域に達するタイミングを予測して、近赤外線撮影を行うようにしても良い。
In addition, the received signal of the loop coil is used as a process for determining whether or not the moving body is located at the shooting point. Instead, the moving speed and moving direction of the extracted moving body image on the image sensor surface are used. May be calculated, and near-infrared imaging may be performed by predicting the timing of reaching the area corresponding to the imaging point in the near-
次に、本発明による第2の実施形態について、図12及び13を用いて説明する。第1の実施形態と同様の構成については同じ符号を付して説明を省略する。 Next, a second embodiment according to the present invention will be described with reference to FIGS. The same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
第2の撮像システム400は、被写体像を撮像可能な位置に設けられる第2の端末装置500と、第2の端末装置500と離れた位置に設けられる中央制御機300を備える。
The
第2の端末装置500は、第2の撮像装置510と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。
The second
第2の撮像装置510は、撮像レンズ211と、撮像素子である第2のCCD512及び第3のCCD515と、赤外画像撮像用フィルタである第2の可視光カットフィルタ516と、第2の偏光フィルタ517と、カラー画像撮像用フィルタである第2の赤外カットフィルタ514と、ハーフミラー513とを備える。
The
第2及び第3のCCD512、515は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第2及び第3の撮像面519、520を各々有する。
The second and
撮像レンズ211の光軸方向が第2の撮像面519の短辺方向と平行となるように、かつ第2の端末装置500の重力方向が第2の撮像面519と直角となるように、第2の端末装置500の内部に第2のCCD512が設けられる。また、撮像レンズ211の光軸方向が第3の撮像面520と直角となるように、かつ第2の端末装置500の重力方向が第3の撮像面520の短辺方向と一致するように、第2の端末装置500の内部に第3のCCD515が設けられる。第2の撮像面519が可視光線撮像領域を成し、第3の撮像面520が近赤外線撮像領域を成す。第2及び第3のCCD512、515は、第2及び第3の撮像面519、520、すなわち可視光線撮像領域519及び近赤外線撮像領域520に結像した被写体像を同時に撮像する。第2及び第3のCCD512、515は1秒間に10フレームから成る動画を端末演算部220及び端末記録部250に出力する。
The
第2の偏光フィルタ517は、特定の偏光状態を有する光のみを透過する光学フィルタであり、近赤外線撮像領域520の全面を覆うように第3のCCD515に取り付けられる。
The second
第2の可視光カットフィルタ516は、赤外線に含まれる近赤外線のみを透過する光学フィルタである。第2の偏光フィルタ517の撮像レンズ211側に、第2の可視光カットフィルタ516が第2の偏光フィルタ517の全面を覆うように取り付けられる。
The second visible light cut
第2の赤外カットフィルタ514は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであり、可視光線撮像領域519の全面を覆うように第2のCCD512に取り付けられる。第2の赤外カットフィルタ514の屈折率あるいは厚さは、第2の赤外カットフィルタ514による光路長が、第2の可視光カットフィルタ516及び第2の偏光フィルタ517による光路長と等しくなるように調整される。
The second
ハーフミラー513は、光路上であって、撮像レンズ211と第2のCCD512及び第3のCCD515との間に、撮像レンズ211の光軸に対して45度となるように設けられる。ハーフミラー513は、入射した光の半分を反射し、残りの半分を透過する。遠景からの光は、撮像レンズ211に入射した後、ハーフミラー513により反射されて可視光線撮像領域519に結像し、近景からの光はハーフミラー513を透過して近赤外線撮像領域520に結像する。可視光線撮像領域519及び近赤外線撮像領域520は、光路に対して直角を成す。
The
これらの構成により、第2のCCD512は遠方の被写体をカラー画像で撮像し、第3のCCD515は近方の被写体を近赤外線画像で撮像する(図3参照)。
With these configurations, the
本実施形態によれば、安価な小型の撮像素子を用いることが可能となる。また、第1の実施形態のように1つの撮像素子の撮像面を複数に分けて各々別個のフィルタを設ける手間を省くことができる。 According to the present embodiment, it is possible to use an inexpensive and small image sensor. In addition, as in the first embodiment, it is possible to save the trouble of providing a separate filter by dividing the imaging surface of one imaging device into a plurality of parts.
なお、いずれの実施形態においても、撮像素子はCCDに限定されず、CMOS等であっても良い。また、CCDの画素数は、1メガピクセルクラス以上に限定されない。さらに、撮像は1秒間に10回に限定されない。 In any of the embodiments, the imaging element is not limited to the CCD, and may be a CMOS or the like. Further, the number of pixels of the CCD is not limited to 1 megapixel class or more. Furthermore, imaging is not limited to 10 times per second.
光路長調整フィルタ216を用いずに、赤外カットフィルタの屈折率あるいは厚さを調整することにより、可視光カットフィルタ及び偏光フィルタによる光路長と、赤外カットフィルタの光路長とを等しくしても良い。
By adjusting the refractive index or thickness of the infrared cut filter without using the optical path
また、車両検出部230はループコイルでなくても良く、赤外線センサ、音波センサ等の車両の位置を検出可能なものであればよい。
Further, the
なお、車両の代わりに果物を監視対象物とすることもできる。判別条件として色の代わりに果物の糖度を用いることにより、果物を選果することが可能である。また、車種の代わりに果物の種類や大きさを用いることにより、他品種の果物を選り分けることが可能である。 In addition, it can also make a fruit into a monitoring object instead of a vehicle. The fruit can be selected by using the sugar content of the fruit instead of the color as the discrimination condition. Further, by using the type and size of the fruit instead of the vehicle type, it is possible to select different kinds of fruits.
さらに、車両の代わりに小包を監視しても良い。目的地、大きさ、形状に応じて小包を選別することができる。 Further, the parcel may be monitored instead of the vehicle. Parcels can be sorted according to destination, size, and shape.
100 第1の撮像システム
200 端末装置
210 第1の撮像装置
211 撮像レンズ(撮像光学系)
212 第1のCCD
213 第1の可視光カットフィルタ
214 第1の偏光フィルタ
215 第1の赤外カットフィルタ
216 光路長調整フィルタ
217 第1の撮像面
218 近赤外線撮像領域
219 可視光線撮像領域
220 端末演算部
230 車両検出部
240 近赤外照明部
250 端末記録部
260 端末通信制御部
300 中央制御機
310 中央通信制御部
320 アラーム
330 中央記録部
340 中央演算部
DESCRIPTION OF
212 First CCD
213 First visible light cut
Claims (12)
前記第1の撮像領域に配置されるカラー画像撮像用フィルタと、前記第2の撮像領域に配置される不可視光画像撮像用フィルタと、
前記撮像手段が撮像した画像を記憶する記憶手段と、
前記記憶手段の記憶した画像を記録媒体に記録する記録手段と、
前記第1の撮像領域又は前記第2の撮像領域のいずれか一方の画像に基づいて被写体像が所定の条件に合致するか否かを判断する判断手段とを備え、
前記撮像手段は、前記カラー画像用フィルタを透過した被写体像を撮像してカラー画像を出力し、前記不可視光画像撮像用フィルタを透過した被写体像を撮像して不可視光画像を出力し、
前記判断手段は、被写体像が所定の条件に合致したと判断した場合は、前記所定の条件に合致したときから所定の期間だけ前に撮像されて前記記憶手段に記憶されている画像を前記記録手段に記録させる
ことを特徴とする撮像システム。 An image of a subject having a first imaging area and a second imaging area different from the first imaging area and moving in one direction across the first imaging area and the second imaging area Imaging means to perform,
A color image capturing filter disposed in the first imaging region; an invisible light image capturing filter disposed in the second imaging region;
Storage means for storing an image captured by the imaging means;
Recording means for recording an image stored in the storage means on a recording medium;
Determining means for determining whether or not the subject image meets a predetermined condition based on one of the images of the first imaging region or the second imaging region;
The imaging means captures a subject image that has passed through the color image filter and outputs a color image, captures a subject image that has passed through the invisible light image capture filter, and outputs an invisible light image;
If it is determined that the subject image matches a predetermined condition, the determination unit captures an image captured and stored in the storage unit a predetermined period before the predetermined condition is met. An imaging system characterized by having a means for recording.
前記判断手段は、被写体像が所定の条件に合致したとき、かつ被写体が他方の領域に移動したと前記検知手段が検知したときに、そのときから所定の期間だけ前に撮像されて前記記憶手段に記憶されている画像を前記記録手段に記録させる請求項1に記載の撮像システム。 A detection unit that detects whether or not the subject has moved from one of the first imaging region and the second imaging region to the other region;
The determination means is an image picked up before a predetermined period from when the subject image meets a predetermined condition and when the detection means detects that the subject has moved to the other area. The imaging system according to claim 1, wherein the recording unit records an image stored in the recording unit.
前記判断手段は、前記カラー画像に基づいて被写体像が所定の条件に合致したか否かを判別し、前記所定条件に合致した場合は、前記被写体像の不可視光画像を前記記録手段に記録させることを特徴とする請求項1又は2に記載の撮像システム。 The imaging means captures a subject image moving from the first imaging area to the second imaging area,
The determination unit determines whether or not the subject image matches a predetermined condition based on the color image, and if the predetermined image satisfies the predetermined condition, causes the recording unit to record an invisible light image of the subject image. The imaging system according to claim 1 or 2, wherein
前記撮像手段は、道路の近辺に固定されて画角が固定され、
前記判断手段は、前記画角における所定の範囲を車両が通過するときに所定の条件に合致したと判断する請求項1に記載の撮像システム。 The imaging system is a vehicle monitoring system,
The imaging means is fixed in the vicinity of the road and the angle of view is fixed,
The imaging system according to claim 1, wherein the determination unit determines that a predetermined condition is met when the vehicle passes a predetermined range in the angle of view.
前記撮像手段は、道路の近辺に固定されて画角が固定され、
前記判断手段は、前記画角を複数の領域に仮想的に分割し、車両が前記領域を複数回移動したときに所定の条件に合致したと判断する請求項1に記載の撮像システム。 The imaging system is a vehicle monitoring system,
The imaging means is fixed in the vicinity of the road and the angle of view is fixed,
The imaging system according to claim 1, wherein the determination unit virtually divides the angle of view into a plurality of regions and determines that a predetermined condition is met when the vehicle moves the region a plurality of times.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009234303A JP2011081657A (en) | 2009-10-08 | 2009-10-08 | Imaging system |
| GB1016975A GB2474557A (en) | 2009-10-08 | 2010-10-08 | Vehicle movement detection using visible and invisible light |
| DE102010038056A DE102010038056A1 (en) | 2009-10-08 | 2010-10-08 | Image device and image system for imaging a moving object |
| CN2010105371921A CN102088553A (en) | 2009-10-08 | 2010-10-08 | Imaging instrument and imaging system for movable objects |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009234303A JP2011081657A (en) | 2009-10-08 | 2009-10-08 | Imaging system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2011081657A true JP2011081657A (en) | 2011-04-21 |
Family
ID=44075637
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009234303A Pending JP2011081657A (en) | 2009-10-08 | 2009-10-08 | Imaging system |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2011081657A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017062706A (en) * | 2015-09-25 | 2017-03-30 | アイシン・エィ・ダブリュ株式会社 | Travel support system, travel support method, and computer program |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10154292A (en) * | 1996-05-15 | 1998-06-09 | Hitachi Ltd | Traffic flow monitoring device |
| JPH11328574A (en) * | 1998-05-15 | 1999-11-30 | Hitachi Denshi Ltd | Traffic monitoring television system |
| JP2001084485A (en) * | 1999-09-13 | 2001-03-30 | Mitsubishi Electric Corp | Vehicle detection device |
| JP2001167380A (en) * | 1999-12-07 | 2001-06-22 | Toshiba Corp | Road monitoring device |
| JP2001189926A (en) * | 1999-12-28 | 2001-07-10 | Mitsubishi Electric Corp | Roadside monitoring imaging device |
| JP2002216288A (en) * | 2001-01-17 | 2002-08-02 | Mitsubishi Electric Corp | Vehicle type identification device and vehicle photographing device |
| JP2002260167A (en) * | 2001-03-05 | 2002-09-13 | Natl Inst For Land & Infrastructure Management Mlit | Visible vehicle detection system by infrared complement |
| JP2007164275A (en) * | 2005-12-09 | 2007-06-28 | Hitachi Ltd | Image processing apparatus and monitoring system |
| JP2007188353A (en) * | 2006-01-13 | 2007-07-26 | Mitsubishi Heavy Ind Ltd | Traffic management system |
| JP2008152736A (en) * | 2006-12-20 | 2008-07-03 | Sony Corp | Monitoring system, monitoring apparatus and monitoring method |
| JP2009089158A (en) * | 2007-10-01 | 2009-04-23 | Panasonic Corp | Imaging device |
-
2009
- 2009-10-08 JP JP2009234303A patent/JP2011081657A/en active Pending
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10154292A (en) * | 1996-05-15 | 1998-06-09 | Hitachi Ltd | Traffic flow monitoring device |
| JPH11328574A (en) * | 1998-05-15 | 1999-11-30 | Hitachi Denshi Ltd | Traffic monitoring television system |
| JP2001084485A (en) * | 1999-09-13 | 2001-03-30 | Mitsubishi Electric Corp | Vehicle detection device |
| JP2001167380A (en) * | 1999-12-07 | 2001-06-22 | Toshiba Corp | Road monitoring device |
| JP2001189926A (en) * | 1999-12-28 | 2001-07-10 | Mitsubishi Electric Corp | Roadside monitoring imaging device |
| JP2002216288A (en) * | 2001-01-17 | 2002-08-02 | Mitsubishi Electric Corp | Vehicle type identification device and vehicle photographing device |
| JP2002260167A (en) * | 2001-03-05 | 2002-09-13 | Natl Inst For Land & Infrastructure Management Mlit | Visible vehicle detection system by infrared complement |
| JP2007164275A (en) * | 2005-12-09 | 2007-06-28 | Hitachi Ltd | Image processing apparatus and monitoring system |
| JP2007188353A (en) * | 2006-01-13 | 2007-07-26 | Mitsubishi Heavy Ind Ltd | Traffic management system |
| JP2008152736A (en) * | 2006-12-20 | 2008-07-03 | Sony Corp | Monitoring system, monitoring apparatus and monitoring method |
| JP2009089158A (en) * | 2007-10-01 | 2009-04-23 | Panasonic Corp | Imaging device |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017062706A (en) * | 2015-09-25 | 2017-03-30 | アイシン・エィ・ダブリュ株式会社 | Travel support system, travel support method, and computer program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102596831B1 (en) | Hybrid time-of-flight and imager module | |
| KR101457141B1 (en) | Stereo camera device, correction method, and program | |
| US6977674B2 (en) | Stereo-image capturing device | |
| CN103322974B (en) | Poly-lens camera chain, the vehicles for installing poly-lens camera chain, and the distance-finding method performed by poly-lens camera chain | |
| US8731245B2 (en) | Multiple view transportation imaging systems | |
| GB2474557A (en) | Vehicle movement detection using visible and invisible light | |
| KR101999993B1 (en) | Automatic traffic enforcement system using radar and camera | |
| CN106796293A (en) | Linear model calculates sensing LADAR | |
| JP6860433B2 (en) | Processing equipment, processing systems, methods and programs | |
| JP5686281B2 (en) | Three-dimensional object identification device, and mobile object control device and information providing device provided with the same | |
| KR20120085935A (en) | Object identifying apparatus, moving body control apparatus, and information providing apparatus | |
| JP2011082855A (en) | Imaging apparatus | |
| RU2015123662A (en) | DEVICE FOR ROAD TOLL OR TELEMATIC SYSTEMS | |
| JPH03289293A (en) | Image pickup device | |
| JP2008174028A (en) | Object detection system and object detection method | |
| CN104620075A (en) | Device and method for measuring distances of multiple subjects | |
| JP6818820B2 (en) | Intelligent roadside unit and its information processing method | |
| CN111931547A (en) | Driving lane recognition device, driving lane recognition method, and program | |
| CN108076263A (en) | Photographic device and automatic control system | |
| WO2013140873A1 (en) | In-vehicle image processing device and method | |
| JP2011082856A (en) | Imaging apparatus | |
| JP2011150687A (en) | Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus | |
| US20200128188A1 (en) | Image pickup device and image pickup system | |
| WO2022004260A1 (en) | Electromagnetic wave detection device and ranging device | |
| JP2011081657A (en) | Imaging system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20111222 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120808 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130910 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130911 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140128 |