[go: up one dir, main page]

JP2011081657A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
JP2011081657A
JP2011081657A JP2009234303A JP2009234303A JP2011081657A JP 2011081657 A JP2011081657 A JP 2011081657A JP 2009234303 A JP2009234303 A JP 2009234303A JP 2009234303 A JP2009234303 A JP 2009234303A JP 2011081657 A JP2011081657 A JP 2011081657A
Authority
JP
Japan
Prior art keywords
imaging
image
frame
predetermined condition
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009234303A
Other languages
Japanese (ja)
Inventor
Masayuki Arai
政幸 新井
Yasuhiro Nishikata
靖浩 西方
Takatomo Endo
貴智 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2009234303A priority Critical patent/JP2011081657A/en
Priority to GB1016975A priority patent/GB2474557A/en
Priority to DE102010038056A priority patent/DE102010038056A1/en
Priority to CN2010105371921A priority patent/CN102088553A/en
Publication of JP2011081657A publication Critical patent/JP2011081657A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an imaging system which can image a detailed image of a mobile body while recording the movement of the mobile body by using one camera having an imaging optical system. <P>SOLUTION: A first CCD 212 has the number of pixels of a 1 megapixel class as well as a rectangular first imaging surface 217 on which an object image from an imaging lens 211 forms an image. The first CCD 212 is arranged inside a first terminal device 200 so that the direction of gravity for the first terminal device 200 matches the longitudinal direction of the first imaging surface 217. The first imaging surface 217 is divided into two by an upper part and a lower part of gravity. A portion arranged in the upper part of gravity forms an infrared ray imaging region and a portion arranged in the lower part of gravity forms a visible ray imaging region. The first CCD 212 images the object images that are imaged on the infrared ray imaging region and on the visible ray imaging region at once. The object at the upper part of a direction of gravity is made incident on the imaging lens 211 and is imaged in the visible ray imaging region and the object at the lower part of the direction of gravity is imaged in the infrared ray imaging region. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、所定の条件に合致する移動体を撮像して記録する撮像システムに関する。   The present invention relates to an imaging system that captures and records a moving object that meets a predetermined condition.

従来、移動体すなわち車両のナンバープレートを読み取る車両ナンバー読み取りシステムが知られている。車両ナンバー読み取りシステムは、走行車線毎に取り付けられた1台のカメラ及び位置センサを備える。位置センサが車両を検出すると、位置センサに対応する走行車線上に設けられたカメラに撮像指令が出され、撮像指令を受信したカメラが車両の詳細な画像を撮像する(特許文献1)。   Conventionally, a vehicle number reading system for reading a moving body, that is, a vehicle license plate, is known. The vehicle number reading system includes one camera and a position sensor attached to each traveling lane. When the position sensor detects the vehicle, an imaging command is issued to the camera provided on the traveling lane corresponding to the position sensor, and the camera that has received the imaging command captures a detailed image of the vehicle (Patent Document 1).

特公平2−38997号公報Japanese Patent Publication No. 2-38997

しかし、従来の構成では、各走行車線にカメラを設ける必要があり、多数の走行車線を監視しなければならない場合に、カメラの設置コストが多大なものとなる。また、車両の移動を記録する必要があるとき、カメラが1走行車線に1つではカメラの画角の制限により、車両の移動を的確に撮像することができない。一方、カメラを1走行車線に複数設ける構成では、各カメラ間の画角調整や連動を調節しながらカメラを設置しなければならないため、設置コストがさらに増大する。   However, in the conventional configuration, it is necessary to provide a camera in each traveling lane, and when a large number of traveling lanes must be monitored, the installation cost of the camera becomes great. Further, when it is necessary to record the movement of the vehicle, it is not possible to accurately capture the movement of the vehicle due to the limitation of the angle of view of the camera if there is one camera in one travel lane. On the other hand, in the configuration in which a plurality of cameras are provided in one travel lane, the installation cost is further increased because the cameras must be installed while adjusting the angle of view and the interlocking between the cameras.

本発明は、これらの問題を鑑みてなされたものであり、1台のカメラを用いて移動体の移動を記録しながら、移動体の詳細な画像を撮像することが可能な撮像システムを得ることを目的とする。   The present invention has been made in view of these problems, and provides an imaging system capable of capturing a detailed image of a moving object while recording the movement of the moving object using a single camera. With the goal.

本願発明による撮像システムは、第1の撮像領域と第1の撮像領域と異なる第2の撮像領域とを有し、第1の撮像領域と第2の撮像領域とに跨って一方向に移動する被写体像を撮像する撮像手段と、第1の撮像領域に配置されるカラー画像撮像用フィルタと、第2の撮像領域に配置される不可視光画像撮像用フィルタと、撮像手段が撮像した画像を記憶する記憶手段と、記憶手段の記憶した画像を記録媒体に記録する記録手段と、第1の撮像領域又は第2の撮像領域のいずれか一方の画像に基づいて被写体像が所定の条件に合致するか否かを判断する判断手段とを備え、撮像手段は、カラー画像用フィルタを透過した被写体像を撮像してカラー画像を出力し、不可視光画像撮像用フィルタを透過した被写体像を撮像して不可視光画像を出力し、判断手段は、被写体像が所定の条件に合致したと判断した場合は、所定の条件に合致したときから所定の期間だけ前に撮像されて記憶手段に記憶されている画像を記録手段に記録させることを特徴とする。   An imaging system according to the present invention has a first imaging area and a second imaging area that is different from the first imaging area, and moves in one direction across the first imaging area and the second imaging area. An image pickup unit for picking up a subject image, a color image pickup filter arranged in the first image pickup region, an invisible light image pickup filter arranged in the second image pickup region, and an image picked up by the image pickup unit are stored. The subject image matches a predetermined condition on the basis of either the first imaging area or the second imaging area, the storage means for recording, the recording means for recording the image stored in the storage means on the recording medium, and the first imaging area or the second imaging area. An imaging unit that captures the subject image that has passed through the color image filter and outputs a color image, and that captures the subject image that has passed through the invisible light image capturing filter. Output invisible light image When the determination unit determines that the subject image matches a predetermined condition, the recording unit records an image that has been captured and stored in the storage unit a predetermined period before the predetermined condition is met. It is characterized by that.

被写体が第1の撮像領域又は第2の撮像領域のいずれか一方の領域から他方の領域に移動したか否かを検知する検知手段をさらに備え、判断手段は、被写体像が所定の条件に合致したとき、かつ被写体が他方の領域に移動したと検知手段が検知したときに、そのときから所定の期間だけ前に撮像されて記憶手段に記憶されている画像を記録手段に記録させることが好ましい。   The image processing apparatus further includes detection means for detecting whether or not the subject has moved from one of the first imaging area and the second imaging area to the other area, and the determination means matches the subject image with a predetermined condition. When the detection means detects that the subject has moved to the other area, it is preferable to cause the recording means to record an image that has been imaged and stored in the storage means a predetermined period before that time. .

撮像手段は、第1の撮像領域から第2の撮像領域へ移動する被写体像を撮像し、判断手段は、カラー画像に基づいて被写体像が所定の条件に合致したか否かを判別し、所定条件に合致した場合は、被写体像の不可視光画像を記録手段に記録させてもよい。   The imaging unit images a subject image that moves from the first imaging region to the second imaging region, and the determination unit determines whether the subject image meets a predetermined condition based on the color image, If the condition is met, an invisible light image of the subject image may be recorded by the recording means.

判断手段は、所定条件に合致した場合は、被写体像の不可視光画像およびカラー画像を記録手段に記録させることが好ましい。   Preferably, the determination unit causes the recording unit to record the invisible light image and the color image of the subject image when the predetermined condition is met.

判断手段は、撮像手段の画角を複数の領域に仮想的に分割し、被写体像が領域を複数回移動したときに所定の条件に合致したと判断することが好ましい。   Preferably, the determination unit virtually divides the angle of view of the imaging unit into a plurality of regions, and determines that the predetermined condition is met when the subject image moves the region a plurality of times.

判断手段は、撮像手段の画角において所定の位置を被写体像が通過するときに所定の条件に合致したと判断することが好ましい。   The determination unit preferably determines that a predetermined condition is met when the subject image passes through a predetermined position at the angle of view of the imaging unit.

判断手段は、被写体像が所定の色を有するときに所定の条件に合致したと判断してもよい。   The determination means may determine that a predetermined condition is met when the subject image has a predetermined color.

あるいは、判断手段は、被写体像が所定の形状を有するときに所定の条件に合致したと判断してもよい。   Alternatively, the determination unit may determine that a predetermined condition is met when the subject image has a predetermined shape.

撮像手段は、1つの撮像素子上に設けられる第1の撮像領域及び第2の撮像領域とを有することが好ましい。   The imaging means preferably has a first imaging area and a second imaging area provided on one imaging element.

撮像手段は、第1の撮像素子と第2の撮像素子とを有し、第1の撮像領域は第1の撮像素子上に設けられ、第2の撮像領域は第2の撮像素子上に設けられてもよい。   The image pickup means includes a first image pickup element and a second image pickup element, the first image pickup area is provided on the first image pickup element, and the second image pickup area is provided on the second image pickup element. May be.

撮像システムは車両監視システムであって、撮像手段は、道路の近辺に固定されて画角が固定され、判断手段は、画角における所定の範囲を車両が通過するときに所定の条件に合致したと判断してもよい。   The imaging system is a vehicle monitoring system, the imaging means is fixed in the vicinity of the road and the angle of view is fixed, and the judging means meets a predetermined condition when the vehicle passes a predetermined range in the angle of view. You may judge.

撮像システムは車両監視システムであって、撮像手段は、道路の近辺に固定されて画角が固定され、判断手段は、画角を複数の領域に仮想的に分割し、車両が領域を複数回移動したときに所定の条件に合致したと判断してもよい。   The imaging system is a vehicle monitoring system, the imaging means is fixed in the vicinity of the road and the angle of view is fixed, and the judging means virtually divides the angle of view into a plurality of areas, and the vehicle When moving, it may be determined that a predetermined condition is met.

以上のように本発明によれば、1台のカメラを用いて移動体の移動を記録しながら、移動体の詳細な画像を撮像することが可能な撮像システムを得る。   As described above, according to the present invention, an imaging system capable of capturing a detailed image of a moving body while recording the movement of the moving body using one camera is obtained.

第1の実施形態による第1の撮像システムのブロック図である。It is a block diagram of the 1st imaging system by a 1st embodiment. 第1の撮像ユニットの一部断面図である。It is a partial sectional view of the 1st image pick-up unit. 第1の撮像ユニットが撮像した画像を示した図である。It is the figure which showed the image which the 1st imaging unit imaged. 蛇行記録処理を示すフローチャートである。It is a flowchart which shows a meandering recording process. 蛇行イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a meandering initial set process. 路側帯通行記録処理を示すフローチャートである。It is a flowchart which shows a roadside zone traffic recording process. 通行イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a traffic initial set process. 車色記録処理を示すフローチャートである。It is a flowchart which shows a vehicle color recording process. 車色イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a vehicle color initial set process. 車種記録処理を示すフローチャートである。It is a flowchart which shows a vehicle type recording process. 車種イニシャルセット処理を示すフローチャートである。It is a flowchart which shows a vehicle type initial set process. 第2の実施形態による第2の撮像システムのブロック図である。It is a block diagram of the 2nd imaging system by a 2nd embodiment. 第2の撮像ユニットの一部断面図である。It is a partial sectional view of the 2nd image pick-up unit.

以下、本発明による第1の実施形態について、図1から3を用いて説明する。   Hereinafter, a first embodiment according to the present invention will be described with reference to FIGS.

第1の撮像システム100は、被写体像を撮像可能な位置に設けられる第1の端末装置200と、第1の端末装置200と離れた位置に設けられる中央制御機300を備える。   The first imaging system 100 includes a first terminal device 200 provided at a position where a subject image can be captured, and a central controller 300 provided at a position away from the first terminal device 200.

第1の端末装置200は、第1の撮像装置210と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。   The first terminal device 200 includes a first imaging device 210, a terminal calculation unit 220, a vehicle detection unit 230, a near infrared illumination unit 240, a terminal recording unit 250, and a terminal communication control unit 260. .

中央制御機300は、中央通信制御部310と、アラーム320と、中央記録部330と、中央演算部340とを備える。   The central controller 300 includes a central communication control unit 310, an alarm 320, a central recording unit 330, and a central processing unit 340.

第1の撮像装置210は、撮像光学系を構成する撮像レンズ211と、撮像素子である第1のCCD212と、赤外画像撮像用フィルタである第1の可視光カットフィルタ213と、第1の偏光フィルタ214と、カラー画像撮像用フィルタである第1の赤外カットフィルタ215と、光路長調整フィルタ216とを備える。   The first imaging device 210 includes an imaging lens 211 that constitutes an imaging optical system, a first CCD 212 that is an imaging element, a first visible light cut filter 213 that is an infrared imaging filter, and a first A polarizing filter 214, a first infrared cut filter 215 that is a color image capturing filter, and an optical path length adjustment filter 216 are provided.

撮像レンズ211は、深い被写界深度を実現するための焦点距離と絞りを有し、パンフォーカス撮影が可能である。これにより、撮像レンズ211は、第1の撮像装置210からの距離が10mから100mまでの間に存在する被写体に同時に合焦することが可能である。   The imaging lens 211 has a focal length and a diaphragm for realizing a deep depth of field, and can perform pan-focus imaging. Accordingly, the imaging lens 211 can simultaneously focus on a subject existing at a distance from the first imaging device 210 of 10 m to 100 m.

第1のCCD212は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第1の撮像面217を有する。第1の端末装置200の重力方向が第1の撮像面217の長手方向と一致するように、第1の端末装置200の内部に第1のCCD212が設けられる。第1の撮像面217は、重力上方と下方に二等分される。重力上方に設けられる部位が近赤外線撮像領域218を成し、重力下方に設けられる部位が可視光線撮像領域219を成す。第1のCCD212は、第1の撮像面217、すなわち近赤外線撮像領域218及び可視光線撮像領域219に結像した被写体像を一度に撮像する。撮像は例えば1秒間に10回行われ、CCD212は1秒間に10フレームから成る動画を端末演算部及び端末記録部250に出力する。撮像のフレームレートは、必要に応じて適宜設定される。   The first CCD 212 has a first imaging surface 217 having a rectangular shape on which a subject image from the imaging lens 211 is formed and has a number of pixels of 1 megapixel class or more. The first CCD 212 is provided inside the first terminal device 200 so that the direction of gravity of the first terminal device 200 coincides with the longitudinal direction of the first imaging surface 217. The first imaging surface 217 is divided into two equal parts above and below the gravity. A part provided above the gravity forms a near infrared imaging region 218, and a part provided below the gravity forms a visible light imaging region 219. The first CCD 212 captures the subject image formed on the first imaging surface 217, that is, the near-infrared imaging region 218 and the visible light imaging region 219 at a time. Imaging is performed, for example, 10 times per second, and the CCD 212 outputs a moving image consisting of 10 frames per second to the terminal calculation unit and the terminal recording unit 250. The imaging frame rate is appropriately set as necessary.

第1の偏光フィルタ214は、特定の偏光状態を有する光のみを透過する光学フィルタである。第1の可視光カットフィルタ(近赤外線透過フィルタ)213は、可視光を透過せず、赤外線に含まれる近赤外線のみを透過する光学フィルタであって、不可視光画像撮像用フィルタを成す。第1の偏光フィルタ214は、近赤外線撮像領域218の全面を覆うように第1のCCD212に取り付けられる。そして、第1の偏光フィルタ214及び近赤外線撮像領域218の全面を覆うように、かつ第1の偏光フィルタ214の撮像レンズ211側に、第1の可視光カットフィルタ213が第1のCCD212に取り付けられる。   The first polarizing filter 214 is an optical filter that transmits only light having a specific polarization state. The first visible light cut filter (near-infrared transmission filter) 213 is an optical filter that does not transmit visible light but transmits only near-infrared light included in infrared light, and forms an invisible light image capturing filter. The first polarizing filter 214 is attached to the first CCD 212 so as to cover the entire surface of the near infrared imaging region 218. A first visible light cut filter 213 is attached to the first CCD 212 so as to cover the entire surface of the first polarizing filter 214 and the near-infrared imaging region 218 and on the imaging lens 211 side of the first polarizing filter 214. It is done.

第1の赤外カットフィルタ215は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであって、カラー画像撮像用フィルタを成す。光路長調整フィルタ216は、透過する光の光路長を調整するために設けられるフィルタであり、全ての波長の光を透過する。光路長調整フィルタ216は、可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。そして、光路長調整フィルタ216の撮像レンズ211側に、第1の赤外カットフィルタ215が光路長調整フィルタ及び可視光線撮像領域219の全面を覆うように第1のCCD212に取り付けられる。光路長調整フィルタ216の屈折率や厚さは、第1の赤外カットフィルタ215及び光路長調整フィルタ216による光路長が、第1の可視光カットフィルタ213及び第1の偏光フィルタ214による光路長と等しくなるように、各フィルタの屈折率や厚さを加味して調整される。   The first infrared cut filter 215 is a filter that does not transmit infrared light but transmits light having other frequencies, and forms a color image capturing filter. The optical path length adjustment filter 216 is a filter that is provided to adjust the optical path length of transmitted light, and transmits light of all wavelengths. The optical path length adjustment filter 216 is attached to the first CCD 212 so as to cover the entire surface of the visible light imaging region 219. Then, on the imaging lens 211 side of the optical path length adjustment filter 216, the first infrared cut filter 215 is attached to the first CCD 212 so as to cover the entire surface of the optical path length adjustment filter and the visible light imaging region 219. The refractive index and thickness of the optical path length adjustment filter 216 are set such that the optical path length by the first infrared cut filter 215 and the optical path length adjustment filter 216 is the optical path length by the first visible light cut filter 213 and the first polarization filter 214. Is adjusted in consideration of the refractive index and thickness of each filter.

第1の撮像装置210は、例えば、高速道路の走行車線監視のために走行車線上方に設置され、遠方から接近する車を撮影する。第1の撮像面217上に結像する被写体像の天地は、撮像レンズ211の機能により被写体の天地と反転する。そのため、被写体、例えば走行して接近してくる車が、第1の撮像装置210に対して比較的遠方に位置しているときは、車の被写体像は下方の可視光線撮像領域219に位置する。そして、車が接近してきて、第1の撮像装置210に対して比較的近距離に位置すると、車の被写体像は上方の近赤外線撮像領域218に位置する。これにより、比較的遠方に位置する被写体に関してはカラー画像が得られ、比較的近距離に位置する被写体に関しては赤外線撮影画像が得られる(図3参照)。   For example, the first imaging device 210 is installed above the traveling lane for monitoring the traveling lane of an expressway, and photographs a vehicle approaching from a distance. The top and bottom of the subject image formed on the first imaging surface 217 is inverted from the top and bottom of the subject by the function of the imaging lens 211. For this reason, when a subject, for example, a car that travels and approaches, is located relatively far from the first imaging device 210, the subject image of the car is located in the visible light imaging region 219 below. . When the vehicle approaches and is positioned at a relatively short distance from the first imaging device 210, the subject image of the vehicle is positioned in the upper near infrared imaging region 218. Thereby, a color image is obtained for a subject located relatively far away, and an infrared image is obtained for a subject located relatively short distance (see FIG. 3).

車両検出部230は、第1の撮像装置210の撮像可能範囲内であって、近赤外線撮像領域218に結像する被写体像の位置を検出可能な場所に取り付けられるループコイルであり、車両の通過を検知する。端末演算部220及び近赤外照明部240と電気的に接続され、車両を検出したとき端末演算部220及び近赤外照明部240に車両検出信号を送信する。   The vehicle detection unit 230 is a loop coil that is attached to a location within the imaging range of the first imaging device 210 and capable of detecting the position of the subject image formed in the near-infrared imaging region 218, and passes through the vehicle. Is detected. The terminal calculation unit 220 and the near-infrared illumination unit 240 are electrically connected, and a vehicle detection signal is transmitted to the terminal calculation unit 220 and the near-infrared illumination unit 240 when a vehicle is detected.

近赤外照明部240は、道路を走行する車両を照明可能な場所、かつ近赤外線撮像領域218に結像する被写体像を照明可能な位置、例えば路側帯や道路上のフリーフロー型ゲートに設けられる。車両検出部230から車両検出信号を受信したとき、近赤外光を車両に向けて照射する。   The near-infrared illumination unit 240 is provided in a place where a vehicle traveling on a road can be illuminated and a position where a subject image formed in the near-infrared imaging region 218 can be illuminated, for example, a free-flow gate on a roadside band or road It is done. When a vehicle detection signal is received from the vehicle detection unit 230, near infrared light is emitted toward the vehicle.

端末演算部220は、車両検出部230から車両検出信号を、また第1のCCD212から動画を受信して、画像処理を行う。画像処理では、後述する蛇行記録処理、路側帯通行記録処理、車色記録処理、車種記録処理を実行する。これらの記録処理において、端末演算部220は、近赤外線撮像領域218に結像した自動車登録番号標又は車両番号標(いわゆるナンバープレート)及び運転者を撮像して静止画を作成し、端末記録部250に送信する。   The terminal calculation unit 220 receives a vehicle detection signal from the vehicle detection unit 230 and a moving image from the first CCD 212 and performs image processing. In the image processing, meandering recording processing, roadside band traffic recording processing, vehicle color recording processing, and vehicle type recording processing described later are executed. In these recording processes, the terminal calculation unit 220 images the automobile registration number mark or vehicle number mark (so-called license plate) imaged in the near-infrared imaging region 218 and the driver to create a still image, and the terminal recording unit 250.

端末記録部250は、ハードディスク、あるいはDRAMなどの半導体記憶装置からなる記憶手段であって、第1の撮像装置210から受信した動画や端末演算部220から受信した静止画を一時的に記憶する。   The terminal recording unit 250 is a storage unit including a semiconductor storage device such as a hard disk or a DRAM, and temporarily stores a moving image received from the first imaging device 210 and a still image received from the terminal calculation unit 220.

端末通信制御部260は、有線あるいは無線通信により、中央制御機300と電気的に接続される。そして、端末記録部250が記録している静止画及び動画のうち、各記録処理において後述する条件に合致するものを中央制御機300に送信する。   The terminal communication control unit 260 is electrically connected to the central controller 300 by wired or wireless communication. Then, among the still images and moving images recorded by the terminal recording unit 250, those that meet the conditions described later in each recording process are transmitted to the central controller 300.

中央制御機300が備える中央通信制御部310は、静止画及び動画を受信し、中央記録部330に送信する。また、端末通信制御部260から静止画あるいは動画を受信したときに、アラーム320に警報信号を送信する。   The central communication control unit 310 included in the central controller 300 receives still images and moving images and transmits them to the central recording unit 330. When a still image or a moving image is received from the terminal communication control unit 260, an alarm signal is transmitted to the alarm 320.

中央記録部330は、ハードディスク等の記録手段であって、中央通信制御部310から受信した静止画及び動画を記録する。   The central recording unit 330 is a recording unit such as a hard disk, and records still images and moving images received from the central communication control unit 310.

アラーム320は、スピーカ、ディスプレイ、あるいは警告灯であって、中央通信制御部310から警報信号を受信したとき、警告音を発したり、警告画像を表示したり、警告光を明滅したりする。   The alarm 320 is a speaker, a display, or a warning light. When an alarm signal is received from the central communication control unit 310, the alarm 320 emits a warning sound, displays a warning image, or blinks a warning light.

中央演算部340は、静止画に含まれるナンバープレートから車両の自動車登録番号等を読み出して、監視対象登録番号と一致するか否かを判断する。   The central processing unit 340 reads the vehicle registration number of the vehicle from the license plate included in the still image, and determines whether or not it matches the monitoring target registration number.

次に、図4及び5を用いて蛇行記録処理について説明する。蛇行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the meandering recording process will be described with reference to FIGS. The meander recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start photographing.

ステップS401において、蛇行イニシャルセット処理が実行される。蛇行イニシャルセット処理は、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出し、抽出した走行車線エリアに車線番号を割り当て、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。なお、走行車線は、道路上において白線や黄線などにより所定の幅で区切られた、車両が通行する領域をいう。また、動画から1つのフレームを抽出する作業をキャプチャと呼び、蛇行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S401, a meandering initial setting process is executed. In the meandering initial set process, an area occupied by the travel lane, that is, a travel lane area is extracted from the image captured by the first imaging device 210, a lane number is assigned to the extracted travel lane area, and one frame is extracted from the moving image. The details will be described later. The traveling lane refers to an area on which a vehicle passes on a road, which is divided by a white line, a yellow line, or the like with a predetermined width. The operation of extracting one frame from the moving image is called capture, and the frame captured in the meandering initial set process is called the 0th frame.

ステップS402では、車線変更回数パラメータmに0を代入して初期化する。車線変更回数パラメータmは、観察対象となった車両が行った車線変更の数を示すパラメータである。   In step S402, initialization is performed by assigning 0 to the lane change count parameter m. The lane change frequency parameter m is a parameter indicating the number of lane changes made by the vehicle that is the observation target.

ステップS403では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S403, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS404では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S404, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS405では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S405, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS406では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。この特定作業をマーキングと呼ぶ。   In step S406, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time. This specific operation is called marking.

ステップS407では、ステップS406においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。   In step S407, the travel lane area where the moving body marked in step S406 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the mobile body is currently located is specified.

ステップS408では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。そして、フレームをキャプチャするたびに、フレーム番号パラメータnを1つ増やす。これにより、ステップS404においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S408, one frame is captured from the moving image output from the first imaging device 210. Each time a frame is captured, the frame number parameter n is incremented by one. Thus, three frames are captured together with the two frames captured in step S404. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS409では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S409, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS410では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S410, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS411では、ステップS410においてマーキングした移動体が位置する走行車線エリアとその走行車線エリアの車線番号を算出する。これにより、移動体が現在位置する走行車線を特定する。   In step S411, the travel lane area where the moving body marked in step S410 is located and the lane number of the travel lane area are calculated. Thereby, the traveling lane in which the moving body is currently located is specified.

ステップS412では、ステップS407において算出した車線番号と、ステップS411において算出した車線番号とが異なるかを判断する。異なる場合、処理はステップS413に進む。同じ場合、処理はステップS414に進む。   In step S412, it is determined whether the lane number calculated in step S407 is different from the lane number calculated in step S411. If they are different, the process proceeds to step S413. If they are the same, the process proceeds to step S414.

ステップS413では、車線変更回数パラメータmを1だけ増やす。ステップS412において、車線番号が異なる場合、移動体が走行車線を変更したと考えられるためである。   In step S413, the lane change count parameter m is increased by one. This is because if the lane number is different in step S412, it is considered that the moving body has changed the traveling lane.

ステップS414では、車線変更回数パラメータmが最大車線変更回数mMAX以上であるか否かを判断する。最大車線変更回数mMAXは、移動体に許される車線変更回数の最大値であり、蛇行記録処理を実行する前にユーザが決定する。車線変更回数パラメータmが最大車線変更回数mMAX以上である場合、処理はステップS415に進み、そうでない場合、処理はステップS408に進む。   In step S414, it is determined whether or not the lane change number parameter m is equal to or greater than the maximum lane change number mMAX. The maximum number of lane changes mMAX is the maximum value of the number of lane changes allowed for the moving body, and is determined by the user before executing the meander recording process. If the lane change number parameter m is greater than or equal to the maximum lane change number mMAX, the process proceeds to step S415; otherwise, the process proceeds to step S408.

ステップS415では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての走行車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S415, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all travel lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS416では、ステップS415においてキャプチャした全てのフレームを、端末通信制御部260を介して中央制御機300へ送信させる。中央制御機300では、受信した全てのフレームが中央記録部330に記憶される。そして、処理が終了する。   In step S416, all the frames captured in step S415 are transmitted to the central controller 300 via the terminal communication control unit 260. In the central controller 300, all received frames are stored in the central recording unit 330. Then, the process ends.

蛇行イニシャルセット処理について説明する。   The meandering initial setting process will be described.

ステップS501では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。   In step S501, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the first imaging device 210. The travel lane area is recognized when the terminal calculation unit 220 performs image processing on a white line or a yellow line that separates the travel lane and the travel lane. Further, in order to detect a vehicle passing through the roadside belt, the roadside belt is also recognized as one traveling lane area.

次のステップS502では、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。   In the next step S502, a number is assigned to the extracted travel lane area. When the image shown in FIG. 3 is obtained, the roadside zone located on the right side of the traveling lane in which the vehicle imaged in the near-infrared image is present is the lane number L1, and the rightmost image in which the vehicle imaged in the near-infrared image is present. Is the lane number L2, the left lane is the lane number L3, and the leftmost lane where there is no imaged vehicle is the lane number L4.

次のステップS503では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして、処理が終了する。   In the next step S503, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.

蛇行記録処理によれば、車線変更を最大車線変更回数mMAX以上繰り返す車両を自動的に撮像及び記録することができる。   According to the meander recording process, it is possible to automatically image and record a vehicle that repeats the lane change for the maximum number of lane changes mMAX or more.

次に、図6及び7を用いて路側帯通行記録処理について説明する。路側帯通行記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the roadside band traffic recording process will be described with reference to FIGS. The roadside band traffic recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS601において、通行イニシャルセット処理が実行される。通行イニシャルセット処理は、走行車線エリアに車線番号を割り当て、最大路側帯通行回数mMAXを設定し、動画から1つのフレームを抽出し、そして路側帯を認識する処理であり、詳細に関しては後述される。最大路側帯通行回数mMAXは、移動体が路側帯を通行した回数、より詳しくは期間の最大値であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S601, a pass initial setting process is executed. The traffic initial setting process is a process of assigning a lane number to the traveling lane area, setting the maximum roadside band traffic count mMAX, extracting one frame from the moving image, and recognizing the roadside band, which will be described in detail later. . The maximum roadside band traffic number mMAX is the number of times the mobile body has passed the roadside band, more specifically the maximum value of the period, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.

ステップS602では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、観察対象となった車両が路側帯を通行した回数、より詳しくは期間を示すパラメータである。   In step S602, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation count parameter m is a parameter indicating the number of times that the vehicle to be observed has passed the roadside belt, more specifically, the period.

ステップS603では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S603, initialization is performed by assigning 1 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS604では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S604, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS605では、0番目のフレームまたはn番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S605, the difference P between the 0th frame or the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS606では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S606, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS607では、フレーム番号パラメータnを1増やす。   In step S607, the frame number parameter n is incremented by one.

ステップS608では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS604においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S608, one frame is captured from the moving image output by the first imaging device 210. As a result, three frames are captured together with the two frames captured in step S604. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS609では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S609, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS610では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S610, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS611では、フレーム番号パラメータnを1増やす。   In step S611, the frame number parameter n is incremented by one.

ステップS612では、移動体が路側帯に位置するか否かを判断する。判断は、ステップS610においてマーキングされた移動体が路側帯に相当する走行車線エリア内に存在するか否かを画像処理することにより決定する。移動体が路側帯に位置する場合、処理はステップS613に進み、そうでない場合、処理はステップS608に戻る。   In step S612, it is determined whether or not the mobile object is located in the roadside band. The determination is made by performing image processing to determine whether or not the moving body marked in step S610 is present in the travel lane area corresponding to the roadside zone. If the moving body is located in the roadside belt, the process proceeds to step S613; otherwise, the process returns to step S608.

ステップS613では、確認回数パラメータmを1増やす。ステップS612において、移動体が路側帯に位置するためである。   In step S613, the confirmation count parameter m is incremented by one. This is because the moving body is located in the roadside band in step S612.

ステップS614では、確認回数パラメータmが最大路側帯通行確認回数mMAX以上であるか否かを判断する。フレームは所定の周期で取得されるため、路側帯に位置する移動体を撮像したフレームの数を数えることにより、移動体が路側帯に存在する時間を測定することができる。確認回数パラメータmが最大路側帯通行確認回数mMAX以上である場合、処理はステップS615に進み、そうでない場合、処理はステップS608に戻る。   In step S614, it is determined whether or not the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX. Since the frames are acquired at a predetermined cycle, the time during which the moving body exists in the roadside band can be measured by counting the number of frames obtained by imaging the moving body located in the roadside band. If the confirmation count parameter m is equal to or greater than the maximum roadside band traffic confirmation count mMAX, the process proceeds to step S615; otherwise, the process returns to step S608.

ステップS615では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS616に進み、そうでない場合、処理はステップS608に戻る。   In step S615, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S616; otherwise, the process returns to step S608.

ステップS616では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S616, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS617では、ステップS616においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S617, all the frames captured in step S616 are transmitted to the central controller 300 by the terminal communication control unit 260. Then, the process ends.

通行イニシャルセット処理について説明する。   The traffic initial set process will be described.

ステップS701では、第1の撮像装置210が撮像した画像において、走行車線が占める領域、すなわち走行車線エリアを抽出する。走行車線エリアは、走行車線と走行車線とを区切る白線又は黄線を端末演算部220が画像処理を行うことにより認識される。また、路側帯を通行する車両を検知するため、路側帯も1つの走行車線エリアとして認識される。そして、抽出した走行車線エリアに番号を割り当てる。図3に示される画像を得る場合、近赤外映像で撮像された車両が存在する走行車線の右側に位置する路側帯を車線番号L1、近赤外映像で撮像された車両が存在する最も右の走行車線を車線番号L2、その左の走行車線を車線番号L3、撮像された車両が存在しない最も左に位置する走行車線を車線番号L4とする。   In step S701, the area occupied by the travel lane, that is, the travel lane area is extracted from the image captured by the first imaging device 210. The travel lane area is recognized when the terminal calculation unit 220 performs image processing on a white line or a yellow line that separates the travel lane and the travel lane. Further, in order to detect a vehicle passing through the roadside belt, the roadside belt is also recognized as one traveling lane area. Then, a number is assigned to the extracted travel lane area. When the image shown in FIG. 3 is obtained, the roadside zone located on the right side of the traveling lane in which the vehicle imaged in the near-infrared image is present is the lane number L1, and the rightmost image in which the vehicle imaged in the near-infrared image is present. Is the lane number L2, the left lane is the lane number L3, and the leftmost lane where there is no imaged vehicle is the lane number L4.

ステップS702では、最大路側帯通行確認回数mMAXを取得する。   In step S702, the maximum roadside band traffic confirmation count mMAX is acquired.

次のステップS703では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。   In the next step S703, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object.

ステップS704では、路側帯を構成するエリアを路側帯エリアとして認識する。そして、処理が終了する。   In step S704, the area constituting the roadside belt is recognized as the roadside belt area. Then, the process ends.

路側帯通行記録処理によれば、最大路側帯通行確認回数mMAX以上路側帯に存在する車両を自動的に撮像及び記録することができる。   According to the roadside band traffic recording process, it is possible to automatically capture and record a vehicle existing in the roadside band for the maximum roadside band traffic confirmation count mMAX or more.

次に、図8及び9を用いて車色記録処理について説明する。車色記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the vehicle color recording process will be described with reference to FIGS. The vehicle color recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS801において、車色イニシャルセット処理が実行される。車色イニシャルセット処理は、検出対称となる車色を設定する処理であり、詳細に関しては後述される。検出対称となる車色は、ユーザにより決定される。   In step S801, a vehicle color initial set process is executed. The vehicle color initial set process is a process for setting a vehicle color that is symmetrical to the detection, and will be described in detail later. The vehicle color that becomes detection symmetry is determined by the user.

ステップS802では、フレーム番号パラメータnに0を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S802, initialization is performed by assigning 0 to the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS803では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S803, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS804では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S804, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object.

ステップS805では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S805, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS806では、マーキングした移動体に関して算出した論理積Rに対しn+1番目のフレームを加算して、色情報を有する色認識画像Cを算出する。   In step S806, the n + 1-th frame is added to the logical product R calculated for the marked moving body to calculate a color recognition image C having color information.

ステップS807では、移動体の車色が検索対象の車色(目的色)と一致するか否かを判断する。移動体の車色が検索対象の色と合致する場合、処理がステップS808に進み、そうでない場合、処理はステップS802に戻る。   In step S807, it is determined whether or not the vehicle color of the moving object matches the vehicle color (target color) to be searched. If the vehicle color of the moving object matches the color to be searched, the process proceeds to step S808; otherwise, the process returns to step S802.

ステップS808では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。ここでキャプチャされるフレームはカラー画像である。これにより、カラー画像を端末記録部250に記録し、移動体の車体の色を認識することができる。   In step S808, one frame is captured from the moving image output by the first imaging device 210. The frame captured here is a color image. Thereby, a color image is recorded in the terminal recording part 250, and the color of the vehicle body of a moving body can be recognized.

ステップS809では、フレーム番号パラメータnを1増やす。   In step S809, the frame number parameter n is incremented by one.

ステップS810では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS803及びS808においてキャプチャした3つのフレームと合わせて、4つのフレームがキャプチャされていることになる。このうち、直近にキャプチャされた3つのフレームを用いて、以下の処理を行う。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S810, one frame is captured from the moving image output by the first imaging device 210. As a result, four frames are captured together with the three frames captured in steps S803 and S808. Of these, the following processing is performed using the three most recently captured frames. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS811では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S811, the difference S between the nth frame and the (n + 1) th frame and the difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS812では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S812, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS813では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS814に進み、そうでない場合、処理はステップS809に戻る。   In step S813, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S814; otherwise, the process returns to step S809.

ステップS814では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S814, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS815では、ステップS814においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S815, all the frames captured in step S814 are transmitted to the central controller 300 by the terminal communication control unit 260. Then, the process ends.

車色イニシャルセット処理について説明する。   The car color initial set process will be described.

ステップS901では、検出対称となる車色をユーザが設定する。車色は、HSV(色相、彩度、明度)、RGB(赤、緑、青)色空間などを用いて設定される。ユーザが設定した後に、処理が終了する。   In step S901, the user sets a vehicle color that is symmetrical to the detection. The vehicle color is set using HSV (hue, saturation, brightness), RGB (red, green, blue) color space, or the like. After the user sets, the process ends.

車色記録処理によれば、所望の車色を有する車両を自動的に撮像及び記録することができる。   According to the vehicle color recording process, a vehicle having a desired vehicle color can be automatically imaged and recorded.

次に、図10及び11を用いて車種記録処理について説明する。車種記録処理は、第1の端末装置200が撮影を開始可能となったときに、端末演算部220が実行を開始する。   Next, the vehicle type recording process will be described with reference to FIGS. The vehicle type recording process is started by the terminal calculation unit 220 when the first terminal device 200 can start shooting.

ステップS1001において、車種イニシャルセット処理が実行される。車種イニシャルセット処理は、車種情報を設定し、最大車種検出回数mMAXを設定し、動画から1つのフレームを抽出する処理であり、詳細に関しては後述される。最大車種検出回数mMAXは、所望の車種(目的車種)に該当する移動体を撮像したフレームの数であり、ユーザが決定する。なお、通行イニシャルセット処理においてキャプチャしたフレームを0番目のフレームと呼ぶ。   In step S1001, a vehicle type initial set process is executed. The vehicle type initial set process is a process of setting the vehicle type information, setting the maximum vehicle type detection count mMAX, and extracting one frame from the moving image, and will be described in detail later. The maximum vehicle type detection count mMAX is the number of frames in which a moving body corresponding to a desired vehicle type (target vehicle type) is imaged, and is determined by the user. Note that the frame captured in the passing initial set process is referred to as the 0th frame.

ステップS1002では、確認回数パラメータmに0を代入して初期化する。確認回数パラメータmは、所望の車種に該当する移動体を撮像した回数を示すパラメータである。   In step S1002, initialization is performed by substituting 0 for the confirmation count parameter m. The confirmation number parameter m is a parameter indicating the number of times a moving body corresponding to a desired vehicle type is imaged.

ステップS1003では、フレーム番号パラメータnに1を代入して初期化する。フレーム番号パラメータnは、第1の撮像装置210が出力した動画に含まれるフレームに対し、連続的に割り振られる番号である。   In step S1003, initialization is performed by substituting 1 into the frame number parameter n. The frame number parameter n is a number that is continuously assigned to frames included in the moving image output by the first imaging device 210.

ステップS1004では、n+1番目及びn+2番目のフレームを動画からキャプチャする。n+2番目のフレームは、n+1番目のフレームから所定時間後に取得したフレームである。所定時間は、例えば0.1秒である。   In step S1004, the (n + 1) th and n + 2th frames are captured from the moving image. The (n + 2) th frame is a frame acquired after a predetermined time from the (n + 1) th frame. The predetermined time is, for example, 0.1 seconds.

ステップS1005では、n番目のフレームとn+1番目のフレームとの差分P、及びn+2番目のフレームとn+1番目のフレームとの差分Qを算出する。これにより、特定のフレームとそのフレームから所定時間後のフレームとの間で異なる値を持つ画素が抽出される。フレーム間で異なる画素は、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体を表現する。   In step S1005, the difference P between the nth frame and the (n + 1) th frame and the difference Q between the (n + 2) th frame and the (n + 1) th frame are calculated. Thereby, pixels having different values are extracted between a specific frame and a frame after a predetermined time from the frame. Pixels that differ between frames represent a subject image that has moved from the moment of capturing a specific frame to the moment of capturing a frame after a predetermined time, that is, a moving object.

ステップS1006では、差分P及び差分Qを所定の閾値を用いて二値化する。そして、二値化された差分Pと二値化された差分Qとの論理積Rをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Pと差分Qとの論理積Rをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体を特定することができる。   In step S1006, the difference P and the difference Q are binarized using a predetermined threshold. Then, the logical product R of the binarized difference P and the binarized difference Q is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product R of the binarized difference P and difference Q, it is possible to specify a moving body included in a specific frame and a frame after a predetermined time.

ステップS1007では、フレーム番号パラメータnを1増やす。   In step S1007, the frame number parameter n is incremented by one.

ステップS1008では、第1の撮像装置210が出力した動画からフレームを1つキャプチャする。これにより、ステップS1004においてキャプチャした2つのフレームと合わせて、3つのフレームがキャプチャされていることになる。以下、直近にキャプチャされたフレームをn+2番目のフレーム、次の直近にキャプチャされたフレームをn+1番目のフレーム、さらに次の直近にキャプチャされたフレームをn番目のフレームとして説明する。   In step S1008, one frame is captured from the moving image output by the first imaging device 210. As a result, three frames are captured together with the two frames captured in step S1004. In the following description, it is assumed that the most recently captured frame is the (n + 2) th frame, the next most recently captured frame is the (n + 1) th frame, and the next most recently captured frame is the nth frame.

ステップS1009では、フレーム番号パラメータnを1増やす。   In step S1009, the frame number parameter n is incremented by one.

ステップS1010では、n番目のフレームとn+1番目のフレームとの差分S、及びn+2番目のフレームとn+1番目のフレームとの差分Tを算出する。これにより、特定のフレームを撮像した瞬間から所定時間後のフレームを撮像した瞬間までの間に移動した被写体像、すなわち移動体が抽出される。   In step S1010, a difference S between the nth frame and the (n + 1) th frame and a difference T between the (n + 2) th frame and the (n + 1) th frame are calculated. As a result, a subject image that has moved from the moment when a specific frame is imaged to the moment when a frame after a predetermined time is imaged, that is, a moving object is extracted.

ステップS1011では、差分S及び差分Tを所定の閾値を用いて二値化する。そして、二値化された差分Sと二値化された差分Tとの論理積Uをとる。所定の閾値を用いて二値化することにより、移動体を表現しない画素、すなわちノイズを除去することができる。二値化された差分Sと差分Tとの論理積Uをとることにより、特定のフレームと所定時間後のフレームとに含まれる移動体をマーキングすることができる。   In step S1011, the difference S and the difference T are binarized using a predetermined threshold. Then, the logical product U of the binarized difference S and the binarized difference T is calculated. By binarizing using a predetermined threshold, pixels that do not represent a moving object, that is, noise can be removed. By taking the logical product U of the binarized difference S and difference T, it is possible to mark a moving body included in a specific frame and a frame after a predetermined time.

ステップS1012では、移動体が所望の車種に該当するか否かを判断する。判断は、ステップS1010においてマーキングされた移動体が目的車種に該当するか否かを画像処理することにより決定する。移動体が目的車種に該当する場合、処理はステップS1013に進み、そうでない場合、処理はステップS1014に進む。   In step S1012, it is determined whether or not the mobile object corresponds to a desired vehicle type. The determination is made by performing image processing on whether or not the mobile object marked in step S1010 corresponds to the target vehicle type. If the mobile object corresponds to the target vehicle type, the process proceeds to step S1013; otherwise, the process proceeds to step S1014.

ステップS1013では、確認回数パラメータmを1増やす。ステップS1012において、移動体が目的車種に該当するためである。   In step S1013, the confirmation count parameter m is incremented by one. This is because the mobile body corresponds to the target vehicle type in step S1012.

ステップS1014では、確認回数パラメータmが最大車種検出回数mMAX以上であるか否かを判断する。目的車種に該当する移動体を撮像したフレームの数を数え、その数が最大車種検出回数mMAX以上であるときに、移動体が目的車種に該当すると判断する。これにより、目的車種検出の確度を上げることができる。確認回数パラメータmが最大車種検出回数mMAX以上である場合、処理はステップS1015に進み、そうでない場合、処理はステップS1008に戻る。   In step S1014, it is determined whether or not the confirmation number parameter m is equal to or greater than the maximum vehicle type detection number mMAX. The number of frames in which the moving object corresponding to the target vehicle type is imaged is counted, and it is determined that the moving object corresponds to the target vehicle type when the number is equal to or greater than the maximum vehicle type detection count mMAX. Thereby, the accuracy of target vehicle type detection can be raised. If the confirmation count parameter m is equal to or greater than the maximum vehicle type detection count mMAX, the process proceeds to step S1015; otherwise, the process returns to step S1008.

ステップS1015では、車両検出部230からの信号を用いて、移動体が撮影ポイントに位置するか否かを判断する。車両検出部230を成すループコイルを撮影ポイントに設置し、ループコイルが送信した車両検出信号を受信したときに、移動体が撮影ポイントに位置すると判断する。移動体が撮影ポイントに位置する場合、処理がステップS1016に進み、そうでない場合、処理はステップS1008に戻る。   In step S1015, it is determined using the signal from the vehicle detection unit 230 whether the moving body is located at the shooting point. When the loop coil that forms the vehicle detection unit 230 is installed at the photographing point and a vehicle detection signal transmitted by the loop coil is received, it is determined that the moving body is located at the photographing point. If the moving body is located at the shooting point, the process proceeds to step S1016; otherwise, the process returns to step S1008.

ステップS1016では、第1の撮像装置210から受信した動画から複数のフレームをキャプチャする。移動体が行った全ての車線変更を記録するように、複数のフレームの撮像間隔及び枚数が決定される。本実施形態においては、0.1秒ごとに10枚のフレームをキャプチャする。   In step S1016, a plurality of frames are captured from the moving image received from the first imaging device 210. The imaging intervals and the number of frames are determined so as to record all lane changes made by the moving body. In the present embodiment, 10 frames are captured every 0.1 second.

ステップS1017では、ステップS1016においてキャプチャした全てのフレームを端末通信制御部260に中央制御機300へ送信させる。そして、処理が終了する。   In step S1017, the terminal communication control unit 260 transmits all frames captured in step S1016 to the central controller 300. Then, the process ends.

車種イニシャルセット処理について説明する。   The vehicle type initial set process will be described.

ステップS1101では、検出対称となる車種をユーザが入力する。   In step S1101, the user inputs a vehicle type that is symmetrical to the detection.

ステップS1102では、最大車種検出回数mMAXを取得する。   In step S1102, the maximum vehicle type detection count mMAX is acquired.

次のステップS1103では、動画から1つのフレームを抽出する。あらかじめ観察対象が存在しない走行車線を撮像しておくことにより、移動体の検出を容易にする。そして処理が終了する。   In the next step S1103, one frame is extracted from the moving image. By capturing an image of a traveling lane in which an observation target does not exist in advance, it is easy to detect a moving object. Then, the process ends.

車種記録処理によれば、所望の車種に該当する車両を自動的に撮像及び記録することができる。   According to the vehicle type recording process, a vehicle corresponding to a desired vehicle type can be automatically imaged and recorded.

本実施形態によれば、移動体の移動を監視しながら、移動体の詳細な画像を撮像することが可能となる。   According to the present embodiment, it is possible to capture a detailed image of the moving body while monitoring the movement of the moving body.

なお、本実施形態では、図2に示すように、撮像レンズ211の光軸が通る位置を境に近赤外線撮像領域218と可視光線撮像領域219とを2等分割したが、目的や撮影状況に応じて、一方の撮像領域の割合を大きくしてもよい。   In the present embodiment, as shown in FIG. 2, the near-infrared imaging region 218 and the visible light imaging region 219 are divided into two equal parts at the position where the optical axis of the imaging lens 211 passes. Accordingly, the ratio of one imaging region may be increased.

また、移動体が撮影ポイントに位置するか否かの判別処理としてループコイルの受信信号を用いたが、これに代わって、抽出した移動体の像の撮像素子面上での移動速度及び移動方向を算出し、この移動速度および移動方向に基づいて、近赤外線撮像領域218内の撮影ポイントに対応する領域に達するタイミングを予測して、近赤外線撮影を行うようにしても良い。   In addition, the received signal of the loop coil is used as a process for determining whether or not the moving body is located at the shooting point. Instead, the moving speed and moving direction of the extracted moving body image on the image sensor surface are used. May be calculated, and near-infrared imaging may be performed by predicting the timing of reaching the area corresponding to the imaging point in the near-infrared imaging area 218 based on the moving speed and the moving direction.

次に、本発明による第2の実施形態について、図12及び13を用いて説明する。第1の実施形態と同様の構成については同じ符号を付して説明を省略する。   Next, a second embodiment according to the present invention will be described with reference to FIGS. The same components as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

第2の撮像システム400は、被写体像を撮像可能な位置に設けられる第2の端末装置500と、第2の端末装置500と離れた位置に設けられる中央制御機300を備える。   The second imaging system 400 includes a second terminal device 500 provided at a position where a subject image can be captured, and a central controller 300 provided at a position away from the second terminal device 500.

第2の端末装置500は、第2の撮像装置510と、端末演算部220と、車両検出部230と、近赤外照明部240と、端末記録部250と、端末通信制御部260とを備える。   The second terminal device 500 includes a second imaging device 510, a terminal calculation unit 220, a vehicle detection unit 230, a near infrared illumination unit 240, a terminal recording unit 250, and a terminal communication control unit 260. .

第2の撮像装置510は、撮像レンズ211と、撮像素子である第2のCCD512及び第3のCCD515と、赤外画像撮像用フィルタである第2の可視光カットフィルタ516と、第2の偏光フィルタ517と、カラー画像撮像用フィルタである第2の赤外カットフィルタ514と、ハーフミラー513とを備える。   The second imaging device 510 includes an imaging lens 211, a second CCD 512 and a third CCD 515 that are imaging elements, a second visible light cut filter 516 that is an infrared imaging filter, and a second polarization. A filter 517, a second infrared cut filter 514 that is a color image capturing filter, and a half mirror 513 are provided.

第2及び第3のCCD512、515は、1メガピクセルクラス以上の画素数を有するとともに、撮像レンズ211からの被写体像が結像する長方形の第2及び第3の撮像面519、520を各々有する。   The second and third CCDs 512 and 515 have a number of pixels of 1 megapixel class or more and have rectangular second and third imaging surfaces 519 and 520 on which the subject image from the imaging lens 211 is formed. .

撮像レンズ211の光軸方向が第2の撮像面519の短辺方向と平行となるように、かつ第2の端末装置500の重力方向が第2の撮像面519と直角となるように、第2の端末装置500の内部に第2のCCD512が設けられる。また、撮像レンズ211の光軸方向が第3の撮像面520と直角となるように、かつ第2の端末装置500の重力方向が第3の撮像面520の短辺方向と一致するように、第2の端末装置500の内部に第3のCCD515が設けられる。第2の撮像面519が可視光線撮像領域を成し、第3の撮像面520が近赤外線撮像領域を成す。第2及び第3のCCD512、515は、第2及び第3の撮像面519、520、すなわち可視光線撮像領域519及び近赤外線撮像領域520に結像した被写体像を同時に撮像する。第2及び第3のCCD512、515は1秒間に10フレームから成る動画を端末演算部220及び端末記録部250に出力する。   The second lens unit 500 is arranged so that the optical axis direction of the imaging lens 211 is parallel to the short side direction of the second imaging surface 519 and the gravity direction of the second terminal device 500 is perpendicular to the second imaging surface 519. A second CCD 512 is provided inside the second terminal device 500. Further, the optical axis direction of the imaging lens 211 is perpendicular to the third imaging surface 520, and the gravity direction of the second terminal device 500 is coincident with the short side direction of the third imaging surface 520. A third CCD 515 is provided inside the second terminal device 500. The second imaging surface 519 forms a visible light imaging region, and the third imaging surface 520 forms a near infrared imaging region. The second and third CCDs 512 and 515 simultaneously capture the subject images formed on the second and third imaging surfaces 519 and 520, that is, the visible light imaging region 519 and the near infrared imaging region 520. The second and third CCDs 512 and 515 output a moving image of 10 frames per second to the terminal calculation unit 220 and the terminal recording unit 250.

第2の偏光フィルタ517は、特定の偏光状態を有する光のみを透過する光学フィルタであり、近赤外線撮像領域520の全面を覆うように第3のCCD515に取り付けられる。   The second polarizing filter 517 is an optical filter that transmits only light having a specific polarization state, and is attached to the third CCD 515 so as to cover the entire surface of the near-infrared imaging region 520.

第2の可視光カットフィルタ516は、赤外線に含まれる近赤外線のみを透過する光学フィルタである。第2の偏光フィルタ517の撮像レンズ211側に、第2の可視光カットフィルタ516が第2の偏光フィルタ517の全面を覆うように取り付けられる。   The second visible light cut filter 516 is an optical filter that transmits only near infrared rays included in infrared rays. A second visible light cut filter 516 is attached to the imaging lens 211 side of the second polarizing filter 517 so as to cover the entire surface of the second polarizing filter 517.

第2の赤外カットフィルタ514は、赤外線を透過せず、その他の周波数を有する光を透過するフィルタであり、可視光線撮像領域519の全面を覆うように第2のCCD512に取り付けられる。第2の赤外カットフィルタ514の屈折率あるいは厚さは、第2の赤外カットフィルタ514による光路長が、第2の可視光カットフィルタ516及び第2の偏光フィルタ517による光路長と等しくなるように調整される。   The second infrared cut filter 514 is a filter that does not transmit infrared light but transmits light having other frequencies, and is attached to the second CCD 512 so as to cover the entire surface of the visible light imaging region 519. The refractive index or thickness of the second infrared cut filter 514 is such that the optical path length by the second infrared cut filter 514 is equal to the optical path length by the second visible light cut filter 516 and the second polarizing filter 517. To be adjusted.

ハーフミラー513は、光路上であって、撮像レンズ211と第2のCCD512及び第3のCCD515との間に、撮像レンズ211の光軸に対して45度となるように設けられる。ハーフミラー513は、入射した光の半分を反射し、残りの半分を透過する。遠景からの光は、撮像レンズ211に入射した後、ハーフミラー513により反射されて可視光線撮像領域519に結像し、近景からの光はハーフミラー513を透過して近赤外線撮像領域520に結像する。可視光線撮像領域519及び近赤外線撮像領域520は、光路に対して直角を成す。   The half mirror 513 is provided on the optical path and between the imaging lens 211 and the second CCD 512 and the third CCD 515 so as to be 45 degrees with respect to the optical axis of the imaging lens 211. The half mirror 513 reflects half of the incident light and transmits the remaining half. Light from a distant view is incident on the imaging lens 211 and then reflected by the half mirror 513 to form an image on the visible light image capturing area 519, and light from the near view is transmitted through the half mirror 513 to be connected to the near infrared image capturing area 520. Image. The visible light imaging region 519 and the near-infrared imaging region 520 are perpendicular to the optical path.

これらの構成により、第2のCCD512は遠方の被写体をカラー画像で撮像し、第3のCCD515は近方の被写体を近赤外線画像で撮像する(図3参照)。   With these configurations, the second CCD 512 captures a distant subject with a color image, and the third CCD 515 captures a near subject with a near-infrared image (see FIG. 3).

本実施形態によれば、安価な小型の撮像素子を用いることが可能となる。また、第1の実施形態のように1つの撮像素子の撮像面を複数に分けて各々別個のフィルタを設ける手間を省くことができる。   According to the present embodiment, it is possible to use an inexpensive and small image sensor. In addition, as in the first embodiment, it is possible to save the trouble of providing a separate filter by dividing the imaging surface of one imaging device into a plurality of parts.

なお、いずれの実施形態においても、撮像素子はCCDに限定されず、CMOS等であっても良い。また、CCDの画素数は、1メガピクセルクラス以上に限定されない。さらに、撮像は1秒間に10回に限定されない。   In any of the embodiments, the imaging element is not limited to the CCD, and may be a CMOS or the like. Further, the number of pixels of the CCD is not limited to 1 megapixel class or more. Furthermore, imaging is not limited to 10 times per second.

光路長調整フィルタ216を用いずに、赤外カットフィルタの屈折率あるいは厚さを調整することにより、可視光カットフィルタ及び偏光フィルタによる光路長と、赤外カットフィルタの光路長とを等しくしても良い。   By adjusting the refractive index or thickness of the infrared cut filter without using the optical path length adjustment filter 216, the optical path length of the visible light cut filter and the polarization filter is made equal to the optical path length of the infrared cut filter. Also good.

また、車両検出部230はループコイルでなくても良く、赤外線センサ、音波センサ等の車両の位置を検出可能なものであればよい。   Further, the vehicle detection unit 230 may not be a loop coil, and may be any device that can detect the position of the vehicle, such as an infrared sensor or a sound wave sensor.

なお、車両の代わりに果物を監視対象物とすることもできる。判別条件として色の代わりに果物の糖度を用いることにより、果物を選果することが可能である。また、車種の代わりに果物の種類や大きさを用いることにより、他品種の果物を選り分けることが可能である。   In addition, it can also make a fruit into a monitoring object instead of a vehicle. The fruit can be selected by using the sugar content of the fruit instead of the color as the discrimination condition. Further, by using the type and size of the fruit instead of the vehicle type, it is possible to select different kinds of fruits.

さらに、車両の代わりに小包を監視しても良い。目的地、大きさ、形状に応じて小包を選別することができる。   Further, the parcel may be monitored instead of the vehicle. Parcels can be sorted according to destination, size, and shape.

100 第1の撮像システム
200 端末装置
210 第1の撮像装置
211 撮像レンズ(撮像光学系)
212 第1のCCD
213 第1の可視光カットフィルタ
214 第1の偏光フィルタ
215 第1の赤外カットフィルタ
216 光路長調整フィルタ
217 第1の撮像面
218 近赤外線撮像領域
219 可視光線撮像領域
220 端末演算部
230 車両検出部
240 近赤外照明部
250 端末記録部
260 端末通信制御部
300 中央制御機
310 中央通信制御部
320 アラーム
330 中央記録部
340 中央演算部
DESCRIPTION OF SYMBOLS 100 1st imaging system 200 Terminal device 210 1st imaging device 211 Imaging lens (imaging optical system)
212 First CCD
213 First visible light cut filter 214 First polarizing filter 215 First infrared cut filter 216 Optical path length adjustment filter 217 First imaging surface 218 Near infrared imaging region 219 Visible light imaging region 220 Terminal calculation unit 230 Vehicle detection Unit 240 Near-infrared illumination unit 250 Terminal recording unit 260 Terminal communication control unit 300 Central controller 310 Central communication control unit 320 Alarm 330 Central recording unit 340 Central processing unit

Claims (12)

第1の撮像領域と前記第1の撮像領域と異なる第2の撮像領域とを有し、前記第1の撮像領域と前記第2の撮像領域とに跨って一方向に移動する被写体像を撮像する撮像手段と、
前記第1の撮像領域に配置されるカラー画像撮像用フィルタと、前記第2の撮像領域に配置される不可視光画像撮像用フィルタと、
前記撮像手段が撮像した画像を記憶する記憶手段と、
前記記憶手段の記憶した画像を記録媒体に記録する記録手段と、
前記第1の撮像領域又は前記第2の撮像領域のいずれか一方の画像に基づいて被写体像が所定の条件に合致するか否かを判断する判断手段とを備え、
前記撮像手段は、前記カラー画像用フィルタを透過した被写体像を撮像してカラー画像を出力し、前記不可視光画像撮像用フィルタを透過した被写体像を撮像して不可視光画像を出力し、
前記判断手段は、被写体像が所定の条件に合致したと判断した場合は、前記所定の条件に合致したときから所定の期間だけ前に撮像されて前記記憶手段に記憶されている画像を前記記録手段に記録させる
ことを特徴とする撮像システム。
An image of a subject having a first imaging area and a second imaging area different from the first imaging area and moving in one direction across the first imaging area and the second imaging area Imaging means to perform,
A color image capturing filter disposed in the first imaging region; an invisible light image capturing filter disposed in the second imaging region;
Storage means for storing an image captured by the imaging means;
Recording means for recording an image stored in the storage means on a recording medium;
Determining means for determining whether or not the subject image meets a predetermined condition based on one of the images of the first imaging region or the second imaging region;
The imaging means captures a subject image that has passed through the color image filter and outputs a color image, captures a subject image that has passed through the invisible light image capture filter, and outputs an invisible light image;
If it is determined that the subject image matches a predetermined condition, the determination unit captures an image captured and stored in the storage unit a predetermined period before the predetermined condition is met. An imaging system characterized by having a means for recording.
被写体が前記第1の撮像領域又は前記第2の撮像領域のいずれか一方の領域から他方の領域に移動したか否かを検知する検知手段をさらに備え、
前記判断手段は、被写体像が所定の条件に合致したとき、かつ被写体が他方の領域に移動したと前記検知手段が検知したときに、そのときから所定の期間だけ前に撮像されて前記記憶手段に記憶されている画像を前記記録手段に記録させる請求項1に記載の撮像システム。
A detection unit that detects whether or not the subject has moved from one of the first imaging region and the second imaging region to the other region;
The determination means is an image picked up before a predetermined period from when the subject image meets a predetermined condition and when the detection means detects that the subject has moved to the other area. The imaging system according to claim 1, wherein the recording unit records an image stored in the recording unit.
前記撮像手段は、前記第1の撮像領域から第2の撮像領域へ移動する被写体像を撮像し、
前記判断手段は、前記カラー画像に基づいて被写体像が所定の条件に合致したか否かを判別し、前記所定条件に合致した場合は、前記被写体像の不可視光画像を前記記録手段に記録させることを特徴とする請求項1又は2に記載の撮像システム。
The imaging means captures a subject image moving from the first imaging area to the second imaging area,
The determination unit determines whether or not the subject image matches a predetermined condition based on the color image, and if the predetermined image satisfies the predetermined condition, causes the recording unit to record an invisible light image of the subject image. The imaging system according to claim 1 or 2, wherein
前記判断手段は、前記所定条件に合致した場合は、前記被写体像の不可視光画像およびカラー画像を前記記録手段に記録させることを特徴とする請求項3に記載の撮像システム。   4. The imaging system according to claim 3, wherein the determination unit causes the recording unit to record an invisible light image and a color image of the subject image when the predetermined condition is satisfied. 前記判断手段は、前記撮像手段の画角を複数の領域に仮想的に分割し、被写体像が前記領域を複数回移動したときに所定の条件に合致したと判断する請求項1、3、又は4に記載の撮像システム。   The determination unit virtually divides the angle of view of the imaging unit into a plurality of regions, and determines that a subject image meets a predetermined condition when the subject image moves the region a plurality of times. 5. The imaging system according to 4. 前記判断手段は、前記撮像手段の画角において所定の位置を被写体像が通過するときに所定の条件に合致したと判断する請求項1から4に記載の撮像システム。   The imaging system according to claim 1, wherein the determination unit determines that a predetermined condition is met when a subject image passes through a predetermined position at an angle of view of the imaging unit. 前記判断手段は、被写体像が所定の色を有するときに所定の条件に合致したと判断する請求項1から4に記載の撮像システム。   The imaging system according to claim 1, wherein the determination unit determines that a predetermined condition is met when the subject image has a predetermined color. 前記判断手段は、被写体像が所定の形状を有するときに所定の条件に合致したと判断する請求項1から4に記載の撮像システム。   The imaging system according to claim 1, wherein the determination unit determines that a predetermined condition is met when the subject image has a predetermined shape. 前記撮像手段は、1つの撮像素子上に設けられる前記第1の撮像領域及び前記第2の撮像領域とを有する請求項1から8に記載の撮像システム。   The imaging system according to claim 1, wherein the imaging unit includes the first imaging area and the second imaging area provided on one imaging element. 前記撮像手段は、第1の撮像素子と第2の撮像素子とを有し、前記第1の撮像領域は前記第1の撮像素子上に設けられ、前記第2の撮像領域は前記第2の撮像素子上に設けられる請求項1から8に記載の撮像システム。   The imaging means includes a first imaging element and a second imaging element, the first imaging area is provided on the first imaging element, and the second imaging area is the second imaging area. The imaging system according to claim 1, wherein the imaging system is provided on an imaging element. 前記撮像システムは車両監視システムであって、
前記撮像手段は、道路の近辺に固定されて画角が固定され、
前記判断手段は、前記画角における所定の範囲を車両が通過するときに所定の条件に合致したと判断する請求項1に記載の撮像システム。
The imaging system is a vehicle monitoring system,
The imaging means is fixed in the vicinity of the road and the angle of view is fixed,
The imaging system according to claim 1, wherein the determination unit determines that a predetermined condition is met when the vehicle passes a predetermined range in the angle of view.
前記撮像システムは車両監視システムであって、
前記撮像手段は、道路の近辺に固定されて画角が固定され、
前記判断手段は、前記画角を複数の領域に仮想的に分割し、車両が前記領域を複数回移動したときに所定の条件に合致したと判断する請求項1に記載の撮像システム。
The imaging system is a vehicle monitoring system,
The imaging means is fixed in the vicinity of the road and the angle of view is fixed,
The imaging system according to claim 1, wherein the determination unit virtually divides the angle of view into a plurality of regions and determines that a predetermined condition is met when the vehicle moves the region a plurality of times.
JP2009234303A 2009-10-08 2009-10-08 Imaging system Pending JP2011081657A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009234303A JP2011081657A (en) 2009-10-08 2009-10-08 Imaging system
GB1016975A GB2474557A (en) 2009-10-08 2010-10-08 Vehicle movement detection using visible and invisible light
DE102010038056A DE102010038056A1 (en) 2009-10-08 2010-10-08 Image device and image system for imaging a moving object
CN2010105371921A CN102088553A (en) 2009-10-08 2010-10-08 Imaging instrument and imaging system for movable objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009234303A JP2011081657A (en) 2009-10-08 2009-10-08 Imaging system

Publications (1)

Publication Number Publication Date
JP2011081657A true JP2011081657A (en) 2011-04-21

Family

ID=44075637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009234303A Pending JP2011081657A (en) 2009-10-08 2009-10-08 Imaging system

Country Status (1)

Country Link
JP (1) JP2011081657A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062706A (en) * 2015-09-25 2017-03-30 アイシン・エィ・ダブリュ株式会社 Travel support system, travel support method, and computer program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154292A (en) * 1996-05-15 1998-06-09 Hitachi Ltd Traffic flow monitoring device
JPH11328574A (en) * 1998-05-15 1999-11-30 Hitachi Denshi Ltd Traffic monitoring television system
JP2001084485A (en) * 1999-09-13 2001-03-30 Mitsubishi Electric Corp Vehicle detection device
JP2001167380A (en) * 1999-12-07 2001-06-22 Toshiba Corp Road monitoring device
JP2001189926A (en) * 1999-12-28 2001-07-10 Mitsubishi Electric Corp Roadside monitoring imaging device
JP2002216288A (en) * 2001-01-17 2002-08-02 Mitsubishi Electric Corp Vehicle type identification device and vehicle photographing device
JP2002260167A (en) * 2001-03-05 2002-09-13 Natl Inst For Land & Infrastructure Management Mlit Visible vehicle detection system by infrared complement
JP2007164275A (en) * 2005-12-09 2007-06-28 Hitachi Ltd Image processing apparatus and monitoring system
JP2007188353A (en) * 2006-01-13 2007-07-26 Mitsubishi Heavy Ind Ltd Traffic management system
JP2008152736A (en) * 2006-12-20 2008-07-03 Sony Corp Monitoring system, monitoring apparatus and monitoring method
JP2009089158A (en) * 2007-10-01 2009-04-23 Panasonic Corp Imaging device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10154292A (en) * 1996-05-15 1998-06-09 Hitachi Ltd Traffic flow monitoring device
JPH11328574A (en) * 1998-05-15 1999-11-30 Hitachi Denshi Ltd Traffic monitoring television system
JP2001084485A (en) * 1999-09-13 2001-03-30 Mitsubishi Electric Corp Vehicle detection device
JP2001167380A (en) * 1999-12-07 2001-06-22 Toshiba Corp Road monitoring device
JP2001189926A (en) * 1999-12-28 2001-07-10 Mitsubishi Electric Corp Roadside monitoring imaging device
JP2002216288A (en) * 2001-01-17 2002-08-02 Mitsubishi Electric Corp Vehicle type identification device and vehicle photographing device
JP2002260167A (en) * 2001-03-05 2002-09-13 Natl Inst For Land & Infrastructure Management Mlit Visible vehicle detection system by infrared complement
JP2007164275A (en) * 2005-12-09 2007-06-28 Hitachi Ltd Image processing apparatus and monitoring system
JP2007188353A (en) * 2006-01-13 2007-07-26 Mitsubishi Heavy Ind Ltd Traffic management system
JP2008152736A (en) * 2006-12-20 2008-07-03 Sony Corp Monitoring system, monitoring apparatus and monitoring method
JP2009089158A (en) * 2007-10-01 2009-04-23 Panasonic Corp Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062706A (en) * 2015-09-25 2017-03-30 アイシン・エィ・ダブリュ株式会社 Travel support system, travel support method, and computer program

Similar Documents

Publication Publication Date Title
KR102596831B1 (en) Hybrid time-of-flight and imager module
KR101457141B1 (en) Stereo camera device, correction method, and program
US6977674B2 (en) Stereo-image capturing device
CN103322974B (en) Poly-lens camera chain, the vehicles for installing poly-lens camera chain, and the distance-finding method performed by poly-lens camera chain
US8731245B2 (en) Multiple view transportation imaging systems
GB2474557A (en) Vehicle movement detection using visible and invisible light
KR101999993B1 (en) Automatic traffic enforcement system using radar and camera
CN106796293A (en) Linear model calculates sensing LADAR
JP6860433B2 (en) Processing equipment, processing systems, methods and programs
JP5686281B2 (en) Three-dimensional object identification device, and mobile object control device and information providing device provided with the same
KR20120085935A (en) Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP2011082855A (en) Imaging apparatus
RU2015123662A (en) DEVICE FOR ROAD TOLL OR TELEMATIC SYSTEMS
JPH03289293A (en) Image pickup device
JP2008174028A (en) Object detection system and object detection method
CN104620075A (en) Device and method for measuring distances of multiple subjects
JP6818820B2 (en) Intelligent roadside unit and its information processing method
CN111931547A (en) Driving lane recognition device, driving lane recognition method, and program
CN108076263A (en) Photographic device and automatic control system
WO2013140873A1 (en) In-vehicle image processing device and method
JP2011082856A (en) Imaging apparatus
JP2011150687A (en) Three-dimensional object identifying apparatus, moving body control apparatus equipped with the same, and information providing apparatus
US20200128188A1 (en) Image pickup device and image pickup system
WO2022004260A1 (en) Electromagnetic wave detection device and ranging device
JP2011081657A (en) Imaging system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20111222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140128