[go: up one dir, main page]

JP2001145090A - Monitoring device - Google Patents

Monitoring device

Info

Publication number
JP2001145090A
JP2001145090A JP32576999A JP32576999A JP2001145090A JP 2001145090 A JP2001145090 A JP 2001145090A JP 32576999 A JP32576999 A JP 32576999A JP 32576999 A JP32576999 A JP 32576999A JP 2001145090 A JP2001145090 A JP 2001145090A
Authority
JP
Japan
Prior art keywords
target
monitoring
photographing
stereoscopic
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32576999A
Other languages
Japanese (ja)
Inventor
Amafumi Sato
天文 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP32576999A priority Critical patent/JP2001145090A/en
Publication of JP2001145090A publication Critical patent/JP2001145090A/en
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】 従来の監視装置では、一つの撮影手段の映像
情報を取込み、表示しているため、地面にペインティン
グされた線、模様や、雲等の影により目標物と誤認識す
ると言う問題点があった。 【解決手段】 監視領域に存在する物体を監視する監視
装置において、特定の監視エリアを別々の視点から撮影
する2台の撮影手段1−1、1−2と、この撮影手段か
ら出力された映像情報より目標物を抽出するそれぞれの
目標物抽出手段2−1、2−2と、それぞれの目標物抽
出手段で抽出された目標物抽出情報より目標物の視差計
算を行い、立体目標物を判定する立体視処理手段3−1
と、立体視処理手段で判定した立体目標物の地図上での
座標位置を判定する位置判定手段4−1とを備えた。
(57) [Problem] In a conventional monitoring device, since image information of one photographing means is captured and displayed, a target object is shaded by a line, a pattern, a cloud or the like painted on the ground. There was a problem of misrecognition. SOLUTION: In a monitoring device for monitoring an object present in a monitoring area, two photographing means 1-1 and 1-2 for photographing a specific monitoring area from different viewpoints, and a video output from the photographing means. The target object extraction means 2-1 and 2-2 for extracting the target object from the information, and the parallax calculation of the target object is performed based on the target object extraction information extracted by the respective target object extraction means, and the three-dimensional target object is determined. Stereoscopic processing means 3-1
And a position determining unit 4-1 for determining a coordinate position on the map of the stereoscopic target determined by the stereoscopic processing unit.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は監視領域に在る物
体、例えば空港面における航空機、車輌等の監視を行
い、航空機の離着陸管制等の目的に使用される監視装置
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a monitoring apparatus for monitoring an object located in a monitoring area, for example, an aircraft, a vehicle, etc. on an airport surface, and used for purposes such as airplane takeoff and landing control.

【0002】[0002]

【従来の技術】図6は例えば特開平6−233302号
公報に開示された従来の監視装置のシステムブロック図
である。図において、1−1、1−2、・・・1−n
は、例えばカメラレンズおよびカメラ台を含むカメラ等
のn個の撮影手段、102は前記n個の撮影手段からの
映像信号を切替える切替手段、103は画面分割手段、
5は合成手段、105は制御手段、106は操作手段、
104は制御画面表示生成手段、6は表示手段である。
2. Description of the Related Art FIG. 6 is a system block diagram of a conventional monitoring apparatus disclosed in, for example, JP-A-6-233302. In the figure, 1-1, 1-2,... 1-n
Is, for example, n photographing means such as a camera including a camera lens and a camera base, 102 is switching means for switching video signals from the n photographing means, 103 is screen dividing means,
5 is a synthesis means, 105 is a control means, 106 is an operation means,
Reference numeral 104 denotes a control screen display generation unit, and reference numeral 6 denotes a display unit.

【0003】次に、動作を説明する。まず、操作手段1
06で操作した内容に基づき、制御手段105を通して
撮影手段1−1、1−2、・・・1−nのそれぞれの位
置を操作・制御する。位置を制御された撮影手段1−
1、1−2、・・・1−nからの複数の映像信号は、切
替手段102に入力される。次に、操作手段106で設
定した画面制御の内容に基づき、切替手段102からの
前記複数の映像信号の一つが画面分割手段103に出力
される。合成手段5では、画面分割手段103において
画面分割処理された映像信号と、制御画面生成手段10
4で生成された文字情報を含む制御画面表示信号とを合
成し、画面制御状態の映像信号として表示手段6に出力
する。
Next, the operation will be described. First, operating means 1
.. 1-n are operated and controlled through the control means 105 on the basis of the contents operated at 06. Photographing means 1 whose position is controlled 1
A plurality of video signals from 1, 1-2,... 1-n are input to the switching unit 102. Next, one of the plurality of video signals from the switching unit 102 is output to the screen dividing unit 103 based on the content of the screen control set by the operation unit 106. In the synthesizing unit 5, the video signal that has undergone the screen division processing in the screen division unit 103 and the control screen generation unit 10
The control unit 4 combines the control screen display signal including the character information generated in step 4 with the control screen display signal, and outputs the synthesized signal to the display unit 6 as a screen control state video signal.

【0004】[0004]

【発明が解決しようとする課題】従来の監視装置は以上
のように構成されており、複数の撮影手段の映像信号の
うち一つを選択し、その選択された映像信号と文字情報
等とを合成することで一つの画面に表示する方式であ
る。ところで、空港面の監視においては、複数航空機、
車輌等の監視を行う目的のため、誤目標をできるだけ少
なくする必要がある。
The conventional monitoring apparatus is configured as described above, and selects one of the video signals of a plurality of photographing means, and converts the selected video signal and character information and the like. This is a method of displaying on one screen by combining. By the way, airport surveillance involves multiple aircraft,
For the purpose of monitoring vehicles and the like, it is necessary to minimize erroneous targets.

【0005】従来の監視装置は、一つの撮影手段の映像
情報を取込み表示しているため、地面にペインティング
された線や、模様や、雲等の影を目標物と誤認識すると
言う問題があった。また、撮影した映像情報の表示のみ
では移動する目標物の検出・判別は手動で行う必要があ
り、監視ミスが発生しやすいと言う問題があった。
[0005] The conventional monitoring apparatus captures and displays the image information of one photographing means, and thus has a problem that a line, a pattern, a shadow such as a cloud painted on the ground is erroneously recognized as a target. there were. In addition, it is necessary to manually detect and determine a moving target only by displaying captured video information, and there is a problem that a monitoring error is likely to occur.

【0006】この発明は、上記のような問題点を解消す
るためになされたもので、視角の異なる位置に2台の撮
影手段を配置し、2台の撮影手段からの映像情報に基づ
く立体映像により、誤目標検出の改善を図るとともに、
目標検出結果に基づき目標物の自動検出・追尾を行うこ
とができるようにし、これにより空港面における航空
機、車輌等の管制業務の支援を行うようにしたものであ
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and two stereoscopic images are arranged at different viewing angles, and a three-dimensional image based on the image information from the two stereoscopic images is provided. In addition to improving false target detection,
The automatic detection and tracking of a target can be performed based on the target detection result, thereby supporting the control of aircraft, vehicles, and the like on the airport.

【0007】[0007]

【課題を解決するための手段】この発明に係る監視装置
は、監視領域に存在する物体を監視するものにおいて、
特定の監視エリアを別々の視点から撮影する2台の撮影
手段と、このそれぞれの撮影手段から出力された映像情
報より目標物を抽出する目標物抽出手段と、それぞれの
目標物抽出手段で抽出された目標物抽出情報より目標物
の視差計算を行い、立体目標物を判定する立体視処理手
段と、この立体視処理手段で判定した立体目標物の地図
上での座標位置を判定する位置判定手段とを備えたもの
である。
A monitoring device according to the present invention monitors an object existing in a monitoring area.
Two photographing means for photographing a specific monitoring area from different viewpoints, a target extracting means for extracting a target from video information output from each photographing means, and a target extracting means for extracting each target. Stereoscopic processing means for performing parallax calculation of a target based on the extracted target object information and determining a stereoscopic target, and position determining means for determining a coordinate position on a map of the stereoscopic target determined by the stereoscopic processing means It is provided with.

【0008】また、監視領域に存在する物体を監視する
ものにおいて、特定の監視エリアを別々の視点から撮影
する撮影領域を1/2ずつ重複させた2台の撮影手段
と、この重複した撮影領域における映像情報より目標物
を抽出する目標物抽出手段と、それぞれの目標物抽出手
段で抽出された目標物抽出情報より目標物の視差計算を
行い、立体目標物を判定する立体視処理手段と、この立
体視処理手段で判定した立体目標物の地図上での座標位
置を判定する位置判定手段とを備えたものである。
[0008] Further, in an apparatus for monitoring an object present in a monitoring area, two imaging means in which a specific monitoring area is imaged from different viewpoints by 撮 影 each other, and two overlapping imaging areas. A target extraction means for extracting a target from the video information in, a parallax calculation of the target from the target extraction information extracted by the respective target extraction means, a stereoscopic processing means for determining a stereo target, And a position determining means for determining a coordinate position on the map of the stereoscopic target determined by the stereoscopic processing means.

【0009】また、立体目標物を判定し、その座標位置
を判定した結果の目標物を表示する表示手段を備えたも
のである。
[0009] Further, there is provided a display means for judging a three-dimensional target and displaying the target as a result of judging the coordinate position.

【0010】また、目標検出結果を定期的に表示手段に
出力することにより、目標物の自動検出・追尾を可能に
したものである。
Further, by automatically outputting the target detection result to the display means, automatic detection and tracking of the target can be performed.

【0011】[0011]

【発明の実施の形態】実施の形態1.図1は、この発明
の実施の形態1に係る監視装置のシステムブロック図で
ある。図において、1−1、1−2、1−3、1−4は
カメラ等の撮影手段であり、1−1と1−2が一対とな
って一つの撮影領域を、1−3と1−4が一対となって
隣接する撮影領域を監視するものである。なお、図では
撮影手段は4個しか示していないが、必要に応じてさら
に多数設置するものとする。2−1、2−2、2−3、
2−4は各撮影手段からの映像信号を受信して、各映像
信号毎に航空機等の目標物映像のみを抽出する目標物抽
出手段、3−1、3−2はその目標物映像を基に立体視
処理を行い、目標物の差分計算を行い目標物を検出する
立体視処理手段、4−1、4−2は立体視処理手段で検
出した目標物の位置を判定する位置判定手段、5は位置
判定手段により判定した目標物を合成する合成手段、6
は合成手段5からの目標物を表示するための表示手段で
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a system block diagram of a monitoring device according to Embodiment 1 of the present invention. In the figure, 1-1, 1-2, 1-3, and 1-4 denote photographing means such as a camera, and 1-1 and 1-2 form a pair to define one photographing area as 1-3 and 1 -4 is a pair for monitoring an adjacent photographing area. Although only four photographing means are shown in the figure, more photographing means may be provided as necessary. 2-1, 2-2, 2-3,
Reference numeral 2-4 denotes a video signal from each photographing means, and target extraction means 3-1 and 3-2 extract only a video image of a target object such as an aircraft for each video signal. Stereoscopic vision processing means for performing a stereoscopic vision process, calculating the difference between the target objects, and detecting the target object; 5 is a synthesizing means for synthesizing the target determined by the position determining means, 6
Is a display means for displaying the target from the synthesizing means 5.

【0012】カメラ等による二次元画像により空港面の
監視を行う監視装置は、雲の影や雨による地面の色変化
に伴い、本来は実際の目標物でないものまでも目標物と
誤認識してしまう可能性がある。航空機の離着陸をコン
トロールする管制システムにおいてはこのような誤目標
を最小限に抑える必要がある。
A monitoring device that monitors an airport surface using a two-dimensional image by a camera or the like falsely recognizes a target that is not an actual target as a target due to a color change of the ground due to a shadow of a cloud or rain. May be lost. In a control system for controlling takeoff and landing of an aircraft, it is necessary to minimize such erroneous targets.

【0013】そこで、上記の問題を解決する本実施の形
態に係る監視装置の動作について説明する。図2は、立
体視方式により立体的な目標物と、雲、ペイント等の平
面に描かれた目標の判別方法を説明する図である。目標
物Oが立体的な物体である場合、撮影手段1(1−1)
から見た目標物Oの視点は映像情報上にA点の位置に投
影される。また、撮影手段2(1−2)から見た目標物
の視点はB点に投影されることになる。この両撮影手段
で得られた画像情報を同一画面上に重ね合わせた場合、
視差αが検出される。この視差が検出されることにより
目標物Oは立体目標であることが判別可能となる。
Therefore, the operation of the monitoring device according to the present embodiment for solving the above problem will be described. FIG. 2 is a diagram illustrating a method of determining a three-dimensional target and a target drawn on a plane such as a cloud or paint by a stereoscopic method. When the target O is a three-dimensional object, the photographing unit 1 (1-1)
The viewpoint of the target O viewed from is projected on the position of the point A on the video information. In addition, the viewpoint of the target viewed from the photographing unit 2 (1-2) is projected to the point B. When the image information obtained by these two photographing means is superimposed on the same screen,
The parallax α is detected. By detecting the parallax, it is possible to determine that the target O is a stereoscopic target.

【0014】次に、図3は、目標物が雲等の影やペイン
ト画像等の場合について上記動作を検証したものであ
る。撮影手段1からみた目標物O’の視点は、図に示し
たように撮影手段2から見た視点と同一となる。このた
め2者間の視差は発生しないことになる。これによりこ
の目標物は偽目標O’であると判定することができる。
Next, FIG. 3 verifies the above operation when the target is a shadow such as a cloud or a paint image. The viewpoint of the target O ′ as seen from the photographing means 1 is the same as the viewpoint as seen from the photographing means 2 as shown in the figure. Therefore, no parallax occurs between the two. Thereby, this target can be determined to be the false target O '.

【0015】次に、図1乃至図3を基にこの発明の実施
形態1の動作をさらに詳しく説明する。図2に示したよ
うに、撮影手段1−1と撮影手段1−2を配置すること
により、同一の表示範囲を異なった視点より見た画像情
報を得ることができる。この画像情報は、それぞれ目標
物抽出手段2−1、2−2によって建物、芝生等明らか
に目標物ではないものを除去して、目標物の候補のみを
抽出した映像情報を立体視処理手段3−1に出力する。
Next, the operation of the first embodiment of the present invention will be described in more detail with reference to FIGS. As shown in FIG. 2, by arranging the photographing means 1-1 and the photographing means 1-2, it is possible to obtain image information in which the same display range is viewed from different viewpoints. This image information is obtained by removing image objects, such as buildings and lawns, which are not apparently target objects, by target object extracting means 2-1 and 2-2, respectively, and extracting video information from which only target object candidates have been extracted. Output to -1.

【0016】立体視処理手段3−1は、目標物抽出手段
2−1、2−2からの映像情報より候補の目標物につい
て差分の検出を行い、その候補である目標物において視
差が発生するものについてのみ本当の目標物として目標
検出情報を位置判定手段4−1に出力する。位置判定手
段4−1は、この目標検出情報を予め設定されている実
座標情報に重ね合わせることにより、実座標上での目標
位置を算出する。この算出した目標の実座標を合成手段
5に出力する。合成手段5は、撮影手段1−1、1−2
で撮影した画像情報より得た目標の実座標と、撮影手段
1−3、1−4で撮影した同様の画像情報より得た目標
の実座標を一つの座標に合成して表示手段6に出力す
る。表示手段6は、以上のようにして順次目標物の位置
情報を定期的に入力し、空港面の平面マップ上に目標物
のマーカ表示を行う。
The stereoscopic processing means 3-1 detects a difference of a candidate target from the video information from the target extracting means 2-1 and 2-2, and a parallax is generated in the candidate target. The target detection information is output to the position judging means 4-1 as a real target only for the object. The position determining means 4-1 calculates the target position on the actual coordinates by superimposing the target detection information on the preset actual coordinate information. The calculated actual coordinates of the target are output to the synthesizing means 5. The synthesizing unit 5 includes photographing units 1-1 and 1-2.
The real coordinates of the target obtained from the image information photographed in step 1 and the real coordinates of the target obtained from the same image information photographed by the photographing means 1-3 and 1-4 are combined into one coordinate and output to the display means 6. I do. The display means 6 periodically inputs the position information of the target sequentially as described above, and performs marker display of the target on the plane map of the airport.

【0017】実施の形態1に示すこの発明の装置は以上
のように構成されているので、立体視映像処理を行うこ
とにより、誤目標の数を最小限に抑えることができる。
Since the apparatus of the present invention shown in the first embodiment is configured as described above, the number of erroneous targets can be minimized by performing stereoscopic video processing.

【0018】また、定期的に目標物の位置情報を更新す
るような方式をとることにより、航空機等の目標物の位
置を正確に表示するとともに、目標物が移動した際も正
確に追尾して表示することができる。
Further, by adopting a method of periodically updating the position information of the target, the position of the target such as an aircraft is accurately displayed, and the target is accurately tracked when it moves. Can be displayed.

【0019】実施の形態2.上記実施の形態1では、2
台の撮影手段で同一監視領域を監視しているが、空港面
全体を監視するためには複数台の撮影手段を配置する必
要がある。実施の形態2では、各撮影手段による監視領
域の半分ずつを隣り合せの撮影手段で監視することによ
り最小数の撮影手段でほぼ同一の機能を実現し、また、
空港面の全域を監視するようにしたものである。
Embodiment 2 In the first embodiment, 2
Although the same monitoring area is monitored by one imaging means, it is necessary to arrange a plurality of imaging means in order to monitor the entire airport surface. In the second embodiment, almost the same function is realized by the minimum number of photographing units by monitoring half of the monitoring area by each photographing unit with adjacent photographing units.
It monitors the entire area of the airport.

【0020】図4は、この発明の実施形態2の監視装置
のシステムブロック図である。図中、図1と同一符号は
相当部分を示している。図4のシステムでは、基本構成
としては図1と同じであるが、撮影手段1−2と目標物
抽出手段2−2を共通化して、撮影手段1−1と1−2
を一対とし、撮影手段1−2と1−3を一対としている
ため、目標物抽出手段2−2の映像情報は、両方の立体
視処理手段3−1、3−2の入力として使用される。従
って、撮影手段3個と、立体視処理手段以下の装置を2
個用いて、実施の形態1とほぼ同様の動作を行わせてい
る。
FIG. 4 is a system block diagram of the monitoring device according to the second embodiment of the present invention. In the figure, the same reference numerals as those in FIG. 1 indicate corresponding parts. In the system of FIG. 4, the basic configuration is the same as that of FIG. 1, but the photographing means 1-2 and the target extracting means 2-2 are shared, and the photographing means 1-1 and 1-2 are used.
Are paired, and the photographing units 1-2 and 1-3 are paired, so that the video information of the target extracting unit 2-2 is used as an input to both the stereoscopic processing units 3-1 and 3-2. . Accordingly, three photographing means and two devices below the stereoscopic processing means are used.
The same operation as in the first embodiment is performed by using the first embodiment.

【0021】図5はこの発明の実施形態2の動作を説明
する図であり、本図では、実際の目標物Oが領域3から
領域1に移動した場合、それぞれの領域を順次移動して
撮影されることになる。このとき、各撮影手段の撮影範
囲が重なる領域について実施の形態1と同様に視差を利
用して立体的な目標物検出を行うことができる。なお、
撮影領域が重ならない領域を目標物Oが通過するとき
は、予測追尾により単独画像データを採用して追尾を行
う。
FIG. 5 is a diagram for explaining the operation of the second embodiment of the present invention. In this figure, when the actual target O moves from the area 3 to the area 1, the respective areas are sequentially moved and photographed. Will be done. At this time, it is possible to perform a three-dimensional target detection using parallax in a region where the photographing ranges of the photographing units overlap, as in the first embodiment. In addition,
When the target object O passes through an area where the shooting areas do not overlap, tracking is performed by adopting single image data by predictive tracking.

【0022】実施の形態2に係るこの発明の装置は以上
のように構成されているので、最小限の撮影手段で実施
の形態1とほぼ同一の機能を実現することができる。
Since the apparatus according to the second embodiment of the present invention is configured as described above, it is possible to realize almost the same functions as in the first embodiment with a minimum number of photographing means.

【0023】[0023]

【発明の効果】以上のように、この発明によれば、監視
領域に存在する移動物体および静止物体を監視する監視
装置において、特定の監視エリアを別々の視点から撮影
する2台の撮影手段と、この撮影手段から出力された映
像情報より目標物を抽出するそれぞれの目標物抽出手段
と、それぞれの目標物抽出手段で抽出された目標物抽出
情報より目標物の視差計算を行い、立体目標物を判定す
る立体視処理手段と、立体視処理手段で判定した立体目
標物の地図上での座標位置を判定する位置判定手段とを
備えたので、立体映像による誤目標検出の改善を図るこ
とができ、管制ミスを防止できるという効果がある。
As described above, according to the present invention, in a monitoring apparatus for monitoring a moving object and a stationary object existing in a monitoring area, two photographing means for photographing a specific monitoring area from different viewpoints are provided. A target object extracting means for extracting a target object from the video information output from the photographing means; and a parallax calculation of the target object based on the target object extracting information extracted by the respective target object extracting means. And a position determining means for determining a coordinate position on the map of the stereoscopic target determined by the stereoscopic processing means, so that it is possible to improve erroneous target detection based on a stereoscopic video. This has the effect of preventing control mistakes.

【0024】また、目標検出結果を定期的に表示手段に
出力することにより、目標物の自動検出・追尾を行うこ
とができ、監視領域全体を表示画面上で効率的に監視で
きるという効果がある。
Also, by periodically outputting the target detection result to the display means, the target can be automatically detected and tracked, and the entire monitoring area can be efficiently monitored on the display screen. .

【0025】また、撮影手段の監視領域を1/2ずつず
らすことにり、撮影手段の数量および回路構成を簡素化
できる効果がある。
Further, by shifting the monitoring area of the photographing means by half, there is an effect that the number of photographing means and the circuit configuration can be simplified.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施形態1に係る監視装置を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a monitoring device according to a first embodiment of the present invention.

【図2】 実施形態1における立体目標物の判別方法を
説明する図である。
FIG. 2 is a diagram illustrating a method of determining a stereoscopic target according to the first embodiment.

【図3】 実施形態1における偽目標物の判別方法を説
明する図である。
FIG. 3 is a diagram illustrating a method of determining a fake target according to the first embodiment.

【図4】 この発明の実施形態2に係る監視装置を示す
ブロック図である。
FIG. 4 is a block diagram illustrating a monitoring device according to a second embodiment of the present invention.

【図5】 実施形態2の動作を説明する図である。FIG. 5 is a diagram illustrating the operation of the second embodiment.

【図6】 従来の監視装置を示すブロック図である。FIG. 6 is a block diagram showing a conventional monitoring device.

【符号の説明】[Explanation of symbols]

1−1、1−2、1−3、1−4 撮影手段、2−1、
2−2、2−3、2−4 目標物抽出手段、3−1、3
−2 立体視処理手段、4−1、4−2 位置判定手
段、5 合成手段、6 表示手段、α 視差、O 目標
物。
1-1, 1-2, 1-3, 1-4 Photographing means, 2-1;
2-2, 2-3, 2-4 Target extraction means, 3-1, 3
-2 stereoscopic processing means, 4-1 and 4-2 position determination means, 5 combining means, 6 display means, α parallax, O target.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/225 C // H04N 13/00 13/00 Fターム(参考) 5C022 AA01 AB61 AB63 AC01 AC69 5C054 CC00 CE12 FC01 FC12 FC15 FE13 HA26 HA31 5C061 AB04 AB08 AB17 BB03 BB13 CC01 5H180 AA01 AA26 CC04 DD01 FF03 FF22 FF32 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 5/225 C // H04N 13/00 13/00 F term (Reference) 5C022 AA01 AB61 AB63 AC01 AC69 5C054 CC00 CE12 FC01 FC12 FC15 FE13 HA26 HA31 5C061 AB04 AB08 AB17 BB03 BB13 CC01 5H180 AA01 AA26 CC04 DD01 FF03 FF22 FF32

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 監視領域に存在する物体を監視する監視
装置において、特定の監視エリアを別々の視点から撮影
する2台の撮影手段と、このそれぞれの撮影手段から出
力された映像情報より目標物を抽出する目標物抽出手段
と、それぞれの目標物抽出手段で抽出された目標物抽出
情報より目標物の視差計算を行い、立体目標物を判定す
る立体視処理手段と、この立体視処理手段で判定した立
体目標物の地図上での座標位置を判定する位置判定手段
とを備えたことを特徴とする監視装置。
1. A monitoring apparatus for monitoring an object existing in a monitoring area, comprising: two photographing means for photographing a specific monitoring area from different viewpoints; and a target object based on video information output from each of the photographing means. And a stereoscopic processing means for calculating parallax of the target based on the target extraction information extracted by the respective target extracting means, and determining a stereoscopic target. A monitoring device comprising: a position determination unit that determines a coordinate position of a determined three-dimensional target on a map.
【請求項2】 監視領域に存在する物体を監視する監視
装置において、特定の監視エリアを別々の視点から撮影
する撮影領域を1/2ずつ重複させた2台の撮影手段
と、この重複した撮影領域における映像情報より目標物
を抽出する目標物抽出手段と、それぞれの目標物抽出手
段で抽出された目標物抽出情報より目標物の視差計算を
行い、立体目標物を判定する立体視処理手段と、この立
体視処理手段で判定した立体目標物の地図上での座標位
置を判定する位置判定手段とを備えたことを特徴とする
監視装置。
2. A monitoring apparatus for monitoring an object existing in a monitoring area, wherein two capturing means for overlapping a capturing area for capturing a specific monitoring area from different viewpoints by 1 / each, A target extracting means for extracting a target from the video information in the region, and a stereoscopic processing means for calculating a parallax of the target from the target extracting information extracted by the respective target extracting means and determining a stereoscopic target; And a position determining means for determining a coordinate position on the map of the stereoscopic target determined by the stereoscopic processing means.
【請求項3】 立体目標物を判定し、その座標位置を判
定した結果の目標物を表示する表示手段を備えたことを
特徴とする請求項1または請求項2記載の監視装置。
3. The monitoring apparatus according to claim 1, further comprising display means for determining a three-dimensional target and displaying the target as a result of determining the coordinate position.
【請求項4】 目標検出結果を定期的に表示手段に出力
することにより、目標物の自動検出・追尾を可能にした
ことを特徴とする請求項1乃至請求項3のいずれか一項
記載の監視装置。
4. The apparatus according to claim 1, wherein a result of the target detection is periodically output to the display means to enable automatic detection and tracking of the target. Monitoring device.
JP32576999A 1999-11-16 1999-11-16 Monitoring device Pending JP2001145090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32576999A JP2001145090A (en) 1999-11-16 1999-11-16 Monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32576999A JP2001145090A (en) 1999-11-16 1999-11-16 Monitoring device

Publications (1)

Publication Number Publication Date
JP2001145090A true JP2001145090A (en) 2001-05-25

Family

ID=18180427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32576999A Pending JP2001145090A (en) 1999-11-16 1999-11-16 Monitoring device

Country Status (1)

Country Link
JP (1) JP2001145090A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058014A (en) * 2000-08-08 2002-02-22 Yokogawa Electric Corp Object detection system
EP1363140A1 (en) * 2002-05-13 2003-11-19 Joval N.V. Method and device for detecting the presence of an object on a runway
CN106530839A (en) * 2016-11-30 2017-03-22 中国航空工业集团公司沈阳飞机设计研究所 Unmanned aerial vehicle assembly line type takeoff and landing method based on double ground stations
US10867400B2 (en) 2016-08-18 2020-12-15 Maxell, Ltd. System for processing an image obtained by using stereo photography

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058014A (en) * 2000-08-08 2002-02-22 Yokogawa Electric Corp Object detection system
EP1363140A1 (en) * 2002-05-13 2003-11-19 Joval N.V. Method and device for detecting the presence of an object on a runway
BE1014829A3 (en) * 2002-05-13 2004-05-04 Joval N V Method and apparatus for determining
US10867400B2 (en) 2016-08-18 2020-12-15 Maxell, Ltd. System for processing an image obtained by using stereo photography
CN106530839A (en) * 2016-11-30 2017-03-22 中国航空工业集团公司沈阳飞机设计研究所 Unmanned aerial vehicle assembly line type takeoff and landing method based on double ground stations
CN106530839B (en) * 2016-11-30 2019-07-19 中国航空工业集团公司沈阳飞机设计研究所 A UAV pipeline take-off and landing method based on dual ground stations

Similar Documents

Publication Publication Date Title
JP3279479B2 (en) Video monitoring method and device
US8942425B2 (en) Airport target tracking system
KR100879623B1 (en) Automated Wide Area Surveillance System Using PTZ Camera and Its Method
US20090237508A1 (en) Method and apparatus for providing immersive surveillance
JP2002259976A (en) Method and device for detecting specific point
JP2006010376A (en) Stereo image association method and three-dimensional data creation apparatus
EP3422293B1 (en) Mobile object
Böhm Multi-image fusion for occlusion-free façade texturing
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP3577875B2 (en) Moving object extraction device
JP3988574B2 (en) Image processing device
JP5213883B2 (en) Composite display device
JPH07325924A (en) Compound eye imaging device
WO2003021967A2 (en) Image fusion systems
JP2001145090A (en) Monitoring device
JP2002008019A (en) Track recognition device and railway vehicle using the track recognition device
JP2001116527A (en) Three-dimensional object detection method and device
KR102298047B1 (en) Method of recording digital contents and generating 3D images and apparatus using the same
JP2002002485A (en) Track recognition device and railway vehicle using the track recognition device
JP2004045321A (en) Position measurement system
JP2000028354A (en) Three-dimensional image processing device
JP3253328B2 (en) Distance video input processing method
JP4696925B2 (en) Image processing device
JP2005157635A (en) Congestion degree measuring device, facility control system, and congestion degree measuring method
JP6544501B1 (en) Monitoring system and control method of monitoring system