JP2000358234A - Remote camera monitoring method and device - Google Patents
Remote camera monitoring method and deviceInfo
- Publication number
- JP2000358234A JP2000358234A JP11168876A JP16887699A JP2000358234A JP 2000358234 A JP2000358234 A JP 2000358234A JP 11168876 A JP11168876 A JP 11168876A JP 16887699 A JP16887699 A JP 16887699A JP 2000358234 A JP2000358234 A JP 2000358234A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- monitoring
- monitor screen
- remote
- video information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
(57)【要約】
【課題】 リモートカメラ監視方法及びその装置に関
し、所望の監視ポイントを容易かつ適切に監視可能なこ
とを課題とする。
【解決手段】 リモート制御により旋回可能な遠隔のカ
メラ10と、該カメラをリモート制御して得られた映像
情報をモニタ画面上に表示するカメラ制御装置20とを
備えるカメラ監視システムのリモートカメラ監視方法に
おいて、予めカメラ10をリモート制御して得られた所
定の監視エリアについての全映像情報を1平面上に合成
してその監視用合成画像をモニタ画面W2上に表示する
と共に、該モニタ画面上の監視用合成画像に対する外部
入力の位置指定情報に従って前記カメラ10を指定位置
方向に旋回制御し、得られた指定位置の映像情報をモニ
タ画面W3上に表示する。
(57) [Summary] An object of the present invention is to easily and appropriately monitor a desired monitoring point in a remote camera monitoring method and apparatus. A remote camera monitoring method for a camera monitoring system, comprising: a remote camera that can be turned by remote control; and a camera control device that displays video information obtained by remotely controlling the camera on a monitor screen. In the above, all video information about a predetermined monitoring area obtained by remote control of the camera 10 in advance is synthesized on one plane, and the monitoring synthesized image is displayed on the monitor screen W2, and The camera 10 is controlled to rotate in the direction of the designated position in accordance with the position designation information of the external input for the monitoring composite image, and the obtained video information of the designated position is displayed on the monitor screen W3.
Description
【0001】[0001]
【発明の属する技術分野】本発明はリモートカメラ監視
方法及びその装置に関し、更に詳しくはリモート制御に
より旋回可能な1又は2以上の遠隔のカメラと、該カメ
ラをリモート制御して得られた映像情報をモニタ画面上
に表示するカメラ制御装置とを備えるカメラ監視システ
ムのリモートカメラ監視方法及びその装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a remote camera monitoring method and apparatus, and more particularly, to one or more remote cameras which can be turned by remote control, and video information obtained by remotely controlling the cameras. The present invention relates to a remote camera monitoring method for a camera monitoring system including a camera control device that displays on a monitor screen, and a device therefor.
【0002】この種のカメラ監視システムは、河川の上
流から下流、港湾の大半部、道路の交差点を中心とした
各方面の道路状況等、広い範囲(各方面)の遠隔監視に
利用されており、監視者の簡単な操作で所望の監視点を
迅速かつ的確に監視できることが望まれている。[0002] This type of camera monitoring system is used for remote monitoring of a wide range (each direction), such as the road conditions in various directions centering on the upstream and downstream of rivers, most of harbors, and road intersections. It is desired that a desired monitoring point can be quickly and accurately monitored by a simple operation of a monitoring person.
【0003】[0003]
【従来の技術】図15は従来技術を説明する図で、従来
のカメラ監視システムの構成を示している。例えば道路
の各交差点付近に夫々の監視エリアa,bを担当するた
めのカメラ10a,10bが設けられ、各カメラ10
a,10bはケーブルを介して監視センター200の監
視端末20a,20bに接続されている。今、カメラ1
0aの側に着目する。カメラ10aは水平方向に0°〜
340°かつ垂直方向に−70°〜20°旋回可能であ
り、更にズームやオートフォーカスの機能を備える。カ
メラ10aの撮像映像は監視端末20aに入力され、表
示画面のウィンドウ領域Waにリアルタイムで表示され
る。2. Description of the Related Art FIG. 15 is a diagram for explaining a conventional technique, and shows a configuration of a conventional camera monitoring system. For example, cameras 10a and 10b are provided in the vicinity of each intersection of a road to take charge of the respective monitoring areas a and b.
a and 10b are connected to the monitoring terminals 20a and 20b of the monitoring center 200 via cables. Now camera 1
Focus on the side of 0a. The camera 10a moves from 0 °
It can rotate 340 degrees and -70 degrees to 20 degrees in the vertical direction, and further has zoom and autofocus functions. The image captured by the camera 10a is input to the monitoring terminal 20a and displayed in real time in the window area Wa of the display screen.
【0004】係る構成により、従来の監視者は、ウィン
ドウ領域Waの表示映像やカメラ10aの方位角を頼り
に、マウス等のポインティングデバイス27を使用して
カメラ10aの旋回角等をリモート制御し、主要な監視
ポイントPa1〜Pa4等の監視を行っていた。カメラ10
bの側も同様である。With such a configuration, the conventional observer remotely controls the turning angle and the like of the camera 10a using the pointing device 27 such as a mouse, depending on the display image of the window area Wa and the azimuth of the camera 10a. I had done a key monitoring point P a1 ~P a4 monitoring of such. Camera 10
The same applies to the side b.
【0005】ところで、上記の如くカメラ10aの監視
映像や旋回角等を頼りにカメラ10aをリモート制御す
る方式であると、監視者が監視エリアaの地形や状況等
を熟知していない限り、カメラ10aを目的の監視ポイ
ントに向ける操作が極めて困難となる。まして、一人の
監視者が複数の監視エリアa,b等を監視する様な場合
には、一人の監視者が互いに無関係(基準角0°の異な
る様)な複数の監視エリアa,b等についての地形や状
況等を熟知する必要があり、この様なことは実際上不可
能に近い。[0005] By the way, as described above, the remote control of the camera 10a relying on the monitoring image and the turning angle of the camera 10a, if the observer is not familiar with the terrain and the situation of the monitoring area a, the camera is required. It becomes extremely difficult to aim the 10a at a target monitoring point. Further, in the case where one observer monitors a plurality of monitoring areas a, b, etc., one monitoring person monitors a plurality of monitoring areas a, b, etc., which are irrelevant to each other (different reference angles of 0 °). It is necessary to be familiar with the terrain and the situation, and this is almost impossible.
【0006】この点、従来は、所謂監視ポイントのプリ
セット方式なるものが知られている。このプリセット方
式は、予め主要な複数の監視ポイントPa1〜Pa4等を登
録しておくと共に、カメラ10aを該監視ポイントPa1
〜Pa4等に向けるための旋回制御角H,Vに変換する様
な位置テーブルを設けておき、監視者がある監視ポイン
トPa3を選択すると、カメラ10aが自動的に監視ポイ
ントPa3に向けられるものである。In this regard, a so-called monitoring point preset method has conventionally been known. The preset scheme, along with registers the advance key multiple monitoring points P a1 to P a4, etc.,該監camera 10a viewing points P a1
To P a4 turning control angle for directing the like H, may be provided a position table, such as into a V, when selecting the monitoring point P a3 there is a supervisor, the camera 10a is automatically directed to the monitoring point P a3 It is something that can be done.
【0007】[0007]
【発明が解決しようとする課題】しかし、上記プリセッ
ト方式によると、主要な各監視ポイントの監視は比較的
容易に行えるが、なお、監視者には現場のどの方面の監
視を行っているかの地理的実感が湧かない。このため、
更にその周囲の監視を行おうと思っても、カメラを所望
に制御することが困難となる。その結果、従来は、専ら
監視エリア内の特定の監視ポイントしか監視されず、こ
のためにカメラ監視システムの本来の監視機能が十分に
発揮されていなかった。However, according to the above-mentioned preset method, monitoring of each of the main monitoring points can be performed relatively easily. I don't feel good. For this reason,
Furthermore, it is difficult to control the camera as desired even if it is desired to monitor the surroundings. As a result, conventionally, only a specific monitoring point in the monitoring area has been monitored exclusively, and the original monitoring function of the camera monitoring system has not been sufficiently exhibited.
【0008】本発明は上記従来技術の問題点に鑑みなさ
れたもので、その目的とする所は、所望の監視ポイント
を容易かつ適切に監視可能なリモートカメラ監視方法及
びその装置を提供することにある。SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and an object of the present invention is to provide a remote camera monitoring method and apparatus capable of easily and appropriately monitoring a desired monitoring point. is there.
【0009】[0009]
【課題を解決するための手段】上記の課題は例えば図1
の構成により解決される。即ち、本発明(1)のリモー
トカメラ監視方法は、リモート制御により旋回可能な遠
隔のカメラ10と、該カメラをリモート制御して得られ
た映像情報をモニタ画面上に表示するカメラ制御装置2
0とを備えるカメラ監視システムのリモートカメラ監視
方法において、予めカメラ10をリモート制御して得ら
れた所定の監視エリアについての全映像情報を1平面上
に合成してその監視用合成画像をモニタ画面W2上に表
示すると共に、該モニタ画面上の監視用合成画像に対す
る外部入力の位置指定情報に従って前記カメラ10を指
定位置方向に旋回制御し、得られた指定位置の映像情報
をモニタ画面W3上に表示するものである。The above-mentioned problem is solved, for example, by referring to FIG.
Is solved. That is, the remote camera monitoring method of the present invention (1) includes a remote camera 10 that can be turned by remote control, and a camera control device 2 that displays video information obtained by remotely controlling the camera on a monitor screen.
In a remote camera monitoring method for a camera monitoring system comprising a camera screen 0, all video information of a predetermined monitoring area obtained by remote control of the camera 10 in advance is combined on one plane, and the combined image for monitoring is displayed on a monitor screen. The camera 10 is displayed on the monitor screen W2, and the camera 10 is turned in the direction of the designated position in accordance with the position designation information of the external input with respect to the monitoring composite image on the monitor screen, and the obtained video information of the designated position is displayed on the monitor screen W3. To display.
【0010】図において、カメラ制御装置20は、予め
カメラ10をリモート制御し、得られた所定の監視エリ
アについての全映像情報を1平面上に合成して監視用合
成画像を生成し、これを例えばモニタ画面W2上に表示
する。ここには主要な複数の監視ポイントPa1〜Pa4等
の各部分画像と共に監視エリア全体の映像情報が含まれ
ている。従って、監視者は、監視エリアの地理的知識が
無くても、監視エリアの全体像を一挙にかつ正しく把握
できる。In FIG. 1, a camera control device 20 remotely controls the camera 10 in advance, synthesizes all the obtained video information about a predetermined monitoring area on one plane, and generates a monitoring synthetic image. For example, it is displayed on the monitor screen W2. Here includes video information of the entire monitoring area with major multiple monitoring points P a1 to P a4 like each partial image. Therefore, the monitor can quickly and correctly grasp the entire image of the monitored area without any geographical knowledge of the monitored area.
【0011】また、この状態で監視者がモニタ画面W2
上の所望の位置(例えば監視ポイントPa3)を指定する
と、カメラ制御装置20はその位置指定情報に従って前
記カメラ10を指定位置方向に旋回制御し、得られた指
定位置の映像情報を例えばモニタ画面W3上に表示す
る。こうして、監視エリア内の所望の監視位置を容易か
つ適切に監視可能となる。また、監視者には現場のどの
方面の監視を行っているかの地理的実感が正確に得られ
る。Also, in this state, the observer operates the monitor screen W2.
When a desired position (for example, a monitoring point P a3 ) is specified, the camera control device 20 controls the camera 10 to turn in the direction of the specified position in accordance with the position specifying information, and displays the obtained video information of the specified position on, for example, a monitor screen. Display on W3. Thus, a desired monitoring position in the monitoring area can be easily and appropriately monitored. In addition, the observer can accurately obtain the geographical realization of where the site is being monitored.
【0012】また上記の課題は例えば図12の構成によ
り解決される。即ち、本発明(2)のリモートカメラ監
視方法は、互いに離れた監視エリアに分散配置され、か
つリモート制御により旋回可能な複数のカメラ10a〜
10cと、前記各カメラをリモート制御して得られた映
像情報をモニタ画面上に表示するカメラ制御装置20と
を備えるカメラ監視システムのリモートカメラ監視方法
において、予め各カメラ10a〜10cを夫々にリモー
ト制御して得られた各所定の監視エリア毎の全映像情報
を夫々1平面上に合成してその各監視用合成画像を例え
ばモニタ画面W2a〜W2c上に同時に表示すると共
に、該モニタ画面上の各監視用合成画像に対する外部入
力の各位置指定情報C1a,C8b,C16cに従って
各対応するカメラ10a〜10cを各指定位置方向に旋
回制御し、得られた各指定位置の映像情報を例えばモニ
タ画面W3a〜W3c上に表示するものである。The above problem is solved by, for example, the configuration shown in FIG. That is, in the remote camera monitoring method of the present invention (2), a plurality of cameras 10a to 10a to 10a to 10d which are distributed in monitoring areas separated from each other and can be turned by remote control
10c and a camera control device 20 for displaying video information obtained by remotely controlling each of the cameras on a monitor screen. All the video information for each of the predetermined monitoring areas obtained by the control are combined on one plane, and the respective monitoring composite images are simultaneously displayed on, for example, the monitor screens W2a to W2c. The corresponding cameras 10a to 10c are controlled to turn in the respective designated position directions according to the respective externally designated position designation information C1a, C8b, C16c for each monitoring composite image, and the obtained video information of each designated position is displayed on, for example, a monitor screen W3a. ~ W3c.
【0013】従って、監視者は、広範囲に渡り、かつ互
いに無関係な複数の監視エリアの全体像を一挙にかつ正
しく把握できる。また各監視エリア内の所望の監視位置
を容易かつ適切に監視可能となる。[0013] Therefore, the observer can quickly and correctly grasp the whole image of a plurality of monitoring areas that are wide and unrelated to each other. Also, a desired monitoring position in each monitoring area can be easily and appropriately monitored.
【0014】また上記の課題は例えば図13の構成によ
り解決される。即ち、本発明(3)のリモートカメラ監
視方法は、共通の監視エリアに近接配置され、かつリモ
ート制御により旋回可能な複数のカメラ10a〜10c
と、前記各カメラをリモート制御して得られた映像情報
をモニタ画面上に表示するカメラ制御装置20とを備え
るカメラ監視システムのリモートカメラ監視方法におい
て、予め所定のカメラ(例えば10a)をリモート制御
して得られた所定の監視エリアについての全映像情報を
1平面上に合成してその監視用合成画像を例えばモニタ
画面W2a上に表示すると共に、該モニタ画面上の監視
用合成画像に対する外部入力の複数の位置指定情報C2
a,C8b,C16cに従って各対応するカメラ10a
〜10cを各指定位置方向に旋回制御し、得られた各指
定位置の映像情報を例えばモニタ画面W3a〜W3c上
に表示するものである。The above problem is solved by, for example, the configuration shown in FIG. That is, the remote camera monitoring method according to the present invention (3) includes a plurality of cameras 10a to 10c which are arranged close to a common monitoring area and which can be turned by remote control.
In a remote camera monitoring method of a camera monitoring system including a camera control device 20 for displaying video information obtained by remotely controlling each camera on a monitor screen, a predetermined camera (for example, 10a) is remotely controlled in advance. All the video information about the predetermined monitoring area obtained as a result is combined on one plane, the monitoring composite image is displayed on, for example, the monitor screen W2a, and the external input to the monitoring composite image on the monitor screen is performed. Multiple pieces of position designation information C2
a, each corresponding camera 10a according to C8b, C16c
10 to 10c are controlled in the direction of each designated position, and the obtained video information of each designated position is displayed on, for example, monitor screens W3a to W3c.
【0015】従って、監視者は、同時に複数箇所の監視
が必要となる様な複雑な地形等の監視エリアの全体像を
一挙にかつ正しく把握できる。また監視エリア内の複数
の所望の監視位置を容易かつ適切に監視可能となる。Therefore, the observer can quickly and correctly grasp the whole image of the monitoring area such as complicated terrain that requires simultaneous monitoring of a plurality of places. Further, it becomes possible to easily and appropriately monitor a plurality of desired monitoring positions in the monitoring area.
【0016】また本発明(4)のカメラ制御装置は、リ
モート制御により旋回可能な1又は2以上の遠隔のカメ
ラと、該カメラをリモート制御して得られた映像情報を
モニタ画面上に表示するカメラ制御装置とを備えるカメ
ラ監視システムのカメラ制御装置において、予め所定の
カメラをリモート制御して得られた所定の監視エリアに
ついての全映像情報を1平面上に合成してその監視用合
成画像をモニタ画面上に表示する監視用合成画像表示制
御手段と、前記モニタ画面の監視用合成画像上にカーソ
ルを表示して該監視用合成画像上の任意位置を指定入力
可能な位置入力手段と、前記入力された位置指定情報に
従って前記所定のカメラを指定位置方向に旋回制御し、
得られた指定位置の映像情報をモニタ画面上に表示する
監視用映像表示制御手段とを備えるものである。The camera control device of the present invention (4) displays on a monitor screen one or more remote cameras that can be turned by remote control, and video information obtained by remotely controlling the cameras. In a camera control device of a camera monitoring system including a camera control device, all video information about a predetermined monitoring area obtained by remotely controlling a predetermined camera in advance is combined on one plane, and a monitoring composite image is formed. Monitoring composite image display control means for displaying on a monitor screen, position input means for displaying a cursor on the monitor composite image on the monitor screen and designating and inputting an arbitrary position on the monitor composite image; In accordance with the input position designation information, the predetermined camera is controlled to turn in the designated position direction,
A monitoring video display control means for displaying the obtained video information of the designated position on a monitor screen.
【0017】好ましくは、本発明(5)においては、上
記本発明(4)において、監視用合成画像表示制御手段
は、予め複数のカメラを夫々にリモート制御して得られ
た各所定の監視エリア毎の全映像情報を夫々1平面上に
合成してその各監視用合成画像をモニタ画面上に同時に
表示し、位置入力手段は、前記モニタ画面上の各監視用
合成画像毎にカーソルを表示して該監視用合成画像毎に
任意位置を指定入力可能とし、監視用映像表示制御手段
は、前記入力された位置指定情報に従って対応するカメ
ラを指定位置方向に旋回制御するものである。Preferably, in the present invention (5), in the above-mentioned present invention (4), the monitoring synthetic image display control means includes a plurality of predetermined monitoring areas previously obtained by remote controlling a plurality of cameras respectively. All the video information for each image are synthesized on one plane, and the respective monitoring synthesized images are simultaneously displayed on the monitor screen. The position input means displays a cursor for each monitoring synthesized image on the monitor screen. Thus, an arbitrary position can be designated and input for each monitoring composite image, and the monitoring video display control means controls the turning of the corresponding camera in the direction of the designated position in accordance with the input position designation information.
【0018】また好ましくは、本発明(6)において
は、上記本発明(4)において、監視用合成画像表示制
御手段は、予め所定のカメラをリモート制御して得られ
た所定の監視エリアについて全映像情報を1平面上に合
成してその監視用合成画像をモニタ画面上に表示し、位
置入力手段は、前記モニタ画面の監視用合成画像上に複
数のカーソルを表示して該カーソル毎に任意位置を指定
入力可能とし、監視用映像表示制御手段は、前記入力さ
れた位置指定情報に従って対応するカメラを指定位置方
向に旋回制御するものである。Preferably, in the present invention (6), in the above-mentioned present invention (4), the monitoring synthetic image display control means controls the entirety of a predetermined monitoring area obtained by remotely controlling a predetermined camera in advance. The video information is synthesized on one plane, and the monitoring composite image is displayed on the monitor screen. The position input means displays a plurality of cursors on the monitoring composite image on the monitor screen, and the cursor is arbitrarily selected for each cursor. The position can be designated and input, and the surveillance image display control means controls the turning of the corresponding camera in the direction of the designated position according to the inputted position designation information.
【0019】また好ましくは、本発明(7)において
は、上記本発明(4)〜(6)において、カメラはリモ
ート制御によるズーム変倍機能を備え、位置入力手段
は、モニタ画面の1又は2以上の監視用合成画像上に各
指定ズーム倍率に対応した撮像範囲を表すサイズの枠状
カーソルを表示するものである。Preferably, in the present invention (7), in the above-mentioned present inventions (4) to (6), the camera is provided with a zooming function by remote control, and the position input means is one or two of a monitor screen. A frame-shaped cursor having a size representing an imaging range corresponding to each designated zoom magnification is displayed on the above-described monitoring composite image.
【0020】本発明(7)によれば、ズーム倍率により
変化する様なカメラ10の撮像範囲を、監視用合成画像
上に対応するサイズの枠状カーソルを表示することによ
り、監視者が意図する撮像範囲を忠実に示すことが可能
となる。According to the present invention (7), the image capturing range of the camera 10 that changes according to the zoom magnification is displayed by the frame-shaped cursor of the corresponding size on the composite image for monitoring, so that the observer intends. It is possible to faithfully indicate the imaging range.
【0021】[0021]
【発明の実施の形態】以下、添付図面に従って本発明に
好適なる実施の形態を詳細に説明する。なお、全図を通
して同一符号は同一又は相当部分を示すものとする。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the accompanying drawings. Note that the same reference numerals indicate the same or corresponding parts throughout the drawings.
【0022】図2は実施の形態によるリモートカメラ監
視システムの構成を示す図で、単一の監視端末により単
一の監視用カメラを制御する最も簡単な場合を示してい
る。図において、10は遠隔に設置されたカメラシステ
ム、11はリモート監視用のカメラ,12は電動ズーム
レンズ、13は旋回機構部、14はその架台、20は監
視端末、21は本カメラ監視システムの主制御を行うC
PU、22はCPU21が実行する各種アプリケーショ
ンプログラム(図3〜図6等)を格納するプログラムメ
モリ(PMEM)、23はカメラシステム10を監視端
末20に接続するカメラインタフェース(CIF)、2
4は監視用合成画像や監視映像等を表示するためのCR
T等からなる主表示部(MDSP)、24aはその表示
画面、25は主表示部24を監視端末20に接続するビ
デオインタフェース(VIF)、25aは表示用画像を
記憶するビデオRAM(VRAM)、26はキーボード
(KBD)、27はマウスやジョイスティック等からな
るポインティングデバイス(PD)、28は処理対象の
画像データ等を記憶するデータメモリ(DMEM)、
A,Bは処理用画像データの一時的な記憶エリア、Gは
監視用画像データの合成エリア、29は2次記憶装置と
してのハードディスク装置(HDD)、30はCPU2
1の共通バスである。FIG. 2 is a diagram showing the configuration of the remote camera monitoring system according to the embodiment, and shows the simplest case in which a single monitoring terminal controls a single monitoring camera. In the figure, reference numeral 10 denotes a remotely installed camera system, 11 denotes a camera for remote monitoring, 12 denotes an electric zoom lens, 13 denotes a turning mechanism, 14 denotes a frame thereof, 20 denotes a monitoring terminal, and 21 denotes the camera monitoring system. C that performs main control
PU and 22 are a program memory (PMEM) for storing various application programs (FIGS. 3 to 6 and the like) executed by the CPU 21, and 23 is a camera interface (CIF) for connecting the camera system 10 to the monitoring terminal 20;
4 is a CR for displaying a composite image for monitoring, a monitoring video, and the like.
A main display unit (MDSP) composed of T or the like; 24a, a display screen thereof; 25, a video interface (VIF) for connecting the main display unit 24 to the monitoring terminal 20; 25a, a video RAM (VRAM) for storing display images; 26 is a keyboard (KBD), 27 is a pointing device (PD) such as a mouse or a joystick, 28 is a data memory (DMEM) for storing image data to be processed, etc.
A and B are temporary storage areas for processing image data, G is a synthesis area for monitoring image data, 29 is a hard disk device (HDD) as a secondary storage device, and 30 is a CPU 2
1 common bus.
【0023】カメラの旋回機構部13には、図示しない
が、旋回機構部を制御するための制御部が含まれる。カ
メラ11は旋回機構部13により水平方向Hに0°〜3
40°の範囲で旋回可能であり、また垂直方向Vには−
70°〜20°の範囲で旋回可能である。挿入図(a)
にカメラ11の画角と解像度を示す。カメラ11のZ
(ズーム倍率)=×1における画角(視野角)は水平方
向に30°、垂直方向に15°とする。またカメラ11
の解像度は水平方向に640画素、垂直方向に480画
素とする。電動ズームレンズ12はその焦点距離を1m
m単位でリモート制御可能であり、Z=×1における焦
点距離=8mmである。因みに、Z=×2では焦点距離
=16mm、Z=×4では焦点距離=32mm、Z=×
8では焦点距離=64mm等である。Although not shown, the turning mechanism 13 of the camera includes a control unit for controlling the turning mechanism. The camera 11 is rotated 0 ° to 3 in the horizontal direction H by the turning mechanism 13.
It is possible to turn within a range of 40 °, and in the vertical direction V, −
It is pivotable in the range of 70 ° to 20 °. Inset (a)
Shows the angle of view and resolution of the camera 11. Z of camera 11
The angle of view (viewing angle) at (zoom magnification) = × 1 is 30 ° in the horizontal direction and 15 ° in the vertical direction. Also camera 11
Has a resolution of 640 pixels in the horizontal direction and 480 pixels in the vertical direction. The electric zoom lens 12 has a focal length of 1 m
Remote control is possible in m units, and the focal length at Z = × 1 is 8 mm. Incidentally, when Z = × 2, the focal length = 16 mm, when Z = × 4, the focal length = 32 mm, Z = ×
8, the focal length is 64 mm or the like.
【0024】カメラインタフェース23は、カメラ11
の方位角(姿勢)及びズームに係る制御情報を出力する
と共に、カメラ11からの状態信号(方位角検出信号,
焦点距離検出信号等)を入力する。これにより、カメラ
11の水平及び垂直方向に1°単位の方位角制御と、電
動ズームレンズ12の1mm単位での焦点距離(ズーム
倍率)とが調整可能となっている。またカメラ11はオ
ートフォーカス機能を備えている。一方、カメラ11か
らの映像信号(例えば標準カラービデオ信号NTSC)
は同軸ケーブル(又は光ケーブル)を介してカメライン
タフェース23に入力され、ここでサンプリングされ、
対応する輝度Y及び色差U,Vのディジタル画像データ
に変換される。The camera interface 23 is connected to the camera 11
Control information relating to the azimuth angle (posture) and zoom of the camera 11 and the state signal (azimuth angle detection signal,
Focal length detection signal). Thereby, the azimuth control of the camera 11 in the horizontal and vertical directions in units of 1 ° and the focal length (zoom magnification) of the electric zoom lens 12 in units of 1 mm can be adjusted. The camera 11 has an autofocus function. On the other hand, a video signal from the camera 11 (for example, a standard color video signal NTSC)
Is input to the camera interface 23 via a coaxial cable (or an optical cable), where it is sampled,
It is converted into digital image data of the corresponding luminance Y and color difference U, V.
【0025】図3は実施の形態によるリモートカメラ監
視処理のフローチャートである。図3(A)はメイン処
理を示しており、監視端末20に電源投入又は後述のリ
フレッシュボタンRFがクリックされるとこの処理に入
力する。ステップS1,S2では監視用合成画像を生成
するための前処理を行う。即ち、ステップS1では後述
の水平ピッチ角決定処理を行い、監視用合成画像を能率
良く生成するためのカメラ11の水平ピッチ角hを求め
る。ステップS2では後述の垂直ピッチ角決定処理を行
い、同じくカメラ11の垂直ピッチ角vを求める。な
お、予め水平ピッチ角h及び垂直ピッチ角vを適当に決
めておくことで、上記ステップS1,S2の処理を省略
しても良い。FIG. 3 is a flowchart of the remote camera monitoring process according to the embodiment. FIG. 3A shows the main processing, and when the power is turned on to the monitoring terminal 20 or a refresh button RF described later is clicked, the processing is input to this processing. In steps S1 and S2, preprocessing for generating a monitoring composite image is performed. That is, in step S1, a horizontal pitch angle determination process, which will be described later, is performed, and a horizontal pitch angle h of the camera 11 for efficiently generating a monitoring composite image is obtained. In step S2, a vertical pitch angle determination process described later is performed, and the vertical pitch angle v of the camera 11 is similarly obtained. The processing in steps S1 and S2 may be omitted by appropriately determining the horizontal pitch angle h and the vertical pitch angle v in advance.
【0026】ステップS3では後述の監視用画像合成処
理を行う。即ち、カメラ11で撮像可能な全範囲(水平
0°〜340°及び垂直−70°〜20°)の映像を水
平/垂直の各ピッチ角h/vで順に撮像し、全映像を主
表示部24の表示画面24a上に表示できる様に合成す
る。ステップS4では表示画面24aにおける合成画像
上の指示位置をカメラ11の制御角に変換するためのテ
ーブルを生成する。なお、この変換は必要な時に演算に
よって求めることも可能であり、この場合は上記ステッ
プS4の処理を省略できる。以下、上記各処理の詳細を
説明する。In step S3, a monitoring image synthesizing process described later is performed. That is, images in the entire range (horizontal 0 ° to 340 ° and vertical −70 ° to 20 °) that can be imaged by the camera 11 are sequentially imaged at the horizontal / vertical pitch angles h / v, and all images are displayed on the main display unit. 24 so that they can be displayed on the display screen 24a. In step S4, a table for converting the designated position on the composite image on the display screen 24a into the control angle of the camera 11 is generated. This conversion can be obtained by calculation when necessary, and in this case, the processing in step S4 can be omitted. Hereinafter, the details of each of the above processes will be described.
【0027】図4は実施の形態による水平ピッチ角決定
処理のフローチャート、図7は該処理のイメージ図であ
る。まず図7を参照して水平ピッチ角決定処理の動作の
概要を説明する。カメラ11のある方位角(H,V)に
おける画像(撮像)データa(H,V)をメモリ領域A
に、またカメラ11を水平方向に1°ずらした時の画像
データb(H+1,V)をメモリ領域Bに夫々記憶し、
かつ両画像データa,bをメモリ領域の水平(X軸)方
向に順次位相をずらして比較することにより画素データ
の最大の一致数C1を計数する。FIG. 4 is a flowchart of the horizontal pitch angle determination processing according to the embodiment, and FIG. 7 is an image diagram of the processing. First, the outline of the operation of the horizontal pitch angle determination processing will be described with reference to FIG. The image (imaging) data a (H, V) at a certain azimuth (H, V) of the camera 11 is stored in the memory area A.
And the image data b (H + 1, V) when the camera 11 is shifted by 1 ° in the horizontal direction is stored in the memory area B, respectively.
The maximum number of coincidences C1 of the pixel data is counted by comparing the two image data a and b with a phase shift sequentially in the horizontal (X-axis) direction of the memory area.
【0028】挿入図(a)に比較位相差φH と画素デー
タの一致数Cとの関係を示す。両画像データa,bは水
平方向に1°分ずれているので、これらを同位相(XA
=0,XB =0)で比較開始すると画素データの一致数
Cは少ない。しかし、両画像が一致する位置(即ち、X
A =640/20,XB =0)から比較開始すると、こ
の時最大の一致数C1<Cmax (但し、Cmax =640
×480)が得られ、それを過ぎると一致数は再び少な
くなる。そこで、最大の一致数C1を検出し、これが所
定閾値α(例えばCmax の10%)未満か否かを調べ
る。The inset (a) shows the relationship between the comparison phase difference φ H and the number of coincidences C of pixel data. Since both image data a and b are shifted by 1 ° in the horizontal direction, they are in phase (X A
= 0, X B = 0), the number of coincidences C of the pixel data is small. However, the position where both images coincide (ie, X
Compared starting from A = 640/20, X B = 0), this time largest match number C1 <C max (However, C max = 640
× 480), after which the number of matches decreases again. Therefore, the maximum number of matches C1 is detected, and it is checked whether this is less than a predetermined threshold α (for example, 10% of Cmax ).
【0029】そして、所定閾値α未満でない場合は、次
にカメラ11を水平方向に更に1°ずらした時の画像
(撮像)データb(H+2,V)をメモリ領域Bに記憶
し、かつ両画像データa(H,V),b(H+2,V)
間における画素データの最大の一致数C2を求め、これ
が所定閾値α未満か否かを調べる。この時、両画像デー
タa,b間の一致(重複)面積が減少することにより、
一般にC1>C2の関係となる。以下、同様にして進
み、カメラ11を水平方向にトータルでh°ずらした時
の両画像データa(H,V),b(H+h,V)間にお
ける画素データの最大の一致数Chを求め、該Ch<α
の場合は、この時のずらし角h°を水平ピッチ角とす
る。If it is not less than the predetermined threshold value α, the image (imaging) data b (H + 2, V) when the camera 11 is further shifted by 1 ° in the horizontal direction is stored in the memory area B, and Data a (H, V), b (H + 2, V)
The maximum matching number C2 of the pixel data between them is determined, and it is checked whether or not this is less than a predetermined threshold α. At this time, the coincidence (overlap) area between the two image data a and b is reduced,
Generally, C1> C2. Thereafter, the process proceeds in the same manner, and the maximum number of coincidences Ch of the pixel data between the two image data a (H, V) and b (H + h, V) when the camera 11 is shifted h ° in total in the horizontal direction is obtained. The Ch <α
In this case, the shift angle h ° at this time is defined as the horizontal pitch angle.
【0030】次に図4の処理フローを説明する。ステッ
プS21では各種レジスタの初期設定を行う。即ち、カ
メラ11の水平角制御レジスタH=H0 (所望値/既定
値),垂直角制御レジスタV=V0 (所望値/既定
値),ズーム倍率レジスタZ=1(×1),水平ピッチ
角レジスタh=0に初期化する。ステップS22ではカ
メラ11を方位角(H,V),ズーム倍率Zに制御し、
制御完了を待つ。制御完了はカメラ11からの状態信号
(方位角,焦点距離等)を監視することで検出可能であ
る。制御完了すると、ステップS23ではその時の映像
aを入力し、これをサンプリング及びディジタル化した
画像データaに変換する。ステップS24では画像デー
タaをメモリ領域Aに展開する。Next, the processing flow of FIG. 4 will be described. In step S21, various registers are initialized. That is, the horizontal angle control register H = H 0 (desired value / default value), the vertical angle control register V = V 0 (desired value / default value), the zoom magnification register Z = 1 (× 1), the horizontal pitch of the camera 11 Initialize the corner register h = 0. In step S22, the camera 11 is controlled to the azimuth (H, V) and the zoom magnification Z,
Wait for control completion. Completion of control can be detected by monitoring a state signal (azimuth, focal length, etc.) from the camera 11. Upon completion of the control, in step S23, the video a at that time is input, and this is converted into sampled and digitized image data a. In step S24, the image data a is developed in the memory area A.
【0031】ステップS25ではレジスタH,nの各内
容に+1°する。ステップS26ではカメラ11を方位
角(H,V)に姿勢制御し、制御完了を待つ。制御完了
すると、ステップS27ではその時の映像bを入力し、
これを画像データbに変換する。ステップS28では画
像データbをメモリ領域Bに展開する。ステップS29
では画像データa,bにつき一致するデータ量を算出す
る。画素データの比較は、例えば輝度データYを使用
し、両輝度データYの差が所定範囲内の場合は一致と判
定する。また、必要なら色差データU,Vも考慮するこ
とで比較一致/不位置の判別精度が向上する。ステップ
S30では一致データ量≧αか否かを判別し、一致デー
タ量≧αの場合はステップS25に戻り、更にカメラ1
1を水平方向に1°ずらして撮像した画像データbにつ
き上記同様の処理を行う。In step S25, the contents of the registers H and n are incremented by + 1 °. In step S26, the attitude of the camera 11 is controlled to the azimuth (H, V), and the control is waited for. When the control is completed, the image b at that time is input in step S27,
This is converted into image data b. In step S28, the image data b is expanded in the memory area B. Step S29
Then, the matching data amount is calculated for the image data a and b. The comparison of the pixel data uses, for example, the luminance data Y. If the difference between the two luminance data Y is within a predetermined range, it is determined that they match. Also, if necessary, the accuracy of comparison match / non-position discrimination is improved by considering the color difference data U and V. In step S30, it is determined whether or not the matching data amount ≧ α. If the matching data amount ≧ α, the process returns to step S25, and the camera 1
The same processing as described above is performed on image data b captured by shifting 1 by 1 ° in the horizontal direction.
【0032】以下、同様にして進み、やがて、ステップ
S30の判別で一致データ量<αになると、フローはス
テップS31に進み、その時のレジスタhの内容(=h
°)を後述の監視用画面合成時におけるカメラ11の水
平ピッチ角に決定する。Thereafter, the flow proceeds in the same manner. When the coincidence data amount <α is finally determined in step S30, the flow proceeds to step S31, and the contents of the register h at that time (= h
°) is determined as the horizontal pitch angle of the camera 11 at the time of monitoring screen synthesis described later.
【0033】図5は実施の形態による垂直ピッチ角決定
処理のフローチャート、図8は該処理のイメージ図であ
る。まず図8を参照して垂直ピッチ角決定処理の動作の
概要を説明する。カメラ11のある方位角(H,V)に
おける画像データa(H,V)をメモリ領域Aに、また
カメラ11を垂直方向に1°ずらした時の画像データb
(H,V+1)をメモリ領域Bに夫々記憶し、かつ両画
像データa,bをメモリ領域の垂直(Y軸)方向に順次
位相をずらして比較することにより画素データの最大の
一致数C1を計数する。FIG. 5 is a flowchart of the vertical pitch angle determination processing according to the embodiment, and FIG. 8 is an image diagram of the processing. First, the outline of the operation of the vertical pitch angle determination processing will be described with reference to FIG. Image data a (H, V) at a certain azimuth (H, V) of the camera 11 is stored in the memory area A, and image data b obtained when the camera 11 is shifted by 1 ° in the vertical direction.
(H, V + 1) is stored in the memory area B, respectively, and the two image data a and b are sequentially shifted in phase in the vertical (Y-axis) direction of the memory area to make a comparison. Count.
【0034】挿入図(a)に比較位相差φV と画素デー
タの一致数Cとの関係を示す。両画像データa,bは垂
直方向に1°分ずれているので、これらを同位相(YA
=0,YB =0)で比較開始すると画素データの一致数
Cは少ない。しかし、両画像が一致する位置(YA =4
80/20,YB =0)から比較開始すると、この時最
大の一致数C1<Cmax が得られ、またそれを過ぎると
一致数は再び少なくなる。そこで、最大の一致数C1を
検出し、これが所定閾値β(例えばCmax の10%)未
満か否かを調べる。The inset (a) shows the relationship between the comparison phase difference φ V and the number of coincidences C of pixel data. Since both image data a and b are shifted by 1 ° in the vertical direction, they are in-phase (Y A
= 0, Y B = 0), the number of coincidences C of the pixel data is small. However, the position where both images coincide (Y A = 4
(80/20, Y B = 0), the maximum number of matches C1 <C max is obtained at this time, and after that, the number of matches decreases again. Therefore, the maximum number of matches C1 is detected, and it is checked whether or not this is less than a predetermined threshold β (for example, 10% of Cmax ).
【0035】所定閾値β未満でない場合は、次にカメラ
11を垂直方向に更に1°ずらした時の両画像データa
(H,V),b(H,V+2)間における画素データの
最大の一致数C2を求め、これが所定閾値α未満か否か
を調べる。以下、同様にして進み、カメラ11を垂直方
向にトータルでv°ずらした時の両画像データa(H,
V),b(H,V+v)間における画素データの最大の
一致数Cvを求め、該Cv<βの場合は、この時のずら
し角v°をカメラ11の垂直ピッチ角とする。If it is not less than the predetermined threshold value β, the two image data a when the camera 11 is further shifted by 1 ° in the vertical direction.
The maximum matching number C2 of the pixel data between (H, V) and b (H, V + 2) is obtained, and it is checked whether or not this is less than a predetermined threshold α. Thereafter, the process proceeds in the same manner, and both image data a (H, H) when the camera 11 is shifted by a total of v ° in the vertical direction.
V) and b (H, V + v), the maximum number of coincidences Cv of pixel data is obtained. If Cv <β, the shift angle v ° at this time is set as the vertical pitch angle of the camera 11.
【0036】次に図5の処理フローを説明するが、その
基本的な処理アルゴリズムは上記図4で述べたものと同
様であるので、同一のステップ番号を付して説明を省略
し、ここでは相違する部分を中心に説明する。即ち、ス
テップS21´では垂直ピッチ角レジスタv=0に初期
化する。ステップS25´ではレジスタV,vの各内容
に+1°する。ステップS30´では一致データ量≧β
か否かを判別する。そして、ステップS31´ではレジ
スタvの内容(=v°)を後述の監視用画面合成時にお
けるカメラ11の垂直ピッチ角に決定する。Next, the processing flow of FIG. 5 will be described. Since the basic processing algorithm is the same as that described in FIG. 4, the same step numbers are assigned and the description is omitted. The following description focuses on the differences. That is, in step S21 ', the vertical pitch angle register is initialized to v = 0. In step S25 ', the contents of the registers V and v are incremented by + 1 °. In step S30 ', the matching data amount ≧ β
It is determined whether or not. Then, in step S31 ′, the content of the register v (= v °) is determined to be the vertical pitch angle of the camera 11 at the time of monitoring screen synthesis described later.
【0037】図6は実施の形態による監視用画像合成処
理のフローチャート、図9は該処理のイメージ図であ
る。まず図9を参照して監視用画像合成処理の動作の概
要を説明する。メモリ領域Gの水平(X軸)方向の記憶
領域=1024(0〜1023)画素であり、これは表
示画面24aの水平(X軸)方向の解像度=1024画
素に対応している。カメラ11の水平方向の解像度=6
40画素(画角=20°)であるから、監視エリアの全
水平撮像画像(360°分)をそのまま横方向に並べる
と640×(360/20)=11520画素となる。
これを表示画面24aの1024画素上に収めるため
に、入力の各映像SGは実質的に1024/11520
≒0.089倍の各画像データSG11〜SGn1に圧縮さ
れている。一方、表示画面24aの垂直(Y軸)方向の
解像度=768画素であるが、監視エリアの全垂直画像
(105°分)の各圧縮画像データSG11〜SG1mを収
容するためには、メモリ領域Gの垂直(Y軸)方向の記
憶領域=299(0〜298)画素あれば良い。FIG. 6 is a flowchart of the monitoring image synthesizing process according to the embodiment, and FIG. 9 is an image diagram of the process. First, an outline of the operation of the monitoring image combining process will be described with reference to FIG. The storage area in the horizontal (X-axis) direction of the memory area G is 1024 (0 to 1023) pixels, which corresponds to the resolution (1024 pixels) in the horizontal (X-axis) direction of the display screen 24a. Horizontal resolution of camera 11 = 6
Since there are 40 pixels (angle of view = 20 °), if all the horizontal captured images (360 °) of the monitoring area are arranged in the horizontal direction as they are, 640 × (360/20) = 111520 pixels.
In order to fit this on 1024 pixels of the display screen 24a, each input image SG is substantially 1024/11520.
It is compressed into ≒ 0.089 times of the image data SG 11 to SG n1. On the other hand, is a resolution = 768 pixels in the vertical (Y-axis) direction of the display screen 24a, to accommodate the respective compressed image data SG 11 to SG 1 m of the total vertical image of the monitoring area (105 ° min), the memory It is sufficient if the storage area in the vertical (Y-axis) direction of the area G = 299 (0 to 298) pixels.
【0038】一例の画像合成は次の態様で行われる。ま
ずカメラ11を方位角(H.V)=(0°,−70°)
に向け、得られた圧縮画像データSG11をメモリ領域G
のアドレス(X1 ,Y1 )から展開する。次にカメラ1
1を方位角(H.V)=(18°,−70°)に向け、
得られた圧縮画像データSG21をメモリ領域Gのアドレ
ス(X2 ,Y1 )から展開する。この時、画像データS
G11,SG21の両記憶領域の重複部分には画像データS
G21の内の画像データSG11と同一の画像データが上書
されるため、両画像SG11,SG21は水平方向にスムー
ズに繋がる。An example of image synthesis is performed in the following manner. First, the camera 11 is set to an azimuth (H.V) = (0 °, -70 °).
A directed, the compressed image data obtained SG 11 memory areas G
From the address (X 1 , Y 1 ). Next, camera 1
1 to azimuth (H.V) = (18 °, -70 °)
The resulting compressed image data SG 21 to expand from the address of the memory area G (X 2, Y 1) . At this time, the image data S
The image data S is stored in the overlapping portion of the two storage areas G 11 and SG 21.
Since the image data SG 11 and the same image data of the G 21 are overwritten, two images SG 11, SG 21 leads smoothly in the horizontal direction.
【0039】なお、上記図7で述べた方法と同様にし
て、画像データSG11,SG21につき画素データが同一
となる領域を検出し、かつその分を画像データSG21か
ら削除し、その残りの画像データSG21を画像データS
G11に繋げる様にしてメモリ領域Gに書き込んでも良
い。こうすれば、両画像SG11,SG21は水平方向によ
り正確に繋がる。In the same manner as in the method described with reference to FIG. 7, an area where the pixel data is the same for the image data SG 11 and SG 21 is detected, and the corresponding area is deleted from the image data SG 21. image data S of the image data SG 21 of
In the manner connect to G 11 may be written to the memory area G. In this way, the images SG 11 and SG 21 are more accurately connected in the horizontal direction.
【0040】以下、同様にして進み、最後に画像データ
SGn1(n=19)を上書する。この時、h×n=18
°×19=342°>340°(水平限界角)となるた
め、最後の画像はカメラ11の方位角(H,V)=(3
40°,−70°)で撮像され、メモリ領域Gの対応す
るアドレス(X,Y)=(Xn ,Y1 )から展開され
る。Thereafter, the process proceeds in the same manner, and finally, the image data SG n1 (n = 19) is overwritten. At this time, h × n = 18
° × 19 = 342 °> 340 ° (horizontal limit angle), so the last image is the azimuth (H, V) of camera 11 = (3
The image is captured at (40 °, −70 °) and is developed from the corresponding address (X, Y) = (X n , Y 1 ) in the memory area G.
【0041】次にカメラ11を方位角(H.V)=(0
°,−57°)に戻し、得られた圧縮画像データSG12
をメモリ領域Gのアドレス(X,Y)=(X1 ,Y2 )
から展開する。この時、画像データSG11,SG12の両
記憶領域の重複部分には画像データSG12の内の画像デ
ータSG11と同一の画像データが上書されるため、両画
像SG11,SG12は垂直方向にもスムーズに繋がる。以
下、上記同様にして画像SG22〜SGn2を上書する。更
に上記同様にして進み、最終的には画像SG1m〜SGnm
を上書し、こうして全監視エリアを一目で認識できるよ
うな監視用画像データが合成される。Next, the camera 11 is set to an azimuth (HV) = (0
°, -57 °), and the obtained compressed image data SG 12
Is the address (X, Y) of the memory area G = (X 1 , Y 2 )
Expand from At this time, since the image data SG 11 and the same image data of the image data SG 11, SG image data SG 12 is the overlapping portion of both the storage area of 12 are overwritten, two images SG 11, SG 12 is Connects smoothly in the vertical direction. Hereinafter, it overwrites the image SG 22 to SG n2 in the same manner as described above. Further proceed in the same manner as described above, and finally, the images SG 1m to SG nm
Is overwritten, and thus the monitoring image data is synthesized such that the entire monitoring area can be recognized at a glance.
【0042】次に図6の監視用画像合成処理を説明す
る。ステップS41では各種レジスタの初期設定を行
う。即ち、カメラ11の方位角制御レジスタ(H,V)
=(0°,−70°),ズーム倍率レジスタZ=1(×
1)に初期設定する。またメモリ領域Gにおける画像デ
ータの記憶アドレス(X,Y)=(X1 ,Y1 )に初期
設定する。更にまたこの処理フローの流れを制御するた
めのスイッチフラグSW1=0,SW2=0に初期化す
る。ステップS42ではカメラ11を姿勢制御し、制御
完了を待つ。制御完了すると、ステップS43ではその
時の撮像映像SG(H,V)を入力してディジタル化
し、必要なら画像サイズを圧縮して画像データSG
(H,V)を生成する。ステップS44では画像データ
SG(H,V)をメモリ領域G(X,Y)に展開する。
ステップS45ではSW1=1(1水平方向の合成完
了)か否かを判別する。Next, the monitoring image synthesizing process shown in FIG. 6 will be described. In step S41, various registers are initialized. That is, the azimuth control registers (H, V) of the camera 11
= (0 °, -70 °), zoom magnification register Z = 1 (×
Initialize to 1). The storage address of the image data in the memory area G (X, Y) = initialized to (X 1, Y 1). Furthermore, switch flags SW1 = 0 and SW2 = 0 for controlling the flow of this processing flow are initialized. In step S42, the attitude of the camera 11 is controlled and the control is waited for. Upon completion of the control, in step S43, the captured image SG (H, V) at that time is input and digitized, and if necessary, the image size is compressed to reduce the image data SG.
(H, V) is generated. In step S44, the image data SG (H, V) is developed in the memory area G (X, Y).
In step S45, it is determined whether or not SW1 = 1 (combination in one horizontal direction is completed).
【0043】SW1=1でない場合は、ステップS46
に進み、カメラ11の方位角とメモリ領域Gの記憶領域
とを水平方向に更新(H=H+h,X=X+x)する。
ここで、h°はカメラ11の水平ピッチ角、xはメモリ
領域Gの水平ピッチ画素数である。ステップS47では
H≧340°か否かを判別する。H≧340°でない場
合はステップS42に戻り、次の画像データSG(H+
h,V)をメモリ領域(X+x,Y)から展開する。以
下同様にして進み、やがて、ステップS47の判別でH
≧340°になると、フローはステップS48に進み、
H=340°(カメラ11の水平方向限界制御角),X
=Xn (H=340°に対応するメモリ領域Gの記憶ア
ドレス)に夫々修正する。また、次の回で1水平方向の
画像合成処理が完了することにより、SW1=1に変更
し、ステップS42に戻る。If SW1 is not 1, step S46
To update the azimuth of the camera 11 and the storage area of the memory area G in the horizontal direction (H = H + h, X = X + x).
Here, h ° is the horizontal pitch angle of the camera 11, and x is the number of horizontal pitch pixels in the memory area G. In a step S47, it is determined whether or not H ≧ 340 °. If H ≧ 340 ° is not satisfied, the process returns to step S42, and the next image data SG (H +
h, V) from the memory area (X + x, Y). Thereafter, the process proceeds in a similar manner, and eventually, H is determined in step S47.
If ≧ 340 °, the flow proceeds to step S48,
H = 340 ° (horizontal limit control angle of camera 11), X
= X n (the storage address of the memory area G corresponding to H = 340 °). When the image synthesis processing in one horizontal direction is completed in the next round, SW1 is changed to 1 and the process returns to step S42.
【0044】次に、ステップS45の判別でSW1=1
であると、フーはステップS49に進み、更にSW2=
1(垂直方向の画像合成完了)か否かを判別する。SW
2=1でない場合は、ステップS50でカメラ11の方
位角(H,V)=(0,V+v)に更新し、これに伴い
メモリ領域Gの展開アドレス(X,Y)=(X1 ,Y+
y)に更新する。またSW1=0(1水平方向の画像合
成再開)に更新する。ステップS52ではV≧20°
(カメラ11の垂直方向限界制御角)か否かを判別し、
V≧20°でない場合はステップS42に戻り、次の画
像データSG(H,V+v)をメモリ領域(X,Y+
y)から展開する。Next, SW1 = 1 in the determination of step S45.
, The fu proceeds to step S49, and furthermore, SW2 =
1 (completion of image synthesis in the vertical direction) is determined. SW
If not 2 = 1, the azimuth angle of the camera 11 in Step S50 (H, V) = ( 0, V + v) is updated, the expansion address (X, Y) of the memory areas G Accordingly = (X 1, Y +
Update to y). In addition, SW1 is updated to 0 (resume image synthesis in one horizontal direction). In step S52, V ≧ 20 °
(Vertical limit control angle of the camera 11) or not, and
If not V ≧ 20 °, the flow returns to step S42 to store the next image data SG (H, V + v) in the memory area (X, Y +
Expand from y).
【0045】以下同様にして進み、やがて、ステップS
52の判別でV≧20°になると、フローはステップS
53に進み、V=20°(カメラ11の垂直方向限界制
御角),Y=Ym (V=20°に対応するメモリ領域G
の記憶アドレス)に夫々修正する。また、次回で1水平
方向の画像合成処理を再開し、かつ次回で垂直方向の画
像合成処理が完了することにより、SW1=0,SW2
=1に変更し、ステップS42に戻る。こうして、やが
てステップS49の判別でSW2=1であると、この処
理を終了する。Thereafter, the process proceeds in the same manner, and eventually, step S
If V ≧ 20 ° in the determination of 52, the flow is step S
Proceeding to 53, V = 20 ° (vertical limit control angle of the camera 11), Y = Y m (memory area G corresponding to V = 20 °)
To the storage addresses of the respective). The next time the horizontal image synthesizing process is restarted and the next vertical image synthesizing process is completed, SW1 = 0, SW2
= 1 and returns to step S42. Thus, if it is determined in the step S49 that SW2 = 1, the process is terminated.
【0046】図10は実施の形態による画面−カメラ角
変換テーブル生成処理のイメージ図で、この変換テーブ
ルは表示画面24aにおける合成画像上の指定位置をカ
メラ11の方位角制御情報に変換する目的で生成され
る。図10(A)は水平軸換算処理のイメージ図で、図
の横軸は表示画面24aの水平座標X、縦軸はカメラ1
1の水平制御角Hを表している。まず0≦X≦28の範
囲内の画像はカメラ11の水平方位角H=0°の撮像範
囲内に含まれるため、H=0°に変換される。次に29
<X<995の範囲内の画像はカメラ11の1°≦H≦
339°の撮像範囲内に含まれるため、この場合は指定
座標Xに対応する監視位置を略中心とする様な撮像映像
が表示画面に現れる様に、最寄りの水平方位角Hに1°
単位で変換される。FIG. 10 is an image diagram of the screen-camera angle conversion table generation processing according to the embodiment. This conversion table is generated for the purpose of converting the designated position on the composite image on the display screen 24a into the azimuth control information of the camera 11. Is done. FIG. 10A is an image diagram of the horizontal axis conversion processing, in which the horizontal axis is the horizontal coordinate X of the display screen 24a and the vertical axis is the camera 1
1 represents a horizontal control angle H. First, since an image in the range of 0 ≦ X ≦ 28 is included in the imaging range of the camera 11 with the horizontal azimuth angle H = 0 °, it is converted to H = 0 °. Then 29
The image in the range of <X <995 is 1 ° ≦ H ≦
Since it is included in the imaging range of 339 °, in this case, the nearest horizontal azimuth angle H is set to 1 ° so that a captured image substantially centered on the monitoring position corresponding to the designated coordinate X appears on the display screen.
Converted in units.
【0047】今、指定座標X=30とすると、水平方位
角H=[(340/967)×(30−28)]=1°
に変換される。ここで、記号[ ]は小数点以下の四捨
五入を表す。なお、指定座標X=30の映像は水平方位
角H=0°の撮像範囲にも含まれるが、もし水平方位角
H=1°で撮像すれば、指定座標Xを略中心とする様な
映像が表示画面に現れる。従って、ズームを拡大しても
指定座標Xを略中心とする様な撮像映像を常に見ること
が可能となる。また指定座標X=511(中央)とする
と、水平方位角H=[(340/967)×(511−
28)]=170°(中央)に変換される。次に996
≦X≦1023の範囲内の画像はカメラ11の水平方位
角H=340°の撮像範囲内に含まれるため、H=34
0°に変換される。Now, assuming that the designated coordinates X = 30, the horizontal azimuth angle H = [(340/967) × (30-28)] = 1 °.
Is converted to Here, the symbol [] indicates rounding off to the decimal point. Note that the image at the designated coordinate X = 30 is also included in the imaging range of the horizontal azimuth angle H = 0 °, but if the image is taken at the horizontal azimuth angle H = 1 °, the image is such that the designated coordinate X is substantially at the center. Appears on the display screen. Therefore, even if the zoom is enlarged, it is possible to always view a captured image having the designated coordinate X substantially at the center. If the designated coordinates X = 511 (center), the horizontal azimuth angle H = [(340/967) × (511−).
28)] = 170 ° (center). Then 996
Since the image within the range of ≤X≤1023 is included in the imaging range of the camera 11 at the horizontal azimuth angle H = 340 °, H = 34.
Converted to 0 °.
【0048】図10(B)は垂直軸換算処理のイメージ
図で、図の横軸は表示画面24aの相対垂直座標Y、縦
軸はカメラ11の垂直制御角Vを表している。なお、相
対垂直座標Y=(Ya +Y)−Ya により得られる。こ
こで、座標Ya は表示画面24aに合成画像を重畳する
際のベース座標である。まず0≦Y≦21の範囲内の画
像はカメラ11の垂直方位角V=−70°の撮像範囲内
に含まれるため、V=−70°に変換される。次に22
<Y<277の範囲内の画像は−69°≦V≦19°の
撮像範囲内に含まれるため、この場合は指定座標Yに対
応する監視位置を略中心とする様な撮像映像が表示画面
に現れる様に、最寄りの垂直方位角Vに1°単位で変換
される。FIG. 10B is an image diagram of the vertical axis conversion processing, in which the horizontal axis represents the relative vertical coordinate Y of the display screen 24 a and the vertical axis represents the vertical control angle V of the camera 11. Incidentally, obtained by relative vertical coordinate Y = (Y a + Y) -Y a. Here, the coordinate Y a is a base coordinate when superimposing the composite image on the display screen 24a. First, an image in the range of 0 ≦ Y ≦ 21 is included in the imaging range of the vertical azimuth angle V = −70 ° of the camera 11, and is therefore converted to V = −70 °. Then 22
Since the image in the range of <Y <277 is included in the imaging range of −69 ° ≦ V ≦ 19 °, in this case, a captured image that is substantially centered on the monitoring position corresponding to the designated coordinate Y is displayed on the display screen. Is converted to the nearest vertical azimuth angle V in units of 1 °.
【0049】今、指定座標Y=23とすると、垂直方向
の相対変移角V´=[(90/256)×(23−2
1)]=1°(絶対方位角V=−69°)に変換され
る。また指定座標Y=149(中央)とすると、垂直方
向の相対変移角V´=[(90/256)×(149−
21)]=45°(絶対方位角V=−25°:中央)に
変換される。次に277≦Y≦298の範囲内の画像は
カメラ11の垂直方位角V=20°の撮像範囲内に含ま
れるため、V=20°に変換される。Now, assuming that the designated coordinate Y = 23, the relative displacement angle V 'in the vertical direction = [(90/256) × (23-2)
1)] = 1 ° (absolute azimuth angle V = −69 °). If the designated coordinate Y is 149 (center), the vertical relative displacement angle V ′ = [(90/256) × (149−
21)] = 45 ° (absolute azimuth angle V = −25 °: center). Next, since the image within the range of 277 ≦ Y ≦ 298 is included in the imaging range of the camera 11 with the vertical azimuth angle V = 20 °, it is converted to V = 20 °.
【0050】図3に戻り、ステップS5では上記生成し
た監視用合成画像等を主表示部24の表示画面24aに
ウィンドウ表示する。テップS6では合成画像上に枠カ
ーソルCを表示する。ステップS7ではマウス27のク
リック等によるイベント割込を許可にする。ステップS
8ではイベント割込待ち(IDLE)となる。Returning to FIG. 3, in step S5, the generated synthetic image for monitoring and the like is window-displayed on the display screen 24a of the main display unit 24. In step S6, a frame cursor C is displayed on the composite image. In step S7, event interruption by clicking the mouse 27 or the like is permitted. Step S
In step 8, an event interruption wait (IDLE) is set.
【0051】図3(B)は実施の形態による監視映像表
示処理を示しており、ユーザが画面の監視用合成画像上
で枠カーソルを移動させ、かつ所望の位置でマウス27
をダブルクリックするとこの処理に割込入力する。ステ
ップI1ではその後のイベント割込を不許可にする。ス
テップI2では枠カーソルCの指定(中心)座標に基づ
き上記ステップS4で生成した画面−カメラ制御角換算
テーブルを使用して、カメラ11の姿勢(方位角)制御
情報を求める。ステップI4では求めた方位角情報
(H,V)でカメラ11を姿勢制御し、姿勢制御完了を
待つ。制御完了すると、ステップI5ではカメラ11の
監視映像を入力し、これを必要なサイズの監視映像デー
タに変換し、生の監視映像を表示画面24aの一部に表
示する。以後、この映像表示は連続して行われる。ステ
ップI6ではイベント割込を許可にし、この処理を抜け
る。FIG. 3B shows a monitoring video display process according to the embodiment, in which the user moves the frame cursor on the monitoring composite image on the screen and moves the mouse 27 at a desired position.
Double-click to interrupt this process. In step I1, the subsequent event interruption is not permitted. In step I2, the attitude (azimuth) control information of the camera 11 is obtained using the screen-camera control angle conversion table generated in step S4 based on the designated (center) coordinates of the frame cursor C. In step I4, the attitude of the camera 11 is controlled based on the obtained azimuth information (H, V), and the completion of the attitude control is awaited. When the control is completed, in step I5, the monitoring video of the camera 11 is input, converted into monitoring video data of a required size, and the raw monitoring video is displayed on a part of the display screen 24a. Thereafter, this video display is performed continuously. In step I6, the event interruption is permitted, and the process exits.
【0052】図3(C)は実施の形態によるズーム選択
処理を示しており、ユーザが表示画面24a上のズーム
選択ボタンをクリックするとこの処理に割込入力する。
ステップI11ではその後のイベント割込を不許可にす
る。ステップI12では表示画面24a上の枠カーソル
Cのサイズを指定ズーム倍率に対応した大きさに変更す
る。即ち、もし指定ズーム倍率Zが小さいと、カメラ1
1の実質的な画角(視野角)は大きくなるため、これに
比例して枠カーソルCのサイズは大きくなる。また指定
ズーム倍率Zが大きいと、カメラ11の実質的な画角
(視野角)は小さくなるため、これに比例して枠カーソ
ルCのサイズは小さくなる。こうして、監視者は監視用
合成画像上のどの部分の映像を監視出来るかを容易に認
識出来る。ステップI13では選択されたズーム倍率に
対応するカメラ11のズーム制御情報(焦点距離情報)
を生成する。ステップI14では該ズーム制御情報でカ
メラ11をズーム制御し、制御完了を待つ。制御完了す
ると、ステップI15ではイベント割込を許可にし、こ
の処理を抜ける。FIG. 3C shows the zoom selection process according to the embodiment. When the user clicks the zoom selection button on the display screen 24a, the user interrupts this process.
In step I11, the subsequent event interruption is not permitted. In step I12, the size of the frame cursor C on the display screen 24a is changed to a size corresponding to the designated zoom magnification. That is, if the designated zoom magnification Z is small, the camera 1
Since the substantial angle of view (viewing angle) of No. 1 increases, the size of the frame cursor C increases in proportion thereto. If the designated zoom magnification Z is large, the substantial angle of view (viewing angle) of the camera 11 becomes small, and the size of the frame cursor C becomes small in proportion to this. In this way, the observer can easily recognize which portion of the monitoring composite image can be monitored. In step I13, zoom control information (focal length information) of the camera 11 corresponding to the selected zoom magnification.
Generate In step I14, the camera 11 is zoom-controlled using the zoom control information, and the control is awaited. When the control is completed, in step I15, the event interruption is permitted, and the process exits.
【0053】次に上記ステップS5以降の処理イメージ
を図に従って説明する。図11は実施の形態によるリモ
ートカメラ監視処理のイメージ図である。表示画面24
aのサイズは(1024×768)画素からなり、その
上部のウィンドウ領域W1は各種の制御用アイコンが並
ぶツールバーの表示領域、その下のウィンドウ領域W2
は上記生成された監視用合成画像の表示領域、そして、
残りのウィンドウ領域W3は生の監視映像の表示領域と
なっている。Next, the processing image after step S5 will be described with reference to the drawings. FIG. 11 is an image diagram of a remote camera monitoring process according to the embodiment. Display screen 24
The size of a is (1024 × 768) pixels, the upper window area W1 is a toolbar display area where various control icons are arranged, and the lower window area W2
Is a display area of the generated monitoring synthetic image, and
The remaining window area W3 is a display area for live monitoring video.
【0054】ツールバーには監視用合成画像をリフレッ
シュ(再合成)するためのリフレッシュボタン「R
F」、監視映像の表示を停止させるためのストップボタ
ン「ST」、カメラ11のズーム倍率を選択するための
ズーム選択ボタン「×1」〜「×16」、カメラ11の
焦点距離(ズーム倍率)を1mm単位でアップ/ダウン
させるためのアップ/ダウンボタン「△」「▽」等が表
示されている。これらはパーソナルコンピュータ等にお
けるグラフィック・ユーザ・インタフェース(GUI)
技術を利用することで容易に生成し、制御できる。On the toolbar, a refresh button “R” for refreshing (re-synthesizing) the monitoring synthetic image is displayed.
F ", a stop button" ST "for stopping the display of the monitoring video, a zoom selection button" x1 "to" x16 "for selecting a zoom magnification of the camera 11, a focal length of the camera 11 (zoom magnification). Up / Down buttons “△”, “▽”, etc., for raising / lowering by 1 mm are displayed. These are graphic user interfaces (GUIs) for personal computers, etc.
It can be easily generated and controlled using technology.
【0055】また、ウィンドウ領域W2にはカメラ11
の全監視領域(H=0°〜340°,V=−70°〜2
0°)について予め撮像・合成された監視用合成画像
(SG 11〜SGnm)が表示される。好ましくは、ウィン
ドウ領域W2の周囲に監視エリアの方位角情報(H=0
°〜340°,V=−70°〜20°)を併せて表示す
る。また監視者は、リフレッシュボタン「RF」をクリ
ックすることで何時でも監視用合成画像をリフレッシュ
できる。The camera 11 is located in the window area W2.
Monitoring range (H = 0 ° to 340 °, V = −70 ° to 2
0 °) composite image for monitoring captured and synthesized in advance
(SG 11~ SGnm) Is displayed. Preferably, Win
Around the dough area W2, azimuth information of the monitoring area (H = 0)
° -340 °, V = -70 ° -20 °)
You. The monitor also clicks the refresh button “RF”.
Refresh the composite image for monitoring at any time by clicking
it can.
【0056】更に、ウィンドウ領域W2の監視用合成画
像上に重ねて枠カーソルCが表示される。この枠カーソ
ルCの表示位置はポインティングデバイス(マウス等)
27により任意の位置に移動可能である。枠カーソルC
は、その中心を通る様な水平・垂直の各中心線を備えて
おり、その交点の座標(X,Y)はカメラ11の最寄り
の方位角制御情報(H,V)に変換されることから、上
記交点の座標(X,Y)はウィンドウ領域W3(生の映
像)の略中央に対応することとなる。また枠カーソルC
はズームの選択及びアプウ/ダウン操作に従って枠の大
きさをズーム倍率に対応する大きさに変える。Further, a frame cursor C is displayed on the composite image for monitoring in the window area W2. The display position of this frame cursor C is a pointing device (mouse etc.)
27 allows it to be moved to any position. Frame cursor C
Has horizontal and vertical center lines passing through the center thereof, and the coordinates (X, Y) of the intersection are converted into the azimuth control information (H, V) nearest to the camera 11. The coordinates (X, Y) of the intersection correspond to the approximate center of the window area W3 (raw video). Also, frame cursor C
Changes the size of the frame to a size corresponding to the zoom magnification according to the selection of the zoom and the up / down operation.
【0057】図には指定ズームZ=1の時の枠カーソル
C1を示している。この枠カーソルC1の大きさは監視
用合成画像を構成する一つの部分合成画像SGの大きさ
と同一である。また例えば指定ズームZ=4に変更する
と、これに連動して枠カーソルCの大きさも変更され、
図はこの場合の枠カーソルC4を示している。この枠カ
ーソルC4の大きさは枠カーソルC1の1/4の大きさ
であり、ユーザは枠カーソルC4を見るだけで、監視用
合成画像上のどの部分の映像が監視可能かを正確に把握
(実感)できる。また、図示しないが、枠カーソルCは
指定ズームのアップ/ダウン操作に従ってその大きさを
微小に変化させる。なお、好ましくは、この時の正確な
ズーム倍率をウィンドウ表示させる。かくして、ユーザ
は全監視エリア中の所望のエリアの監視映像を所望の倍
率で瞬時にアクセスできる。The figure shows the frame cursor C1 when the designated zoom Z = 1. The size of the frame cursor C1 is the same as the size of one partial composite image SG constituting the monitoring composite image. Also, for example, when the designated zoom Z is changed to 4, the size of the frame cursor C is also changed in conjunction with this,
The figure shows the frame cursor C4 in this case. The size of the frame cursor C4 is one-fourth the size of the frame cursor C1, and the user can grasp exactly which part of the video on the monitoring composite image can be monitored simply by looking at the frame cursor C4 ( I can). Although not shown, the size of the frame cursor C is minutely changed according to the up / down operation of the designated zoom. Preferably, an accurate zoom magnification at this time is displayed in a window. Thus, the user can instantly access the monitoring video of a desired area of the entire monitoring area at a desired magnification.
【0058】更に、図11のウィンドウ領域W3には枠
カーソルC4で囲まれる監視位置の監視映像がリアルタ
イムに表示されている。なお、ウィンドウ領域W3(即
ち、監視映像)が小さい場合には、該ウィンドウ領域W
3を広げて、その一部がウィンドウ領域W2にオーバラ
ップする様にして表示することが可能である。こうすれ
ば、図示の様な画面サイズであっても、カメラ11のフ
ル解像度(640×480画素)の映像を表示できる。
又は、上記図2に示した如く、別途に副表示部(SDS
P)31を設け、主表示部(MDSP)24には専ら監
視用合成画像等を表示し、また副表示部31には専ら監
視映像を表示する様に構成しても良い。Further, in the window area W3 of FIG. 11, a monitoring image of the monitoring position surrounded by the frame cursor C4 is displayed in real time. When the window area W3 (that is, the monitoring image) is small, the window area W3
3 can be displayed so that a part thereof is overlapped with the window area W2. In this way, even if the screen size is as shown in the figure, an image of the camera 11 at the full resolution (640 × 480 pixels) can be displayed.
Alternatively, as shown in FIG. 2, the sub display unit (SDS
P) 31 may be provided so that the main display unit (MDSP) 24 exclusively displays a composite image for monitoring and the like, and the sub-display unit 31 may exclusively display monitoring video.
【0059】図12は他の実施の形態によるリモートカ
メラ監視方式のイメージ図(1)で、単一の監視端末2
0により遠隔の複数の監視用カメラ10a〜10cをリ
モート制御する一典型的な例を示している。図12
(A)はそのシステム構成図を示しており、ここでは、
長い河川に沿って互いに独立した監視エリアを担当する
ための複数のカメラシステム10a〜10cが分散配置
されており、各カメラシステム10a〜10cはネット
ワーク(通信回線)100を介して監視センター200
の監視端末20に接続されている。好ましくは、この監
視端末20には3つの副表示部31a〜31cが接続さ
れる。FIG. 12 is an image diagram (1) of a remote camera monitoring system according to another embodiment.
0 shows a typical example of remote control of a plurality of remote monitoring cameras 10a to 10c. FIG.
(A) shows the system configuration diagram, and here,
A plurality of camera systems 10a to 10c for handling independent monitoring areas along a long river are distributed and arranged. Each of the camera systems 10a to 10c is connected to a monitoring center 200 via a network (communication line) 100.
Is connected to the monitoring terminal 20. Preferably, three sub display units 31a to 31c are connected to the monitoring terminal 20.
【0060】図12(B)は表示画面24aの一例の表
示態様を示している。この場合のCPU21は、画面制
御やズーム制御等に係るツールバーを共通のウィンドウ
領域W1に表示する。またカメラ10a〜10cを順次
リモート制御して夫々の監視用合成画像を生成し、これ
らを3つのウィンドウ領域W2a〜W2cに夫々表示す
る。従って、この場合の監視者は遠隔の3つの独立した
各監視エリアの全状況(地理構成)を一画面上で容易に
把握できる。また各ウィンドウ領域W2a〜W2cに
は、その監視位置やズーム指定を個別に制御可能な3つ
の枠カーソルCa〜Ccが夫々に表示され、一例の枠カ
ーソルサイズはC1a(Z=1),C8b(Z=8),
C16c(Z=16)となっている。FIG. 12B shows a display mode of an example of the display screen 24a. In this case, the CPU 21 displays toolbars related to screen control, zoom control, and the like in the common window area W1. Further, the cameras 10a to 10c are sequentially and remotely controlled to generate respective monitoring composite images, and these are displayed in three window regions W2a to W2c, respectively. Therefore, the observer in this case can easily grasp on a single screen the entire situation (geographical configuration) of each of the three independent remote monitoring areas. In each of the window areas W2a to W2c, three frame cursors Ca to Cc, whose monitoring positions and zoom designations can be individually controlled, are respectively displayed. The example frame cursor sizes are C1a (Z = 1) and C8b ( Z = 8),
C16c (Z = 16).
【0061】一方、カメラ10a〜10cの生の撮像映
像を表示するためのウィンドウ領域W3a〜W3cは副
表示部31a〜31c上に夫々設けられている。従っ
て、この場合の監視者は一人で3つの独立した監視エリ
アの生の撮像映像を同時に監視できる。また、監視者が
例えばカメラ10aを選択してリフレッシュボタン「R
F」をクリックすると、ウィンドウ領域W2aの監視用
合成画像がリフレッシュされる。On the other hand, window areas W3a to W3c for displaying raw captured images of the cameras 10a to 10c are provided on the sub-display sections 31a to 31c, respectively. Therefore, the observer in this case can monitor the live picked-up images of the three independent monitoring areas simultaneously. Further, the observer selects the camera 10a, for example, and selects the refresh button “R
When "F" is clicked, the monitoring composite image in the window area W2a is refreshed.
【0062】図13は他の実施の形態によるリモートカ
メラ監視方式のイメージ図(2)で、単一の監視端末2
0により遠隔の複数の監視用カメラ10a〜10cをリ
モート制御する更に他の典型的な例を示している。図1
3(A)はそのシステム構成図を示しており、ここでは
比較的複雑な地形の港湾等の一角に、その監視エリアの
主監視を担当するためのカメラシステム10aと、該カ
メラシステム10aの監視を補助する目的で設けられた
カメラシステム10b,10cとが互いに近接して設け
られており、各カメラシステム10a〜10cは通信回
線等を介して監視センター200の監視端末20に接続
されている。好ましくは、この監視端末20には2つの
副表示部31b,31cが接続される。FIG. 13 is an image diagram (2) of a remote camera monitoring system according to another embodiment, in which a single monitoring terminal 2 is used.
0 shows still another typical example of remotely controlling a plurality of remote monitoring cameras 10a to 10c. FIG.
FIG. 3A shows a system configuration diagram of a camera system 10a in charge of main monitoring of a monitoring area in a corner of a port having relatively complicated terrain, and monitoring of the camera system 10a. Camera systems 10b and 10c provided for the purpose of assisting each other are provided close to each other, and each of the camera systems 10a to 10c is connected to the monitoring terminal 20 of the monitoring center 200 via a communication line or the like. Preferably, two sub display units 31b and 31c are connected to the monitoring terminal 20.
【0063】図13(B)は表示画面24aの一例の表
示態様を示している。この場合のCPU21は、画面制
御やズーム制御等に係るツールバーを共通のウィンドウ
領域W1に表示する。また主カメラ10aをリモート制
御してその監視用合成画像を生成し、これを単一のウィ
ンドウ領域W2aに表示する。従って、この場合の監視
者は単一の監視エリアの全状況(地理構成)を容易に把
握できる。またこのウィンドウ領域W2aには、その監
視位置やズーム指定を個別に制御可能な3つの枠カーソ
ルCa〜Ccが夫々に表示され、一例の枠カーソルのサ
イズはC2a(Z=2),C8b(Z=8),C16c
(Z=16)となっている。FIG. 13B shows a display mode of an example of the display screen 24a. In this case, the CPU 21 displays toolbars related to screen control, zoom control, and the like in the common window area W1. Further, the main camera 10a is remotely controlled to generate a monitoring synthetic image, and the generated synthetic image is displayed in a single window area W2a. Therefore, the observer in this case can easily grasp the entire situation (geographical configuration) of the single monitored area. Also, in this window area W2a, three frame cursors Ca to Cc whose respective monitoring positions and zoom designations can be individually controlled are displayed, and the sizes of the example frame cursors are C2a (Z = 2) and C8b (Z8). = 8), C16c
(Z = 16).
【0064】また、主カメラ10aの生の撮像映像を表
示するためのウィンドウ領域W3aは表示画面24a上
に設けられ、一方、副カメラ10b,10cの生の撮像
映像を表示するためのウィンドウ領域W3b,W3cは
副表示部31b,31c上に夫々設けられている。従っ
て、この場合の監視者は、基本的には主カメラ10aを
使用して本来の監視業務を行うと共に、同時に副カメラ
10b,10cを使用して他の箇所の生の映像を同時に
監視できる。この時、上記副カメラ10b,10cは主
カメラ10aに近接して設けられているので、その視界
は主カメラ10aと略同様であり、よって副カメラ10
b,10cのカーソル制御については、主カメラ10a
を使用して合成された監視用合成画像を利用して適正に
行える。A window area W3a for displaying a raw captured image of the main camera 10a is provided on the display screen 24a, while a window area W3b for displaying a raw captured image of the sub cameras 10b and 10c. , W3c are provided on the sub display units 31b, 31c, respectively. Therefore, in this case, the observer can basically perform the original surveillance work using the main camera 10a and simultaneously monitor live images of other places using the sub cameras 10b and 10c. At this time, since the sub cameras 10b and 10c are provided close to the main camera 10a, the field of view is substantially the same as that of the main camera 10a.
b, 10c, the main camera 10a
Can be properly performed by using the monitoring synthetic image synthesized by using.
【0065】なお、上記各実施の形態では具体的数値例
(画角,制御角、解像度等)を伴って説明をしたが、本
発明がこれらに限定されないことは明らかである。Although the above embodiments have been described with specific numerical examples (angle of view, control angle, resolution, etc.), it is clear that the present invention is not limited to these.
【0066】また、カメラ11は赤外線カメラ等を使用
できる。The camera 11 can be an infrared camera or the like.
【0067】また、上記本発明に好適なる複数の実施の
形態を述べたが、本発明思想を逸脱しない範囲内で各部
の構成、制御、処理及びこれらの組合せの様々な変更が
行えることは言うまでも無い。Although a plurality of preferred embodiments of the present invention have been described, it is to be understood that various changes in the configuration, control, processing, and combinations thereof can be made without departing from the spirit of the present invention. Not even.
【0068】[0068]
【発明の効果】以上述べた如く本発明によれば、監視者
は、監視対象である1又は2以上の現場についての地理
的知識が無くても、監視空間の全体像を容易に把握で
き、よって所望の監視ポイントを容易かつ適切に監視で
きる。従って、リモートカメラ監視システムの機能発揮
や操作性向上等に寄与する所が極めて大きい。As described above, according to the present invention, the observer can easily grasp the entire image of the monitored space without geographical knowledge of one or more sites to be monitored. Therefore, a desired monitoring point can be easily and appropriately monitored. Therefore, there is a great deal of contribution to the functioning of the remote camera monitoring system and the improvement of operability.
【図1】本発明の原理を説明する図である。FIG. 1 is a diagram illustrating the principle of the present invention.
【図2】実施の形態によるリモートカメラ監視システム
の構成を示す図である。FIG. 2 is a diagram showing a configuration of a remote camera monitoring system according to an embodiment.
【図3】実施の形態によるリモートカメラ監視処理のフ
ローチャートである。FIG. 3 is a flowchart of a remote camera monitoring process according to the embodiment.
【図4】実施の形態による水平ピッチ角決定処理のフロ
ーチャートである。FIG. 4 is a flowchart of a horizontal pitch angle determination process according to the embodiment.
【図5】実施の形態による垂直ピッチ角決定処理のフロ
ーチャートである。FIG. 5 is a flowchart of a vertical pitch angle determination process according to the embodiment.
【図6】実施の形態による監視用画像合成処理のフロー
チャートである。FIG. 6 is a flowchart of a monitoring image synthesizing process according to the embodiment;
【図7】実施の形態による水平ピッチ角決定処理のイメ
ージ図である。FIG. 7 is an image diagram of horizontal pitch angle determination processing according to the embodiment.
【図8】実施の形態による垂直ピッチ角決定処理のイメ
ージ図である。FIG. 8 is an image diagram of a vertical pitch angle determination process according to the embodiment.
【図9】実施の形態による監視用画像合成処理のイメー
ジ図である。FIG. 9 is an image diagram of a monitoring image synthesizing process according to the embodiment;
【図10】実施の形態による画面−カメラ角変換テーブ
ル生成処理のイメージ図である。FIG. 10 is an image diagram of a screen-camera angle conversion table generation process according to the embodiment.
【図11】実施の形態によるリモートカメラ監視処理の
イメージ図である。FIG. 11 is an image diagram of a remote camera monitoring process according to the embodiment.
【図12】他の実施の形態によるリモートカメラ監視方
式のイメージ図(1)である。FIG. 12 is an image diagram (1) of a remote camera monitoring system according to another embodiment.
【図13】他の実施の形態によるリモートカメラ監視方
式のイメージ図(2)である。FIG. 13 is an image diagram (2) of a remote camera monitoring method according to another embodiment.
【図14】従来技術を説明する図である。FIG. 14 is a diagram illustrating a conventional technique.
10 カメラシステム 11 カメラ 12 電動ズームレンズ 13 旋回機構部 14 架台 20 監視端末 21 CPU 22 プログラムメモリ(PMEM) 23 カメラインタフェース(CIF) 24 主表示部(MDSP) 24a 表示画面 25 ビデオインタフェース(VIF) 25a ビデオRAM(VRAM) 26 キーボード(KBD) 27 ポインティングデバイス(PD) 28 データメモリ(DMEM) 29 ハードディスク装置(HDD) 30 共通バス 31 副表示部(SDSP) 100 ネットワーク 200 監視センター DESCRIPTION OF SYMBOLS 10 Camera system 11 Camera 12 Electric zoom lens 13 Rotation mechanism part 14 Mount 20 Monitoring terminal 21 CPU 22 Program memory (PMEM) 23 Camera interface (CIF) 24 Main display part (MDSP) 24a Display screen 25 Video interface (VIF) 25a Video RAM (VRAM) 26 Keyboard (KBD) 27 Pointing device (PD) 28 Data memory (DMEM) 29 Hard disk drive (HDD) 30 Common bus 31 Secondary display unit (SDSP) 100 Network 200 Monitoring center
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C054 AA01 CA04 CC02 CE12 CE15 CF06 CG02 CH01 EA01 EA05 FA09 FC12 FE01 FE17 HA18 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5C054 AA01 CA04 CC02 CE12 CE15 CF06 CG02 CH01 EA01 EA05 FA09 FC12 FE01 FE17 HA18
Claims (7)
メラと、該カメラをリモート制御して得られた映像情報
をモニタ画面上に表示するカメラ制御装置とを備えるカ
メラ監視システムのリモートカメラ監視方法において、 予めカメラをリモート制御して得られた所定の監視エリ
アについての全映像情報を1平面上に合成してその監視
用合成画像をモニタ画面上に表示すると共に、該モニタ
画面上の監視用合成画像に対する外部入力の位置指定情
報に従って前記カメラを指定位置方向に旋回制御し、得
られた指定位置の映像情報をモニタ画面上に表示するこ
とを特徴とするリモートカメラ監視方法。1. A remote camera monitoring method for a camera monitoring system comprising: a remote camera that can be turned by remote control; and a camera control device that displays video information obtained by remotely controlling the camera on a monitor screen. All the video information about a predetermined monitoring area obtained by remote control of the camera in advance is combined on one plane, and the monitoring composite image is displayed on the monitor screen, and the monitoring composite image on the monitor screen is displayed. A remote camera monitoring method, characterized in that the camera is controlled to turn in the direction of a designated position in accordance with position designation information of an external input to an image, and the obtained video information of the designated position is displayed on a monitor screen.
れ、かつリモート制御により旋回可能な複数のカメラ
と、前記各カメラをリモート制御して得られた映像情報
をモニタ画面上に表示するカメラ制御装置とを備えるカ
メラ監視システムのリモートカメラ監視方法において、 予め各カメラを夫々にリモート制御して得られた各所定
の監視エリア毎の全映像情報を夫々1平面上に合成して
その各監視用合成画像をモニタ画面上に同時に表示する
と共に、該モニタ画面上の各監視用合成画像に対する外
部入力の各位置指定情報に従って各対応するカメラを各
指定位置方向に旋回制御し、得られた各指定位置の映像
情報をモニタ画面上に表示することを特徴とするリモー
トカメラ監視方法。2. A plurality of cameras distributed in a monitoring area separated from each other and capable of turning by remote control, and a camera control device for displaying video information obtained by remotely controlling each of the cameras on a monitor screen. In a remote camera monitoring method for a camera monitoring system comprising: a camera monitoring system, all video information for each predetermined monitoring area obtained by remotely controlling each camera in advance is synthesized on one plane, and each monitoring synthesis is performed. The images are simultaneously displayed on the monitor screen, and each corresponding camera is controlled to rotate in the direction of each designated position in accordance with each position designation information of an external input for each of the synthesized images for monitoring on the monitor screen. And displaying the video information on a monitor screen.
リモート制御により旋回可能な複数のカメラと、前記各
カメラをリモート制御して得られた映像情報をモニタ画
面上に表示するカメラ制御装置とを備えるカメラ監視シ
ステムのリモートカメラ監視方法において、 予め所定のカメラをリモート制御して得られた所定の監
視エリアについての全映像情報を1平面上に合成してそ
の監視用合成画像をモニタ画面上に表示すると共に、該
モニタ画面上の監視用合成画像に対する外部入力の複数
の位置指定情報に従って各対応するカメラを各指定位置
方向に旋回制御し、得られた各指定位置の映像情報をモ
ニタ画面上に表示することを特徴とするリモートカメラ
監視方法。3. A plurality of cameras arranged close to a common monitoring area and capable of turning by remote control, and a camera control device for displaying video information obtained by remotely controlling each of the cameras on a monitor screen. In a remote camera monitoring method for a camera monitoring system comprising: (a) combining all video information of a predetermined monitoring area obtained by remotely controlling a predetermined camera in advance on one plane, and combining the monitoring composite image on a monitor screen; In accordance with a plurality of position designation information of the external input to the monitoring composite image on the monitor screen, each corresponding camera is controlled to turn in each designated position direction, and the obtained video information of each designated position is displayed on the monitor screen. A method for monitoring a remote camera, the method being displayed above.
以上の遠隔のカメラと、該カメラをリモート制御して得
られた映像情報をモニタ画面上に表示するカメラ制御装
置とを備えるカメラ監視システムのカメラ制御装置にお
いて、 予め所定のカメラをリモート制御して得られた所定の監
視エリアについての全映像情報を1平面上に合成してそ
の監視用合成画像をモニタ画面上に表示する監視用合成
画像表示制御手段と、 前記モニタ画面の監視用合成画像上にカーソルを表示し
て該監視用合成画像上の任意位置を指定入力可能な位置
入力手段と、 前記入力された位置指定情報に従って前記所定のカメラ
を指定位置方向に旋回制御し、得られた指定位置の映像
情報をモニタ画面上に表示する監視用映像表示制御手段
とを備えることを特徴とするカメラ制御装置。4. One or two pivotable by remote control
In a camera control device of a camera monitoring system including the above remote camera and a camera control device for displaying video information obtained by remotely controlling the camera on a monitor screen, a predetermined camera is remotely controlled in advance. Monitoring synthetic image display control means for synthesizing all of the obtained video information for the predetermined monitoring area on one plane and displaying the monitoring synthetic image on a monitor screen; A position input means capable of displaying a cursor on the monitor and specifying and inputting an arbitrary position on the monitoring composite image; and controlling the turning of the predetermined camera in a specified position direction in accordance with the input position specifying information. A camera control device comprising: a monitoring video display control unit that displays video information of a position on a monitor screen.
数のカメラを夫々にリモート制御して得られた各所定の
監視エリア毎の全映像情報を夫々1平面上に合成してそ
の各監視用合成画像をモニタ画面上に同時に表示し、 位置入力手段は、前記モニタ画面上の各監視用合成画像
毎にカーソルを表示して該監視用合成画像毎に任意位置
を指定入力可能とし、 監視用映像表示制御手段は、前記入力された位置指定情
報に従って対応するカメラを指定位置方向に旋回制御す
ることを特徴とする請求項4に記載のカメラ制御装置。5. A composite image display control unit for monitoring combines all video information for each predetermined monitoring area obtained by remote-controlling a plurality of cameras in advance on a single plane, and monitors each of the images. The composite image for monitoring is simultaneously displayed on the monitor screen, and the position input means displays a cursor for each composite image for monitoring on the monitor screen so that an arbitrary position can be designated and input for each composite image for monitoring. 5. The camera control device according to claim 4, wherein the video display control unit controls turning of a corresponding camera in a specified position direction in accordance with the input position specification information. 6.
定のカメラをリモート制御して得られた所定の監視エリ
アについて全映像情報を1平面上に合成してその監視用
合成画像をモニタ画面上に表示し、 位置入力手段は、前記モニタ画面の監視用合成画像上に
複数のカーソルを表示して該カーソル毎に任意位置を指
定入力可能とし、 監視用映像表示制御手段は、前記入力された位置指定情
報に従って対応するカメラを指定位置方向に旋回制御す
ることを特徴とする請求項4に記載のカメラ制御装置。6. A monitoring composite image display control means for synthesizing all video information on a single plane for a predetermined monitoring area obtained by remotely controlling a predetermined camera in advance, and displaying the monitoring composite image on a monitor screen. The position input means displays a plurality of cursors on the monitor composite image on the monitor screen, and allows an arbitrary position to be designated and input for each cursor, and the monitor video display control means displays 5. The camera control device according to claim 4, wherein the camera is controlled to turn in the direction of the designated position according to the designated position designation information.
機能を備え、 位置入力手段は、モニタ画面の1又は2以上の監視用合
成画像上に各指定ズーム倍率に対応した撮像範囲を表す
サイズの枠状カーソルを表示することを特徴とする請求
項4乃至6の何れか一つに記載のカメラ制御装置。7. The camera has a zoom magnification function by remote control, and the position input means has a frame having a size representing an imaging range corresponding to each designated zoom magnification on one or more monitoring synthetic images on a monitor screen. The camera control device according to claim 4, wherein a shape cursor is displayed.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11168876A JP2000358234A (en) | 1999-06-15 | 1999-06-15 | Remote camera monitoring method and device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP11168876A JP2000358234A (en) | 1999-06-15 | 1999-06-15 | Remote camera monitoring method and device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2000358234A true JP2000358234A (en) | 2000-12-26 |
Family
ID=15876209
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP11168876A Pending JP2000358234A (en) | 1999-06-15 | 1999-06-15 | Remote camera monitoring method and device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2000358234A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002222486A (en) * | 2001-01-29 | 2002-08-09 | Toshiba Corp | Road monitoring system |
| JP2003009136A (en) * | 2001-06-21 | 2003-01-10 | Toshiba Corp | Camera monitoring system and video distribution server |
-
1999
- 1999-06-15 JP JP11168876A patent/JP2000358234A/en active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002222486A (en) * | 2001-01-29 | 2002-08-09 | Toshiba Corp | Road monitoring system |
| JP2003009136A (en) * | 2001-06-21 | 2003-01-10 | Toshiba Corp | Camera monitoring system and video distribution server |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6452628B2 (en) | Camera control and display device using graphical user interface | |
| US6697105B1 (en) | Camera control system and method | |
| JP3902904B2 (en) | Information presenting apparatus, method, camera control apparatus, method, and computer-readable storage medium | |
| US6760063B1 (en) | Camera control apparatus and method | |
| KR101329470B1 (en) | Image processing device, image processing method, and recording medium containing program thereof | |
| US9712745B2 (en) | Method and apparatus for operating camera function in portable terminal | |
| US7551200B2 (en) | Camera controller and zoom ratio control method for the camera controller | |
| JP4032404B2 (en) | Operating device | |
| US10051244B2 (en) | Display image formation device and display image formation method | |
| EP0729275A2 (en) | Image input system | |
| JPH08223561A (en) | Method and device for controlling camera by the use of monitor area diagram | |
| EP4287610A1 (en) | Focusing method and apparatus, electronic device, and medium | |
| CN110610531A (en) | Image processing method, image processing apparatus, and recording medium | |
| US7679643B2 (en) | Remote instruction system, remote instruction method, and program product for remote instruction | |
| JPH06284330A (en) | Monitor camera controller linked with map information | |
| EP1694072A1 (en) | Surveillance system for masking privacy zone and method of setting mask zone | |
| JP2021040231A (en) | Image processing device and program | |
| JP3785033B2 (en) | Surveillance camera control system and surveillance camera control device | |
| JP2000358234A (en) | Remote camera monitoring method and device | |
| JP4286961B2 (en) | ITV monitoring method and ITV monitoring device | |
| JP3397544B2 (en) | Camera control device, display device, and display method | |
| AU750206B2 (en) | Camera control user interface, camera control method and computer program product | |
| US20240364848A1 (en) | Control device, imaging control system, control method, and control program | |
| JP4478047B2 (en) | Information presentation apparatus, information presentation method, and program thereof | |
| US20250218264A1 (en) | Ptz camera operating system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050927 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051004 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060221 |