[go: up one dir, main page]

JP2011061511A - Fish-eye monitoring system - Google Patents

Fish-eye monitoring system Download PDF

Info

Publication number
JP2011061511A
JP2011061511A JP2009209213A JP2009209213A JP2011061511A JP 2011061511 A JP2011061511 A JP 2011061511A JP 2009209213 A JP2009209213 A JP 2009209213A JP 2009209213 A JP2009209213 A JP 2009209213A JP 2011061511 A JP2011061511 A JP 2011061511A
Authority
JP
Japan
Prior art keywords
image
moving object
point
cut
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009209213A
Other languages
Japanese (ja)
Other versions
JP5233926B2 (en
Inventor
Takahiro Okamoto
隆浩 岡本
Katsuhiro Umeumi
勝浩 梅海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2009209213A priority Critical patent/JP5233926B2/en
Publication of JP2011061511A publication Critical patent/JP2011061511A/en
Application granted granted Critical
Publication of JP5233926B2 publication Critical patent/JP5233926B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Abstract

【課題】歪曲円形画像からの切出場所を切り替えても、切り替え前後の画像の空間的な位置関係を把握できるようにする。
【解決手段】魚眼レンズを用いた撮影により得られた歪曲円形画像Sの一部分を切り出して、平面正則画像に変換してモニタに表示する。通常の監視状態では、点P0の近傍領域E0内の画像を切り出してモニタに表示しながら、画像をフレームごとに解析して動体検出を行う。動体60が検出されたときは、動体の中心点Pnの近傍領域En内の画像を切り出してモニタに表示する。表示の切替時には所定の移行期間を設け、点P0から点Pnへ向かう所定の移動経路に沿って切出位置を徐々に移動させるパンニングと、画像の倍率を徐々に変えるズーミングとを行う。パンニング速度は、魚眼レンズの光学的特性を示す仮想球面上での移動速度が所望の速度になるように設定する。その後、動体60を追跡しながら画面を移動する。
【選択図】図22
An object of the present invention is to make it possible to grasp the spatial positional relationship between images before and after switching even when the cutout location from a distorted circular image is switched.
A part of a distorted circular image S obtained by photographing using a fisheye lens is cut out, converted into a planar regular image, and displayed on a monitor. In a normal monitoring state, the moving object is detected by analyzing the image for each frame while cutting out and displaying the image in the vicinity region E0 of the point P0 on the monitor. When the moving body 60 is detected, an image in the vicinity area En of the center point Pn of the moving body is cut out and displayed on the monitor. When switching the display, a predetermined transition period is provided, and panning for gradually moving the cutout position along a predetermined movement path from the point P0 to the point Pn and zooming for gradually changing the magnification of the image are performed. The panning speed is set so that the moving speed on the virtual spherical surface indicating the optical characteristics of the fisheye lens becomes a desired speed. Thereafter, the screen is moved while tracking the moving body 60.
[Selection] Figure 22

Description

本発明は、魚眼レンズ付きビデオカメラで撮影した画像をモニタ画面上に表示する魚眼監視システムに関する。   The present invention relates to a fish-eye monitoring system that displays an image taken by a video camera with a fish-eye lens on a monitor screen.

最近は、セキュリティ確保のため、建物の天井や壁面に設置した防犯カメラで撮影した画像をモニタ画面上に表示し、周囲の監視に役立てるシステムが普及している。このような監視システム用のカメラには、魚眼レンズが用いられることが多い。魚眼レンズを用いると、メカニカルな動作機構なしに、半球状の全方位を示す円形画像を得ることができる。このため、周囲を監視する用途には、魚眼レンズが最適である。特に、魚眼レンズ付きビデオカメラを用いれば、極めて広い視野内の画像をリアルタイムで監視することが可能なシステムが実現できる。   Recently, in order to ensure security, an image taken by a security camera installed on the ceiling or wall of a building is displayed on a monitor screen to help monitor the surroundings. Such a camera for a surveillance system often uses a fisheye lens. When a fisheye lens is used, a circular image showing all directions of a hemisphere can be obtained without a mechanical operation mechanism. For this reason, a fish-eye lens is most suitable for the purpose of monitoring the surroundings. In particular, if a video camera with a fisheye lens is used, a system capable of monitoring an image in a very wide field of view in real time can be realized.

ただ、魚眼レンズを用いた撮影で得られる画像は、歪曲した円形の画像になるため、この歪曲円形画像を、歪みの少ない平面正則画像に変換する処理を行う必要がある。たとえば、下記の特許文献1および2には、コンピュータを利用して歪曲円形画像の一部分を平面正則画像にリアルタイムで変換する技術が開示されている。このような変換技術を利用すれば、魚眼レンズ付きビデオカメラで撮影した歪曲円形画像からなる動画を、平面正則画像からなる動画としてリアルタイムで観察することが可能になり、180°の画角をもった監視システムが構築できる。   However, since an image obtained by photographing using a fisheye lens is a distorted circular image, it is necessary to perform processing for converting the distorted circular image into a planar regular image with less distortion. For example, Patent Documents 1 and 2 below disclose a technique for converting a part of a distorted circular image into a planar regular image in real time using a computer. By using such a conversion technique, it becomes possible to observe a moving image composed of a distorted circular image captured by a video camera with a fisheye lens in real time as a moving image composed of a planar regular image, and has an angle of view of 180 °. A monitoring system can be constructed.

一方、監視システムの産業分野では、古くから動体追跡の技術が研究されてきている。これはフレーム単位で時系列的に得られる撮影画像を、コンピュータによって解析し、カメラの視野内に存在する動体を自動的に認識して追尾する技術である。この技術を用いれば、モニタ画面上に動体を自動的にズームアップして表示することができ、動体が移動した場合でも、これを自動追跡してズームアップ状態を続けることができる。   On the other hand, in the industrial field of surveillance systems, moving body tracking techniques have been studied for a long time. This is a technique for analyzing captured images obtained in time series in units of frames by a computer and automatically recognizing and tracking moving objects existing in the field of view of the camera. By using this technique, it is possible to automatically zoom up and display a moving object on the monitor screen, and even when the moving object moves, this can be automatically tracked to keep the zoomed up state.

このような動体追跡の技術を、魚眼監視システムに導入する試みも提案されている。たとえば、下記の特許文献3には、魚眼レンズによって撮影された歪曲円形画像を解析して動体を認識し、当該動体を含む部分を切り出して平面正則画像に変換した上でモニタ画面に表示する技術が開示されている。   Attempts have also been made to introduce such moving body tracking technology into fisheye monitoring systems. For example, the following Patent Document 3 discloses a technique for recognizing a moving object by analyzing a distorted circular image photographed by a fisheye lens, cutting out a part including the moving object, converting it into a planar regular image, and displaying it on a monitor screen. It is disclosed.

特許第3012142号公報Japanese Patent No. 3012142 特許第3051173号公報Japanese Patent No. 3051173 特開2002−329207号公報JP 2002-329207 A

上述したとおり、魚眼レンズを用いた撮影によって得られる歪曲円形画像は、半球状の全方位の情報を含む画像であり、通常の肉眼観測で得られる画角に比べて、極めて広い画角をもった画像になる。このため、モニタ画面上に表示する平面正則画像は、歪曲円形画像のごく一部分を切り出して歪みを補正した部分画像にならざるを得ない。もちろん、必要に応じて、歪曲円形画像をモニタ画面上に表示して、画像全体の提示を行うことも可能であるが、歪んだ画像をそのまま提示しても、人間には、個々の撮影対象物や相互の位置関係を正しく認識することができないので、監視システムの用途には不適当である。   As described above, a distorted circular image obtained by shooting using a fisheye lens is an image including hemispherical omnidirectional information, and has an extremely wide angle of view compared to the angle of view obtained by normal macroscopic observation. Become an image. For this reason, the planar regular image displayed on the monitor screen must be a partial image obtained by cutting out only a part of the distorted circular image and correcting the distortion. Of course, if necessary, it is possible to display a distorted circular image on the monitor screen and present the entire image. Since it cannot correctly recognize the positional relationship between objects and each other, it is unsuitable for use in a monitoring system.

結局、魚眼監視システムにおいてモニタ画面上に提示される画像は、常に、撮影によって得られた歪曲円形画像の特定の一部を切り出した画像ということになる。ここで、歪曲円形画像上の切り出し部分を第1の部分から第2の部分へと切り替えると、モニタ画面上に提示される平面正則画像も切り替わることになるが、モニタ画面を注視しているユーザには、切り替え前後の画像の空間的な位置関係の把握が困難になるという問題が生じる。   After all, the image presented on the monitor screen in the fish-eye monitoring system is always an image obtained by cutting out a specific part of the distorted circular image obtained by photographing. Here, when the cutout part on the distorted circular image is switched from the first part to the second part, the planar regular image presented on the monitor screen is also switched, but the user who is watching the monitor screen This causes a problem that it is difficult to grasp the spatial positional relationship between images before and after switching.

特に、動体追跡の技術を盛り込んだ魚眼監視システムの場合、動体が検出された時点で、歪曲円形画像上の切り出し部分や表示倍率などの切出条件を、当該動体の表示に適した切出条件に自動的に切り替える処理が行われるが、そのような切り替えを行うと、モニタ画面上には、動体注視に適した平面正則画像の提示が可能になるものの、映像が時間的に不連続になるため、ユーザは、どの場所の映像に切り替わったのかを認識することが困難である。   In particular, in the case of a fish-eye monitoring system incorporating a moving body tracking technology, when a moving body is detected, the cutting conditions such as a cutout portion on the distorted circular image and a display magnification are cut out to be suitable for displaying the moving body. Processing to automatically switch to conditions is performed, but if such switching is performed, a planar regular image suitable for moving object gaze can be presented on the monitor screen, but the video is discontinuous in time Therefore, it is difficult for the user to recognize which place the video is switched to.

そこで本発明は、歪曲円形画像の切出条件を切り替える場合にも、ユーザが、切り替え前後の画像の空間的な位置関係を容易に把握することができる魚眼監視システムおよび画像提示システムを提供することを目的とする。   Therefore, the present invention provides a fish-eye monitoring system and an image presentation system that allow a user to easily grasp the spatial positional relationship between images before and after switching even when the cutting condition of a distorted circular image is switched. For the purpose.

(1) 本発明の第1の態様は、魚眼レンズを用いた撮影により得られた歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これを画面上に表示する魚眼監視システムにおいて、
装着した魚眼レンズによって、外界の画像を歪曲円形画像として撮影する魚眼レンズ付ビデオカメラと、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、二次元XY座標系の原点Oを中心とし半径Rをもった歪曲円形画像を、少なくとも1フレーム格納する歪曲円形画像用メモリと、
魚眼レンズ付ビデオカメラから1フレームごとの時系列データとして順次与えられる歪曲円形画像を、歪曲円形画像用メモリに格納する画像入力部と、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
平面正則画像用メモリに格納されている平面正則画像を読み出して出力する画像出力部と、
画像出力部から出力された平面正則画像を画面上に表示するモニタ装置と、
歪曲円形画像上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像の一部から平面正則画像を切り出すための条件として決定する実切出条件決定部と、
歪曲円形画像用メモリに格納されている歪曲円形画像の切出中心点Pで示される切り出し位置から、平面傾斜角φで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して、平面正則画像用メモリに格納する画像切出変換部と、
標準切出中心点P0と、標準平面傾斜角φ0と、標準倍率m0と、によって構成される標準切出条件を格納する標準切出条件格納部と、
歪曲円形画像用メモリに時系列で順次格納される歪曲円形画像を相互に比較して動体検出処理を行い、動体検出がなされた場合に、検出動体の切り出し位置を示す目標切出中心点Pnと、検出動体の切り出し向きを示す目標平面傾斜角φnと、検出動体の切り出しサイズを示す目標倍率mnと、によって構成される目標切出条件のうち、少なくとも目標切出中心点Pnを、実切出条件決定部に与える動体検出部と、
動体検出の後、検出動体を追跡する動体追跡処理を行い、追跡動体の切り出し位置を示す追跡切出中心点P(i)と、追跡動体の切り出し向きを示す追跡平面傾斜角φ(i)と、追跡動体の切り出しサイズを示す追跡倍率m(i)と、によって構成される追跡切出条件のうち、少なくとも追跡切出中心点P(i)を、追跡動体が消滅したとの消滅判断がなされるまで、継続して実切出条件決定部に与える動体追跡部と、
を設け、
実切出条件決定部が、動体検出がなされていない静的監視期間を担当する静的監視期間担当部と、動体検出がなされた後の所定の移行期間を担当する移行期間担当部と、移行期間が完了してから消滅判断がなされるまでの動的監視期間を担当する動的監視期間担当部と、を備え、静的監視期間担当部は、標準切出条件を実切出条件と定め、移行期間担当部は、標準切出条件から目標切出条件へ移行するように段階的に変わる実切出条件を定め、動的監視期間担当部は、追跡切出条件を実切出条件と定めるようにしたものである。
(1) A first aspect of the present invention is a fisheye monitoring system in which a part of a distorted circular image obtained by photographing using a fisheye lens is cut out, converted into a planar regular image, and displayed on a screen.
A video camera with a fisheye lens that captures images of the outside world as a distorted circular image with the attached fisheye lens,
A distorted circular image having a radius R centered at the origin O of the two-dimensional XY coordinate system, which is composed of a collection of a large number of pixels arranged at positions indicated by coordinates (x, y) on the two-dimensional XY coordinate system. A distorted circular image memory for storing at least one frame;
An image input unit for storing a distorted circular image sequentially given as time-series data for each frame from a video camera with a fisheye lens in a distorted circular image memory;
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image output unit that reads and outputs a planar regular image stored in the planar regular image memory;
A monitor device for displaying a planar regular image output from the image output unit on the screen;
An actual cutting condition constituted by a cutting center point P that is one point on the distorted circular image, a predetermined plane inclination angle φ, and a predetermined magnification m is determined from a part of the distorted circular image as a planar regular image. An actual cutting condition determination unit that determines as a condition for cutting
An image having a cut-out size indicated by the magnification m is cut out from the cut-out position indicated by the cut-out center point P of the distorted circular image stored in the distorted circular image memory in the cut-out direction indicated by the plane inclination angle φ. Is converted to a planar regular image and stored in the planar regular image memory,
A standard cutting condition storage unit for storing a standard cutting condition composed of a standard cutting center point P0, a standard plane inclination angle φ0, and a standard magnification m0;
When moving object detection processing is performed by comparing the distorted circular images sequentially stored in the distorted circular image memory in time series, and when moving object detection is performed, the target cut-out center point Pn indicating the cut-out position of the detected moving object is Of the target cutting conditions constituted by the target plane inclination angle φn indicating the cutout direction of the detected moving body and the target magnification mn indicating the cutout size of the detected moving body, at least the target cutout center point Pn is actually cut out. A moving object detection unit to be provided to the condition determination unit;
After the moving object detection, a moving object tracking process for tracking the detected moving object is performed, and a tracking cut-out center point P (i) indicating the cut-out position of the tracking moving object, and a tracking plane inclination angle φ (i) indicating the cut-out direction of the tracking moving object Of the tracking cutout conditions configured by the tracking magnification m (i) indicating the cutout size of the tracking moving object, at least the tracking cutout central point P (i) is determined to disappear. Until the actual tracking condition determining unit,
Provided,
The actual cutting condition determination unit is in charge of a static monitoring period in charge of a static monitoring period in which no moving object is detected, a transition period in charge of a predetermined transition period after moving object detection, and a transition A dynamic monitoring period responsible section that takes charge of the dynamic monitoring period from the completion of the period until the decision to disappear is made, and the static monitoring period responsible section defines the standard cutting condition as the actual cutting condition The transition period department sets the actual cutting conditions that change step by step so that the standard cutting conditions shift to the target cutting conditions, and the dynamic monitoring period section sets the tracking cutting conditions as the actual cutting conditions. It is what you specify.

(2) 本発明の第2の態様は、上述した第1の態様に係る魚眼監視システムにおいて、
歪曲円形画像が配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面を定義し、原点Oに向かって当該仮想球面上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用によってXY平面上の1点に到達する場合に、当該仮想球面上の1点と当該XY平面上の1点とを相互に対応する点と定義し、切出中心点Pに対応する仮想球面上の点である対応点Qをとり、原点Oを起点として対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、点Gを通り視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義したときに、
画像切出変換部が、二次元UV座標系上の座標(u,v)と二次元XY直交座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像から切り出した画像を平面正則画像に変換する処理を行うようにしたものである。
(2) According to a second aspect of the present invention, in the fish-eye monitoring system according to the first aspect described above,
In a three-dimensional XYZ Cartesian coordinate system including a two-dimensional XY Cartesian coordinate system in which a distorted circular image is arranged, a virtual sphere having a radius R is defined with the origin O as the center, and one point on the virtual sphere is directed toward the origin O. When incident external light reaches one point on the XY plane by the optical action of the fisheye lens used for photographing, a point on the virtual sphere and a point on the XY plane correspond to each other A corresponding point Q that is a point on the virtual sphere corresponding to the cut-out center point P, a vector passing through the corresponding point Q starting from the origin O is defined as a line-of-sight vector n, and the line-of-sight vector n A plane inclination angle on a plane passing through the point G and perpendicular to the line-of-sight vector n or a curved surface obtained by curving the plane, with the point G separated from the origin O by “product m · R of the magnification m and the radius R” as the origin. Two arranged with orientation according to φ When it defined the original UV coordinate system,
The image cut-out conversion unit uses a predetermined correspondence relation expression indicating the correspondence between the coordinates (u, v) on the two-dimensional UV coordinate system and the coordinates (x, y) on the two-dimensional XY orthogonal coordinate system, By calculating the corresponding coordinates (x, y) corresponding to the coordinates (u, v), processing for converting an image cut out from the distorted circular image into a planar regular image is performed.

(3) 本発明の第3の態様は、上述した第1または第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、移行期間前半のパンニング期間において、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わる実切出条件を定め、移行期間後半のズーミング期間において、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めるようにしたものである。
(3) According to a third aspect of the present invention, in the fisheye monitoring system according to the first or second aspect described above,
In the first half of the transition period, the transition period responsible section determines the actual cutting conditions in which the cutting center point P gradually changes from the standard cutting center point P0 to the target cutting center point Pn. In the zooming period, an actual cutting condition in which the magnification m changes stepwise from the standard magnification m0 to the target magnification mn is determined.

(4) 本発明の第4の態様は、上述した第1または第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間をパンニング期間およびズーミング期間に設定し、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わると同時に、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めるようにしたものである。
(4) According to a fourth aspect of the present invention, in the fisheye monitoring system according to the first or second aspect described above,
The transition period responsible section sets the entire transition period as a panning period and a zooming period, and the cutting center point P changes from the standard cutting center point P0 to the target cutting center point Pn step by step. An actual cutting condition in which m gradually changes from the standard magnification m0 to the target magnification mn is determined.

(5) 本発明の第5の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、標準切出中心点P0についての仮想球面上の対応点Q0と、目標切出中心点Pnについての仮想球面上の対応点Qnと、を定義したときに、切出中心点Pについての仮想球面上の対応点Qの仮想球面上での移動経路が、対応点Q0と対応点Qnとを仮想球面上で結ぶ最短経路となるようにするものである。
(5) According to a fifth aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
The transition period responsible section sets all or part of the transition period as the panning period, and in the panning period, the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn. When changing, when the corresponding point Q0 on the virtual sphere for the standard cut center point P0 and the corresponding point Qn on the virtual sphere for the target cut center point Pn are defined, the cut center point P The moving path of the corresponding point Q on the virtual spherical surface on the virtual spherical surface is the shortest path connecting the corresponding point Q0 and the corresponding point Qn on the virtual spherical surface.

(6) 本発明の第6の態様は、上述した第5の態様に係る魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O上に設定されており、
移行期間担当部が、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させるようにしたものである。
(6) According to a sixth aspect of the present invention, in the fisheye monitoring system according to the fifth aspect described above,
The standard cut-out center point P0 is set on the origin O of the two-dimensional XY orthogonal coordinate system,
The transition period responsible section moves the cut center point P from the origin O toward the target cut center point Pn along the radius of the distorted circular image.

(7) 本発明の第7の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O以外の位置に設定されており、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、標準切出中心点P0から原点Oへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させた後、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させるようにしたものである。
(7) According to a seventh aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
The standard cutting center point P0 is set at a position other than the origin O of the two-dimensional XY orthogonal coordinate system,
The transition period responsible section sets all or part of the transition period as the panning period, and in the panning period, the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn. When changing, after moving the cutting center point P along the radius of the distorted circular image from the standard cutting center point P0 to the origin O, the origin O to the target cutting center point Pn, The cut center point P is moved along the radius of the distorted circular image.

(8) 本発明の第8の態様は、上述した第5〜第7の態様に係る魚眼監視システムにおいて、
移行期間担当部が、対応点Qの仮想球面上の運動が等速運動となるように、切出中心点Pの位置を変化させるようにしたものである。
(8) The eighth aspect of the present invention is the fish-eye monitoring system according to the fifth to seventh aspects described above,
The transition period charge section changes the position of the cut-out center point P so that the movement of the corresponding point Q on the virtual spherical surface is a constant speed movement.

(9) 本発明の第9の態様は、上述した第5〜第7の態様に係る魚眼監視システムにおいて、
移行期間担当部が、対応点Qの仮想球面上の運動が、パンニング期間の開始部分および終了部分の速度が中間部分の速度よりも遅くなるような不等速運動となるように、切出中心点Pの位置を変化させるようにしたものである。
(9) According to a ninth aspect of the present invention, in the fisheye monitoring system according to the fifth to seventh aspects described above,
The transition period charge unit is such that the movement of the corresponding point Q on the phantom spherical surface is an inconstant speed movement such that the speed of the start part and the end part of the panning period is slower than the speed of the intermediate part. The position of the point P is changed.

(10) 本発明の第10の態様は、上述した第5〜第7の態様に係る魚眼監視システムにおいて、
移行期間担当部が、
対応点Qの仮想球面上の移動距離bと時間tとの関係を示す関数を格納する関数格納部と、
この関数を用いて求まる「時間tにおける対応点Qの位置」に対応するXY平面上の点を、当該時間tにおける切出中心点Pとして出力する対応点変換部と、
を有するようにしたものである。
(10) According to a tenth aspect of the present invention, in the fisheye monitoring system according to the fifth to seventh aspects described above,
The transition period department
A function storage for storing a function indicating the relationship between the movement distance b of the corresponding point Q on the virtual sphere and the time t;
A corresponding point conversion unit that outputs a point on the XY plane corresponding to the “position of the corresponding point Q at time t” obtained using this function as a cut-out center point P at the time t;
It is made to have.

(11) 本発明の第11の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、切出中心点Pについての仮想球面上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定するようにしたものである。
(11) An eleventh aspect of the present invention is the fisheye monitoring system according to the second aspect described above,
The transition period responsible section sets all or part of the transition period as the panning period, and in the panning period, the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn. When changing, the corresponding point Q on the virtual spherical surface with respect to the cut-out center point P moves on a predetermined spherical moving path set in advance at a predetermined spherical moving speed set as a function related to time. The position of the cutting center point P is determined.

(12) 本発明の第12の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をズーミング期間に設定し、ズーミング期間の間、時間軸に沿って単調増加もしくは単調減少するように、倍率mを標準倍率m0から目標倍率mnへと変化させるようにしたものである。
(12) According to a twelfth aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
The transition period department sets the whole or part of the transition period as the zooming period, and sets the magnification m from the standard magnification m0 so that it monotonously increases or decreases along the time axis during the zooming period. The magnification is changed to mn.

(13) 本発明の第13の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
移行期間担当部が、ズーミング期間の間、倍率mを時間軸に沿って線形変化させるようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
The transition period responsible section linearly changes the magnification m along the time axis during the zooming period.

(14) 本発明の第14の態様は、上述した第12の態様に係る魚眼監視システムにおいて、
移行期間担当部が、ズーミング期間の開始部分および終了部分の倍率変化速度が、中間部分の変化速度よりも遅くなるような不等速変化するように、倍率mを時間軸に沿って変化させるようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the fisheye monitoring system according to the twelfth aspect described above,
The transition period charge section changes the magnification m along the time axis so that the magnification change rate at the start and end of the zooming period changes at an inconstant speed that is slower than the change rate at the intermediate part. It is a thing.

(15) 本発明の第15の態様は、上述した第12の態様に係る魚眼監視システムにおいて、
移行期間担当部が、
倍率mと時間tとの関係を示す関数を格納する関数格納部と、
この関数を用いて求まる時間tにおける倍率を、当該時間tにおける倍率mとして出力する倍率決定部と、
を有するようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the fisheye monitoring system according to the twelfth aspect described above,
The transition period department
A function storage unit for storing a function indicating the relationship between the magnification m and the time t;
A magnification determining unit that outputs a magnification at time t obtained using this function as a magnification m at time t;
It is made to have.

(16) 本発明の第16の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
標準切出条件格納部には、撮影画像における実世界の鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような標準平面傾斜角φ0を設定しておき、
動体検出部が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような目標平面傾斜角φnを設定し、
移行期間担当部が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、平面傾斜角φを標準平面傾斜角φ0から目標平面傾斜角φnへと変化させ、
動体追跡部が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、追跡平面傾斜角φ(i)を設定するようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
In the standard cut-out condition storage unit, a standard plane inclination angle φ0 is set so that a plane regular image is cut out in a direction in which the vertical axis direction of the real world in the photographed image is downward.
The moving body detection unit sets a target plane inclination angle φn such that a plane regular image is cut out in a direction in which the vertical axis direction is a downward direction,
The transition period responsible section changes the plane inclination angle φ from the standard plane inclination angle φ0 to the target plane inclination angle φn so that the plane regular image is cut out in the direction in which the vertical axis direction is the downward direction.
The moving body tracking unit sets the tracking plane inclination angle φ (i) so that a planar regular image is cut out in a direction with the vertical axis direction as a downward direction.

(17) 本発明の第17の態様は、上述した第16の態様に係る魚眼監視システムにおいて、
撮像面となるXY平面が鉛直面に一致し、Y軸が鉛直軸Wに対して角度ξをなす方向を向くように魚眼レンズ付ビデオカメラが設置されており、
二次元UV座標系の原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸として与えられる回転基準軸Jと、二次元UV座標系のU軸とのなす角を平面傾斜角φと定義し、視線ベクトルnのXY平面上への正射影とY軸とのなす角を方位角αと定義し、U軸方向を平面正則画像の横方向と定義した場合に、常にφ=−α−ξとなる設定が行われるようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the fisheye monitoring system according to the sixteenth aspect described above,
The video camera with a fisheye lens is installed so that the XY plane as the imaging surface coincides with the vertical plane and the Y axis faces the direction that forms an angle ξ with respect to the vertical axis W.
The angle formed by the rotation reference axis J that passes through the origin G of the two-dimensional UV coordinate system, is parallel to the XY plane, and is orthogonal to the line-of-sight vector n, and the U axis of the two-dimensional UV coordinate system is the plane inclination angle φ. When the angle between the orthographic projection of the line-of-sight vector n on the XY plane and the Y axis is defined as the azimuth angle α, and the U axis direction is defined as the lateral direction of the planar regular image, φ = −α The setting to be −ξ is performed.

(18) 本発明の第18の態様は、上述した第17の態様に係る魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O上に設定されており、
標準切出条件格納部には、V軸が撮影画像の原点Oの位置における実世界の鉛直軸に対応するように平面正則画像が切り出されるような切り出し向きを示す標準切出条件を設定しておき、
動体検出部は、目標切出中心点Pnについての方位角をαnとしたときに、目標平面傾斜角φn=−αn−ξなる設定を行い、
移行期間担当部が、常に平面傾斜角φ=φnに設定するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the fisheye monitoring system according to the seventeenth aspect described above,
The standard cut-out center point P0 is set on the origin O of the two-dimensional XY orthogonal coordinate system,
In the standard cutout condition storage unit, a standard cutout condition indicating the cutout direction is set so that the planar regular image is cut out so that the V axis corresponds to the vertical axis in the real world at the position of the origin O of the photographed image. Every
The moving object detection unit sets the target plane inclination angle φn = −αn−ξ when the azimuth angle with respect to the target cutting center point Pn is αn,
The transition period person in charge always sets the plane inclination angle φ = φn.

(19) 本発明の第19の態様は、上述した第16の態様に係る魚眼監視システムにおいて、
撮像面となるXY平面が水平面に一致するように魚眼レンズ付ビデオカメラが設置されており、
二次元UV座標系の原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸として与えられる回転基準軸Jと、二次元UV座標系のU軸とのなす角を平面傾斜角φと定義し、U軸方向を平面正則画像の横方向と定義した場合に、常にφ=0°となる設定が行われるようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the fisheye monitoring system according to the sixteenth aspect described above,
A video camera with a fisheye lens is installed so that the XY plane as the imaging surface coincides with the horizontal plane.
The angle formed by the rotation reference axis J that passes through the origin G of the two-dimensional UV coordinate system, is parallel to the XY plane, and is orthogonal to the line-of-sight vector n, and the U axis of the two-dimensional UV coordinate system is the plane inclination angle φ. In this case, when the U-axis direction is defined as the horizontal direction of the planar regular image, the setting is always set to φ = 0 °.

(20) 本発明の第20の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
画像切出変換部が、平面正則画像を構成する1つの着目画素の座標(u,v)についての対応座標(x,y)を算出し、歪曲円形画像用メモリ内の対応座標(x,y)の近傍に配置された画素の画素値を読み出し、読み出した画素値に基づいて着目画素の画素値を決定する処理を、平面正則画像を構成する各画素について実行し、平面正則画像用メモリ内に各画素の画素値を書き込むことにより、平面正則画像に変換する処理を行うようにしたものである。
(20) According to a twentieth aspect of the present invention, in the fisheye monitoring system according to the second aspect described above,
The image cut-out conversion unit calculates the corresponding coordinates (x, y) for the coordinates (u, v) of one pixel of interest constituting the planar regular image, and the corresponding coordinates (x, y in the distorted circular image memory). ) Is performed on each pixel constituting the planar regular image, and the pixel value of the pixel of interest is determined based on the readout pixel value, and is determined in the planar regular image memory. In this case, the pixel value of each pixel is written in to perform a process of converting into a planar regular image.

(21) 本発明の第21の態様は、上述した第20の態様に係る魚眼監視システムにおいて、
画像切出変換部が、座標(u,v)で示される位置に配置された着目画素の画素値を決定する際に、対応座標(x,y)で示される位置の近傍に配置された歪曲円形画像上の複数の参照画素の画素値に対する補間演算を行うようにしたものである。
(21) According to a twenty-first aspect of the present invention, in the fisheye monitoring system according to the twentieth aspect described above,
When the image cut-out conversion unit determines the pixel value of the pixel of interest arranged at the position indicated by the coordinates (u, v), the distortion arranged near the position indicated by the corresponding coordinates (x, y) An interpolation operation is performed on pixel values of a plurality of reference pixels on the circular image.

(22) 本発明の第22の態様は、上述した第2の態様に係る魚眼監視システムにおいて、
画像切出変換部が、仮想球面上に、撮影に用いた魚眼レンズの投影方式に応じて、二次元XY直交座標系上の座標(xi,yi)で示される点Siに対応する球面上対応点Qiをとり、原点Oと球面上対応点Qiとを結ぶ直線と二次元UV座標系の配置面との交点Tiの二次元UV座標系上での座標を(ui,vi)としたときに、座標(xi,yi)が座標(ui,vi)に対応する対応座標として求まる対応関係式を用いるようにしたものである。
(22) According to a twenty-second aspect of the present invention, in the fish-eye monitoring system according to the second aspect described above,
On the virtual sphere, the image cut-out conversion unit corresponds to the point on the sphere corresponding to the point Si indicated by the coordinates (xi, yi) on the two-dimensional XY orthogonal coordinate system, according to the projection method of the fisheye lens used for shooting. When Qi is taken and the coordinates on the two-dimensional UV coordinate system of the intersection Ti between the straight line connecting the origin O and the corresponding point Qi on the spherical surface and the arrangement surface of the two-dimensional UV coordinate system are (ui, vi), Corresponding relational expressions in which coordinates (xi, yi) are obtained as corresponding coordinates corresponding to coordinates (ui, vi) are used.

(23) 本発明の第23の態様は、上述した第22の態様に係る魚眼監視システムにおいて、
画像切出変換部が、
歪曲円形画像用メモリに格納されている歪曲円形画像が、正射影方式の魚眼レンズによって撮影された正射影画像である場合には、座標(xp,yp)で示される切出中心点Pに対して、当該点Pを通りZ軸に平行な直線と仮想球面との交点として与えられる座標(xp,yp,zp)で示される点を球面上対応点Qとし、座標(xi,yi)で示される点Siに対して、当該点Siを通りZ軸に平行な直線と仮想球面との交点として与えられる座標(xi,yi,zi)で示される点を球面上対応点Qiとする正射影画像用対応関係式を用い、
歪曲円形画像用メモリに格納されている歪曲円形画像が、非正射影方式の魚眼レンズによって撮影された非正射影画像である場合には、正射影画像上の座標と非正射影画像上の座標との間の座標変換式を用いて正射影画像用対応関係式を補正することにより得られる非正射影画像用対応関係式を用いるようにしたものである。
(23) According to a twenty-third aspect of the present invention, in the fish-eye monitoring system according to the twenty-second aspect described above,
Image cropping conversion unit
When the distorted circular image stored in the distorted circular image memory is an orthographic image captured by the orthographic fisheye lens, with respect to the cut-out center point P indicated by the coordinates (xp, yp). A point indicated by coordinates (xp, yp, zp) given as an intersection of a straight line passing through the point P and parallel to the Z axis and the virtual sphere is designated as a corresponding point Q on the sphere, and is indicated by coordinates (xi, yi). For an orthogonal projection image with respect to the point Si, a point indicated by coordinates (xi, yi, zi) given as an intersection of a straight line passing through the point Si and parallel to the Z axis and the virtual sphere is a corresponding point Qi on the sphere. Using the correspondence equation,
When the distorted circular image stored in the distorted circular image memory is a non-orthographic image captured by a non-projection type fisheye lens, the coordinates on the ortho-projection image and the coordinates on the non-ortho-projection image The correspondence relation formula for non-orthographic projection images obtained by correcting the correspondence relation formula for orthogonal projection images using the coordinate transformation formula between is used.

(24) 本発明の第24の態様は、上述した第23の態様に係る魚眼監視システムにおいて、
画像切出変換部が、視線ベクトルnのXY平面上への正射影とY軸とのなす角を方位角αとし、視線ベクトルnとZ軸正方向とのなす角を天頂角βとして、
A=cosφ cosα − sinφ sinα cosβ
B=−sinφ cosα − cosφ sinα cosβ
C=sinβ sinα
D=cosφ sinα + sinφ cosα cosβ
E=−sinφ sinα + cosφ cosα cosβ
F=−sinβ cosα
w=mR
との定義の下で、座標(u,v)と座標(x,y)との対応関係を示す正射影画像用対応関係式として、
x=R(uA+vB+wC)/√(u+v+w
y=R(uD+vE+wF)/√(u+v+w
なる式を用いるようにしたものである。
(24) According to a twenty-fourth aspect of the present invention, in the fisheye monitoring system according to the twenty-third aspect described above,
The image cut-out conversion unit defines an angle formed by the orthogonal projection of the line-of-sight vector n on the XY plane and the Y axis as an azimuth angle α, and an angle formed between the line-of-sight vector n and the Z axis positive direction as a zenith angle β.
A = cosφ cosα-sinφ sinα cosβ
B = −sinφ cosα − cosφ sinα cosβ
C = sinβ sinα
D = cosφ sinα + sinφ cosα cosβ
E = -sinφ sinα + cosφ cosα cosβ
F = -sinβ cosα
w = mR
As a correspondence relation expression for an orthographic image indicating the correspondence between coordinates (u, v) and coordinates (x, y),
x = R (uA + vB + wC) / √ (u 2 + v 2 + w 2 )
y = R (uD + vE + wF) / √ (u 2 + v 2 + w 2 )
This formula is used.

(25) 本発明の第25の態様は、上述した第24の態様に係る魚眼監視システムにおいて、
画像切出変換部が、
歪曲円形画像用メモリに格納されている歪曲円形画像が、等距離射影方式の魚眼レンズによって撮影された等距離射影画像である場合には、正射影画像上の座標(xa,ya)を等距離射影画像上の座標(xb,yb)に変換する座標変換式
xb=xa(2R/πr) sin-1 (r/R)
yb=ya(2R/πr) sin-1 (r/R)
但し、r=√(xa+ya
を用いて、正射影画像用対応関係式に対する補正を行うようにしたものである。
(25) According to a twenty-fifth aspect of the present invention, in the fisheye monitoring system according to the twenty-fourth aspect described above,
Image cropping conversion unit
When the distorted circular image stored in the distorted circular image memory is an equidistant projection image photographed by a fisheye lens of the equidistant projection method, the coordinates (xa, ya) on the orthographic projection image are equidistantly projected. Coordinate conversion formula to convert to coordinates (xb, yb) on the image xb = xa (2R / πr) sin −1 (r / R)
yb = ya (2R / πr) sin −1 (r / R)
However, r = √ (xa 2 + ya 2 )
Is used to correct the orthographic image correspondence relation.

(26) 本発明の第26の態様は、上述した第1〜第25の態様に係る魚眼監視システムにおいて、
動体検出部が、
歪曲円形画像用メモリに所定の初期時点で格納されていた画像を背景歪曲円形画像として保持する背景画像保持部と、
歪曲円形画像用メモリに時系列でフレームごとに順次格納される歪曲円形画像上の個々の画素の画素値を、背景歪曲円形画像上の対応する画素の画素値と比較し、両者の差がしきい値以上となる画素を着目画素として抽出する対応画素比較部と、
着目画素からなる連続領域であって、基準面積以上、かつ、縦幅および横幅がともに所定の基準寸法以上となる条件を満たす着目領域を探索する着目領域探索部と、
着目領域を含む歪曲円形画像が、基準のフレーム数以上、連続して得られた場合に、動体検出がなされた旨の判定を行い、最終着目領域に基づいて目標切出条件を生成する動体検出判定部と、
を有するようにしたものである。
(26) According to a twenty-sixth aspect of the present invention, in the fish-eye monitoring system according to the first to the twenty-fifth aspects described above,
The moving object detector
A background image holding unit that holds an image stored in a distorted circular image memory at a predetermined initial time point as a background distorted circular image;
Compare the pixel values of the individual pixels on the distorted circular image that are sequentially stored in the distorted circular image memory for each frame in time series with the pixel values of the corresponding pixels on the background distorted circular image. A corresponding pixel comparison unit that extracts a pixel having a threshold value or more as a target pixel;
A focused area search unit that searches for a focused area that is a continuous area composed of focused pixels, and that satisfies a condition that satisfies a reference area that is equal to or larger than a reference area and that has a vertical width and a horizontal width that are equal to or greater than a predetermined reference dimension;
When a distorted circular image including the region of interest is continuously obtained for the number of frames equal to or greater than the reference number of frames, it is determined that the moving object has been detected, and the moving object detection that generates the target cut-out condition based on the final region of interest A determination unit;
It is made to have.

(27) 本発明の第27の態様は、上述した第26の態様に係る魚眼監視システムにおいて、
動体検出判定部が、同一の動体に起因して形成されたと予想される特定の着目領域を含む歪曲円形画像が、基準のフレーム数以上、連続して得られた場合に、動体検出がなされた旨の判定を行うようにし、互いに離隔した複数の着目領域が存在する場合には、より面積の大きい着目領域を上記特定の着目領域とする判定を行うようにしたものである。
(27) According to a twenty-seventh aspect of the present invention, in the fisheye monitoring system according to the twenty-sixth aspect described above,
The moving object is detected when the moving object detection determination unit continuously obtains a distorted circular image including a specific region of interest that is expected to be formed due to the same moving object for the number of frames that is the reference number or more. When there are a plurality of regions of interest separated from each other, it is determined that the region of interest having a larger area is the specific region of interest.

(28) 本発明の第28の態様は、上述した第26または第27の態様に係る魚眼監視システムにおいて、
動体検出判定部が、最終着目領域の重心位置を目標切出中心点Pnと設定し、最終着目領域の縦幅および横幅に基づいて目標倍率mnを設定するようにしたものである。
(28) According to a twenty-eighth aspect of the present invention, in the fisheye monitoring system according to the twenty-sixth or twenty-seventh aspect described above,
The moving object detection determination unit sets the center of gravity position of the final target region as the target cut-out center point Pn, and sets the target magnification mn based on the vertical width and horizontal width of the final target region.

(29) 本発明の第29の態様は、上述した第1〜第28の態様に係る魚眼監視システムにおいて、
動体追跡部が、
歪曲円形画像用メモリに格納されている第(i−1)番目のフレーム画像上において既に認識されている既知動体領域の情報を保持する既知動体領域保持部と、
歪曲円形画像用メモリに格納されている第i番目のフレーム画像から、既知動体領域の近傍に位置する複数通りの領域を候補領域として抽出する候補領域抽出部と、
既知動体領域と複数通りの候補領域とについて、それぞれ画像の特徴を示す特徴量を求める演算を行う特徴量演算部と、
特徴量演算部によって演算された、既知動体領域の特徴量と、複数通りの候補領域の特徴量と、をそれぞれ比較し、既知動体領域の特徴量に対する類似度が所定の基準以上、かつ、最も高い特徴量をもった候補領域を、第i番目のフレーム画像上の新動体領域と認識する新動体領域認識部と、
新動体領域認定部における認識が成功した場合には、新動体領域に基づいて第i番目のフレーム画像についての追跡切出条件を生成し、認識が失敗した場合には、追跡動体が消滅したとの消滅判断を行う動体追跡判定部と、
を有し、
既存動体領域保持部が、動体検出部から与えられた検出動体の領域情報を、最初の既知動体領域の情報として保持し、以後、新動体領域の情報を新たな既知動体領域の情報として保持するようにしたものである。
(29) According to a twenty-ninth aspect of the present invention, in the fish-eye monitoring system according to the first to twenty-eighth aspects described above,
The moving body tracking unit
A known moving object region holding unit for holding information of a known moving object region that has already been recognized on the (i-1) th frame image stored in the distorted circular image memory;
A candidate area extraction unit that extracts a plurality of areas located in the vicinity of the known moving body area as candidate areas from the i-th frame image stored in the distorted circular image memory;
A feature amount calculation unit that performs an operation for obtaining a feature amount indicating a feature of an image for each of the known moving body region and the plurality of candidate regions;
The feature amount of the known moving object region calculated by the feature amount calculating unit is compared with the feature amounts of the plurality of candidate regions, respectively, and the similarity to the feature amount of the known moving object region is equal to or higher than a predetermined reference and is the most A new moving body region recognition unit for recognizing a candidate region having a high feature amount as a new moving body region on the i-th frame image;
When the recognition by the new moving body region recognition unit is successful, a tracking cut-out condition for the i-th frame image is generated based on the new moving body region, and when the recognition fails, the tracking moving body disappears. A moving body tracking determination unit for determining the disappearance of
Have
The existing moving object region holding unit holds the detected moving object region information given from the moving object detecting unit as the first known moving object region information, and thereafter holds the new moving object region information as the new known moving object region information. It is what I did.

(30) 本発明の第30の態様は、上述した第29の態様に係る魚眼監視システムにおいて、
動体追跡判定部が、第i番目のフレーム画像について認識された新動体領域の重心位置を追跡切出中心点P(i)と設定し、この新動体領域の縦幅および横幅に基づいて追跡倍率m(i)を設定するようにしたものである。
(30) According to a thirtieth aspect of the present invention, in the fisheye monitoring system according to the twenty-ninth aspect described above,
The moving object tracking determination unit sets the gravity center position of the new moving object region recognized for the i-th frame image as the tracking cut-out center point P (i), and the tracking magnification based on the vertical width and the horizontal width of the new moving object region m (i) is set.

(31) 本発明の第31の態様は、上述した第29または第30の態様に係る魚眼監視システムにおいて、
特徴量演算部が、演算対象として与えられた領域を構成する画素の色ヒストグラムもしくはエッジ方向ヒストグラムを特徴量として求めるようにしたものである。
(31) According to a thirty-first aspect of the present invention, in the fisheye monitoring system according to the twenty-ninth or thirtieth aspect described above,
The feature amount calculation unit obtains the color histogram or edge direction histogram of the pixels constituting the region given as the calculation target as the feature amount.

(32) 本発明の第32の態様は、上述した第1〜第31の態様に係る魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間、新たな動体検出処理を休止するようにしたものである。
(32) According to a thirty-second aspect of the present invention, in the fisheye monitoring system according to the first to thirty-first aspects described above,
The moving object detection unit pauses the new moving object detection process while the moving object tracking process is performed by the moving object tracking unit.

(33) 本発明の第33の態様は、上述した第1〜第31の態様に係る魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なる新動体の検出がなされた場合、この新動体についての目標切出条件を実切出条件決定部に与える処理を行い、
実切出条件決定部に新動体についての目標切出条件が与えられた場合、移行期間担当部が、旧動体についての追跡切出条件から新動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、新動体に対する追跡処理を行うようにしたものである。
(33) According to a thirty-third aspect of the present invention, in the fisheye monitoring system according to the first to thirty-first aspects described above,
If the moving object detection unit continues the moving object detection process while the moving object tracking process is being performed by the moving object tracking unit, and a new moving object that is different from the old moving object that is the target of the moving object tracking process is detected, Perform processing to give the target cutting condition for the new moving object to the actual cutting condition determination unit,
When the target cutting condition for the new moving object is given to the actual cutting condition determination unit, the transition period charge section shifts from the tracking cutting condition for the old moving object to the target cutting condition for the new moving object. The actual cutting conditions that change
The moving body tracking unit is configured to perform tracking processing for a new moving body.

(34) 本発明の第34の態様は、上述した第1〜第31の態様に係る魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なり、かつ、旧動体よりも面積が大きいという条件を満たす別な動体の検出がなされた場合、当該条件を満たす新動体についての目標切出条件を実切出条件決定部に与える処理を行い、
実切出条件決定部に新動体についての目標切出条件が与えられた場合、移行期間担当部が、旧動体についての追跡切出条件から新動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、新動体に対する追跡処理を行うようにしたものである。
(34) According to a thirty-fourth aspect of the present invention, in the fisheye monitoring system according to the first to thirty-first aspects described above,
The moving object detection unit continues the moving object detection process while the moving object tracking process is performed by the moving object tracking unit, and is different from the old moving object that is the target of the moving object tracking process and has a larger area than the old moving object. When another moving object that satisfies the condition is detected, the target cutting condition for the new moving object that satisfies the condition is given to the actual cutting condition determining unit,
When the target cutting condition for the new moving object is given to the actual cutting condition determination unit, the transition period charge section shifts from the tracking cutting condition for the old moving object to the target cutting condition for the new moving object. The actual cutting conditions that change
The moving body tracking unit is configured to perform tracking processing for a new moving body.

(35) 本発明の第35の態様は、上述した第33または第34の態様に係る魚眼監視システムにおいて、
動体追跡部が、新動体に対する追跡処理を行うとともに、旧動体に対する追跡処理も併せて行い、新動体に基づいて追跡切出条件を設定し、旧動体よりも新動体が先に消滅した場合、動体検出部に代わって、旧動体についての目標切出条件を、実切出条件決定部に与え、
実切出条件決定部に旧動体についての目標切出条件が与えられた場合、移行期間担当部が、新動体についての追跡切出条件から旧動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、旧動体に対する追跡処理を続行するようにしたものである。
(35) According to a thirty-fifth aspect of the present invention, in the fisheye monitoring system according to the thirty-third or thirty-fourth aspect described above,
When the moving object tracking unit performs the tracking process for the new moving object, also performs the tracking process for the old moving object, sets the tracking cut-out condition based on the new moving object, and the new moving object disappears earlier than the old moving object, In place of the moving object detection unit, the target cutting condition for the old moving object is given to the actual cutting condition determination unit,
When the target cutting condition for the old moving object is given to the actual cutting condition determination unit, the transition period responsible section shifts from the tracking cutting condition for the new moving object to the target cutting condition for the old moving object. The actual cutting conditions that change
The moving object tracking unit is configured to continue the tracking process for the old moving object.

(36) 本発明の第36の態様は、上述した第33〜第35の態様に係る魚眼監視システムにおいて、
移行期間担当部が、旧動体から新動体へ交替する移行処理を行う際に、旧動体についての動的監視期間が所定の最小基準時間に満たない場合には、動的監視期間が最小基準時間に達するまで、待機時間をおいてから処理を開始するようにしたものである。
(36) According to a thirty-sixth aspect of the present invention, in the fisheye monitoring system according to the thirty-third to thirty-fifth aspects described above,
When the transition period responsible department performs transition processing to switch from the old moving object to the new moving object, if the dynamic monitoring period for the old moving object is less than the predetermined minimum reference time, the dynamic monitoring period is the minimum reference time. The process is started after a waiting time until it reaches.

(37) 本発明の第37の態様は、上述した第1〜第36の態様に係る魚眼監視システムにおいて、
ユーザの設定操作に基づいて、実切出条件決定部が決定すべき実切出条件および標準切出条件格納部に格納される標準切出条件を任意に設定する機能をもった手動条件設定部を更に設けたものである。
(37) The thirty-seventh aspect of the present invention is the fisheye monitoring system according to the first to thirty-sixth aspects described above,
Manual condition setting unit with a function to arbitrarily set the actual cutting condition to be determined by the actual cutting condition determination unit and the standard cutting condition stored in the standard cutting condition storage unit based on the user's setting operation Is further provided.

(38) 本発明の第38の態様は、上述した第1〜第37の態様に係る魚眼監視システムにおける魚眼レンズ付ビデオカメラおよびモニタ装置を除く構成部分を、コンピュータに専用プログラムを組み込むことにより構成するようにしたものである。   (38) According to a thirty-eighth aspect of the present invention, the components other than the video camera with a fisheye lens and the monitor device in the fisheye monitoring system according to the first to thirty-seventh aspects described above are configured by incorporating a dedicated program into a computer. It is what you do.

(39) 本発明の第39の態様は、上述した第1〜第37の態様に係る魚眼監視システムにおける魚眼レンズ付ビデオカメラおよびモニタ装置を除く構成部分を、これら構成部分に対応する機能を果たす電子回路が組み込まれた半導体集積回路により構成するようにしたものである。   (39) According to a thirty-ninth aspect of the present invention, the components other than the video camera with a fisheye lens and the monitor device in the fisheye monitoring system according to the first to thirty-seventh aspects described above have functions corresponding to these components. It is constituted by a semiconductor integrated circuit in which an electronic circuit is incorporated.

(40) 本発明の第40の態様は、魚眼レンズを用いた撮影により得られた歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これを画面上に提示する画像提示システムにおいて、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、二次元XY座標系の原点Oを中心とし半径Rをもち、魚眼レンズを用いた撮影により得られた歪曲円形画像を格納する歪曲円形画像用メモリと、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
平面正則画像用メモリ内に格納されている平面正則画像を画面上に表示する画像表示装置と、
歪曲円形画像上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像の一部から平面正則画像を切り出すための条件として決定する実切出条件決定部と、
実切出条件決定部から与えられた実切出条件に基づいて、歪曲円形画像用メモリに格納されている歪曲円形画像の切出中心点Pで示される切り出し位置から、平面傾斜角φで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して、平面正則画像用メモリに格納する画像切出変換部と、
を設け、
実切出条件決定部が、現在の切出中心点P0を含む現切出条件から、目標となる切出中心点Pnを含む目標切出条件への変更を行う際に、画像切出変換部に対して与える切出中心点Pの位置を、点P0から点Pnへと段階的に移行させる処理を行うようにしたものである。
(40) According to a 40th aspect of the present invention, in the image presentation system that cuts out a part of a distorted circular image obtained by photographing using a fisheye lens, converts the image into a planar regular image, and presents the image on a screen.
It is composed of a collection of many pixels arranged at the position indicated by coordinates (x, y) on the two-dimensional XY coordinate system, has a radius R around the origin O of the two-dimensional XY coordinate system, and uses a fisheye lens A distorted circular image memory for storing a distorted circular image obtained by shooting,
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image display device for displaying a planar regular image stored in a planar regular image memory on a screen;
An actual cutting condition constituted by a cutting center point P that is one point on the distorted circular image, a predetermined plane inclination angle φ, and a predetermined magnification m is determined from a part of the distorted circular image as a planar regular image. An actual cutting condition determination unit that determines as a condition for cutting
Based on the actual cutting condition given from the actual cutting condition determination unit, the plane inclination angle φ is indicated from the cutting position indicated by the cutting center point P of the distorted circular image stored in the distorted circular image memory. An image cut-out conversion unit that cuts out an image having a cut-out size indicated by the magnification m in the cut-out direction, converts the image into a plane regular image, and stores the image in a plane regular image memory;
Provided,
When the actual cutting condition determination unit changes the current cutting condition including the current cutting center point P0 to the target cutting condition including the target cutting center point Pn, the image cutting conversion unit Is performed in such a manner that the position of the cut-out center point P given to is gradually shifted from the point P0 to the point Pn.

(41) 本発明の第41の態様は、上述した第40の態様に係る画像提示システムにおいて、
歪曲円形画像が配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面を定義し、原点Oに向かって当該仮想球面上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用によってXY平面上の1点に到達する場合に、当該仮想球面上の1点と当該XY平面上の1点とを相互に対応する点と定義し、切出中心点Pに対応する仮想球面上の点である対応点Qをとり、原点Oを起点として対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、点Gを通り視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義したときに、
画像切出変換部が、二次元UV座標系上の座標(u,v)と二次元XY直交座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像から切り出した画像を平面正則画像に変換する処理を行うようにしたものである。
(41) The forty-first aspect of the present invention is the image presentation system according to the forty-first aspect described above,
In a three-dimensional XYZ Cartesian coordinate system including a two-dimensional XY Cartesian coordinate system in which a distorted circular image is arranged, a virtual sphere having a radius R is defined with the origin O as the center, and one point on the virtual sphere is directed toward the origin O. When incident external light reaches one point on the XY plane by the optical action of the fisheye lens used for photographing, a point on the virtual sphere and a point on the XY plane correspond to each other A corresponding point Q that is a point on the virtual sphere corresponding to the cut-out center point P, a vector passing through the corresponding point Q starting from the origin O is defined as a line-of-sight vector n, and the line-of-sight vector n A plane inclination angle on a plane passing through the point G and perpendicular to the line-of-sight vector n or a curved surface obtained by curving the plane, with the point G separated from the origin O by “product m · R of the magnification m and the radius R” as the origin. Two arranged with orientation according to φ When it defined the original UV coordinate system,
The image cut-out conversion unit uses a predetermined correspondence relation expression indicating the correspondence between the coordinates (u, v) on the two-dimensional UV coordinate system and the coordinates (x, y) on the two-dimensional XY orthogonal coordinate system, By calculating the corresponding coordinates (x, y) corresponding to the coordinates (u, v), processing for converting an image cut out from the distorted circular image into a planar regular image is performed.

(42) 本発明の第42の態様は、上述した第41の態様に係る画像提示システムにおいて、
実切出条件決定部が、切出中心点Pについての仮想球面上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定するようにしたものである。
(42) In a forty-second aspect of the present invention, in the image presentation system according to the forty-first aspect described above,
The actual cutting condition determination unit moves the corresponding point Q on the virtual spherical surface with respect to the cutting center point P on the predetermined spherical moving path set at a predetermined spherical moving speed set as a function related to time. As described above, the position of the cutting center point P is determined.

(43) 本発明の第43の態様は、上述した第40〜第42の態様に係る画像提示システムにおいて、
実切出条件決定部が、切出中心点Pの位置を点P0から点Pnへと段階的に移行させる処理を行うとともに、倍率mの値を、現在の倍率m0から目標となる倍率mnへと段階的に移行させる処理を行うようにしたものである。
(43) According to a 43rd aspect of the present invention, in the image presentation system according to the 40th to 42nd aspects described above,
The actual cutting condition determination unit performs a process of shifting the position of the cutting center point P from the point P0 to the point Pn in a stepwise manner, and changes the value of the magnification m from the current magnification m0 to the target magnification mn. In this way, the process of shifting in stages is performed.

(44) 本発明の第44の態様は、上述した第43の態様に係る画像提示システムにおいて、
実切出条件決定部が、時間に関する関数として設定された所定の倍率変更速度で倍率mの値を移行させるようにしたものである。
(44) According to a 44th aspect of the present invention, in the image presentation system according to the 43rd aspect described above,
The actual cutting condition determination unit shifts the value of the magnification m at a predetermined magnification changing speed set as a function related to time.

本発明の魚眼監視システムおよび画像提示システムによれば、歪曲円形画像の切出条件を切り替える際に、所定の移行期間を設け、この移行期間に切出条件が段階的に変わるようにしたため、モニタ画面上の平面正則画像には、切り替え時にパンニングやズーミングの効果が加わることになる。したがって、ユーザは、切り替え前後の画像の空間的な位置関係を容易に把握することができるようになる。   According to the fisheye monitoring system and the image presentation system of the present invention, when switching the cutting condition of the distorted circular image, a predetermined transition period is provided, and the cutting condition is changed stepwise during this transition period. The planar regular image on the monitor screen is subjected to panning and zooming effects at the time of switching. Therefore, the user can easily grasp the spatial positional relationship between the images before and after switching.

正射影方式の魚眼レンズを用いた撮影により歪曲円形画像Sを形成する基本モデルを示す斜視図である。It is a perspective view which shows the basic model which forms the distortion circular image S by imaging | photography using the fisheye lens of an orthogonal projection system. 魚眼レンズを用いた撮影によって得られた歪曲円形画像Sの一例を示す平面図である(歪曲円形画像Sの一般的なイメージを示すものであり、正確な画像を示すものではない)。It is a top view which shows an example of the distortion circular image S obtained by imaging | photography using a fisheye lens (It shows the general image of the distortion circular image S, and does not show an exact image.). 歪曲円形画像Sの一部分に切出領域Eを定義した例を示す平面図である。6 is a plan view showing an example in which a cutout region E is defined in a part of a distorted circular image S. FIG. 歪曲円形画像Sを含む二次元XY直交座標系と、平面正則画像Tを含む二次元UV直交座標系との関係を示す斜視図である。3 is a perspective view showing a relationship between a two-dimensional XY orthogonal coordinate system including a distorted circular image S and a two-dimensional UV orthogonal coordinate system including a planar regular image T. FIG. 二次元UV直交座標系上に定義された平面正則画像Tと平面傾斜角φとの関係を示す平面図である。It is a top view which shows the relationship between the plane regular image T defined on the two-dimensional UV orthogonal coordinate system, and plane inclination-angle (phi). 二次元XY直交座標系から二次元UV直交座標系への座標変換の原理を示す斜視図である。It is a perspective view which shows the principle of the coordinate transformation from a two-dimensional XY orthogonal coordinate system to a two-dimensional UV orthogonal coordinate system. 図6の斜視図に示されている各構成要素を水平方向から見た図である。It is the figure which looked at each component shown by the perspective view of FIG. 6 from the horizontal direction. 図6の斜視図に示されている各構成要素を上方から見た図である。It is the figure which looked at each component shown by the perspective view of FIG. 6 from upper direction. 倍率mを考慮したモデルにおいて、二次元XY直交座標系上における点Si(xi,yi)と二次元UV直交座標系上における点Ti(ui,vi)との対応関係を示す斜視図である。It is a perspective view which shows the correspondence of point Si (xi, yi) on a two-dimensional XY orthogonal coordinate system, and point Ti (ui, vi) on a two-dimensional UV orthogonal coordinate system in the model which considered the magnification m. 倍率m=1に設定した場合の二次元UV直交座標系の配置および切出領域E1の範囲を示す側面図である。It is a side view which shows arrangement | positioning of the two-dimensional UV orthogonal coordinate system at the time of setting magnification m = 1, and the range of cut-out area | region E1. 倍率m>1に設定した場合の二次元UV直交座標系の配置および切出領域E2の範囲を示す側面図である。It is a side view which shows arrangement | positioning of the two-dimensional UV orthogonal coordinate system at the time of setting magnification | magnification m> 1, and the range of the cutting-out area | region E2. 図2に示す歪曲円形画像Sの一部分を切り出すことにより、二次元UV直交座標系上に得られた平面正則画像Tの一例を示す平面図である。It is a top view which shows an example of the plane regular image T obtained on the two-dimensional UV orthogonal coordinate system by cutting out a part of the distortion circular image S shown in FIG. 図2に示す歪曲円形画像Sの一部分を切り出すことにより、二次元UV直交座標系上に得られた平面正則画像Tの別な一例を示す平面図である。It is a top view which shows another example of the plane regular image T obtained on the two-dimensional UV orthogonal coordinate system by cutting out a part of the distortion circular image S shown in FIG. 二次元UV直交座標系上に定義された平面正則画像Tを示す平面図である。It is a top view which shows the plane regular image T defined on the two-dimensional UV orthogonal coordinate system. 二次元XY直交座標系上に定義された歪曲円形画像Sを示す平面図である。It is a top view which shows the distortion circular image S defined on the two-dimensional XY orthogonal coordinate system. 二次元XY直交座標系上における点S1(x1,y1),S2(x2,y2)と、二次元UV直交座標系上における点T1(u1,v1),T2(u2,v2)との対応関係を示すための仮想球面の側面図である。Correspondence between points S1 (x1, y1) and S2 (x2, y2) on the two-dimensional XY orthogonal coordinate system and points T1 (u1, v1) and T2 (u2, v2) on the two-dimensional UV orthogonal coordinate system It is a side view of the virtual spherical surface for showing. 二次元XY直交座標系上における座標(x,y)と二次元UV直交座標系上における座標(u,v)との対応関係を示す正射影画像用対応関係式である。4 is an orthographic image correspondence relational expression showing a correspondence relation between coordinates (x, y) on a two-dimensional XY orthogonal coordinate system and coordinates (u, v) on a two-dimensional UV orthogonal coordinate system. 魚眼レンズ付ビデオカメラを屋外の監視用に設置した例を示す側面図である。It is a side view which shows the example which installed the video camera with a fisheye lens for the outdoor monitoring. 図18に示す魚眼レンズ付ビデオカメラを用いた撮影によって得られる歪曲円形画像の一例を示す平面図である。It is a top view which shows an example of the distorted circular image obtained by imaging | photography using the video camera with a fisheye lens shown in FIG. 図19に示す歪曲円形画像上に、2通りの切出領域E0,Enを設定した例を示す平面図である。FIG. 20 is a plan view showing an example in which two cutout areas E0 and En are set on the distorted circular image shown in FIG. 図20に示す2通りの切出領域E0,Enに対応して得られる平面正則画像を示す平面図である。FIG. 21 is a plan view showing a planar regular image obtained corresponding to the two cutout regions E0 and En shown in FIG. 20. 図19に示す歪曲円形画像について、動体検出が行われた状態を示す平面図である。FIG. 20 is a plan view showing a state in which moving object detection is performed on the distorted circular image shown in FIG. 19. 図22に示す検出動体に対して、更に動体追跡が行われた状態を示す平面図である。It is a top view which shows the state by which the moving body tracking was further performed with respect to the detection moving body shown in FIG. 図22に示す2通りの切出領域E0,Enに対応して得られる平面正則画像を示す平面図である。It is a top view which shows the planar regular image obtained corresponding to the two types of cutting area | regions E0 and En shown in FIG. 図22に示す動体検出が行われたときに、切出領域を徐々に移動させることによりパンニング効果を生じさせる原理を示す平面図である。It is a top view which shows the principle which produces a panning effect by moving a cutting area gradually, when the moving body detection shown in FIG. 22 is performed. 図25に示すパンニング効果の後に、ズーミング効果を生じさせる原理を示す平面図である。It is a top view which shows the principle which produces the zooming effect after the panning effect shown in FIG. 図26に示すズーミング効果の後に、動体追跡を行う原理を示す平面図である。It is a top view which shows the principle which performs a moving body tracking after the zooming effect shown in FIG. 本発明の一実施形態に係る魚眼監視システム100の基本構成を示すブロック図である。1 is a block diagram showing a basic configuration of a fisheye monitoring system 100 according to an embodiment of the present invention. 図28に示すシステムの動体検出部160によって行われる動体検出処理の手順を示す流れ図である。It is a flowchart which shows the procedure of the moving body detection process performed by the moving body detection part 160 of the system shown in FIG. 図29の流れ図におけるステップS13,S14の具体的プロセスを示す平面図である。It is a top view which shows the specific process of step S13, S14 in the flowchart of FIG. 図29の流れ図におけるステップS13,S14の具体的プロセスによって、猫が動体として検出された例を示す平面図である。FIG. 30 is a plan view showing an example in which a cat is detected as a moving object by a specific process of steps S13 and S14 in the flowchart of FIG. 29. 図28に示すシステムの動体検出部160の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the moving body detection part 160 of the system shown in FIG. 図28に示すシステムの動体追跡部190によって行われる動体追跡処理の手順を示す流れ図である。It is a flowchart which shows the procedure of the moving body tracking process performed by the moving body tracking part 190 of the system shown in FIG. 図28に示すシステムの動体追跡部190の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the moving body tracking part 190 of the system shown in FIG. 図28に示すシステムの実切出条件決定部170によって行われる実切出条件の決定処理の手順を示す流れ図である。It is a flowchart which shows the procedure of the determination process of the actual cutting condition performed by the actual cutting condition determination part 170 of the system shown in FIG. 図28に示すシステムの実切出条件決定部170の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the actual cutting condition determination part 170 of the system shown in FIG. 図36に示す移行期間担当部172によって行われる具体的な移行プロセスを示す平面図である。FIG. 37 is a plan view showing a specific transition process performed by a transition period charge unit 172 shown in FIG. 36. 図22に示す動体検出が行われた場合における移行期間の実切出条件の具体的な変遷例を示す表である。It is a table | surface which shows the specific transition example of the actual extraction conditions of the transition period when the moving body detection shown in FIG. 22 is performed. 本発明に係る等速パンニングの具体的方法を示す側面図である。It is a side view which shows the specific method of the constant velocity panning which concerns on this invention. 本発明に係る等速パンニングの具体的方法を示す平面図およびグラフである。It is the top view and graph which show the specific method of the constant velocity panning which concerns on this invention. 本発明に係る不等速パンニングの具体的方法を示す平面図およびグラフである。It is the top view and graph which show the specific method of the inconstant speed panning which concerns on this invention. 本発明に係る等速および不等速ズーミングの具体的方法を示すグラフである。It is a graph which shows the specific method of the constant speed and inconstant speed zooming which concerns on this invention. 本発明に係る等速および不等速パンニングの具体的なステップを示す表である。It is a table | surface which shows the specific step of the uniform velocity and non-uniform velocity panning which concern on this invention. 本発明に係る等速および不等速ズーミングの具体的なステップを示す表である。It is a table | surface which shows the specific step of constant speed and inconstant speed zooming which concerns on this invention. 図36に示す移行期間担当部172の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the transition period charge part 172 shown in FIG. 図45に示す実切出中心点決定部70の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the actual cutting center point determination part 70 shown in FIG. 図45に示す実倍率決定部90の詳細構成を示すブロック図である。It is a block diagram which shows the detailed structure of the real magnification determination part 90 shown in FIG. 撮像面が鉛直面に一致し、X軸が実世界の鉛直軸Wに一致するように魚眼レンズ付ビデオカメラを設置した場合の切出領域の向きを示す平面図である。It is a top view which shows the direction of the cut-out area | region at the time of installing a video camera with a fisheye lens so that an imaging surface may correspond to a vertical surface and an X-axis may correspond to the vertical axis W of the real world. 撮像面が鉛直面に一致し、実世界の鉛直軸Wに対してY軸が角度ξをなすような向きに魚眼レンズ付ビデオカメラを設置した場合の切出領域の向きを示す平面図である。It is a top view which shows the direction of a cut-out area | region when a video camera with a fisheye lens is installed in the direction where an imaging surface corresponds to a vertical surface and the Y axis makes an angle ξ with respect to the vertical axis W in the real world. 撮像面が水平面に一致するように魚眼レンズ付ビデオカメラを設置した場合の切出領域の向きを示す平面図である。It is a top view which shows direction of the cut-out area | region at the time of installing a video camera with a fisheye lens so that an imaging surface may correspond to a horizontal surface. 撮像面が水平面に一致するように魚眼レンズ付ビデオカメラを設置した場合の撮影画像の水平面方向を示す平面図である。It is a top view which shows the horizontal surface direction of the picked-up image at the time of installing a video camera with a fisheye lens so that an imaging surface may correspond to a horizontal surface. 標準切出中心点P0が、二次元XY直交座標系の原点O以外の位置に設定されている場合のパンニング経路の一例を示す平面図である。It is a top view which shows an example of a panning path | route in case the standard cutting center point P0 is set in positions other than the origin O of a two-dimensional XY orthogonal coordinate system. 標準切出中心点P0が、二次元XY直交座標系の原点O以外の位置に設定されている場合のパンニング経路の別な一例を示す平面図である。It is a top view which shows another example of the panning path | route in case the standard cutting center point P0 is set in positions other than the origin O of a two-dimensional XY orthogonal coordinate system. 図53に示すパンニング経路を採る場合の切出中心点Pの移動経路を求める原理を示す斜視図である。It is a perspective view which shows the principle which calculates | requires the movement path | route of the cutting center point P in the case of taking the panning path | route shown in FIG. 図54に示す原理に基づいて、切出中心点Pの位置を決定するための演算式を示す図である。It is a figure which shows the computing equation for determining the position of the cutting center point P based on the principle shown in FIG. 複数の動体が存在する場合の第1の取扱方針を示すタイムチャートである。It is a time chart which shows the 1st handling policy in case a some moving body exists. 複数の動体が存在する場合の第2の取扱方針を示すタイムチャートである。It is a time chart which shows the 2nd handling policy in case a some moving body exists. 複数の動体が存在する場合の第3の取扱方針を示すタイムチャートである。It is a time chart which shows the 3rd handling policy in case a some moving body exists. 移行処理を行う前に待機時間を確保する運用を示すタイムチャートである。It is a time chart which shows the operation | movement which ensures standby | waiting time before performing a migration process. 正射影方式の魚眼レンズにおける入射光の投影状態を示す側面図である。It is a side view which shows the projection state of the incident light in the orthographic fisheye lens. 正射影方式の魚眼レンズを用いて形成される正射影画像と、等距離射影方式の魚眼レンズを用いて形成される等距離射影画像と、の関係を示す斜視図である。It is a perspective view which shows the relationship between the orthographic projection image formed using the orthographic projection fisheye lens, and the equidistant projection image formed using the equidistant projection fisheye lens. 等距離射影画像上の座標と正射影画像上の座標との間で座標変換を行うための変換式を示す図である。It is a figure which shows the conversion type for performing coordinate conversion between the coordinate on an equidistance projection image, and the coordinate on an orthographic projection image. 二次元XY直交座標系上における点Si(xi,yi)と曲面上に定義された二次元UV座標系上における点Ci(ui,vi)との対応関係を示す斜視図である。It is a perspective view which shows the correspondence of point Si (xi, yi) on a two-dimensional XY orthogonal coordinate system, and point Ci (ui, vi) on the two-dimensional UV coordinate system defined on the curved surface.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1.画像変換処理の基本モデル >>>
魚眼レンズを用いた撮影で得られる画像は、歪曲した円形の画像になるため、モニタの画面上に表示するには、この歪曲円形画像を、歪みの少ない平面正則画像に変換する処理を行う必要がある。そこで、ここでは、魚眼レンズを用いた撮影により得られた歪曲円形画像の一般的な特徴と、その一部分を切り出して、平面正則画像に変換する処理の基本原理を説明する。
<<< §1. Basic model of image conversion processing >>>
Since an image obtained by photographing with a fisheye lens is a distorted circular image, it is necessary to perform processing for converting the distorted circular image into a planar regular image with less distortion in order to display it on the monitor screen. is there. Therefore, here, a general characteristic of a distorted circular image obtained by photographing using a fisheye lens and a basic principle of processing for cutting out a part of the image and converting it into a planar regular image will be described.

図1は、正射影方式の魚眼レンズを用いた撮影により歪曲円形画像Sを形成する基本モデルを示す斜視図である。一般に、魚眼レンズは、その投影方式によって複数の種類に分けられるが、この図1に示すモデルは、正射影方式の魚眼レンズについてのものである(正射影方式以外の魚眼レンズに本発明を適用する手法は、§9−3で述べる)。   FIG. 1 is a perspective view showing a basic model for forming a distorted circular image S by photographing using an orthographic fisheye lens. In general, fish-eye lenses are classified into a plurality of types according to the projection method, but the model shown in FIG. 1 is for a fish-eye lens of an orthographic projection method (a method for applying the present invention to a fish-eye lens other than an orthographic projection method) , Described in §9-3).

図1には、三次元XYZ直交座標系におけるXY平面上に歪曲円形画像Sが形成された例が示されている。ここでは、図示のとおり、Z軸を図の上方にとり、Z軸の正の領域側にドーム状の仮想球面H(半球)を定義した例を示すことにする。   FIG. 1 shows an example in which a distorted circular image S is formed on an XY plane in a three-dimensional XYZ orthogonal coordinate system. Here, as shown in the figure, an example is shown in which the Z axis is taken upward in the figure and a dome-like virtual spherical surface H (hemisphere) is defined on the positive region side of the Z axis.

XY平面上に形成された歪曲円形画像Sは、座標系の原点Oを中心とした半径Rの円を構成する画像であり、Z軸の正の領域側における180°の画角をもった領域に存在する像を歪ませて記録したものに相当する。図2は、魚眼レンズを用いた撮影によって得られた歪曲円形画像Sの一例を示す平面図である。このように、歪曲円形画像Sには、Z軸の正の領域側に存在するすべての像が記録されることになるが、その中心部分と周囲部分とでは、像の縮尺倍率が異なっており、記録された像の形状は歪んだものになる。なお、図2に示す歪曲円形画像Sは、魚眼レンズを用いた撮影により得られた歪曲円形画像の一般的なイメージを示すものであり、実際の魚眼レンズを用いて得られる正確な画像を示すものではない。   The distorted circular image S formed on the XY plane is an image forming a circle with a radius R centered on the origin O of the coordinate system, and is an area having an angle of view of 180 ° on the positive area side of the Z axis. Is equivalent to the image recorded with distortion. FIG. 2 is a plan view showing an example of a distorted circular image S obtained by photographing using a fisheye lens. As described above, in the distorted circular image S, all the images existing on the positive region side of the Z-axis are recorded. However, the scale magnification of the image is different between the central portion and the peripheral portion. The shape of the recorded image is distorted. Note that the distorted circular image S shown in FIG. 2 shows a general image of a distorted circular image obtained by photographing using a fisheye lens, and does not show an accurate image obtained using an actual fisheye lens. Absent.

実際の魚眼レンズは、複数の凸レンズや凹レンズを組み合わせた光学系によって構成されるが、その光学的な特性は、図1に示すような仮想球面Hによってモデル化できることが知られている。すなわち、歪曲円形画像Sの上面に、半径Rをもったドーム状の仮想球面H(半球)を配置したモデルを考えれば、正射影方式の魚眼レンズの光学的特性は、仮想球面H上の任意の点H(x,y,z)に対して法線方向から入射する入射光線L1は、Z軸に平行な入射光線L2として、XY平面上の点S(x,y)へ向かう振る舞いをする、と考えてよい。逆言すれば、図2において歪曲円形画像S上の点S(x,y)に位置する画素は、図1に示す入射光線L1の延長線上に存在する物体上の1点を示していることになる。   An actual fisheye lens is constituted by an optical system that is a combination of a plurality of convex lenses and concave lenses, and it is known that its optical characteristics can be modeled by a virtual spherical surface H as shown in FIG. In other words, considering a model in which a dome-shaped virtual spherical surface H (hemisphere) having a radius R is arranged on the upper surface of the distorted circular image S, the optical characteristics of the orthographic fisheye lens are arbitrary on the virtual spherical surface H. The incident light beam L1 incident from the normal direction to the point H (x, y, z) behaves toward the point S (x, y) on the XY plane as an incident light beam L2 parallel to the Z axis. You may think. In other words, the pixel located at the point S (x, y) on the distorted circular image S in FIG. 2 indicates one point on the object existing on the extension line of the incident light beam L1 shown in FIG. become.

もちろん、実際の魚眼レンズで生じている光学的現象は、複数の凸レンズや凹レンズによる屈折により、撮像対象となる物体の特定の点が、XY平面上の特定の点S(x,y)上に結像する現象ということになるが、画像変換処理などを行う上では、図1に示すような仮想球面Hを用いたモデルに置き換えた議論を行っても何ら支障はない。したがって、前掲の特許文献に開示されている画像変換処理でも、このようなモデルを前提とした手法が示されており、本発明における以下の説明においても、このようなモデルを前提とした説明を行うことにする。   Of course, an optical phenomenon occurring in an actual fisheye lens is that a specific point of an object to be imaged is connected to a specific point S (x, y) on the XY plane due to refraction by a plurality of convex lenses and concave lenses. Although this is an image phenomenon, there is no problem in performing an image conversion process or the like even if the argument is replaced with a model using a virtual spherical surface H as shown in FIG. Therefore, even in the image conversion processing disclosed in the above-mentioned patent document, a technique based on such a model is shown. In the following description of the present invention, description based on such a model is also given. To do.

本発明に係る装置では、歪曲円形画像S上の一部分を切り出して、平面正則画像に変換する処理が必要になる。たとえば、図2に示す歪曲円形画像Sを見たユーザが、その左下に描かれている女性の画像を、歪みのない正しい画像で観察したいと考えたとしよう。このような場合、ユーザは、歪曲円形画像Sのどの部分を切り出して変換を行うべきかを指定する必要がある。たとえば、図3にハッチングを施して示すような切出領域Eを変換対象とすべき領域として指定するのであれば、最も直観的な指定方法は、その中心点P(xp,yp)の位置を指定する方法であろう。本願では、このようにしてユーザやシステムによって指定される点Pを、切出中心点Pと呼ぶことにする。もっとも、歪曲円形画像Sは歪んだ画像であるため、切出中心点Pは、切出領域Eについての正確な幾何学的中心にはならない。   In the apparatus according to the present invention, it is necessary to cut out a part of the distorted circular image S and convert it into a planar regular image. For example, assume that a user who looks at the distorted circular image S shown in FIG. 2 wants to observe the image of a woman drawn on the lower left of the image with a correct image without distortion. In such a case, the user needs to specify which part of the distorted circular image S should be cut out and converted. For example, if the cutout area E as shown by hatching in FIG. 3 is designated as the area to be converted, the most intuitive designation method is to specify the position of the center point P (xp, yp). It would be the way to specify. In the present application, the point P designated by the user or the system in this way is referred to as a cut center point P. However, since the distorted circular image S is a distorted image, the cut-out center point P does not become an accurate geometric center with respect to the cut-out region E.

ここでは、切出中心点P(xp,yp)を中心とした切出領域E内の画像を、平面正則画像に変換するために、次のような基本モデルを考える。図4は、この基本モデルにおいて、歪曲円形画像Sを含む二次元XY直交座標系と、平面正則画像Tを含む二次元UV直交座標系との関係を示す斜視図である。図示のとおり、歪曲円形画像Sは、三次元XYZ直交座標系のXY平面上に定義されているので、歪曲円形画像S自身は、二次元XY直交座標系上に定義された画像である。そこで、この歪曲円形画像S上に定義された切出中心点P(xp,yp)を通りZ軸に平行な直線と仮想球面Hとの交点Gを考える。この交点Gは、いわば切出中心点P(xp,yp)の真上の点であり、その位置座標は(xp,yp,zp)である。   Here, the following basic model is considered in order to convert an image in the cut-out area E centered on the cut-out center point P (xp, yp) into a planar regular image. FIG. 4 is a perspective view showing the relationship between the two-dimensional XY orthogonal coordinate system including the distorted circular image S and the two-dimensional UV orthogonal coordinate system including the planar regular image T in this basic model. As illustrated, since the distorted circular image S is defined on the XY plane of the three-dimensional XYZ orthogonal coordinate system, the distorted circular image S itself is an image defined on the two-dimensional XY orthogonal coordinate system. Therefore, consider an intersection G between a virtual spherical surface H and a straight line passing through the cut-out center point P (xp, yp) defined on the distorted circular image S and parallel to the Z axis. This intersection point G is, so to speak, a point immediately above the cut-out center point P (xp, yp), and its position coordinates are (xp, yp, zp).

次に、この交点G(xp,yp,zp)において、仮想球面Hに接する接平面を定義し、この接平面上に二次元UV直交座標系を定義する。そして、平面正則画像Tを、この二次元UV直交座標系上の画像として求めることにする。図4に示す例の場合、交点G(xp,yp,zp)が原点となるように二次元UV直交座標系が定義されている。結局、このモデルにおけるUV座標系の原点Gは、仮想球面H上のいずれかに設定され、UV座標系を構成するUV平面は、この原点Gの位置における仮想球面Hに対する接平面に一致する。   Next, a tangent plane in contact with the phantom spherical surface H is defined at the intersection point G (xp, yp, zp), and a two-dimensional UV orthogonal coordinate system is defined on the tangent plane. Then, the planar regular image T is obtained as an image on the two-dimensional UV orthogonal coordinate system. In the example shown in FIG. 4, the two-dimensional UV orthogonal coordinate system is defined so that the intersection point G (xp, yp, zp) is the origin. Eventually, the origin G of the UV coordinate system in this model is set anywhere on the virtual spherical surface H, and the UV plane constituting the UV coordinate system coincides with the tangential plane with respect to the virtual spherical surface H at the position of the origin G.

UV座標系の原点となる点G(xp,yp,zp)の位置は、図示のとおり、方位角αと天頂角βとによって特定することができる。ここで、方位角α(0≦α<360°)は、切出中心点P(xp,yp)とXY座標系の原点Oとを結ぶ直線とY軸とのなす角であり、天頂角β(0≦β≦90°)は、UV座標系の原点となる点G(xp,yp,zp)とXY座標系の原点Oとを結ぶ直線とZ軸とのなす角(鋭角)である。   The position of the point G (xp, yp, zp) serving as the origin of the UV coordinate system can be specified by the azimuth angle α and the zenith angle β, as shown. Here, the azimuth angle α (0 ≦ α <360 °) is an angle formed by a straight line connecting the cut-out center point P (xp, yp) and the origin O of the XY coordinate system and the Y axis, and the zenith angle β (0 ≦ β ≦ 90 °) is an angle (acute angle) formed by a straight line connecting the point G (xp, yp, zp) serving as the origin of the UV coordinate system and the origin O of the XY coordinate system and the Z axis.

このように、UV平面は、方位角αと天頂角βとを指定することによって特定することができるが、UV座標系を決定するには、更にもう1つの角度φを指定する必要がある。この角度φは、直線OGを回転軸としたUV座標系の向きを示すパラメータであり、図4の例では、U軸とJ軸とのなす角度として定義されている。ここで、J軸は、点G(xp,yp,zp)を通り、XY平面に平行かつ直線OGに直交する軸であり、以下、回転基準軸と呼ぶことにする。要するに、角度φは、UV座標系においてU軸方向を向いたベクトルUと、回転基準軸Jの方向を向いたベクトルJと、を定義したときに、ベクトルUとベクトルJとのなす角度として定義される角であり、通常、「平面傾斜角」と呼ばれている。   As described above, the UV plane can be specified by designating the azimuth angle α and the zenith angle β. However, in order to determine the UV coordinate system, it is necessary to designate another angle φ. This angle φ is a parameter indicating the direction of the UV coordinate system with the straight line OG as the rotation axis, and is defined as the angle formed by the U axis and the J axis in the example of FIG. Here, the J-axis is an axis that passes through the point G (xp, yp, zp), is parallel to the XY plane and is orthogonal to the straight line OG, and is hereinafter referred to as a rotation reference axis. In short, the angle φ is defined as an angle formed by the vector U and the vector J when the vector U facing the U-axis direction and the vector J facing the rotation reference axis J are defined in the UV coordinate system. This angle is usually called “planar inclination angle”.

図5は、UV座標系上に定義された平面正則画像Tと平面傾斜角φとの関係を示す平面図である。ここに示す例の場合、平面正則画像Tは、UV座標系の原点G(xp,yp,zp)を中心とするUV平面上の矩形として定義されており、その長辺はU軸に平行、短辺はV軸に平行になっている。平面傾斜角φは、上述したとおり、U軸とJ軸とのなす角であるから、図5に示す例の場合、UV平面上での平面正則画像Tの回転ファクターを示すパラメータということになる。   FIG. 5 is a plan view showing the relationship between the planar regular image T defined on the UV coordinate system and the planar tilt angle φ. In the case of the example shown here, the planar regular image T is defined as a rectangle on the UV plane centered on the origin G (xp, yp, zp) of the UV coordinate system, and its long side is parallel to the U axis. The short side is parallel to the V axis. Since the plane inclination angle φ is an angle formed by the U axis and the J axis as described above, in the example shown in FIG. 5, this is a parameter indicating the rotation factor of the planar regular image T on the UV plane. .

結局、図4に示す平面正則画像Tを形成するためのUV座標系の位置および向きは、方位角α,天頂角β,平面傾斜角φという3つの角度からなるパラメータを設定することにより一義的に決定される。この3つの角度は、一般にオイラー角と呼ばれている。   As a result, the position and orientation of the UV coordinate system for forming the planar regular image T shown in FIG. 4 are uniquely set by setting parameters composed of three angles, the azimuth angle α, the zenith angle β, and the plane tilt angle φ. To be determined. These three angles are generally called Euler angles.

さて、ここで行うべき画像変換処理は、結局、XY座標系からUV座標系への座標変換ということになる。そこで、XY座標系とUV座標系との幾何学的な位置関係を、もう少し詳しく見てみよう。図6の斜視図に示されているように、XY平面上の歪曲円形画像Sを、方位角αによって示される方向に対して、天頂角βだけ傾斜すると、傾斜面S1が得られる。ここで、図示のとおり、XY座標系の原点OからUV座標系の原点Gへ向かう方向に視線ベクトルnを定義し、傾斜面S1をこの視線ベクトルnの方向に距離Rだけ平行移動させると、接平面S2が得られることになる。移動距離Rは、歪曲円形画像Sの半径であり、仮想球面Hの半径でもある。   Now, the image conversion processing to be performed here is coordinate conversion from the XY coordinate system to the UV coordinate system. Let's take a closer look at the geometric positional relationship between the XY coordinate system and the UV coordinate system. As shown in the perspective view of FIG. 6, when the distorted circular image S on the XY plane is inclined by the zenith angle β with respect to the direction indicated by the azimuth angle α, an inclined surface S1 is obtained. Here, as shown in the drawing, when the line-of-sight vector n is defined in the direction from the origin O of the XY coordinate system to the origin G of the UV coordinate system, and the inclined plane S1 is translated in the direction of the line-of-sight vector n by the distance R, A tangential plane S2 is obtained. The moving distance R is the radius of the distorted circular image S and the radius of the phantom spherical surface H.

接平面S2は、点Gにおいて仮想球面Hに接する平面であり、視線ベクトルnは、点Gにおける仮想球面Hの法線方向を示すベクトルである。そして、UV座標系は、この接平面S2上に定義される座標系であり、点Gを原点とし、U軸とJ軸(点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸であり、図における傾斜面S1とXY平面との交線に平行な軸になる。)とのなす角が平面傾斜角φとなるように定義された二次元直交座標系である。図7は、図6の斜視図に示されている各構成要素を水平方向から見た図である。前述したとおり、点G(xp,yp,zp)は、歪曲円形画像S上に定義された切出中心点P(xp,yp)を通りZ軸に平行な直線と仮想球面Hとの交点として定まる点であり、その位置は方位角αおよび天頂角βによって定まる。一方、図8は、図6の斜視図に示されている各構成要素を上方から見た図である。図に示す交点G(xp,yp,zp)は、仮想球面H上の点であり、XY平面の上方に位置している。そして、この交点G(xp,yp,zp)における仮想球面Hに対する接平面上にUV座標系が定義される。このとき、U軸とJ軸とのなす角がφとなるように、U軸の向きが定められる。   The tangent plane S2 is a plane in contact with the virtual spherical surface H at the point G, and the line-of-sight vector n is a vector indicating the normal direction of the virtual spherical surface H at the point G. The UV coordinate system is a coordinate system defined on the tangent plane S2, and has the point G as the origin, the U axis and the J axis (through the point G, parallel to the XY plane and orthogonal to the line-of-sight vector n. And is an axis parallel to the line of intersection between the inclined plane S1 and the XY plane in the drawing.) Is a two-dimensional orthogonal coordinate system defined so that the plane inclination angle φ is the plane inclination angle φ. FIG. 7 is a diagram of each component shown in the perspective view of FIG. 6 viewed from the horizontal direction. As described above, the point G (xp, yp, zp) is an intersection of the phantom spherical surface H and a straight line passing through the cut center point P (xp, yp) defined on the distorted circular image S and parallel to the Z axis. The position is determined by the azimuth angle α and the zenith angle β. On the other hand, FIG. 8 is a view of each component shown in the perspective view of FIG. 6 as viewed from above. An intersection point G (xp, yp, zp) shown in the drawing is a point on the phantom spherical surface H, and is located above the XY plane. Then, a UV coordinate system is defined on the tangent plane with respect to the virtual spherical surface H at the intersection point G (xp, yp, zp). At this time, the direction of the U axis is determined so that the angle formed by the U axis and the J axis is φ.

<<< §2.倍率を加味した画像変換処理の基本原理 >>>
§1では、原点G(xp,yp,zp)が仮想球面H上の1点となるように、UV座標系を定義する基本モデルを述べた。この場合、XY座標系の原点OとUV座標系の原点Gとの距離は半径Rに一致する。これに対して、通常は、変換により得られる平面正則画像にスケーリングファクタを導入した実用モデルが利用される。すなわち、所定の倍率mを設定し、2点OG間の距離が、半径Rのm倍となるような位置にUV座標系を配置し、このUV座標系上に、倍率mに対応するサイズをもった平面正則画像Tを定義する実用モデルが用いられる。ここでは、この実用モデルにおける画像変換処理の基本原理を説明する。
<<< §2. Basic Principles of Image Conversion Processing Considering Magnification >>>
In §1, the basic model that defines the UV coordinate system is described so that the origin G (xp, yp, zp) is one point on the phantom spherical surface H. In this case, the distance between the origin O of the XY coordinate system and the origin G of the UV coordinate system coincides with the radius R. On the other hand, a practical model in which a scaling factor is introduced into a planar regular image obtained by conversion is usually used. That is, a predetermined magnification m is set, a UV coordinate system is arranged at a position where the distance between the two points OG is m times the radius R, and a size corresponding to the magnification m is set on the UV coordinate system. A practical model that defines a planar regular image T having the same is used. Here, the basic principle of image conversion processing in this practical model will be described.

図9は、この実用モデルについて、二次元XY直交座標系上における点Si(xi,yi)と二次元UV直交座標系上における点Ti(ui,vi)との対応関係を示す斜視図である。図4に示す基本モデルとの相違は、二次元UV直交座標系の原点G(xg,yg,zg)の位置である。すなわち、図9に示す実用モデルの場合、2点OG間の距離は、m・Rに設定されている。図9は、m=2に設定した例である。図4に示す基本モデルは、この実用モデルにおいて、m=1に設定し、原点G(xg,yg,zg)を球面上対応点Q(xp,yp,zp)に一致させるようにした特殊な例に相当する。   FIG. 9 is a perspective view showing a correspondence relationship between the point Si (xi, yi) on the two-dimensional XY orthogonal coordinate system and the point Ti (ui, vi) on the two-dimensional UV orthogonal coordinate system for this practical model. . The difference from the basic model shown in FIG. 4 is the position of the origin G (xg, yg, zg) of the two-dimensional UV orthogonal coordinate system. That is, in the case of the practical model shown in FIG. 9, the distance between the two points OG is set to m · R. FIG. 9 shows an example in which m = 2 is set. The basic model shown in FIG. 4 is a special model in which m = 1 is set in the practical model, and the origin G (xg, yg, zg) is made to coincide with the corresponding point Q (xp, yp, zp) on the spherical surface. It corresponds to an example.

ここで、球面上対応点Q(xp,yp,zp)は、切出中心点P(xp,yp)に対応した仮想球面H上の点であり、正射影方式の魚眼レンズの場合、切出中心点P(xp,yp)を通りZ軸に平行な直線と仮想球面Hとの交点として定義される点である。視線ベクトルnは、原点Oから球面上対応点Q(xp,yp,zp)へ伸びるベクトルとして定義されるので、切出中心点P(xp,yp)を定めることは、視線ベクトルnを定めることと等価である。   Here, the corresponding point Q (xp, yp, zp) on the spherical surface is a point on the virtual spherical surface H corresponding to the cut-out center point P (xp, yp), and in the case of the orthographic fisheye lens, the cut-out center This is a point defined as the intersection of a straight line passing through the point P (xp, yp) and parallel to the Z axis and the phantom spherical surface H. Since the line-of-sight vector n is defined as a vector extending from the origin O to the corresponding point Q (xp, yp, zp) on the spherical surface, determining the cut-out center point P (xp, yp) determines the line-of-sight vector n Is equivalent to

もちろん、この図9に示す実用モデルの場合も、二次元UV直交座標系の原点G(xg,yg,zg)は、視線ベクトルn上の点であり、UV座標系は、この視線ベクトルnに直交する平面上に定義される。また、U軸の向きは、平面傾斜角φに基づいて決定される。具体的には、図示のとおり、原点G(xg,yg,zg)を通る回転基準軸JとU軸とのなす角度が、平面傾斜角φに一致するように、UV座標系の向きが決定されることになる。   Of course, also in the practical model shown in FIG. 9, the origin G (xg, yg, zg) of the two-dimensional UV orthogonal coordinate system is a point on the line-of-sight vector n. It is defined on an orthogonal plane. The direction of the U axis is determined based on the plane inclination angle φ. Specifically, as shown in the figure, the orientation of the UV coordinate system is determined so that the angle formed by the rotation reference axis J passing through the origin G (xg, yg, zg) and the U axis coincides with the plane inclination angle φ. Will be.

ここで行う画像変換処理の目的は、XY座標系上に定義された歪曲円形画像S上の切出中心点P(xp,yp)を中心とした切出領域内の歪曲画像を切り出して変形し、UV座標系上に平面正則画像Tを得ることにある。具体的には、UV座標系上に得られる平面正則画像T上の1点Ti(ui,vi)に位置する画素の画素値を、これに対応するXY座標系上の1点Si(xi,yi)の近傍に位置する画素の画素値に基づいて決定することである。そのためには、§3で述べるように、座標(ui,vi)と座標(xi,yi)との対応関係を示す対応関係式が必要になる。   The purpose of the image conversion processing performed here is to cut out and deform the distorted image in the cut-out area centered on the cut-out center point P (xp, yp) on the distorted circular image S defined on the XY coordinate system. It is to obtain a planar regular image T on the UV coordinate system. Specifically, the pixel value of the pixel located at one point Ti (ui, vi) on the planar regular image T obtained on the UV coordinate system is converted into the corresponding one point Si (xi, xi, on the XY coordinate system. It is determined based on the pixel value of a pixel located in the vicinity of yi). For that purpose, as described in §3, a correspondence relation expression indicating a correspondence relation between coordinates (ui, vi) and coordinates (xi, yi) is required.

このような画像変換処理を行う上で、視線ベクトルnは、平面正則画像の切り出し位置を示すパラメータとして機能する。視線ベクトルnを図示の方向に設定した場合、切出中心点P(xp,yp)を中心とした切出領域内から、平面正則画像の切り出しが行われることになる。視線ベクトルnの方向を変えれば、切出中心点Pの位置も変わることになり、平面正則画像の切り出し位置も変わってくる。一方、平面傾斜角φは、平面正則画像の切り出し向きを示すパラメータとして機能し、倍率m(2点OG間の距離を決めるファクター)は、平面正則画像の切り出しサイズを示すパラメータとして機能する。   In performing such image conversion processing, the line-of-sight vector n functions as a parameter indicating the cutout position of the planar regular image. When the line-of-sight vector n is set in the direction shown in the drawing, a planar regular image is cut out from the cut-out region centered on the cut-out center point P (xp, yp). If the direction of the line-of-sight vector n is changed, the position of the cut-out center point P is also changed, and the cut-out position of the planar regular image is also changed. On the other hand, the plane inclination angle φ functions as a parameter indicating the cutting direction of the planar regular image, and the magnification m (a factor that determines the distance between the two points OG) functions as a parameter indicating the cutting size of the planar regular image.

図10および図11は、倍率mと切出領域Eとの関係を示す側面図である。図10は、倍率m=1に設定したモデル(図4に示すモデル)に相当し、切出中心点Pの真上に位置する球面上対応点Qが、そのままUV座標系の原点G1となっており、2点O,G1間の距離は半径Rに等しい。これに対して、図11は、倍率m>1に設定したモデル(図9に示すモデル)に相当し、切出中心点Pの真上に位置する球面上対応点Qから離れた位置にUV座標系の原点G2が設定されており、2点O,G2間の距離は半径Rのm倍に等しい。いずれも切出中心点Pの位置、球面上対応点Qの位置、視線ベクトルnの位置は同じであるが、原点の位置G1,G2が異なるため、UV座標系の位置(その上に形成される平面正則画像T1,T2の位置)も異なっている。   10 and 11 are side views showing the relationship between the magnification m and the cutout region E. FIG. FIG. 10 corresponds to a model (model shown in FIG. 4) in which the magnification m is set to 1 (the model shown in FIG. 4), and the corresponding point Q on the spherical surface located directly above the cut-out center point P directly becomes the origin G1 of the UV coordinate system. The distance between the two points O and G1 is equal to the radius R. On the other hand, FIG. 11 corresponds to a model (model shown in FIG. 9) in which the magnification m> 1 is set, and UV is positioned at a position away from the corresponding point Q on the spherical surface located immediately above the cut-out center point P. The origin G2 of the coordinate system is set, and the distance between the two points O and G2 is equal to m times the radius R. In each case, the position of the cut-out center point P, the position of the corresponding point Q on the spherical surface, and the position of the line-of-sight vector n are the same, but the origin positions G1 and G2 are different, so the position of the UV coordinate system (formed above it) The positions of the planar regular images T1 and T2) are also different.

図10と図11とを比較すれば、倍率mに応じて、切出領域Eが異なることが理解できよう。すなわち、倍率m=1の設定では、図10のように、E1が切出領域となるのに対して、倍率m>1の設定では、図11のように、E2が切出領域となり、倍率mが大きくなるほど、切出領域Eの面積は小さくなる。ここで、得られる平面正則画像T1,T2をモニタ装置の画面上に表示させる場合、平面正則画像T1,T2の大きさ(モニタ画面の大きさに応じて定まる)は一定である。したがって、平面正則画像T1,T2は、いずれも切出中心点Pを中心として切り出した画像であるが、倍率m>1に設定した平面正則画像T2の方が、より狭い切出領域E2を拡大表示した画像になる。別言すれば、平面正則画像T1が、画角F1内の被写体を撮影した画像になるのに対して、平面正則画像T2は、より狭い画角F2内の被写体を撮影した画像になる。   If FIG. 10 is compared with FIG. 11, it will be understood that the cutout region E varies depending on the magnification m. That is, when the magnification m = 1, E1 becomes the cutout area as shown in FIG. 10, whereas when the magnification m> 1, the E2 becomes the cutout area as shown in FIG. As m increases, the area of the cutout region E decreases. Here, when the obtained planar regular images T1, T2 are displayed on the screen of the monitor device, the sizes of the planar regular images T1, T2 (determined according to the size of the monitor screen) are constant. Therefore, the planar regular images T1 and T2 are both images that are cut out with the cutout center point P as the center, but the flat regular image T2 set with the magnification m> 1 enlarges the cutout region E2 that is narrower. The displayed image is displayed. In other words, the planar regular image T1 is an image obtained by photographing a subject within the angle of view F1, whereas the planar regular image T2 is an image obtained by photographing a subject within a narrower angle of view F2.

これに対して、平面傾斜角φは、平面正則画像の切り出し向きを示すパラメータであり、平面傾斜角φを変えると、平面正則画像T内に現れる被写体と画像枠との位置関係(回転方向に関する位置関係)が変わることになる。これは、図5において、角度φを増加させると、U軸(およびV軸)が反時計回りに回転し、平面正則画像Tの画像枠も反時計回りに回転することから、容易に理解できよう。   On the other hand, the plane inclination angle φ is a parameter indicating the cut-out direction of the planar regular image. When the plane inclination angle φ is changed, the positional relationship between the subject appearing in the planar regular image T and the image frame (related to the rotation direction). (Positional relationship) will change. In FIG. 5, when the angle φ is increased, the U axis (and the V axis) rotates counterclockwise, and the image frame of the planar regular image T also rotates counterclockwise. Like.

結局、ユーザは、視線ベクトルn(切出中心点P),倍率m,平面傾斜角φという3つのパラメータを設定することにより、UV座標系上に所望の平面正則画像Tを得ることができる。また、得られた平面正則画像Tが満足のゆくものでなかった場合には、これら3つのパラメータを適宜修正することにより、平面正則画像Tを修正することができる。すなわち、得られた画像の向きに満足しなければ、平面傾斜角φを修正すればよいし、得られた画像の画角に満足しなければ、倍率mを修正すればよいし、得られた画像の切り出し位置に満足しなければ、視線ベクトルn(切出中心点P)を修正すればよい。   Eventually, the user can obtain a desired planar regular image T on the UV coordinate system by setting three parameters: a line-of-sight vector n (cutting center point P), a magnification m, and a plane inclination angle φ. When the obtained planar regular image T is not satisfactory, the planar regular image T can be modified by appropriately modifying these three parameters. That is, if the orientation of the obtained image is not satisfied, the plane inclination angle φ may be corrected, and if the angle of view of the obtained image is not satisfied, the magnification m may be corrected. If the image cutout position is not satisfied, the line-of-sight vector n (cutout center point P) may be corrected.

図12は、図2に例示した歪曲円形画像Sについて、上記3つのパラメータを適宜設定し、その一部分を切り出して変換することによりUV座標系上に得られた平面正則画像Tの一例を示す平面図である。この例では、図2に示す歪曲円形画像Sにおける女性の鼻の位置が切出中心点Pとして設定されており、女性の顔周辺の画像が切り出されている。ただ、女性の身長方向がU軸となるような切り出し向きが設定されているため、図示のように、U軸を水平方向にとったモニタ画面に表示させると、女性は横向きに表示されてしまう。   FIG. 12 is a plan view showing an example of a planar regular image T obtained on the UV coordinate system by appropriately setting the above three parameters for the distorted circular image S illustrated in FIG. FIG. In this example, the position of the female nose in the distorted circular image S shown in FIG. 2 is set as the cut-out center point P, and the image around the female face is cut out. However, since the cutout direction is set so that the female height direction is the U axis, as shown in the figure, when the U axis is displayed on the monitor screen in the horizontal direction, the woman is displayed sideways. .

このような場合、ユーザは、平面傾斜角φを修正すればよい。たとえば、角度φを90°程度減少させれば、U軸(およびV軸)が時計回りに回転し、平面正則画像Tの画像枠も時計回りに回転することになり、女性の正立像が得られることになる。ただ、図示のモニタ画面は、横方向寸法a(水平方向の画素数)より縦方向寸法b(垂直方向の画素数)の方が小さい矩形枠を有しているため、女性の胸元まで表示するためには、倍率mを若干減少させる修正も必要になる。   In such a case, the user may correct the plane inclination angle φ. For example, if the angle φ is decreased by about 90 °, the U-axis (and V-axis) is rotated clockwise, and the image frame of the planar regular image T is also rotated clockwise, whereby a female erect image is obtained. Will be. However, since the illustrated monitor screen has a rectangular frame in which the vertical dimension b (the number of pixels in the vertical direction) is smaller than the horizontal dimension a (the number of pixels in the horizontal direction), the monitor screen displays even the female breast. In order to do so, it is necessary to modify the magnification m slightly.

図13は、このような修正によって得られた平面正則画像Tである。ユーザの要望どおり、女性の胸元までの正立像が得られている。図12も図13も、視線ベクトルn(切出中心点P)は同一の設定となっており、いずれも女性の鼻の位置に指定した切出中心点Pが中心となる画像になっている。ただ、両者では定義されるUV座標系の位置および向きが異なっているため、得られる平面正則画像Tが異なる結果となっている。   FIG. 13 is a planar regular image T obtained by such correction. An erect image up to the breast of the woman is obtained as requested by the user. 12 and 13, the line-of-sight vector n (the cut-out center point P) has the same setting, and both are images centered on the cut-out center point P designated as the position of the female nose. . However, since the positions and orientations of the defined UV coordinate systems are different, the obtained planar regular images T are different.

なお、本願にいう「平面正則画像」とは、必ずしも「歪みのない完全な画像」を意味するものではなく、「魚眼レンズを用いた撮影により得られる歪曲円形画像Sに比べて、通常レンズを用いた撮影により得られる画像に近い平面画像」を意味するものである。したがって、図2に示す歪曲円形画像S上の女性像に比べれば、図12,図13に示す平面正則画像Tは歪みのない画像に見えるが、完全に歪みが取り除かれているわけではない。   The “planar regular image” referred to in the present application does not necessarily mean “a complete image without distortion”, but uses “a normal lens compared to a distorted circular image S obtained by photographing using a fisheye lens”. This means a “planar image close to an image obtained by photographing”. Therefore, compared with the female image on the distorted circular image S shown in FIG. 2, the planar regular image T shown in FIGS. 12 and 13 looks like an image without distortion, but the distortion is not completely removed.

<<< §3.正射影方式の対応関係式 >>>
図14は、二次元UV直交座標系上に定義された平面正則画像Tを示す平面図である。ここでは、この平面正則画像T上の任意の点Tiを、UV座標系の座標値ui,viを用いて、Ti(ui,vi)と表すことにする。図9に示すとおり、このUV座標系の原点Gは、三次元XYZ直交座標系上における座標を用いて、点G(xg,yg,zg)で示されることになるが、二次元UV直交座標系を用いて示すと、図14に示すとおり、点T(0,0)ということになる。
<<< §3. Correspondence formula of orthographic projection method >>>
FIG. 14 is a plan view showing a planar regular image T defined on the two-dimensional UV orthogonal coordinate system. Here, an arbitrary point Ti on the planar regular image T is represented as Ti (ui, vi) using the coordinate values ui, vi of the UV coordinate system. As shown in FIG. 9, the origin G of this UV coordinate system is indicated by a point G (xg, yg, zg) using coordinates on the three-dimensional XYZ orthogonal coordinate system. If it shows using a system, it will be point T (0, 0) as shown in FIG.

一方、図15は、二次元XY直交座標系上に定義された歪曲円形画像Sを示す平面図である。ここでは、この歪曲円形画像S上の任意の点Siを、XY座標系の座標値xi,yiを用いて、Si(xi,yi)と表すことにする。図14に示す原点G(点T(0,0))上の画像は、図15に示す切出中心点P(xp,yp)上の画像に対応し、図14に示す任意の点Ti(ui,vi)上の画像は、図15に示す点Si(xi,yi)上の画像に対応する。   On the other hand, FIG. 15 is a plan view showing a distorted circular image S defined on a two-dimensional XY orthogonal coordinate system. Here, an arbitrary point Si on the distorted circular image S is represented as Si (xi, yi) using the coordinate values xi, yi of the XY coordinate system. The image on the origin G (point T (0, 0)) shown in FIG. 14 corresponds to the image on the cut-out center point P (xp, yp) shown in FIG. 15, and an arbitrary point Ti (shown in FIG. 14). The image on ui, vi) corresponds to the image on the point Si (xi, yi) shown in FIG.

前述したとおり、二次元UV直交座標系上に平面正則画像Tを得るためには、図14に示す点Ti(ui,vi)に位置する画素の画素値を、図15に示す点Si(xi,yi)に位置する画素(二次元XY直交座標系上の歪曲円形画像S内の画素)の画素値に基づいて決定する必要がある。そのためには、二次元UV直交座標系上の座標(ui,vi)と二次元XY直交座標系上の座標(xi,yi)との間の1対1の対応関係を示す対応関係式が必要になる。このような対応関係式を用いれば、図14に示す平面正則画像T上の任意の点は、図15に示す歪曲円形画像Sの切出領域E内のいずれかの点に対応づけられることになり、切出領域E内の歪曲画像を平面正則画像Tに変換することができる。   As described above, in order to obtain the planar regular image T on the two-dimensional UV orthogonal coordinate system, the pixel value of the pixel located at the point Ti (ui, vi) shown in FIG. 14 is changed to the point Si (xi) shown in FIG. , Yi) must be determined based on the pixel value of a pixel (a pixel in the distorted circular image S on the two-dimensional XY orthogonal coordinate system). For this purpose, a correspondence expression that indicates a one-to-one correspondence between coordinates (ui, vi) on the two-dimensional UV orthogonal coordinate system and coordinates (xi, yi) on the two-dimensional XY orthogonal coordinate system is necessary. become. If such a correspondence relational expression is used, an arbitrary point on the planar regular image T shown in FIG. 14 is associated with any point in the cutout region E of the distorted circular image S shown in FIG. Thus, the distorted image in the cutout region E can be converted into a planar regular image T.

このような対応関係式は、三次元XYZ座標系の空間内に配置されたUV座標系の位置および向きが決定すれば、幾何学的な手法で一義的に定義することが可能である。たとえば、図9に示す例において、平面正則画像T上の点Ti(ui,vi)と、歪曲円形画像S上の点Si(xi,yi)との位置関係に着目すれば、点Si(xi,yi)の真上にある仮想球面H上の点を球面上対応点Qi(xi,yi,zi)としたときに、原点Oと球面上対応点Qiとを結ぶ直線niとUV座標系の座標平面との交点に、点Ti(ui,vi)が位置することになる。   Such a correspondence relation expression can be uniquely defined by a geometric method if the position and orientation of the UV coordinate system arranged in the space of the three-dimensional XYZ coordinate system are determined. For example, in the example shown in FIG. 9, if attention is paid to the positional relationship between the point Ti (ui, vi) on the planar regular image T and the point Si (xi, yi) on the distorted circular image S, the point Si (xi , Yi) where the point on the virtual sphere H just above the sphere is the corresponding point Qi (xi, yi, zi) on the sphere, the straight line ni connecting the origin O and the corresponding point Qi on the sphere and the UV coordinate system The point Ti (ui, vi) is located at the intersection with the coordinate plane.

図16は、このような2点間の位置関係をより明確に説明するための側面図である。この図16において、視線ベクトルnは、原点Oから天頂角βをもつ方向に伸び、視線ベクトルnと仮想球面Hとの交点Qは、切出中心点P(xp,yp)の真上に位置している。また、視線ベクトルn上における原点Oからの距離がmRの位置に点Gが定義されている。この点Gは、二次元UV直交座標系の原点であり、このUV座標系の座標面は、視線ベクトルnに直交しており、平面正則画像Tは、このUV座標系の座標面上に定義される。   FIG. 16 is a side view for more clearly explaining such a positional relationship between two points. In FIG. 16, the line-of-sight vector n extends from the origin O in the direction having the zenith angle β, and the intersection point Q between the line-of-sight vector n and the phantom spherical surface H is located immediately above the cut-out center point P (xp, yp). is doing. A point G is defined at a position where the distance from the origin O on the line-of-sight vector n is mR. This point G is the origin of the two-dimensional UV orthogonal coordinate system, the coordinate plane of this UV coordinate system is orthogonal to the line-of-sight vector n, and the planar regular image T is defined on the coordinate plane of this UV coordinate system. Is done.

平面正則画像T上の任意の点T1(u1,v1)についての歪曲円形画像S上の対応点S1(x1,y1)は、次のようにして定義される。すなわち、点T1(u1,v1)と原点Oとを結ぶ直線と仮想球面Hとの交点位置に、球面上対応点Q1を求め、この球面上対応点Q1の真下の位置にある歪曲円形画像S上の点を、対応点S1(x1,y1)とすればよい。同様に、平面正則画像T上の任意の点T2(u2,v2)については、点T2(u2,v2)と原点Oとを結ぶ直線と仮想球面Hとの交点位置に、球面上対応点Q2を求め、この球面上対応点Q2の真下の位置にある歪曲円形画像S上の点を、対応点S2(x2,y2)とすればよい。   The corresponding point S1 (x1, y1) on the distorted circular image S for an arbitrary point T1 (u1, v1) on the planar regular image T is defined as follows. In other words, the corresponding point Q1 on the spherical surface is obtained at the position of the intersection between the straight line connecting the point T1 (u1, v1) and the origin O and the virtual spherical surface H, and the distorted circular image S at the position directly below the corresponding point Q1 on the spherical surface. The upper point may be the corresponding point S1 (x1, y1). Similarly, for an arbitrary point T2 (u2, v2) on the planar regular image T, the corresponding point Q2 on the spherical surface is located at the intersection of the virtual sphere H with the straight line connecting the point T2 (u2, v2) and the origin O. And the point on the distorted circular image S at the position directly below the corresponding point Q2 on the spherical surface may be set as the corresponding point S2 (x2, y2).

このような2点間の対応関係は、幾何学的な対応関係式で記述することができる。具体的には、図17に示す式(1)〜(9)によって記述できることが知られており、たとえば、前掲の特許文献1,2などに、このような対応関係式を用いた画像変換の方法が開示されている。なお、座標系のとり方や角度の定義方法などによって、各項の符号等に多少の相違が生じるため、文献によっては、掲載されている式に若干の食い違いが生じるが、本質的には同一の幾何学演算を示す式である。   Such a correspondence between two points can be described by a geometrical correspondence expression. Specifically, it is known that the expressions (1) to (9) shown in FIG. 17 can be used. For example, in the above-mentioned Patent Documents 1 and 2, image conversion using such a correspondence relation expression is performed. A method is disclosed. In addition, because there are some differences in the sign of each term depending on how to define the coordinate system and how to define the angle, etc., there are some discrepancies in the published formulas depending on the literature, but essentially the same It is a formula which shows geometric operation.

この図17に示す対応関係式は、図9に示す座標系および角度の定義を行った場合の式であり、UV座標系の位置を示すパラメータα,βと、UV座標系の向きを示すパラメータφとを含む式になっている。これら3つのパラメータは、前述したオイラー角、すなわち、方位角α,天頂角β,平面傾斜角φである。   The correspondence relational expression shown in FIG. 17 is an expression when the coordinate system and angle are defined as shown in FIG. 9, and parameters α and β indicating the position of the UV coordinate system and parameters indicating the direction of the UV coordinate system. The formula includes φ. These three parameters are the Euler angles described above, that is, the azimuth angle α, the zenith angle β, and the plane tilt angle φ.

具体的には、
x=R(uA+vB+wC)/
√(u+v+w) 式(1)
は、UV座標系上の1点T(u,v)の座標値u,vを用いて、XY座標系上の対応点S(x,y)のx座標値を求めるための式であるが、A,B,Cは、それぞれ、
A=cosφ cosα − sinφ sinα cosβ 式(3)
B=−sinφ cosα − cosφ sinα cosβ 式(4)
C=sinβ sinα 式(5)
なる数式で求まる値であり、オイラー角α,β,φの三角関数を用いた演算によって決定されることになる。
In particular,
x = R (uA + vB + wC) /
√ (u 2 + v 2 + w 2 ) Formula (1)
Is an equation for obtaining the x coordinate value of the corresponding point S (x, y) on the XY coordinate system using the coordinate value u, v of one point T (u, v) on the UV coordinate system. , A, B, C are respectively
A = cosφ cosα−sinφ sinα cosβ Formula (3)
B = −sinφ cosα−cosφ sinα cosβ Formula (4)
C = sinβ sinα Formula (5)
And is determined by calculation using a trigonometric function of Euler angles α, β, and φ.

同様に、
y=R(uD+vE+wF)/
√(u+v+w) 式(2)
は、UV座標系上の1点T(u,v)の座標値u,vを用いて、XY座標系上の対応点S(x,y)のy座標値を求めるための式であるが、D,E,Fは、それぞれ、
D=cosφ sinα + sinφ cosα cosβ 式(6)
E=−sinφ sinα + cosφ cosα cosβ 式(7)
F=−sinβ cosα 式(8)
なる数式で求まる値であり、オイラー角α,β,φの三角関数を用いた演算によって決定されることになる。
Similarly,
y = R (uD + vE + wF) /
√ (u 2 + v 2 + w 2 ) Formula (2)
Is an expression for obtaining the y coordinate value of the corresponding point S (x, y) on the XY coordinate system using the coordinate values u, v of one point T (u, v) on the UV coordinate system. , D, E, F are respectively
D = cosφ sinα + sinφ cosα cosβ Equation (6)
E = −sinφ sinα + cosφ cosα cosβ Equation (7)
F = −sin β cos α Formula (8)
And is determined by calculation using a trigonometric function of Euler angles α, β, and φ.

なお、式(1),(2)におけるwは、
w=mR 式(9)
で与えられる値である。ここで、Rは、既に述べたとおり、歪曲円形画像Sの半径であり、mは倍率である。倍率mは、座標値u,vのスケーリングと、座標値x,yのスケーリングとの関係を示すものであり、倍率mを大きく設定すればするほど、平面正則画像Tには拡大された画像が求められるが、歪曲円形画像Sの切出領域Eは小さくなる。
In the formulas (1) and (2), w is
w = mR Formula (9)
The value given by. Here, as described above, R is the radius of the distorted circular image S, and m is the magnification. The magnification m indicates the relationship between the scaling of the coordinate values u and v and the scaling of the coordinate values x and y. The larger the magnification m, the larger the enlarged image in the planar regular image T. Although required, the cutout region E of the distorted circular image S becomes smaller.

結局、図17に示す式において、Rの値は歪曲円形画像Sの半径として既知であるから、方位角αおよび天頂角β(別言すれば、切出中心点Pの位置)と、平面傾斜角φと、倍率mとを定めて、UV座標系の位置および向きを決定してやれば、図17に示す対応関係式において、座標値x,yを算出するための未知数はu,vのみになる。したがって、この対応関係式を用いれば、平面正則画像Tにおける任意の1点T(u,v)に対応する歪曲円形画像S上の対応点S(x,y)を決定することができる。   After all, in the equation shown in FIG. 17, since the value of R is known as the radius of the distorted circular image S, the azimuth angle α and the zenith angle β (in other words, the position of the cutting center point P), and the plane inclination If the angle φ and the magnification m are determined and the position and orientation of the UV coordinate system are determined, the unknowns for calculating the coordinate values x and y in the correspondence relationship shown in FIG. 17 are only u and v. . Therefore, by using this corresponding relational expression, it is possible to determine the corresponding point S (x, y) on the distorted circular image S corresponding to an arbitrary point T (u, v) in the planar regular image T.

<<< §4.本発明の基本概念 >>>
続いて、本発明の基本概念を説明する。図18は、一般的な魚眼レンズ付ビデオカメラを屋外の監視用に設置した例を示す側面図である。この例では、路面10の左側に位置する建物20の右側壁面に、魚眼レンズ付ビデオカメラ30が設置されている。ビデオカメラ30の撮像面(魚眼レンズの結像面)、すなわち、図1に示すXY平面は、建物20の側壁面に沿った面となっており、撮像中心点31がXY座標系の原点Oに対応する。要するに、図1に示すXY平面(歪曲円形画像Sが形成される面)が、実世界の鉛直面に沿った面となるように、ビデオカメラ30が取り付けられていることになる。
<<< §4. Basic concept of the present invention >>
Next, the basic concept of the present invention will be described. FIG. 18 is a side view showing an example in which a general video camera with a fisheye lens is installed for outdoor monitoring. In this example, a video camera 30 with a fisheye lens is installed on the right wall surface of the building 20 located on the left side of the road surface 10. The imaging surface (fisheye lens imaging surface) of the video camera 30, that is, the XY plane shown in FIG. 1, is a surface along the side wall surface of the building 20, and the imaging center point 31 is at the origin O of the XY coordinate system. Correspond. In short, the video camera 30 is attached so that the XY plane (surface on which the distorted circular image S is formed) shown in FIG. 1 is a surface along the vertical plane in the real world.

一方、路面10の右側には、樹木40とガードレール50が配置されており、ビデオカメラ30は、この樹木40とガードレール50を含む景色を正面から撮影することになる。図19は、このような魚眼レンズ付ビデオカメラ30を用いた撮影によって得られる歪曲円形画像Sの一例を示す平面図である。路面10に沿って樹木40とガードレール50が左右方向に配置されている状態が示されているが、円周に近い部分ほど、画像に歪みが生じている。   On the other hand, a tree 40 and a guard rail 50 are arranged on the right side of the road surface 10, and the video camera 30 captures a scene including the tree 40 and the guard rail 50 from the front. FIG. 19 is a plan view showing an example of a distorted circular image S obtained by photographing using such a video camera 30 with a fisheye lens. A state in which the trees 40 and the guard rails 50 are arranged in the left-right direction along the road surface 10 is shown, but the image is more distorted as it is closer to the circumference.

ここでは、XY座標系のY軸が水平面に平行となりX軸が鉛直軸となるように、ビデオカメラ30の向きが設定されているものとする。したがって、図19に示すように、XY平面上に得られた歪曲円形画像Sの原点Oの直近に関しては、Y軸方向が実世界の景色の水平線方向、X軸方向が実世界の景色の鉛直方向ということになる。このような方向性の特徴は、画像の円周に近くなるほど失われてくる。   Here, it is assumed that the orientation of the video camera 30 is set so that the Y axis of the XY coordinate system is parallel to the horizontal plane and the X axis is the vertical axis. Accordingly, as shown in FIG. 19, with respect to the immediate vicinity of the origin O of the distorted circular image S obtained on the XY plane, the Y-axis direction is the horizontal line direction of the real world scene, and the X-axis direction is the vertical line of the real world scene. It will be a direction. Such a directional characteristic is lost as it approaches the circumference of the image.

前掲の特許文献1,2に開示されているような一般的な魚眼監視システムには、ユーザの要望に応じて、図19に示すような歪曲円形画像S上の任意の一部分を切り出して、これを平面正則画像に変換してモニタ画面上に表示する機能が備わっている。たとえば、図20に示すように、ユーザが、歪曲円形画像Sの中心にある点P0を切出中心点として切出領域E0の部分を切り出す指示を与えれば、モニタ画面上には、図21(a) にフレームF0として示すような平面正則画像が得られ、樹木40の細部を確認することができる。これに対して、図20において、ユーザが、歪曲円形画像Sの右下にある点Pnを切出中心点として切出領域Enの部分を切り出す指示を与えれば、モニタ画面上には、図21(b) にフレームFnとして示すような平面正則画像が得られ、ガードレール50の細部を確認することができる。   In general fish-eye monitoring systems as disclosed in the above-mentioned Patent Documents 1 and 2, according to the user's request, an arbitrary part on the distorted circular image S as shown in FIG. A function of converting this into a planar regular image and displaying it on a monitor screen is provided. For example, as shown in FIG. 20, if the user gives an instruction to cut out a portion of the cutout area E0 with the point P0 at the center of the distorted circular image S as the cutout center point, the monitor screen displays FIG. A plane regular image as shown as a frame F0 in a) is obtained, and the details of the tree 40 can be confirmed. On the other hand, in FIG. 20, if the user gives an instruction to cut out the portion of the cut-out area En with the point Pn at the lower right of the distorted circular image S as the cut-out center point, the monitor screen displays FIG. A planar regular image as shown as a frame Fn in (b) is obtained, and the details of the guardrail 50 can be confirmed.

なお、図20では、各切出領域E0,Enを矩形の領域として示しているが、実際には、図21(a) ,(b) に示すように、モニタ画面上に表示される平面正則画像が矩形の画像である場合、これに対応する切出領域E0,Enは、矩形ではなく、歪んだ形状になる。ただ、図面上で切り出し向き(平面傾斜角φ)を示す上では、矩形の切出領域を描いた方が好都合である。たとえば、図20に示す例の場合、切出領域E0,Enは、いずれもU軸(図5に示す例のように、矩形状の平面正則画像の長辺方向の軸)が図の水平方向となる向きに設定した領域である。したがって、以後の説明においても、歪曲円形画像S上の切出領域は、便宜的に矩形の領域として示すことにし、その長辺方向によってU軸の向きを示すことにする。   In FIG. 20, each of the cutout areas E0 and En is shown as a rectangular area. However, in actuality, as shown in FIGS. 21 (a) and 21 (b), the planar regularity displayed on the monitor screen is displayed. When the image is a rectangular image, the corresponding cutout areas E0 and En have a distorted shape instead of a rectangle. However, in order to show the cutout direction (planar inclination angle φ) on the drawing, it is more convenient to draw a rectangular cutout region. For example, in the case of the example shown in FIG. 20, the cut-out areas E0 and En are both in the horizontal direction of the figure with the U axis (the axis in the long side direction of the rectangular planar regular image as in the example shown in FIG. 5). This is an area set in the orientation. Therefore, also in the following description, the cut-out area on the distorted circular image S is indicated as a rectangular area for convenience, and the direction of the U axis is indicated by the long side direction.

図9に示すモデルで説明したように、歪曲円形画像Sの中の一部分を切り出して平面正則画像Tを得るためには、切り出す場所を示すための切出中心点の位置P(xp,yp)、切り出す向きを示すための平面傾斜角φ、切り出し倍率を示すための倍率m、という3つのパラメータからなる切出条件を与える必要がある。具体的には、図21(a) に示す平面正則画像を得るためには、図20に示す切出中心点P0の位置、切出領域E0の向き(平面傾斜角φ)、切出領域E0のサイズ(倍率m)、という切出条件を指定する必要がある。   As described in the model shown in FIG. 9, in order to cut out a part of the distorted circular image S and obtain the planar regular image T, the position P (xp, yp) of the cut-out center point for indicating the cut-out location It is necessary to provide a cutting condition consisting of three parameters: a plane inclination angle φ for indicating the cutting direction and a magnification m for indicating the cutting magnification. Specifically, in order to obtain the planar regular image shown in FIG. 21A, the position of the cut center point P0, the direction of the cut region E0 (plane tilt angle φ), and the cut region E0 shown in FIG. It is necessary to specify the extraction condition of the size (magnification m).

このような具体的な切出条件をユーザに指定させるためのマンマシンインターフェイスとしては、様々な形態のものが知られている。たとえば、切出中心点P0の位置は、モニタ画面上に図20に示すような歪曲円形画像Sを表示し、マウスなどのポインティングデバイスによって、任意の位置をクリックするユーザ操作によって取り込むことが可能である。また、切出領域E0の向きやサイズも、モニタ画面上に表示した歪曲円形画像S上でのユーザ操作に基づいて取り込むことができる。もちろん、点P0の位置座標値、角度φの値、倍率mの値を、ユーザに数値入力させることも可能である。   Various types of man-machine interfaces for allowing the user to specify such specific cutting conditions are known. For example, the position of the cut-out center point P0 can be captured by a user operation by displaying a distorted circular image S as shown in FIG. 20 on the monitor screen and clicking an arbitrary position with a pointing device such as a mouse. is there. Further, the orientation and size of the cut-out area E0 can also be captured based on a user operation on the distorted circular image S displayed on the monitor screen. Of course, the position coordinate value of the point P0, the value of the angle φ, and the value of the magnification m can be input by the user.

したがって、たとえば警備に従事するユーザが、リアルタイムで撮影画像の監視を行う場合、モニタ画面上に表示された図20のような歪曲円形画像Sを見ながら、この魚眼監視システムに対して所望の切出条件を入力すれば、任意の位置の画像を、任意の向きに、任意の倍率で切り出した平面正則画像を得ることができる。図21(a) ,(b) に示すように、こうして得られた平面正則画像は、図18に示す撮像中心点31の位置から、通常のレンズを用いたカメラで所定方向を撮影した画像と同等の画像になるので、ユーザは、通常レンズを装着した監視カメラの視野をメカニカルな機構で動かした場合と同等の監視作業を行うことができる。   Therefore, for example, when a user engaged in security monitors a captured image in real time, a desired circular eye image S as shown in FIG. If the cutting condition is input, a planar regular image obtained by cutting an image at an arbitrary position in an arbitrary direction at an arbitrary magnification can be obtained. As shown in FIGS. 21 (a) and (b), the planar regular image obtained in this way is an image obtained by photographing a predetermined direction with a camera using a normal lens from the position of the imaging center point 31 shown in FIG. Since the images are equivalent to each other, the user can perform a monitoring operation equivalent to the case where the visual field of the monitoring camera equipped with a normal lens is moved by a mechanical mechanism.

しかしながら、通常レンズを装着した監視カメラの場合、メカニカルな機構で視野を動かすため、視野の切替プロセスは、必ずパンニング動作やズーミング動作を伴うことになるのに対して、魚眼レンズを装着した監視カメラの場合、そのようなメカニカルな切替プロセスは存在しない。たとえば、図21(a) に示すフレームF0の画像から、図21(b) に示すフレームFnの画像へと切り替える場合、通常レンズを装着した監視カメラであれば、途中にフレームF1,F2,F3,... という中間的なフレームが介挿され、モニタ画面上には、フレームF0,F1,F2,F3,... ,Fnという段階的な切替プロセスが表示されることになる。ところが、魚眼レンズを装着したカメラを用いる監視システムの場合、メカニカルな切替プロセスではなく、切出条件を変更する電子的な切替処理が行われるため、フレームF0からフレームFnへと瞬時の切り替えが行われる。   However, in the case of a surveillance camera equipped with a normal lens, since the visual field is moved by a mechanical mechanism, the process of switching the visual field always involves a panning operation or a zooming operation, whereas a surveillance camera equipped with a fisheye lens. In some cases, there is no such mechanical switching process. For example, when switching from the image of the frame F0 shown in FIG. 21 (a) to the image of the frame Fn shown in FIG. 21 (b), if the surveillance camera is equipped with a normal lens, the frames F1, F2, and F3 are in the middle. ,... Are inserted, and a stepwise switching process of frames F0, F1, F2, F3,..., Fn is displayed on the monitor screen. However, in the case of a monitoring system using a camera equipped with a fisheye lens, an electronic switching process for changing a cutting condition is performed instead of a mechanical switching process, so that an instantaneous switching from the frame F0 to the frame Fn is performed. .

このように、フレームF0からフレームFnへの切り替えが瞬時に行われると、ユーザは、フレームF0に表示されていた樹木40を含む景色と、フレームFnに表示されているガードレール50を含む景色との相対的な位置関係を直感的に把握することが困難になる。この問題は、特に、動体追跡の技術を盛り込んだ魚眼監視システムの場合に顕著である。   As described above, when the switching from the frame F0 to the frame Fn is instantaneously performed, the user switches between the scenery including the tree 40 displayed in the frame F0 and the scenery including the guardrail 50 displayed in the frame Fn. It becomes difficult to intuitively grasp the relative positional relationship. This problem is particularly noticeable in the case of a fish-eye monitoring system incorporating a moving body tracking technique.

一般に、ユーザ自身が、所望の切出条件を指定して、モニタ画面上に得られる平面正則画像を切り替えた場合、ユーザは、切り替え前後の画像の空間的な位置関係を意識的には認識していることになる。たとえば、図20に示す切出領域E0からEnへと、ユーザ自身が切替指示を与えたのであれば、モニタ画面上に表示されている平面正則画像が、図21(a) から(b) へと瞬時に切り替わったとしても、ユーザは、図21(a) が真正面の監視画像であり、図21(b) が右下路面の監視画像であることを、意識的には理解することができる(もちろん、視野の移動を直感的に把握するには不十分である)。   Generally, when the user himself / herself specifies a desired clipping condition and switches the planar regular image obtained on the monitor screen, the user consciously recognizes the spatial positional relationship between the images before and after the switching. Will be. For example, if the user gives a switching instruction from the cutout area E0 to En shown in FIG. 20, the planar regular image displayed on the monitor screen is changed from FIG. 21 (a) to FIG. 21 (b). The user can consciously understand that FIG. 21 (a) is a frontal monitoring image and FIG. 21 (b) is a lower right road surface monitoring image. (Of course, it is not enough to intuitively understand the movement of the field of view).

ところが、切出領域E0からEnへの切り替えが、ユーザの意志とは無関係に、監視システムによって勝手に行われた場合、切り替え前後の画像の空間的な位置関係の把握は極めて困難になる。たとえば、前掲の特許文献3に開示されている動体追跡機能をもった魚眼監視システムの場合、動体が検出された時点で、歪曲円形画像S上の切り出し部分や表示倍率などの切出条件を、当該動体の表示に適した切出条件に自動的に切り替える処理が行われる。たとえば、図20に示す例において、通常は、領域E0から切り出した画像をモニタ上に表示し続け、領域En内に動体が検出された場合に、この領域Enから切り出した画像表示に自動的に切り替える処理を行うことにすると、モニタ画面は図21(a) に示すフレームF0から、図21(b) に示すフレームFnへと、ユーザの意志とは無関係に瞬時に切り替えられてしまうため、映像が時間的に不連続になり、モニタ画面を注視していたユーザには、どの場所の映像に切り替わったのかを認識することが非常に困難である。   However, when switching from the cut-out area E0 to En is performed by the monitoring system without regard to the user's intention, it is extremely difficult to grasp the spatial positional relationship between the images before and after the switching. For example, in the case of a fish-eye monitoring system having a moving body tracking function disclosed in the above-mentioned Patent Document 3, when a moving body is detected, cutting conditions such as a cutout portion on the distorted circular image S and a display magnification are set. Then, a process of automatically switching to a cutting condition suitable for display of the moving object is performed. For example, in the example shown in FIG. 20, normally, an image cut out from the region E0 is continuously displayed on the monitor, and when a moving object is detected in the region En, the image display cut out from the region En is automatically displayed. When the switching process is performed, the monitor screen is instantaneously switched from the frame F0 shown in FIG. 21 (a) to the frame Fn shown in FIG. 21 (b) regardless of the user's intention. Is discontinuous in time, and it is very difficult for a user who is watching the monitor screen to recognize which video has been switched to.

本発明は、このような問題を解決するための新技術を提案するものであり、歪曲円形画像の切出条件を切り替える場合にも、ユーザが、切り替え前後の画像の空間的な位置関係を容易に把握することができるようにすることを目的とする。   The present invention proposes a new technique for solving such a problem, and the user can easily change the spatial positional relationship between the images before and after the switching even when the cutting condition of the distorted circular image is switched. The purpose is to be able to grasp.

以下に説明する実施形態に係る魚眼監視システムは、動体検出機能および動体追跡機能を有するシステムであり、動体検出がなされていない静的監視期間、動体検出がなされた後の移行期間、この移行期間が完了してから動体を追跡する動的監視期間、という3つの期間に分けて、それぞれ最適な態様で、モニタ画面上に平面正則画像を表示することができる。   The fish-eye monitoring system according to the embodiment described below is a system having a moving object detection function and a moving object tracking function, a static monitoring period in which no moving object is detected, a transition period after the moving object is detected, and this transition A plane regular image can be displayed on the monitor screen in an optimum manner, divided into three periods, ie, a dynamic monitoring period in which a moving object is tracked after the period is completed.

たとえば、動体検出がなされていない静的監視期間は、図22に示すように、切出中心点P0を中心とした切出領域E0内の画像を切り出して、平面正則画像に変換し、これをモニタ画面上に表示する設定がなされていた場合を考えよう。ここで、もし図示のとおり、点Pnの近傍に動体60が検出された場合(ここでは、猫が動体として検出されたものとする)、切出領域を領域E0からEnへと徐々に移行させる移行期間の処理が行われ、続いて、図23に示すように、動体60を追跡しながら、切出領域を領域EnからE(i)へと順次移動させる動的監視期間の処理が行われる。   For example, during the static monitoring period in which no moving object is detected, as shown in FIG. 22, an image in the cutout area E0 centered on the cutout center point P0 is cut out and converted into a planar regular image. Let's consider the case where the setting to display on the monitor screen has been made. Here, as shown in the figure, when the moving body 60 is detected in the vicinity of the point Pn (here, it is assumed that the cat is detected as a moving body), the cutout region is gradually shifted from the region E0 to En. Next, as shown in FIG. 23, the transition period process is performed, and the dynamic monitoring period process for sequentially moving the cutout region from the region En to E (i) while tracking the moving body 60 is performed. .

ここで、切出中心点の位置に着目すれば、動体検出がなされていない静的監視期間は、図22に示すように、歪曲円形画像Sの中心点P0の位置を維持し続けるが、動体検出が行われると、点P0から点Pnへと段階的に移動し(移行期間)、更に、図23に示すように、動体60の移動に同期して、点Pnから点P(i)へと段階的に移動することになる(動的監視期間)。このような動体追跡処理は、動体60が消滅したと判断されるまで続行される。   Here, if attention is paid to the position of the cut-out center point, as shown in FIG. 22, the position of the center point P0 of the distorted circular image S is continuously maintained during the static monitoring period in which no moving object is detected. When detection is performed, the point moves from point P0 to point Pn stepwise (transition period), and further, from point Pn to point P (i) in synchronization with the movement of moving body 60, as shown in FIG. And move in stages (dynamic monitoring period). Such moving body tracking processing is continued until it is determined that the moving body 60 has disappeared.

一方、切出領域のサイズ(切り出しの倍率m)も必要に応じて変化する。すなわち、静的監視期間における切出領域E0は一定のサイズを維持するが、移行期間では、図22に示すように、切出領域のサイズは、領域E0のサイズから領域Enのサイズへと段階的に変化し、続く動的監視期間では、図23に示すように、切出領域のサイズは、領域Enのサイズから領域E(i)のサイズへと段階的に変化する。ここで、領域Enおよび領域E(i)のサイズは、動体60の表示に適したサイズとなるように自動的に設定される。   On the other hand, the size of the cutout region (cutout magnification m) also changes as necessary. That is, the cutout area E0 in the static monitoring period maintains a constant size, but in the transition period, the cutout area size changes from the size of the area E0 to the size of the area En as shown in FIG. In the subsequent dynamic monitoring period, as shown in FIG. 23, the size of the cutout region changes stepwise from the size of the region En to the size of the region E (i). Here, the sizes of the region En and the region E (i) are automatically set so as to be a size suitable for display of the moving body 60.

結局、この実施形態に係る魚眼監視システムを利用すれば、監視業務に従事するユーザは、モニタ画面を注視してさえいれば、何ら指示操作を行わなくても、監視範囲内に進入した動体を認識することができる。すなわち、監視範囲内の動体が検出されていない静的監視期間には、図24(a) に示すような樹木40を含む静的画像が、モニタ画面上に表示され続ける。ところが、動体60が検出されると、モニタ画面上に表示される平面正則画像は、図24(b) に示すような動体60を含む画像に自動的に切り替えられ、以後の動的監視期間では、常に動体60を含む画像が表示されるよう、動体追跡が行われる。   After all, if the fish-eye monitoring system according to this embodiment is used, a user engaged in a monitoring task can enter the monitoring range without performing any instruction operation as long as he / she is watching the monitor screen. Can be recognized. That is, during the static monitoring period in which no moving object within the monitoring range is detected, a static image including the tree 40 as shown in FIG. 24 (a) continues to be displayed on the monitor screen. However, when the moving object 60 is detected, the planar regular image displayed on the monitor screen is automatically switched to an image including the moving object 60 as shown in FIG. 24B, and in the subsequent dynamic monitoring period. The moving body tracking is performed so that an image including the moving body 60 is always displayed.

しかも、図24(a) に示すフレームF0の画像から、図24(b) に示すフレームFnの画像へ切り替える際に、所定の移行期間が設けられ、あたかもメカニカルな機構で視野を動かすかのようなパンニング動作やズーミング動作が行われる。すなわち、この移行期間の間、フレームF1,F2,F3,... という中間的なフレームが介挿され、モニタ画面上には、フレームF0,F1,F2,F3,... ,Fnという段階的な切替プロセスが表示されることになる。   Moreover, when switching from the image of frame F0 shown in FIG. 24 (a) to the image of frame Fn shown in FIG. 24 (b), a predetermined transition period is provided, as if the field of view is moved by a mechanical mechanism. Panning and zooming operations are performed. That is, during this transition period, intermediate frames of frames F1, F2, F3,... Are inserted, and on the monitor screen, stages of frames F0, F1, F2, F3,. A typical switching process will be displayed.

移行期間に介挿する中間的なフレームの平面正則画像は、たとえば、切出条件を図25および図26に示すように、徐々に変化させてゆくことによって得ることができる。ここに示す例は、移行期間を、前半のパンニング期間と、後半のズーミング期間とによって構成した例であり、図25はパンニング期間における切出領域の位置の変遷を示し、図26はズーミング期間における切出領域のサイズの変遷を示している。   An intermediate frame regular image inserted in the transition period can be obtained, for example, by gradually changing the cutting conditions as shown in FIGS. The example shown here is an example in which the transition period is configured by the first half of the panning period and the second half of the zooming period. FIG. 25 shows the transition of the position of the cutout region in the panning period, and FIG. The transition of the size of the cut-out area is shown.

図25に示すように、前半のパンニング期間には、切出中心点の位置を、点P0から点Pjへ徐々に移動させる処理が行われる。ここで、点Pjは、図22に示す点Pnと同じ位置の点であり、点Piは、点P0から点Pjへの移動途中の点である。図示のとおり、切出中心点は、XY平面上での移動経路Aに沿って徐々に移動する。ここに示す例の場合、最初の切出中心点P0がXY座標系の原点Oの位置(歪曲円形画像Sの中心点)であるため、移動経路Aは、この歪曲円形画像Sの半径に沿った経路になる。切出中心点は、モニタ画面上に表示させる平面正則画像のフレーム周期に同期して、P0,P1,... ,Pi,... ,Pjと変遷することになる。   As shown in FIG. 25, in the first half of the panning period, a process of gradually moving the position of the cutting center point from the point P0 to the point Pj is performed. Here, the point Pj is a point at the same position as the point Pn shown in FIG. 22, and the point Pi is a point on the way from the point P0 to the point Pj. As shown in the drawing, the cut-out center point gradually moves along the movement path A on the XY plane. In the example shown here, since the first cut-out center point P0 is the position of the origin O of the XY coordinate system (the center point of the distorted circular image S), the movement path A follows the radius of the distorted circular image S. It becomes a route. The cut-out center point changes to P0, P1,..., Pi,..., Pj in synchronization with the frame period of the planar regular image displayed on the monitor screen.

これに応じて、各切出領域も、E0,... ,Ei,... ,Ejと変遷することになる。各切出領域は、いずれも各切出中心点を中心とした領域であるので、切出中心点の移動とともに移動経路Aに沿って移動することになる。ここに示す例の場合、パンニング期間中、倍率mは一定に維持しているため、便宜的に矩形で示す領域E0〜Ejのサイズは互いに等しい。なお、前述したとおり、ここで図示する切出領域は、切り出しの位置P,向きφ,倍率mを便宜的に矩形の位置,向き,サイズで示すものであり、実際に画像が切り出される領域を正確に示すものではない。   In response to this, each cutout region also changes to E0,..., Ei,. Since each cut-out area is an area centered on each cut-out center point, the cut-out area moves along the movement path A along with the movement of the cut-out center point. In the example shown here, since the magnification m is kept constant during the panning period, the sizes of the regions E0 to Ej indicated by rectangles are equal to each other for convenience. Note that, as described above, the cutout region illustrated here indicates the cutout position P, the orientation φ, and the magnification m for convenience in terms of a rectangular position, orientation, and size. It is not an exact indication.

一方、後半のズーミング期間では、図26に示すように、切出中心点の位置を固定したまま(点Pj〜Pnは同じ位置の点である)、切出領域のサイズを徐々に小さくしてゆく処理が行われる。その結果、切出領域は、領域Ej,... ,Ek,... ,Enと変遷することになる。ここで、領域Enは、図22に示す領域Enであり、検出された動体60の表示に適したサイズに設定されている。   On the other hand, in the latter zooming period, as shown in FIG. 26, the size of the cut-out area is gradually reduced while the position of the cut-out center point is fixed (points Pj to Pn are points at the same position). The process will continue. As a result, the cut-out area changes to areas Ej,..., Ek,. Here, the region En is the region En shown in FIG. 22, and is set to a size suitable for displaying the detected moving object 60.

かくして、切出領域は、図25に示すように、E0,... ,Ei,... ,Ejと変遷し(前半のパンニング期間)、更に、図26に示すように、Ej,... ,Ek,... ,Enと変遷する(後半のズーミング期間)。移行期間中、このように切出条件を段階的に変化させれば、モニタ画面上には、図24(a) に示すフレームF0に後続して、ズーム倍率は一定にして右下方向へパンニングした画像に相当するフレームF1,... ,Fi,... ,Fjが表示され、続いて、視線方向は固定して望遠側へズーミングした画像に相当するフレームF(j+1),... ,Fk,... が表示されることになり、最終的に、図24(b) に示すフレームFnが得られる。   Thus, as shown in FIG. 25, the cutout region changes to E0,..., Ei,..., Ej (first panning period), and further, as shown in FIG. , Ek,..., En (second zooming period). If the cutting condition is changed stepwise in this way during the transition period, panning in the lower right direction is performed on the monitor screen with the zoom magnification kept constant following the frame F0 shown in FIG. , Fi,..., Fj corresponding to the captured image, and then the frame F (j + 1),... Corresponding to the image zoomed to the telephoto side with the viewing direction fixed. , Fk,... Are displayed, and finally a frame Fn shown in FIG.

このような移行期間を設けるようにすれば、ユーザは、フレームF0からFnへの移行プロセスを、視覚的に認識することができるので、監視システムの動体検出機能によって、ユーザの意志とは無関係に画像の切り替えが行われたとしても、ユーザは、切り替え前後の画像の空間的な位置関係を容易に把握することができる。なお、動体の移動速度が速い場合、移行期間の終了時には切出領域En内から動体60が走り去っているケースもありうるが、その後の動的監視期間で追跡が行われるため支障はない。   By providing such a transition period, the user can visually recognize the transition process from the frame F0 to the Fn, so that the moving object detection function of the monitoring system is independent of the user's will. Even if the image is switched, the user can easily grasp the spatial positional relationship between the images before and after the switching. If the moving speed of the moving object is high, there may be a case where the moving object 60 runs away from the cut-out area En at the end of the transition period, but there is no problem because tracking is performed in the subsequent dynamic monitoring period.

なお、前半のパンニング期間と後半のズーミング期間とを分けて設定する代わりに、パンニング動作(切出中心点の移動動作)とズーミング動作(切出領域のサイズ変更動作)とを並行して行うようにしてもかまわない。前半にパンニング動作のみを行うと、図25の切出領域Ejのように、一部分が歪曲円形画像Sの領域からはみ出してしまう可能性があるが(この場合、一部が欠けた平面正則画像がモニタ画面に表示されることになる)、パンニング動作とズーミング動作とを並行して行うようにすれば、そのようは弊害を防ぐことができる。   In addition, instead of setting the first half of the panning period and the second half of the zooming period separately, the panning operation (moving operation of the cutting center point) and the zooming operation (size changing operation of the cutting area) are performed in parallel. It doesn't matter. If only the panning operation is performed in the first half, there is a possibility that a part of the panned region Ej may protrude from the region of the distorted circular image S (in this case, a planar regular image with a part missing). If the panning operation and the zooming operation are performed in parallel, such an adverse effect can be prevented.

要するに、移行期間の全期間をパンニング期間およびズーミング期間に設定して、パンニング動作とズーミング動作とを並行して行うようにしてもよいし、移行期間の一部の期間をパンニング期間、別な一部の期間をズーミング期間に設定して、パンニング動作とズーミング動作とを別個に行ってもよい。あるいは、パンニング期間およびズーミング期間が部分的に重なるような設定を行うことも可能である。   In short, the entire transition period may be set as the panning period and the zooming period, and the panning operation and the zooming operation may be performed in parallel, or a part of the transition period may be set as the panning period. The section period may be set as a zooming period, and the panning operation and the zooming operation may be performed separately. Alternatively, it is possible to set so that the panning period and the zooming period partially overlap.

こうして、移行期間が完了し、図26に示す切出領域En内の画像がモニタ画面上に表示されるようになったら、動的監視期間が開始し、移動する動体を追いかけるように、切出領域の位置およびサイズが変更される。図27は、このような動体追跡の様子を示す図である。図27に示す切出中心点P(0)および切出領域E(0)は、図26に示す切出中心点Pnおよび切出領域Enと同じものである。切出中心点がP(i),P(j),P(k)と移動しているが、これは動体60(猫)がこの位置に移動したためである。動体60を追跡して、切出領域もE(i),E(j),E(k)と移動することになる。なお、ここでは、便宜上、移行期間における変遷を、添字「0,1,...,i,... ,n」で示し、動的監視期間における変遷を、括弧付きの添字「(0),(1),...,(i),... 」で示して相互に区別することにする。   Thus, when the transition period is completed and the image in the cutout area En shown in FIG. 26 is displayed on the monitor screen, the dynamic monitoring period starts, and the cutout is performed so as to follow the moving object. The location and size of the area is changed. FIG. 27 is a diagram showing the state of such moving object tracking. The cut center point P (0) and the cut region E (0) shown in FIG. 27 are the same as the cut center point Pn and the cut region En shown in FIG. The cut-out center point moves to P (i), P (j), and P (k) because the moving body 60 (cat) has moved to this position. By tracking the moving body 60, the cutout area also moves as E (i), E (j), and E (k). Here, for the sake of convenience, the transition in the transition period is indicated by subscripts “0, 1,..., I,..., N”, and the transition in the dynamic monitoring period is indicated by the subscript “(0) in parentheses. , (1),..., (I),.

結局、ユーザには、図24(a) に示すフレームF0から図24(b) に示すフレームFnまで、段階的に変化するフレーム画像が提示された後、フレームFn内の動体60を追跡したフレーム画像の提示が、当該動体が消滅するまで、継続して行われることになる。動体60が消滅した場合(歪曲円形画像Sの外部へ移動した場合)、監視システムは、動体消滅の判断を行い、再び、図24(a) に示すフレームF0の提示を行うことになる。   Eventually, the user is presented with a frame image that changes in stages from the frame F0 shown in FIG. 24A to the frame Fn shown in FIG. 24B, and then the frame obtained by tracking the moving object 60 in the frame Fn. The presentation of the image is continuously performed until the moving object disappears. When the moving body 60 disappears (when the moving object 60 moves outside the distorted circular image S), the monitoring system determines whether the moving object disappears and presents the frame F0 shown in FIG. 24 (a) again.

以上、本発明の基本概念を説明したが、続く§5以降では、このような基本概念に基づいて設計された魚眼監視システムの具体的な実施形態を詳述する。   The basic concept of the present invention has been described above. In the following §5 and later, specific embodiments of the fish-eye monitoring system designed based on such a basic concept will be described in detail.

<<< §5.本発明に係る魚眼監視システムの基本構成 >>>
ここでは、図28のブロック図を参照しながら、本発明の一実施形態に係る魚眼監視システムの基本構成を説明する。このシステムにおいて、図の上半分に示されている構成要素、すなわち、魚眼レンズ付ビデオカメラ110、モニタ装置120、画像入力部115、画像出力部125、歪曲円形画像用メモリ130、平面正則画像用メモリ140、画像切出変換部150は、従来の魚眼監視システムが備えている一般的な構成要素であり、魚眼レンズを用いた撮影により得られた歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これをモニタ画面上に表示する基本機能を有している。
<<< §5. Basic configuration of fish-eye monitoring system according to the present invention >>>
Here, the basic configuration of a fish-eye monitoring system according to an embodiment of the present invention will be described with reference to the block diagram of FIG. In this system, components shown in the upper half of the figure, that is, a video camera 110 with a fisheye lens, a monitor device 120, an image input unit 115, an image output unit 125, a distorted circular image memory 130, and a planar regular image memory 140, the image cut-out conversion unit 150 is a general component included in a conventional fish-eye monitoring system, and cuts out a part of a distorted circular image obtained by photographing using a fish-eye lens to form a planar regular image. It has the basic function of converting and displaying this on the monitor screen.

魚眼レンズ付ビデオカメラ110は、装着した魚眼レンズによって、外界の画像を歪曲円形画像として撮影するビデオカメラであり、たとえば、図18に示す例の場合、建物20の壁面に取り付けられたビデオカメラが、図28に示すビデオカメラ110に対応する。ビデオカメラ110で撮影されたフレーム単位の画像は、画像入力部115を介して歪曲円形画像用メモリ130に格納される。魚眼レンズ付カメラの撮影画像は、たとえば、図19に示す例のように、歪曲した円形の画像になる。メモリ130は、この歪曲円形画像Sを画像データとして格納する。具体的には、歪曲円形画像Sは、二次元XY直交座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、この二次元XY直交座標系の原点Oを中心とし半径Rをもった画像として、メモリ130に格納される。   The video camera 110 with a fisheye lens is a video camera that captures an image of the outside world as a distorted circular image with the attached fisheye lens. For example, in the case of the example shown in FIG. 18, the video camera attached to the wall surface of the building 20 This corresponds to the video camera 110 shown in FIG. Frame-based images taken by the video camera 110 are stored in the distorted circular image memory 130 via the image input unit 115. The captured image of the camera with a fisheye lens is a distorted circular image as in the example shown in FIG. The memory 130 stores the distorted circular image S as image data. Specifically, the distorted circular image S is constituted by an aggregate of a large number of pixels arranged at a position indicated by coordinates (x, y) on the two-dimensional XY orthogonal coordinate system, and this two-dimensional XY orthogonal coordinate system. Is stored in the memory 130 as an image having a radius R around the origin O.

ビデオカメラ110からは、このような歪曲円形画像Sが、フレーム単位の画像データとして所定周期(たとえば、30フレーム/秒)で出力される。画像入力部115は、このように1フレームごとの時系列データとして順次与えられる歪曲円形画像Sを、メモリ130内に順次格納する処理を行う。メモリ130は、このような歪曲円形画像Sを少なくとも1フレーム格納する記憶容量をもっているバッファメモリである。もちろん、より大きな容量をもったメモリを用意しておけば、連続した複数フレーム分の歪曲円形画像のデータを同時に保持することができる。また、図には示されていないが、監視映像を記録として残す場合は、別途用意したハードディスク装置などに、メモリ130に格納された画像データを逐次転送するようにする。   From the video camera 110, such a distorted circular image S is output as image data in units of frames at a predetermined cycle (for example, 30 frames / second). The image input unit 115 performs a process of sequentially storing the distorted circular image S sequentially given as time-series data for each frame in the memory 130 in this way. The memory 130 is a buffer memory having a storage capacity for storing at least one frame of such a distorted circular image S. Of course, if a memory having a larger capacity is prepared, it is possible to simultaneously hold the data of a distorted circular image for a plurality of consecutive frames. Although not shown in the figure, when leaving the monitoring video as a record, the image data stored in the memory 130 is sequentially transferred to a separately prepared hard disk device or the like.

一方、平面正則画像用メモリ140は、二次元UV直交座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像Tを格納するバッファメモリであり、ここに格納された平面正則画像Tは、画像出力部125によって読み出され、モニタ装置120へと出力される。通常、この平面正則画像Tは、モニタ装置120の表示画面に表示するのに適した矩形状の画像になるが、もちろん、平面正則画像Tの輪郭は、どのような形状のものであってもかまわない。   On the other hand, the plane regular image memory 140 is a buffer that stores a plane regular image T formed by an aggregate of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV orthogonal coordinate system. The planar regular image T stored in the memory is read by the image output unit 125 and output to the monitor device 120. Normally, the planar regular image T is a rectangular image suitable for display on the display screen of the monitor device 120. Of course, the contour of the planar regular image T may have any shape. It doesn't matter.

ここに示す実施形態の場合、画像出力部125は、メモリ140内に格納されている平面正則画像Tを読み出してモニタ装置120に出力する機能とともに、メモリ130内に格納されている歪曲円形画像Sを読み出してモニタ装置120に出力する機能も併せもつ。モニタ装置120にいずれの画像を出力するかは、ユーザの指示操作によって切り替え可能であり、モニタ装置120の表示画面には、平面正則画像Tを表示させることも可能であるし、歪曲円形画像Sを表示させることも可能であるし、必要があれば、画面を分割して、双方の画像を同時に表示させることも可能である。   In the case of the embodiment shown here, the image output unit 125 reads the planar regular image T stored in the memory 140 and outputs it to the monitor device 120, and the distorted circular image S stored in the memory 130. Is also read and output to the monitor device 120. Which image is output to the monitor device 120 can be switched by a user's instruction operation, and the planar regular image T can be displayed on the display screen of the monitor device 120, or the distorted circular image S can be displayed. Can be displayed, and if necessary, the screen can be divided and both images can be displayed simultaneously.

既に述べたとおり、メモリ130内に格納される歪曲円形画像Sが、たとえば、図19に示すような180°の画角をもった魚眼撮影画像であるのに対して、メモリ140内に格納される平面正則画像Tは、たとえば、図21(a) ,(b) に示すように、歪曲円形画像Sの一部を切り出して、歪みを補正する変換処理を施した画像になる。画像切出変換部150は、このような部分画像の切り出しと、歪み補正の変換処理と、を行う構成要素である。   As described above, the distorted circular image S stored in the memory 130 is, for example, a fish-eye photographed image having a field angle of 180 ° as shown in FIG. The planar regular image T is an image that has been subjected to conversion processing for cutting out a part of the distorted circular image S and correcting the distortion, as shown in FIGS. 21 (a) and 21 (b), for example. The image cutout conversion unit 150 is a component that performs such partial image cutout and distortion correction conversion processing.

実際には、この画像切出変換部150の処理は、平面正則画像Tを構成する個々の画素の画素値を、歪曲円形画像S上の対応画素の画素値に基づいて決定する作業によって行われる。すなわち、UV座標系上の座標(u,v)に配置された平面正則画像T上の特定の着目画素について、XY座標系上の対応座標(x,y)を求め、この対応座標(x,y)に位置する歪曲円形画像S上の画素の画素値を、当該着目画素についての画素値とする作業を行えばよい。   Actually, the processing of the image cut-out conversion unit 150 is performed by an operation of determining the pixel value of each pixel constituting the planar regular image T based on the pixel value of the corresponding pixel on the distorted circular image S. . That is, for the specific pixel of interest on the planar regular image T arranged at the coordinate (u, v) on the UV coordinate system, the corresponding coordinate (x, y) on the XY coordinate system is obtained, and this corresponding coordinate (x, An operation may be performed in which the pixel value of the pixel on the distorted circular image S located at y) is set to the pixel value of the pixel of interest.

ただ、歪曲円形画像Sは、二次元XY直交座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成された画像であり、実際には、所定ピッチで縦横に配列された多数の格子点の位置に、それぞれ固有の画素値を定義したデジタルデータによって構成されている。このため、対応する座標(x,y)の位置は、通常、複数の格子点の間の位置になる。たとえば、歪曲円形画像Sが、ピッチ1で縦横に配列された多数の格子点位置の画素値を定義したデジタルデータによって構成されている場合、いずれの格子点も、その座標値は整数値になる。よって、算出された対応座標xおよびyの値が小数を含む値であると(多くの場合はそうなるであろう)、対応座標(x,y)の位置は、複数の格子点の間の位置になり、対応する画素値を1つに決めることはできない。   However, the distorted circular image S is an image formed by an aggregate of a large number of pixels arranged at positions indicated by coordinates (x, y) on the two-dimensional XY orthogonal coordinate system. In this example, the position of a large number of grid points arranged vertically and horizontally is constituted by digital data defining unique pixel values. For this reason, the position of the corresponding coordinate (x, y) is usually a position between a plurality of lattice points. For example, when the distorted circular image S is composed of digital data defining pixel values at a large number of grid point positions arranged vertically and horizontally at a pitch 1, the coordinate value of any grid point is an integer value. . Therefore, when the calculated values of the corresponding coordinates x and y are values including decimal numbers (which will be the case in many cases), the position of the corresponding coordinates (x, y) is between the lattice points. The corresponding pixel value cannot be determined as one.

したがって、実際には、画像切出変換部において、座標(u,v)で示される位置に配置された平面正則画像T上の着目画素の画素値を決定する際には、対応座標(x,y)で示される位置の近傍に配置された歪曲円形画像S上の複数の参照画素の画素値を読み出し、これら複数の参照画素の画素値に対する補間演算を行う必要がある。このような補間演算を行う方法としては、たとえば、バイリニア補間法、バイキュービック・スプライン補間法など、様々な方法が公知であるため、ここでは詳しい説明は省略する。もちろん、そのような補間を行わずに、対応座標(x,y)で示される位置に最も近い画素の画素値をそのまま着目画素の画素値と決定する方法を採ることも可能である。   Therefore, in actuality, when determining the pixel value of the pixel of interest on the planar regular image T arranged at the position indicated by the coordinates (u, v) in the image cut-out conversion unit, the corresponding coordinates (x, It is necessary to read out the pixel values of a plurality of reference pixels on the distorted circular image S arranged in the vicinity of the position indicated by y) and perform an interpolation operation on the pixel values of the plurality of reference pixels. Various methods such as bilinear interpolation and bicubic / spline interpolation are known as methods for performing such interpolation calculations, and thus detailed description thereof is omitted here. Of course, it is also possible to adopt a method in which the pixel value of the pixel closest to the position indicated by the corresponding coordinates (x, y) is directly determined as the pixel value of the target pixel without performing such interpolation.

結局、画像切出変換部150は、平面正則画像Tを構成する1つの着目画素の座標(u,v)についての対応座標(x,y)を算出し、歪曲円形画像用メモリ130内の当該対応座標(x,y)の近傍に配置された画素の画素値を読み出し、読み出した画素値に基づいて当該着目画素の画素値を決定する処理を、平面正則画像Tを構成する各画素について実行し、平面正則画像用メモリ140内に各画素の画素値を書き込むことにより、歪曲円形画像Sから切り出した一部分の画像を、平面正則画像Tに変換する処理を行うことになる。   Eventually, the image cutout conversion unit 150 calculates the corresponding coordinates (x, y) for the coordinates (u, v) of one target pixel constituting the planar regular image T, and the corresponding image in the distorted circular image memory 130 is calculated. A process of reading the pixel value of a pixel arranged in the vicinity of the corresponding coordinate (x, y) and determining the pixel value of the pixel of interest based on the read pixel value is executed for each pixel constituting the planar regular image T Then, by writing the pixel value of each pixel into the planar regular image memory 140, a process of converting a partial image cut out from the distorted circular image S into a planar regular image T is performed.

なお、座標(u,v)についての対応座標(x,y)を算出するには、§3で述べたように、図17に示す式(1)〜(9)を利用すればよい。これらの式に基づく演算を行うには、既に述べたとおり、方位角αおよび天頂角β(切出中心点Pの位置)、平面傾斜角φ、倍率m、という3つのパラメータを定める必要がある。これらのパラメータは、切り出しの位置、向き、サイズという切出条件を定めるパラメータである。画像切出変換部150は、結局、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sの切出中心点Pで示される切り出し位置から、平面傾斜角φで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像Tに変換して、平面正則画像用メモリ140に格納する処理を行うことになる。   In order to calculate the corresponding coordinates (x, y) for the coordinates (u, v), as described in §3, equations (1) to (9) shown in FIG. 17 may be used. In order to perform the calculation based on these equations, it is necessary to determine three parameters, that is, the azimuth angle α and the zenith angle β (the position of the cutting center point P), the plane inclination angle φ, and the magnification m, as already described. . These parameters are parameters that determine the cutting conditions such as the cutting position, orientation, and size. After all, the image cut-out conversion unit 150 performs magnification from the cut-out position indicated by the cut-out center point P of the distorted circular image S stored in the distorted circular image memory 130 in the cut-out direction indicated by the plane inclination angle φ. An image having a cut-out size indicated by m is cut out, converted into a planar regular image T, and stored in the planar regular image memory 140.

図28のブロック図において、図の下半分に示されている構成要素、すなわち、動体検出部160、実切出条件決定部170、標準切出条件格納部180、手動条件設定部185、動体追跡部190は、画像切出変換部150に対して、切出中心点P、平面傾斜角φ、倍率m、という3つのパラメータ(切出条件)を指定するための構成要素である。   In the block diagram of FIG. 28, the components shown in the lower half of the figure, that is, the moving object detection unit 160, the actual cutting condition determination unit 170, the standard cutting condition storage unit 180, the manual condition setting unit 185, the moving object tracking The unit 190 is a component for designating the three parameters (cutout conditions) of the cutout center point P, the plane inclination angle φ, and the magnification m to the image cutout conversion unit 150.

前述したとおり、歪曲円形画像用メモリ130には、リアルタイム(たとえば、30フレーム/秒)で撮影画像が逐次格納されてゆく。画像切出変換部150は、これら個々のフレームごとに、所定の切出条件に従って画像の切り出しを行い、平面正則画像への変換処理を行う。したがって、モニタ装置120の画面には、やはりリアルタイムで平面正則画像Tの表示が行われる。このため、画像切出変換部150には、リアルタイムで、切出中心点P、平面傾斜角φ、倍率m、という切出条件を与える必要がある。ここでは、このようにリアルタイムで画像切出変換部150に与えられる切出条件を、実切出条件と呼ぶことにする。   As described above, the distorted circular image memory 130 sequentially stores captured images in real time (for example, 30 frames / second). The image cut-out conversion unit 150 cuts out an image in accordance with a predetermined cut-out condition for each individual frame, and performs conversion processing into a planar regular image. Accordingly, the planar regular image T is also displayed on the screen of the monitor device 120 in real time. Therefore, it is necessary to give the image cut-out conversion unit 150 the cut-out conditions such as the cut-out center point P, the plane inclination angle φ, and the magnification m in real time. Here, the extraction condition given to the image extraction conversion unit 150 in real time in this way is referred to as an actual extraction condition.

実切出条件決定部170は、この実切出条件を、フレームに同期してリアルタイムで決定し、画像切出変換部150に与える役割を果たす。すなわち、実切出条件決定部170は、歪曲円形画像S上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像Sの一部から平面正則画像Tを切り出すための条件として決定する働きをする。   The actual cut condition determination unit 170 plays a role of determining the real cut condition in real time in synchronization with the frame and giving it to the image cut conversion unit 150. That is, the actual cutting condition determination unit 170 is configured by the cutting center point P that is one point on the distorted circular image S, the predetermined plane inclination angle φ, and the predetermined magnification m. Is determined as a condition for cutting out the planar regular image T from a part of the distorted circular image S.

これに対して、標準切出条件格納部180、動体検出部160、動体追跡部190は、実切出条件を決定するための参考条件を実切出条件決定部170に与えることにより、実切出条件決定部170を補佐する役割を果たす。実切出条件決定部170は、与えられた参考条件に基づいて実切出条件を決定し、これを画像切出変換部150に与える処理を実行する。   On the other hand, the standard extraction condition storage unit 180, the moving object detection unit 160, and the moving object tracking unit 190 provide the reference condition for determining the actual extraction condition to the actual extraction condition determination unit 170, thereby It plays a role of assisting the output condition determination unit 170. The actual cut condition determination unit 170 determines the actual cut condition based on the given reference condition, and executes a process of giving this to the image cut conversion unit 150.

§4で述べたとおり、この実施形態に係る魚眼監視システムは、動体検出機能および動体追跡機能を有するシステムであり、動体検出がなされていない静的監視期間(たとえば、図20に示す画像が得られている期間)、動体検出がなされた後の移行期間(たとえば、図22において、切出領域をE0からEnへ移行させる期間)、移行期間が完了してから動体を追跡する動的監視期間(たとえば、図23に示すように、動体60を追跡して表示する期間)、という3つの期間に分けて、それぞれ最適な態様で、モニタ画面上に平面正則画像を表示することができる。標準切出条件格納部180は、静的監視期間の切出条件を実切出条件決定部170に与えるための構成要素であり、動体検出部160は、移行期間における目標となる切出条件を実切出条件決定部170に与えるための構成要素であり、動体追跡部190は、動的監視期間の切出条件を実切出条件決定部170に与えるための構成要素である。   As described in §4, the fish-eye monitoring system according to this embodiment is a system having a moving object detection function and a moving object tracking function, and has a static monitoring period during which no moving object is detected (for example, the image shown in FIG. Obtained period), a transition period after the moving object is detected (for example, a period in which the cut region is shifted from E0 to En in FIG. 22), and dynamic monitoring for tracking the moving object after the transition period is completed. The planar regular image can be displayed on the monitor screen in an optimum manner by dividing the period into three periods (for example, a period in which the moving body 60 is tracked and displayed as shown in FIG. 23). The standard cut-out condition storage unit 180 is a component for giving the cut-out conditions in the static monitoring period to the real cut-out condition determining unit 170, and the moving object detection unit 160 sets the target cut-out conditions in the transition period. The moving object tracking unit 190 is a component for giving the actual cutting condition determination unit 170 the cutting condition for the dynamic monitoring period.

より具体的に説明すれば、標準切出条件格納部180には、静的監視期間の切出条件(標準切出条件)として、標準切出中心点P0、標準平面傾斜角φ0、標準倍率m0が格納されている。たとえば、静的監視期間の切出領域として、図20に示す切出領域E0を設定する場合、標準切出条件格納部180には、図示の画像の中心点を示す標準切出中心点P0の座標値(この例の場合、XY座標系の原点Oの座標値(0,0))と、切出領域E0の向きを示す標準平面傾斜角φ0(図の横方向をU軸方向とする向きを示す角度φ)と、切出領域E0のサイズに応じた標準倍率m0が、標準切出条件格納部180に格納される。   More specifically, the standard cutting condition storage unit 180 includes a standard cutting center point P0, a standard plane inclination angle φ0, and a standard magnification m0 as cutting conditions (standard cutting conditions) for the static monitoring period. Is stored. For example, when the cutout area E0 shown in FIG. 20 is set as the cutout area in the static monitoring period, the standard cutout condition storage unit 180 stores the standard cutout center point P0 indicating the center point of the illustrated image. The coordinate value (in this example, the coordinate value (0, 0) of the origin O of the XY coordinate system) and the standard plane inclination angle φ0 indicating the direction of the cutout area E0 (the direction in which the horizontal direction in the figure is the U-axis direction) And the standard magnification m0 corresponding to the size of the cutout area E0 are stored in the standard cutout condition storage unit 180.

このような標準切出条件を標準切出条件格納部180に設定しておけば、動体検出がなされていない静的監視期間にモニタ装置120に表示される平面正則画像は、図21(a) に示すような画像になる。監視業務に従事するユーザには、監視視野に動体が侵入しない限り、もしくは、当該ユーザが意図的に特定の切出条件を指定する操作を行わない限り、図21(a) に示す画像が提示されることになる。   If such a standard cutting condition is set in the standard cutting condition storage unit 180, the planar regular image displayed on the monitor device 120 during the static monitoring period in which no moving object is detected is shown in FIG. It becomes an image as shown in. The user shown in FIG. 21 (a) is presented to the user engaged in the monitoring work unless the moving object enters the monitoring field of view or unless the user intentionally designates a specific clipping condition. Will be.

一方、動体検出部160は、歪曲円形画像用メモリ130に時系列で順次格納される歪曲円形画像Sを相互に比較して動体検出処理を行い、動体検出がなされた場合に、検出動体の切り出し位置を示す目標切出中心点Pnと、検出動体の切り出し向きを示す目標平面傾斜角φnと、検出動体の切り出しサイズを示す目標倍率mnと、によって構成される目標切出条件を生成し、この目標切出条件を実切出条件決定部170に与える処理を行う。   On the other hand, the moving object detection unit 160 performs the moving object detection process by comparing the distorted circular images S sequentially stored in the distorted circular image memory 130 in time series, and extracts the detected moving object when the moving object is detected. A target cut-out condition composed of a target cut-out center point Pn indicating the position, a target plane inclination angle φn indicating the cut-out direction of the detected moving object, and a target magnification mn indicating the cut-out size of the detected moving object is generated. Processing for giving the target cutting condition to the actual cutting condition determination unit 170 is performed.

たとえば、図22に示す例のように、図示の切出領域E0を規定する標準切出条件に基づいて静的監視を行っている状態において、動体検出部160によって動体60の検出が行われた場合、動体検出部160は、図示の切出領域Enを規定する目標切出条件を生成し、これを実切出条件決定部170に与える処理を行う。具体的には、図示の切出領域Enの位置を示す目標切出中心点Pnと、切出領域Enの向きを示す目標平面傾斜角φnと、切出領域Enのサイズに応じた倍率を示す目標倍率mnと、が生成され、実切出条件決定部170に与えられる。なお、ここに示す実施形態の場合、目標倍率mnは、§6で詳述するように、「切出領域Enが、検出された動体60を含む領域となるような適当な値」として計算される。   For example, as in the example shown in FIG. 22, the moving object detection unit 160 detects the moving object 60 in a state where static monitoring is performed based on the standard cutting condition that defines the illustrated cutting area E0. In this case, the moving object detection unit 160 generates a target cutout condition that defines the cutout area En shown in the figure, and performs processing of giving this to the actual cutout condition determination unit 170. Specifically, the target cutting center point Pn indicating the position of the cutout area En shown in the drawing, the target plane inclination angle φn indicating the direction of the cutout area En, and the magnification according to the size of the cutout area En are shown. The target magnification mn is generated and given to the actual cutting condition determination unit 170. In the case of the embodiment shown here, the target magnification mn is calculated as “appropriate value such that the cut-out area En becomes an area including the detected moving body 60” as described in detail in §6. The

実切出条件決定部170は、動体検出部160から目標切出条件「Pn,φn,mn」が与えられると、標準切出条件格納部180から与えられている標準切出条件「P0,φ0,m0」から、当該目標切出条件「Pn,φn,mn」へ移行するように段階的に変わる実切出条件を定める。具体的には、図25に示すように、点P0から点Pj(=Pn)へ向かって段階点に移動する点を、実切出中心点Pと決定し、図26に示すように、切出領域Ejのサイズ(=E0のサイズ)に応じた標準倍率m0から、切出領域Enのサイズに応じた目標倍率mnへ向かって段階的に変化する倍率値を、実倍率mと決定する。   When the target cutting condition “Pn, φn, mn” is given from the moving object detection unit 160, the actual cutting condition determination unit 170 receives the standard cutting condition “P0, φ0” given from the standard cutting condition storage unit 180. , M0 ”, an actual cutting condition that changes stepwise is determined so as to shift to the target cutting condition“ Pn, φn, mn ”. Specifically, as shown in FIG. 25, the point moving from the point P0 to the point Pj (= Pn) toward the step point is determined as the actual cutting center point P, and as shown in FIG. A magnification value that changes stepwise from the standard magnification m0 corresponding to the size of the extraction area Ej (= size of E0) toward the target magnification mn corresponding to the size of the extraction area En is determined as the actual magnification m.

なお、切り出し向きについては、図22に示す例の場合、切出領域E0〜Enのいずれも、U軸(平面正則画像の横軸)がY軸(図の横方向軸)に平行な方向に対応するような切り出し向きになっていればよいので、平面傾斜角φ0=φnとなり、実質的に平面傾斜角φは変化させる必要はない。また、目標倍率mnは、上述したとおり、検出された動体のサイズ(撮影画面上での見かけのサイズ)に応じて定まる量なので、たまたま、mn=m0であった場合、実質的に倍率mは変化させる必要はない。あるいは、意図的にズーミングを行わない仕様にするのであれば、検出された動体のサイズにかかわらず、常に目標倍率mn=標準倍率m0に固定した運用も可能である。   As for the cutting direction, in the example shown in FIG. 22, in any of the cutting regions E0 to En, the U axis (horizontal axis of the planar regular image) is in a direction parallel to the Y axis (horizontal axis in the figure). Since the corresponding cutout direction is sufficient, the plane inclination angle φ0 = φn, and the plane inclination angle φ need not be substantially changed. Further, as described above, the target magnification mn is an amount determined according to the size of the detected moving object (apparent size on the shooting screen), and when mn = m0 happens to be, the magnification m is substantially There is no need to change. Alternatively, if the zooming is not performed intentionally, operation with the target magnification mn = standard magnification m0 is always possible regardless of the size of the detected moving object.

結局、動体検出部160から実切出条件決定部170へ伝達する目標切出条件には、少なくとも目標切出中心点Pnの情報が含まれていれば足りる。たとえば、φ0=φnの場合には、動体検出部160から実切出条件決定部170へ目標平面傾斜角φnの情報を伝えることを省略することができ、m0=mnの場合には、動体検出部160から実切出条件決定部170へ目標倍率mnの情報を伝えることを省略することができる。   After all, it is sufficient that the target cutting condition transmitted from the moving object detection unit 160 to the actual cutting condition determination unit 170 includes at least information on the target cutting center point Pn. For example, in the case of φ0 = φn, it is possible to omit transmitting the information of the target plane inclination angle φn from the moving object detection unit 160 to the actual cutting condition determination unit 170, and in the case of m0 = mn, the moving object detection is performed. It can be omitted to transmit the information of the target magnification mn from the unit 160 to the actual cutting condition determination unit 170.

また、動体追跡部190は、動体検出部160による動体検出の後、検出動体を追跡する動体追跡処理を行い、追跡動体の切り出し位置を示す追跡切出中心点P(i)と、追跡動体の切り出し向きを示す追跡平面傾斜角φ(i)と、追跡動体の切り出しサイズを示す追跡倍率m(i)と、によって構成される追跡切出条件を、追跡動体が消滅したとの消滅判断がなされるまで、継続して実切出条件決定部170に与える処理を行う。   In addition, the moving object tracking unit 190 performs a moving object tracking process for tracking the detected moving object after the moving object is detected by the moving object detecting unit 160, and includes a tracking cut-out center point P (i) indicating a cut-out position of the tracking moving object, and the tracking moving object. It is determined that the tracking moving body has disappeared based on the tracking cut-out condition constituted by the tracking plane inclination angle φ (i) indicating the cutting direction and the tracking magnification m (i) indicating the tracking size of the tracking moving body. Until the actual cutting condition determination unit 170 continues.

たとえば、図22に示す例のように、動体検出部160によって動体60の検出が行われた場合、上述したとおり、切出領域Enが決定され、実切出領域を、領域E0からEnへ向けて段階的に変化させる移行期間の処理が実行される。このとき、動体追跡部190は、動体検出部160から動体60の情報を引き継ぎ、動体60を追跡する作業を行う。そして、図27に示す例のように、動体60の位置に応じて、追跡切出条件を「P(0),φ(0),m(0)」(=「Pn,φn,mn」)から、「P(i),φ(i),m(i)」,「P(j),φ(j),m(j)」,「P(k),φ(k),m(k)」,... と変化させてゆく。これにより、追跡切出領域は、E(0),E(i),E(j),E(k),... と移動することになる。実切出条件決定部170は、上述した移行期間の処理を完了した後、動体追跡部190から与えられる追跡切出条件を、実切出条件として採用する処理を行う。   For example, as in the example illustrated in FIG. 22, when the moving object 60 is detected by the moving object detection unit 160, the cutout area En is determined as described above, and the actual cutout area is directed from the area E0 to En. The process of the transition period which changes in steps is executed. At this time, the moving object tracking unit 190 takes over the information of the moving object 60 from the moving object detection unit 160 and performs the operation of tracking the moving object 60. Then, as in the example shown in FIG. 27, the tracking cutout condition is set to “P (0), φ (0), m (0)” (= “Pn, φn, mn”) according to the position of the moving body 60. From “P (i), φ (i), m (i)”, “P (j), φ (j), m (j)”, “P (k), φ (k), m (k) ) ", ... and will change. As a result, the tracking cutout region moves as E (0), E (i), E (j), E (k),. The actual cutting condition determination unit 170 performs processing of adopting the tracking cutting condition given from the moving object tracking unit 190 as the actual cutting condition after completing the above-described transition period processing.

ここに示す例の場合、追跡切出領域E(0),E(i),E(j),E(k),... はいずれも、U軸(平面正則画像の横軸)がY軸に平行な方向に対応するような切り出し向きになっていればよいので、平面傾斜角φ(i)は、常にそのような切り出し向きに対応する値に設定すればよい。なお、§8で詳述するように、魚眼レンズ付ビデオカメラを、その撮像面(XY平面)が鉛直面となるように設置した場合、通常、平面傾斜角φ(i)を追跡位置に応じて変えてゆく必要があるが、撮像面が水平面となるように設置した場合、平面傾斜角φ(i)は固定してかまわない。   In the case of the example shown here, the tracking cutout areas E (0), E (i), E (j), E (k),... The plane inclination angle φ (i) may be always set to a value corresponding to such a cut-out direction, as long as the cut-out direction corresponds to a direction parallel to the axis. As described in detail in §8, when a video camera with a fisheye lens is installed such that its imaging plane (XY plane) is a vertical plane, the plane inclination angle φ (i) is usually set according to the tracking position. Although it is necessary to change, the plane inclination angle φ (i) may be fixed when the imaging surface is set to be a horizontal plane.

また、追跡倍率m(i)は、目標倍率mnと同様に、動体のサイズ(撮影画面上での見かけのサイズ)に応じて定めるのが好ましいが、意図的にズーミングを行わない仕様にするのであれば、追跡中の動体のサイズにかかわらず、常に追跡倍率m(i)=目標倍率mnのように、一定値に固定した運用も可能である。   The tracking magnification m (i) is preferably determined according to the size of the moving object (apparent size on the shooting screen), similar to the target magnification mn. However, since the zooming is intentionally not performed. If so, regardless of the size of the moving object that is being tracked, it is possible to always perform a fixed operation such that the tracking magnification m (i) = target magnification mn.

結局、動体追跡部190から実切出条件決定部170へ伝達する追跡切出条件には、少なくとも追跡切出中心点P(i)の情報が含まれていれば足りる。たとえば、魚眼レンズ付ビデオカメラを、その撮像面が水平面となるように設置した場合は、後述するとおり、φ(i)を所定の固定値(0°)に維持することができる。また、得られる平面正則画像の向きを不問とする運用(モニタ上に表示される景色が天地逆でも、斜めでもかまわないとする運用)を採る場合には、ビデオカメラの設置向きにかかわらず、φ(i)を固定値に維持することができる。このように、φ(i)を所定の固定値に維持する場合、動体追跡部190から実切出条件決定部170へ追跡平面傾斜角φ(i)の情報を伝えることを省略することができる。同様に、m(i)を固定する運用を行う場合は、動体追跡部190から実切出条件決定部170へ追跡倍率m(i)の情報を伝えることを省略することができる。   After all, it is sufficient that the tracking cutout condition transmitted from the moving body tracking unit 190 to the actual cutout condition determining unit 170 includes at least information of the tracking cutout center point P (i). For example, when a video camera with a fisheye lens is installed so that its imaging surface is a horizontal plane, φ (i) can be maintained at a predetermined fixed value (0 °) as will be described later. In addition, when adopting an operation in which the orientation of the obtained flat regular image is not required (operation in which the landscape displayed on the monitor may be upside down or oblique), regardless of the orientation of the video camera, φ (i) can be maintained at a fixed value. As described above, when φ (i) is maintained at a predetermined fixed value, it is possible to omit the information of the tracking plane inclination angle φ (i) from the moving body tracking unit 190 to the actual cutting condition determination unit 170. . Similarly, when the operation of fixing m (i) is performed, it is possible to omit the information of the tracking magnification m (i) from the moving body tracking unit 190 to the actual extraction condition determining unit 170.

動体追跡部190は、動体を見失った場合、追跡切出条件を伝達する代わりに、動体が消滅した旨を実切出条件決定部170に報告する。実切出条件決定部170は、動体消滅の報告を受けると、実切出条件を、標準切出条件に切り替える処理を行う。その結果、モニタ装置120の画面には、元どおり図24(a) に示す平面正則画像が表示されることになる。   When the moving object tracking unit 190 loses sight of the moving object, the moving object tracking unit 190 reports to the actual cutting condition determination unit 170 that the moving object has disappeared, instead of transmitting the tracking cutting condition. When receiving the report of the disappearance of the moving object, the actual cutting condition determination unit 170 performs a process of switching the actual cutting condition to the standard cutting condition. As a result, the planar regular image shown in FIG. 24A is displayed on the screen of the monitor device 120 as before.

一方、手動条件設定部185の第1の機能は、ユーザの設定操作に基づいて、実切出条件決定部170が決定すべき実切出条件を強制的に任意の条件に設定する機能である。上述したとおり、実切出条件決定部170は、静的監視期間、移行期間、動的監視期間という3つの期間に分けて、自動的に実切出条件を決定する自動決定処理を行うが、手動条件設定部185から任意の切出条件が与えられた場合、いずれの期間であっても、自動決定処理を一時中断し、手動条件設定部185から与えられた切出条件を優先的に実切出条件として採用し、画像切出変換部150へ与える処理を行う。   On the other hand, the first function of the manual condition setting unit 185 is a function for forcibly setting the actual extraction condition to be determined by the actual extraction condition determination unit 170 to an arbitrary condition based on the user's setting operation. . As described above, the actual extraction condition determination unit 170 performs automatic determination processing that automatically determines the actual extraction condition by dividing into three periods of a static monitoring period, a transition period, and a dynamic monitoring period. When an arbitrary cutting condition is given from the manual condition setting unit 185, the automatic determination process is temporarily suspended during any period, and the cutting condition given from the manual condition setting unit 185 is preferentially executed. The processing is adopted as a cutting condition and given to the image cutting conversion unit 150.

別言すれば、手動条件設定部185は、ユーザの割込操作によって入力された切出条件を実切出条件決定部170へと伝達する役割を果たし、実切出条件決定部170は、当該割込操作によって指示された切出条件を、無条件に実切出条件として採用して、画像切出変換部150へ与える処理を行うことになる。また、ユーザが、手動条件設定部185に対して、当該割込操作を解除する指示を与えれば、この解除指示を受けた実切出条件決定部170は、元の自動決定処理に復帰する。   In other words, the manual condition setting unit 185 plays a role of transmitting the cutting condition input by the user's interruption operation to the actual cutting condition determining unit 170, and the actual cutting condition determining unit 170 The cutting condition instructed by the interrupt operation is unconditionally adopted as the actual cutting condition, and the process given to the image cutting conversion unit 150 is performed. Further, when the user gives an instruction to cancel the interrupt operation to the manual condition setting unit 185, the actual cutting condition determination unit 170 that has received the cancellation instruction returns to the original automatic determination process.

手動条件設定部185の第2の機能は、ユーザの設定操作に基づいて、標準切出条件格納部180に格納される標準切出条件を任意に設定する機能である。たとえば、上述した例では、標準切出条件格納部180には、標準切出条件として、図20の切出領域E0を示す標準切出中心点P0、標準平面傾斜角φ0、標準倍率m0が格納されていたため、静的監視期間には、モニタの画面上に図21(a) に示す平面正則画像が表示されることになる。ユーザは、手動条件設定部185に対して、任意の切出条件を標準切出条件に設定する指示を与えることができる。このような指示が与えられると、手動条件設定部185は、標準切出条件格納部180に格納されている標準切出条件を、新たな切出条件に書き換える処理を行う。したがって、ユーザは、静的監視期間に表示させる平面正則画像を、所望の画像に変更することができる。   The second function of the manual condition setting unit 185 is a function for arbitrarily setting a standard cutting condition stored in the standard cutting condition storage unit 180 based on a user's setting operation. For example, in the above-described example, the standard cutting condition storage unit 180 stores the standard cutting center point P0 indicating the cutting area E0 in FIG. 20, the standard plane inclination angle φ0, and the standard magnification m0 as the standard cutting conditions. Therefore, during the static monitoring period, the planar regular image shown in FIG. 21 (a) is displayed on the monitor screen. The user can give an instruction to the manual condition setting unit 185 to set an arbitrary cutting condition as a standard cutting condition. When such an instruction is given, the manual condition setting unit 185 performs a process of rewriting the standard cutting condition stored in the standard cutting condition storage unit 180 to a new cutting condition. Therefore, the user can change the planar regular image displayed during the static monitoring period to a desired image.

手動条件設定部185を用いて、任意の切出条件をユーザに指定させるためのマンマシンインターフェイスとしては、前述したように、モニタ画面上に表示された歪曲円形画像上で、マウスなどのポインティングデバイスによって指定させる形式のものや、ユーザに数値入力させるものなどを適宜設計できる。なお、この手動条件設定部185は、本発明の構成に必須の構成要素ではないので、ユーザによる手動設定が不要なシステムでは、省略してもかまわない。   As described above, the man-machine interface for allowing the user to specify an arbitrary cutting condition using the manual condition setting unit 185 is a pointing device such as a mouse on the distorted circular image displayed on the monitor screen. It is possible to appropriately design a format that can be specified by, a value that allows a user to input a numerical value, and the like. The manual condition setting unit 185 is not an essential component for the configuration of the present invention, and may be omitted in a system that does not require manual setting by the user.

以上、図28に示すブロック図を参照して、本発明の一実施形態に係る魚眼監視システム100の基本構成を説明したが、実際には、このブロック図に示されている構成要素のうち、魚眼レンズ付ビデオカメラ110およびモニタ装置120を除く構成部分は、コンピュータに専用のプログラムを組み込むことによって実現可能である。したがって、この魚眼監視システム100は、当該専用プログラムを組み込んだコンピュータに、魚眼レンズ付ビデオカメラ110およびモニタ装置120を接続することによって構築することが可能である。   The basic configuration of the fish-eye monitoring system 100 according to the embodiment of the present invention has been described above with reference to the block diagram shown in FIG. 28. Actually, among the components shown in this block diagram, The components other than the video camera with fisheye lens 110 and the monitor device 120 can be realized by incorporating a dedicated program into the computer. Therefore, this fisheye monitoring system 100 can be constructed by connecting the video camera with fisheye lens 110 and the monitor device 120 to a computer in which the dedicated program is incorporated.

また、このシステムにおける魚眼レンズ付ビデオカメラ110およびモニタ装置120を除く構成部分を、コンピュータにプログラムを組み込んで構成する代わりに、電子回路が組み込まれた半導体集積回路によって構成することも可能である。その場合、この魚眼監視システム100は、当該半導体集積回路に、魚眼レンズ付ビデオカメラ110およびモニタ装置120を接続することによって実現できる。   Further, the components other than the video camera with fisheye lens 110 and the monitor device 120 in this system can be configured by a semiconductor integrated circuit in which an electronic circuit is embedded, instead of being configured by incorporating a program in a computer. In this case, the fish-eye monitoring system 100 can be realized by connecting a video camera with fish-eye lens 110 and a monitor device 120 to the semiconductor integrated circuit.

<<< §6.動体検出処理 >>>
続いて、図28に示す魚眼監視システム100における動体検出部160の動体検出処理の詳細を説明する。
<<< §6. Motion detection processing >>>
Next, details of the moving object detection process of the moving object detection unit 160 in the fish-eye monitoring system 100 shown in FIG. 28 will be described.

動体検出部160による動体検出処理は、歪曲円形画像用メモリ130に時系列で順次格納される歪曲円形画像Sを相互に比較して、監視領域内の動体の有無を検出し、更に、画像上での動体の領域を認識する処理である。一般に、動画データを解析して動体を認識する手法としては、様々なアルゴリズムに基づく手法が知られている。動体検出部160による動体検出には、このような公知の任意の手法を利用することが可能である。   The moving object detection processing by the moving object detection unit 160 compares the distorted circular images S sequentially stored in the distorted circular image memory 130 in time series, detects the presence or absence of moving objects in the monitoring region, This is a process for recognizing a moving object area. In general, methods based on various algorithms are known as methods for recognizing moving objects by analyzing moving image data. Such a known arbitrary technique can be used for the moving object detection by the moving object detection unit 160.

ここでは、そのような手法の一例を、図29の流れ図に基づいて説明する。既に述べたとおり、歪曲円形画像用メモリ130には、ビデオカメラ110によって撮影された歪曲円形画像Sがフレームごとの時系列画像データとして順次格納される。ここに示す手法の基本原理は、予め基準となる背景歪曲円形画像を記憶しておき、歪曲円形画像用メモリ130に時系列でフレームごとに順次格納される歪曲円形画像を、背景歪曲円形画像と比較し、両者の相違が所定の基準以上となる領域を、動体の領域と認識するものである。   Here, an example of such a method will be described based on the flowchart of FIG. As already described, the distorted circular image memory 130 sequentially stores the distorted circular image S photographed by the video camera 110 as time-series image data for each frame. The basic principle of the technique shown here is that a background distorted circular image as a reference is stored in advance, and the distorted circular image sequentially stored in the distorted circular image memory 130 for each frame in time series is referred to as a background distorted circular image. In comparison, a region where the difference between the two is equal to or greater than a predetermined reference is recognized as a moving object region.

まず、ステップS11では、フレームカウンタCの初期化を行う。ここで、フレームカウンタは、フレーム単位での処理を行う上で、現在の処理が何番目のフレームであるかを示すパラメータであり、ここに示す例の場合、初期値としてC=1に設定される。続く、ステップS12では、歪曲円形画像用メモリ130に格納されている第C番目のフレームの歪曲円形画像が動体検出部160へと読み込まれる。そして、ステップS13では、この第C番目のフレームの歪曲円形画像S(C)を、前述した背景歪曲円形画像S(0)と比較し、画素値の差がしきい値d以上となる画素を着目画素として抽出する処理が行われる。   First, in step S11, the frame counter C is initialized. Here, the frame counter is a parameter indicating what number of frame the current process is in performing the process in units of frames. In the example shown here, the initial value is set to C = 1. The In step S 12, the distorted circular image of the Cth frame stored in the distorted circular image memory 130 is read into the moving object detection unit 160. In step S13, the distorted circular image S (C) of the C-th frame is compared with the above-described background distorted circular image S (0), and pixels having a pixel value difference equal to or greater than the threshold value d are determined. A process of extracting the pixel of interest is performed.

図30は、このステップS13で行われる具体的なプロセスを示す平面図である。背景歪曲円形画像S(0)も、第C番目のフレームの歪曲円形画像S(C)も、XY平面上に配置された多数の画素の集合であるので、同じ座標位置に配置された一対の画素を対応画素として認識することができる。そこで、この対応する画素の画素値の差を求める。そして、差が所定のしきい値d以上となる画素を着目画素として抽出する。図30の右下部分には、こうして抽出されたいくつかの着目画素が例示されている。   FIG. 30 is a plan view showing a specific process performed in step S13. Since both the background distorted circular image S (0) and the distorted circular image S (C) of the C-th frame are a set of a large number of pixels arranged on the XY plane, a pair of pixels arranged at the same coordinate position are used. A pixel can be recognized as a corresponding pixel. Therefore, the difference between the pixel values of the corresponding pixels is obtained. Then, a pixel whose difference is greater than or equal to a predetermined threshold value d is extracted as a target pixel. In the lower right part of FIG. 30, several pixels of interest extracted in this way are illustrated.

なお、カラー画像の場合、1つの画素に、R/G/Bなどの3原色の画素値が定義されることになるが、その場合は、たとえば、3原色の画素値の差についての平均値をしきい値dと比較するか、もしくは、3原色の中で最も大きい差をしきい値dと比較する等の方法をとることもできるし、RGB三次元色空間上にそれぞれの画素値をプロットし、両方のプロット点の空間上の距離をしきい値dと比較してもよい。   In the case of a color image, pixel values of three primary colors such as R / G / B are defined for one pixel. In this case, for example, an average value for a difference between pixel values of the three primary colors Can be compared with the threshold value d, or the largest difference among the three primary colors can be compared with the threshold value d, and the respective pixel values can be stored in the RGB three-dimensional color space. Plot and compare the spatial distance of both plot points to the threshold d.

次に、ステップS14では、ステップS13で抽出された着目画素からなる連続領域であって、基準面積S以上の面積をもち、かつ、縦幅および横幅(X軸方向の幅およびY軸方向の幅)がともに基準寸法D以上となる条件を満たす領域を探索し、これを着目領域とする処理が行われる。たとえば、図30に示す例の場合、着目画素からなる2つの連続領域A1,A2が存在する。連続領域A1は、面積8,縦幅3,横幅4であり、連続領域A2は、面積2,縦幅1,横幅2である。したがって、基準面積S=6,基準寸法D=3に設定した場合、連続領域A1は着目領域となるが、連続領域A2は着目領域にならない。   Next, in step S14, the continuous region including the target pixel extracted in step S13 has an area equal to or larger than the reference area S, and has a vertical width and a horizontal width (width in the X-axis direction and width in the Y-axis direction). ) Are both searched for a region that satisfies the condition that is equal to or greater than the reference dimension D, and this is used as a region of interest. For example, in the case of the example shown in FIG. 30, there are two continuous regions A1 and A2 made up of the target pixel. The continuous area A1 has an area 8, vertical width 3, and horizontal width 4, and the continuous area A2 has area 2, vertical width 1, and horizontal width 2. Therefore, when the reference area S = 6 and the reference dimension D = 3 are set, the continuous area A1 becomes the attention area, but the continuous area A2 does not become the attention area.

基準面積Sに満たない連続領域を着目領域としないのは、ノイズ成分や微小な物体が動体として検出されることを避けるためである。また、縦幅および横幅の双方が基準寸法D以上という基準を設定するのは、一般的には動体である可能性が低い細長い対象物が動体として検出されることを避けるためである。   The reason why the continuous region that does not satisfy the reference area S is not set as the region of interest is to avoid detection of noise components and minute objects as moving objects. Moreover, the reason why both the vertical width and the horizontal width are set to the reference dimension D or more is to avoid detecting an elongated object that is generally unlikely to be a moving object as a moving object.

図31は、ステップS13,S14のプロセスによって、図22に示す動体60(猫)の領域が着目領域として認識された状態を示す平面図である。図にハッチングを施して示した画素が着目画素であり、この着目画素からなる連続領域は、基準面積S以上の領域であり、かつ、縦幅および横幅の双方が基準寸法D以上という基準を満たす領域となっている。   FIG. 31 is a plan view showing a state in which the region of the moving body 60 (cat) shown in FIG. 22 is recognized as a region of interest by the processes of steps S13 and S14. A pixel shown by hatching in the figure is a pixel of interest, and a continuous region including the pixel of interest is a region having a reference area S or more, and satisfies both a criterion that both a vertical width and a horizontal width are a reference dimension D or more. It is an area.

ただ、この図29に示す方法では、ステップS14の条件を満たす着目領域が探索されたとしても、これを直ちに動体として認識することはせず、そのような着目領域が基準のフレーム数(Cmax)に渡って連続して探索された場合に限って、これを動体として認識する処理を行うようにしている。すなわち、ステップS15において、着目領域が探索されたと判定された場合は、ステップS16へと進み、フレームカウンタCを1だけ増やす更新処理が行われ、ステップS17を経て、ステップS12からの処理が繰り返し実行される。すなわち、歪曲円形画像用メモリ130から次のフレームが読み出され、上述したプロセスが繰り返される。こうして、ステップS17において、フレームカウンタCの値が基準のフレーム数Cmax に到達したら、ステップS18へ進み、動体検出との判断がなされる。これは、ステップS14の条件を満足する着目領域が、Cmax フレーム分連続して存在した場合に、当該着目領域が動体の領域と認識されることを意味する。   However, in the method shown in FIG. 29, even if a region of interest satisfying the condition of step S14 is searched, it is not immediately recognized as a moving object, and such region of interest is the reference frame number (Cmax). Only when the search is continuously performed over a period of time, processing for recognizing this as a moving object is performed. That is, if it is determined in step S15 that the region of interest has been searched, the process proceeds to step S16, where an update process for incrementing the frame counter C by 1 is performed, and the process from step S12 is repeatedly executed via step S17. Is done. That is, the next frame is read from the distorted circular image memory 130, and the above-described process is repeated. Thus, when the value of the frame counter C reaches the reference number of frames Cmax in step S17, the process proceeds to step S18, where it is determined that the moving object is detected. This means that when the attention area satisfying the condition of step S14 exists continuously for Cmax frames, the attention area is recognized as the moving object area.

一方、ステップS15において、着目領域が探索されなかった場合には、ステップS11へと戻り、フレームカウンタCがC=1に初期化されることになる。したがって、たとえ数フレーム分に渡って着目領域が探索されたとしても、Cmax フレーム分連続して探索されなかった場合には、ステップS15からステップS11へと戻り、動体検出は行われない。   On the other hand, if the region of interest is not searched in step S15, the process returns to step S11, and the frame counter C is initialized to C = 1. Therefore, even if the region of interest is searched for several frames, if it is not searched continuously for Cmax frames, the process returns from step S15 to step S11, and moving object detection is not performed.

なお、着目領域がCmax フレーム分連続して存在したとの判断を行う際には、Cmax フレームに渡って存在した着目領域の同一性が確保されていることも条件に入れるようにするのが好ましい。具体的には、ステップS15では、単に「着目領域が探索されたか否か」を判定するだけではなく、「前回探索された着目領域と同一性をもった着目領域が探索されたか否か」を判定するようにする。ここで、同一性の判定は、たとえば、前回探索された着目領域を構成する個々の着目画素と、今回探索された着目領域を構成する個々の着目画素との位置関係を調べ、同一位置の画素の割合が所定割合以上であった場合に、両着目領域は同一性をもつ(同一の動体に起因して形成された領域である)、との判定を行うようにすればよい。もちろん、同一性の判定には、この他にも、着目領域のサイズや形状の類似度が所定の基準以上である場合、着目領域の特徴量(色ヒストグラムやエッジ方向ヒストグラムなど)の類似度が所定の基準以上である場合、など様々な基準を用いることができ、これら複数の基準の論理和や論理積を条件とする判定を行うことも可能である。   It should be noted that, when it is determined that the region of interest exists continuously for Cmax frames, it is preferable to take into account that the identity of the region of interest existing over Cmax frames is ensured. . Specifically, in step S15, not only “whether or not the region of interest has been searched” is determined, but also “whether or not the region of interest having the same identity as the region of interest searched for last time has been searched” is determined. Make a decision. Here, the determination of identity is performed by, for example, examining the positional relationship between each pixel of interest that forms the region of interest searched last time and each pixel of interest that forms the region of interest searched this time. If the ratio is equal to or greater than a predetermined ratio, it may be determined that the two regions of interest are identical (regions formed due to the same moving object). Of course, in the identity determination, when the size or shape similarity of the region of interest is equal to or greater than a predetermined reference, the similarity of the feature amount (color histogram, edge direction histogram, etc.) of the region of interest Various criteria such as a case where the value is equal to or higher than a predetermined criterion can be used, and determination can be performed on the condition of a logical sum or logical product of these plural criteria.

このように、ステップS15の判定において、フレーム間に渡って存在する着目領域の同一性が確保されているか否かという条件を入れることにより、異なる位置に複数の着目領域が交替で出現したような事象を、動体として誤検出してしまうことを避けることができる。なお、この場合、互いに離隔した複数の着目領域が存在する場合には、より面積の大きい着目領域を対象とした判定を行うようにすればよい。   As described above, in the determination in step S15, a plurality of regions of interest appear alternately at different positions by adding a condition whether or not the identity of the regions of interest existing between frames is ensured. It is possible to avoid erroneously detecting an event as a moving object. In this case, when there are a plurality of regions of interest that are separated from each other, it is only necessary to make a determination for a region of interest having a larger area.

こうして、ステップS18において、動体検出との判断がなされた場合、動体検出部160は、目標切出条件(Pn,φn,mn)を生成し、これを実切出条件決定部170に伝達する処理を行う。また、動体追跡部190に対しては、最終着目領域(図29の流れ図において、フレームカウンタC=Cmax の時点で探索された着目領域)を示す情報を伝達する処理を行う。   In this way, when it is determined in step S18 that the moving object is detected, the moving object detection unit 160 generates the target cutting condition (Pn, φn, mn) and transmits the target cutting condition to the actual cutting condition determination unit 170. I do. In addition, the moving object tracking unit 190 performs processing for transmitting information indicating the final target region (the target region searched at the time of the frame counter C = Cmax in the flowchart of FIG. 29).

§5で述べたとおり、目標切出条件は、検出動体の切り出し位置を示す目標切出中心点Pnと、検出動体の切り出し向きを示す目標平面傾斜角φnと、検出動体の切り出しサイズを示す目標倍率mnと、によって構成される。これらの情報は、最終着目領域に基づいて設定することができる。たとえば、最終着目領域の重心位置を目標切出中心点Pnと設定し、最終着目領域の縦幅および横幅に基づいて、当該最終着目領域の全体が目標切出領域内に含まれるように、目標倍率mnを設定すればよい。   As described in §5, the target cut-out conditions are the target cut-out center point Pn indicating the cut-out position of the detected moving object, the target plane inclination angle φn indicating the cut-out direction of the detected moving object, and the target indicating the cut-out size of the detected moving object. And a magnification mn. These pieces of information can be set based on the final target area. For example, the center of gravity position of the final target area is set as the target cut-out center point Pn, and the target target area is included so that the entire final target area is included in the target cut-out area based on the vertical and horizontal widths of the final target area. What is necessary is just to set the magnification mn.

具体的には、たとえば、図31に示すハッチング画素の集合からなる領域が最終着目領域であったとすれば、これらハッチング画素の集合からなる図形の重心点位置が目標切出中心点Pnとなり、これらハッチング画素の集合からなる図形全体が、目標切出領域内に含まれるように、目標倍率mnが決定される。なお、ここに示す実施形態の場合、前述したとおり、目標平面傾斜角φnは固定値(平面正則画像のU軸がY軸に平行な方向に対応するような切り出し向きを示す値)でよい。   Specifically, for example, if the area formed by the set of hatched pixels shown in FIG. 31 is the final target area, the position of the center of gravity of the figure formed by the set of hatched pixels becomes the target cut-out center point Pn. The target magnification mn is determined so that the entire figure made up of a set of hatched pixels is included in the target cutout region. In the case of the embodiment shown here, as described above, the target plane inclination angle φn may be a fixed value (a value indicating the cutout direction in which the U axis of the plane regular image corresponds to the direction parallel to the Y axis).

図32は、図29の流れ図に示す動体検出処理を実行する機能をもった動体検出部160の詳細構成を示すブロック図である。図示のとおり、この動体検出部160は、歪曲円形画像用メモリ130からフレームごとの歪曲円形画像を読み出して動作し、背景画像保持部161、対応画素比較部162、着目領域探索部163、動体検出判定部164によって構成される。もっとも、実際には、これらの各構成要素は、コンピュータ用のプログラムもしくは半導体集積回路上の論理回路によって構成される。   FIG. 32 is a block diagram showing a detailed configuration of the moving object detection unit 160 having a function of executing the moving object detection process shown in the flowchart of FIG. As shown in the figure, the moving object detection unit 160 operates by reading out a distorted circular image for each frame from the distorted circular image memory 130, and operates as a background image holding unit 161, a corresponding pixel comparison unit 162, a region of interest search unit 163, and a moving object detection. The determination unit 164 is configured. However, in practice, each of these components is configured by a computer program or a logic circuit on a semiconductor integrated circuit.

背景画像保持部161は、歪曲円形画像用メモリ130に所定の初期時点で格納されていた画像を背景歪曲円形画像S(0)として保持する構成要素である。どの時点の画像を背景画像として保持するかは、たとえば、ユーザの指示に基づいて決定することができる。モニタ画面上の正則平面画像を監視中のユーザが、動体が存在しない時点で、その時点のメモリ130内の画像を背景画像として保持する旨の指示を与えればよい。当該指示を受けた背景画像保持部161は、その時点の画像を背景画像として取り込んで保持する。   The background image holding unit 161 is a component that holds an image stored in the distorted circular image memory 130 at a predetermined initial time point as a background distorted circular image S (0). It can be determined, for example, based on a user's instruction which image is retained as a background image. The user who is monitoring the regular plane image on the monitor screen may give an instruction to hold the image in the memory 130 at that time as a background image when there is no moving object. Receiving the instruction, the background image holding unit 161 captures and holds the image at that time as a background image.

ただ、ビデオカメラ110が屋外に設置されているケースでは、動体を含まない本来の背景画像自身が、時刻や天候によって大きく変化する。たとえば、同じ背景を撮影した画像であっても、昼間と夜間とでは、全体的な輝度に大きな変化が生じる。そこで、実用上は、背景画像保持部161が定期的に、保持する背景画像の自動更新を行うようにするのが好ましい。具体的には、メモリ130から全フレームの画像を背景画像保持部161に順次取り込んでゆくようにし、所定周期で、静的監視期間に取り込まれた複数フレーム分の画像の平均画像(各画素の画素値の平均をとった画像)を、新たな背景画像として保持する更新処理を行えばよい。たとえば、1分ごとに、「直近の静的監視期間に取り込んだ100フレーム分の画像の平均画像を新たな背景画像とする」という更新処理を行えば、常に最新の背景画像を保持することができる。その他、直前までの複数フレームから得られる、画素ごとの画素値の分布モデル(正規分布近似やヒストグラム)から統計的な背景画像(各画素値は上限と下限で表現される)を作成する方法も、一般的な動体検出の手法として広く利用されており、これらの手法を適用することも可能である。この場合、動体領域は、ある閾値以上もしくはある閾値以下の画素値を有する領域として検出される。   However, in the case where the video camera 110 is installed outdoors, the original background image itself that does not include moving objects varies greatly depending on the time of day and the weather. For example, even if images are taken of the same background, there is a large change in the overall luminance between daytime and nighttime. Therefore, in practice, it is preferable that the background image holding unit 161 periodically automatically updates the held background image. Specifically, images of all frames are sequentially fetched from the memory 130 to the background image holding unit 161, and an average image (images of each pixel) of a plurality of frames fetched in the static monitoring period at a predetermined cycle. An update process for holding an image obtained by averaging pixel values as a new background image may be performed. For example, by performing an update process of “every 100 minutes of the average image of 100 frames captured during the latest static monitoring period as a new background image” every minute, the latest background image can always be retained. it can. In addition, there is a method of creating a statistical background image (each pixel value is expressed by an upper limit and a lower limit) from a distribution model (normal distribution approximation or histogram) of pixel values for each pixel obtained from a plurality of previous frames. It is widely used as a general moving object detection method, and these methods can also be applied. In this case, the moving body region is detected as a region having a pixel value that is greater than or equal to a certain threshold value or less than a certain threshold value.

一方、対応画素比較部162は、歪曲円形画像用メモリ130に時系列でフレームごとに順次格納される歪曲円形画像S(C)上の個々の画素の画素値を、背景画像保持部161に保持されている背景歪曲円形画像S(0)上の対応する画素の画素値と比較し、両者の差がしきい値以上となる画素を着目画素として抽出する処理(図30参照)を行う。この処理は、図29の流れ図におけるステップS13の処理に対応する。抽出した着目画素を特定する情報(たとえば、その座標値)は、着目領域探索部163に伝達される。   On the other hand, the corresponding pixel comparison unit 162 holds, in the background image holding unit 161, pixel values of individual pixels on the distorted circular image S (C) that are sequentially stored in the distorted circular image memory 130 for each frame in time series. Compared with the pixel value of the corresponding pixel on the background distorted circular image S (0), a process is performed to extract a pixel whose difference is equal to or greater than the threshold value as the target pixel (see FIG. 30). This process corresponds to the process of step S13 in the flowchart of FIG. Information for identifying the extracted pixel of interest (for example, its coordinate value) is transmitted to the region of interest search unit 163.

着目領域探索部163は、着目画素からなる連続領域であって、基準面積S以上、かつ、縦幅および横幅がともに所定の基準寸法D以上となる条件を満たす着目領域を探索し、探索された着目領域を特定する情報(たとえば、当該領域を構成する個々の画素の座標値)を動体検出判定部164に伝達する。この処理は、図29の流れ図におけるステップS14の処理に対応する。なお、前述したとおり、互いに離隔した複数の着目領域が存在する場合には、より面積の大きい着目領域の情報を動体検出判定部164に伝達すればよい。   The region-of-interest search unit 163 searches for and searches a region of interest that is a continuous region composed of pixels of interest and satisfies a condition that satisfies the condition that the reference area S is greater than or equal to the predetermined reference dimension D. Information for specifying the region of interest (for example, coordinate values of individual pixels constituting the region) is transmitted to the moving object detection determination unit 164. This process corresponds to the process of step S14 in the flowchart of FIG. As described above, when there are a plurality of regions of interest separated from each other, information on the region of interest having a larger area may be transmitted to the moving object detection determination unit 164.

動体検出判定部164は、着目領域を含む歪曲円形画像が、基準のフレーム数Cmax 以上、連続して得られた場合に、動体検出がなされた旨の判定を行う。この処理は、図29の流れ図におけるステップS15〜S18の処理に対応する。既に述べたとおり、このとき、基準のフレーム数Cmax にわたって連続して得られた着目領域が、同一性の条件を満足しているか否かのチェックを行うのが好ましい。すなわち、連続して得られた着目領域が、同一の動体に起因して形成された領域であると予想される場合に限り、動体検出との判断が行われるようにする。同一性の判定は、前回探索された着目領域を構成する個々の着目画素と、今回探索された着目領域を構成する個々の着目画素との位置関係を調べ、同一位置の画素の割合が所定割合以上であった場合に、両着目領域は同一性をもつ、との基準や、前述した様々な基準に基づいて行えばよい。   The moving object detection determination unit 164 determines that the moving object is detected when the distorted circular image including the region of interest is continuously obtained for the reference number of frames Cmax or more. This processing corresponds to the processing in steps S15 to S18 in the flowchart of FIG. As already described, at this time, it is preferable to check whether or not the region of interest obtained continuously over the reference number of frames Cmax satisfies the condition of identity. In other words, the determination that the moving object is detected is performed only when the region of interest obtained continuously is expected to be an area formed due to the same moving object. The determination of identity is performed by examining the positional relationship between each pixel of interest that forms the target area searched last time and each pixel of interest that configures the target area searched this time, and the ratio of pixels at the same position is a predetermined ratio. In the case described above, the two regions of interest may be performed based on the criterion that they are the same or the various criteria described above.

こうして、動体検出が行われた場合には、動体検出判定部164は、最終着目領域を示す情報(たとえば、第Cmax 番目のフレーム内の着目領域を構成する個々の画素の座標値)を動体追跡部190に伝える。また、この最終着目領域に基づいて目標切出条件を生成し、これを実切出条件決定部170に与える。具体的には、前述したとおり、最終着目領域の重心位置を目標切出中心点Pnと設定し、最終着目領域の縦幅および横幅に基づいて目標倍率mnを設定すればよい。   When moving object detection is performed in this way, the moving object detection determination unit 164 tracks information indicating the final region of interest (for example, coordinate values of individual pixels constituting the region of interest in the Cmaxth frame). Tell part 190. In addition, a target cutting condition is generated based on this final focus area, and this is given to the actual cutting condition determination unit 170. Specifically, as described above, the center of gravity position of the final target region may be set as the target cut-out center point Pn, and the target magnification mn may be set based on the vertical width and horizontal width of the final target region.

なお、ここに示す実施形態の場合、目標平面傾斜角φnは固定値であるので、動体検出判定部164によって設定する必要はない。また、ズーミングを行わずに目標倍率mnを固定値にする運用をとる場合には、動体検出判定部164は、目標倍率mnを設定する必要もないので、目標切出中心点Pnのみを目標切出条件として生成し、これを実切出条件決定部170に与えれば足りる。   In the case of the embodiment shown here, the target plane inclination angle φn is a fixed value, and therefore does not need to be set by the moving object detection determination unit 164. Further, when the target magnification mn is set to a fixed value without zooming, the moving object detection determination unit 164 does not need to set the target magnification mn, so only the target cutting center point Pn is selected. It is sufficient to generate it as the extraction condition and give it to the actual extraction condition determination unit 170.

<<< §7.動体追跡処理 >>>
続いて、図28に示す魚眼監視システム100における動体追跡部190の動体追跡処理の詳細を説明する。
<<< §7. Moving body tracking process >>
Next, details of the moving body tracking process of the moving body tracking unit 190 in the fish-eye monitoring system 100 shown in FIG. 28 will be described.

動体追跡部190による動体追跡処理は、動体検出部160による動体検出の後、検出動体を追跡する動体追跡処理を行い、追跡切出中心点P(i)と、追跡平面傾斜角φ(i)と、追跡倍率m(i)と、によって構成される追跡切出条件を、追跡動体が消滅したとの消滅判断がなされるまで、継続して実切出条件決定部170に与える処理である。   In the moving body tracking process by the moving body tracking unit 190, after the moving body is detected by the moving body detection unit 160, the moving body tracking process for tracking the detected moving body is performed, and the tracking cut-out center point P (i) and the tracking plane inclination angle φ (i) are performed. And the tracking magnification condition m (i) are continuously given to the actual cutting condition determination unit 170 until it is determined that the tracking moving object has disappeared.

動体追跡部190は、動体検出部160から、検出動体に関する情報(最終着目領域を示す情報)を受け取った後、歪曲円形画像用メモリ130からフレーム単位で歪曲円形画像を順次読み出し、検出動体を追跡する処理を行う。一般に、動画データを解析して動体を追跡してゆく方法には、様々なアルゴリズムに基づく手法が知られている。動体追跡部190による動体追跡には、このような公知の任意の手法を利用することが可能である。   The moving body tracking unit 190 receives information on the detected moving body (information indicating the final target area) from the moving body detection unit 160, and then sequentially reads out the distorted circular image in units of frames from the distorted circular image memory 130 to track the detected moving body. Perform the process. In general, methods based on various algorithms are known as methods for analyzing moving image data and tracking moving objects. Such a known arbitrary method can be used for tracking the moving object by the moving object tracking unit 190.

ここでは、そのような手法の一例を、図33の流れ図に基づいて説明する。まず、ステップS21では、動体検出部160で検出された動体(最終着目領域)を第0番目のフレーム画像上の第0番目の追跡動体とする処理が行われる。   Here, an example of such a method will be described based on the flowchart of FIG. First, in step S21, a process is performed in which the moving object (final area of interest) detected by the moving object detection unit 160 is the 0th tracking moving object on the 0th frame image.

そして、ステップS22において、第0番目の追跡動体の特徴量の演算が行われる。ここで、「追跡動体の特徴量」とは、対象となるフレーム画像上で認識されている動体を構成する領域(着目領域)について、画像の特徴を示す量であり、たとえば、当該領域を構成する画素の色ヒストグラムもしくはエッジ方向ヒストグラムを特徴量として利用することができる。具体的には、第0番目の追跡動体、すなわち、動体検出部160で検出された動体(最終着目領域)を構成する個々の画素の画素値を用いて、特徴量を求めるための所定の演算式に基づく演算が実行される。   In step S22, the feature amount of the 0th tracking moving body is calculated. Here, the “tracking moving object feature amount” is an amount indicating the feature of the image with respect to a region (a region of interest) constituting the moving object recognized on the target frame image. A color histogram or edge direction histogram of a pixel to be used can be used as a feature amount. Specifically, a predetermined calculation for obtaining a feature amount using the pixel value of each pixel constituting the 0th tracking moving object, that is, the moving object (final target region) detected by the moving object detection unit 160. An operation based on the expression is executed.

次のステップS23では、追跡パラメータiが初期値1に設定される。この追跡パラメータiは、動体検出プロセスにおけるフレームカウンタCと同様に、フレーム単位での処理を行う上で、現在の処理が何番目のフレームであるかを示すパラメータである。ここに示す例の場合、動体検出処理の対象となった最終フレームを、動体追跡処理の対象となる第0番目のフレームに設定し、後続する第1番目以降のフレームについての動体追跡が行われることになる。   In the next step S23, the tracking parameter i is set to the initial value 1. Similar to the frame counter C in the moving object detection process, the tracking parameter i is a parameter indicating the frame number of the current process when performing processing in units of frames. In the case of the example shown here, the final frame that is the target of the moving object detection process is set as the 0th frame that is the target of the moving object tracking process, and the moving object tracking is performed for the subsequent first and subsequent frames. It will be.

続くステップS24では、第i番目のフレーム画像における第(i−1)番目の追跡動体の近傍範囲を探索し、特徴量が類似する領域を第i番目の追跡動体と認識する処理が行われる。たとえば、i=1の場合、第1番目のフレーム画像について、第0番目のフレーム上の追跡動体の近傍範囲(すなわち、動体検出部160から与えられた最終着目領域の近傍範囲)を探索して、ステップS22で求められた第0番目の追跡動体の特徴量に類似した特徴量をもつ範囲の探索が行われる。具体的には、たとえば、動体検出部160から与えられた最終着目領域を、上下左右に数画素分ずらすことにより、もしくは上下左右に数画素分増減させることにより、複数通りの候補領域を定義し、これら複数の候補領域についての特徴量を求め、類似する特徴量をもった候補領域を探索する処理を行えばよい。そして、類似度が所定の基準以上、かつ、最も高い特徴量をもった候補領域を、第i番目のフレーム画像における追跡動体の領域と認識すればよい。   In the subsequent step S24, the vicinity range of the (i−1) -th tracking moving object in the i-th frame image is searched, and processing for recognizing a region having a similar feature amount as the i-th tracking moving object is performed. For example, when i = 1, the first frame image is searched for the vicinity range of the tracking moving object on the zeroth frame (that is, the vicinity range of the final target area given from the moving object detection unit 160). A search for a range having a feature amount similar to the feature amount of the 0th tracking moving body obtained in step S22 is performed. Specifically, for example, a plurality of candidate areas are defined by shifting the final target area given from the moving object detection unit 160 by several pixels vertically and horizontally, or by increasing or decreasing by several pixels vertically and horizontally. Then, a feature amount for the plurality of candidate regions may be obtained, and processing for searching for candidate regions having similar feature amounts may be performed. Then, the candidate area having the highest feature amount with the similarity equal to or higher than a predetermined reference may be recognized as the area of the tracking moving object in the i-th frame image.

こうして、追跡動体の認識に成功した場合、ステップS25からステップS26へと進み、追跡パラメータiを1だけ増加する更新を行い、ステップS24の処理が繰り返される。すなわち、歪曲円形画像用メモリ130から、次のフレーム画像が読み出され、前のフレーム画像で認識されている追跡動体の領域と類似する特徴量をもった領域が、追跡動体の領域として認識される。   In this way, when the tracking moving object is successfully recognized, the process proceeds from step S25 to step S26, the tracking parameter i is updated by 1 and the process of step S24 is repeated. That is, the next frame image is read out from the distorted circular image memory 130, and an area having a feature amount similar to the area of the tracking moving object recognized in the previous frame image is recognized as the area of the tracking moving object. The

一方、追跡動体の認識に失敗した場合、すなわち、前のフレーム画像で認識されている追跡動体の領域と類似する特徴量をもった候補領域が発見できなかった場合、ステップS25からステップS27へと進み、動体消滅との判断がなされる。   On the other hand, if the tracking moving object has failed to be recognized, that is, if a candidate area having a feature amount similar to the area of the tracking moving object recognized in the previous frame image cannot be found, the process proceeds from step S25 to step S27. It is determined that the moving object has disappeared.

ステップS25において、追跡動体の認識に成功したとの判断がなされた場合、動体追跡部190は、第i番目のフレームに関する追跡切出条件(P(i),φ(i),m(i))を生成し、これを実切出条件決定部170に伝達する処理を行う。一方、追跡動体の認識に失敗したとの判断がなされた場合、動体追跡部190は、動体消滅を示す情報を実切出条件決定部170に伝達する処理を行う。   When it is determined in step S25 that the tracking moving object has been successfully recognized, the moving object tracking unit 190 determines the tracking cut-out condition (P (i), φ (i), m (i) regarding the i-th frame. ) Is generated, and this is transmitted to the actual cutting condition determination unit 170. On the other hand, when it is determined that recognition of the tracking moving object has failed, the moving object tracking unit 190 performs processing for transmitting information indicating the disappearance of the moving object to the actual extraction condition determining unit 170.

§5で述べたとおり、追跡切出条件は、追跡動体の切り出し位置を示す追跡切出中心点P(i)と、追跡動体の切り出し向きを示す追跡平面傾斜角φ(i)と、追跡動体の切り出しサイズを示す追跡倍率m(i)と、によって構成される。これらの情報は、認識した追跡動体を構成する領域に基づいて設定することができる。たとえば、当該領域の重心位置を追跡切出中心点P(i)と設定し、当該領域の縦幅および横幅に基づいて、当該領域の全体が追跡切出領域内に含まれるように、追跡倍率m(i)を設定すればよい。なお、前述したとおり、ビデオカメラの設置形態や運用形態によっては、追跡倍率m(i)や追跡平面傾斜角φ(i)を固定値にすることもできる。   As described in §5, the tracking cut-out conditions include the tracking cut-out center point P (i) indicating the cut-out position of the tracking moving object, the tracking plane inclination angle φ (i) indicating the cutting-out direction of the tracking moving object, and the tracking moving object. And a tracking magnification m (i) indicating the cut-out size. These pieces of information can be set based on the area that constitutes the recognized tracking moving body. For example, the tracking magnification is set so that the center of gravity of the area is set as the tracking cut-out center point P (i) and the entire area is included in the tracking cut-out area based on the vertical and horizontal widths of the area. m (i) may be set. As described above, the tracking magnification m (i) and the tracking plane inclination angle φ (i) can be fixed values depending on the installation form and operation form of the video camera.

図34は、図33の流れ図に示す動体追跡処理を実行する機能をもった動体追跡部190の詳細構成を示すブロック図である。この動体追跡部190は、動体検出部160から最終着目領域を示す情報を受け取ってから動作を開始し、歪曲円形画像用メモリ130からフレームごとの歪曲円形画像を読み出して検出動体の追跡を行う機能を有し、図示のとおり、既知動体領域保持部191、候補領域抽出部192、特徴量演算部193、新動体領域認識部194、動体追跡判定部195によって構成される。もっとも、実際には、これらの各構成要素は、コンピュータ用のプログラムもしくは半導体集積回路上の論理回路によって構成される。   FIG. 34 is a block diagram showing a detailed configuration of the moving object tracking unit 190 having a function of executing the moving object tracking process shown in the flowchart of FIG. The moving object tracking unit 190 starts the operation after receiving information indicating the final target region from the moving object detecting unit 160, and reads the distorted circular image for each frame from the distorted circular image memory 130 to track the detected moving object. As shown in the drawing, the moving object region holding unit 191, the candidate region extracting unit 192, the feature amount calculating unit 193, the new moving object region recognizing unit 194, and the moving object tracking determining unit 195 are configured. However, in practice, each of these components is configured by a computer program or a logic circuit on a semiconductor integrated circuit.

既知動体領域保持部191は、歪曲円形画像用メモリ160に格納されている第(i−1)番目のフレーム画像上において既に認識されている既知動体領域の情報を保持する構成要素である。i=1の場合、第0番目のフレーム画像上の既知動体領域の情報は、動体検出部160から最終着目領域の情報として与えられる。i=2以降の既知動体領域の情報は、後述するように、動体追跡判定部195から新動体領域の情報として与えられる。   The known moving object region holding unit 191 is a component that holds information of a known moving object region that has already been recognized on the (i−1) th frame image stored in the distorted circular image memory 160. When i = 1, the information on the known moving object region on the 0th frame image is given from the moving object detection unit 160 as the information on the final target region. The information on the known moving object region after i = 2 is given as information on the new moving object region from the moving object tracking determination unit 195, as will be described later.

候補領域抽出部192は、歪曲円形画像用メモリ130に格納されている第i番目のフレーム画像から、既知動体領域の近傍に位置する複数通りの領域を候補領域として抽出する処理を行う。具体的には、上述したように、既知動体領域保持部191に保持されている第(i−1)番目のフレーム画像についての既知動体領域を、上下左右に数画素分ずらすことにより、もしくは上下左右に数画素分増減させることにより、複数通りの候補領域を定義すればよい。   The candidate area extraction unit 192 performs a process of extracting a plurality of areas located in the vicinity of the known moving object area as candidate areas from the i-th frame image stored in the distorted circular image memory 130. Specifically, as described above, the known moving object region for the (i−1) th frame image held in the known moving object region holding unit 191 is shifted by several pixels vertically and horizontally, or up and down. A plurality of candidate regions may be defined by increasing or decreasing by several pixels to the left and right.

特徴量演算部193は、既知動体領域保持部191に保持されている既知動体領域(第(i−1)番目のフレーム画像上で認識されている動体の領域)と、候補領域抽出部192によって抽出された複数通りの候補領域(第i番目のフレーム画像上で定義された領域)とについて、それぞれ画像の特徴を示す特徴量を求める演算を行う。具体的には、上述したように、演算対象として与えられた領域を構成する画素の色ヒストグラムもしくはエッジ方向ヒストグラムを特徴量として求める演算を行えばよい。なお、既知動体領域の特徴量は、1フレーム前の処理で候補領域の特徴量として既に演算済みなので、実用上、特徴量演算部193は再度の演算を行う必要はなく、1フレーム前の処理で求めた演算結果を流用することができる。   The feature amount calculation unit 193 includes a known moving object region (moving object region recognized on the (i−1) th) frame image) held in the known moving object region holding unit 191, and a candidate region extracting unit 192. For each of a plurality of extracted candidate regions (regions defined on the i-th frame image), an operation for obtaining a feature value indicating the feature of each image is performed. Specifically, as described above, a calculation for obtaining a color histogram or edge direction histogram of a pixel constituting a region given as a calculation target as a feature amount may be performed. Note that since the feature amount of the known moving object region has already been calculated as the feature amount of the candidate region in the processing one frame before, the feature amount calculation unit 193 does not need to perform the calculation again in practice, and the processing one frame before The calculation result obtained in step 2 can be used.

新動体領域認識部194は、特徴量演算部193によって演算された、既知動体領域の特徴量と、複数通りの候補領域の特徴量と、をそれぞれ比較し、既知動体領域の特徴量に対する類似度が所定の基準以上、かつ、最も高い特徴量をもった候補領域を、第i番目のフレーム画像上の新動体領域と認識する処理を行う。類似度が所定の基準以上である候補領域が複数発見された場合でも、その中で最も高い特徴量をもった候補領域を新動体領域と認識することにより、動体追跡の確度を高めることができる。   The new moving body region recognizing unit 194 compares the feature amount of the known moving body region calculated by the feature amount calculating unit 193 with the feature amount of the plurality of candidate regions, and the similarity to the feature amount of the known moving body region. The candidate area having the highest feature quantity and a predetermined reference value or more is recognized as a new moving body area on the i-th frame image. Even when a plurality of candidate areas having similarities equal to or higher than a predetermined standard are found, the accuracy of moving body tracking can be improved by recognizing the candidate area having the highest feature amount as a new moving body area. .

動体追跡判定部195は、新動体領域認定部194における認識が成功した場合には、認識された新動体領域に基づいて第i番目のフレーム画像についての追跡切出条件P(i),φ(i),m(i)を生成し、実切出条件決定部170へ伝達する。この場合、第i番目のフレーム画像について認識された新動体領域の重心位置を追跡切出中心点P(i)と設定し、この新動体領域の縦幅および横幅に基づいて追跡倍率m(i)を設定することは既に述べたとおりである。一方、認識が失敗した場合には、追跡動体が消滅したとの判断を行い、動体消滅を示す情報を実切出条件決定部170へ伝達する。   When the recognition by the new moving body region recognition unit 194 is successful, the moving body tracking determination unit 195 determines the tracking cutout conditions P (i), φ (for the i-th frame image based on the recognized new moving body region. i) and m (i) are generated and transmitted to the actual cutting condition determination unit 170. In this case, the position of the center of gravity of the new moving object region recognized for the i-th frame image is set as the tracking cut-out center point P (i), and the tracking magnification m (i) is set based on the vertical and horizontal widths of the new moving object region. ) Is as described above. On the other hand, if the recognition fails, it is determined that the tracking moving object has disappeared, and information indicating the disappearance of the moving object is transmitted to the actual cutting condition determination unit 170.

また、動体追跡判定部195は、認識に成功した場合、新動体領域を示す情報を既存動体領域保持部191へ与える。既存動体領域保持部191は、動体検出部160から与えられた検出動体の領域情報を、最初の既知動体領域の情報として保持するが、以後、動体追跡判定部195から逐次与えられる新動体領域の情報を新たな既知動体領域の情報として保持する。したがって、候補領域抽出部192が、第i番目のフレームについての候補領域を抽出する際には、既存動体領域保持部191には、第(i−1)番目のフレームについて認識された動体領域が保持されていることになる。   Moreover, the moving body tracking determination part 195 gives the information which shows a new moving body area | region to the existing moving body area | region holding | maintenance part 191, when recognition is successful. The existing moving object area holding unit 191 holds the area information of the detected moving object given from the moving object detection unit 160 as the information of the first known moving object area, but thereafter, the new moving object area given sequentially from the moving object tracking determination unit 195 Information is held as information on a new known moving object region. Therefore, when the candidate area extracting unit 192 extracts a candidate area for the i-th frame, the existing moving object area holding unit 191 has a moving object area recognized for the (i−1) -th frame. Will be held.

なお、追跡平面傾斜角φ(i)として固定値を採用する場合、動体追跡判定部195は、φ(i)を追跡切出条件として生成する必要はない。また、ズーミングを行わずに追跡倍率m(i)を固定値にする運用をとる場合には、追跡倍率m(i)を生成する必要もないので、動体追跡判定部195は、追跡切出中心点P(i)のみを追跡切出条件として生成し、これを実切出条件決定部170に与えれば足りる。   When a fixed value is adopted as the tracking plane inclination angle φ (i), the moving object tracking determination unit 195 does not need to generate φ (i) as the tracking cutout condition. In addition, when the tracking magnification m (i) is set to a fixed value without zooming, it is not necessary to generate the tracking magnification m (i). It suffices to generate only the point P (i) as the tracking cutout condition and give it to the actual cutout condition determining unit 170.

<<< §8.実切出条件の決定処理 >>>
ここでは、図28に示す魚眼監視システム100における実切出条件決定部170による実切出条件の決定処理の詳細を説明する。
<<< §8. Processing for determining actual cutting conditions >>>
Here, details of the actual cutting condition determination processing by the actual cutting condition determination unit 170 in the fish-eye monitoring system 100 shown in FIG. 28 will be described.

<8−1.実切出条件決定部の基本機能>
実切出条件決定部170の基本機能は、歪曲円形画像S上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件をリアルタイムで画像切出変換部150に与えることである。
<8-1. Basic functions of actual cutting condition determination unit>
The basic function of the actual cutting condition determining unit 170 is an actual cutting formed by a cutting center point P, which is one point on the distorted circular image S, a predetermined plane inclination angle φ, and a predetermined magnification m. The condition is to be given to the image cutout conversion unit 150 in real time.

図35は、この実切出条件決定部170によって行われる実切出条件の決定処理の手順を示す流れ図である。図示のとおり、この決定処理は、ステップS31,32からなる静的監視期間W1、ステップS33,34からなる移行期間W2、ステップS35,36からなる動的監視期間W3という3つの期間ごとに、それぞれ異なる内容の処理が行われる。   FIG. 35 is a flowchart showing the procedure of the actual cutting condition determination process performed by the actual cutting condition determination unit 170. As shown in the figure, this determination process is performed for each of three periods, a static monitoring period W1 composed of steps S31 and 32, a transition period W2 composed of steps S33 and 34, and a dynamic monitoring period W3 composed of steps S35 and 36. Different content processing is performed.

静的監視期間W1では、ステップS31に示されているとおり、標準切出条件格納部180に格納されている標準切出条件(P0,φ0,m0)を、そのまま実切出条件(P,φ,m)として、画像切出変換部150に与える処理が行われる。そして、ステップS32において動体検出の判断が行われるまで、別言すれば、動体検出部160から目標切出条件(Pn,φn,mn)が与えられるまで、ステップS31の処理が続行され、静的監視期間W1が継続する。   In the static monitoring period W1, as shown in step S31, the standard cutting condition (P0, φ0, m0) stored in the standard cutting condition storage unit 180 is used as it is as the actual cutting condition (P, φ , M), the processing given to the image cutout conversion unit 150 is performed. Then, until the moving object detection is determined in step S32, in other words, the process of step S31 is continued until the target cutting condition (Pn, φn, mn) is given from the moving object detection unit 160, and static The monitoring period W1 continues.

一方、ステップS32において動体検出の判断が行われると、すなわち、動体検出部160から目標切出条件(Pn,φn,mn)が与えられると、移行期間W2が開始する。すなわち、ステップS33に示されているとおり、標準切出条件(P0,φ0,m0)から目標切出条件(Pn,φn,mn)へ移行するように、段階的に変わる実切出条件(P,φ,m)が生成され、これを画像切出変換部150に与える処理が行われる。そして、ステップS34において移行完了の判断が行われるまで、別言すれば、生成された実切出条件(P,φ,m)が目標切出条件(Pn,φn,mn)に到達するまで、ステップS33の処理が続行され、移行期間W2が継続する。   On the other hand, when the moving object detection is determined in step S32, that is, when the target cutting condition (Pn, φn, mn) is given from the moving object detection unit 160, the transition period W2 starts. That is, as shown in step S33, the actual cutting conditions (P that change in stages so as to shift from the standard cutting conditions (P0, φ0, m0) to the target cutting conditions (Pn, φn, mn)). , Φ, m) is generated, and processing for giving this to the image cutout conversion unit 150 is performed. Until the transition completion is determined in step S34, in other words, until the generated actual cutting condition (P, φ, m) reaches the target cutting condition (Pn, φn, mn). The process in step S33 is continued, and the transition period W2 continues.

ここで、ステップS34において移行完了の判断が行われると、すなわち、標準切出条件(P0,φ0,m0)から段階的に変化させていった実切出条件(P,φ,m)が目標切出条件(Pn,φn,mn)に到達すると、動的監視期間W3が開始する。すなわち、ステップS35に示されているとおり、動体追跡部190から与えられる追跡切出条件(P(i),φ(i),m(i))を、そのまま実切出条件(P,φ,m)として、画像切出変換部150に与える処理が行われる。そして、ステップS36において動体消滅の判断が行われるまで、別言すれば、動体追跡部190から動体消滅を示す報告がなされるまで、ステップS35の処理が続行され、動的監視期間W3が継続する。   Here, when it is determined in step S34 that the transition has been completed, that is, the actual cutting conditions (P, φ, m) that have been changed stepwise from the standard cutting conditions (P0, φ0, m0) are the targets. When the cutting condition (Pn, φn, mn) is reached, the dynamic monitoring period W3 starts. That is, as shown in step S35, the tracking cutting conditions (P (i), φ (i), m (i)) given from the moving body tracking unit 190 are used as they are as the actual cutting conditions (P, φ, m), the processing given to the image cut-out conversion unit 150 is performed. Then, until the determination of the disappearance of the moving object is made in step S36, in other words, the process of step S35 is continued until the report indicating the disappearance of the moving object is made from the moving object tracking unit 190, and the dynamic monitoring period W3 continues. .

ステップS35において動体消滅の判断が行われると、動的監視期間W3は終了となり、ステップS31へ戻り、静的監視期間W1が再開する。   When it is determined in step S35 that the moving object has disappeared, the dynamic monitoring period W3 ends, the process returns to step S31, and the static monitoring period W1 resumes.

このような処理を実行するためには、実切出条件決定部170を、図36に示すように、静的監視期間担当部171と、移行期間担当部172と、動的監視期間担当部173によって構成すればよい。もっとも、実際には、これらの各構成要素は、コンピュータ用のプログラムもしくは半導体集積回路上の論理回路によって構成される。   In order to execute such processing, the actual cut condition determining unit 170 is, as shown in FIG. 36, a static monitoring period responsible unit 171, a transition period responsible unit 172, and a dynamic monitoring period responsible unit 173. May be configured. However, in practice, each of these components is configured by a computer program or a logic circuit on a semiconductor integrated circuit.

ここで、静的監視期間担当部171は、動体検出がなされていない静的監視期間W1を担当する構成要素であり、当該期間W1の間、標準切出条件格納部180に格納されている標準切出条件(P0,φ0,m0)を実切出条件(P,φ,m)と定めて出力する機能を有する。また、移行期間担当部172は、動体検出がなされた後の所定の移行期間W2を担当する構成要素であり、当該期間W2の間、標準切出条件(P0,φ0,m0)から目標切出条件(Pn,φn,mn)へ移行するように段階的に変わる実切出条件(P,φ,m)を生成して出力する機能を有する。そして、動的監視期間担当部173は、移行期間が完了してから消滅判断がなされるまでの動的監視期間W3を担当する構成要素であり、当該期間W3の間、動体追跡部190から与えられる追跡切出条件(P(i),φ(i),m(i))を実切出条件(P,φ,m)と定めて出力する機能を有する。   Here, the static monitoring period charge unit 171 is a component responsible for the static monitoring period W1 in which no moving object is detected, and the standard stored in the standard extraction condition storage unit 180 during the period W1. It has a function of determining and outputting the cutting conditions (P0, φ0, m0) as the actual cutting conditions (P, φ, m). In addition, the transition period charge unit 172 is a component responsible for a predetermined transition period W2 after the moving object is detected, and during the period W2, target cutout is performed from the standard cutout condition (P0, φ0, m0). It has a function of generating and outputting actual cutting conditions (P, φ, m) that change stepwise so as to shift to the conditions (Pn, φn, mn). The dynamic monitoring period responsible unit 173 is a component that is in charge of the dynamic monitoring period W3 from when the transition period is completed until the disappearance is determined, and is given from the moving object tracking unit 190 during the period W3. The tracking cutout conditions (P (i), φ (i), m (i)) to be output are determined as actual cutout conditions (P, φ, m).

要するに、図36に示す各担当部171,172,173は、期間W1,W2,W3のうちの自己の担当期間のみ、実切出条件(P,φ,m)を出力する働きをする。したがって、実切出条件決定部170から出力される実切出条件(P,φ,m)は、各担当部171,172,173のいずれかから選択的に出力された条件になる。   In short, the respective responsible units 171, 172, and 173 shown in FIG. 36 function to output the actual cutting conditions (P, φ, m) only during their own assigned period of the periods W 1, W 2, and W 3. Therefore, the actual cutting condition (P, φ, m) output from the actual cutting condition determining unit 170 is a condition that is selectively output from any of the responsible units 171, 172, and 173.

なお、既に述べたように、実切出条件のうち平面傾斜角φや倍率mは固定する運用をとることが可能である。この場合、実切出条件決定部170は、平面傾斜角φや倍率mについては当該固定値を常に出力すればよいので、実質的に、切出中心点Pの値のみを決定する処理を行えばよい。また、動体検出部160は、目標切出条件として目標切出中心点Pnの値のみを出力すれば足り、動体追跡部190は、追跡切出条件として追跡切出中心点P(i)の値のみを出力すれば足りる。   In addition, as already stated, it is possible to take an operation in which the plane inclination angle φ and the magnification m are fixed among the actual cutting conditions. In this case, the actual cutting condition determination unit 170 needs only to always output the fixed value for the plane inclination angle φ and the magnification m, so that the process of substantially determining only the value of the cutting center point P is performed. Just do it. Further, it is sufficient that the moving object detection unit 160 outputs only the value of the target cutting center point Pn as the target cutting condition, and the moving object tracking unit 190 sets the value of the tracking cutting center point P (i) as the tracking cutting condition. Output only.

さて、図36に示す各担当部171,172,173のうち、静的監視期間担当部171は、標準切出条件をそのまま出力する処理を行えばよく、動的監視期間担当部173は、追跡切出条件をそのまま出力する処理を行えばよいので、その構成は非常に単純である。これに対して、移行期間担当部172は、実切出条件を、標準切出条件(P0,φ0,m0)から目標切出条件(Pn,φn,mn)へと段階的に移行させる移行処理を行う必要がある。そこで、以下、この移行処理の具体的な方法をいくつかの例を挙げながら説明する。   36, the static monitoring period responsible unit 171 may perform the process of outputting the standard extraction condition as it is, and the dynamic monitoring period responsible unit 173 performs tracking. Since the process of outputting the cutting condition as it is may be performed, the configuration is very simple. On the other hand, the transition period charge unit 172 transitions the actual cutting conditions in stages from the standard cutting conditions (P0, φ0, m0) to the target cutting conditions (Pn, φn, mn). Need to do. Therefore, a specific method of the migration process will be described below with some examples.

実切出条件は、P,φ,mという3つのパラメータによって構成されるが、移行は個々のパラメータごとに独立して行うことができる。すなわち、切出中心点Pについては、P0からPnへと段階的に移行させ、平面傾斜角φについては、φ0からφnへと段階的に移行させ、倍率mについては、m0からmnへと段階的に移行させればよい。これらの移行は、並行して同時に進行させてもよいし、それぞれ別個の期間に行ってもよい。   The actual cutting condition is constituted by three parameters P, φ, and m, but the transition can be performed independently for each parameter. That is, the cutting center point P is shifted stepwise from P0 to Pn, the plane inclination angle φ is shifted stepwise from φ0 to φn, and the magnification m is stepped from m0 to mn. Can be migrated. These transitions may proceed simultaneously in parallel or may be performed in separate periods.

§4では、図22に示す歪曲円形画像S上で、標準切出領域E0から目標切出領域Enへと段階的に移行させる例を説明した。この例の場合、移行期間W2を前半のパンニング期間と後半のズーミング期間とに分け、パンニング期間において、図25に示すように切出中心点Pを点P0から点Pjへと移行し、ズーミング期間において、図26に示すように切出領域Eを領域EjからEnへと移行することになる。ここでは、このような移行プロセスを行う場合の具体的な実切出条件の変遷を考えてみよう。   In §4, an example in which the standard cutout area E0 is shifted to the target cutout area En in a stepwise manner on the distorted circular image S shown in FIG. In this example, the transition period W2 is divided into a first panning period and a second zooming period. In the panning period, as shown in FIG. 25, the cutting center point P is shifted from the point P0 to the point Pj. In FIG. 26, the cutout area E is shifted from the area Ej to En as shown in FIG. Here, let's consider the transition of specific actual cutting conditions when performing such a migration process.

図37は、この移行プロセスにおける切出中心点Pの移動状態を示す平面図である。図示のとおり、点Pは、歪曲円形画像Sを構成する円の中心点P0から、この円の半径に沿った移動経路A(Y軸を基準にして方位角αで示される方向)に沿って、P1,... ,Pi,... ,Pj〜Pnと移動する。点Pj〜点Pnは同一の点である。矢印で示すJi,Jj〜Jnは、後述するように、各位置における回転基準軸であり、移動経路Aに対して直交する軸になる。ここで、点P1〜Pjまでの移動期間が、前半のパンニング期間であり、点Pj〜Pnに留まっている期間が、後半のズーミング期間である。   FIG. 37 is a plan view showing the moving state of the cut center point P in this transition process. As illustrated, the point P is along the moving path A (the direction indicated by the azimuth angle α with respect to the Y axis) from the center point P0 of the circle constituting the distorted circular image S along the radius of the circle. , P1,..., Pi,..., Pj to Pn. The points Pj to Pn are the same point. As will be described later, Ji, Jj to Jn indicated by arrows are rotation reference axes at respective positions, and are axes orthogonal to the movement path A. Here, the movement period from the points P1 to Pj is the first half of the panning period, and the period remaining at the points Pj to Pn is the second half of the zooming period.

図38は、この移行プロセスにおける実切出条件の具体的な変遷を示す表である。フレームFの欄には、切出処理の対象となる歪曲円形画像のフレーム番号F0〜Fnが記載されており、切出領域Eの欄には、各フレーム画像上に設定される切出領域E0〜Enが記載されている。実切出条件は、切出中心点P、平面傾斜角φ、倍率mの各欄に記載されているとおり変遷する。   FIG. 38 is a table showing a specific transition of the actual cutting conditions in this migration process. The frame F column describes the frame numbers F0 to Fn of the distorted circular image to be cut out, and the cut region E column shows the cut region E0 set on each frame image. ~ En are described. The actual cutting conditions change as described in each column of the cutting center point P, the plane inclination angle φ, and the magnification m.

まず、切出中心点Pは、第0番目の点P0から第n番目の点Pnへと変遷するが、実際には、第j番目以降の点Pj〜は、いずれも第n番目の点Pnと同一点であり、切出中心点Pの移動は、第j番目のフレームFjで完了している。これは前半のパンニング期間が、第j番目のフレームFjまでで完了することを意味する。これに対して、倍率mは、第0番目の倍率m0から第n番目の倍率mnへと変遷するが、実際には、第j番目の倍率mjまでは元の倍率m0と等しく、倍率が変化し始めるのは、第(j+1)目の倍率からである。これは後半のズーミング期間が、第j番目のフレームFjから始まることを意味する。   First, the cut-out center point P changes from the 0th point P0 to the nth point Pn. Actually, however, the jth and subsequent points Pj˜ are all the nth point Pn. The movement of the cut-out center point P is completed at the j-th frame Fj. This means that the first panning period is completed by the j-th frame Fj. On the other hand, the magnification m changes from the 0th magnification m0 to the nth magnification mn, but actually, the magnification is changed up to the jth magnification mj and is the same as the original magnification m0. It starts from the (j + 1) -th magnification. This means that the latter zooming period starts from the j-th frame Fj.

一方、平面傾斜角φは、この例の場合、移動経路Aに沿って移動中は、常に同一の値でよい。平面傾斜角φは、切り出しの向きを定めるパラメータであるが、図37に示す回転基準軸Ji,Jj〜Jnを基準に定めた角度であるので、方位角αが同じであれば、平面傾斜角φは常に同一の値に固定しておけばよい。この平面傾斜角φの取り扱いについては、後にまとめて説明する。   On the other hand, the plane inclination angle φ may always be the same value during movement along the movement path A in this example. The plane inclination angle φ is a parameter that determines the cutting direction, but is an angle determined with reference to the rotation reference axes Ji, Jj to Jn shown in FIG. φ should always be fixed to the same value. The handling of the plane inclination angle φ will be described later.

ここに示す例のように、移行期間担当部172が、移行期間前半のパンニング期間において、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わる実切出条件を定め、移行期間後半のズーミング期間において、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めるようにすると、ユーザから見ると、動体検出時に、まず、視野が動体位置まで移動するパンニングが行われた後、動体観察に適した倍率までズーミングが行われることになる。このように、倍率固定のまま前半にパンニングを行う方法をとると、ユーザは位置関係の把握をより直感的に行うことができる。なお、後半のズーミングでは、mn>m0の場合はズームイン動作になるが、mn<m0の場合はズームアウト動作になる。   As in the example shown here, the transition period charge unit 172 changes the cutting center point P from the standard cutting center point P0 to the target cutting center point Pn in stages during the panning period of the first half of the transition period. In the zooming period in the latter half of the transition period, when the moving condition is detected, from the viewpoint of the user, first, when the moving condition is detected, the magnification m is changed stepwise from the standard magnification m0 to the target magnification mn. After panning in which the visual field moves to the moving object position, zooming is performed to a magnification suitable for moving object observation. In this way, if the panning is performed in the first half while the magnification is fixed, the user can more intuitively grasp the positional relationship. In the latter zooming, the zoom-in operation is performed when mn> m0, but the zoom-out operation is performed when mn <m0.

ただ、上例のようにパンニングとズーミングとを期間を分けて実施すると、移行期間が長くなり、また、図25の切出領域Ejのような設定が行われると、一部分が歪曲円形画像Sの領域からはみ出してしまう弊害も生じる。このような弊害を避けるには、移行期間担当部172が、移行期間の全期間をパンニング期間およびズーミング期間に設定し、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わると同時に、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めるようにし、パンニングとズーミングとを並行して行うようにすればよい。この場合、第0番目のフレームF0から第n番目のフレームFnに向かって、切出中心点Pと倍率mとが並行して段階的に変化してゆくことになる。   However, if panning and zooming are performed separately as in the above example, the transition period becomes longer, and if the setting like the cutout area Ej in FIG. 25 is performed, a part of the distorted circular image S There is also an adverse effect that protrudes from the area. In order to avoid such an adverse effect, the transition period charge unit 172 sets the entire transition period as a panning period and a zooming period, and the cutting center point P changes from the standard cutting center point P0 to the target cutting center point Pn. At the same time, the actual cutting condition in which the magnification m changes stepwise from the standard magnification m0 to the target magnification mn may be determined, and panning and zooming may be performed in parallel. In this case, the cut-out center point P and the magnification m gradually change in parallel from the 0th frame F0 to the nth frame Fn.

<8−2.切出中心点Pの移動(パンニング)>
続いて、パンニングを行うための具体的な切出中心点Pの移動方法を考えてみる。一般に、パンニングの方法には、等速パンニングと不等速パンニングとが知られている。たとえば、通常のレンズを装着したビデオカメラを用いて、水平パンニングを行う場合、カメラを水平方向へ回転させることになるが、回転角速度を一定にすれば等速パンニングとなり、回転角速度を変化させれば不等速パンニングになる。ところが、本発明のように、魚眼レンズを装着したビデオカメラによって撮影された歪曲円形画像を利用して、パンニング撮影で得られるような平面正則画像を擬似的に得る処理を行う場合、通常のレンズを装着したビデオカメラのパンニング操作とは若干異なった取り扱いを行う必要がある。
<8-2. Movement of the cutting center point P (panning)>
Next, consider a specific method of moving the cut center point P for panning. In general, constant-speed panning and unequal-speed panning are known as panning methods. For example, when performing horizontal panning using a video camera equipped with a normal lens, the camera will be rotated in the horizontal direction. However, if the rotational angular velocity is kept constant, panning will be constant and the rotational angular velocity can be changed. Panning is not uniform. However, as in the present invention, when performing processing for obtaining a planar regular image as obtained by panning shooting using a distorted circular image shot by a video camera equipped with a fisheye lens, a normal lens is used. It needs to be handled slightly differently from the panning operation of the attached video camera.

まず、等速パンニングを行うことを考えてみよう。魚眼レンズを用いて撮影された歪曲円形画像を用いて擬似的にパンニングを行う場合、切出中心点Pを等速移動させても、等速パンニングの効果は得られない。たとえば、図37に示す例では、前半のパンニング期間に、切出中心点Pを移動経路Aに沿って点P0から点Pjへ移動させることになるが、点Pの移動速度を一定に維持した場合、通常のレンズを装着したビデオカメラによる等速パンニングの効果は得られない。これは、歪曲円形画像Sの中心部分と周辺部分とでは、撮影対象の画角が異なっているためである。   First, consider performing constant-speed panning. When performing pseudo panning using a distorted circular image captured using a fisheye lens, the effect of constant speed panning cannot be obtained even if the cut center point P is moved at a constant speed. For example, in the example shown in FIG. 37, the extraction center point P is moved from the point P0 to the point Pj along the movement path A in the first half of the panning period, but the movement speed of the point P is kept constant. In this case, the effect of constant-speed panning by a video camera equipped with a normal lens cannot be obtained. This is because the angle of view of the subject to be photographed differs between the central portion and the peripheral portion of the distorted circular image S.

図39は、本発明に係る等速パンニングの具体的方法を示す側面図である。図の水平線は歪曲円形画像Sが形成されたXY平面を示し、半円は、この歪曲円形画像S上に定義された仮想球面Hを示している。ここでは、図の右方を向いた矢印Aの方向に切出中心点Pの移動経路をとり、図示の点P0から点Pnに向けてn段階からなる等速パンニングを行うことを考えてみよう。   FIG. 39 is a side view showing a specific method of constant velocity panning according to the present invention. The horizontal line in the figure indicates the XY plane on which the distorted circular image S is formed, and the semicircle indicates the virtual spherical surface H defined on the distorted circular image S. Here, let us consider taking a moving path of the cutting center point P in the direction of the arrow A pointing to the right in the figure, and performing constant-speed panning consisting of n stages from the point P0 to the point Pn in the figure. .

§2で述べたとおり、XY平面上の任意の点Pに対して、仮想球面H上に対応点Qを定義することができる。この場合、2点P,Qには、「原点Oに向かって仮想球面H上の点Qに入射した外光がXY平面上の点Pに到達する」という関係があり、正射影方式の魚眼レンズを用いた場合、対応点Qは点Pの真上の点(同じXY座標をもつ点)になる。図39に示す点Q0,Q1,... ,Qi,... ,Qnは、それぞれ点P0,P1,... ,Pi,... ,Pnの対応点である。XY平面上の歪曲円形画像Sが歪んでいるのは、仮想球面H上の球面画像をXY平面上に投影したためである。いわば、仮想球面H上の実映像空間が、XY平面上の魚眼映像空間に歪んで収容されていることになる。   As described in §2, the corresponding point Q can be defined on the phantom spherical surface H for any point P on the XY plane. In this case, the two points P and Q have a relationship that “external light incident on the point Q on the phantom spherical surface H toward the origin O reaches the point P on the XY plane”. Is used, the corresponding point Q is a point immediately above the point P (a point having the same XY coordinates). The points Q0, Q1,..., Qi,..., Qn shown in FIG. 39 are corresponding points of the points P0, P1,. The distorted circular image S on the XY plane is distorted because the spherical image on the virtual spherical surface H is projected onto the XY plane. In other words, the real image space on the virtual spherical surface H is distorted and accommodated in the fish-eye image space on the XY plane.

通常のレンズを装着したビデオカメラを用いた等速パンニングは、図39の点P0の位置(原点Oの位置)から仮想球面H上の実映像空間を望む視線ベクトルを考え、この視線ベクトルを等角速度で運動させることに相当する。したがって、通常のレンズを装着したビデオカメラによる等速パンニングの効果を得るためには、XY平面上における切出中心点Pの運動ではなく、仮想球面H上における対応点Qの運動が、等速運動となるようにすればよい。   Constant velocity panning using a video camera equipped with a normal lens considers a line-of-sight vector in which the real image space on the virtual spherical surface H is desired from the position of the point P0 (the position of the origin O) in FIG. This is equivalent to exercising at an angular velocity. Therefore, in order to obtain the effect of constant-speed panning by a video camera equipped with a normal lens, the motion of the corresponding point Q on the virtual spherical surface H is not constant motion but the motion of the cut-out center point P on the XY plane. It should be exercised.

たとえば、図示のとおり、切出中心点Pを、点P0から点Pnに向けてn段階に分けて移動させる場合、第i番目の点Piの移動距離ai(移動始点P0から移動経路Aに沿った距離)が時間tに対して線形変化するようにしても、等速パンニングの効果は得られない。等速パンニングの効果を得るためには、第i番目の対応点Qiの仮想球面H上での移動距離bi(移動始点Q0から、図に矢印Bで示す仮想球面上での移動経路Bに沿った距離:別言すれば、円弧Q0−Qiの長さ)が時間tに対して線形変化するように、第i番目の点Piの位置を定めればよい。   For example, as shown in the figure, when the cut center point P is moved in n stages from the point P0 to the point Pn, the movement distance ai of the i-th point Pi (along the movement path A from the movement start point P0). The effect of constant-speed panning cannot be obtained even if the distance) changes linearly with respect to time t. In order to obtain the effect of constant-speed panning, the i-th corresponding point Qi moves on the virtual spherical surface H (from the movement starting point Q0 along the moving path B on the virtual spherical surface indicated by the arrow B in the figure). In other words, the position of the i-th point Pi may be determined so that the arc Q0-Qi) changes linearly with respect to time t.

この対応点Qの運動を数式で示せば、図39の上段に示すような関係が得られる。すなわち、図示のとおり、対応点QiおよびQnの天頂角を、それぞれβiおよびβnとすれば、移動経路Aに沿った移動距離aiは、歪曲円形画像Sの半径(仮想球面Hの半径)をRとして、「ai=R・sin βi」である。そして、等速パンニングを行う場合、角度βiを0°〜βnまで、n段階にわたって等間隔で変化させる必要があるから、「βi=i/n・βn」となり、結局、「ai=R・sin (i/n・βn)」が得られる。ここで、角度βnは、点Pの最終移動距離をanとすれば、「βn=sin -1 an」である。結局、XY平面上において、点Pを移動経路Aに沿って点P0から点Pnに向けてn段階に分けて移動させる場合、第i番目の点Piの移動距離aiを、
ai=R・sin (i/n・(sin -1 an))
に設定すれば、等速パンニングの効果が得られることになる。
If the motion of the corresponding point Q is expressed by a mathematical expression, the relationship shown in the upper part of FIG. 39 is obtained. That is, as shown in the figure, if the zenith angles of the corresponding points Qi and Qn are βi and βn, respectively, the moving distance ai along the moving path A is the radius of the distorted circular image S (the radius of the phantom spherical surface H) R As “ai = R · sin βi”. When performing constant speed panning, it is necessary to change the angle βi from 0 ° to βn at equal intervals over n stages, so that “βi = i / n · βn”, and eventually “ai = R · sin (I / n · βn) ”is obtained. Here, the angle βn is “βn = sin −1 an”, where an final moving distance of the point P is an. After all, on the XY plane, when moving the point P along the moving path A from the point P0 to the point Pn in n stages, the moving distance ai of the i-th point Pi is
ai = R · sin (i / n · (sin −1 an))
If set to, the effect of constant speed panning can be obtained.

図40は、この等速パンニングの具体的方法を示す平面図およびグラフである。上段に示す円形の図は、XY平面上に定義された魚眼映像空間(歪曲円形画像S)を示しており、右方向に移動経路Aがとられている。切出中心点Pの始点は標準切出中心点P0であり、終点は目標切出中心点Pnである。切出中心点Pは、始点P0から終点Pnへ向かう移動経路Aに沿って、距離anだけ移動することになる。移動はn段階に分けて行われ、第i段階の移動位置を示す点Piは、始点P0から移動距離aiだけ離れた点になる。このXY平面は、歪んだ魚眼映像空間に対応するので、等速パンニングを行う場合、XY平面上での点Pの移動速度は等速度にならず、図示のとおり、時間tとともに速度が減少してゆく。   FIG. 40 is a plan view and a graph showing a specific method of this constant velocity panning. The circular diagram shown in the upper part shows a fish-eye image space (distorted circular image S) defined on the XY plane, and a movement path A is taken in the right direction. The starting point of the cutting center point P is the standard cutting center point P0, and the end point is the target cutting center point Pn. The cut-out center point P moves by a distance an along the moving route A from the start point P0 to the end point Pn. The movement is performed in n stages, and the point Pi indicating the i-th stage movement position is a point separated from the start point P0 by the movement distance ai. Since this XY plane corresponds to a distorted fish-eye image space, when performing constant-speed panning, the moving speed of the point P on the XY plane does not become constant, and the speed decreases with time t as shown in the figure. I will do it.

一方、図40の中段に示す矩形の図は、仮想球面H上に定義された実映像空間を示しており、右方向に移動経路Bがとられている。この移動経路Bは、仮想球面Hの円周に沿った経路であり、その始点は点P0の対応点Q0、終点は点Pnの対応点Qnである。対応点Qは、始点Q0から終点Qnへ向かう移動経路Bに沿って、距離bnだけ移動することになる。移動はn段階に分けて行われ、第i段階の移動位置を示す点Qiは、始点Q0から移動距離biだけ離れた点になる。上段の図と中段の図とを結ぶ破線は、各点P0,... ,Pi,... ,Pnと、各点Q0,... ,Qi,... ,Qnとの対応関係を示している。等速パンニングを行う場合、図示のとおり、実映像空間での対応点Qの移動速度を等速度にすればよい。   On the other hand, the rectangular figure shown in the middle of FIG. 40 shows the real video space defined on the virtual spherical surface H, and the movement path B is taken in the right direction. This movement path B is a path along the circumference of the phantom spherical surface H, the start point of which is the corresponding point Q0 of the point P0, and the end point thereof is the corresponding point Qn of the point Pn. The corresponding point Q moves by the distance bn along the moving route B from the start point Q0 to the end point Qn. The movement is performed in n stages, and the point Qi indicating the i-th movement position is a point separated from the starting point Q0 by the movement distance bi. A broken line connecting the upper diagram and the middle diagram indicates the correspondence between the points P0, ..., Pi, ..., Pn and the points Q0, ..., Qi, ..., Qn. Show. When performing constant speed panning, the moving speed of the corresponding point Q in the real video space may be set to a constant speed as shown in the figure.

図40の下段左に示すグラフは、仮想球面上を点Q0〜点Qnに向かって移動経路Bに沿って移動する対応点Qの時間tに対する移動距離bを示すグラフであり、下段右に示すグラフは、XY平面上を点P0〜点Pnに向かって移動経路Aに沿って移動する切出中心点Pの時間tに対する移動距離aを示すグラフである。図示のとおり、対応点Qが等速運動をするのに対して、切出中心点Pの運動は等速運動にならない。結局、本発明に係るシステムにおいて、通常のレンズを装着したビデオカメラを用いた等速パンニングと同等の効果を得るためには、移行期間担当部172が、対応点Qの仮想球面上の運動が等速運動となるように、切出中心点Pの位置を変化させるようにすればよい。   The graph shown at the lower left of FIG. 40 is a graph showing the movement distance b with respect to time t of the corresponding point Q moving along the movement path B on the phantom sphere toward the points Q0 to Qn, and is shown on the lower right. The graph is a graph showing the movement distance a with respect to time t of the cut center point P moving along the movement path A toward the points P0 to Pn on the XY plane. As shown in the figure, the corresponding point Q moves at a constant speed, whereas the movement of the cutting center point P does not move at a constant speed. Eventually, in the system according to the present invention, in order to obtain the same effect as constant-speed panning using a video camera equipped with a normal lens, the transition period charge unit 172 causes the movement of the corresponding point Q on the virtual sphere. What is necessary is just to make it change the position of the cutting center point P so that it may become constant velocity motion.

このように、本発明において等速パンニングを行う基本原理がわかれば、この基本原理を利用して、所望の不等速パンニングを行うことが可能である。不等速パンニングは、文字どおり、等速パンニング以外のパンニング手法をすべて含む概念であるが、ここでは、パンニング期間の開始部分および終了部分の速度が中間部分の速度よりも遅くなるような視線移動を行う不等速パンニングを例示する。このような不等速パンニングの手法は、物理的なカメラの動きに合致するので、視聴者に対して自然な動きを提示する利点をもち、様々な映像表現に広く利用されている。   As described above, if the basic principle of performing constant speed panning in the present invention is known, it is possible to perform desired inconstant speed panning using this basic principle. Invariant speed panning is a concept that literally includes all panning methods other than constant speed panning, but here, we move the line of sight so that the speed of the start and end parts of the panning period is slower than the speed of the intermediate part. Illustrates the non-uniform panning performed. Such an inconstant speed panning method matches the physical movement of the camera, and thus has the advantage of presenting a natural movement to the viewer, and is widely used for various video expressions.

図41は、本発明に係る不等速パンニングの具体的方法を示す平面図およびグラフである。図40と同様に、上段に示す円形の図は、XY平面上に定義された魚眼映像空間(歪曲円形画像S)を示し、中段に示す矩形の図は、仮想球面H上に定義された実映像空間を示し、下段左に示すグラフは、仮想球面上を移動経路Bに沿って移動する対応点Qの移動距離bを示し、下段右に示すグラフは、XY平面上を移動経路Aに沿って移動する切出中心点Pの移動距離aを示している。   FIG. 41 is a plan view and a graph showing a specific method of inconstant speed panning according to the present invention. Similar to FIG. 40, the circular diagram shown in the upper part shows the fish-eye image space (distorted circular image S) defined on the XY plane, and the rectangular figure shown in the middle part is defined on the virtual spherical surface H. The real image space is shown, the graph shown on the left in the lower row shows the movement distance b of the corresponding point Q that moves along the movement path B on the virtual sphere, and the graph shown on the lower right shows the movement route A on the XY plane The moving distance a of the cutting center point P moving along is shown.

ここで、下段左のグラフに注目すると、対応点Qの運動は、運動開始部分および運動終了部分の速度が中間部分の速度よりも遅くなるように設定されている。このような設定は、上述した一般的な不等速パンニングに対応する運動のための設定であり、実映像空間での対応点Qは、中段の矩形の図に示すような運動を行うことになる。このように、実映像空間での対応点Qの運動を規定すれば、これに対応する切出中心点PのXY平面上での運動を決定することができる。下段右のグラフは、こうして決定された切出中心点Pの運動を示すものであり、上段の円形の図には、移動経路Aに沿ってこのような運動をする切出中心点Pの軌跡が示されている。   Here, paying attention to the lower left graph, the motion of the corresponding point Q is set such that the speed of the motion start portion and the motion end portion is slower than the speed of the intermediate portion. Such a setting is a setting for the motion corresponding to the above-described general inconstant panning, and the corresponding point Q in the real image space is to perform the motion as shown in the middle rectangular figure. Become. Thus, if the motion of the corresponding point Q in the real video space is defined, the motion on the XY plane of the cut-out center point P corresponding to this can be determined. The lower right graph shows the movement of the cut center point P determined in this way, and the upper circular diagram shows the locus of the cut center point P that makes such a movement along the movement path A. It is shown.

結局、この場合は、移行期間担当部172が、対応点Qの仮想球面上の運動が、パンニング期間の開始部分および終了部分の速度が中間部分の速度よりも遅くなるような不等速運動となるように、切出中心点Pの位置を変化させるようにすればよい。このような切出中心点Pの運動を数式で示せば、図41の上段に示すように、
ai=R・sin (bi/bn・(sin -1 an))
となる(前掲の等速パンニングの式における係数「i/n」を、係数「bi/bn」に置き換えた式)。ここで、aiは、XY平面上において、点Pを移動経路Aに沿って点P0から点Pnに向けてn段階に分けて移動させる場合の第i番目の点Piの移動距離であり、bnは、図41の中段に示すように、仮想球面Hに沿って測定した点Q0から点Qnまでの距離、biは、同様に、仮想球面Hに沿って測定した点Q0から点Qiまでの距離である。そして、距離biは、図41の下段左のグラフによって与えられる時間tiにおける移動距離ということになる。したがって、この図41の下段左のグラフを定義しておけば、上式に基づいて、同図下段右のグラフを演算によって求めることができ、所定の時間tiにおける距離ai(すなわち、切出中心点Pの位置)を一義的に決定することができる。
Eventually, in this case, the transition period charge unit 172 determines that the motion of the corresponding point Q on the phantom spherical surface is an inconstant motion such that the speed of the start part and the end part of the panning period is slower than the speed of the intermediate part. Thus, the position of the cut-out center point P may be changed. If the movement of such a cutting center point P is expressed by a mathematical formula, as shown in the upper part of FIG.
ai = R · sin (bi / bn · (sin −1 an))
(Equation in which the coefficient “i / n” in the constant velocity panning equation is replaced with the coefficient “bi / bn”). Here, ai is the movement distance of the i-th point Pi when moving the point P along the movement path A from the point P0 to the point Pn in n stages on the XY plane, and bn 41, the distance from the point Q0 to the point Qn measured along the virtual spherical surface H as shown in the middle part of FIG. 41, and bi is the distance from the point Q0 to the point Qi measured along the virtual spherical surface H, similarly. It is. The distance bi is the moving distance at time ti given by the lower left graph in FIG. Therefore, if the lower left graph of FIG. 41 is defined, the lower right graph can be obtained by calculation based on the above equation, and the distance ai (that is, the center of extraction) at a predetermined time ti. The position of the point P) can be uniquely determined.

<8−3.倍率mの変更(ズーミング)>
次に、ズーミングを行うための具体的な倍率mの変更方法を考えてみる。一般に、ズーミングの方法も、等速ズーミングと不等速ズーミングとが知られている。通常のレンズを装着したビデオカメラの場合、光学的なズーミングは、対物レンズを光軸に沿って移動させる操作によって行う。対物レンズの移動速度が等速なら等速ズーミング、不等速なら不等速ズーミングになる。通常、不等速ズーミングを行う場合は、不等速パンニングと同様に、ズーミング期間の開始部分および終了部分の対物レンズの移動速度が、中間部分の移動速度よりも遅くなるような設定がなされる。
<8-3. Change magnification m (zooming)>
Next, consider a specific method of changing the magnification m for zooming. In general, constant speed zooming and inconstant speed zooming are also known as zooming methods. In the case of a video camera equipped with a normal lens, optical zooming is performed by an operation of moving the objective lens along the optical axis. If the moving speed of the objective lens is constant, it is constant speed zooming, and if it is not constant, it is non-constant zooming. Normally, when performing non-uniform zooming, the moving speed of the objective lens at the beginning and end of the zooming period is set to be slower than the moving speed of the intermediate portion, as in non-uniform panning. .

本発明の場合、ズーミング操作は、倍率mを変更することによって行われる。§2で述べたとおり、倍率mは、図9に示すモデルにおける三次元XYZ直交座標系の原点Oと、二次元UV直交座標系の原点Gとの距離を決定するパラメータであり、両点の距離は、仮想球面Hの半径をRとした場合に、m・Rで与えられることになる。図10に示すように、倍率mを小さく設定すれば、より広い切出領域E1が設定され、フレームF1には広角画像が得られることになり、図11に示すように、倍率mを大きく設定すれば、より狭い切出領域E2が設定され、フレームF2には望遠画像が得られることになる。   In the case of the present invention, the zooming operation is performed by changing the magnification m. As described in §2, the magnification m is a parameter for determining the distance between the origin O of the three-dimensional XYZ orthogonal coordinate system and the origin G of the two-dimensional UV orthogonal coordinate system in the model shown in FIG. The distance is given by m · R, where R is the radius of the phantom spherical surface H. As shown in FIG. 10, if the magnification m is set small, a wider cutout area E1 is set, and a wide-angle image is obtained in the frame F1, and the magnification m is set large as shown in FIG. Then, a narrower cutout area E2 is set, and a telephoto image is obtained in the frame F2.

したがって、ズーミング操作は、移行期間担当部172が、移行期間の全期間もしくは一部の期間をズーミング期間に設定し、当該ズーミング期間の間、時間軸に沿って単調増加(mn>m0の場合:ズームイン動作)もしくは単調減少(mn<m0の場合:ズームアウト動作)するように、倍率mを標準倍率m0から目標倍率mnへと変化させることにより行うことができる。   Therefore, in the zooming operation, the transition period charge unit 172 sets all or a part of the transition period as the zooming period, and monotonically increases along the time axis during the zooming period (when mn> m0: It can be performed by changing the magnification m from the standard magnification m0 to the target magnification mn so that the zoom-in operation) or monotonously decreases (when mn <m0: zoom-out operation).

図42は、本発明に係る等速および不等速ズーミングの具体的方法を示すグラフであり、上段は等速ズーミングのグラフ、下段は不等速ズーミングのグラフである。いずれも横軸は時間t、縦軸は倍率mを示している。等速ズーミングの場合は、上段のグラフに示すとおり、倍率mは、時間t0〜tnのズーミング期間に、標準倍率m0から目標倍率mnまで線形増加する。したがって、倍率をn段階にわたって段階的に変化させる場合、第i番目の段階の倍率miは、図示のとおり、
mi=m0+i/n・(mn−m0)
で与えられる。したがって、等速ズーミング動作は、移行期間担当部172が、ズーミング期間の間、倍率mを時間軸に沿って線形変化させることにより行うことができる。
FIG. 42 is a graph showing a specific method of constant speed and inconstant speed zooming according to the present invention, wherein the upper part is a constant speed zooming graph and the lower part is a non-constant zooming graph. In either case, the horizontal axis represents time t, and the vertical axis represents the magnification m. In the case of constant speed zooming, as shown in the upper graph, the magnification m increases linearly from the standard magnification m0 to the target magnification mn during the zooming period from time t0 to tn. Therefore, when the magnification is changed in stages over n stages, the i-th stage magnification mi is
mi = m0 + i / n · (mn−m0)
Given in. Therefore, the constant speed zooming operation can be performed by the transition period charge unit 172 changing the magnification m linearly along the time axis during the zooming period.

一方、不等速ズーミングの場合は、下段のグラフに示すとおり、倍率mは、時間t0〜tnのズーミング期間に、標準倍率m0から目標倍率mnまで非線形増加する。したがって、倍率をn段階にわたって段階的に変化させる場合、第i番目の段階の倍率miは、図示のとおり、
mi=m0+Ki・(mn−m0)
で与えられる。ここで、係数Kiは、下段のグラフの形状によって決定される第i番目の段階に固有の比例係数である。
On the other hand, in the case of non-uniform speed zooming, as shown in the lower graph, the magnification m increases non-linearly from the standard magnification m0 to the target magnification mn during the zooming period from time t0 to tn. Therefore, when the magnification is changed in stages over n stages, the i-th stage magnification mi is
mi = m0 + Ki · (mn−m0)
Given in. Here, the coefficient Ki is a proportionality coefficient unique to the i-th stage determined by the shape of the lower graph.

したがって、予め図42の下段に示すグラフを用意しておき、移行期間担当部172が、このグラフに応じて倍率mを標準倍率m0から目標倍率mnまで変化させれば、ズーミング期間の開始部分および終了部分の倍率変化速度が、中間部分の変化速度よりも遅くなるような不等速変化するように、倍率mを時間軸に沿って変化させることができ、不等速ズーミングを行うことができる。   Therefore, if the graph shown in the lower part of FIG. 42 is prepared in advance and the transition period charge unit 172 changes the magnification m from the standard magnification m0 to the target magnification mn in accordance with this graph, the zoom period start portion and The magnification m can be changed along the time axis so that the magnification change speed at the end portion changes at a non-uniform speed that is slower than the change speed at the intermediate portion, so that the non-uniform speed zooming can be performed. .

図43は、上述した等速および不等速パンニングの具体的なステップを示す表であり、合計8段階のステップによるパンニング動作が例示されている。各表の左欄にはステップの番号、右欄には当該ステップの時点における対応点Qの実映像空間(仮想球面上)での移動距離bが記載されている。図43(a) に示す等速パンニングでは、距離bが線形増加しているのに対して、図43(b) に示す不等速パンニングでは、距離bが非線形増加(開始部分および終了部分の増加速度が中間部分の増加速度よりも遅くなるような非線形増加)していることがわかる。   FIG. 43 is a table showing specific steps of the above-described constant speed and non-uniform speed panning, and illustrates a panning operation in a total of eight steps. The left column of each table lists the step number, and the right column lists the movement distance b in the real video space (on the virtual sphere) of the corresponding point Q at the time of the step. In the constant speed panning shown in FIG. 43 (a), the distance b increases linearly, whereas in the inconstant speed panning shown in FIG. 43 (b), the distance b increases non-linearly (in the start portion and the end portion). It can be seen that the increase rate is a non-linear increase in which the increase rate is slower than the increase rate in the intermediate portion.

ここで、bnの値は、目標切出中心点Pnの位置(すなわち、検出された動体の位置)に応じて変動することになるが、これに乗じられる係数の部分は表に掲載された値に固定しておくことができるので、この係数の部分を関数式もしくはテーブルとして用意しておけば、テーブルの内容に応じた所望のパンニング動作を行うことが可能である。   Here, the value of bn varies depending on the position of the target cut-out center point Pn (that is, the position of the detected moving object), and the coefficient portion to be multiplied is the value listed in the table. Therefore, if this coefficient part is prepared as a function expression or a table, a desired panning operation can be performed according to the contents of the table.

一方、図44は、上述した等速および不等速ズーミングの具体的なステップを示す表であり、合計8段階のステップによるズーミング動作が例示されている。各表の左欄にはステップの番号、右欄には当該ステップの時点における実倍率mが記載されている。図44(a) に示す等速ズーミングでは、倍率mが線形増加しているのに対して、図44(b) に示す不等速ズーミングでは、倍率mが非線形増加(開始部分および終了部分の増加速度が中間部分の増加速度よりも遅くなるような非線形増加)していることがわかる。   On the other hand, FIG. 44 is a table showing specific steps of the above-described constant speed and inconstant speed zooming, and illustrates a zooming operation by a total of eight steps. The left column of each table lists the step number, and the right column lists the actual magnification m at the time of the step. In the constant speed zooming shown in FIG. 44 (a), the magnification m increases linearly, whereas in the non-constant speed zooming shown in FIG. 44 (b), the magnification m increases nonlinearly (in the start and end portions). It can be seen that the increase rate is a non-linear increase in which the increase rate is slower than the increase rate in the intermediate portion.

ここでも、目標倍率mnの値は検出された動体のサイズに応じて変動することになるが、これに乗じられる係数の部分は表に掲載された値に固定しておくことができるので、この係数の部分を関数式もしくはテーブルとして用意しておけば、テーブルの内容に応じた所望のズーミング動作を行うことが可能である。   Here again, the value of the target magnification mn varies depending on the size of the detected moving object, but the coefficient portion to be multiplied by this can be fixed to the value listed in the table. If the coefficient portion is prepared as a function expression or a table, a desired zooming operation according to the contents of the table can be performed.

図45は、図36に示す移行期間担当部172の詳細構成を示すブロック図である。図示のとおり、この移行期間担当部172は、実切出中心点決定部70、実平面傾斜角決定部80、実倍率決定部90によって構成されている。   FIG. 45 is a block diagram showing a detailed configuration of the transition period charge unit 172 shown in FIG. As shown in the figure, the transition period charge unit 172 includes an actual cutting center point determination unit 70, an actual plane inclination angle determination unit 80, and an actual magnification determination unit 90.

実切出中心点決定部70は、標準切出中心点P0と目標切出中心点Pnとに基づいて、点P0から点Pnへ移行するように段階的に変わる実切出中心点Pの値を定める処理を実行する。その具体的な方法は、上述した等速パンニングや不等速パンニングの手法として述べたとおりである。ここで、パンニングの速度は、予め定めた関数に基づいて制御することが可能である。   The actual cutting center point determination unit 70 determines the value of the actual cutting center point P that changes stepwise from the point P0 to the point Pn based on the standard cutting center point P0 and the target cutting center point Pn. Execute the process to determine. The specific method is as described as the method of the above-mentioned constant speed panning or inconstant speed panning. Here, the panning speed can be controlled based on a predetermined function.

要するに、所望の速度でパンニングを行うには、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、このパンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、切出中心点Pについての仮想球面上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定すればよい。   In short, in order to perform panning at a desired speed, all or part of the transition period is set as the panning period, and during this panning period, the cutting center point P is changed from the standard cutting center point P0 to the target cutting center. When changing to the point Pn step by step, the corresponding point Q on the virtual spherical surface with respect to the cutting center point P is set on a predetermined spherical movement path set in advance as a predetermined spherical surface set as a function related to time What is necessary is just to determine the position of the cutting center point P so that it may move at a moving speed.

たとえば、図46に示すように、実切出中心点決定部70を、関数格納部71と対応点変換部72よって構成し、関数格納部71には、対応点Qの仮想球面上の移動距離bと時間tとの関係を示す関数を格納しておき、対応点変換部72によって、当該関数を用いて求まる「時間tにおける対応点Qの位置」に対応するXY平面上の点を、当該時間tにおける切出中心点Pとして出力するようにすれば、用意した関数に応じた所望の速度でパンニングを行うことが可能になる。   For example, as shown in FIG. 46, the actual cut center point determination unit 70 is configured by a function storage unit 71 and a corresponding point conversion unit 72, and the function storage unit 71 includes a movement distance of the corresponding point Q on the virtual sphere. A function indicating the relationship between b and time t is stored, and a point on the XY plane corresponding to the “position of the corresponding point Q at time t” obtained by the corresponding point conversion unit 72 using the function is By outputting as the cut-out center point P at time t, panning can be performed at a desired speed according to the prepared function.

具体的には、図40の下段左に示すグラフに対応する関数式や、図43(a) の距離b欄の係数に対応する数値テーブルを関数格納部71に格納しておけば、等速パンニングを行うことが可能になる。また、図41の下段左に示すグラフに対応する関数式や、図43(b) の距離b欄の係数に対応する数値テーブルを関数格納部71に格納しておけば、開始部分および終了部分の速度が中間部分の速度よりも遅くなるような不等速パンニングを行うことが可能になる。   More specifically, if a function expression corresponding to the graph shown in the lower left of FIG. 40 or a numerical table corresponding to the coefficient in the distance b column of FIG. Panning can be performed. Further, if the function expression corresponding to the graph shown in the lower left of FIG. 41 and the numerical value table corresponding to the coefficient in the distance b column of FIG. 43B are stored in the function storage unit 71, the start part and the end part It is possible to perform non-uniform speed panning in which the speed of is slower than the speed of the intermediate portion.

一方、実倍率決定部90は、標準倍率m0と目標倍率mnに基づいて、倍率m0から倍率mnへ移行するように段階的に変わる実倍率mの値を定める処理を実行する。その具体的な方法は、上述した等速ズーミングや不等速ズーミングの手法として述べたとおりである。ここで、ズーミングの速度は、予め定めた関数に基づいて制御することが可能である。   On the other hand, the actual magnification determining unit 90 executes a process of determining the value of the actual magnification m that changes stepwise so as to shift from the magnification m0 to the magnification mn based on the standard magnification m0 and the target magnification mn. The specific method is as described as the above-mentioned method of constant speed zooming and unequal speed zooming. Here, the zooming speed can be controlled based on a predetermined function.

たとえば、図47に示すように、実倍率決定部90を、関数格納部91と関数参照部92によって構成し、関数格納部91には、倍率mと時間tとの関係を示す関数を格納しておき、関数参照部92によって、当該関数を用いて求まる時間tにおける倍率を、当該時間tにおける倍率mとして出力するようにすれば、用意した関数に応じた所望の速度でズーミングを行うことが可能になる。   For example, as shown in FIG. 47, the actual magnification determination unit 90 is configured by a function storage unit 91 and a function reference unit 92, and the function storage unit 91 stores a function indicating the relationship between the magnification m and the time t. If the function reference unit 92 outputs the magnification at the time t obtained using the function as the magnification m at the time t, zooming can be performed at a desired speed according to the prepared function. It becomes possible.

具体的には、図42の上段に示すグラフに対応する関数式や、図44(a) の倍率m欄の係数に対応する数値テーブルを関数格納部91に格納しておけば、等速ズーミングを行うことが可能になる。また、図42の下段に示すグラフに対応する関数式や、図44(b) の倍率m欄の係数に対応する数値テーブルを関数格納部91に格納しておけば、開始部分および終了部分の速度が中間部分の速度よりも遅くなるような不等速ズーミングを行うことが可能になる。   Specifically, if a function expression corresponding to the graph shown in the upper part of FIG. 42 and a numerical table corresponding to the coefficient in the magnification m column of FIG. It becomes possible to do. Further, if the function expression corresponding to the graph shown in the lower part of FIG. 42 and the numerical value table corresponding to the coefficient in the magnification m column in FIG. It is possible to perform unequal-speed zooming in which the speed is lower than that of the intermediate portion.

<8−4.平面傾斜角φの決定>
最後に、平面傾斜角φの決定方法を考えてみる。図45に示す実平面傾斜角決定部80は、標準平面傾斜角φ0と目標平面傾斜角φnに基づいて、角度φ0から角度φnへ移行するように段階的に変わる実平面傾斜角φの値を定める処理を実行する。ただ、実用上は、平面傾斜角φを段階的に変える処理は行う必要はない。以下にその理由を説明する。
<8-4. Determination of plane inclination angle φ>
Finally, consider a method for determining the plane inclination angle φ. The actual plane inclination angle determination unit 80 shown in FIG. 45 determines the value of the actual plane inclination angle φ that changes stepwise so as to shift from the angle φ0 to the angle φn based on the standard plane inclination angle φ0 and the target plane inclination angle φn. Execute the specified process. However, in practice, it is not necessary to perform the process of changing the plane inclination angle φ stepwise. The reason will be described below.

図28に示す魚眼監視システム100において、画像切出変換部150が、実切出条件の1つとして平面傾斜角φを必要とするのは、図17に示す画像変換式において、画像の切り出し向きを示すパラメータとしてφが利用されるためである。この平面傾斜角φは、図9に示すように、二次元UV直交座標系のU軸(平面正則画像の横軸)の向きを定めるパラメータである。すなわち、二次元UV直交座標系は、視線ベクトルn上における原点Oから距離m・Rだけ離れた点Gを原点とし、UV平面が視線ベクトルnに直交する座標系として定義され、視線ベクトルnを回転軸とした回転ファクターが平面傾斜角φとして定義される。具体的には、平面傾斜角φは、「回転基準軸JとU軸とのなす角」と定義され、「回転基準軸J」は、「原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸」と定義される。   In the fish-eye monitoring system 100 shown in FIG. 28, the image cut-out conversion unit 150 requires the plane inclination angle φ as one of the actual cut-out conditions in the image conversion formula shown in FIG. This is because φ is used as a parameter indicating the direction. As shown in FIG. 9, the plane inclination angle φ is a parameter that determines the direction of the U axis (horizontal axis of the plane regular image) of the two-dimensional UV orthogonal coordinate system. That is, the two-dimensional UV orthogonal coordinate system is defined as a coordinate system in which the origin is a point G that is a distance m · R away from the origin O on the line-of-sight vector n, and the UV plane is orthogonal to the line-of-sight vector n. A rotation factor as a rotation axis is defined as a plane inclination angle φ. Specifically, the plane inclination angle φ is defined as “the angle between the rotation reference axis J and the U axis”, and the “rotation reference axis J” is “passing through the origin G, parallel to the XY plane, and the line-of-sight vector n. Is defined as an axis orthogonal to.

そこで、まず、図18に示す例のように、魚眼レンズ付ビデオカメラ30を建物20の側壁面に取り付けた場合を考える。この場合、カメラの撮像面、すなわち、XY平面(歪曲円形画像Sが形成される面)は、実世界の鉛直面に沿った面になる。ここでは、説明の便宜上、X軸が実世界の鉛直線方向、Y軸が実世界の水平面方向となるような向きに、カメラが設置されているものとしよう。そうすると、撮像面であるXY平面には、図48に示すような外界の画像が形成される。   Therefore, first, consider a case where the video camera with fisheye lens 30 is attached to the side wall of the building 20 as in the example shown in FIG. In this case, the imaging plane of the camera, that is, the XY plane (the plane on which the distorted circular image S is formed) is a plane along the real world vertical plane. Here, for convenience of explanation, it is assumed that the camera is installed in such a direction that the X axis is in the vertical direction of the real world and the Y axis is in the horizontal plane direction of the real world. As a result, an external image as shown in FIG. 48 is formed on the XY plane, which is the imaging surface.

この図48に示す撮像画像において、原点Oの位置における実世界の鉛直軸Wは、図の真下へ向かう方向であり、X軸と一致する。ここでは、この鉛直軸Wに対してY軸がなす角度をξと定義する。図示のとおり、鉛直軸WとY軸とは直交しているので、鉛直軸Wを基準として時計まわりの方向に角度ξを定義することにすれば、図示の例では、ξ=−90°となる(Y軸は、鉛直軸Wを反時計まわりに90°回転した位置にある)。   In the captured image shown in FIG. 48, the vertical axis W in the real world at the position of the origin O is the direction directly below the figure, and coincides with the X axis. Here, an angle formed by the Y axis with respect to the vertical axis W is defined as ξ. As shown in the figure, since the vertical axis W and the Y axis are orthogonal to each other, if the angle ξ is defined in the clockwise direction with respect to the vertical axis W, in the illustrated example, ξ = −90 °. (The Y-axis is at a position obtained by rotating the vertical axis W by 90 ° counterclockwise).

ここで、この図48に示す歪曲円形画像から、切出領域Eの部分を切り出して平面正則画像に変換することを考えよう。切出領域Eの位置は切出中心点Pで指定され、サイズは倍率mで指定され、向きは平面傾斜角φで指定される。前述したように、矩形状の平面正則画像を得る場合、切出領域Eは矩形ではなく歪んだ形状になるが、ここでは説明の便宜上、矩形の切出領域Eを描いており、その長辺方向がU軸方向を示している。図示の例では、切出領域Eの長辺方向、すなわち、U軸の方向は、Y軸に平行になっている。U軸がY軸に平行となるように切り出し向きを決める理由は、撮影画像上の鉛直軸Wの方向を下方向とする向きに平面正則画像を切り出すためである。そのような向きに切り出せば、図21(a) ,(b) に示すように、常に、鉛直軸Wの方向を下方向とする平面正則画像を得ることができる。   Here, let us consider that a portion of the cutout region E is cut out from the distorted circular image shown in FIG. 48 and converted into a planar regular image. The position of the cutout area E is designated by the cutout center point P, the size is designated by the magnification m, and the direction is designated by the plane inclination angle φ. As described above, when a rectangular planar regular image is obtained, the cutout region E is not a rectangle but a distorted shape, but here, for convenience of explanation, a rectangular cutout region E is drawn, and its long side The direction indicates the U-axis direction. In the illustrated example, the long side direction of the cutout region E, that is, the direction of the U axis is parallel to the Y axis. The reason for determining the cutout direction so that the U axis is parallel to the Y axis is to cut out a planar regular image in a direction in which the direction of the vertical axis W on the captured image is a downward direction. If it is cut out in such a direction, as shown in FIGS. 21 (a) and 21 (b), it is possible to always obtain a planar regular image with the direction of the vertical axis W as the downward direction.

もちろん、得られる平面正則画像の向きは任意に設定することができるので、モニタ画面上に、実世界の景色を天地逆に表示したり、斜めに表示したりすることも可能であるが、一般的な監視用途で要求される画像は、鉛直軸Wの方向を下方向とする画像であろう。したがって、実用上、平面正則画像を切り出す際の向きは、「鉛直軸Wの方向を下方向とする画像が得られる向き」ということになる。   Of course, the orientation of the obtained planar regular image can be set arbitrarily, so it is possible to display the real world scenery upside down or diagonally on the monitor screen. An image required for typical monitoring applications will be an image with the direction of the vertical axis W in the downward direction. Therefore, in practice, the orientation when cutting out a planar regular image is “the orientation in which an image with the direction of the vertical axis W as the downward direction is obtained”.

このように「常に天地の関係が正しい平面正則画像がモニタ画面上に得られるような向きに切り出す」という基本条件を設定するならば(実用上は、そのような基本条件を設定することになろう)、図28に示す魚眼監視システムにおいて、標準切出条件格納部180には、撮影画像における実世界の鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような標準平面傾斜角φ0を設定しておき、動体検出部160が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような目標平面傾斜角φnを設定し、動体追跡部190が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、追跡平面傾斜角φ(i)を設定するようにすればよい。また、実切出条件決定部170内の移行期間担当部172が、鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、平面傾斜角φを標準平面傾斜角φ0から目標平面傾斜角φnへと変化させるようにすればよい。   In this way, if the basic condition of “always cut out in such a direction that a plane regular image with the correct top-and-bottom relationship is obtained on the monitor screen” is set (in practice, such a basic condition is set. 28) In the fish-eye monitoring system shown in FIG. 28, the standard cut-out condition storage unit 180 has a standard plane inclination such that a flat regular image is cut out in a direction with the vertical axis direction of the real world in the captured image as a downward direction. The angle φ0 is set in advance, the moving object detection unit 160 sets a target plane inclination angle φn such that a plane regular image is cut out in a direction with the vertical axis direction as a downward direction, and the moving object tracking unit 190 sets the vertical axis direction The tracking plane inclination angle φ (i) may be set so that a planar regular image is cut out in a direction in which is downward. Further, the transition period charge unit 172 in the actual cut condition determination unit 170 changes the plane tilt angle φ from the standard plane tilt angle φ0 to the target plane so that the plane regular image is cut out in the direction with the vertical axis direction as the downward direction. What is necessary is just to make it change to inclination-angle (phi) n.

そこで、「鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような平面傾斜角φ」の値がどのような値になるかを考えてみる。上述したとおり、平面傾斜角φは、「回転基準軸JとU軸とのなす角」であり、「回転基準軸J」は、「原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸」である。したがって、図48に示す例の場合、図示のとおり、回転基準軸JとU軸とのなす角として平面傾斜角φが定義されることになる。本来、回転基準軸JとU軸は、図9に示すように、原点Gを起点としたベクトルとして定義されるが、図48では、説明の便宜上、これらのベクトルの起点を切出中心点Pまで平行移動した状態を示している。また、回転基準軸JはXY平面に平行な軸であるが、U軸は必ずしもXY平面に平行な軸にはならないので、図48に示すU軸は、本来のU軸ではなく、切出中心点PにおけるU軸に対応する軸(平面正則画像に変換した場合のU軸方向)を示すことになる。   Therefore, consider what value the value of “planar inclination angle φ such that a planar regular image is cut out in a direction with the vertical axis direction as the downward direction”. As described above, the plane inclination angle φ is “the angle between the rotation reference axis J and the U axis”, and the “rotation reference axis J” is “passing through the origin G, parallel to the XY plane and orthogonal to the line-of-sight vector n”. "Axis to do". Therefore, in the example shown in FIG. 48, the plane inclination angle φ is defined as the angle formed between the rotation reference axis J and the U axis, as shown. Originally, the rotation reference axis J and the U axis are defined as vectors starting from the origin G as shown in FIG. 9, but in FIG. 48, for the sake of convenience of explanation, the starting points of these vectors are extracted as the cut center point P. It shows the state of translation up to. Further, although the rotation reference axis J is an axis parallel to the XY plane, the U axis is not necessarily an axis parallel to the XY plane. Therefore, the U axis shown in FIG. 48 is not an original U axis but a cutting center. The axis corresponding to the U axis at the point P (the U axis direction when converted to a planar regular image) is indicated.

ここで、「回転基準軸J」は、「原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸」であり、図48に示す半径方向軸Rは、視線ベクトルnのXY平面上への正射影に相当する軸であるから、図48に示す「平行移動後の回転基準軸J」は、半径方向軸Rに直交する軸になる。一方、半径方向軸R(視線ベクトルnの正射影)は、図9に示すとおり、Y軸を基準とした方位角αで示される向きに配置されているので、平面傾斜角φと方位角αとの間には、φ=−α+90°の関係が成り立つ。すなわち、切出中心点Pが、この歪曲円形画像上のどこに位置していたとしても、「鉛直軸Wの方向を下方向とする画像が得られる向き」(別言すれば、図示のU軸がY軸に平行となるような向き)に平面正則画像を切り出すためには、平面傾斜角φ=−α+90°なる設定を行えばよいことがわかる。   Here, the “rotation reference axis J” is “an axis passing through the origin G, parallel to the XY plane and orthogonal to the line-of-sight vector n”, and the radial axis R shown in FIG. 48 is on the XY plane of the line-of-sight vector n. 48, the “rotation reference axis J after translation” shown in FIG. 48 is an axis orthogonal to the radial axis R. On the other hand, the radial axis R (orthographic projection of the line-of-sight vector n) is arranged in the direction indicated by the azimuth angle α with respect to the Y axis, as shown in FIG. The relationship of φ = −α + 90 ° is established. That is, no matter where the cut center point P is located on this distorted circular image, “the direction in which an image with the direction of the vertical axis W as a downward direction is obtained” (in other words, the U axis shown in the figure). In order to cut out a planar regular image in such a direction that is parallel to the Y-axis), it can be seen that the setting of the plane inclination angle φ = −α + 90 ° may be made.

たとえば、図のY軸上に切出中心点Pをとった場合、方位角α=0°になるので、平面傾斜角φ=+90°になる。Y軸上の切出中心点Pについては、X軸に平行な方向に回転基準軸Jが定義されるので、平面傾斜角φ=+90°に設定すれば、図示のU軸はY軸に平行な方向に設定される。同様に、図のX軸上に切出中心点Pnをとった場合、方位角α=90°になるので、平面傾斜角φ=0°になる。X軸上の切出中心点Pについては、Y軸に平行な方向に回転基準軸Jが定義されるので、平面傾斜角φ=0°に設定すれば、図示のU軸はY軸に平行な方向に設定される。   For example, when the cutting center point P is taken on the Y-axis in the figure, the azimuth angle α = 0 °, so that the plane inclination angle φ = + 90 °. With respect to the cutting center point P on the Y axis, the rotation reference axis J is defined in a direction parallel to the X axis. Therefore, if the plane inclination angle φ is set to + 90 °, the U axis shown is parallel to the Y axis. Is set to the correct direction. Similarly, when the cut center point Pn is taken on the X axis in the figure, the azimuth angle α = 90 °, so the plane inclination angle φ = 0 °. As for the cutting center point P on the X axis, the rotation reference axis J is defined in a direction parallel to the Y axis. Therefore, if the plane inclination angle φ is set to 0 °, the U axis shown in the figure is parallel to the Y axis. Is set to the correct direction.

このように、図48に示す例の場合、平面傾斜角φ=−α+90°なる設定を行えば、切出中心点Pの位置にかかわらず、常に、鉛直軸Wの方向を下方向とする平面正則画像が得られることになる。したがって、図37に示すように、移行期間中に切出中心点Pを、半径方向軸(移動経路A)に沿って点P0から点Pjへ移動させる場合でも、方位角αは一定であるから平面傾斜角φも一定(φ=−α+90°)でよい。   Thus, in the case of the example shown in FIG. 48, if the setting of the plane inclination angle φ = −α + 90 ° is performed, the plane always having the direction of the vertical axis W as the downward direction regardless of the position of the cutting center point P. A regular image is obtained. Therefore, as shown in FIG. 37, the azimuth angle α is constant even when the cutting center point P is moved from the point P0 to the point Pj along the radial axis (movement path A) during the transition period. The plane inclination angle φ may be constant (φ = −α + 90 °).

以上、図48に例示するように、撮像面が鉛直面に一致し、X軸が実世界の鉛直軸Wに一致するように魚眼レンズ付ビデオカメラを設置した場合の説明を行った。続いて、X軸が斜めになるような設置が行われた場合を考えてみよう。図49に示す例は、撮像面が鉛直面に一致するようにビデオカメラが設置されている点は図48に示す例と同じであるが、X軸と鉛直軸Wとが一致しないような配置がなされた例である。別言すれば、実世界の鉛直軸Wに対してY軸がなす角度をξとした場合、図48はξ=−90°に設定された例であるのに対して、図49はξが任意の角度に設定された例ということになる。   As described above, as illustrated in FIG. 48, the case where the video camera with a fisheye lens is installed so that the imaging surface matches the vertical plane and the X axis matches the real world vertical axis W has been described. Next, consider a case where the installation is performed such that the X axis is inclined. The example shown in FIG. 49 is the same as the example shown in FIG. 48 in that the video camera is installed so that the imaging surface coincides with the vertical plane, but the X axis and the vertical axis W do not coincide with each other. This is an example. In other words, when the angle formed by the Y axis with respect to the vertical axis W in the real world is ξ, FIG. 48 is an example in which ξ = −90 °, whereas FIG. This is an example of setting an arbitrary angle.

図49を見れば明らかなように、X軸と鉛直軸Wとが一致しないため、XY平面上に得られる歪曲円形画像は、X軸およびY軸を基準にすると、斜めに配置された画像になる。この場合でも、半径方向軸Rが方位角αで与えられ、回転基準軸Jが半径方向軸Rに直交する軸になる点に変わりはない。したがって、「鉛直軸Wの方向を下方向とする画像が得られる向き」に平面正則画像を切り出すためには、平面傾斜角φと方位角αとの間には、角度ξを介して、φ=−α−ξの関係が成り立つ。すなわち、切出中心点Pが、この歪曲円形画像上のどこに位置していたとしても、平面傾斜角φ=−α−ξなる設定を行えばよいことになる。図48に示す例は、図49に示す一般例において、ξ=−90°とした特殊な例に他ならない。   As apparent from FIG. 49, since the X axis and the vertical axis W do not coincide with each other, the distorted circular image obtained on the XY plane is an image arranged obliquely with respect to the X axis and the Y axis. Become. Even in this case, the radial axis R is given by the azimuth angle α, and the rotation reference axis J becomes an axis orthogonal to the radial axis R. Therefore, in order to cut out a planar regular image in the “direction in which an image with the direction of the vertical axis W as the downward direction is obtained”, φ between the plane inclination angle φ and the azimuth angle α via the angle ξ = −α−ξ is established. That is, regardless of where the cut center point P is located on the distorted circular image, the plane inclination angle φ = −α−ξ may be set. The example shown in FIG. 48 is nothing but a special example in which ξ = −90 ° in the general example shown in FIG.

結局、撮像面となるXY平面が鉛直面に一致し、Y軸が鉛直軸Wに対して角度ξをなす方向を向くように魚眼レンズ付ビデオカメラが設置されていた場合、平面傾斜角φは、常にφ=−α−ξとなるように設定すれば、常に天地の関係が正しい平面正則画像がモニタ画面上に得られることになる。   Eventually, when the video camera with a fisheye lens is installed so that the XY plane as the imaging surface coincides with the vertical plane and the Y axis is oriented in an angle ξ with respect to the vertical axis W, the plane inclination angle φ is If the setting is always such that φ = −α−ξ, a plane regular image having a correct top-to-bottom relationship is always obtained on the monitor screen.

続いて、カメラの撮像面(XY平面)が水平面となるような設置を行った場合を考えてみよう。たとえば、図50に示す例は、カメラを地面に設置して、周囲の景色を撮影した画像である。この場合、撮像面は地面に平行な面になる。一般的な魚眼監視システムの場合、カメラを地面や床に設置するケースよりも、カメラを天井に設置するケースの方が多いであろうが、「撮像面が水平面となるように設置する」という設置形態に関しては共通であり、平面傾斜角φの決定方法も共通する。   Next, let us consider a case where installation is performed such that the imaging surface (XY plane) of the camera is a horizontal plane. For example, the example shown in FIG. 50 is an image in which a camera is installed on the ground and a surrounding landscape is photographed. In this case, the imaging surface is a surface parallel to the ground. In the case of a general fisheye monitoring system, there will be more cases where the camera is installed on the ceiling than the case where the camera is installed on the ground or floor. The installation form is common, and the method for determining the plane inclination angle φ is also common.

図50に示す例において、たとえば、切出中心点Pの近傍に切出領域Eを設定して、ビルの一部についての平面正則画像を得る場合を考える。この場合、「常に天地の関係が正しい平面正則画像がモニタ画面上に得られるような向きに切り出す」という基本条件を満足させるためには、図示のような方向にU軸を設定する必要がある。ここで、切出中心点Pの位置における回転基準軸Jは、半径方向軸Rに直交する軸であり、U軸は回転基準軸Jに一致するので、平面傾斜角φ=0°になる。   In the example shown in FIG. 50, for example, consider a case where a cutout region E is set in the vicinity of the cutout center point P to obtain a planar regular image of a part of a building. In this case, it is necessary to set the U axis in the direction shown in the figure in order to satisfy the basic condition that “a plane regular image with the correct top-and-bottom relationship is always cut out on the monitor screen”. . Here, the rotation reference axis J at the position of the cut-out center point P is an axis orthogonal to the radial axis R, and the U axis coincides with the rotation reference axis J, so that the plane inclination angle φ = 0 °.

図51は、撮像面が水平面に一致するように魚眼レンズ付ビデオカメラを設置した場合の撮影画像の実世界の水平面方向を示す平面図である。図示の円Cは、実世界の等高線を示している。この等高線Cは、実世界での水平面に平行な所定平面の位置を示しており、この歪曲円形画像Sにおいて、外界の景色の水平方向は、等高線Cとして示される円の円周方向ということになる。したがって、たとえば、図示の切出中心点Paの近傍における景色の水平方向は、円Cの点Paにおける接線τaの方向になり、図示の切出中心点Pbの近傍における景色の水平方向は、円Cの点Pbにおける接線τbの方向になる。これらの接線は、当然、半径方向軸に対して直交するので、いずれも回転基準軸Jと同じ方向を向くことになる。このため、これら接線方向にU軸を設定するためには、平面傾斜角φを常に0°に設定すればよいことになる。   FIG. 51 is a plan view showing the horizontal direction in the real world of the captured image when the video camera with a fisheye lens is installed so that the imaging surface coincides with the horizontal plane. The circle C shown in the figure shows contour lines in the real world. This contour line C indicates the position of a predetermined plane parallel to the horizontal plane in the real world, and in this distorted circular image S, the horizontal direction of the external scene is the circumferential direction of the circle shown as the contour line C. Become. Therefore, for example, the horizontal direction of the scenery in the vicinity of the cutout center point Pa shown in the figure is the direction of the tangent τa at the point Pa of the circle C, and the horizontal direction of the scenery in the vicinity of the cutout center point Pb in the figure is The direction of the tangent τb at the point Pb of C. Since these tangent lines are naturally orthogonal to the radial axis, they all face the same direction as the rotation reference axis J. For this reason, in order to set the U axis in these tangential directions, the plane inclination angle φ should always be set to 0 °.

結局、撮像面となるXY平面が水平面に一致するように魚眼レンズ付ビデオカメラが設置されていた場合、切出中心点Pの位置がどこであろうとも、常にφ=0°となるように設定すれば、常に天地の関係が正しい平面正則画像がモニタ画面上に得られることになる。   Eventually, when the video camera with a fisheye lens is installed so that the XY plane as the imaging plane coincides with the horizontal plane, it is always set so that φ = 0 ° regardless of the position of the cut-out center point P. In this case, a planar regular image with a correct top-to-bottom relationship is always obtained on the monitor screen.

魚眼監視システムの用途では、実用上、撮像面を鉛直面もしくは水平面のいずれかに一致させてカメラを設置するのが一般的であり、また、常に天地の関係が正しい平面正則画像がモニタ画面上に得られるようにするのが一般的である。このような一般的な用途で利用する限り、特定の切出中心点Pの位置についての平面傾斜角φは、「φ=−α−ξ」(撮像面が鉛直面の場合)もしくは「φ=0°」(撮像面が水平面の場合)として一義的に算出できる。特に、撮像面が水平面の場合は、切出中心点Pの位置にかかわらず、常に、φ=0°という固定値になるので、動体検出部160は目標平面傾斜角φnを設定する必要はなく、動体追跡部190は追跡平面傾斜角φ(i)を設定する必要はない。   In practical applications for fisheye monitoring systems, it is common practice to install cameras with the imaging plane aligned with either the vertical plane or the horizontal plane, and a flat regular image with the correct top-to-bottom relationship is always displayed on the monitor screen. It is common to obtain above. As long as it is used in such a general application, the plane inclination angle φ with respect to the position of the specific cut-out center point P is “φ = −α−ξ” (when the imaging surface is a vertical surface) or “φ = It can be uniquely calculated as “0 °” (when the imaging surface is a horizontal surface). In particular, when the imaging surface is a horizontal plane, the fixed value of φ = 0 ° is always set regardless of the position of the cut-out center point P. Therefore, the moving object detection unit 160 does not need to set the target plane inclination angle φn. The moving body tracking unit 190 does not need to set the tracking plane inclination angle φ (i).

なお、設計実務上、留意しておくべき点は、切出中心点PがXY平面の原点O(歪曲円形画像の中心点)に位置する場合、平面傾斜角φの値が定まらない点である。平面傾斜角φは、「回転基準軸JとU軸とのなす角」として定義されるが、切出中心点Pが原点O上に位置する場合、回転基準軸Jを定義することができない。すなわち、回転基準軸Jは、「原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸」であるが、切出中心点Pが原点O上に位置する場合、視線ベクトルnはZ軸に一致し、原点GはZ軸上の点になる。このため、「原点Gを通り、XY平面に平行かつ視線ベクトルn(Z軸)に直交する軸」は無数に存在し、回転基準軸Jによって特定の方向を定義することができない。実際、切出中心点Pが原点O上に位置する場合、天頂角β=0になるが、方位角αと平面傾斜角φは定義することができない。このため、図17に示す変換式もそのままでは適用することができず、例外的な演算を行う必要が生じる。   It should be noted that in design practice, when the cut-out center point P is located at the origin O of the XY plane (the center point of the distorted circular image), the value of the plane inclination angle φ is not determined. . The plane inclination angle φ is defined as “an angle formed by the rotation reference axis J and the U axis”. However, when the cut center point P is located on the origin O, the rotation reference axis J cannot be defined. That is, the rotation reference axis J is “an axis passing through the origin G, parallel to the XY plane and orthogonal to the line-of-sight vector n”, but when the cut-out center point P is located on the origin O, the line-of-sight vector n is Z It coincides with the axis, and the origin G is a point on the Z axis. For this reason, there are innumerable “axes that pass through the origin G and are parallel to the XY plane and perpendicular to the line-of-sight vector n (Z axis)”, and a specific direction cannot be defined by the rotation reference axis J. Actually, when the cut center point P is located on the origin O, the zenith angle β = 0, but the azimuth angle α and the plane inclination angle φ cannot be defined. For this reason, the conversion formula shown in FIG. 17 cannot be applied as it is, and an exceptional calculation needs to be performed.

したがって、切出中心点Pが原点O上に位置する場合だけ例外的に、別な方法によって切り出し向きを指定する必要がある。たとえば、図49に示す例のように、撮像面が鉛直面となるようにカメラを設置した場合、切出中心点Pについての切り出し向きは、「V軸が撮影画像の原点Oの位置における実世界の鉛直軸Wに対応するように平面正則画像が切り出されるような切り出し向き」に設定すればよい。   Therefore, it is necessary to specify the cutting direction by another method, exceptionally only when the cutting center point P is located on the origin O. For example, as in the example shown in FIG. 49, when the camera is installed so that the image pickup surface is a vertical surface, the cut-out direction with respect to the cut-out center point P is “actual at the position where the V-axis is the origin O of the captured image. What is necessary is just to set to "the cutting direction that a plane regular image is cut out so as to correspond to the world vertical axis W".

結局、図22に示す例のように、標準切出中心点P0を、二次元XY直交座標系の原点O上に設定する場合、標準切出条件格納部180には、V軸が撮影画像の原点Oの位置における実世界の鉛直軸に沿うように平面正則画像が切り出されるような切り出し向きを示す標準切出条件を設定しておくようにし、動体60を検出した動体検出部160は、目標切出中心点Pnについての方位角をαnとしたときに、目標平面傾斜角φn=−αn−ξなる設定を行い(ξは、前述したとおり、実世界の鉛直軸Wに対してY軸がなす角度)、実切出条件決定部170が、移行期間中、常に平面傾斜角φ=φnに設定するようにすればよい。   Eventually, as in the example shown in FIG. 22, when the standard cut-out center point P0 is set on the origin O of the two-dimensional XY rectangular coordinate system, the standard cut-out condition storage unit 180 stores the V-axis in the captured image. The moving object detection unit 160 that detects the moving object 60 is configured so that a standard cutting condition indicating a cutting direction in which a planar regular image is cut out along the vertical axis in the real world at the position of the origin O is set. When the azimuth angle about the cut center point Pn is αn, the target plane inclination angle φn = −αn−ξ is set (ξ is the Y axis with respect to the vertical axis W in the real world as described above. The actual cutting condition determination unit 170 may always set the plane inclination angle φ = φn during the transition period.

図38に示す表の平面傾斜角φの欄には、便宜上、標準平面傾斜角をφ0と記載したが、実際には、原点O上に位置する標準切出中心点P0について、平面傾斜角は定義することができないので、標準切出条件における切り出し向きは、別な方法(たとえば、図48や図49に示す例の場合、U軸とY軸とのなす角)で定義する必要がある。   In the column of the plane inclination angle φ in the table shown in FIG. 38, the standard plane inclination angle is described as φ0 for convenience, but actually, the plane inclination angle is about the standard cutting center point P0 located on the origin O. Since it cannot be defined, it is necessary to define the cutting direction in the standard cutting condition by another method (for example, in the example shown in FIGS. 48 and 49, the angle formed by the U axis and the Y axis).

<<< §9.様々な変形例 >>>
ここでは、これまで述べてきた本発明の一実施形態に係る魚眼監視システムについての変形例を述べる。
<<< §9. Various modifications >>
Here, the modification about the fish-eye monitoring system which concerns on one Embodiment of this invention described so far is described.

<9−1.標準切出中心点の任意設定>
これまで述べてきた実施形態では、標準切出中心点P0を、歪曲円形画像Sの中心点(すなわち、XY座標系の原点O)の位置に設定しているが、標準切出中心点P0は、静的監視期間W1の間(撮影範囲内に動体が検出されていない間)、モニタ装置120に表示させる平面正則画像の標準位置を指定するパラメータであり、歪曲円形画像S上の任意の位置に設定することが可能である。
<9-1. Arbitrary setting of standard cutting center point>
In the embodiments described so far, the standard cut-out center point P0 is set to the position of the center point of the distorted circular image S (that is, the origin O of the XY coordinate system). , A parameter that specifies the standard position of the planar regular image displayed on the monitor device 120 during the static monitoring period W1 (while no moving object is detected within the imaging range), and an arbitrary position on the distorted circular image S Can be set.

たとえば、図20に示す例では、歪曲円形画像Sの中心に標準切出中心点P0を設定しているため、静的監視期間W1の間、図21(a) に示すように、樹木40の正面像がモニタ画面上に表示されることになる。これに対して、もし、ガードレール50の近傍を表示させたい場合は、標準切出中心点P0の位置を下方に修正すればよい。予め、標準切出中心点P0の位置として、図28に示す標準切出条件格納部180に任意の座標値を格納しておくようにすれば、静的監視期間W1の間、当該任意の座標値で示される位置近傍から切り出した平面正則画像をモニタ画面上に表示させることができる。   For example, in the example shown in FIG. 20, the standard cut-out center point P0 is set at the center of the distorted circular image S. Therefore, during the static monitoring period W1, as shown in FIG. A front image is displayed on the monitor screen. On the other hand, if it is desired to display the vicinity of the guardrail 50, the position of the standard cutting center point P0 may be corrected downward. If an arbitrary coordinate value is stored in advance in the standard cutting condition storage unit 180 shown in FIG. 28 as the position of the standard cutting center point P0, the arbitrary coordinates during the static monitoring period W1. A planar regular image cut out from the vicinity of the position indicated by the value can be displayed on the monitor screen.

なお、動体検出がなされた場合、既に述べたとおり、図36に示す移行期間担当部172によって、実切出中心点Pを、標準切出中心点P0から目標切出中心点Pnへ向かって段階的に移動させるパンニング処理を行う必要がある。ここで、標準切出中心点P0が、二次元XY直交座標系の原点O(歪曲円形画像Sの中心)に設定されている場合、図37に示すように、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像Sの半径方向の移動経路Aに沿って、切出中心点Pを移動させればよい。このように、円の中心から半径方向に切出中心点Pを移動させるパンニングは、比較的単純な演算処理によって実行可能である。実際、図40に示す式を用いた等速パンニングや、図41に示す式を用いた不等速パンニングは、それほど複雑な演算処理を必要としない。   When the moving object is detected, as described above, the transition period charge unit 172 shown in FIG. 36 changes the actual cutting center point P from the standard cutting center point P0 toward the target cutting center point Pn. It is necessary to perform a panning process that moves the target. Here, when the standard cut center point P0 is set to the origin O (the center of the distorted circular image S) of the two-dimensional XY orthogonal coordinate system, as shown in FIG. The cut center point P may be moved along the radial movement path A of the distorted circular image S toward Pn. In this way, panning for moving the cut center point P in the radial direction from the center of the circle can be executed by a relatively simple arithmetic process. Actually, the constant speed panning using the formula shown in FIG. 40 and the inconstant speed panning using the formula shown in FIG. 41 do not require so complicated calculation processing.

ところが、標準切出中心点P0が二次元XY直交座標系の原点O以外の任意の位置に設定されている場合、当該任意の位置から目標切出中心点Pnへ直接向かう移動経路に沿って、点Pを移動させるパンニングを行うためには、かなり複雑な演算処理を必要とする。このような複雑な演算処理を避けるためには、原点Oを経由するパンニング経路をとればよい。   However, when the standard cut-out center point P0 is set at an arbitrary position other than the origin O of the two-dimensional XY orthogonal coordinate system, along the movement path directly from the arbitrary position to the target cut-out center point Pn, In order to perform panning for moving the point P, a considerably complicated calculation process is required. In order to avoid such complicated arithmetic processing, a panning path via the origin O may be taken.

たとえば、図52に破線の経路で示すように、まず、パンニング期間の前段階として、標準切出中心点P0から原点Oへ向かって、歪曲円形画像Sの半径に沿って切出中心点Pを移動させた後、パンニング期間の後段階として、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像Sの半径に沿って切出中心点Pを移動させるようにすればよい。図52に破線で示すパンニング経路は、点P0から点Pnへ直接向かう経路に比べて長くなるが、演算処理は単純化される。   For example, as shown by a broken line path in FIG. 52, first, as the previous stage of the panning period, the cut center point P is set along the radius of the distorted circular image S from the standard cut center point P0 to the origin O. After the movement, as a subsequent stage of the panning period, the cut center point P may be moved along the radius of the distorted circular image S from the origin O toward the target cut center point Pn. The panning path indicated by a broken line in FIG. 52 is longer than the path directly from the point P0 to the point Pn, but the calculation process is simplified.

もっとも、演算処理の負担が問題にならないシステムであれば、図53に破線で示すように、点P0から点Pnへ直接向かうパンニング経路をとるのが好ましい。一般に、動体検出が行われた後の移行期間のパンニング経路は、最短経路を採るのが効率的である。すなわち、ユーザには、切り替え前後の画像の空間的な位置関係を明瞭に認識させつつ、できるだけ速やかに検出動体を提示するのが好ましい。したがって、システムの演算処理速度に問題がなければ、図52のような原点経由のパンニング経路を採るよりも、図53のような直行パンニング経路を採るのが好ましく、特に、「最短経路」を採用するのが好ましい。   However, if the system does not have a problem with the burden of arithmetic processing, it is preferable to take a panning path that goes directly from the point P0 to the point Pn, as shown by a broken line in FIG. In general, it is efficient to take the shortest path for the panning path in the transition period after the moving object detection is performed. That is, it is preferable to present the detection moving object as quickly as possible while clearly recognizing the spatial positional relationship between the images before and after switching. Therefore, if there is no problem in the calculation processing speed of the system, it is preferable to adopt the direct panning path as shown in FIG. 53 rather than the panning path via the origin as shown in FIG. It is preferable to do this.

ただ、ここで言う「最短経路」とは、「魚眼映像空間上での最短経路」ではなく、「実映像空間上での最短経路」とすべきである。たとえば、図53に示す例の場合、点P0から点Pnに至る「魚眼映像空間上での最短経路」は、「XY平面上での最短経路」であるので、2点P0,Pnを結ぶ線分が最短経路になる。ところが、切出中心点Pを、そのような線分に沿って移動させると、通常のレンズを装着したビデオカメラを、実映像空間における歪んだ経路に沿ってパンニングした結果が得られるため、モニタ画面を観察しているユーザから見ると、不自然なパンニング動作が行われたように見えてしまう。   However, the “shortest path” mentioned here should not be “the shortest path in the fish-eye video space” but “the shortest path in the real video space”. For example, in the case of the example shown in FIG. 53, the “shortest path on the fisheye image space” from the point P0 to the point Pn is the “shortest path on the XY plane”, so the two points P0 and Pn are connected. The line segment becomes the shortest path. However, if the cut-out center point P is moved along such a line segment, the result of panning a video camera equipped with a normal lens along a distorted path in the real image space is obtained. From the viewpoint of the user observing the screen, it appears that an unnatural panning operation has been performed.

図53に示す例の場合、破線で示すパンニング経路は、XY平面上での最短経路にはなっていないが、仮想球面上での対応点の移動軌跡が最短経路となるようになっているので、「実映像空間上での最短経路」に沿ってパンニングした結果が得られ、モニタ画面を観察しているユーザには、自然なパンニング動作が行われたように見える。具体的には、図示の歪曲円形画像S上に仮想球面Hを配置し、標準切出中心点P0についての仮想球面H上の対応点Q0と、目標切出中心点Pnについての仮想球面H上の対応点Qnと、を定義し、切出中心点Pについての仮想球面H上の対応点Qの仮想球面H上での移動経路が、対応点Q0と対応点Qnとを仮想球面H上で結ぶ最短経路となるようにすればよい。   In the example shown in FIG. 53, the panning path indicated by the broken line is not the shortest path on the XY plane, but the movement locus of the corresponding point on the virtual sphere is the shortest path. The result of panning along the “shortest path in the real video space” is obtained, and it appears to the user observing the monitor screen that a natural panning operation has been performed. Specifically, a virtual spherical surface H is arranged on the distorted circular image S shown in the figure, the corresponding point Q0 on the virtual spherical surface H with respect to the standard cut-out center point P0, and the virtual spherical surface H with respect to the target cut-out center point Pn. Corresponding point Qn, and the movement path of the corresponding point Q on the virtual spherical surface H with respect to the cut-out center point P on the virtual spherical surface H corresponds to the corresponding point Q0 and the corresponding point Qn on the virtual spherical surface H. What is necessary is just to make it become the shortest path | route to connect.

上述した条件に基づいて、切出中心点Pを点P0から点Pnへと移動させる経路は、幾何学的演算によって一義的に求めることができる。この演算式は、前述したとおり、かなり複雑な式になるが、以下、図54および図55を参照しながら簡単に説明する。   Based on the above-described conditions, the path for moving the cut center point P from the point P0 to the point Pn can be uniquely obtained by geometric calculation. This arithmetic expression is a fairly complicated expression as described above, but will be briefly described below with reference to FIGS. 54 and 55.

まず、図54の上段に示すような三次元モデルを考える。この図は、XY平面上の歪曲円形画像Sの上に仮想球面Hを配置した状態を示す斜視図である。歪曲円形画像S上には、点P0と点Pnとが定義されており、両点間に破線で示すような経路が描かれている。この破線で示す経路を定めるには、当該経路上の任意の点Pi(切出中心点Pを、点P0から点Pnに向かって段階的に移動させる際の第i番目の点)の座標値が求まればよい。   First, consider a three-dimensional model as shown in the upper part of FIG. This figure is a perspective view showing a state in which a virtual spherical surface H is arranged on the distorted circular image S on the XY plane. On the distorted circular image S, a point P0 and a point Pn are defined, and a path as indicated by a broken line is drawn between the two points. In order to determine the route indicated by the broken line, the coordinate value of an arbitrary point Pi on the route (i-th point when the cut center point P is moved stepwise from the point P0 to the point Pn). Find what you need.

そこで、まず、2点P0,Pnについて、それぞれ仮想球面H上の対応点Q0,Qnを考える。既に述べたとおり、正射影方式の魚眼レンズを用いて撮影された歪曲円形画像Sの場合、対応点Q0,Qnは、各点P0,Pnの真上の点になる。次に、この2つの対応点Q0,Qnと、原点Oと、を通る仮想球面Hの切断面S3を定義する。切断面S3は原点Oを通る面であるので、半径Rの円形切断面になる。そして、この切断面S3に直交し、原点Oを起点とする法線ベクトルnを定義する。   Therefore, first consider the corresponding points Q0 and Qn on the virtual spherical surface H for the two points P0 and Pn, respectively. As described above, in the case of the distorted circular image S photographed using the fisheye lens of the orthogonal projection method, the corresponding points Q0 and Qn are points directly above the points P0 and Pn. Next, a cut surface S3 of the phantom spherical surface H passing through the two corresponding points Q0 and Qn and the origin O is defined. Since the cut surface S3 is a surface passing through the origin O, it becomes a circular cut surface with a radius R. Then, a normal vector n that is orthogonal to the cutting plane S3 and that has the origin O as a starting point is defined.

続いて、この切断面S3の円周上の点であって、点Q0と点Qnとの間に位置する任意の点Qiを定義し、当該点Qiを対応点とする点PiをXY平面上に定義すれば、点Piの座標値は、対応点Qiの座標値に基づいて決定される。すなわち、正射影方式の魚眼レンズを用いて撮影された歪曲円形画像Sの場合、対応点Qiは、点Piの真上の点になるので、対応点QiのX座標値およびY座標値が、そのまま点Piの座標値になる。結局、対応点Qiの座標値が求まれば、目的となる点Piの座標値が求まることになる。   Subsequently, an arbitrary point Qi which is a point on the circumference of the cut surface S3 and is located between the point Q0 and the point Qn is defined, and a point Pi having the point Qi as a corresponding point is defined on the XY plane. , The coordinate value of the point Pi is determined based on the coordinate value of the corresponding point Qi. That is, in the case of the distorted circular image S photographed using the orthographic fisheye lens, the corresponding point Qi is a point directly above the point Pi, and therefore the X coordinate value and the Y coordinate value of the corresponding point Qi are not changed. It becomes the coordinate value of the point Pi. Eventually, if the coordinate value of the corresponding point Qi is obtained, the coordinate value of the target point Pi is obtained.

そこで、まず、図54の下段に示すように、点Q0の座標値をQ0(x0,y0,z0)とし、点Qnの座標値をQn(xn,yn,zn)とする。これらの座標値は、点P0,Pnの座標値から求めることができるので既知の値である。また、求めるべき点Qiの座標値をQi(xi,yi,zi)とする。更に、点Oから点Q0へ向かうベクトルをベクトルV0,点Oから点Qnへ向かうベクトルをベクトルVn,点Oから点Qiへ向かうベクトルをベクトルViとし、法線ベクトルnのベクトル成分をn(nx,ny,nz)とする。   Therefore, first, as shown in the lower part of FIG. 54, the coordinate value of the point Q0 is set to Q0 (x0, y0, z0), and the coordinate value of the point Qn is set to Qn (xn, yn, zn). These coordinate values are known values because they can be obtained from the coordinate values of the points P0 and Pn. Further, the coordinate value of the point Qi to be obtained is assumed to be Qi (xi, yi, zi). Further, a vector from the point O to the point Q0 is a vector V0, a vector from the point O to the point Qn is a vector Vn, a vector from the point O to the point Qi is a vector Vi, and a vector component of the normal vector n is n (nx , Ny, nz).

そうすると、図55に示すとおり、外積の公式より、式(10)が導かれる。また、ベクトルV0とベクトルVnのなす角θは、その外積の大きさにより式(11)で表され、式(12)で算出される。ここで、等速パンニングを行うものとして、弧Q0Qnをn等分したときの第i番目の点が点Qiであるとすると、ベクトルViとベクトルV0のなす角θiは、式(13)で表される。円形切断面S3の円周に沿って、点Q0を角度θiだけ回転運動させれば、点Qiの位置にくるので、結局、点Qiの座標値(xi,yi,zi)は、ロドリゲスの公式によって、式(14)で求められることになる。なお、不等速
パンニングを行う場合は、式(13)の「i/n」の部分をiに応じた所望の値に設定すればよい。
Then, as shown in FIG. 55, Expression (10) is derived from the outer product formula. Further, the angle θ formed by the vector V0 and the vector Vn is expressed by Expression (11) depending on the size of the outer product, and is calculated by Expression (12). Here, assuming that constant velocity panning is performed and the i-th point when the arc Q0Qn is equally divided into n is a point Qi, an angle θi formed by the vector Vi and the vector V0 is expressed by Expression (13). Is done. If the point Q0 is rotated by an angle θi along the circumference of the circular cut surface S3, the point Qi is brought to the position of the point Qi. Consequently, the coordinate value (xi, yi, zi) of the point Qi is the Rodriguez formula. Therefore, it is obtained by the equation (14). In addition, when performing non-uniform speed panning, the “i / n” portion of the equation (13) may be set to a desired value corresponding to i.

<9−2.複数の動体の取り扱い>
本発明に係る魚眼監視システムでは、図35の流れ図に示すとおり、静的監視期間W1において動体検出がなされると、移行期間W2を経て動的監視期間W3へと移行し、動体追跡が行われる。そして、動体が消滅したと判断されると、再び静的監視期間W1に復帰する処理が行われる。ただ、これまで述べてきた基本的な処理手順は、撮影領域内に単一の動体のみが存在するという前提で組まれた手順であり、§6で述べた動体検出処理の具体例においても、動体の候補となる着目領域が複数存在する場合には、より面積の大きい着目領域のみを考慮する処理が行われていた。
<9-2. Handling of multiple moving objects>
In the fish-eye monitoring system according to the present invention, as shown in the flowchart of FIG. 35, when the moving object is detected in the static monitoring period W1, the moving period is shifted to the dynamic monitoring period W3 through the transition period W2, and the moving object tracking is performed. Is called. When it is determined that the moving object has disappeared, processing for returning to the static monitoring period W1 is performed again. However, the basic processing procedure described so far is a procedure established on the assumption that there is only a single moving object in the imaging region, and in the specific example of the moving object detection processing described in §6, When there are a plurality of regions of interest that are candidates for moving objects, only the region of interest with a larger area is considered.

しかしながら、複数の着目領域のそれぞれを考慮した処理を行えば、動体検出部160によって複数の動体を検出することが可能であり、動体追跡部190によって複数の動体を追跡することが可能である。ここでは、このように複数の動体についての取り扱い方を、いくつかの方針に基づいて説明する。   However, if processing is performed in consideration of each of the plurality of regions of interest, the moving object detection unit 160 can detect a plurality of moving objects, and the moving object tracking unit 190 can track the plurality of moving objects. Here, how to handle a plurality of moving objects will be described based on several policies.

第1の取扱方針は、最初に検出された動体のみを考慮し、当該動体が消滅するまで、2番目以降の動体を無視する取り扱いを行う、という最も単純な方針である。この方針を採る場合、動体検出部160は、動体追跡部190による動体追跡処理が行われている間、新たな動体検出処理を休止すればよい。図56は、この第1の取扱方針を示すタイムチャートである。   The first handling policy is the simplest policy in which only the first detected moving object is considered and the second and subsequent moving objects are ignored until the moving object disappears. When adopting this policy, the moving object detection unit 160 may pause the new moving object detection process while the moving object tracking process by the moving object tracking unit 190 is being performed. FIG. 56 is a time chart showing the first handling policy.

3本のバーはいずれも横軸を時間軸とし、それぞれ固有の事象の時間変化を示している。まず、上段のバーは、各時点における実切出領域に含まれている動体(すなわち、切出対象として平面正則画像上に表示されるべき動体)の変遷を示している。「0」は切出対象となる動体が存在しないことを示し、静的監視期間W1を維持している状態を示す。「0→A」は、動体Aが検出されたために移行期間W2が進行中であることを示し、「A」は、動体Aを追跡する動的監視期間W3が進行中であることを示す。一方、中段のバーは、動体検出部160による動体検出処理が行われているか否かを示す、「サーチ」はたとえば図29に示す動体検出処理が実行されていることを示し、「(休止)」は当該処理が休止していることを示す。また、下段のバーは、動体追跡部190による追跡対象の状態を示し、「Aの追跡」は動体Aを追跡中であることを示し、「(休止)」は当該処理が休止していることを示す。   In each of the three bars, the horizontal axis represents the time axis, and each represents a time change of a unique event. First, the upper bar shows the transition of the moving object (that is, the moving object to be displayed on the planar regular image as the object to be extracted) included in the actual extraction region at each time point. “0” indicates that there is no moving object to be extracted, and indicates a state in which the static monitoring period W1 is maintained. “0 → A” indicates that the transition period W2 is in progress because the moving object A is detected, and “A” indicates that the dynamic monitoring period W3 for tracking the moving object A is in progress. On the other hand, the middle bar indicates whether or not the moving object detection process by the moving object detection unit 160 is performed. “Search” indicates that the moving object detection process shown in FIG. 29 is being executed, for example. "Indicates that the process is paused. The lower bar indicates the status of the tracking target by the moving object tracking unit 190, “Tracking A” indicates that the moving object A is being tracked, and “(Pause)” indicates that the process is paused. Indicates.

図における時刻t0〜t1の期間は、何ら動体検出が行われていない静的監視期間W1である。切出対象となる動体は存在せず、モニタ画面上には何ら動体の表示は行われていない。この期間中、動体検出部160は動体検出処理(サーチ)を実行しているが、動体追跡部190は処理を休止している。   The period from time t0 to t1 in the figure is a static monitoring period W1 in which no moving object detection is performed. There is no moving object to be extracted, and no moving object is displayed on the monitor screen. During this period, the moving object detection unit 160 executes a moving object detection process (search), but the moving object tracking unit 190 pauses the process.

ここで、時刻t1において、動体検出部160による動体Aの検出が行われると、時刻t1〜t2の間が移行期間W2となり、切出対象を動体Aとする移行処理が行われる。モニタ画面上では、パンニング動作が行われ、やがて画面上に動体Aが表示される。一方、動体検出部160は、このように最初の動体Aが検出されたら、その時点で動体検出処理を一時休止する。一方、動体追跡部190は、動体検出部160から動体Aが検出された旨の報告を受け、動体Aの追跡処理を開始する。   Here, when the moving object A is detected by the moving object detection unit 160 at the time t1, the transition period W2 is between the times t1 and t2, and a transition process is performed in which the object to be extracted is the moving object A. A panning operation is performed on the monitor screen, and the moving object A is displayed on the screen. On the other hand, when the first moving object A is detected in this way, the moving object detection unit 160 pauses the moving object detection process at that time. On the other hand, the moving object tracking unit 190 receives a report that the moving object A is detected from the moving object detection unit 160, and starts the tracking process of the moving object A.

やがて、時刻t2において移行処理が完了すると、実切出中心点Pが目標切出中心点Pnへ到達していることになるので、モニタ画面上には動体Aが表示され、動的監視期間W3が開始する。すなわち、モニタ画面上では、動体追跡部190が追跡中の動体Aが表示され続ける。そして、時刻t3において、動体追跡部190による動体消滅の判断がなされると、再び静的監視期間W1へ戻り、時刻t0からの処理と同じ処理が繰り返し実行される。   Eventually, when the transition process is completed at time t2, since the actual cut center point P has reached the target cut center point Pn, the moving object A is displayed on the monitor screen, and the dynamic monitoring period W3. Starts. That is, the moving object A being tracked by the moving object tracking unit 190 is continuously displayed on the monitor screen. Then, when the moving object disappearance is determined by the moving object tracking unit 190 at time t3, the process returns to the static monitoring period W1, and the same processing as that from time t0 is repeatedly executed.

この図56に示す第1の取扱方針によれば、動体検出部160は、最初に動体Aを検出すると、以降、動体Aが消滅するまで、動体検出処理を休止するので、新たに2番目以降の動体が検出されることはない。したがって、ユーザには、1つの動体が検出されたら、当該動体が消滅するまで、当該動体のみを考慮した画面提示が行われることになる。   According to the first handling policy shown in FIG. 56, when the moving object detection unit 160 first detects the moving object A, the moving object detection process is suspended until the moving object A disappears. No moving object is detected. Therefore, when one moving object is detected, the user is presented with a screen considering only the moving object until the moving object disappears.

第2の取扱方針は、常に最新の検出動体を考慮し、新たに動体検出がなされた場合には、常に新動体をユーザに提示してゆくという方針である。この方針を採る場合、動体検出部160は、動体追跡部190による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なる新動体の検出がなされた場合、この新動体についての目標切出条件を実切出条件決定部170に与える処理を行えばよい。そして、実切出条件決定部170に新動体についての目標切出条件が与えられた場合には、移行期間担当部172が、旧動体についての追跡切出条件から新動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定めるようにし、動体追跡部190は、新動体に対する追跡処理を行うようにすればよい。図57は、この第2の取扱方針を示すタイムチャートである。   The second handling policy is a policy that always considers the latest detected moving object and always presents the new moving object to the user when a new moving object is detected. When this policy is adopted, the moving object detection unit 160 continues the moving object detection process while the moving object tracking process is performed by the moving object tracking unit 190, and a new moving object that is different from the old moving object that is the target of the moving object tracking process. Is detected, the target cutting condition for the new moving object may be given to the actual cutting condition determination unit 170. When the target cutting condition for the new moving object is given to the actual cutting condition determining unit 170, the transition period charge unit 172 changes the target cutting condition for the new moving object from the tracking cutting condition for the old moving object. The actual cutout condition that changes step by step so as to shift to is determined, and the moving object tracking unit 190 may perform the tracking process for the new moving object. FIG. 57 is a time chart showing the second handling policy.

図57における時刻t0〜t1の期間は、何ら動体検出が行われていない静的監視期間W1である。切出対象となる動体は存在せず、モニタ画面上には何ら動体の表示は行われていない。この期間中、動体検出部160は動体検出処理(サーチ)を実行しているが、動体追跡部190は処理を休止している。   The period from time t0 to t1 in FIG. 57 is a static monitoring period W1 in which no moving object detection is performed. There is no moving object to be extracted, and no moving object is displayed on the monitor screen. During this period, the moving object detection unit 160 executes a moving object detection process (search), but the moving object tracking unit 190 pauses the process.

ここで、時刻t1において、動体検出部160による動体Aの検出が行われると、時刻t1〜t2の間が移行期間W2となり、切出対象を動体Aとする移行処理が行われる。モニタ画面上では、パンニング動作が行われ、やがて画面上に動体Aが表示される。ただし、動体検出部160は、最初の動体Aが検出された後も、動体検出処理(サーチ)を続行する。動体追跡部190は、動体検出部160から動体Aが検出された旨の報告を受け、動体Aの追跡処理を開始する。   Here, when the moving object A is detected by the moving object detection unit 160 at the time t1, the transition period W2 is between the times t1 and t2, and a transition process is performed in which the object to be extracted is the moving object A. A panning operation is performed on the monitor screen, and the moving object A is displayed on the screen. However, the moving object detection unit 160 continues the moving object detection process (search) even after the first moving object A is detected. The moving body tracking unit 190 receives the report that the moving body A is detected from the moving body detection unit 160, and starts the tracking process of the moving body A.

やがて、時刻t2において移行処理が完了すると、実切出中心点Pが目標切出中心点Pnへ到達していることになるので、モニタ画面上には動体Aが表示され、動的監視期間W3が開始する。すなわち、モニタ画面上では、動体追跡部190が追跡中の動体Aが表示され続ける。   Eventually, when the transition process is completed at time t2, since the actual cut center point P has reached the target cut center point Pn, the moving object A is displayed on the monitor screen, and the dynamic monitoring period W3. Starts. That is, the moving object A being tracked by the moving object tracking unit 190 is continuously displayed on the monitor screen.

動体検出部160は、時刻t2以降も動体検出処理を続行する。この場合、常に動体Aが検出されることになるが、動体追跡部190から追跡結果の報告を受けるようにすれば、各フレーム画像上での動体Aの占有領域を認識することができるので、検出された動体が新たな動体であるのか、動体追跡部190が追跡中の旧動体であるのかを判断することが可能である。旧動体のみしか検出されなかった場合、外部への報告は行われないが、新動体が検出された場合、実切出条件決定部170および動体追跡部190に対して、新動体が検出された旨の報告がなされる。   The moving object detection unit 160 continues the moving object detection process even after time t2. In this case, the moving object A is always detected, but if the tracking result report is received from the moving object tracking unit 190, the occupied area of the moving object A on each frame image can be recognized. It is possible to determine whether the detected moving object is a new moving object or the moving object tracking unit 190 is an old moving object being tracked. When only the old moving object is detected, no report is made to the outside. However, when a new moving object is detected, the new moving object is detected by the actual cutting condition determining unit 170 and the moving object tracking unit 190. A report to that effect is made.

図57には、時刻t3において、動体検出部160が新動体Bを検出した例が示されている。時刻t2〜t3の動的監視期間W3は、旧動体Aを追跡して表示する処理が行われていたが、時刻t3において新動体Bが検出されると、その報告を受けた実切出条件決定部170は、切出対象を旧動体Aから新動体Bへ切り替えるための移行処理を実行する。したがって、図示の時刻t3〜t4は移行期間W2になる。ただ、ここで実行される移行処理は、これまで述べてきた移行処理とは若干異なる。   FIG. 57 shows an example in which the moving object detection unit 160 detects the new moving object B at time t3. During the dynamic monitoring period W3 from time t2 to t3, the process of tracking and displaying the old moving object A was performed. When the new moving object B is detected at time t3, the actual cutting condition that has received the report is received. The determination unit 170 executes a transition process for switching the extraction target from the old moving object A to the new moving object B. Accordingly, the illustrated time t3 to t4 is the transition period W2. However, the migration process executed here is slightly different from the migration process described so far.

すなわち、これまで述べてきた移行処理は、静的監視期間W1から動的監視期間W3へ移行するための処理であり、実切出条件決定部170は、実切出条件を、標準切出条件から目標切出条件へ段階的に変化させる処理を行っていたが、切出対象を旧動体Aから新動体Bへ切り替えるための移行処理では、旧動体Bについての追跡切出条件(時刻t3において、動体追跡部190から与えられた切出条件)から新動体Aについての目標切出条件へ移行するように段階的に変わる実切出条件を定めることになる。なお、任意の位置から別な任意の位置へ切出中心点Pを移動させるには、たとえば、§9−1で述べた方法を利用すればよい。   That is, the transition process described so far is a process for shifting from the static monitoring period W1 to the dynamic monitoring period W3, and the actual cutting condition determination unit 170 sets the actual cutting condition as the standard cutting condition. In the transition process for switching the object to be extracted from the old moving object A to the new moving object B, the tracking cutting condition for the old moving object B (at time t3) The actual cutting conditions that change stepwise are determined so as to shift from the cutting conditions given by the moving body tracking unit 190 to the target cutting conditions for the new moving body A. In order to move the cutting center point P from an arbitrary position to another arbitrary position, for example, the method described in §9-1 may be used.

一方、動体追跡部190は、時刻t3において、動体検出部160から新動体Bを検出した旨の報告を受けると、追跡対象を旧動体Aから新動体Bに切り替え、以後、新動体Bの追跡処理を実行する。やがて、時刻t4において、旧動体Aから新動体Bへの移行処理が完了すると、実切出中心点Pが新動体Bについての目標切出中心点へ到達していることになるので、モニタ画面上には動体Bが表示され、新動体Bについての動的監視期間W3が開始する。すなわち、モニタ画面上には、動体追跡部190が追跡中の新動体Bが表示されることになる。そして、時刻t5において、動体追跡部190による動体Bの消滅判断がなされると、再び静的監視期間W1へ戻り、時刻t0からの処理と同じ処理が繰り返し実行される。   On the other hand, when the moving body tracking unit 190 receives a report indicating that the new moving body B is detected from the moving body detection unit 160 at time t3, the moving body tracking unit 190 switches the tracking target from the old moving body A to the new moving body B. Execute the process. Eventually, when the transition process from the old moving object A to the new moving object B is completed at time t4, the actual cutting center point P has reached the target cutting center point for the new moving object B. The moving object B is displayed above, and the dynamic monitoring period W3 for the new moving object B starts. That is, the new moving object B being tracked by the moving object tracking unit 190 is displayed on the monitor screen. When the moving object tracking unit 190 determines that the moving object B disappears at time t5, the process returns to the static monitoring period W1 again, and the same processing as that from time t0 is repeatedly executed.

この図57に示す第2の取扱方針によれば、新たに検出された動体が次々と表示されることになるので、ユーザには、常に最新の動体情報の提示を行うことができる。   According to the second handling policy shown in FIG. 57, newly detected moving objects are displayed one after another, so that the latest moving object information can always be presented to the user.

なお、この第2の取扱方針のバリエーションとして、動体Bが検出された時点で、動体Aとの面積比較を行い、動体Bの面積が動体Aの面積よりも大きい場合に限って、切出対象を動体Bへ切り替える運用を採ることもできる。動体Bの面積が動体Aの面積よりも大きくなければ、切出対象は引き続き動体Aということになる。そうすれば、現在追跡中の動体よりも重要度の高い動体(ここでは、面積の大きい動体)が出現した場合にのみ、追跡対象の切り替えが行われることになり、より実用度が増すことになる。   As a variation of this second handling policy, when moving object B is detected, an area comparison with moving object A is performed, and only when the area of moving object B is larger than the area of moving object A Can be switched to the moving object B. If the area of the moving object B is not larger than the area of the moving object A, the object to be cut out is still the moving object A. By doing so, the tracking target is switched only when a moving object having a higher importance than the moving object currently being tracked (here, a moving object having a large area) appears, and the practicality increases. Become.

このような運用を採る場合、動体検出部160は、動体追跡部190による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なり、かつ、旧動体よりも面積が大きいという条件を満たす別な動体の検出がなされた場合、当該条件を満たす新動体についての目標切出条件を実切出条件決定部170に与える処理を行うようにすればよい。上記面積条件を満たさない限り、別な動体の検出がなされても、当該別な動体は、新動体としての取り扱いを受けないことになる。   When such an operation is employed, the moving object detection unit 160 continues the moving object detection process while the moving object tracking process is performed by the moving object tracking unit 190, and is different from the old moving object that is the target of the moving object tracking process. When another moving object that satisfies the condition that the area is larger than that of the old moving object is detected, the target cutting condition determination unit 170 is provided with a target cutting condition for the new moving object that satisfies the condition. You can do it. As long as the area condition is not satisfied, even if another moving object is detected, the other moving object is not handled as a new moving object.

第3の取扱方針は、上述した第2の取扱方針に加えて、動体追跡部190に、複数の動体の同時追跡処理を実行させるものである。図57に示す例では、時刻t3において、新動体Bの検出がなされると、動体追跡部190は、旧動体Aの追跡を中止し、新動体Bの追跡を開始しているが、図33の流れ図に示す動体追跡処理は、複数の動体について並行して行うことも可能である。このように、複数の動体が検出されたときに、複数の動体について同時追跡処理を行う利点は、一方の動体が消滅した時点で直ちに他方の動体を切出対象とすることができる点である。   In the third handling policy, in addition to the second handling policy described above, the moving object tracking unit 190 executes the simultaneous tracking process of a plurality of moving objects. In the example shown in FIG. 57, when the new moving object B is detected at time t3, the moving object tracking unit 190 stops tracking the old moving object A and starts tracking the new moving object B. The moving object tracking process shown in the flowchart can be performed in parallel for a plurality of moving objects. As described above, when a plurality of moving objects are detected, an advantage of performing the simultaneous tracking process on the plurality of moving objects is that the other moving object can be extracted immediately when one moving object disappears. .

すなわち、動体追跡部190が、ある動体についての追跡処理を実行中に、動体検出部160から新動体を検出した旨の報告を受けた場合、新動体に対する追跡処理を行うとともに、旧動体に対する追跡処理も併せて行うようにする。この場合、実切出条件決定部170に対して与える追跡切出条件は、あくまでも新動体に基づく追跡切出条件にする。したがって、切出対象はあくまでも新動体になり、旧動体に対する追跡処理は、いわば水面下で行われる処理になる。そうすれば、旧動体よりも新動体が先に消滅した場合、動体追跡部190が動体検出部160に代わって、旧動体についての目標切出条件を、実切出条件決定部170に与えることができる。もちろん、動体追跡部190には、そのまま旧動体に対する追跡処理を続行させる。   That is, when the moving object tracking unit 190 receives a report indicating that a new moving object has been detected from the moving object detecting unit 160 while executing the tracking process for a certain moving object, the moving object tracking unit 190 performs the tracking process for the new moving object and the tracking for the old moving object. Processing is also performed. In this case, the tracking cutout condition given to the actual cutout condition determining unit 170 is a tracking cutout condition based on the new moving object. Therefore, the object to be cut out is a new moving object, and the tracking process for the old moving object is a process performed under the surface of the water. Then, when the new moving object disappears earlier than the old moving object, the moving object tracking unit 190 gives the target cutting condition for the old moving object to the actual cutting condition determining unit 170 instead of the moving object detecting unit 160. Can do. Of course, the moving object tracking unit 190 continues the tracking process for the old moving object as it is.

実切出条件決定部170に対して、動体追跡部190から旧動体についての目標切出条件が与えられた場合、移行期間担当部172が、新動体についての追跡切出条件から旧動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定めるようにすればよい。   When the target cutting condition for the old moving object is given from the moving object tracking unit 190 to the actual cutting condition determining unit 170, the transition period responsible unit 172 determines the old moving object from the tracking cutting condition for the new moving object. What is necessary is just to define the actual cutting condition which changes in steps so that it may transfer to target cutting conditions.

図58は、この第3の取扱方針を示すタイムチャートである。図57に示すタイムチャートとの相違点は、時刻t3において、新動体Bが検出されたときに、動体追跡部190が、新動体Bの追跡とともに、旧動体Aの追跡を並行して行う点である。そうすれば、もし、時刻t5において新動体Bが消滅したときに、旧動体Aがまだ存在していれば、動体追跡部190は、実切出条件決定部170に対して、新動体Bの消滅を報告するとともに、旧動体Aを切出対象とするための目標切出条件を報告することができる。実切出条件決定部170は、この報告を受け、切出対象を新動体Bから旧動体Aへ移行する移行処理を行うことができるので、図示のとおり、時刻t5〜t6の移行期間W2を経て、旧動体Aについての動的監視期間W3へ移行することができる。   FIG. 58 is a time chart showing the third handling policy. The difference from the time chart shown in FIG. 57 is that when a new moving object B is detected at time t3, the moving object tracking unit 190 tracks the old moving object A in parallel with the tracking of the new moving object B. It is. Then, if the new moving object B disappears at the time t5 and the old moving object A still exists, the moving object tracking unit 190 sends the new moving object B to the actual cutting condition determining unit 170. In addition to reporting the disappearance, it is possible to report the target cutting condition for making the old moving object A a cutting target. The actual cut condition determining unit 170 receives this report, and can perform a shift process for shifting the cut target from the new moving body B to the old moving body A. Therefore, as shown in the figure, the shift period W2 from time t5 to t6 is set. Then, it can transfer to the dynamic monitoring period W3 about the old moving body A. FIG.

以上、複数の動体が存在する場合の取扱方針をいくつか述べたが、切出対象(表示対象)となる動体が、短時間の間に頻繁に変更されると、ユーザに対して非常に目まぐるしい画像提示が行われることになり好ましくない。したがって、実用上は、移行期間担当部172が、旧動体から新動体へ交替する移行処理を行う際に、旧動体についての動的監視期間W3が所定の最小基準時間tmin に満たない場合には、当該動的監視期間W3が最小基準時間tmin に達するまで、待機時間をおいてから処理を開始するようにするのが好ましい。   In the above, some handling policies when there are multiple moving objects have been described, but if the moving object to be extracted (displayed) is frequently changed in a short time, it will be very dizzying for the user Image presentation is performed, which is not preferable. Therefore, practically, when the transition period charge unit 172 performs the transition process of switching from the old moving object to the new moving object, the dynamic monitoring period W3 for the old moving object is less than the predetermined minimum reference time tmin. The process is preferably started after a waiting time until the dynamic monitoring period W3 reaches the minimum reference time tmin.

図59は、図58に示す事例において、このような待機時間を設けるようにした例を示すタイムチャートである。図58のタイムチャートでは、時刻t2〜t3の期間が比較的短いため、動体Aについての動的監視期間W3を十分に確保することができず、動体Aの位置へのパンニング動作が完了した後(時刻t2)、わずかな時間で、新たな動体Bの位置へのパンニング動作が開始する(時刻t3)。この時刻t2〜t3の期間が、たとえば、1秒間といった短い時間であると、ユーザには、表示対象物の切り替えタイミングが早すぎて非常に目まぐるしい印象を与えることになる。   FIG. 59 is a time chart showing an example in which such a standby time is provided in the case shown in FIG. In the time chart of FIG. 58, since the period of time t2 to t3 is relatively short, the dynamic monitoring period W3 for the moving object A cannot be sufficiently secured, and the panning operation to the position of the moving object A is completed. (Time t2) At a short time, the panning operation to the position of the new moving body B starts (time t3). If the period of time t2 to t3 is a short time such as 1 second, for example, the switching timing of the display object is too early, giving the user a very dizzy impression.

これに対して、図59のタイムチャートでは、新動体Bが検出された時刻t3を過ぎても、切出対象は依然として旧動体Aのまま維持されている。すなわち、動体追跡部190は、時刻t3から、新動体Bと旧動体Aの双方の追跡動作を並行して実行するが、実切出条件決定部170は、時刻t3のタイミングでは、依然として旧動体Aについての動的監視期間W3を継続しており、旧動体Aについての追跡切出条件を、実切出条件として採用している。   On the other hand, in the time chart of FIG. 59, even after the time t3 when the new moving body B is detected, the object to be cut out is still maintained as the old moving body A. That is, the moving object tracking unit 190 executes the tracking operation of both the new moving object B and the old moving object A in parallel from time t3. However, the actual cut condition determining unit 170 still retains the old moving object at the timing of time t3. The dynamic monitoring period W3 for A is continued, and the tracking cutout condition for the old moving object A is adopted as the actual cutout condition.

実切出条件決定部170が、旧動体Aから新動体Bへの移行期間W2を開始するのは、時刻t2から最小基準時間tmin だけ経過した時刻t4の時点であり、時刻t3〜t4の待機時間だけ延長されている。そうすれば、旧動体Aについての動的監視期間W3として、最小基準時間tmin を確保することができるので、ユーザに対して目まぐるしい印象を与えることを避けることができる。なお、図示の例の場合、新動体Bから旧動体Aへの移行期間W2は、新動体Bの消滅判定がなされた時刻t6に開始しているが、これは新動体Bについての動的監視期間W3(時刻t5〜t6)として、最小基準時間tmin が確保されているためである。もし、時刻t5〜t6の期間が、最小基準時間tmin に満たない場合には、新動体Bから旧動体Aへの移行期間W2の開始時刻は所定の待機時間だけ延長されることになる。   The actual cutting condition determination unit 170 starts the transition period W2 from the old moving body A to the new moving body B at the time t4 when the minimum reference time tmin has elapsed from the time t2, and waits at the times t3 to t4. The time has been extended. Then, since the minimum reference time tmin can be secured as the dynamic monitoring period W3 for the old moving object A, it is possible to avoid giving a dizzy impression to the user. In the case of the illustrated example, the transition period W2 from the new moving object B to the old moving object A starts at time t6 when the disappearance determination of the new moving object B is made. This is the dynamic monitoring of the new moving object B. This is because the minimum reference time tmin is secured as the period W3 (time t5 to t6). If the period from time t5 to t6 is less than the minimum reference time tmin, the start time of the transition period W2 from the new moving object B to the old moving object A is extended by a predetermined waiting time.

<9−3.非正射影方式への適用>
これまでの実施形態は、いずれも正射影方式の魚眼レンズを用いた例であり、画像変換に用いる対応関係式も、正射影方式の魚眼レンズで撮影された歪曲円形画像Sを前提とした式になっていた。ところが、実際に市販されている魚眼レンズは、必ずしも正射影方式のレンズとは限らない。実際、魚眼レンズの投影方式としては、等距離射影方式、立体射影方式、等立体角射影方式など、様々な方式が知られており、用途に応じて、これら様々な射影方式をとる魚眼レンズが利用されている。ここでは、このような非正射影方式の魚眼レンズによって撮影された非正射影画像に対して本発明を適用する方法を説明する。
<9-3. Application to non-orthographic projection method>
All of the embodiments so far are examples using an orthographic fisheye lens, and the corresponding relational expression used for image conversion is also based on a distorted circular image S taken with an orthographic fisheye lens. It was. However, a commercially available fisheye lens is not necessarily an orthographic lens. Actually, various methods such as equidistant projection method, stereoscopic projection method, equisolid angle projection method are known as fisheye lens projection methods, and fisheye lenses that use these various projection methods are used depending on the application. ing. Here, a method for applying the present invention to a non-orthographic image captured by such a non-orthogonal fish-eye lens will be described.

正射影方式の魚眼レンズの光学的特性は、既に述べたとおり、図1に示すようなモデルによって説明することができる。すなわち、仮想球面H上の任意の入射点H(x,y,z)に対して、その法線方向から入射する入射光線L1は、Z軸に平行な方向に進む入射光線L2として、XY平面上の点S(x,y)へ到達する、という特性である。図60は、この正射影方式の魚眼レンズにおける入射光の投影状態を示す正面図である。図示のとおり、天頂角βをもった仮想球面H上の入射点H(x,y,z)に対して、その法線方向から入射した入射光線L1は、Z軸に平行な方向に進む入射光線L2として、XY平面上の点S(x,y)へ到達している。   The optical characteristics of the orthographic fisheye lens can be explained by a model as shown in FIG. That is, with respect to an arbitrary incident point H (x, y, z) on the phantom spherical surface H, an incident light beam L1 incident from the normal direction is an XY plane as an incident light beam L2 traveling in a direction parallel to the Z axis. The characteristic is that the upper point S (x, y) is reached. FIG. 60 is a front view showing a projection state of incident light in this orthographic fisheye lens. As shown in the figure, an incident ray L1 incident from the normal direction to an incident point H (x, y, z) on the virtual sphere H having a zenith angle β is incident in a direction parallel to the Z axis. As a light ray L2, it reaches a point S (x, y) on the XY plane.

ここで、入射点H(x,y,z)の天頂角βと、当該入射点H(x,y,z)を経た入射光線L2がXY平面上で到達する到達点S(x,y)の原点Oからの距離rと、の関係は、正射影方式の魚眼レンズを用いた撮影によって形成される正射影画像の場合、r=f・sinβなる式で表される。ここで、fは、魚眼レンズに固有の定数である。これに対して、たとえば、等距離射影方式の魚眼レンズを用いた撮影によって形成される等距離射影画像の場合、両者の関係は、r=f・βなる式で表されることになる。   Here, the zenith angle β of the incident point H (x, y, z) and the arrival point S (x, y) where the incident light beam L2 passing through the incident point H (x, y, z) reaches on the XY plane. In the case of an orthographic image formed by photographing using an orthographic fisheye lens, the relationship between the distance r from the origin O is expressed by the equation r = f · sinβ. Here, f is a constant specific to the fisheye lens. On the other hand, for example, in the case of an equidistant projection image formed by photographing using a fisheye lens of an equidistant projection method, the relationship between the two is expressed by the equation r = f · β.

図61は、正射影方式の魚眼レンズを用いて形成される正射影画像と、等距離射影方式の魚眼レンズを用いて形成される等距離射影画像と、の関係を示す斜視図である。図に同心円状に示す線は、同一の天頂角βをもつ入射点を経た入射光線についてのXY平面上での到達点の集合を示している。図61(a) に示す正射影画像の場合、r=f・sinβなる式が成り立つため、隣接する同心円状の線の配置間隔は、中心から周囲に向かうほど小さくなってゆく。これに対して、図61(b) に示す等距離射影画像の場合、r=f・βなる式が成り立つため、同心円状の線は、中心から周囲に向かって等間隔に配置される。   FIG. 61 is a perspective view showing the relationship between an orthographic projection image formed using an orthographic fisheye lens and an equidistant projection image formed using an equidistant projection fisheye lens. Concentric lines in the figure show a set of arrival points on the XY plane for incident light rays that have passed through the incident point having the same zenith angle β. In the case of the orthogonal projection image shown in FIG. 61 (a), the equation r = f · sinβ is established, and therefore the arrangement interval between adjacent concentric lines decreases from the center toward the periphery. On the other hand, in the case of the equidistant projection image shown in FIG. 61 (b), the equation r = f · β holds, and therefore concentric lines are arranged at equal intervals from the center toward the periphery.

このように、正射影画像と等距離射影画像とは、いずれも歪曲円形画像という点では共通するものの、その歪みの状態が両者では異なっているため、当然ながら、平面正則画像に変換するために用いる変換演算式も異なったものになる。したがって、正射影画像を平面正則画像に変換する場合には、図17に示す正射影画像用対応関係式を用いることができるが、等距離射影画像などの非正射影画像を平面正則画像に変換する場合には、それぞれについての専用の対応関係式を用いる必要がある。   Thus, although the orthographic projection image and the equidistant projection image are both common in terms of a distorted circular image, the distortion state is different between the two, so of course, to convert it into a planar regular image The conversion formula used is also different. Therefore, when converting an orthographic projection image into a planar regular image, the correspondence relation for orthographic projection image shown in FIG. 17 can be used, but a non-orthogonal projection image such as an equidistant projection image is converted into a planar regular image. When doing so, it is necessary to use a dedicated correspondence relation for each.

ただ、正射影画像上の座標と非正射影画像上の座標とは、所定の座標変換式を介して相互に変換することが可能である。したがって、本発明を実施するにあたって、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sが、非正射影方式の魚眼レンズによって撮影された非正射影画像である場合には、正射影画像上の座標と非正射影画像上の座標との間の座標変換式を用いて正射影画像用対応関係式を補正することにより得られる非正射影画像用対応関係式を用いるようにすればよい。以下、非正射影画像として、等距離射影画像を用いた場合を例にとって、この方法を説明する。   However, the coordinates on the orthographic image and the coordinates on the non-orthographic image can be converted into each other via a predetermined coordinate conversion formula. Therefore, in implementing the present invention, when the distorted circular image S stored in the distorted circular image memory 130 is a non-orthographic image captured by a non-orthogonal fisheye lens, What is necessary is just to use the non-orthogonal image correspondence equation obtained by correcting the orthographic image correspondence equation using a coordinate conversion equation between the coordinates of the image and the coordinates on the non-orthogonal image. Hereinafter, this method will be described by taking an example of using an equidistant projection image as a non-orthographic projection image.

図61に示すように、正射影画像上の任意の1点と、等距離射影画像上の特定の1点とは、相互に1対1の対応関係を定義することができる(図の破線は、この対応関係を示している)。具体的には、等距離射影画像上の任意の1点の座標を(xb,yb)とし、これに対応する正射影画像上の特定の1点の座標を(xa,ya)とすれば、両者間には、図62の上段に示すように、
xa=xb(R/r) sin (πr/2R) 式(15)
ya=yb(R/r) sin (πr/2R) 式(16)
但し、r=√(xb+yb
なる式が成り立つ。逆に、正射影画像上の任意の1点の座標を(xa,ya)とし、これに対応する等距離射影画像上の特定の1点の座標を(xb,yb)とすれば、両者間には、図26の下段に示すように、
xb=xa(2R/πr) sin-1 (r/R) 式(17)
yb=ya(2R/πr) sin-1 (r/R) 式(18)
但し、r=√(xa+ya
が成り立つ。
As shown in FIG. 61, an arbitrary point on the orthographic projection image and a specific point on the equidistant projection image can define a one-to-one correspondence with each other (the broken line in the figure is Shows this correspondence). Specifically, if the coordinate of an arbitrary point on the equidistant projection image is (xb, yb) and the coordinate of a specific point on the orthographic image corresponding to this is (xa, ya), As shown in the upper part of FIG.
xa = xb (R / r) sin (πr / 2R) Equation (15)
ya = yb (R / r) sin (πr / 2R) Equation (16)
However, r = √ (xb 2 + yb 2 )
The following formula holds. Conversely, if the coordinate of an arbitrary point on the orthographic projection image is (xa, ya) and the coordinate of a specific point on the equidistant projection image corresponding to this is (xb, yb), As shown in the lower part of FIG.
xb = xa (2R / πr) sin −1 (r / R) Equation (17)
yb = ya (2R / πr) sin −1 (r / R) Equation (18)
However, r = √ (xa 2 + ya 2 )
Holds.

結局、上記式(15),(16)は、等距離射影画像上の座標(xb,yb)を正射影画像上の座標(xa,ya)に変換する式(以下、第1の座標変換式と言う)であり、上記式(17),(18)は、正射影画像上の座標(xa,ya)を等距離射影画像上の座標(xb,yb)に変換する式(以下、第2の座標変換式と言う)ということになる。   Eventually, the above formulas (15) and (16) are the formulas for converting the coordinates (xb, yb) on the equidistant projection image into the coordinates (xa, ya) on the orthographic projection image (hereinafter referred to as the first coordinate conversion formula). The above formulas (17) and (18) are the formulas (hereinafter referred to as second formulas) for converting the coordinates (xa, ya) on the orthographic projection image into the coordinates (xb, yb) on the equidistant projection image. This is called the coordinate conversion formula.

そこで、図28に示す歪曲円形画像用メモリ130に格納されている画像が、等距離射影方式の魚眼レンズによって撮影された等距離射影画像である場合には、画像切出変換部150は、まず、これまで述べてきた正射影画像用対応関係式を用いて、所望の座標(u,v)に対応する対応座標(x,y)を算出すればよい。こうして算出された対応座標(x,y)は、正射影画像上の座標(xa,ya)に対応するものであるから、上述した第2の座標変換式を用いて、これを等距離射影画像上の座標(xb,yb)に変換し、変換後の座標(xb,yb)を、歪曲円形画像用メモリ130を実際にアクセスする際に用いる座標として利用すればよい。   Therefore, when the image stored in the distorted circular image memory 130 shown in FIG. 28 is an equidistant projection image photographed by an equidistant projection fisheye lens, The corresponding coordinates (x, y) corresponding to the desired coordinates (u, v) may be calculated using the orthographic image corresponding relational expressions described so far. Since the corresponding coordinates (x, y) calculated in this way correspond to the coordinates (xa, ya) on the orthographic image, this is converted into the equidistant projection image using the second coordinate conversion formula described above. The upper coordinates (xb, yb) may be converted, and the converted coordinates (xb, yb) may be used as coordinates used when the distorted circular image memory 130 is actually accessed.

なお、図9,図39,図54等に示すモデルにおいて、歪曲円形画像S上の切出中心点Pと、これに対応する仮想球面H上の対応点Qとの関係についても留意が必要である。これまで述べてきた実施形態のように、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sが、正射影方式の魚眼レンズによって撮影された正射影画像である場合には、図9のモデルのように、切出中心点P(xp,yp)を通りZ軸に平行な直線と仮想球面Hとの交点Q(xp,yp,zp)を定義すれば、当該交点Qが切出中心点Pの対応点になる。これは、正射影方式の場合、切出中心点Pの真上の位置に、仮想球面H上の対応点Qが位置するからである。   In the models shown in FIGS. 9, 39, 54, etc., attention should be paid to the relationship between the cut-out center point P on the distorted circular image S and the corresponding point Q on the virtual sphere H corresponding thereto. is there. When the distorted circular image S stored in the distorted circular image memory 130 is an orthographic image captured by an orthographic fisheye lens as in the embodiments described so far, the model shown in FIG. If an intersection point Q (xp, yp, zp) between a straight line passing through the cutting center point P (xp, yp) and parallel to the Z axis and the virtual spherical surface H is defined, the intersection point Q becomes the cutting center point. It becomes a corresponding point of P. This is because the corresponding point Q on the phantom spherical surface H is located at a position directly above the cut-out center point P in the case of the orthogonal projection method.

ところが、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sが、非正射影方式の魚眼レンズによって撮影された非正射影画像である場合には、仮想球面上の対応点Qは切出中心点Pの真上には位置しない。そこで、この場合、正射影画像上の座標と非正射影画像上の座標との間の座標変換式を用いて、切出中心点Pの座標を補正し、補正後の点を通りZ軸に平行な直線と仮想球面Hとの交点を対応点Qとする必要がある。   However, when the distorted circular image S stored in the distorted circular image memory 130 is a non-orthographic image captured by a non-orthogonal fish-eye lens, the corresponding point Q on the virtual sphere is the cut-out center. It is not located directly above the point P. Therefore, in this case, the coordinate of the cut-out center point P is corrected using a coordinate conversion formula between the coordinates on the orthographic image and the coordinates on the non-orthographic image, and the corrected point is passed along the Z axis. The point of intersection between the parallel straight line and the phantom spherical surface H needs to be the corresponding point Q.

たとえば、歪曲円形画像Sが等距離射影画像の場合、当該歪曲円形画像S上の1点として指定された切出中心点Pの座標は、等距離射影画像上の座標(xb,yb)に相当するので、上述した第1の座標変換式を用いて、これを正射影画像上の座標(xa,ya)に変換し、変換後の座標(xa,ya)によって示される点を通りZ軸に平行な直線と仮想球面Hとの交点を対応点Qとすればよい。   For example, when the distorted circular image S is an equidistant projection image, the coordinates of the cut-out center point P designated as one point on the distorted circular image S correspond to the coordinates (xb, yb) on the equidistant projection image. Therefore, using the first coordinate conversion formula described above, this is converted into coordinates (xa, ya) on the orthographic projection image, passing through the point indicated by the converted coordinates (xa, ya), and passing through the Z axis. The intersection point between the parallel straight line and the phantom spherical surface H may be set as the corresponding point Q.

このような方法を採れば、歪曲円形画像用メモリ130に格納されている画像が、等距離射影方式の魚眼レンズによって撮影された等距離射影画像である場合にも、基本的には、これまで述べてきた実施形態と同等の変換処理を適用することが可能になる。もちろん、この方法は、等距離射影画像への適用に限定されるものではなく、非正射影画像一般に広く適用することが可能である。   By adopting such a method, basically, even when the image stored in the distorted circular image memory 130 is an equidistant projection image photographed by an equidistant projection fisheye lens, basically, it has been described so far. It is possible to apply a conversion process equivalent to that of the embodiment described above. Of course, this method is not limited to application to equidistant projection images, and can be widely applied to non-orthographic projection images in general.

結局、一般論として述べれば、画像切出変換部150は、仮想球面H上に、撮影に用いた魚眼レンズの投影方式に応じて、二次元XY直交座標系上の座標(xi,yi)で示される点Siに対応する球面上対応点Qiをとり、原点Oとこの球面上対応点Qiとを結ぶ直線と二次元UV直交座標系の配置面との交点Tiの二次元UV直交座標系上での座標を(ui,vi)としたときに、座標(xi,yi)が座標(ui,vi)に対応する対応座標として求まる対応関係式を用いて、歪曲円形画像Sを平面正則画像Tに変換する処理を行えばよい。   After all, in general terms, the image cut-out conversion unit 150 is represented on the virtual spherical surface H by coordinates (xi, yi) on the two-dimensional XY orthogonal coordinate system according to the projection method of the fisheye lens used for photographing. A corresponding point Qi on the spherical surface corresponding to the point Si to be obtained, and on the two-dimensional UV orthogonal coordinate system of the intersection Ti of the straight line connecting the origin O and the corresponding point Qi on the spherical surface and the arrangement surface of the two-dimensional UV orthogonal coordinate system. When the coordinates of (i, vi) are (ui, vi), the distorted circular image S is converted into a planar regular image T by using a correspondence expression in which the coordinates (xi, yi) are obtained as corresponding coordinates corresponding to the coordinates (ui, vi). What is necessary is just to perform the process to convert.

特に、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sが、正射影方式の魚眼レンズによって撮影された正射影画像である場合には、図9に示すモデルで説明したとおり、座標(xp,yp)で示される切出中心点Pに対して、当該点Pを通りZ軸に平行な直線と仮想球面Hとの交点として与えられる座標(xp,yp,zp)で示される点を仮想球面H上の対応点Qとし、座標(xi,yi)で示される点Siに対して、当該点Siを通りZ軸に平行な直線と仮想球面Hとの交点として与えられる座標(xi,yi,zi)で示される点を仮想球面H上の対応点Qiとすることを前提として成り立つ正射影画像用対応関係式(図17に示す関係式)を用いて、座標(x,y)と座標(u,v)との間の変換を行うようにすればよい。   In particular, when the distorted circular image S stored in the distorted circular image memory 130 is an orthographic image captured by an orthographic fisheye lens, as described in the model shown in FIG. , Yp), a point indicated by coordinates (xp, yp, zp) given as an intersection of a straight line passing through the point P and parallel to the Z axis and the virtual spherical surface H is assumed to be virtual. As a corresponding point Q on the spherical surface H, with respect to a point Si indicated by coordinates (xi, yi), coordinates (xi, yi) given as an intersection of a straight line passing through the point Si and parallel to the Z axis and the virtual spherical surface H , Zi) and the coordinate (x, y) and the coordinate using the orthographic image corresponding relational expression (the relational expression shown in FIG. 17) that is based on the assumption that the corresponding point Qi on the virtual sphere H is the corresponding point. If you convert between (u, v) There.

一方、歪曲円形画像用メモリ130に格納されている歪曲円形画像Sが、非正射影方式の魚眼レンズによって撮影された非正射影画像である場合には、正射影画像上の座標と非正射影画像上の座標との間の座標変換式を用いて正射影画像用対応関係式を補正することにより得られる非正射影画像用対応関係式を用いるようにすればよい。具体的には、歪曲円形画像用メモリ130に格納されている歪曲円形画像が、等距離射影方式の魚眼レンズによって撮影された等距離射影画像である場合には、図62の下段に示すように、正射影画像上の座標(xa,ya)を等距離射影画像上の座標(xb,yb)に変換する座標変換式
xb=xa(2R/πr) sin-1 (r/R)
yb=ya(2R/πr) sin-1 (r/R)
但し、r=√(xa+ya
を用いて、正射影画像用対応関係式に対する補正を行えばよい。
On the other hand, when the distorted circular image S stored in the distorted circular image memory 130 is a non-orthographic image captured by a non-orthogonal fisheye lens, the coordinates on the orthographic image and the non-orthographic image are displayed. What is necessary is just to use the non-orthogonal image correspondence equation obtained by correcting the orthographic image correspondence equation using the coordinate conversion equation with the upper coordinates. Specifically, when the distorted circular image stored in the distorted circular image memory 130 is an equidistant projection image photographed by an equidistant projection fisheye lens, as shown in the lower part of FIG. Coordinate conversion formula for converting coordinates (xa, ya) on the orthographic projection image to coordinates (xb, yb) on the equidistant projection image xb = xa (2R / πr) sin −1 (r / R)
yb = ya (2R / πr) sin −1 (r / R)
However, r = √ (xa 2 + ya 2 )
May be used to correct the orthographic image correspondence equation.

<9−4.曲面上に配置された座標系の利用>
これまで述べた実施形態では、図9のモデルに示すとおり、平面上に定義された二次元UV直交座標系上に平面正則画像Tを求める変換方法を採っていた。しかしながら、歪曲円形画像Sから平面正則画像Tへの画像変換には、必ずしも平面上に定義された二次元UV直交座標系を用いる必要はなく、曲面上に定義された二次元UV湾曲座標系を用いることも可能である。
<9-4. Use of coordinate system placed on curved surface>
In the embodiment described so far, as shown in the model of FIG. 9, the conversion method for obtaining the planar regular image T on the two-dimensional UV orthogonal coordinate system defined on the plane is adopted. However, for the image conversion from the distorted circular image S to the planar regular image T, it is not always necessary to use the two-dimensional UV orthogonal coordinate system defined on the plane, and the two-dimensional UV curved coordinate system defined on the curved surface is used. It is also possible to use it.

図63は、図9のモデルにおける二次元UV直交座標系の代わりに、曲面上に定義された二次元UV湾曲座標系を用いたモデルである。両者の相違点は、UV座標系の定義の仕方だけである。すなわち、図9のモデルでは、UV座標系は、点G(xg,yg,zg)を通り、視線ベクトルnに直交する平面上に定義されているのに対し、図63のモデルでは、この平面上に定義されたUV直交座標系を円柱側面に沿って湾曲させている。したがって、図9のモデルでは、二次元UV直交座標系(平面上の座標系)上に平面正則画像Tが得られることになるのに対して、図63のモデルでは、二次元UV湾曲座標系(円柱側面上の座標系)上に湾曲正則画像Cが得られることになる。   FIG. 63 is a model using a two-dimensional UV curved coordinate system defined on a curved surface instead of the two-dimensional UV orthogonal coordinate system in the model of FIG. The only difference between the two is how to define the UV coordinate system. That is, in the model of FIG. 9, the UV coordinate system is defined on a plane passing through the point G (xg, yg, zg) and orthogonal to the line-of-sight vector n, whereas in the model of FIG. The UV orthogonal coordinate system defined above is curved along the side of the cylinder. Therefore, in the model of FIG. 9, the planar regular image T is obtained on the two-dimensional UV orthogonal coordinate system (coordinate system on the plane), whereas in the model of FIG. 63, the two-dimensional UV curved coordinate system is obtained. A curved regular image C is obtained on the (coordinate system on the cylinder side surface).

図63に破線で示す平面正則画像Tは、図9に実線で示す平面正則画像Tと同じものであり、点G(xg,yg,zg)を通り、視線ベクトルnに直交する平面上に定義された二次元UV直交座標系上の画像である。これに対して、図63に実線で示す湾曲正則画像Cは、この平面正則画像Tを湾曲させた画像に相当し、円柱側面に沿った曲面上の画像になる。   A planar regular image T indicated by a broken line in FIG. 63 is the same as the planar regular image T indicated by a solid line in FIG. 9 and is defined on a plane that passes through the point G (xg, yg, zg) and is orthogonal to the line-of-sight vector n. It is the image on the made two-dimensional UV orthogonal coordinate system. On the other hand, the curved regular image C indicated by the solid line in FIG. 63 corresponds to an image obtained by curving the planar regular image T, and is an image on a curved surface along the cylindrical side surface.

要するに、この図63に示すモデルで定義される二次元UV湾曲座標系は、三次元XYZ直交座標系を構成する空間内の所望の位置において、仮想円柱の側面に沿った湾曲面上に配置された座標系ということになり、この湾曲座標系上に定義される湾曲正則画像Cも、仮想円柱の側面に沿って湾曲した画像ということになる。   In short, the two-dimensional UV curved coordinate system defined by the model shown in FIG. 63 is arranged on the curved surface along the side surface of the virtual cylinder at a desired position in the space constituting the three-dimensional XYZ orthogonal coordinate system. The curved regular image C defined on the curved coordinate system is also an image curved along the side surface of the virtual cylinder.

この二次元UV湾曲座標系も、U軸とV軸とを有する二次元の座標系であるから、湾曲正則画像C内の任意の1点が(ui,vi)なる座標で示される点は、通常の平面上の二次元座標系の場合と同じである。ただ、この二次元UV湾曲座標系は、点Gを原点とし、視線ベクトルnに直交する平面上に配置された二次元UV直交座標系を、仮想円柱の側面に沿って湾曲させることにより定義された座標系になる。そして、この湾曲のプロセスに用いる仮想円柱は、二次元UV直交座標系のV軸に平行な中心軸をもち、半径がmR(点OG間の距離)に等しい円柱とし、その側面上に点Gがくるように配置される。結局、このような条件を満たす仮想円柱を三次元XYZ直交座標系上に配置すると、当該仮想円柱の中心軸は、図63に一点鎖線で示すように、原点Oを通る軸V′になり、2点OGを結ぶ線分は、この仮想円柱の半径を構成することになる。   Since this two-dimensional UV curved coordinate system is also a two-dimensional coordinate system having a U axis and a V axis, an arbitrary point in the curved regular image C is indicated by coordinates (ui, vi). This is the same as the case of a two-dimensional coordinate system on a normal plane. However, this two-dimensional UV curved coordinate system is defined by bending a two-dimensional UV orthogonal coordinate system arranged on a plane orthogonal to the line-of-sight vector n with the point G as the origin along the side surface of the virtual cylinder. It becomes a coordinate system. The virtual cylinder used for this bending process is a cylinder having a central axis parallel to the V-axis of the two-dimensional UV orthogonal coordinate system and having a radius equal to mR (distance between points OG). Is arranged to come. Eventually, when a virtual cylinder satisfying such a condition is arranged on the three-dimensional XYZ orthogonal coordinate system, the central axis of the virtual cylinder becomes an axis V ′ passing through the origin O as shown by a one-dot chain line in FIG. The line segment connecting the two points OG constitutes the radius of this virtual cylinder.

このような二次元UV湾曲座標系上に湾曲正則画像Cを得る原理は、二次元UV直交座標系上に平面正則画像Tを得る原理と全く同じである。すなわち、湾曲正則画像C上の1点Ci(ui,vi)について、歪曲円形画像S上の1点Si(xi,yi)を対応づけ、点Ci(ui,vi)に位置する画素の画素値を、点Si(xi,yi)の近傍に位置する画素の画素値に基づいて決定すればよい。そのためには、二次元UV湾曲座標系上の任意の座標(u,v)とXY平面上の対応座標(x,y)とを1対1に対応づける対応関係式が必要になる。このような対応関係式は、図17に示す対応関係式とは若干異なるが、XYZ三次元座標系における仮想円柱側面の幾何学的位置を考慮することにより求めることができる。詳細は、たとえば、特願2008−225570明細書などに開示されているので、ここでは具体的な対応関係式についての説明は省略する。   The principle of obtaining a curved regular image C on such a two-dimensional UV curved coordinate system is exactly the same as the principle of obtaining a planar regular image T on a two-dimensional UV orthogonal coordinate system. That is, one point Ci (ui, vi) on the curved regular image C is associated with one point Si (xi, yi) on the distorted circular image S, and the pixel value of the pixel located at the point Ci (ui, vi) May be determined based on the pixel value of a pixel located in the vicinity of the point Si (xi, yi). For this purpose, a corresponding relational expression that associates an arbitrary coordinate (u, v) on the two-dimensional UV curved coordinate system with a corresponding coordinate (x, y) on the XY plane is required. Such a corresponding relational expression is slightly different from the corresponding relational expression shown in FIG. 17, but can be obtained by considering the geometric position of the side surface of the virtual cylinder in the XYZ three-dimensional coordinate system. Details are disclosed in, for example, the specification of Japanese Patent Application No. 2008-225570 and the like, and a description of a specific correspondence relation formula is omitted here.

結局、本発明に係る魚眼監視システムの画像切出変換部150は、二次元UV座標系(平面上に定義された直交座標系でもよいし、曲面上に定義された湾曲座標系でもよい)上の座標(u,v)と二次元XY座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像Sから切り出した画像を平面正則画像Tに変換する処理を行えばよい。   Eventually, the image cut-out conversion unit 150 of the fish-eye monitoring system according to the present invention may be a two-dimensional UV coordinate system (an orthogonal coordinate system defined on a plane or a curved coordinate system defined on a curved surface). Corresponding coordinates (x, x) corresponding to coordinates (u, v) using a predetermined correspondence expression indicating the correspondence between coordinates (u, v) above and coordinates (x, y) in the two-dimensional XY coordinate system , Y) by calculating an image cut out from the distorted circular image S into a planar regular image T.

この場合、図9もしくは図63に示すモデルのように、切出中心点Pに対応する仮想球面H上の点である対応点Qをとり、原点Oを起点として対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、点Gを通り視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義すればよい。ここで、点Qと点Pとの対応関係は、歪曲円形画像Sが配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面Hを定義し、原点Oに向かって当該仮想球面H上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用(レンズの投射方式によって異なる)によってXY平面上の1点に到達する場合に、当該仮想球面H上の1点Qと当該XY平面上の1点Pとの関係として定義される。   In this case, as in the model shown in FIG. 9 or FIG. 63, a corresponding point Q that is a point on the virtual spherical surface H corresponding to the cut-out center point P is taken, and a vector passing through the corresponding point Q starting from the origin O A vector n is defined on a plane perpendicular to the line-of-sight vector n passing through the point G and having a point G on the line-of-sight vector n separated from the origin O by “product m · R of the magnification m and the radius R”. Alternatively, a two-dimensional UV coordinate system may be defined which is arranged on a curved surface obtained by bending the plane with an orientation corresponding to the plane inclination angle φ. Here, the correspondence between the point Q and the point P is that a virtual spherical surface H having a radius R with the origin O as the center in a three-dimensional XYZ orthogonal coordinate system including a two-dimensional XY orthogonal coordinate system in which the distorted circular image S is arranged. When the external light that is defined and is incident on one point on the virtual spherical surface H toward the origin O reaches one point on the XY plane by the optical action of the fisheye lens used for photographing (depending on the lens projection method). Is defined as a relationship between one point Q on the phantom spherical surface H and one point P on the XY plane.

なお、これまで述べた例では、得られる平面正則画像の中心点が、UV座標系の原点Gに一致していたが、平面正則画像は、必ずしも原点Gを中心に切り出したものにする必要はない。   In the examples described so far, the center point of the obtained planar regular image coincides with the origin G of the UV coordinate system. However, the planar regular image need not necessarily be cut out with the origin G as the center. Absent.

<9−5.動体消滅後の移行期間>
これまで述べてきた実施形態では、図35の流れ図に示すとおり、動体追跡中に動体が消滅したと判断されると、動的監視期間W3から静的監視期間W1に復帰する処理が行われる。この復帰時には、特に移行期間を設けていないため、モニタ画面上では、動体が消滅したと判定されると、当該動体を追跡していた画面から、急に、もとの標準監視画面(標準切出中心点P0の周辺を示す画面)へ切り替わることになる。
<9-5. Transition period after moving object disappears>
In the embodiment described so far, as shown in the flowchart of FIG. 35, when it is determined that the moving object has disappeared during the tracking of the moving object, the process of returning from the dynamic monitoring period W3 to the static monitoring period W1 is performed. At the time of this return, there is no special transition period, so if it is determined on the monitor screen that the moving object has disappeared, the original standard monitoring screen (standard switching screen) will suddenly start from the screen that was tracking the moving object. The screen changes to a screen showing the periphery of the departure center point P0.

この標準監視画面は、たとえば、図21(a) に示すフレームF0の画面のように、動体の検出が行われていない場合にモニタに表示されるデフォルト画面であり、監視業務を行うユーザであれば、その位置を潜在的に認識していることになる。したがって、動的監視期間W3から静的監視期間W1への切り替えが急に行われて、モニタ画面が標準監視画面に切り替わったとしても、切り替え前後の画像の空間的な位置関係の認識に混乱が生じるわけではない。むしろ、標準監視画面への急な切り替えを行うことにより、ユーザに、追跡中の動体が消滅した事実を明示的に報知する効果が得られるメリットがある。   This standard monitoring screen is a default screen that is displayed on the monitor when no moving object is detected, such as the frame F0 screen shown in FIG. 21 (a). In that case, the position is potentially recognized. Therefore, even when the switching from the dynamic monitoring period W3 to the static monitoring period W1 is suddenly performed and the monitor screen is switched to the standard monitoring screen, the recognition of the spatial positional relationship between the images before and after the switching is confused. It doesn't happen. Rather, there is a merit that an effect of explicitly informing the user of the fact that the moving object being tracked disappears can be obtained by performing a sudden switch to the standard monitoring screen.

ただ、画面の急激な切り替えを行うことが好ましくない事情がある場合には、動的監視期間W3から静的監視期間W1に復帰する際に、移行期間W4を設けることも可能である。この場合、実切出条件決定部170は、この移行期間W4において、動的監視期間W3の最終的な追跡切出条件から標準切出条件へ移行するように段階的に変わる実切出条件を決定すればよい。具体的な移行プロセスは、移行期間W2における移行プロセスと同様であり、パンニング動作およびズーミング動作によって、表示画面が徐々に切り替わることになる。   However, when there is a situation in which it is not preferable to perform rapid screen switching, a transition period W4 can be provided when returning from the dynamic monitoring period W3 to the static monitoring period W1. In this case, the actual cutting condition determination unit 170 determines the actual cutting condition that changes step by step so as to shift from the final tracking cutting condition in the dynamic monitoring period W3 to the standard cutting condition in the transition period W4. Just decide. The specific transition process is the same as the transition process in the transition period W2, and the display screen is gradually switched by the panning operation and the zooming operation.

<<< §10.一般的な画像提示システムへの適用 >>>
以上、本発明の基本的技術思想を魚眼監視システムという具体的なシステムに応用した実施形態を述べたが、本発明の技術思想は、魚眼監視システムへの応用に限定されるものではない。すなわち、この技術思想は、監視カメラの用途だけではなく、一般的な画像提示システムに広く利用可能であり、たとえば、ゲーム装置、遊技装置などのエンターテインメントの分野において、画像を提示する技術にも利用可能である。
<<< §10. Application to general image presentation system >>
As mentioned above, although embodiment which applied the basic technical idea of this invention to the concrete system called a fish-eye monitoring system was described, the technical idea of this invention is not limited to the application to a fish-eye monitoring system. . That is, this technical idea can be widely used not only for surveillance cameras but also for general image presentation systems. For example, in the field of entertainment such as game devices and game devices, it is also used for technologies for presenting images. Is possible.

もちろん、このような分野に用いる画像提示システムでは、魚眼レンズ付ビデオカメラは必須の構成要件にはならない。たとえば、何らかの歪曲円形画像S(実際に魚眼レンズを用いた撮影によって得られた画像でもよいし、CGで作成した画像でもよい)を予めメモリに格納しておき、ユーザが指定した任意の切出条件に基づいて、所定の箇所から、所定の向きに、所定の倍率で画像を切り出して平面正則画像に変換し、これを提示する画像提示システムの場合、ユーザが新たな切出条件を指定するたびに、旧切出条件から新切出条件へ移行する処理が必要になるが、§8で述べたパンニング処理やズーミング処理は、このような移行処理へ応用することができる。   Of course, a video camera with a fisheye lens is not an essential component in an image presentation system used in such a field. For example, any distorted circular image S (which may be an image actually obtained by photographing using a fisheye lens or an image created by CG) is stored in a memory in advance, and an arbitrary clipping condition specified by the user In the case of an image presentation system that cuts out an image from a predetermined location in a predetermined direction at a predetermined magnification and converts the image into a planar regular image and presents the image, every time the user specifies a new extraction condition In addition, a process of shifting from the old cutting condition to the new cutting condition is required, but the panning process and zooming process described in §8 can be applied to such a shifting process.

要するに、本発明は、魚眼レンズを用いた撮影により得られた歪曲円形画像もしくは同等のCG処理で作成された歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これを画面上に提示する画像提示システムに広く応用することが可能である。   In short, the present invention cuts out a part of a distorted circular image obtained by photographing using a fisheye lens or a distorted circular image created by equivalent CG processing, converts it into a planar regular image, and presents it on the screen. It can be widely applied to image presentation systems.

たとえば、二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、当該座標系の原点Oを中心とし半径Rをもち、魚眼レンズを用いた撮影により得られた歪曲円形画像を格納する歪曲円形画像用メモリと、二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、平面正則画像用メモリ内に格納されている平面正則画像を画面上に表示する画像表示装置と、歪曲円形画像上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像の一部から平面正則画像を切り出すための条件として決定する実切出条件決定部と、この実切出条件決定部から与えられた実切出条件に基づいて、歪曲円形画像用メモリに格納されている歪曲円形画像の切出中心点Pで示される切り出し位置から、平面傾斜角φで示される切り出し向きに、倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して、平面正則画像用メモリに格納する画像切出変換部と、を備えた一般的な画像提示システムに対して、本発明に係るパンニング処理を適用するのであれば、実切出条件決定部が、現在の切出中心点P0を含む現切出条件から、目標となる切出中心点Pnを含む目標切出条件への変更を行う際に、画像切出変換部に対して与える切出中心点Pの位置を、点P0から点Pnへと段階的に移行させる処理を行うようにすればよい。   For example, it is composed of an aggregate of a large number of pixels arranged at a position indicated by coordinates (x, y) on a two-dimensional XY coordinate system, has a radius R around the origin O of the coordinate system, and uses a fisheye lens. A distorted circular image memory for storing a distorted circular image obtained by photographing, and an aggregate of a large number of pixels arranged at positions indicated by coordinates (u, v) on the two-dimensional UV coordinate system. Planar regular image memory for storing a planar regular image, an image display device for displaying a planar regular image stored in the planar regular image memory on a screen, and a cutout center as one point on a distorted circular image Actual cutting condition for determining an actual cutting condition constituted by the point P, a predetermined plane inclination angle φ, and a predetermined magnification m as a condition for cutting a plane regular image from a part of a distorted circular image Decision part and this actual cutting Based on the actual cutting conditions given from the matter determining unit, the cutting direction indicated by the plane inclination angle φ from the cutting position indicated by the cut center point P of the distorted circular image stored in the distorted circular image memory In addition, an image cut-out conversion unit that cuts out an image having a cut-out size indicated by the magnification m, converts the image into a plane regular image, and stores the image in a plane regular image memory. If the panning process according to the present invention is applied, the actual cutting condition determination unit determines the target cutting point including the target cutting center point Pn from the current cutting condition including the current cutting center point P0. When changing to the extraction condition, a process of shifting the position of the extraction center point P given to the image extraction conversion unit from the point P0 to the point Pn in a stepwise manner may be performed.

具体的には、これまで述べてきた実施形態と同様に、歪曲円形画像が配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面Hを定義し、原点Oに向かって当該仮想球面H上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用によってXY平面上の1点に到達する場合に、当該仮想球面H上の1点と当該XY平面上の1点とを相互に対応する点と定義し、切出中心点Pに対応する仮想球面H上の点である対応点Qをとり、原点Oを起点として対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、点Gを通り視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義する。そして、画像切出変換部が、二次元UV座標系上の座標(u,v)と二次元XY直交座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像から切り出した画像を平面正則画像に変換する処理を行うようにすればよい。   Specifically, as in the embodiments described so far, in a three-dimensional XYZ orthogonal coordinate system including a two-dimensional XY orthogonal coordinate system in which a distorted circular image is arranged, an imaginary spherical surface H having a radius R about the origin O. When the outside light incident on one point on the virtual spherical surface H toward the origin O reaches one point on the XY plane by the optical action of the fisheye lens used for photographing, the light on the virtual spherical surface H And a point on the XY plane are defined as points that correspond to each other, a corresponding point Q that is a point on the virtual spherical surface H corresponding to the cut-out center point P is taken, and the origin O is the starting point A vector passing through the point Q is defined as a line-of-sight vector n. A point G on the line-of-sight vector n that is separated from the origin O by a “product m · R of the magnification m and the radius R” is the origin, and the line of sight passes through the point G. Curved on or on a plane orthogonal to vector n And with the direction corresponding to the planar inclination angle φ on the curved surface to define the arranged two-dimensional UV coordinate system. Then, the image cut-out conversion unit uses a predetermined correspondence expression indicating the correspondence between the coordinates (u, v) on the two-dimensional UV coordinate system and the coordinates (x, y) on the two-dimensional XY orthogonal coordinate system. Thus, by calculating the corresponding coordinates (x, y) corresponding to the coordinates (u, v), processing for converting an image cut out from the distorted circular image into a planar regular image may be performed.

このとき、実切出条件決定部が、切出中心点Pについての仮想球面H上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定するようにすれば、実映像空間における所望の速度でのパンニング動作が可能になるので、ユーザに対して自然なパンニング効果を提供することができる。   At this time, the actual cutting condition determination unit determines that the corresponding point Q on the virtual spherical surface H with respect to the cutting center point P is a predetermined spherical surface set as a function related to time on a predetermined spherical movement path set in advance. If the position of the cut-out center point P is determined so as to move at a moving speed, a panning operation can be performed at a desired speed in the real image space, so that a natural panning effect is provided to the user. can do.

また、本発明に係るパンニング処理に加えて、本発明に係るズーミング処理を適用するのであれば、実切出条件決定部が、切出中心点Pの位置を点P0から点Pnへと段階的に移行させる処理を行うとともに、倍率mの値を、現在の倍率m0から目標となる倍率mnへと段階的に移行させる処理を行うようにすればよい。この場合も、時間に関する関数として設定された所定の倍率変更速度で倍率mの値を移行させるようにすれば、実映像空間における所望の速度でのズーミング動作が可能になるので、ユーザに対して自然なズーミング効果を提供することができる。   If the zooming process according to the present invention is applied in addition to the panning process according to the present invention, the actual cutting condition determination unit gradually changes the position of the cutting center point P from the point P0 to the point Pn. And a process of shifting the value of the magnification m from the current magnification m0 to the target magnification mn in a stepwise manner. Also in this case, if the value of the magnification m is shifted at a predetermined magnification change speed set as a function related to time, a zooming operation at a desired speed in the real video space can be performed. A natural zooming effect can be provided.

10:路面
20:建物
30:魚眼レンズ付ビデオカメラ
31:撮像中心点
40:樹木
50:ガードレール
60:動体
70:実切出中心点決定部
71:関数格納部
72:対応点変換部
80:実平面傾斜角決定部
90:実倍率決定部
91:関数格納部
92:関数参照部
100:魚眼監視システム
110:魚眼レンズ付ビデオカメラ
115:画像入力部
120:モニタ装置
125:画像出力部
130:歪曲円形画像用メモリ
140:平面正則画像用メモリ
150:画像切出変換部
160:動体検出部
161:背景画像保持部
162:対応画素比較部
163:着目領域探索部
164:動体検出判定部
170:実切出条件決定部
171:静的監視期間担当部
172:移行期間担当部
173:動的監視期間担当部
180:標準切出条件格納部
185:手動条件設定部
190:動体追跡部
191:既知動体領域保持部
192:候補領域抽出部
193:特徴量演算部
194:新動体領域認識部
195:動体追跡判定部
A〜F:回転係数(数式における符号)
A:XY平面上での移動経路
A1,A2:着目画素からなる連続領域
a:モニタ装置の横方向寸法(水平方向の画素数)
a,ai,an:移動経路Aに沿った移動距離
B:仮想球面上での移動経路
b:モニタ装置の縦方向寸法(垂直方向の画素数)
b,bi,bn:移動経路Bに沿った移動距離
C:曲面上に定義された二次元UV座標系上の湾曲正則画像/等高線/フレームカウンタの値
Ci(ui,vi):曲面上に定義された二次元UV座標系上の湾曲正則画像C内の点
D:基準寸法
E,E1,E2:切出領域
E0:標準切出領域
Ei,Ej,Ek:移行途中の切出領域
En:目標切出領域
E(0),E(i),E(j),E(k):追跡切出領域
F1,F2:画角
F0,F1,Fi,Fj,Fk,Fn:撮像画像の各フレーム
f:魚眼レンズに固有の定数
G,G1,G2:二次元UV座標系の原点
G(xp,yp,zp):二次元UV座標系の原点
G(xg,yg,zg):二次元UV座標系の原点
H:仮想球面
H(x,y,z):仮想球面H上の入射点
i:整数
J,Ji,Jn:回転基準軸
j:整数
k:整数
Ki:比例定数
L1,L2:入射光線
m:倍率/実倍率
m0:標準倍率
m1,mi,mk:移行途中の倍率
mn:目標倍率
m(i):追跡倍率
n:視線ベクトル/整数
n(nx,ny,nz):法線ベクトル
ni:OとQiとを結ぶ直線
O:三次元XYZ直交座標系の原点
P:切出中心点/実切出中心点
P(xp,yp):切出中心点
Pa,Pb:切出中心点
P0:標準切出中心点
Pn:目標切出中心点
Pi:移行途中の切出中心点
Pn:目標切出中心点
P(0),P(i),P(j),P(k):追跡切出中心点
Q,Q0,Q1,Q2,Qi,Qn:球面上対応点
Q(xp,yp,zp):球面上対応点
Q0(x0,y0,z0):球面上対応点
Qi(xi,yi,zi):球面上対応点
Qn(xn,yn,zn):球面上対応点
R:歪曲円形画像Sの半径(仮想球面Hの半径)/半径方向軸
r:歪曲円形画像Sの中心点からの距離
S:歪曲円形画像/基準面積
S1:傾斜面
S2:接平面
S3:仮想球面の切断面
S(0):背景歪曲円形画像
S(C):現在読み込んだ歪曲円形画像
S(x,y):二次元XY直交座標系上の歪曲円形画像S内の点
S1(x1,y1):二次元XY直交座標系上の歪曲円形画像S内の点
S2(x2,y2):二次元XY直交座標系上の歪曲円形画像S内の点
Si(xi,yi):二次元XY直交座標系上の歪曲円形画像S内の点
S11〜S36:流れ図の各ステップ
T,T1,T2:二次元UV直交座標系上の平面正則画像
Ti(ui,vi):二次元UV直交座標系上の平面正則画像T内の点
T(0,0):二次元UV直交座標系の原点
T1(u1,v1):二次元UV直交座標系上の平面正則画像T内の点
T2(u2,v2):二次元UV直交座標系上の平面正則画像T内の点
Ti(ui,vi):二次元UV直交座標系上の平面正則画像T内の点
t,t0〜t7,tn:時間
tmin:最小基準時間
U:二次元UV座標系の座標軸
u:二次元UV座標系の座標軸Uに関する座標値
V:二次元UV座標系の座標軸
V0,Vi,Vn:ベクトル
v:二次元UV座標系の座標軸Vに関する座標値
W:実世界の鉛直軸
W1:静的監視期間
W2:移行期間
W3:動的監視期間
w:m×Rで与えられる数値
X:三次元XYZ直交座標系の座標軸
x,xa,xb:二次元XY直交座標系の座標軸Xに関する座標値
Y:三次元XYZ直交座標系の座標軸
y,ya,yb:二次元XY直交座標系の座標軸Yに関する座標値
Z:三次元XYZ直交座標系の座標軸
α:方位角
β,βi,βn:天頂角
θ,θi:ベクトル間の角度
φ:平面傾斜角/実平面傾斜角
φ0:標準平面傾斜角
φn:目標平面傾斜角
φ(i):追跡平面傾斜角
ξ:鉛直軸Wに対する角度
τa,τb:接線
10: road surface 20: building 30: video camera with fisheye lens 31: imaging center point 40: tree 50: guard rail 60: moving body 70: actual cutting center point determination unit 71: function storage unit 72: corresponding point conversion unit 80: actual plane Inclination angle determination unit 90: actual magnification determination unit 91: function storage unit 92: function reference unit 100: fisheye monitoring system 110: video camera with fisheye lens 115: image input unit 120: monitor device 125: image output unit 130: distorted circle Image memory 140: Planar regular image memory 150: Image extraction conversion unit 160: Moving object detection unit 161: Background image holding unit 162: Corresponding pixel comparison unit 163: Region-of-interest search unit 164: Moving object detection determination unit 170: Actual cutting Output condition determining unit 171: Static monitoring period responsible unit 172: Transition period responsible unit 173: Dynamic monitoring period responsible unit 180: Standard extraction condition storage unit 185: Manual Case setting unit 190: moving object tracking unit 191: known moving object region holding unit 192: candidate region extracting unit 193: feature amount calculating unit 194: new moving object region recognizing unit 195: moving object tracking determining unit A to F: rotation coefficient (sign in formula) )
A: Movement paths A1 and A2 on the XY plane: A continuous area composed of the pixel of interest a: Horizontal dimension of the monitor device (number of pixels in the horizontal direction)
a, ai, an: Movement distance B along movement path A: Movement path on virtual sphere b: Vertical dimension of monitor device (number of pixels in vertical direction)
b, bi, bn: moving distance along moving path B C: curved regular image on two-dimensional UV coordinate system defined on curved surface / contour line / frame counter value Ci (ui, vi): defined on curved surface Point D in the curved regular image C on the two-dimensional UV coordinate system thus made: reference dimensions E, E1, E2: cutout area E0: standard cutout areas Ei, Ej, Ek: cutout area En during transition En: target Cutout areas E (0), E (i), E (j), E (k): Tracking cutout areas F1, F2: Angles of view F0, F1, Fi, Fj, Fk, Fn: Each frame of the captured image f: Constants G, G1, G2 specific to fisheye lens: Origin G (xp, yp, zp) of two-dimensional UV coordinate system: Origin G (xg, yg, zg) of two-dimensional UV coordinate system: Two-dimensional UV coordinate system Origin H: virtual spherical surface H (x, y, z): incident point i on virtual spherical surface H: integer J, Ji, Jn: Rotation reference axis j: integer k: integer Ki: proportionality constant L1, L2: incident light m: magnification / actual magnification m0: standard magnification m1, mi, mk: magnification during transition mn: target magnification m (i): tracking magnification n: line-of-sight vector / integer n (nx, ny, nz): normal vector ni: straight line connecting O and Qi O: origin P of three-dimensional XYZ orthogonal coordinate system: cutting center point / real cutting center point P (Xp, yp): Cutting center point Pa, Pb: Cutting center point P0: Standard cutting center point Pn: Target cutting center point Pi: Cutting center point Pn during transition Pn: Target cutting center point P ( 0), P (i), P (j), P (k): tracking cut-out center points Q, Q0, Q1, Q2, Qi, Qn: corresponding points on the spherical surface Q (xp, yp, zp): on the spherical surface Corresponding point Q0 (x0, y0, z0): Spherical corresponding point Qi (xi, yi, zi): Spherical corresponding point Qn (xn, yn, z) ): Corresponding point on spherical surface R: radius of distorted circular image S (radius of virtual spherical surface H) / radial axis r: distance from center point of distorted circular image S: distorted circular image / reference area S1: inclined surface S2 : Tangent plane S3: virtual spherical cut surface S (0): background distorted circular image S (C): currently read distorted circular image S (x, y): in distorted circular image S on a two-dimensional XY orthogonal coordinate system Point S1 (x1, y1): point S2 (x2, y2) in the distorted circular image S on the two-dimensional XY orthogonal coordinate system: point Si (xi, xi) in the distorted circular image S on the two-dimensional XY orthogonal coordinate system yi): points S11 to S36 in the distorted circular image S on the two-dimensional XY orthogonal coordinate system: steps T, T1, T2 of the flowchart: planar regular image Ti (ui, vi) on the two-dimensional UV orthogonal coordinate system: Point T (0,0) in the planar regular image T on the two-dimensional UV orthogonal coordinate system: two-dimensional UV Orthogonal coordinate system origin T1 (u1, v1): point T2 (u2, v2) in the planar regular image T on the two-dimensional UV orthogonal coordinate system: point Ti in the planar regular image T on the two-dimensional UV orthogonal coordinate system (Ui, vi): points t, t0 to t7 in the planar regular image T on the two-dimensional UV orthogonal coordinate system, tn: time tmin: minimum reference time U: coordinate axis u of the two-dimensional UV coordinate system u: two-dimensional UV coordinate Coordinate value V related to coordinate axis U of system: Coordinate axes V0, Vi, Vn of two-dimensional UV coordinate system: Vector v: Coordinate value related to coordinate axis V of two-dimensional UV coordinate system W: Real world vertical axis W1: Static monitoring period W2 : Transition period W3: Dynamic monitoring period w: Numerical value X given by m × R: Coordinate axis x, xa, xb of three-dimensional XYZ orthogonal coordinate system: Coordinate value Y regarding coordinate axis X of two-dimensional XY orthogonal coordinate system Y: Three-dimensional XYZ Cartesian coordinate system coordinate axes y, ya, yb: two-dimensional Coordinate value Z regarding coordinate axis Y of Y orthogonal coordinate system Z: coordinate axis α of three-dimensional XYZ orthogonal coordinate system α: azimuth angle β, βi, βn: zenith angle θ, θi: angle between vectors φ: plane inclination angle / real plane inclination angle φ0: standard plane tilt angle φn: target plane tilt angle φ (i): tracking plane tilt angle ξ: angles τa, τb with respect to vertical axis W: tangent

Claims (44)

魚眼レンズを用いた撮影により得られた歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これを画面上に表示する魚眼監視システムであって、
装着した魚眼レンズによって、外界の画像を歪曲円形画像として撮影する魚眼レンズ付ビデオカメラと、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、前記二次元XY座標系の原点Oを中心とし半径Rをもった歪曲円形画像を、少なくとも1フレーム格納する歪曲円形画像用メモリと、
前記魚眼レンズ付ビデオカメラから1フレームごとの時系列データとして順次与えられる歪曲円形画像を、前記歪曲円形画像用メモリに格納する画像入力部と、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
前記平面正則画像用メモリに格納されている平面正則画像を読み出して出力する画像出力部と、
前記画像出力部から出力された平面正則画像を画面上に表示するモニタ装置と、
歪曲円形画像上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像の一部から平面正則画像を切り出すための条件として決定する実切出条件決定部と、
前記歪曲円形画像用メモリに格納されている歪曲円形画像の前記切出中心点Pで示される切り出し位置から、前記平面傾斜角φで示される切り出し向きに、前記倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して、前記平面正則画像用メモリに格納する画像切出変換部と、
標準切出中心点P0と、標準平面傾斜角φ0と、標準倍率m0と、によって構成される標準切出条件を格納する標準切出条件格納部と、
前記歪曲円形画像用メモリに時系列で順次格納される歪曲円形画像を相互に比較して動体検出処理を行い、動体検出がなされた場合に、検出動体の切り出し位置を示す目標切出中心点Pnと、検出動体の切り出し向きを示す目標平面傾斜角φnと、検出動体の切り出しサイズを示す目標倍率mnと、によって構成される目標切出条件のうち、少なくとも目標切出中心点Pnを、前記実切出条件決定部に与える動体検出部と、
前記動体検出の後、検出動体を追跡する動体追跡処理を行い、追跡動体の切り出し位置を示す追跡切出中心点P(i)と、追跡動体の切り出し向きを示す追跡平面傾斜角φ(i)と、追跡動体の切り出しサイズを示す追跡倍率m(i)と、によって構成される追跡切出条件のうち、少なくとも追跡切出中心点P(i)を、追跡動体が消滅したとの消滅判断がなされるまで、継続して前記実切出条件決定部に与える動体追跡部と、
を備え、
前記実切出条件決定部が、前記動体検出がなされていない静的監視期間を担当する静的監視期間担当部と、前記動体検出がなされた後の所定の移行期間を担当する移行期間担当部と、前記移行期間が完了してから前記消滅判断がなされるまでの動的監視期間を担当する動的監視期間担当部と、を備え、前記静的監視期間担当部は、前記標準切出条件を実切出条件と定め、前記移行期間担当部は、前記標準切出条件から前記目標切出条件へ移行するように段階的に変わる実切出条件を定め、前記動的監視期間担当部は、前記追跡切出条件を実切出条件と定めることを特徴とする魚眼監視システム。
A fisheye monitoring system that cuts out a part of a distorted circular image obtained by shooting using a fisheye lens, converts it into a planar regular image, and displays it on a screen,
A video camera with a fisheye lens that captures images of the outside world as a distorted circular image with the attached fisheye lens,
A distorted circle having a radius R centered on the origin O of the two-dimensional XY coordinate system, which is composed of a collection of a large number of pixels arranged at positions indicated by coordinates (x, y) on the two-dimensional XY coordinate system. A distorted circular image memory storing at least one frame of an image;
An image input unit for storing a distorted circular image sequentially given as time-series data for each frame from the video camera with a fisheye lens in the distorted circular image memory;
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image output unit that reads and outputs a planar regular image stored in the planar regular image memory;
A monitor device for displaying a planar regular image output from the image output unit on a screen;
An actual cutting condition constituted by a cutting center point P that is one point on the distorted circular image, a predetermined plane inclination angle φ, and a predetermined magnification m is determined from a part of the distorted circular image as a planar regular image. An actual cutting condition determination unit that determines as a condition for cutting
An image of the cut-out size indicated by the magnification m from the cut-out position indicated by the cut-out center point P of the distorted circular image stored in the distorted circular image memory in the cut-out direction indicated by the plane inclination angle φ. An image cut-out conversion unit that converts the image into a plane regular image and stores it in the plane regular image memory;
A standard cutting condition storage unit for storing a standard cutting condition composed of a standard cutting center point P0, a standard plane inclination angle φ0, and a standard magnification m0;
When the moving object detection processing is performed by comparing the distorted circular images sequentially stored in time series in the distorted circular image memory, and the moving object is detected, the target cut-out center point Pn indicating the cut-out position of the detected moving object is obtained. And at least a target cut-out center point Pn among the target cut-out conditions formed by the target plane inclination angle φn indicating the cut-out direction of the detected moving object and the target magnification mn indicating the cut-out size of the detected moving object. A moving object detection unit to be provided to the cutting condition determination unit;
After the moving object detection, a moving object tracking process for tracking the detected moving object is performed, and a tracking cut-out center point P (i) indicating the cut-out position of the tracking moving object and a tracking plane inclination angle φ (i) indicating the cut-out direction of the tracking moving object are performed. And the tracking magnification m (i) indicating the tracking moving object cut size, and at least the tracking cut center point P (i) is determined to disappear as the tracking moving object disappears. A moving body tracking unit continuously giving to the actual cutting condition determining unit until it is made;
With
The actual cutting condition determining unit is in charge of a static monitoring period in charge of a static monitoring period in which the moving object is not detected, and a transition period in charge of in charge of a predetermined transition period after the moving object is detected And a dynamic monitoring period charge unit that takes charge of a dynamic monitoring period from the completion of the transition period until the disappearance determination is made, and the static monitoring period charge part includes the standard extraction condition Is determined as an actual cutting condition, the transition period responsible section defines an actual cutting condition that changes step by step so as to shift from the standard cutting condition to the target cutting condition, and the dynamic monitoring period responsible section The fish-eye monitoring system is characterized in that the tracking cut-out condition is determined as an actual cut-out condition.
請求項1に記載の魚眼監視システムにおいて、
歪曲円形画像が配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面を定義し、原点Oに向かって当該仮想球面上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用によってXY平面上の1点に到達する場合に、当該仮想球面上の1点と当該XY平面上の1点とを相互に対応する点と定義し、切出中心点Pに対応する前記仮想球面上の点である対応点Qをとり、原点Oを起点として前記対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、前記原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、前記点Gを通り前記視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義したときに、
画像切出変換部が、前記二次元UV座標系上の座標(u,v)と前記二次元XY直交座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像から切り出した画像を平面正則画像に変換する処理を行うことを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 1,
In a three-dimensional XYZ Cartesian coordinate system including a two-dimensional XY Cartesian coordinate system in which a distorted circular image is arranged, a virtual sphere having a radius R is defined with the origin O as the center, and one point on the virtual sphere is directed toward the origin O. When incident external light reaches one point on the XY plane by the optical action of the fisheye lens used for photographing, a point on the virtual sphere and a point on the XY plane correspond to each other A corresponding point Q that is a point on the virtual sphere corresponding to the cut-out center point P is taken, a vector passing through the corresponding point Q starting from the origin O is defined as a line-of-sight vector n, and the line-of-sight vector n A curved surface obtained by bending a point G on the plane passing through the point G and orthogonal to the line-of-sight vector n with the point G separated from the origin O by “product m · R of the magnification m and the radius R” Orientation according to the plane inclination angle φ When defining the disposed two-dimensional UV coordinate system with,
The image cut-out conversion unit uses a predetermined correspondence expression indicating the correspondence between the coordinates (u, v) on the two-dimensional UV coordinate system and the coordinates (x, y) on the two-dimensional XY orthogonal coordinate system. The fish-eye monitoring system is characterized by performing processing for converting an image cut out from a distorted circular image into a planar regular image by calculating corresponding coordinates (x, y) corresponding to the coordinates (u, v). .
請求項1または2に記載の魚眼監視システムにおいて、
移行期間担当部が、移行期間前半のパンニング期間において、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わる実切出条件を定め、移行期間後半のズーミング期間において、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 1 or 2,
In the first half of the transition period, the transition period responsible section determines the actual cutting conditions in which the cutting center point P gradually changes from the standard cutting center point P0 to the target cutting center point Pn. A fish-eye monitoring system characterized in that an actual cut-out condition in which the magnification m changes stepwise from the standard magnification m0 to the target magnification mn during the zooming period.
請求項1または2に記載の魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間をパンニング期間およびズーミング期間に設定し、切出中心点Pが標準切出中心点P0から目標切出中心点Pnへと段階的に変わると同時に、倍率mが標準倍率m0から目標倍率mnへと段階的に変わる実切出条件を定めることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 1 or 2,
The transition period responsible section sets the entire transition period as a panning period and a zooming period, and the cutting center point P changes from the standard cutting center point P0 to the target cutting center point Pn step by step. A fish-eye monitoring system characterized by defining an actual cutting condition in which m gradually changes from a standard magnification m0 to a target magnification mn.
請求項2に記載の魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、前記パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、前記標準切出中心点P0についての前記仮想球面上の対応点Q0と、前記目標切出中心点Pnについての前記仮想球面上の対応点Qnと、を定義したときに、切出中心点Pについての前記仮想球面上の対応点Qの前記仮想球面上での移動経路が、前記対応点Q0と前記対応点Qnとを前記仮想球面上で結ぶ最短経路となるようにすることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
The transition period responsible section sets all or a part of the transition period as the panning period, and the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn during the panning period. When defining the corresponding point Q0 on the phantom spherical surface with respect to the standard cutting center point P0 and the corresponding point Qn on the phantom spherical surface with respect to the target cutting center point Pn, The movement path on the virtual sphere of the corresponding point Q on the virtual sphere with respect to the cutting center point P is the shortest path connecting the corresponding point Q0 and the corresponding point Qn on the virtual sphere. This is a fish-eye monitoring system.
請求項5に記載の魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O上に設定されており、
移行期間担当部が、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 5,
The standard cut-out center point P0 is set on the origin O of the two-dimensional XY orthogonal coordinate system,
A fish-eye monitoring system in which the transition period charge unit moves the cut center point P along the radius of the distorted circular image from the origin O toward the target cut center point Pn.
請求項2に記載の魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O以外の位置に設定されており、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、前記パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、標準切出中心点P0から原点Oへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させた後、原点Oから目標切出中心点Pnへ向かって、歪曲円形画像の半径に沿って切出中心点Pを移動させることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
The standard cutting center point P0 is set at a position other than the origin O of the two-dimensional XY orthogonal coordinate system,
The transition period responsible section sets all or a part of the transition period as the panning period, and the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn during the panning period. , The cut center point P is moved along the radius of the distorted circular image from the standard cut center point P0 toward the origin O, and then moved from the origin O toward the target cut center point Pn. A fish-eye monitoring system that moves the cut-out center point P along the radius of the distorted circular image.
請求項5〜7のいずれかに記載の魚眼監視システムにおいて、
移行期間担当部が、対応点Qの仮想球面上の運動が等速運動となるように、切出中心点Pの位置を変化させることを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 5-7,
The fish-eye monitoring system, wherein the transition period responsible section changes the position of the cut-out center point P so that the movement of the corresponding point Q on the virtual spherical surface is a constant speed movement.
請求項5〜7のいずれかに記載の魚眼監視システムにおいて、
移行期間担当部が、対応点Qの仮想球面上の運動が、パンニング期間の開始部分および終了部分の速度が中間部分の速度よりも遅くなるような不等速運動となるように、切出中心点Pの位置を変化させることを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 5-7,
The transition period charge unit is such that the movement of the corresponding point Q on the phantom spherical surface is an inconstant speed movement such that the speed of the start part and the end part of the panning period is slower than the speed of the intermediate part. A fish-eye monitoring system characterized by changing the position of the point P.
請求項5〜7のいずれかに記載の魚眼監視システムにおいて、
移行期間担当部が、
対応点Qの仮想球面上の移動距離bと時間tとの関係を示す関数を格納する関数格納部と、
前記関数を用いて求まる「時間tにおける対応点Qの位置」に対応するXY平面上の点を、当該時間tにおける切出中心点Pとして出力する対応点変換部と、
を有することを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 5-7,
The transition period department
A function storage for storing a function indicating the relationship between the movement distance b of the corresponding point Q on the virtual sphere and the time t;
A corresponding point conversion unit that outputs a point on the XY plane corresponding to the “position of the corresponding point Q at time t” obtained using the function as a cut-out center point P at the time t;
A fish-eye monitoring system characterized by comprising:
請求項2に記載の魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をパンニング期間に設定し、前記パンニング期間に切出中心点Pを標準切出中心点P0から目標切出中心点Pnへと段階的に変化させる際に、切出中心点Pについての仮想球面上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定することを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
The transition period responsible section sets all or a part of the transition period as the panning period, and the cutting center point P is gradually changed from the standard cutting center point P0 to the target cutting center point Pn during the panning period. The corresponding point Q on the virtual spherical surface with respect to the cut-out center point P is moved at a predetermined spherical moving speed set as a function related to time on a predetermined spherical moving path set in advance. And determining the position of the cut-out center point P.
請求項2に記載の魚眼監視システムにおいて、
移行期間担当部が、移行期間の全期間もしくは一部の期間をズーミング期間に設定し、前記ズーミング期間の間、時間軸に沿って単調増加もしくは単調減少するように、倍率mを標準倍率m0から目標倍率mnへと変化させることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
The transition period responsible section sets all or a part of the transition period as the zooming period, and the magnification m is changed from the standard magnification m0 so that it monotonously increases or decreases along the time axis during the zooming period. A fish-eye monitoring system characterized by changing to a target magnification mn.
請求項12に記載の魚眼監視システムにおいて、
移行期間担当部が、ズーミング期間の間、倍率mを時間軸に沿って線形変化させることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 12, wherein
The fish-eye monitoring system, wherein the transition period charge section linearly changes the magnification m along the time axis during the zooming period.
請求項12に記載の魚眼監視システムにおいて、
移行期間担当部が、ズーミング期間の開始部分および終了部分の倍率変化速度が、中間部分の変化速度よりも遅くなるような不等速変化するように、倍率mを時間軸に沿って変化させることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 12, wherein
The transition period charge section changes the magnification m along the time axis so that the magnification change rate at the start and end of the zooming period changes at an inconstant speed that is slower than the change rate at the intermediate part. A fish-eye monitoring system.
請求項12に記載の魚眼監視システムにおいて、
移行期間担当部が、
倍率mと時間tとの関係を示す関数を格納する関数格納部と、
前記関数を用いて求まる時間tにおける倍率を、当該時間tにおける倍率mとして出力する倍率決定部と、
を有することを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 12, wherein
The transition period department
A function storage unit for storing a function indicating the relationship between the magnification m and the time t;
A magnification determining unit that outputs a magnification at time t obtained using the function as a magnification m at time t;
A fish-eye monitoring system characterized by comprising:
請求項2に記載の魚眼監視システムにおいて、
標準切出条件格納部には、撮影画像における実世界の鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような標準平面傾斜角φ0が設定されており、
動体検出部が、前記鉛直軸方向を下方向とする向きに平面正則画像が切り出されるような目標平面傾斜角φnを設定し、
移行期間担当部が、前記鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、平面傾斜角φを標準平面傾斜角φ0から目標平面傾斜角φnへと変化させ、
動体追跡部が、前記鉛直軸方向を下方向とする向きに平面正則画像が切り出されるように、追跡平面傾斜角φ(i)を設定することを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
In the standard cutout condition storage unit, a standard plane inclination angle φ0 is set such that a plane regular image is cut out in a direction in which the vertical axis direction of the real world in the photographed image is downward.
The moving body detection unit sets a target plane inclination angle φn such that a plane regular image is cut out in a direction in which the vertical axis direction is a downward direction,
The transition period responsible unit changes the plane inclination angle φ from the standard plane inclination angle φ0 to the target plane inclination angle φn so that a plane regular image is cut out in a direction in which the vertical axis direction is the downward direction,
The fish-eye monitoring system, wherein the moving body tracking unit sets a tracking plane inclination angle φ (i) so that a planar regular image is cut out in a direction in which the vertical axis direction is a downward direction.
請求項16に記載の魚眼監視システムにおいて、
撮像面となるXY平面が鉛直面に一致し、Y軸が鉛直軸Wに対して角度ξをなす方向を向くように魚眼レンズ付ビデオカメラが設置されており、
二次元UV座標系の原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸として与えられる回転基準軸Jと、二次元UV座標系のU軸とのなす角を平面傾斜角φと定義し、視線ベクトルnのXY平面上への正射影とY軸とのなす角を方位角αと定義し、U軸方向を平面正則画像の横方向と定義した場合に、常にφ=−α−ξとなる設定が行われることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 16,
The video camera with a fisheye lens is installed so that the XY plane as the imaging surface coincides with the vertical plane and the Y axis faces the direction that forms an angle ξ with respect to the vertical axis W.
The angle formed by the rotation reference axis J that passes through the origin G of the two-dimensional UV coordinate system, is parallel to the XY plane, and is orthogonal to the line-of-sight vector n, and the U axis of the two-dimensional UV coordinate system is the plane inclination angle φ. When the angle between the orthographic projection of the line-of-sight vector n on the XY plane and the Y axis is defined as the azimuth angle α, and the U axis direction is defined as the lateral direction of the planar regular image, φ = −α A fish-eye monitoring system characterized in that a setting of ξ is made.
請求項17に記載の魚眼監視システムにおいて、
標準切出中心点P0が、二次元XY直交座標系の原点O上に設定されており、
標準切出条件格納部には、V軸が撮影画像の原点Oの位置における実世界の鉛直軸に対応するように平面正則画像が切り出されるような切り出し向きを示す標準切出条件が設定されており、
動体検出部は、目標切出中心点Pnについての方位角をαnとしたときに、目標平面傾斜角φn=−αn−ξなる設定を行い、
移行期間担当部が、常に平面傾斜角φ=φnに設定することを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 17,
The standard cut-out center point P0 is set on the origin O of the two-dimensional XY orthogonal coordinate system,
In the standard cutout condition storage unit, a standard cutout condition indicating the cutout direction is set so that the planar regular image is cut out so that the V axis corresponds to the vertical axis in the real world at the position of the origin O of the photographed image. And
The moving object detection unit sets the target plane inclination angle φn = −αn−ξ when the azimuth angle with respect to the target cutting center point Pn is αn,
The fish-eye monitoring system characterized in that the transition period responsible section always sets the plane inclination angle φ = φn.
請求項16に記載の魚眼監視システムにおいて、
撮像面となるXY平面が水平面に一致するように魚眼レンズ付ビデオカメラが設置されており、
二次元UV座標系の原点Gを通り、XY平面に平行かつ視線ベクトルnに直交する軸として与えられる回転基準軸Jと、二次元UV座標系のU軸とのなす角を平面傾斜角φと定義し、U軸方向を平面正則画像の横方向と定義した場合に、常にφ=0°となる設定が行われることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 16,
A video camera with a fisheye lens is installed so that the XY plane as the imaging surface coincides with the horizontal plane.
The angle formed by the rotation reference axis J that passes through the origin G of the two-dimensional UV coordinate system, is parallel to the XY plane, and is orthogonal to the line-of-sight vector n, and the U axis of the two-dimensional UV coordinate system is the plane inclination angle φ. The fish-eye monitoring system is characterized in that when the U-axis direction is defined as the horizontal direction of the planar regular image, the setting is always φ = 0 °.
請求項2に記載の魚眼監視システムにおいて、
画像切出変換部が、平面正則画像を構成する1つの着目画素の座標(u,v)についての対応座標(x,y)を算出し、歪曲円形画像用メモリ内の前記対応座標(x,y)の近傍に配置された画素の画素値を読み出し、読み出した画素値に基づいて前記着目画素の画素値を決定する処理を、前記平面正則画像を構成する各画素について実行し、前記平面正則画像用メモリ内に各画素の画素値を書き込むことにより、平面正則画像に変換する処理を行うことを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
The image cut-out conversion unit calculates the corresponding coordinates (x, y) for the coordinates (u, v) of one target pixel constituting the planar regular image, and the corresponding coordinates (x, y) in the distorted circular image memory are calculated. The pixel value of the pixel arranged in the vicinity of y) is read out, and the process of determining the pixel value of the pixel of interest based on the read pixel value is executed for each pixel constituting the planar regular image, and the planar regular A fish-eye monitoring system that performs processing for conversion to a planar regular image by writing a pixel value of each pixel in an image memory.
請求項20に記載の魚眼監視システムにおいて、
画像切出変換部が、座標(u,v)で示される位置に配置された着目画素の画素値を決定する際に、対応座標(x,y)で示される位置の近傍に配置された歪曲円形画像上の複数の参照画素の画素値に対する補間演算を行うことを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 20,
When the image cut-out conversion unit determines the pixel value of the pixel of interest arranged at the position indicated by the coordinates (u, v), the distortion arranged near the position indicated by the corresponding coordinates (x, y) A fish-eye monitoring system that performs an interpolation operation on pixel values of a plurality of reference pixels on a circular image.
請求項2に記載の魚眼監視システムにおいて、
画像切出変換部が、仮想球面上に、撮影に用いた魚眼レンズの投影方式に応じて、二次元XY直交座標系上の座標(xi,yi)で示される点Siに対応する球面上対応点Qiをとり、原点Oと前記球面上対応点Qiとを結ぶ直線と二次元UV座標系の配置面との交点Tiの前記二次元UV座標系上での座標を(ui,vi)としたときに、前記座標(xi,yi)が前記座標(ui,vi)に対応する対応座標として求まる対応関係式を用いることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to claim 2,
On the virtual sphere, the image cut-out conversion unit corresponds to the point on the sphere corresponding to the point Si indicated by the coordinates (xi, yi) on the two-dimensional XY orthogonal coordinate system, according to the projection method of the fisheye lens used for shooting. When Qi is taken and the coordinates on the two-dimensional UV coordinate system of the intersection Ti between the straight line connecting the origin O and the corresponding point Qi on the spherical surface and the arrangement surface of the two-dimensional UV coordinate system are (ui, vi) In addition, a fisheye monitoring system using a corresponding relational expression in which the coordinates (xi, yi) are obtained as corresponding coordinates corresponding to the coordinates (ui, vi).
請求項22に記載の魚眼監視システムにおいて、
画像切出変換部が、
歪曲円形画像用メモリに格納されている歪曲円形画像が、正射影方式の魚眼レンズによって撮影された正射影画像である場合には、座標(xp,yp)で示される切出中心点Pに対して、当該点Pを通りZ軸に平行な直線と仮想球面との交点として与えられる座標(xp,yp,zp)で示される点を球面上対応点Qとし、座標(xi,yi)で示される点Siに対して、当該点Siを通りZ軸に平行な直線と仮想球面との交点として与えられる座標(xi,yi,zi)で示される点を球面上対応点Qiとする正射影画像用対応関係式を用い、
歪曲円形画像用メモリに格納されている歪曲円形画像が、非正射影方式の魚眼レンズによって撮影された非正射影画像である場合には、前記正射影画像上の座標と前記非正射影画像上の座標との間の座標変換式を用いて前記正射影画像用対応関係式を補正することにより得られる非正射影画像用対応関係式を用いることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 22,
Image cropping conversion unit
When the distorted circular image stored in the distorted circular image memory is an orthographic image captured by the orthographic fisheye lens, with respect to the cut-out center point P indicated by the coordinates (xp, yp). A point indicated by coordinates (xp, yp, zp) given as an intersection of a straight line passing through the point P and parallel to the Z axis and the virtual sphere is designated as a corresponding point Q on the sphere, and is indicated by coordinates (xi, yi). For an orthogonal projection image with respect to the point Si, a point indicated by coordinates (xi, yi, zi) given as an intersection of a straight line passing through the point Si and parallel to the Z axis and the virtual sphere is a corresponding point Qi on the sphere. Using the correspondence equation,
When the distorted circular image stored in the distorted circular image memory is a non-orthographic image captured by a non-projective fisheye lens, the coordinates on the orthographic image and the non-orthographic image A fish-eye monitoring system using a non-orthogonal image correspondence relation obtained by correcting the orthographic image correspondence relation using a coordinate conversion formula between coordinates.
請求項23に記載の魚眼監視システムにおいて、
画像切出変換部が、視線ベクトルnのXY平面上への正射影とY軸とのなす角を方位角αとし、視線ベクトルnとZ軸正方向とのなす角を天頂角βとして、
A=cosφ cosα − sinφ sinα cosβ
B=−sinφ cosα − cosφ sinα cosβ
C=sinβ sinα
D=cosφ sinα + sinφ cosα cosβ
E=−sinφ sinα + cosφ cosα cosβ
F=−sinβ cosα
w=mR
との定義の下で、座標(u,v)と座標(x,y)との対応関係を示す正射影画像用対応関係式として、
x=R(uA+vB+wC)/√(u+v+w
y=R(uD+vE+wF)/√(u+v+w
なる式を用いることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 23,
The image cut-out conversion unit defines an angle formed by the orthogonal projection of the line-of-sight vector n on the XY plane and the Y axis as an azimuth angle α, and an angle formed between the line-of-sight vector n and the Z axis positive direction as a zenith angle β.
A = cosφ cosα-sinφ sinα cosβ
B = −sinφ cosα − cosφ sinα cosβ
C = sinβ sinα
D = cosφ sinα + sinφ cosα cosβ
E = -sinφ sinα + cosφ cosα cosβ
F = -sinβ cosα
w = mR
As a correspondence relation expression for an orthographic image indicating the correspondence between coordinates (u, v) and coordinates (x, y),
x = R (uA + vB + wC) / √ (u 2 + v 2 + w 2 )
y = R (uD + vE + wF) / √ (u 2 + v 2 + w 2 )
A fish-eye monitoring system characterized by using the following formula.
請求項24に記載の魚眼監視システムにおいて、
画像切出変換部が、
歪曲円形画像用メモリに格納されている歪曲円形画像が、等距離射影方式の魚眼レンズによって撮影された等距離射影画像である場合には、正射影画像上の座標(xa,ya)を等距離射影画像上の座標(xb,yb)に変換する座標変換式
xb=xa(2R/πr) sin-1 (r/R)
yb=ya(2R/πr) sin-1 (r/R)
但し、r=√(xa+ya
を用いて、正射影画像用対応関係式に対する補正を行うことを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 24,
Image cropping conversion unit
When the distorted circular image stored in the distorted circular image memory is an equidistant projection image photographed by an equidistant projection type fisheye lens, the coordinates (xa, ya) on the orthographic projection image are equidistantly projected. Coordinate conversion formula to convert to coordinates (xb, yb) on the image xb = xa (2R / πr) sin −1 (r / R)
yb = ya (2R / πr) sin −1 (r / R)
However, r = √ (xa 2 + ya 2 )
A fish-eye monitoring system that corrects a correspondence relation for an orthographic image by using a projection image.
請求項1〜25のいずれかに記載の魚眼監視システムにおいて、
動体検出部が、
歪曲円形画像用メモリに所定の初期時点で格納されていた画像を背景歪曲円形画像として保持する背景画像保持部と、
前記歪曲円形画像用メモリに時系列でフレームごとに順次格納される歪曲円形画像上の個々の画素の画素値を、前記背景歪曲円形画像上の対応する画素の画素値と比較し、両者の差がしきい値以上となる画素を着目画素として抽出する対応画素比較部と、
前記着目画素からなる連続領域であって、基準面積以上、かつ、縦幅および横幅がともに所定の基準寸法以上となる条件を満たす着目領域を探索する着目領域探索部と、
前記着目領域を含む歪曲円形画像が、基準のフレーム数以上、連続して得られた場合に、動体検出がなされた旨の判定を行い、最終着目領域に基づいて目標切出条件を生成する動体検出判定部と、
を有することを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 1-25,
The moving object detector
A background image holding unit that holds an image stored in a distorted circular image memory at a predetermined initial time point as a background distorted circular image;
The pixel value of each pixel on the distorted circular image sequentially stored in the distorted circular image memory for each frame in time series is compared with the pixel value of the corresponding pixel on the background distorted circular image, and the difference between the two values is compared. A corresponding pixel comparison unit that extracts, as a pixel of interest, a pixel having a threshold value equal to or greater than a threshold value;
A focused area search unit that searches for a focused area that is a continuous area composed of the focused pixels and that satisfies a condition that is equal to or larger than a reference area and that has both a vertical width and a horizontal width equal to or larger than a predetermined reference dimension;
A moving object that determines that a moving object has been detected when a distorted circular image including the target area is continuously obtained for a number of frames equal to or greater than a reference number, and generates a target cut-out condition based on the final target area A detection determination unit;
A fish-eye monitoring system characterized by comprising:
請求項26に記載の魚眼監視システムにおいて、
動体検出判定部が、同一の動体に起因して形成されたと予想される特定の着目領域を含む歪曲円形画像が、基準のフレーム数以上、連続して得られた場合に、動体検出がなされた旨の判定を行うようにし、互いに離隔した複数の着目領域が存在する場合には、より面積の大きい着目領域を前記特定の着目領域とする判定を行うことを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 26,
The moving object is detected when the moving object detection determination unit continuously obtains a distorted circular image including a specific region of interest that is expected to be formed due to the same moving object for the number of frames that is the reference number or more. The fish-eye monitoring system is characterized in that, when there are a plurality of regions of interest separated from each other, the region of interest having a larger area is determined as the specific region of interest.
請求項26または27に記載の魚眼監視システムにおいて、
動体検出判定部が、最終着目領域の重心位置を目標切出中心点Pnと設定し、最終着目領域の縦幅および横幅に基づいて目標倍率mnを設定することを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 26 or 27,
A fish-eye monitoring system, wherein the moving object detection determination unit sets the center of gravity position of the final target region as the target cut-out center point Pn, and sets the target magnification mn based on the vertical width and the horizontal width of the final target region.
請求項1〜28のいずれかに記載の魚眼監視システムにおいて、
動体追跡部が、
歪曲円形画像用メモリに格納されている第(i−1)番目のフレーム画像上において既に認識されている既知動体領域の情報を保持する既知動体領域保持部と、
歪曲円形画像用メモリに格納されている第i番目のフレーム画像から、前記既知動体領域の近傍に位置する複数通りの領域を候補領域として抽出する候補領域抽出部と、
前記既知動体領域と前記複数通りの候補領域とについて、それぞれ画像の特徴を示す特徴量を求める演算を行う特徴量演算部と、
前記特徴量演算部によって演算された、既知動体領域の特徴量と、複数通りの候補領域の特徴量と、をそれぞれ比較し、前記既知動体領域の特徴量に対する類似度が所定の基準以上、かつ、最も高い特徴量をもった候補領域を、前記第i番目のフレーム画像上の新動体領域と認識する新動体領域認識部と、
前記新動体領域認定部における認識が成功した場合には、前記新動体領域に基づいて前記第i番目のフレーム画像についての追跡切出条件を生成し、認識が失敗した場合には、追跡動体が消滅したとの消滅判断を行う動体追跡判定部と、
を有し、
前記既存動体領域保持部が、動体検出部から与えられた検出動体の領域情報を、最初の既知動体領域の情報として保持し、以後、前記新動体領域の情報を新たな既知動体領域の情報として保持することを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to any one of claims 1 to 28,
The moving body tracking unit
A known moving object region holding unit for holding information of a known moving object region that has already been recognized on the (i-1) th frame image stored in the distorted circular image memory;
A candidate area extracting unit that extracts a plurality of areas located in the vicinity of the known moving body area as candidate areas from the i-th frame image stored in the distorted circular image memory;
A feature amount calculation unit that performs an operation for obtaining a feature amount indicating a feature of an image for each of the known moving object region and the plurality of candidate regions;
The feature amount of the known moving object region calculated by the feature amount calculating unit is compared with the feature amount of a plurality of candidate regions, and the similarity to the feature amount of the known moving object region is equal to or greater than a predetermined reference, and A new moving body region recognition unit for recognizing a candidate region having the highest feature amount as a new moving body region on the i-th frame image;
When the recognition by the new moving body region recognition unit is successful, a tracking cut-out condition for the i-th frame image is generated based on the new moving body region, and when the recognition fails, the tracking moving body is A moving body tracking determination unit for determining disappearance when it has disappeared,
Have
The existing moving body area holding unit holds the area information of the detected moving body given from the moving body detection unit as information of the first known moving body area, and thereafter, the information of the new moving body area as information of the new known moving body area. A fish-eye monitoring system characterized by holding.
請求項29に記載の魚眼監視システムにおいて、
動体追跡判定部が、第i番目のフレーム画像について認識された新動体領域の重心位置を追跡切出中心点P(i)と設定し、この新動体領域の縦幅および横幅に基づいて追跡倍率m(i)を設定することを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 29,
The moving object tracking determination unit sets the gravity center position of the new moving object region recognized for the i-th frame image as the tracking cut-out center point P (i), and the tracking magnification based on the vertical width and the horizontal width of the new moving object region A fish-eye monitoring system characterized by setting m (i).
請求項29または30に記載の魚眼監視システムにおいて、
特徴量演算部が、演算対象として与えられた領域を構成する画素の色ヒストグラムもしくはエッジ方向ヒストグラムを特徴量として求めることを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 29 or 30,
A fish-eye monitoring system characterized in that a feature amount calculation unit obtains a color histogram or edge direction histogram of pixels constituting an area given as a calculation target as a feature amount.
請求項1〜31のいずれかに記載の魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間、新たな動体検出処理を休止することを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 1-31,
A fish-eye monitoring system, wherein the moving object detection unit pauses a new moving object detection process while the moving object tracking process is performed by the moving object tracking unit.
請求項1〜31のいずれかに記載の魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なる新動体の検出がなされた場合、この新動体についての目標切出条件を実切出条件決定部に与える処理を行い、
実切出条件決定部に新動体についての目標切出条件が与えられた場合、移行期間担当部が、前記旧動体についての追跡切出条件から前記新動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、前記新動体に対する追跡処理を行うことを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 1-31,
If the moving object detection unit continues the moving object detection process while the moving object tracking process is being performed by the moving object tracking unit, and a new moving object that is different from the old moving object that is the target of the moving object tracking process is detected, Perform processing to give the target cutting condition for the new moving object to the actual cutting condition determination unit,
When the target cutting condition for the new moving object is given to the actual cutting condition determining unit, the transition period responsible section shifts from the tracking cutting condition for the old moving object to the target cutting condition for the new moving object. The actual cutting conditions that gradually change to
A fish-eye monitoring system, wherein a moving object tracking unit performs a tracking process on the new moving object.
請求項1〜31のいずれかに記載の魚眼監視システムにおいて、
動体検出部が、動体追跡部による動体追跡処理が行われている間も動体検出処理を続行し、動体追跡処理の対象となっている旧動体とは異なり、かつ、旧動体よりも面積が大きいという条件を満たす別な動体の検出がなされた場合、当該条件を満たす新動体についての目標切出条件を実切出条件決定部に与える処理を行い、
実切出条件決定部に前記新動体についての目標切出条件が与えられた場合、移行期間担当部が、前記旧動体についての追跡切出条件から前記新動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、前記新動体に対する追跡処理を行うことを特徴とする魚眼監視システム。
In the fish-eye monitoring system in any one of Claims 1-31,
The moving object detection unit continues the moving object detection process while the moving object tracking process is performed by the moving object tracking unit, and is different from the old moving object that is the target of the moving object tracking process and has a larger area than the old moving object. When another moving object that satisfies the condition is detected, the target cutting condition for the new moving object that satisfies the condition is given to the actual cutting condition determining unit,
When the target cutting condition for the new moving object is given to the actual cutting condition determining unit, the transition period charge unit shifts from the tracking cutting condition for the old moving object to the target cutting condition for the new moving object. The actual cutting conditions that change step by step
A fish-eye monitoring system, wherein a moving object tracking unit performs a tracking process on the new moving object.
請求項33または34に記載の魚眼監視システムにおいて、
動体追跡部が、新動体に対する追跡処理を行うとともに、旧動体に対する追跡処理も併せて行い、新動体に基づいて追跡切出条件を設定し、旧動体よりも新動体が先に消滅した場合、動体検出部に代わって、前記旧動体についての目標切出条件を、実切出条件決定部に与え、
実切出条件決定部に前記旧動体についての目標切出条件が与えられた場合、移行期間担当部が、前記新動体についての追跡切出条件から前記旧動体についての目標切出条件へ移行するように段階的に変わる実切出条件を定め、
動体追跡部が、前記旧動体に対する追跡処理を続行することを特徴とする魚眼監視システム。
The fisheye monitoring system according to claim 33 or 34,
When the moving object tracking unit performs the tracking process for the new moving object, also performs the tracking process for the old moving object, sets the tracking cut-out condition based on the new moving object, and the new moving object disappears earlier than the old moving object, Instead of the moving object detection unit, the target cutting condition for the old moving object is given to the actual cutting condition determination unit,
When the target cutting condition for the old moving object is given to the actual cutting condition determining unit, the transition period charge unit shifts from the tracking cutting condition for the new moving object to the target cutting condition for the old moving object. The actual cutting conditions that change step by step
The fish-eye monitoring system, wherein the moving object tracking unit continues the tracking process for the old moving object.
請求項33〜35のいずれかに記載の魚眼監視システムにおいて、
移行期間担当部が、旧動体から新動体へ交替する移行処理を行う際に、旧動体についての動的監視期間が所定の最小基準時間に満たない場合には、前記動的監視期間が前記最小基準時間に達するまで、待機時間をおいてから処理を開始することを特徴とする魚眼監視システム。
The fisheye monitoring system according to any one of claims 33 to 35,
When the transition period charge section performs the transition process of switching from the old moving object to the new moving object, if the dynamic monitoring period for the old moving object is less than the predetermined minimum reference time, the dynamic monitoring period is the minimum A fish-eye monitoring system characterized in that processing is started after a waiting time until the reference time is reached.
請求項1〜36のいずれかに記載の魚眼監視システムにおいて、
ユーザの設定操作に基づいて、実切出条件決定部が決定すべき実切出条件および標準切出条件格納部に格納される標準切出条件を任意に設定する機能をもった手動条件設定部を更に備えることを特徴とする魚眼監視システム。
In the fish-eye monitoring system according to any one of claims 1 to 36,
Manual condition setting unit with a function to arbitrarily set the actual cutting condition to be determined by the actual cutting condition determination unit and the standard cutting condition stored in the standard cutting condition storage unit based on the user's setting operation The fish-eye monitoring system further comprising:
請求項1〜37のいずれかに記載の魚眼監視システムにおける魚眼レンズ付ビデオカメラおよびモニタ装置を除く構成部分としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a component except the video camera with a fisheye lens and monitor apparatus in the fisheye monitoring system in any one of Claims 1-37. 請求項1〜37のいずれかに記載の魚眼監視システムにおける魚眼レンズ付ビデオカメラおよびモニタ装置を除く構成部分として機能する電子回路が組み込まれた半導体集積回路。   38. A semiconductor integrated circuit in which an electronic circuit functioning as a component excluding the video camera with a fisheye lens and the monitor device in the fisheye monitoring system according to claim 1 is incorporated. 魚眼レンズを用いた撮影により得られた歪曲円形画像の一部分を切り出して、平面正則画像に変換し、これを画面上に提示する画像提示システムであって、
二次元XY座標系上の座標(x,y)で示される位置に配置された多数の画素の集合体によって構成され、前記二次元XY座標系の原点Oを中心とし半径Rをもち、魚眼レンズを用いた撮影により得られた歪曲円形画像を格納する歪曲円形画像用メモリと、
二次元UV座標系上の座標(u,v)で示される位置に配置された多数の画素の集合体によって構成される平面正則画像を格納する平面正則画像用メモリと、
前記平面正則画像用メモリ内に格納されている平面正則画像を画面上に表示する画像表示装置と、
歪曲円形画像上の1点である切出中心点Pと、所定の平面傾斜角φと、所定の倍率mと、によって構成される実切出条件を、歪曲円形画像の一部から平面正則画像を切り出すための条件として決定する実切出条件決定部と、
前記実切出条件決定部から与えられた実切出条件に基づいて、前記歪曲円形画像用メモリに格納されている歪曲円形画像の前記切出中心点Pで示される切り出し位置から、前記平面傾斜角φで示される切り出し向きに、前記倍率mで示される切り出しサイズの画像を切り出し、これを平面正則画像に変換して、前記平面正則画像用メモリに格納する画像切出変換部と、
を備え、
前記実切出条件決定部が、現在の切出中心点P0を含む現切出条件から、目標となる切出中心点Pnを含む目標切出条件への変更を行う際に、前記画像切出変換部に対して与える切出中心点Pの位置を、点P0から点Pnへと段階的に移行させる処理を行うことを特徴とする画像提示システム。
An image presentation system that cuts out a part of a distorted circular image obtained by shooting using a fisheye lens, converts it into a planar regular image, and presents it on a screen,
A fish-eye lens is constituted by an aggregate of a large number of pixels arranged at a position indicated by coordinates (x, y) on a two-dimensional XY coordinate system, having a radius R around the origin O of the two-dimensional XY coordinate system. A distorted circular image memory for storing a distorted circular image obtained by photographing used;
A planar regular image memory for storing a planar regular image composed of a collection of a large number of pixels arranged at positions indicated by coordinates (u, v) on a two-dimensional UV coordinate system;
An image display device for displaying a planar regular image stored in the planar regular image memory on a screen;
An actual cutting condition constituted by a cutting center point P that is one point on the distorted circular image, a predetermined plane inclination angle φ, and a predetermined magnification m is determined from a part of the distorted circular image as a planar regular image. An actual cutting condition determination unit that determines as a condition for cutting
Based on the actual cutting conditions given from the actual cutting condition determining unit, the plane inclination is determined from the cutting position indicated by the cutting center point P of the distorted circular image stored in the distorted circular image memory. An image cut-out conversion unit that cuts out an image of the cut-out size indicated by the magnification m in the cut-out direction indicated by the angle φ, converts the image into a plane regular image, and stores the image in the plane regular image memory;
With
When the actual cutting condition determination unit changes the current cutting condition including the current cutting center point P0 to the target cutting condition including the target cutting center point Pn, the image cutting condition is determined. An image presentation system that performs a process of shifting the position of a cut-out center point P given to a conversion unit from a point P0 to a point Pn in a stepwise manner.
請求項40に記載の画像提示システムにおいて、
歪曲円形画像が配置された二次元XY直交座標系を含む三次元XYZ直交座標系において、原点Oを中心として半径Rの仮想球面を定義し、原点Oに向かって当該仮想球面上の1点に入射した外光が、撮影に用いた魚眼レンズの光学作用によってXY平面上の1点に到達する場合に、当該仮想球面上の1点と当該XY平面上の1点とを相互に対応する点と定義し、切出中心点Pに対応する前記仮想球面上の点である対応点Qをとり、原点Oを起点として前記対応点Qを通るベクトルを視線ベクトルnと定義し、この視線ベクトルn上における、前記原点Oから「倍率mと半径Rとの積m・R」だけ離れた点Gを原点とし、前記点Gを通り前記視線ベクトルnに直交する平面上もしくは当該平面を湾曲させた曲面上に平面傾斜角φに応じた向きをもって配置された二次元UV座標系を定義したときに、
画像切出変換部が、前記二次元UV座標系上の座標(u,v)と前記二次元XY直交座標系上の座標(x,y)との対応関係を示す所定の対応関係式を用いて、座標(u,v)に対応する対応座標(x,y)を算出することにより、歪曲円形画像から切り出した画像を平面正則画像に変換する処理を行うことを特徴とする画像提示システム。
The image presentation system according to claim 40, wherein
In a three-dimensional XYZ Cartesian coordinate system including a two-dimensional XY Cartesian coordinate system in which a distorted circular image is arranged, a virtual sphere having a radius R is defined with the origin O as the center, and one point on the virtual sphere is directed toward the origin O. When incident external light reaches one point on the XY plane by the optical action of the fisheye lens used for photographing, a point on the virtual sphere and a point on the XY plane correspond to each other A corresponding point Q that is a point on the virtual sphere corresponding to the cut-out center point P is taken, a vector passing through the corresponding point Q starting from the origin O is defined as a line-of-sight vector n, and the line-of-sight vector n A curved surface obtained by bending a point G on the plane passing through the point G and orthogonal to the line-of-sight vector n with the point G separated from the origin O by “product m · R of the magnification m and the radius R” Orientation according to the plane inclination angle φ When defining the disposed two-dimensional UV coordinate system with,
The image cut-out conversion unit uses a predetermined correspondence expression indicating the correspondence between the coordinates (u, v) on the two-dimensional UV coordinate system and the coordinates (x, y) on the two-dimensional XY orthogonal coordinate system. An image presentation system that performs processing for converting an image cut out from a distorted circular image into a planar regular image by calculating corresponding coordinates (x, y) corresponding to coordinates (u, v).
請求項41に記載の画像提示システムにおいて、
実切出条件決定部が、切出中心点Pについての仮想球面上の対応点Qが、予め設定された所定の球面移動経路上を、時間に関する関数として設定された所定の球面移動速度で移動するように、切出中心点Pの位置を決定することを特徴とする画像提示システム。
The image presentation system according to claim 41, wherein
The actual cutting condition determination unit moves the corresponding point Q on the virtual spherical surface with respect to the cutting center point P on the predetermined spherical moving path set at a predetermined spherical moving speed set as a function related to time. The image presentation system characterized by determining the position of the cutting center point P as described above.
請求項40〜42のいずれかに記載の画像提示システムにおいて、
実切出条件決定部が、切出中心点Pの位置を点P0から点Pnへと段階的に移行させる処理を行うとともに、倍率mの値を、現在の倍率m0から目標となる倍率mnへと段階的に移行させる処理を行うことを特徴とする画像提示システム。
In the image presentation system according to any one of claims 40 to 42,
The actual cutting condition determination unit performs a process of shifting the position of the cutting center point P from the point P0 to the point Pn in a stepwise manner, and changes the value of the magnification m from the current magnification m0 to the target magnification mn. An image presentation system characterized by performing a process of shifting in stages.
請求項43に記載の画像提示システムにおいて、
実切出条件決定部が、時間に関する関数として設定された所定の倍率変更速度で倍率mの値を移行させることを特徴とする画像提示システム。
The image presentation system according to claim 43,
An image presenting system, wherein the actual cutting condition determining unit shifts the value of the magnification m at a predetermined magnification changing speed set as a function related to time.
JP2009209213A 2009-09-10 2009-09-10 Fisheye monitoring system Expired - Fee Related JP5233926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009209213A JP5233926B2 (en) 2009-09-10 2009-09-10 Fisheye monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009209213A JP5233926B2 (en) 2009-09-10 2009-09-10 Fisheye monitoring system

Publications (2)

Publication Number Publication Date
JP2011061511A true JP2011061511A (en) 2011-03-24
JP5233926B2 JP5233926B2 (en) 2013-07-10

Family

ID=43948641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009209213A Expired - Fee Related JP5233926B2 (en) 2009-09-10 2009-09-10 Fisheye monitoring system

Country Status (1)

Country Link
JP (1) JP5233926B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012081400A1 (en) * 2010-12-14 2012-06-21 コニカミノルタオプト株式会社 Image processing method, image processing device, and image capture device
WO2012086188A1 (en) * 2010-12-24 2012-06-28 パナソニック株式会社 Camera device, image processing system, image processing method and image processing program
JP2013098816A (en) * 2011-11-02 2013-05-20 Dainippon Printing Co Ltd Moving picture display apparatus
WO2013114848A1 (en) * 2012-01-31 2013-08-08 パナソニック株式会社 Image processing device and image processing method
JP2015072577A (en) * 2013-10-02 2015-04-16 東芝アルパイン・オートモティブテクノロジー株式会社 Moving body detection device
WO2016163591A1 (en) * 2015-04-07 2016-10-13 엘지전자 주식회사 Watch-type mobile terminal
US9607358B2 (en) 2012-03-09 2017-03-28 Ricoh Company, Limited Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
KR20170047385A (en) * 2014-09-03 2017-05-04 넥스트브이알 인코포레이티드 Methods and apparatus for capturing, streaming and/or playing back content
CN106898000A (en) * 2017-02-15 2017-06-27 华东师范大学 A kind of automatic division method of magnetic resonance imaging cerebral gray matter core group
JP2017126942A (en) * 2016-01-15 2017-07-20 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
KR101760892B1 (en) 2016-06-22 2017-07-24 재단법인 실감교류인체감응솔루션연구단 System and method for tracking object based on omnidirectional image in omni-camera
KR20170120631A (en) * 2015-02-17 2017-10-31 넥스트브이알 인코포레이티드 Methods and apparatus for generating and utilizing reduced resolution images and / or for communicating such images to a playback or content distribution device
CN109472736A (en) * 2017-09-07 2019-03-15 微鲸科技有限公司 Image processing method and equipment
US10277836B2 (en) 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP2019517688A (en) * 2016-06-02 2019-06-24 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for determining the transition between two display images, and a vehicle
CN111860094A (en) * 2020-03-16 2020-10-30 北京嘀嘀无限科技发展有限公司 Image information verification method, system and computer readable storage medium
CN112150554A (en) * 2019-06-28 2020-12-29 杭州海康威视数字技术股份有限公司 Screen display method, device, terminal and storage medium
JP2021029044A (en) * 2016-03-31 2021-02-25 ソニー株式会社 Information processing device, information processing method, program
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium
WO2022000862A1 (en) * 2020-06-29 2022-01-06 苏州科达科技股份有限公司 Method and apparatus for detecting object in fisheye image, and storage medium
US20220198803A1 (en) * 2019-04-01 2022-06-23 Omron Corporation Person detection device and person detection method
US20220309798A1 (en) * 2021-03-24 2022-09-29 Honda Motor Co., Ltd. Control apparatus and control method using captured image of external environment of vehicle
CN115376313A (en) * 2022-07-26 2022-11-22 四川智慧高速科技有限公司 Method for realizing image fusion and distortion correction based on monitoring camera group
WO2025115350A1 (en) * 2023-11-30 2025-06-05 コニカミノルタ株式会社 Image processing device, image processing method, image processing program and image processing system
CN120881219A (en) * 2025-09-23 2025-10-31 苏州一际智能科技有限公司 Method for quickly searching linked monitoring camera in panoramic video

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102589853B1 (en) 2016-10-27 2023-10-16 삼성전자주식회사 Image display apparatus and method for displaying image

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000235645A (en) * 1999-02-12 2000-08-29 Advanet Corp Arithmetic device for image transformation
JP2000242773A (en) * 1999-02-19 2000-09-08 Fitto:Kk Image data converting device
JP2001008189A (en) * 1999-04-23 2001-01-12 Hitachi Ltd Moving object monitoring device
JP2001060269A (en) * 1999-06-15 2001-03-06 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2002329207A (en) * 2001-05-02 2002-11-15 Riosu Corp:Kk Moving object tracking display system
JP2007208453A (en) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method
JP2008061260A (en) * 2007-09-21 2008-03-13 Fujitsu Ltd Fisheye lens camera device and image distortion correction method thereof
JP2008141703A (en) * 2006-12-05 2008-06-19 Canon Inc Imaging system, video display method, and computer program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000235645A (en) * 1999-02-12 2000-08-29 Advanet Corp Arithmetic device for image transformation
JP2000242773A (en) * 1999-02-19 2000-09-08 Fitto:Kk Image data converting device
JP2001008189A (en) * 1999-04-23 2001-01-12 Hitachi Ltd Moving object monitoring device
JP2001060269A (en) * 1999-06-15 2001-03-06 Hitachi Denshi Ltd Object tracking method and object tracking device
JP2002329207A (en) * 2001-05-02 2002-11-15 Riosu Corp:Kk Moving object tracking display system
JP2007208453A (en) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method
JP2008141703A (en) * 2006-12-05 2008-06-19 Canon Inc Imaging system, video display method, and computer program
JP2008061260A (en) * 2007-09-21 2008-03-13 Fujitsu Ltd Fisheye lens camera device and image distortion correction method thereof

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012081400A1 (en) * 2010-12-14 2012-06-21 コニカミノルタオプト株式会社 Image processing method, image processing device, and image capture device
US8928778B2 (en) 2010-12-24 2015-01-06 Panasonic Corporation Camera device, image processing system, image processing method and image processing program
WO2012086188A1 (en) * 2010-12-24 2012-06-28 パナソニック株式会社 Camera device, image processing system, image processing method and image processing program
JP2013098816A (en) * 2011-11-02 2013-05-20 Dainippon Printing Co Ltd Moving picture display apparatus
US9396529B2 (en) 2012-01-31 2016-07-19 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
GB2514495A (en) * 2012-01-31 2014-11-26 Panasonic Corp Image processing device and image processing method
GB2514495B (en) * 2012-01-31 2015-04-22 Panasonic Ip Man Co Ltd Image processing device and image processing method
JPWO2013114848A1 (en) * 2012-01-31 2015-05-11 パナソニックIpマネジメント株式会社 Image processing apparatus and image processing method
US9836829B2 (en) 2012-01-31 2017-12-05 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
WO2013114848A1 (en) * 2012-01-31 2013-08-08 パナソニック株式会社 Image processing device and image processing method
US10366477B2 (en) 2012-01-31 2019-07-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
US9607358B2 (en) 2012-03-09 2017-03-28 Ricoh Company, Limited Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
US11049215B2 (en) 2012-03-09 2021-06-29 Ricoh Company, Ltd. Image capturing apparatus, image capture system, image processing method, information processing apparatus, and computer-readable storage medium
JP2015072577A (en) * 2013-10-02 2015-04-16 東芝アルパイン・オートモティブテクノロジー株式会社 Moving body detection device
KR20220127939A (en) * 2014-09-03 2022-09-20 네버마인드 캐피탈 엘엘씨 Methods and apparatus for capturing, streaming and/or playing back content
KR102441437B1 (en) * 2014-09-03 2022-09-08 네버마인드 캐피탈 엘엘씨 Methods and apparatus for capturing, streaming and/or playing back content
KR20170047385A (en) * 2014-09-03 2017-05-04 넥스트브이알 인코포레이티드 Methods and apparatus for capturing, streaming and/or playing back content
US11122251B2 (en) 2014-09-03 2021-09-14 Apple Inc. Methods and apparatus for receiving and/or playing back content
KR102632421B1 (en) 2014-09-03 2024-02-01 네버마인드 캐피탈 엘엘씨 Methods and apparatus for capturing, streaming and/or playing back content
US12081723B2 (en) 2014-09-03 2024-09-03 Nevermind Capital Llc Methods and apparatus for receiving and/or playing back content
KR102533555B1 (en) 2015-02-17 2023-05-18 네버마인드 캐피탈 엘엘씨 Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
KR20230020574A (en) * 2015-02-17 2023-02-10 네버마인드 캐피탈 엘엘씨 Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
KR102493754B1 (en) 2015-02-17 2023-02-01 네버마인드 캐피탈 엘엘씨 Methods and apparatus for creating and using reduced resolution images and/or communicating such images to a playback or content distribution device
KR20170120631A (en) * 2015-02-17 2017-10-31 넥스트브이알 인코포레이티드 Methods and apparatus for generating and utilizing reduced resolution images and / or for communicating such images to a playback or content distribution device
US10152219B2 (en) 2015-04-07 2018-12-11 Lg Electronics Inc. Watch-type mobile terminal
WO2016163591A1 (en) * 2015-04-07 2016-10-13 엘지전자 주식회사 Watch-type mobile terminal
JP2017126942A (en) * 2016-01-15 2017-07-20 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US10277836B2 (en) 2016-03-07 2019-04-30 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
US10827133B2 (en) 2016-03-07 2020-11-03 Ricoh Company, Ltd. Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP2021029044A (en) * 2016-03-31 2021-02-25 ソニー株式会社 Information processing device, information processing method, program
US11417062B2 (en) 2016-03-31 2022-08-16 Sony Group Corporation Information processing device, information processing method, and program
JP7017175B2 (en) 2016-03-31 2022-02-08 ソニーグループ株式会社 Information processing equipment, information processing method, program
JP2019517688A (en) * 2016-06-02 2019-06-24 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Method and apparatus for determining the transition between two display images, and a vehicle
KR101760892B1 (en) 2016-06-22 2017-07-24 재단법인 실감교류인체감응솔루션연구단 System and method for tracking object based on omnidirectional image in omni-camera
CN106898000B (en) * 2017-02-15 2020-02-18 华东师范大学 An automatic segmentation method of cerebral gray matter nuclei for magnetic resonance imaging
CN106898000A (en) * 2017-02-15 2017-06-27 华东师范大学 A kind of automatic division method of magnetic resonance imaging cerebral gray matter core group
CN109472736A (en) * 2017-09-07 2019-03-15 微鲸科技有限公司 Image processing method and equipment
US11195295B2 (en) 2018-11-22 2021-12-07 Ricoh Company, Ltd. Control system, method of performing analysis and storage medium
US11948363B2 (en) * 2019-04-01 2024-04-02 Omron Corporation Person detection device and person detection method
US20220198803A1 (en) * 2019-04-01 2022-06-23 Omron Corporation Person detection device and person detection method
CN112150554B (en) * 2019-06-28 2023-08-04 杭州海康威视数字技术股份有限公司 Picture display method, device, terminal and storage medium
CN112150554A (en) * 2019-06-28 2020-12-29 杭州海康威视数字技术股份有限公司 Screen display method, device, terminal and storage medium
CN111860094A (en) * 2020-03-16 2020-10-30 北京嘀嘀无限科技发展有限公司 Image information verification method, system and computer readable storage medium
WO2022000862A1 (en) * 2020-06-29 2022-01-06 苏州科达科技股份有限公司 Method and apparatus for detecting object in fisheye image, and storage medium
US20220309798A1 (en) * 2021-03-24 2022-09-29 Honda Motor Co., Ltd. Control apparatus and control method using captured image of external environment of vehicle
US12283111B2 (en) * 2021-03-24 2025-04-22 Honda Motor Co., Ltd. Control apparatus and control method using captured image of external environment of vehicle
CN115376313A (en) * 2022-07-26 2022-11-22 四川智慧高速科技有限公司 Method for realizing image fusion and distortion correction based on monitoring camera group
WO2025115350A1 (en) * 2023-11-30 2025-06-05 コニカミノルタ株式会社 Image processing device, image processing method, image processing program and image processing system
CN120881219A (en) * 2025-09-23 2025-10-31 苏州一际智能科技有限公司 Method for quickly searching linked monitoring camera in panoramic video

Also Published As

Publication number Publication date
JP5233926B2 (en) 2013-07-10

Similar Documents

Publication Publication Date Title
JP5233926B2 (en) Fisheye monitoring system
TWI535285B (en) Conference system, surveillance system, image processing device, image processing method and image processing program, etc.
US9858643B2 (en) Image generating device, image generating method, and program
CN103826103B (en) Cruise control method for tripod head video camera
CN106803884B (en) Image processing apparatus
JP5136060B2 (en) Image processing apparatus, image processing method, program thereof, recording medium recording the program, and imaging apparatus
EP2849439B1 (en) Display image formation device and display image formation method
JP4508049B2 (en) 360 ° image capturing device
KR101385914B1 (en) Processing target image generation device, processing target image generation method, and operation support system
WO2018051815A1 (en) Information processing apparatus and method and program
WO2024084943A1 (en) Information processing device, information processing method, and program
JP2018107583A (en) Information processing device, information processing method and program
JP5733088B2 (en) Movie presentation device
JP5963006B2 (en) Image conversion apparatus, camera, video system, image conversion method, and recording medium recording program
US20210056662A1 (en) Image processing apparatus, image processing method, and storage medium
CN101374229B (en) Camera control method, camera control device, camera control program, and camera system
JP2010154391A (en) Automatic tracking camera apparatus
KR101718081B1 (en) Super Wide Angle Camera System for recognizing hand gesture and Transport Video Interface Apparatus used in it
WO2017159014A1 (en) Image processing device, image processing method and image processing system
CN113286138A (en) Panoramic video display method and display equipment
KR102707798B1 (en) Camera device capable of pan-tilt-zoom operation and video surveillance system and method using the same
US12095964B2 (en) Information processing apparatus, information processing method, and storage medium
JP5202448B2 (en) Image processing system and method
JP2014165866A (en) Image processing device, control method therefor and program
WO2023276480A1 (en) Imaging system, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5233926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees