JPH1183437A - Distance measuring system and recording medium - Google Patents
Distance measuring system and recording mediumInfo
- Publication number
- JPH1183437A JPH1183437A JP24238497A JP24238497A JPH1183437A JP H1183437 A JPH1183437 A JP H1183437A JP 24238497 A JP24238497 A JP 24238497A JP 24238497 A JP24238497 A JP 24238497A JP H1183437 A JPH1183437 A JP H1183437A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- camera
- road
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 本発明は、路上の物体の位置を測定する距離
計測システムおよび記録媒体に関し、路面上の物体の位
置を連携した複数のカメラで監視する際にあるカメラの
画像中の距離精度の低い領域で広範囲に物体の有無を検
出して物体が検出されたときに連携した他のカメラの距
離精度の高い領域で物体の位置を正確に計測し、複数台
のカメラを連携して路面上の物体の位置を広範囲にわた
って高速かつ高精度に計測することを目的とする。
【解決手段】 あるカメラの画像中の距離精度の低い領
域と次のカメラの画像中の距離精度の高い領域とが重な
るように対応づけて路に沿って順次配置した複数台のカ
メラと、複数台のカメラのうちあるカメラの画像中の距
離精度の低い領域で路上の物体の有無を検出し、検出さ
れたときに対応するカメラの画像中の距離精度の高い領
域で当該物体の位置を計測する手段とを備えるように構
成する。
(57) Abstract: The present invention relates to a distance measuring system and a recording medium for measuring the position of an object on a road, and relates to an image of a camera when monitoring the position of the object on a road with a plurality of linked cameras. Detects the presence or absence of an object over a wide area in an area with low distance accuracy in the middle, and when the object is detected, accurately measures the position of the object in the area with high distance accuracy of the other camera that cooperated, and controls multiple cameras An object of the present invention is to measure a position of an object on a road surface in a wide range at high speed and with high accuracy in cooperation. SOLUTION: A plurality of cameras sequentially arranged along a road in such a manner that an area with a low distance accuracy in an image of a certain camera and an area with a high distance accuracy in an image of the next camera overlap each other, Detects the presence or absence of an object on the road in an area with low distance accuracy in the image of one of the cameras and measures the position of the object in the area with high distance accuracy in the image of the corresponding camera when detected And means for performing the operation.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、路上の物体の位置
を測定する距離計測システムおよび記録媒体に関するも
のである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a distance measuring system for measuring the position of an object on a road and a recording medium.
【0002】道路や企業内において路上や廊下などの通
路に物体が放置されていることは安全面で好ましくな
い。TVカメラなどのカメラを道路や廊下などの通路に
沿って設置し、放置された物体を検出し、その位置を管
理局に通知することが求められている。従来のカメラよ
りも精度が良く、高速に計測できるシステムの要求があ
る。[0002] It is not preferable from the viewpoint of safety that an object is left in a passage such as a road or a corridor in a road or a company. A camera such as a TV camera is required to be installed along a passage such as a road or a corridor, to detect an abandoned object, and to notify a management station of its position. There is a demand for a system that can measure at higher speed with higher accuracy than conventional cameras.
【0003】[0003]
【従来の技術】従来、道路や廊下などの通路に置かれた
物体の位置を計測するシステムとして、例えば図7に示
す概念を持つシステムがある。この図7に示すシステム
によって、路面や廊下などに置かれた物体をTVカメラ
で画像化し、画像処理装置によって路面上の物体の位置
を計測し、監視する。計測手法を図8に示す。路面上の
物体の点Pからカメラ(TVカメラ)直下の路面点Oま
での距離L、カメラの焦点距離f、カメラの傾きθ、カ
メラの高さH、カメラの撮像面に写る物体の画像上の位
置a(画像中心からの距離)を既知とすると、図示の
(式1)によってLを算出することができる。2. Description of the Related Art Conventionally, as a system for measuring the position of an object placed on a passage such as a road or a corridor, there is a system having the concept shown in FIG. 7, for example. With the system shown in FIG. 7, an object placed on a road surface or a corridor is imaged by a TV camera, and the position of the object on the road surface is measured and monitored by an image processing device. FIG. 8 shows the measurement method. The distance L from the point P of the object on the road surface to the road surface point O immediately below the camera (TV camera), the focal length f of the camera, the inclination θ of the camera, the height H of the camera, and the image of the object on the imaging surface of the camera If the position a (distance from the center of the image) is known, L can be calculated by (Equation 1) shown.
【0004】[0004]
【発明が解決しようとする課題】上述した(式1)を使
って画像上の物体の位置aが1ピクセル分ずらした時の
距離差を(式1.1)に示す。(式1.1)から判るよ
うに、カメラの手前(位置aが小さい)では距離に対す
る解像度が高く精度が高いが、位置aが大きくなると距
離差が大きくなり、計測精度も低くなる。従来は、カメ
ラの画像中の全面で(式1)により距離Lの計算の処理
を行っており、物体の放置した距離Lが離れるに従い、
精度が低くなってしまうという問題があった。The distance difference when the position a of the object on the image is shifted by one pixel using the above-mentioned (Equation 1) is shown in (Equation 1.1). As can be seen from (Equation 1.1), the resolution with respect to the distance is high and the accuracy is high in front of the camera (where the position a is small). However, as the position a increases, the distance difference increases and the measurement accuracy decreases. Conventionally, the processing of calculating the distance L has been performed by (Equation 1) over the entire surface of the image of the camera.
There has been a problem that accuracy is reduced.
【0005】本発明は、これらの問題を解決するため、
路面上の物体の位置を連携した複数のカメラで監視する
際にあるカメラの画像中の距離精度の低い領域で広範囲
に物体の有無を検出して物体が検出されたときに連携し
た他のカメラの距離精度の高い領域で物体の位置を正確
に計測し、複数台のカメラを連携して路面上の物体の位
置を広範囲にわたって高速かつ高精度に計測することを
目的としている。[0005] The present invention solves these problems,
When monitoring the position of an object on the road surface with multiple linked cameras, another camera linked when an object is detected by detecting the presence or absence of an object in a wide range in an area with low distance accuracy in the image of one camera It is an object of the present invention to accurately measure the position of an object in an area with high distance accuracy, and to measure the position of the object on a road surface at high speed and with high accuracy in cooperation with a plurality of cameras.
【0006】[0006]
【課題を解決するための手段】図1を参照して課題を解
決するための手段を説明する。図1の(a)において、
S2は、カメラiの領域Bを画像処理する。これは、図
1の(b)に示すカメラiの画像12中の距離精度の低
く広範囲に検出できる領域B(例えば上半分の領域)で
路上の物体の有無を画像処理して検出する。Means for solving the problem will be described with reference to FIG. In FIG. 1A,
S2 performs image processing on the area B of the camera i. In this case, the presence or absence of an object on the road is detected by image processing in an area B (for example, an upper half area) in the image 12 of the camera i shown in FIG.
【0007】S3は、領域Bに物体有りか判別する。Y
ESの場合にはS4に進む。NOの場合には、次のカメ
ラについて繰り返す。S4は、カメラ(i+1)(次の
カメラ)の領域Aを画像処理する。これは、S2でカメ
ラiの領域Bに物体が有と判明したので、この領域Bに
対応する次のカメラの領域Aでその物体の画像処理を行
い正確な物体の位置を計測する。In S3, it is determined whether or not there is an object in the area B. Y
In the case of ES, the process proceeds to S4. If no, repeat for the next camera. In step S4, image processing is performed on the area A of the camera (i + 1) (next camera). In this case, since it is determined that an object exists in the area B of the camera i in S2, image processing of the object is performed in the area A of the next camera corresponding to this area B, and the position of the object is accurately measured.
【0008】以上のように画像処理をS2の領域Bで物
体を検出する画像処理と、物体が検出されたときに領域
Aで正確な物体の位置を検出する画像処理という2段階
に分けて物体を検出するようにしている。As described above, the image processing is divided into two stages: image processing for detecting an object in the area B of S2 and image processing for detecting the accurate position of the object in the area A when the object is detected. Is to be detected.
【0009】次に、画像処理例を説明する。あるカメラ
の画像中の距離精度の低い領域(領域A)と次のカメラ
の画像中の距離精度の高い領域(領域B)とが重なるよ
うに対応づけて路に沿ってカメラを順次配置し、これら
複数台のカメラのうちあるカメラの画像中の距離精度の
低い領域(領域B)で路上の物体の有無を検出し、検出
されたときに対応するカメラの画像中の距離精度の高い
領域(領域A)で当該物体の位置を正確に計測するよう
にしている。Next, an example of image processing will be described. A camera is sequentially arranged along a road in such a manner that an area with low distance accuracy (area A) in an image of a certain camera and an area with high distance accuracy (area B) in the image of the next camera overlap each other, The presence / absence of an object on the road is detected in an area (area B) having a low distance accuracy in an image of one of the plurality of cameras, and an area having a high distance accuracy in an image of the corresponding camera ( The position of the object is accurately measured in the area A).
【0010】この際、各カメラの画像中の距離精度の低
い領域(領域B)で路上の物体を検出することを各カメ
ラが繰り返し、検出されたときに対応するカメラの画像
中の距離精度の高い領域(領域A)で路上の物体の位置
を高精度に測定するようにしている。At this time, each camera repeats detecting an object on the road in an area (area B) having a low distance accuracy in the image of each camera, and when the object is detected, the distance accuracy in the image of the corresponding camera is detected. In a high area (area A), the position of the object on the road is measured with high accuracy.
【0011】また、各カメラの画像中の距離精度の低い
領域(領域B)で路上の物体を検出すると共に概略の位
置を求め、対応するカメラの画像中の距離精度の高い領
域(領域A)中で当該検出した概略の位置を含む所定範
囲内に制限して路上の物体の位置を高精度かつ高速に測
定するようにしている。In addition, an object on the road is detected in a region (region B) with a low distance accuracy in the image of each camera, and an approximate position is obtained, and a region with a high distance accuracy (region A) in the image of the corresponding camera. In this method, the position of an object on the road is measured with high precision and at high speed by restricting the position to a predetermined range including the detected approximate position.
【0012】従って、路面上に放置された物体の位置を
連携した複数のカメラで監視する際にあるカメラの画像
中の距離精度の低い領域(領域B)で広範囲に物体の有
無を検出して物体が検出されたときに連携した他のカメ
ラの距離精度の高い領域(領域A)で物体の位置を正確
に計測することにより、複数台のカメラを連携して路面
上に放置された物体の位置を広範囲にわたって高速かつ
高精度に計測することが可能となる。Therefore, when monitoring the position of an object left on the road surface with a plurality of linked cameras, the presence or absence of the object is detected over a wide area in an area with a low distance accuracy (area B) in the image of the camera. By accurately measuring the position of an object in a region (region A) with high distance accuracy of another camera that cooperated when the object was detected, a plurality of cameras can cooperate to detect an object left on the road surface. The position can be measured at high speed and with high accuracy over a wide range.
【0013】[0013]
【発明の実施の形態】次に、図1から図6を用いて本発
明の実施の形態および動作を順次詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment and operation of the present invention will be sequentially described in detail with reference to FIGS.
【0014】図1は、本発明の動作説明図を示す。図1
の(a)は、フローチャートを示す。図1の(a)にお
いて、S1は、変数i=1と初期設定する。ここでは、
カメラを後述する図2に示すようにn台を路面に沿って
順番に並べてi=1(先頭のカメラ1)に初期設定す
る。FIG. 1 is a diagram for explaining the operation of the present invention. FIG.
(A) shows a flowchart. In FIG. 1A, S1 is initially set to a variable i = 1. here,
As shown in FIG. 2 to be described later, n cameras are arranged in order along the road surface, and i is initially set to 1 (the first camera 1).
【0015】S2は、カメラiの領域Bを画像処理す
る。これは、図1の(b)に示すカメラiの画像12中
の距離精度の低い広範囲に検出できる領域B(例えば上
半分の領域)で路上に置かれた物体の有無を画像処理し
て検出する。In step S2, image processing is performed on the area B of the camera i. This is performed by performing image processing to detect the presence or absence of an object placed on the road in an area B (for example, an upper half area) having a low distance accuracy and which can be detected in a wide range in the image 12 of the camera i shown in FIG. I do.
【0016】S3は、領域Bに物体有りか判別する。Y
ESの場合にはS4に進む。NOの場合には、S5に進
む。S4は、カメラ(i+1)(次のカメラ)の領域B
を画像処理する。これは、S2でカメラiの領域Bに物
体が有と判明したので、この領域Bに対応する次のカメ
ラの領域Aでその物体の画像処理を行い正確な物体の位
置を計測する。In S3, it is determined whether or not there is an object in the area B. Y
In the case of ES, the process proceeds to S4. In the case of NO, the process proceeds to S5. S4 is the area B of the camera (i + 1) (next camera)
Image processing. In this case, since it is determined that an object exists in the area B of the camera i in S2, image processing of the object is performed in the area A of the next camera corresponding to this area B, and the position of the object is accurately measured.
【0017】S5は、i=i+1する。S6は、終わり
か判別する。YESの場合には、全てのカメラについて
領域Bで路面上に物体がありか否かを判別することを終
了したので、終了する(END)。NOの場合には、S
2に戻り繰り返す。In step S5, i = i + 1. In S6, it is determined whether or not the processing is over. In the case of YES, the determination of whether or not there is any object on the road surface in the area B for all the cameras has been completed, and thus the processing ends (END). If NO, S
Return to step 2 and repeat.
【0018】以上によって、路面上に複数台のカメラを
順次配置し、先頭のカメラ1から末尾のカメラnまで順
次画像中の領域Bで物体の有無を検出し、検出されたと
きに次のカメラの画像中の領域Aで物体の位置を正確に
計測することを繰り返し、距離精度の低い領域Bで広範
囲にわたって物体の有無を検出して物体が検出されたと
きのみ次のカメラの距離精度の高い領域Aで物体の位置
を正確に計測すことにより、複数台のカメラを連携して
路面上に放置された物体の位置を広範囲にわたって高速
かつ高精度に計測することが可能となる。As described above, a plurality of cameras are sequentially arranged on the road surface, and the presence or absence of an object is sequentially detected in the area B in the image from the first camera 1 to the last camera n. It repeats the accurate measurement of the position of the object in the area A in the image of the above, and detects the presence / absence of the object over a wide range in the area B with low distance accuracy, and only when the object is detected, the distance accuracy of the next camera is high. By accurately measuring the position of the object in the area A, it becomes possible to measure the position of the object left on the road surface at high speed and with high accuracy in cooperation with a plurality of cameras.
【0019】図1の(b)は、カメラ11の画像12の
例を示す。ここでは、画像中の上半分を距離精度の低い
領域B、下半分を距離精度の高い領域Aとしている。以
下順次詳細に説明する。FIG. 1B shows an example of an image 12 of the camera 11. Here, the upper half in the image is an area B with low distance accuracy, and the lower half is an area A with high distance accuracy. The details will be sequentially described below.
【0020】図2は、本発明の説明図(その1)を示
す。図2の(a)は、カメラの配置例を示す。ここで
は、カメラi(i=1ないしn)としてカメラA、B、
C・・・図示のように路面に沿って順次後述する(式
2)を満たすように、即ち、既述したあるカメラの画像
中の領域Bと次のカメラの画像中の領域Aとが重なるよ
うに、配置した例を示す。ここで、 ・A1、B1:カメラA、Bの領域Aの端部と路面と交
わる点 ・A2、B2:カメラA、Bの光軸が路面と交わる点 ・A3、B3:カメラA、Bの領域Bの端部と路面と交
わる点 ・HA、HB:カメラA、Bから路面までの距離 ・l:カメラA、Bなどのカメラ間の距離 ・LA’:O−A1間の距離 ・LA:O−A2間の距離 ・LAB:O−B1間の距離 ・LB:O−B2間の距離 ・θA、θB=カメラA、Bの光軸と路面とのなす角度 ・φA、φB:カメラA、Bの画像の最大角度 とそれぞれ定義する。FIG. 2 is an explanatory view (part 1) of the present invention. FIG. 2A shows an example of camera arrangement. Here, as cameras i (i = 1 to n), cameras A, B,
C: As shown in the drawing, the area B in the image of a certain camera and the area A in the image of the next camera overlap so as to satisfy Equation 2 described later in order along the road surface. An example is shown below. Here, A1, B1: a point at which the end of the area A of the cameras A, B intersects the road surface A2, B2: a point at which the optical axes of the cameras A, B intersect the road surface A3, B3: the points at the cameras A, B HA, HB: distance from camera A, B to road surface l: distance between cameras A, B, etc. LA ': distance between O-A1 LA: Distance between O-A2 ・ LAB: Distance between O-B1 ・ LB: Distance between O-B2 ・ θA, θB = angle between the optical axis of cameras A and B and the road surface ・ φA, φB: camera A, And the maximum angle of the B image.
【0021】図2の(b)は、カメラ配置条件の例を示
す。ここでは、上段の式に示すように、図2の(A)の
図を参照して、 ・LA’<LAB<LA<LB とし、これらにLA’、LAB、LA、LBを代入する
と、図示の(式2)が得られる。FIG. 2B shows an example of camera arrangement conditions. Here, as shown in the upper equation, referring to the diagram of FIG. 2A, it is assumed that LA ′ <LAB <LA <LB, and LA ′, LAB, LA, and LB are substituted for these. (Equation 2) is obtained.
【0022】図2の(c)は、カメラA、Bの画像の例
を示す。図2の(c−1)は、カメラAの画像を示す。
このカメラAの画像中の上半分の領域Bについて物体の
有無の検出を行う。領域B内に物体が有ると検出された
ときに、図2の(c−2)の次のカメラBの画像中の領
域Aの物体の位置を正確に計測する。FIG. 2C shows an example of images of the cameras A and B. (C-1) of FIG. 2 shows an image of the camera A.
The presence or absence of an object is detected for the upper half area B in the image of the camera A. When it is detected that an object exists in the area B, the position of the object in the area A in the image of the camera B next to (c-2) in FIG.
【0023】図2の(c−2)は、カメラBの画像を示
す。このカメラBの画像中の下半分の領域Bについて物
体の位置を正確に測定する。次に、図3を用いて図2の
カメラAの領域Bで物体の位置を検出し、物体が検出さ
れたときに次のカメラBの領域Aで物体の位置を正確に
計測するときの動作を詳細に説明する。FIG. 2C-2 shows an image of the camera B. The position of the object is accurately measured for the lower half region B in the image of the camera B. Next, the operation of detecting the position of the object in the area B of the camera A in FIG. 2 using FIG. 3 and accurately measuring the position of the object in the area A of the next camera B when the object is detected Will be described in detail.
【0024】図3は、本発明の説明図(その3)を示
す。図3の(a)は、システム全体構成図を示す。これ
は、カメラi(i=1ないしn)を既述した図2の
(b)のカメラ配置条件を満たす((式2)を満たす)
ように配置したときに、各カメラ(i=1ないしn)か
ら読取った画像を処理する処理モジュールi(i=1な
いしn)を図示のように順番につないで構成したもので
ある。これにより、ある処理モジュールiで画像中の上
部分の領域Bで物体の有を検出したときに次の処理モジ
ュール(i+1)で画像中の下部分の領域Aで物体の位
置を正確に計測するように、処理モジュールを順次接続
したものである。FIG. 3 is an explanatory view (part 3) of the present invention. FIG. 3A shows an overall system configuration diagram. This satisfies the camera arrangement condition of FIG. 2B described above for camera i (i = 1 to n) (satisfies (Equation 2)).
In this arrangement, processing modules i (i = 1 to n) for processing images read from the cameras (i = 1 to n) are connected in order as shown in the figure. Thus, when a certain processing module i detects the presence of an object in the upper area B of the image, the next processing module (i + 1) accurately measures the position of the object in the lower area A of the image. Thus, the processing modules are sequentially connected.
【0025】図3の(b)は、先頭の処理モジュール1
の構成図(i=1)を示す。先頭の処理モジュール1
は、図示のようにカメラ1からの画像を入力とし、上部
分の領域Bで物体抽出を行い、「物体無」を結果出力、
あるいは次の処理モジュール2へ「物体有」の結果通知
を行う。また、先頭の処理モジュールについては、先の
処理モジュールで領域Bで「物体有」の通知がないの
で、ここでは、直接に物体抽出を行い、物体抽出できた
場合には「物体位置」の結果出力する。物体抽出できな
かった場合には「物体位置」の結果出力を行わない。FIG. 3B shows the first processing module 1.
Is shown (i = 1). Top processing module 1
Receives an image from the camera 1 as an input, extracts an object in an upper region B, outputs "no object" as a result,
Alternatively, the result of “object present” is notified to the next processing module 2. In addition, for the first processing module, since there is no notification of “object present” in the area B in the previous processing module, the object is directly extracted here, and if the object can be extracted, the result of “object position” is obtained. Output. If the object cannot be extracted, the result of the “object position” is not output.
【0026】以上のように先頭の処理モジュール1を構
成することにより、上部分の領域Bで物体を検出したと
きに次の処理モジュール2に「物体有」の結果通知を行
い、一方、物体を検出できなかったときに「物体無」の
結果出力を行う。また、下部分の領域Aでは直接に物体
抽出を行い、物体抽出できたときに「物体位置」の結果
出力を行い、物体抽出できなかったときに「物体位置」
の結果出力を行わない。By configuring the first processing module 1 as described above, when an object is detected in the area B in the upper part, the result of "object present" is notified to the next processing module 2, while the object is detected. If no object is detected, a result of "No object" is output. In the lower region A, the object is directly extracted. When the object can be extracted, the result of the “object position” is output. When the object cannot be extracted, the “object position” is output.
Do not output the result of
【0027】図3の(c)は、処理モジュールiの構成
図(i=2ないしn)を示す。処理モジュールiは、図
示のようにカメラiからの画像を入力とし、上部分の領
域Bで物体抽出を行い、「物体無」を結果出力、あるい
は次の処理モジュール(i+1)へ「物体有」の結果通
知を行う。また、処理モジュールiは、先の処理モジュ
ール(i−1)の領域Bで「物体有」の通知があった場
合にのみ、物体抽出を行い「物体位置」の結果出力す
る。FIG. 3C shows a configuration diagram (i = 2 to n) of the processing module i. The processing module i receives an image from the camera i as shown in the figure, extracts an object in the upper region B, outputs "no object" as a result, or outputs "object present" to the next processing module (i + 1). Notification of the result. Also, the processing module i extracts an object and outputs the result of the "object position" only when the notification of "object presence" is received in the area B of the previous processing module (i-1).
【0028】以上のように処理モジュールi(I=2な
いしn)を構成することにより、上部分の領域Bで物体
を検出したときに次の処理モジュール(i+1)に「物
体有」の結果通知を行い、一方、物体を検出できなかっ
たときに「物体無」の結果出力を行う。また、下部分の
領域Aでは前の処理モジュール(i−1)から「物体
有」の結果通知を受けた場合にのみ領域Aで物体抽出を
行い、「物体位置」の結果出力を行う。By configuring the processing module i (I = 2 to n) as described above, when an object is detected in the upper region B, the result of "object present" is notified to the next processing module (i + 1). On the other hand, when an object cannot be detected, a result of "No object" is output. Also, in the lower area A, the object is extracted in the area A only when the result notification of "object present" is received from the previous processing module (i-1), and the result of the "object position" is output.
【0029】以上のように、各処理モジュールiが画像
中の上部分の領域Bで物体の有無を検出して「物体有」
のときに次の処理モジュール(i+1)に通知して当該
処理モジュール(i+1)が画像中の下部分の領域Aで
「物体位置」を検出して出力することを各処理モジュー
ルiが行うという、2段階の画像処理(1段目である処
理モジュールで領域B内の物体の有無の検出し、物体有
のときにのみ2段目に次の処理モジュールで領域A内の
物体位置の測定を行うという2段階の画像処理)で高速
かつ高精度の物体を位置検出を行うことが可能となる。As described above, each processing module i detects the presence / absence of an object in the upper region B in the image and determines that “object present”.
, Each processing module i notifies the next processing module (i + 1) to detect and output the “object position” in the lower area A in the image. Two-stage image processing (the presence / absence of an object in the area B is detected by the processing module in the first stage, and the position of the object in the area A is measured by the next processing module in the second stage only when there is an object. It is possible to perform high-speed and high-precision position detection of the object by the two-stage image processing).
【0030】ここで、高速性について考察すると、領域
Aと領域Bとの処理量はその面積に比例する。領域Aと
領域Bの面積比は最小でも3倍である。従来では、画像
の重なりがないので、カメラの台数が本願発明の1/2
である。従って、領域Bの処理量をP、本発明のカメラ
の台数をnとすると、従来では、常に4nP/2=2n
Pである。本発明では、物体がない場合ではnP+3P
で従来の約1/2の処理量で済む。物体のある場合、領
域Bに物体のあるカメラがm台とすると、本願発明の処
理量はnP+m3P+3Pとなる。従来よりも処理量が
少なくて済むのはnP+m3P+3P>2nPで、m>
n/3−1である。例えば、カメラが6台ならば、物体
の放置が1事象ならば処理量は少なくなる。物体の処理
量が異常状態と仮定すると、事象の起こる頻度は大きく
なく、処理量を削減する可能性が高く、効果が期待でき
る。Here, considering the high speed, the processing amount of the region A and the region B is proportional to the area thereof. The area ratio between the area A and the area B is at least three times. Conventionally, since there is no overlapping of images, the number of cameras is の of that of the present invention.
It is. Therefore, assuming that the processing amount of the area B is P and the number of cameras of the present invention is n, conventionally, 4nP / 2 = 2n
P. In the present invention, nP + 3P when there is no object
Thus, the processing amount of about の of the conventional processing is sufficient. If there are objects, and if there are m cameras with objects in the area B, the processing amount of the present invention is nP + m3P + 3P. It is nP + m3P + 3P> 2nP where the processing amount is smaller than before, and m>
n / 3-1. For example, if there are six cameras, the amount of processing is reduced if leaving the object is one event. Assuming that the processing amount of the object is in an abnormal state, the frequency of occurrence of the event is not large, and there is a high possibility that the processing amount is reduced, and an effect can be expected.
【0031】図4は、本発明の説明図(その3)を示
す。図4の(a)は、構成図を示す。図4の(a)にお
いて、背景差分算出手段21は、領域Bの画像をもとに
背景差分を算出するものである(図4の(b)を用いて
後述する)。FIG. 4 is an explanatory view (part 3) of the present invention. FIG. 4A shows a configuration diagram. 4A, the background difference calculation means 21 calculates a background difference based on the image of the area B (described later with reference to FIG. 4B).
【0032】ラベリング手段22は、背景差分算出手段
21によって算出された背景差分をもとに、ラベリング
を行うものであって、1、0の2値画像について8近傍
隣接ごとに異なるラベル(番号)を付けるものである。
ラベリングの結果、同一のラベルのついて領域が放置さ
れた物体に相当するものである。The labeling means 22 performs labeling based on the background difference calculated by the background difference calculation means 21, and a different label (number) is assigned to the binary image of 1 and 0 for each of eight adjacent neighbors. Is attached.
As a result of the labeling, the area corresponding to the same label corresponds to a left-behind object.
【0033】面積計算手段23は、ラベリング手段22
によってラベリングした後の各ラベルに対して同じラベ
ルのついた画素の数を計数し、その値を面積として算出
するものである。その結果、面積が一定値以上となった
ラベルを物体として決定し、次の処理モジュールに物体
の存在(物体有)を通知する。ラベルのついた領域がな
いか、あるいはラベルのついた領域はあるが面積が一定
値以下のものしかない場合には、物体は存在しない(物
体無)とする。具体的には物体がある場合は「1」、物
体がない場合には「0」として出力する。The area calculating means 23 includes the labeling means 22
The number of pixels having the same label is counted for each label after the labeling, and the value is calculated as an area. As a result, a label having an area equal to or larger than a certain value is determined as an object, and the next processing module is notified of the presence of the object (object present). If there is no labeled area, or if there is a labeled area but the area is less than a certain value, it is determined that the object does not exist (there is no object). Specifically, it outputs “1” when there is an object, and outputs “0” when there is no object.
【0034】図4の(b)は、背景差分算出手段21に
よる処理の方法例を示す。図4の(b−1)は時刻tの
画像を示し、図4の(b−2)は時刻(t−1)までの
背景画像を示し、図4の(b−3)は初期背景画像を示
す。ここで、 ・時刻tの画像Pt(i,j) ・時刻(t−1)までの背景画像B(i,j) ・初期背景画像IB(i,j) とする。FIG. 4B shows an example of a processing method by the background difference calculation means 21. 4 (b-1) shows an image at time t, FIG. 4 (b-2) shows a background image up to time (t-1), and FIG. 4 (b-3) shows an initial background image Is shown. Here, an image Pt (i, j) at time t, a background image B (i, j) until time (t-1), and an initial background image IB (i, j).
【0035】ステップ1:Pt(i,j)−B(i,
j)の演算を画素毎に行い、その結果が ・>0ならばB(i,j)←B(i,j)+α ・<0ならばB(i,j)←B(i,j)−α ・=0ならばB(i,j)←B(i,j) とする。ここで、αは固定値である。詳述すれば、カメ
ラiからの画像中の領域Bの画像P0(i,j)につい
て時刻0の時(電源投入時あるいはリセット時)に(b
−2)背景画像B(i,j)および(b−3)初期背景
画像IB(i,j)に複写してシステム内に蓄積する。
そして、時刻t(t>0)での画像Pt(i,j)は背
景画像B(i,j)と画素単位に比較して(Pt(i,
j)−B(i,j))、 ・0より大きいならば固定値aを背景画像B(i,j)
に加えて更新 ・0より小さいならば固定値aを背景画像B(i,j)
から引いて更新 ・等しいならばそのままの画像B(i,j)を更新 する。Step 1: Pt (i, j) -B (i,
j) is performed for each pixel, and if the result is:> 0, B (i, j) ← B (i, j) + α; if <0, B (i, j) ← B (i, j) If −α · = 0, B (i, j) ← B (i, j). Here, α is a fixed value. More specifically, when the image P0 (i, j) of the area B in the image from the camera i is at time 0 (when power is turned on or reset), (b)
-2) Copy the background image B (i, j) and (b-3) the initial background image IB (i, j) and store them in the system.
Then, the image Pt (i, j) at the time t (t> 0) is compared with the background image B (i, j) in pixel units (Pt (i, j)).
j) -B (i, j)). If it is larger than 0, the fixed value a is set to the background image B (i, j).
If the value is smaller than 0, the fixed value a is set to the background image B (i, j).
Update the image B (i, j) if they are equal.
【0036】ステップ2:IB(i,j)−B(i,
j)の演算を画素毎に行い、その結果が ・≧βならば結果R(i,j)←1 ・<βならば結果R(i,j)←0 とする。ここで、βは閾値である。詳述すれば、(b−
3)初期背景画像IB(i,j)から(b−2)背景画
像B(i,j)を引算して、 ・βより大きいならば結果R(i,j)を1 ・βより小さいならば結果R(i,j)を0 にする。この結果R(i,j)をラベリング手段22に
出力する。Step 2: IB (i, j) -B (i,
The calculation of j) is performed for each pixel, and if the result is .gtoreq..beta., the result R (i, j) .ltoreq..ltoreq..beta. Here, β is a threshold value. Specifically, (b-
3) Subtract (b-2) the background image B (i, j) from the initial background image IB (i, j). If the result is larger than β, the result R (i, j) is smaller than 1 · β. Then, the result R (i, j) is set to 0. The result R (i, j) is output to the labeling means 22.
【0037】以上によって、背景差分の結果R(i,
j)の値が画素毎に1あるいは0として出力されること
となる。この背景差分の結果R(i,j)をもとに、既
知のラベリングを行い、所定面積以上のものを物体とし
て検出する。As described above, the result R (i,
The value of j) is output as 1 or 0 for each pixel. Known labeling is performed based on the result R (i, j) of the background difference, and an object having a predetermined area or more is detected as an object.
【0038】図5は、本発明の説明図(その4)を示
す。図5の(a)は、構成図を示す。ここで、背景差分
算出手段21、ラベリング手段22、面積算出手段23
は、既述した図4の(a)の同一であるので説明を省略
する。FIG. 5 is an explanatory view (part 4) of the present invention. FIG. 5A shows a configuration diagram. Here, the background difference calculating means 21, the labeling means 22, the area calculating means 23
Are the same as those in FIG. 4A described above, and a description thereof will be omitted.
【0039】図5の(a)において、位置計算手段24
は、面積算出手段23によって所定閾値以上のものと検
出された物体の位置を計算するものである(図5の
(b)を用いて後述する)。In FIG. 5A, the position calculating means 24
Calculates the position of the object detected as being equal to or larger than the predetermined threshold value by the area calculating means 23 (described later using FIG. 5B).
【0040】図5の(b)は、位置算出の例を示す。以
下位置算出手順を説明する。ステップ1:図示の画像
(ラベリング結果)について、下端から上に向かって順
次走査し、各ラベルを最初に検出した点P(画素位置)
を求める。FIG. 5B shows an example of position calculation. Hereinafter, the position calculation procedure will be described. Step 1: The image shown (labeling result) is scanned sequentially from the bottom to the top, and each label is first detected at a point P (pixel position).
Ask for.
【0041】ステップ2:ステップ1で求めた点Pから
画像の中心までの距離aを求める。 ステップ3:既述した図7の(式1)に代入し、距離L
を求める。 以上によって物体の位置(距離L)を算出できたことと
なる。Step 2: The distance a from the point P obtained in Step 1 to the center of the image is obtained. Step 3: The distance L is substituted into (Equation 1) of FIG.
Ask for. Thus, the position (distance L) of the object has been calculated.
【0042】図6は、本発明の説明図(その5)を示
す。図6の(a)は、構成図を示す。ここで、背景差分
算出手段21、ラベリング手段22、面積算出手段23
は、既述した図4の(a)の同一であるので説明を省略
する。FIG. 6 is an explanatory view (part 5) of the present invention. FIG. 6A shows a configuration diagram. Here, the background difference calculating means 21, the labeling means 22, the area calculating means 23
Are the same as those in FIG. 4A described above, and a description thereof will be omitted.
【0043】図6の(a)において、位置(B)計算手
段24は、面積算出手段23によって所定閾値以上のも
のと検出された物体の存在範囲を求め、この存在範囲に
相当する領域A内の範囲内で物体の検出を高速実行する
ものである(図6の(b)、(c)を用いて後述す
る)。In FIG. 6A, the position (B) calculating means 24 obtains the existence range of the object detected as being equal to or larger than the predetermined threshold value by the area calculating means 23, and determines the position within the area A corresponding to this existence range. The object detection is executed at high speed within the range of (1) (described later using FIGS. 6B and 6C).
【0044】図6の(b)は、物体の存在範囲の例を示
す。ここは、図示のようにカメラiの領域B上の物体が
中心から距離aとし、当該距離aが次のカメラ(i+
1)の領域A上の物体の中心から距離bとすると、図示
の(式3)に示すようにb、Li+1を求めることがで
きる。FIG. 6B shows an example of an object existence range. Here, as shown in the figure, the object on the area B of the camera i is set to a distance a from the center, and the distance a is set to the next camera (i +
Assuming a distance b from the center of the object on the area A in 1), b and Li + 1 can be obtained as shown in (Equation 3).
【0045】次に、図6の(c)および(d)を用いて
距離Lを求める手順を説明する。ステップ1:図6の
(d)のカメラiでの領域B上で中心から上に向かって
走査し、最初に物体を検出した点Pを求める(図示の画
像(ラベリング結果)について、下端から上に向かって
順次走査し、各ラベルを最初に検出した点P(画素位
置)を求める)。Next, a procedure for obtaining the distance L will be described with reference to FIGS. 6 (c) and 6 (d). Step 1: Scan the region B of the camera i in FIG. 6D upward from the center to obtain a point P at which an object is detected first (for the illustrated image (labeling result), , And a point P (pixel position) at which each label is detected first is determined).
【0046】ステップ2:ステップ1で求めた点Pから
画像の中心までの距離aを求める。 ステップ3:ステップ2で求めた距離aの前後の画素の
距離(a−1)と距離(a+1)の範囲を物体の存在範
囲(物体を最初に検出する点P)として決定する。Step 2: The distance a from the point P obtained in step 1 to the center of the image is obtained. Step 3: The range of the distance (a-1) and the distance (a + 1) of the pixels before and after the distance a obtained in step 2 is determined as the existence range of the object (point P at which the object is detected first).
【0047】ステップ4:ステップ3で決定した距離
(a−1)から(a+1)について、(式3)に代入し
て次のカメラ(i+1)の領域A中の中心からの距離
(b−1)から(b+1)を探索範囲として算出する。Step 4: With respect to the distances (a-1) to (a + 1) determined in step 3, the distance (b-1) from the center in the area A of the next camera (i + 1) is substituted into (Equation 3). ) To (b + 1) as the search range.
【0048】ステップ5:ステップ4で求めた探索範囲
のうちからの距離(b+1)から上に向かって走査し、
最初に物体を検出した点の位置を求める。この求めた点
と中心までの距離bを既述した(式1)に代入して距離
Lを算出する。Step 5: Scan upward from a distance (b + 1) from the search range obtained in Step 4,
First, the position of the point where the object is detected is obtained. The distance L between the obtained point and the center is substituted into the above-described (Equation 1) to calculate the distance L.
【0049】以上によって、領域B中で物体を検出する
と共にその存在範囲を検出し、(式3)によって次の処
理モジュールの画像中の領域Aの対応する存在範囲につ
いて走査して物体の位置を正確に算出することにより、
物体位置検出時の走査範囲を狭くして高速処理すること
が可能となる。As described above, the object is detected in the region B and its existence range is detected, and the position of the object is scanned by scanning the corresponding existence range of the region A in the image of the next processing module according to (Equation 3). By calculating accurately,
High-speed processing can be performed by narrowing the scanning range at the time of object position detection.
【0050】[0050]
【発明の効果】以上説明したように、本発明によれば、
路面上の物体の位置を連携した複数のカメラで監視する
際にあるカメラの画像中の距離精度の低い領域(領域
B)で広範囲に物体の有無を検出して物体が検出された
ときに連携した他のカメラの距離精度の高い領域(領域
A)で物体の位置を正確に計測する構成を採用している
ため、複数台のカメラを連携して路面上に放置された物
体の位置を広範囲にわたって高速かつ高精度に計測でき
る。As described above, according to the present invention,
When monitoring the position of an object on the road surface with a plurality of linked cameras, the presence or absence of the object is detected over a wide area in an area with low distance accuracy (area B) in the image of the camera, and the cooperation is performed when the object is detected. Since the camera adopts a configuration that accurately measures the position of the object in the area (area A) where the distance accuracy of other cameras is high, the position of the object left on the road surface can be widely Can be measured at high speed and with high accuracy.
【図1】本発明の動作説明図である。FIG. 1 is a diagram illustrating the operation of the present invention.
【図2】本発明の説明図(その1)である。FIG. 2 is an explanatory view (No. 1) of the present invention.
【図3】本発明の説明図(その2)である。FIG. 3 is an explanatory view (No. 2) of the present invention.
【図4】本発明の説明図(その3)である。FIG. 4 is an explanatory view (No. 3) of the present invention.
【図5】本発明の説明図(その4)である。FIG. 5 is an explanatory view (No. 4) of the present invention.
【図6】本発明の説明図(その5)である。FIG. 6 is an explanatory view (No. 5) of the present invention.
【図7】従来技術の説明図(その1)である。FIG. 7 is an explanatory diagram (part 1) of a conventional technique.
【図8】従来技術の説明図(その2)である。FIG. 8 is an explanatory diagram (part 2) of a conventional technique.
11:カメラ 12:画像 13:処理モジュール 21:背景差分算出手段 22:ラベリング手段 23:面積計算手段 24:位置計算手段 領域A:距離精度の低い領域 領域B:距離精度の高い領域 11: Camera 12: Image 13: Processing Module 21: Background Difference Calculation Means 22: Labeling Means 23: Area Calculation Means 24: Position Calculation Means Area A: Area with Low Distance Accuracy Area B: Area with High Distance Accuracy
Claims (4)
テムにおいて、 あるカメラの画像中の距離精度の低い領域と次のカメラ
の画像中の距離精度の高い領域とが重なるように対応づ
けて路に沿って順次配置した複数台のカメラと、 複数台のカメラのうちあるカメラの画像中の距離精度の
低い領域で路上の物体の有無を検出し、検出されたとき
に対応するカメラの画像中の距離精度の高い領域で当該
物体の位置を計測する手段とを備えたことを特徴とする
距離計測システム。In a distance measuring system for measuring a position of an object on a road, a region having a low distance accuracy in an image of a certain camera and a region having a high distance accuracy in an image of a next camera are associated with each other so as to overlap with each other. A plurality of cameras sequentially arranged along a road, and the presence or absence of an object on the road in an area with low distance accuracy in an image of one of the plurality of cameras, and an image of a corresponding camera when detected. Means for measuring the position of the object in a region with high distance accuracy in the middle.
域で路上の物体を検出することを各カメラが繰り返し、
検出されたときに対応するカメラの画像中の距離精度の
高い領域で路上の物体の位置を高精度に測定することを
特徴とする請求項1記載の距離計測システム。2. Each of the cameras repeats detecting an object on a road in an area with a low distance accuracy in an image of each of the cameras,
2. The distance measuring system according to claim 1, wherein the position of the object on the road is measured with high accuracy in a region with high distance accuracy in the image of the camera corresponding to the detected position.
域で路上の物体を検出すると共に概略の位置を求め、対
応するカメラの画像中の距離精度の高い領域中で当該検
出した概略の位置を含む所定範囲内に制限して路上の物
体の位置を高精度かつ高速に測定することを特徴とする
請求項1記載の距離計測システム。3. A method for detecting an object on a road in an area with a low distance accuracy in an image of each of the cameras and obtaining an approximate position, and obtaining an approximate position in the area with a high distance accuracy in an image of a corresponding camera. 2. The distance measurement system according to claim 1, wherein the position of the object on the road is measured with high accuracy and high speed while being limited to a predetermined range including the position.
の画像中の距離精度の高い領域とが重なるように対応づ
けて路に沿って順次配置してこれらカメラから画像をそ
れぞれ取り込む手段と、 複数台のカメラのうちあるカメラの画像中の距離精度の
低い領域で路上に置かれた物体の有無を検出し、検出さ
れたときに対応するカメラの画像中の距離精度の高い領
域で当該物体の位置を計測する手段として機能させるプ
ログラムを格納した記録媒体。4. A computer is operated and sequentially arranged along a road in such a manner that an area having a low distance accuracy in an image of a certain camera and an area having a high distance accuracy in an image of the next camera are overlapped with each other. Means for capturing images from these cameras respectively, and detecting the presence or absence of an object placed on the road in an area with low distance accuracy in the image of one of the plurality of cameras, and detecting the corresponding camera when detected. A recording medium storing a program for functioning as a means for measuring the position of the object in an area with high distance accuracy in an image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24238497A JP3361966B2 (en) | 1997-09-08 | 1997-09-08 | Distance measuring system and recording medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP24238497A JP3361966B2 (en) | 1997-09-08 | 1997-09-08 | Distance measuring system and recording medium |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH1183437A true JPH1183437A (en) | 1999-03-26 |
| JP3361966B2 JP3361966B2 (en) | 2003-01-07 |
Family
ID=17088369
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP24238497A Expired - Fee Related JP3361966B2 (en) | 1997-09-08 | 1997-09-08 | Distance measuring system and recording medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3361966B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000113166A (en) * | 1998-09-30 | 2000-04-21 | Canon Inc | Camera control system, camera control method, camera control server, camera device, user interface device, camera link control server, and program storage medium |
| WO2023095660A1 (en) * | 2021-11-24 | 2023-06-01 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
1997
- 1997-09-08 JP JP24238497A patent/JP3361966B2/en not_active Expired - Fee Related
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000113166A (en) * | 1998-09-30 | 2000-04-21 | Canon Inc | Camera control system, camera control method, camera control server, camera device, user interface device, camera link control server, and program storage medium |
| WO2023095660A1 (en) * | 2021-11-24 | 2023-06-01 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3361966B2 (en) | 2003-01-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11928805B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
| US10964014B2 (en) | Defect detecting method and defect detecting system | |
| US10018722B2 (en) | Measurement apparatus | |
| US10024653B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| US20150206325A1 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method and program | |
| CN108632604B (en) | Method and device for detecting optical center of lens | |
| JP5264457B2 (en) | Object detection device | |
| EP1104915B1 (en) | Defect detection using gray level signatures | |
| US7916949B2 (en) | Method of inspecting granular material and inspection device for conducting that method | |
| JPH1183437A (en) | Distance measuring system and recording medium | |
| EP1972887A1 (en) | System and method for height measurement | |
| JP2007127657A (en) | Imaging apparatus, imaging method, color classification device, color classification method, and color nonuniformity inspecting device | |
| JP2011221747A (en) | Cross mark detection device, method, and program | |
| JP6482589B2 (en) | Camera calibration device | |
| JP7539819B2 (en) | Image measurement device, image measurement method, and image measurement program | |
| JPH11153751A (en) | Distance detecting device | |
| JPH09178427A (en) | Image position measuring method | |
| CN115774017B (en) | A multi-station visual inspection processing method | |
| US20240144528A1 (en) | Apparatus and method for determining position of capturing object using image including capturing object | |
| JPH10288510A (en) | Distance measuring method, chain elongation detection method, and chain elongation detection device | |
| JPH05172531A (en) | Distance measurement method | |
| JPH07306038A (en) | Distance measuring instrument | |
| JPH04269606A (en) | Part detecting apparatus | |
| JP2601232B2 (en) | IC lead displacement inspection equipment | |
| JP3915753B2 (en) | Image detection device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20021001 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071018 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081018 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081018 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091018 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091018 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101018 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101018 Year of fee payment: 8 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111018 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111018 Year of fee payment: 9 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121018 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121018 Year of fee payment: 10 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131018 Year of fee payment: 11 |
|
| LAPS | Cancellation because of no payment of annual fees |