[go: up one dir, main page]

JPH0926473A - Measurement device using spatio-temporal differentiation method - Google Patents

Measurement device using spatio-temporal differentiation method

Info

Publication number
JPH0926473A
JPH0926473A JP8114957A JP11495796A JPH0926473A JP H0926473 A JPH0926473 A JP H0926473A JP 8114957 A JP8114957 A JP 8114957A JP 11495796 A JP11495796 A JP 11495796A JP H0926473 A JPH0926473 A JP H0926473A
Authority
JP
Japan
Prior art keywords
self
equation
image
time difference
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8114957A
Other languages
Japanese (ja)
Other versions
JP2641417B2 (en
Inventor
Shigeru Ando
繁 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YASUKAWA SHOJI KK
Original Assignee
YASUKAWA SHOJI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YASUKAWA SHOJI KK filed Critical YASUKAWA SHOJI KK
Priority to JP8114957A priority Critical patent/JP2641417B2/en
Publication of JPH0926473A publication Critical patent/JPH0926473A/en
Application granted granted Critical
Publication of JP2641417B2 publication Critical patent/JP2641417B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Stereophonic System (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 時空間微分法を用いて、移動体の速度分布を
精度良く抽出する。 【解決手段】 一対の集音装置111,112の方位角
を制御して計測音源を定位する時空間微分法を用いた計
測装置であって、計測音源から出力された音響信号が一
対の集音装置111,112に到達するまでの時間差を
所定時間ごとに演算する時間差演算手段120aと、演
算された時間差の有効度を判定するための基準となる自
己評価量を演算する自己評価量演算手段120bと、演
算された自己評価量に基づいて、演算された時間差の有
効度を判定する判定手段140と、有効度が低いと判定
された場合に方位角を変更する方位角制御手段113
と、有効度が高いと判定された時間差に基づいて計測音
源を定位する音源定位手段とを備える。
(57) 【Abstract】 PROBLEM TO BE SOLVED: To accurately extract a velocity distribution of a moving body by using a space-time differential method. SOLUTION: This is a measuring device using a spatiotemporal differential method in which the azimuth angle of a pair of sound collecting devices 111, 112 is controlled to localize a measurement sound source, and an acoustic signal output from the measurement sound source is a pair of sound collecting devices. A time difference calculation means 120a for calculating the time difference until reaching the devices 111 and 112 at predetermined time intervals, and a self-evaluation amount calculation means 120b for calculating a self-evaluation amount that serves as a reference for determining the effectiveness of the calculated time difference. Then, based on the calculated self-evaluation amount, the determination unit 140 that determines the validity of the calculated time difference, and the azimuth angle control unit 113 that changes the azimuth angle when it is determined that the validity is low.
And a sound source localization means for locating the measurement sound source based on the time difference determined to have high effectiveness.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、計測対象に関して
得られた時間的,空間的に変化する信号、例えば、画像
や音等を時間空間微分法に基づいて処理した結果から計
測対象の音源を定位するために時間差を抽出する計測装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for generating a sound source to be measured from a result obtained by processing a temporally and spatially changing signal obtained with respect to the measurement object, for example, an image or sound, based on a spatio-temporal differentiation method. The present invention relates to a measurement device that extracts a time difference for localization.

【0002】[0002]

【従来の技術】連続する画像系列から運動や立体の情報
を抽出する手法が計算機視覚(computervision)の研究
として近年、種々提案されている。特に、計測対象の運
動が画像面上に投影してできる画像の流れはオプティカ
ルフローと呼ばれ、対象と背景の分離,立体構造や配置
の決定などへ利用されている。このオプティカルフロー
決定の問題は計算機視覚ばかりでなく、純粋にパターン
計測の分野でも広い応用をもつものである。この観点か
ら従来の手法を考えると大きく分けて2つに分類されて
いる。一つは対応探索型の方法で、連続する2枚の画像
に関し、一方の特徴点を他方の特徴点に対応付ける手順
を十分密に繰り返すことにより実行される。これはいわ
ゆる対応問題と呼ばれる繁雑で不確かな手順であり、画
像の分解能を徐々に向上させる段階的探索法や種々の制
約条件の導入などがいろいろと試みられている。
2. Description of the Related Art In recent years, various methods for extracting motion and stereoscopic information from a continuous image series have been proposed as researches of computer vision. In particular, a flow of an image formed by projecting a movement of a measurement target onto an image plane is called an optical flow, and is used for separating an object from a background, determining a three-dimensional structure and arrangement, and the like. This problem of optical flow determination has wide application not only in computer vision but also in the field of pure pattern measurement. From this viewpoint, when considering the conventional methods, they are roughly classified into two types. One is a correspondence search type method, which is executed by sufficiently closely repeating a procedure for associating one feature point with another feature point with respect to two continuous images. This is a complicated and uncertain procedure called a so-called correspondence problem, and various attempts have been made to introduce a stepwise search method for gradually improving the resolution of an image and to introduce various constraints.

【0003】もうひとつの方法は画像の時間空間微分に
基づくものである。これは最初TV画像の微少移動の検
出に用いられ、その後Lagrange微分を用いた定
式化や解析がなされた。
Another method is based on the spatio-temporal differentiation of an image. This was first used to detect small movements of a TV image, and then formalized and analyzed using Lagrange differentiation.

【0004】いま平面的に運動する物体を固定撮像体で
観測する系を考え着目点(x,y)付近の速度場を
(u,v)と置く。画像の時間変化要因を運動のみに限
定し、微少時間Δtをおいて2枚の画像f1(x,
y),f2(x,y)を観察することを考えると、これ
らは局所的に、 f2(x,y)=f1(x−uΔt,y−vΔt) …(1) の関係を満たしている。ずれ量(uΔt,vΔt)が小
さくかつ局所的に一定と近似できる場合、(1)式の右
辺は着目点のまわりでTaylor展開されて、 f1(x−uΔt,y−vΔt) ≒f1(x,y)−uΔtf1x(x,y) −vΔtf1y(x,y) …(2) のように1次項までで近似できる。ここで、f1
(x,y),f1y(x,y)はそれぞれf1(x,y)
のx,y偏微分を表す。すなわち、(1)式と結合し
て、 f1(x,y)−f2(x,y) ≒uΔtf1x(x,y)+vΔtf1y(x,y) …(3) の関係が得られる。両辺を−Δtで割ったとき左辺は時
間微分f1t(x,y)を示す。f1x(x,y),f1
y(x,y)は場の微分であるから画像データ上で即座
に計算でき、既知量として扱えるから、(3)式は、こ
れらを係数とし未知数u,vを含む線形方程式と見るこ
とができる。これが時空間微分法の原理である。
[0004] Considering a system for observing an object moving in a plane with a fixed image pickup body, a velocity field near a point of interest (x, y) is set as (u, v). The time change factor of the image is limited to only the movement, and two images f 1 (x,
Considering observing y) and f 2 (x, y), these are locally expressed as f 2 (x, y) = f 1 (x−uΔt, y−vΔt) (1) Meets If the shift amount (uΔt, vΔt) is small and can be approximated to be locally constant, the right side of the equation (1) is Taylor-expanded around the point of interest, and f 1 (x−uΔt, y−vΔt) ≒ f 1 (X, y) −uΔtf 1 x (x, y) −vΔtf 1 y (x, y) (2) Where f 1 x
(X, y) and f 1 y (x, y) are respectively f 1 (x, y)
X, y partial derivatives of That is, (1) bonded to the formula, f 1 (x, y) -f 2 (x, y) ≒ uΔtf 1 x (x, y) + vΔtf 1 y (x, y) ... the relationship of (3) can get. When both sides are divided by -Δt, the left side shows the time derivative f 1 t (x, y). f 1 x (x, y), f 1
Since y (x, y) is a derivative of the field, it can be calculated immediately on the image data and can be treated as a known quantity. Therefore, equation (3) can be regarded as a linear equation including these as coefficients and unknowns u and v. it can. This is the principle of the spatiotemporal differentiation method.

【0005】この原理を用いて速度場を決定する方法に
は、 1)1次元運動に限定する、 2)速度場の滑らかさを仮定して(3)式に矛盾せず粗
さの評価量を最小とする速度場を求める、などがある。
これを計測法として見ると、 1)数値計算のみで速度分布を形成できる明解さと高速
性、 2)対象の予備知識が不要で汎用性と客観性が有るこ
と、 3)分解能の高さ、 4)微少ずれ利用のためのパターン変形の影響を受けに
くく重大な誤りの可能性が少ないこと、などに利点をも
つ。
[0005] The method of determining the velocity field using this principle includes: 1) limited to one-dimensional motion; 2) assuming the smoothness of the velocity field, and estimating the roughness without contradicting equation (3). To find a velocity field that minimizes
Looking at this as a measurement method, 1) clarity and high speed that can form a velocity distribution only by numerical calculation, 2) versatility and objectivity without the need for prior knowledge of the object, 3) high resolution, 4 ) There is an advantage in that it is hardly affected by pattern deformation due to the use of a small deviation and the possibility of serious errors is small.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前者の
対応探索型の手法は計測法としてみると、 1)対応誤りによる重大な誤差が混じる、 2)処理に非常に時間がかかる、など不都合な点が多
い。特に1)の問題は計算機視覚系と異なって予備知識
の導入を前提としない一般の計測系においては対策が非
常に困難である。
However, the former method of the correspondence search type has the following disadvantages as a measurement method: 1) a serious error due to a correspondence error is mixed; 2) processing takes a very long time. There are many. In particular, unlike the computer vision system, the problem 1) is very difficult to solve in a general measurement system that does not require the introduction of preliminary knowledge.

【0007】また、後者の時空間微分法は雑音の影響を
受けやすい弱点があり、またずれが微少な場合に応用が
限定されることから実用化が難しかった。このような問
題は、計測対象が運動している場合に限らず、静止立体
を左右に置いた2つの撮像体で撮影し、一対の画像から
立体像を抽出する場合にもあてはまる。また、音源から
の音を一対のマイクロフォンで集音し、一対の音響信号
の時間差を抽出して音源を定位する場合にもあてはま
る。更には、光像による画像処理以外でも、超音波,N
MR(核磁気共鳴),X線による画像処理についても広
くあてはまり、いずれの分野においても、上述した問題
から非常に多くの利点をもつ時空間微分法による処理が
実用化されていないのが実情である。
Further, the latter spatiotemporal differentiation method has a weak point that is susceptible to noise, and its application is limited when the deviation is very small, so that it has been difficult to put it to practical use. Such a problem applies not only to the case where the measurement target is moving but also to the case where a still solid is photographed by two imaging bodies placed on the left and right and a stereoscopic image is extracted from a pair of images. This also applies to a case where sound from a sound source is collected by a pair of microphones, and a time difference between the pair of acoustic signals is extracted to localize the sound source. Further, in addition to image processing using an optical image, ultrasonic waves, N
The image processing by MR (nuclear magnetic resonance) and X-ray is widely applied, and in any field, the processing by the spatiotemporal differential method, which has a great many advantages from the above-mentioned problems, has not been put to practical use. is there.

【0008】本発明の目的は、計測音源を精度よく定位
する時空間微分法を用いた計測装置を提供することにあ
る。
An object of the present invention is to provide a measuring apparatus using a spatiotemporal differentiation method for accurately localizing a measured sound source.

【0009】[0009]

【課題を解決するための手段】図1および図2は本発明
の概念的説明図であり、本発明は図1に示すように、計
測対象に関連した信号を時空間微分法により処理して計
測対象の物理量および自己評価量を演算する演算手段5
00と、その自己評価量に基づき、演算された物理量の
有効度を判定する判定手段501を含むものである。さ
らに具体的に説明すると、本発明は、図2に示すよう
に、計測対象に関連した信号を検出するセンサ502
と、そのセンサ502で得られた検出信号を時空間微分
法により処理して計測対象の物理量および自己評価量を
検算する演算手段503と、その自己評価量に基づき、
演算された物理量の有効度を判定する判定手段504
と、有効度の低い物理量があるときに、計測対象に対す
るセンサ502の計測条件を変更して再度検出信号を得
るとともに演算手段503および判定手段504を再起
動する制御手段505とを含めることができる。
FIGS. 1 and 2 are conceptual explanatory diagrams of the present invention. As shown in FIG. 1, the present invention processes a signal related to an object to be measured by a spatiotemporal differentiation method. Calculation means 5 for calculating the physical quantity and the self-evaluation quantity of the measurement object
00 and determining means 501 for determining the validity of the calculated physical quantity based on the self-evaluation quantity. More specifically, according to the present invention, as shown in FIG. 2, a sensor 502 for detecting a signal related to a measurement target is provided.
And a calculating means 503 for processing a detection signal obtained by the sensor 502 by a spatiotemporal differentiation method to check a physical quantity to be measured and a self-evaluation quantity.
Determination means 504 for determining the validity of the calculated physical quantity
And a control unit 505 that changes the measurement condition of the sensor 502 for the measurement target to obtain a detection signal again and restarts the calculation unit 503 and the determination unit 504 when there is a physical quantity having a low degree of effectiveness. .

【0010】本発明はこのような各手段を含むものであ
り、本発明を図33に対応づけて説明すると、一対の集
音装置111,112の方位角を制御して計測音源を定
位する時空間微分法を用いた計測装置であって、計測音
源から出力された音響信号が一対の集音装置111,1
12に到達するまでの時間差を所定時間ごとに演算する
時間差演算手段120aと、演算された時間差の有効度
を判定するための基準となる自己評価量を演算する自己
評価量演算手段120bと、演算された自己評価量に基
づいて、演算された時間差の有効度を判定する判定手段
140と、有効度が低いと判定された場合に方位角を変
更する方位角制御手段113と、有効度が高いと判定さ
れた時間差に基づいて計測音源を定位する音源定位手段
とを備えることにより、上記目的は達成される。
The present invention includes such means. The present invention will be described with reference to FIG. 33. When the azimuth of the pair of sound collecting devices 111 and 112 is controlled to localize the measured sound source, A measuring device using the spatial differentiation method, wherein an acoustic signal output from a measuring sound source is paired with a pair of sound collecting devices 111, 1
A time difference calculating means 120a for calculating a time difference until the time reaches twelve every predetermined time; a self-evaluation amount calculating means 120b for calculating a self-evaluation amount serving as a reference for determining the effectiveness of the calculated time difference; Determining means 140 for determining the validity of the calculated time difference based on the calculated self-evaluation amount; azimuth control means 113 for changing the azimuth when the validity is determined to be low; The above object is achieved by providing the sound source localization means for localizing the measurement sound source based on the time difference determined as above.

【0011】本発明では、計測音源から出力された音響
信号が一対の集音装置111,112に到達するまでの
時間差を所定時間ごとに演算し、演算された時間差の有
効度を判定するための基準となる自己評価量を演算す
る。そして、演算された自己評価量に基づいて、演算さ
れた時間差の有効度を判定し、有効度が低いと判定され
た場合に方位角を変更して再度集音する。そして、最終
的には、有効度が高いと判定された時間差に基づいて計
測音源を定位する。
According to the present invention, the time difference until the acoustic signal output from the measurement sound source reaches the pair of sound collectors 111 and 112 is calculated at predetermined time intervals, and the effectiveness of the calculated time difference is determined. The reference self-evaluation amount is calculated. Then, the validity of the calculated time difference is determined based on the calculated self-evaluation amount, and when it is determined that the validity is low, the azimuth angle is changed and sound is collected again. Then, finally, the measurement sound source is localized based on the time difference determined to have high effectiveness.

【0012】[0012]

【発明の実施の形態】以下、図面に従い本発明の実施の
形態について説明する。まず、本発明の前提として、両
眼立体視により立体情報を再現する場合および動画像を
再現する場合について説明する。次いで、本発明の実施
の形態としての音源を定位するのに用いる時間差抽出の
場合についてそれぞれ説明する。
Embodiments of the present invention will be described below with reference to the drawings. First, as a premise of the present invention, a case where stereoscopic information is reproduced by binocular stereoscopic vision and a case where a moving image is reproduced will be described. Next, a case of time difference extraction used for localizing a sound source according to an embodiment of the present invention will be described.

【0013】まず、両眼立体視により立体情報を再現す
る態様について説明する。図3および図4に示すよう
に、凹凸面OBに正対して高さH,間隔Dで2個の撮像
体ISL,ISRが置かれている系を考える。左右の撮像
体ISL,ISRの像面の原点はそれぞれxy平面の原点
を捉えるようにオフセットされている。簡単のため等倍
率で正立の撮像を仮定すると、左右の映像はfL(x,
y),fR(x,y)のように物体側の座標(x,y)
の関数として表せる。対象物体を、xy平面からの高さ
が z=h(x,y) …(1.1) で表されるような単純な凹凸面とし、凹凸面上には固有
の濃淡があり、同じく座標(x,y)の関数としてf
(x,y)と表されるとする。
First, a mode of reproducing stereoscopic information by binocular stereovision will be described. As shown in FIGS. 3 and 4, consider the irregular surface OB directly opposite to the height H, 2 pieces of imaged IS L at intervals D, and systems IS R is located. Right and left image sensing unit IS L, are offset to each origin of the image plane of the IS R captures the origin of the xy plane. Assuming that the erect image is taken at the same magnification for simplicity, the left and right images are f L (x,
y), coordinates (x, y) on the object side such as f R (x, y)
Can be expressed as a function of The target object is a simple uneven surface whose height from the xy plane is represented by z = h (x, y) (1.1). F as a function of (x, y)
Let it be expressed as (x, y).

【0014】このとき、左右の撮像体ISL,ISRが捉
える映像は表面の濃淡分布をxy平面に投影したものだ
から、凹凸h(x,y)の影響でf(x,y)に対しず
れを生ずる。このずれ(ΔRx,ΔRy),(ΔLx,ΔL
y)は図3および図4から、
[0014] At this time, the left and right image sensing unit IS L, because IS R captures video is something that the projection of the gray distribution of the surface in the xy plane, unevenness h (x, y) the influence of f (x, y) to A shift occurs. The deviation (Δ R x, Δ R y ), (Δ L x, Δ L
y) from FIGS. 3 and 4

【数1】 であり、これらを用いて左右映像fR(x,y),f
L(x,y)は fR(x,y)=f(x+ΔRx,y+ΔRy) …(1.3a) fL(x,y)=f(x+ΔLx,y+ΔLy) …(1.3b) のように表される。(1.2a)〜(1.2c)式を用
いると、
[Equation 1] And the left and right images f R (x, y), f
L (x, y) is f R (x, y) = f (x + Δ R x, y + Δ R y) ... (1.3a) f L (x, y) = f (x + Δ L x, y + Δ L y) ... It is expressed as (1.3b). Using equations (1.2a) to (1.2c),

【数2】 であるから、凹凸h(x,y)の係数にも影響を与えて
いる。撮像系の仕組からわかるように、対象がレンズに
近づくと像は拡大される。これらの式のx,yの係数
{H−h(x,y)}/Hはこの像の拡大を表してい
る。凹凸面上の濃淡を絶対座標(x,y)の関数ではな
く、物体の濃淡分布としてあらかじめこのスケール拡大
が含まれたものを考えてかまわないから、濃淡(x,
y)を、
[Equation 2] Therefore, the coefficient of the unevenness h (x, y) is also affected. As can be seen from the mechanism of the imaging system, the image is enlarged as the object approaches the lens. The x, y coefficients {H-h (x, y)} / H in these equations represent the enlargement of this image. Rather than the contrast of the uneven surface function of the absolute coordinates (x, y), because it may consider that contain advance this scale enlarged as shading distribution of an object, shading f (x,
y),

【数3】 と書くことができる。いま、凹凸h(x,y)の変化は
十分ゆるやかで、ずれΔRLxの程度では高さの変化は無
視できる、すなわちh(x,y)のx方向微分が、 hx(x,y)<<2H/D …(1.8) であるとするとΔRLxの変化は局所的には無視できる。
一方、濃淡(x,y)の変化は滑らかではあるがh
(x,y)の変化よりは急峻であるとすると、次のよう
に点(x,y)のまわりのx軸方向にTaylor展開
されて、 fR(x,y)=(x+ΔRLx,y) =(x,y)+ΔRLx(x,y) …(1.9a) fL(x,y)=(x−ΔRLx,y) =(x,y)−ΔRLx(x,y)…(1.9b) と近似される。これら2式の和と差をとると、 fR(x,y)+fL(x,y)=2(x,y) fR(x,y)−fL(x,y)=2ΔRLx(x,y) となり、第1式を微分して第2式に代入してf(x,
y)を消去すると、
(Equation 3) Can be written. Now, the change of the unevenness h (x, y) is sufficiently gradual, changes in height in the degree of the deviation delta RL x is negligible, that is, the x-direction differential of h (x, y), hx (x, y) << 2H / D (1.8) Assuming that: ΔRL x can be locally ignored.
On the other hand, the change in shading f (x, y) is smooth but h
Assuming that the change is steeper than the change in (x, y), Taylor expansion is performed in the x-axis direction around the point (x, y) as follows, and f R (x, y) = f (x + Δ RL x , y) = f (x, y) + Δ RL x f x (x, y) ... (1.9a) f L (x, y) = f (x-Δ RL x, y) = f (x, y ) -Δ RL x f x (x , y) is approximated ... and (1.9b). Taking the sum and difference of these two equations, f R (x, y) + f L (x, y) = 2 f (x, y) f R (x, y) −f L (x, y) = 2Δ RL x f x (x, y ) , and the by substituting the first equation into the second equation by differentiating f (x,
y)

【数4】 の関係が得られる。微分の定義を考えれば、ΔRLxが無
限に小さいときこの関係が成立するのは明らかである。
この式は画像のほとんどいたるところ成り立っていると
考えられる。
(Equation 4) Is obtained. Given the definition of differentiation, it is clear that this relationship holds when Δ RL x is infinitely small.
This equation is considered to hold almost everywhere in the image.

【0015】ここで、fR(x,y),fL(x,y)
は、対象立体の画像を撮像体ISL,ISRによって得た
量であるから、(1.10)式は、これらを係数とし、
ΔRLxを未知数とする線形方程式と見ることができる。
すなわち、
Here, f R (x, y) and f L (x, y)
It is imaged images of the target three-dimensional IS L, since an amount obtained by IS R, (1.10) equation, and these coefficients,
It can be seen as a linear equation with Δ RL x as an unknown.
That is,

【数5】 によって近似的に求められる。なお、Δxには画像の標
本化間隔を用いればよい。しかし(1.12)式は画像
の微分と差分からなる式のため明らかに雑音に大きく影
響される。また
(Equation 5) Is approximately determined by The sampling interval of the image may be used as Δx. However, the expression (1.12) is obviously affected greatly by noise because it is an expression composed of image differentiation and difference. Also

【数6】 が偶然に零であるような悪条件への対処が十分でない。(Equation 6) Is not enough to cope with the bad condition that happens to be zero.

【0016】したがって、立体像を時空間微分法に基づ
いて抽出する場合、演算量を少なくして雑音に強くする
必要がある。まず、「着目点の近傍(以下、この領域の
大きさを近傍サイズと呼ぶ)において、凹凸面の高さは
ほぼ一定と近似できる」ことを仮定し、近似点の多くの
データから一個の高さを求める。近傍サイズの大きさ
は、濃淡(x,y)の空間的細かさと凹凸測定の分解
能との兼ねあいで決まる(例えば5×5ないし7×7領
域)。この近傍領域をΓと置く(図5参照)。Γ内でΔ
RLxは一致と仮定したから、Γ内のすべての点(x,
y)で、
Therefore, when extracting a three-dimensional image based on the spatio-temporal differentiation method, it is necessary to reduce the amount of calculation and to make it strong against noise. First, assuming that “the height of the uneven surface can be approximated to be substantially constant in the vicinity of the point of interest (hereinafter, the size of this area is referred to as the neighborhood size)”, one height is calculated from many data of the approximate point. Ask for it. The size of the neighborhood size is determined by the balance between the spatial fineness of the shading f (x, y) and the resolution of the unevenness measurement (for example, a 5 × 5 to 7 × 7 area). This neighboring area is denoted by Γ (see FIG. 5). Δ in Γ
Since RL x is assumed to be coincident, all points (x,
y)

【数7】 が成立する。一方、(Equation 7) Holds. on the other hand,

【数8】 の方はΓ内で変化すると仮定すると、Γ内の画素数の個
数だけ異なった方程式が立てられる。これらを連立して
ΔRLxを解けばよい。
(Equation 8) Assuming that 変 化 changes in 方程式, equations different by the number of pixels in Γ are established. These may be solved the Δ RL x by coalition.

【0017】(1.14)式を次のような最小二乗法で
解く場合、(1.14)式の成立の良さを表す左辺−右
辺の2乗のΓ内での総和を最小化する。
When the equation (1.14) is solved by the following least square method, the sum of squares of the left side and the right side, which represents the goodness of the equation (1.14), within Γ is minimized.

【数9】 これをΔRLxについて微分し零とおくと、[Equation 9] Differentiating this with respect to Δ RL x and setting it to zero,

【数10】 が得られる。サフィックス付きのSはそれぞれ、(Equation 10) Is obtained. S with suffix is

【数11】 で計算される微分の積の積分値を表わす。これらの値を
(1.16)式に代入するとΔRLxは、
[Equation 11] Represents the integral of the product of the differentials calculated by Substituting these values into equation (1.16) gives Δ RL x

【数12】 と表わせる。したがって、ずれの量ΔRLxと凹凸h
(x,y)の関係(1.7)式より、
(Equation 12) Can be expressed as Therefore, the amount of deviation ΔRLx and the unevenness h
From the relation (1.7) of (x, y),

【数13】 に代入して凹凸の高さが推定される。(Equation 13) And the height of the unevenness is estimated.

【0018】ここで(1.18)式が安定して求まるに
は、(1.18)式の分母が零より十分大きい必要があ
る。すなわち、最小二乗法が有効なためには(1.1
6)式の正規方程式の良さを決める
Here, in order to stably obtain the expression (1.18), the denominator of the expression (1.18) needs to be sufficiently larger than zero. That is, for the least square method to be effective, (1.1
6) Determine the goodness of the normal equation

【数14】 が十分大なる必要がある。この[Equation 14] Needs to be large enough. this

【数15】 すなわち模様のX軸方向の変化が近傍領域Γ内で一様に
零の場合であって、局所的に全く模様が無い場合には、
ずれの量を定めることができないので、近傍領域Γ内で
の濃淡がなるべく大きく変化するようにΓの大きさを選
ぶ必要がある。
(Equation 15) That is, when the change in the X-axis direction of the pattern is uniformly zero in the vicinity area Γ, and there is no pattern locally,
Since the amount of deviation cannot be determined, it is necessary to select the size of 近 傍 such that the shading in the neighboring region 大 き く changes as much as possible.

【0019】(1.15)式における評価関数Jは最適
条件において、
The evaluation function J in the equation (1.15) is obtained under the optimum condition.

【数16】 と書ける。この式の値は残留誤差を表すから、画像に含
まれる雑音の大きさ,近傍領域Γ内での等標高の仮定の
妥当性,視点の違いによる模様の変化(表面に光沢があ
る場合)の可能性,などの判断基準として用いることが
できる。
(Equation 16) I can write Since the value of this equation represents the residual error, the magnitude of the noise included in the image, the validity of the assumption of the equal elevation in the neighborhood Γ, and the change in the pattern due to the difference in the viewpoint (when the surface is glossy) It can be used as a criterion for determining the possibility.

【0020】ここではずれが微少なときに成り立つ線形
関係(1.10)式を根拠とするため、凹凸が大きくな
ってずれが増大すると適切に画像処理ができない。この
ような誤差の主要部分は、位置ずれを伴った画像をTa
ylor展開の1次項までで近似した(1.9a,b)
式によって生ずる。この近似が妥当である範囲を見積も
るために(1.9a,b)式を2次の項まで展開する
と、
Here, since the linear relationship (1.10), which holds when the deviation is small, is used as a basis, if the deviation is increased due to the increase in the unevenness, image processing cannot be performed properly. The main part of such an error is that the image with the displacement is Ta
Approximated by the first order term of ylor expansion (1.9a, b)
Produced by the formula. In order to estimate the range in which this approximation is valid, the equation (1.9a, b) is expanded to the second-order term.

【数17】 となる。このとき2次の項の大きさが1次の項に比べて
十分に小さいための条件をそれらの分散を用いて表す
と、
[Equation 17] Becomes At this time, the condition for the size of the second-order term to be sufficiently smaller than that of the first-order term is expressed by using their variances.

【数18】 の関係が得られる。この関係は検出可能なずれの量の上
限が対象表面の濃淡の性質により決まることを示してい
る。すなわち濃淡の1階微分の平均エネルギーが2階微
分の平均エネルギーに比べて大きいほど測定範囲は広が
るため、低い空間周波数成分が主要な濃淡パターンがよ
り好ましい。一方、同一の性質をもった対象に対しては
この式より撮像系の満たすべき条件が定まる。(1.1
9)式を代入して凹凸の測定範囲を見積もると、
(Equation 18) Is obtained. This relationship indicates that the upper limit of the amount of shift that can be detected is determined by the characteristics of the density of the target surface. That is, since the measurement range becomes wider as the average energy of the first-order differentiation of the shading is larger than the average energy of the second-order differentiation, a shading pattern in which a low spatial frequency component is main is more preferable. On the other hand, for an object having the same property, the condition to be satisfied by the imaging system is determined from this equation. (1.1
9) By substituting the equation, the measurement range of unevenness is estimated.

【数19】 の関係が得られるから、凹凸の測定範囲を増大させるに
は撮像距離Hに比べて左右撮像素子間隔Dを小さくする
のがよいことがわかる。これは三角測量における要求と
は逆の要求である。ただし雑音に弱くなるため小さくす
るのには実際上限界がある。
[Equation 19] Thus, it can be seen that it is better to make the distance D between the left and right imaging elements smaller than the imaging distance H in order to increase the measurement range of the unevenness. This is the opposite of the requirement in triangulation. However, there is a practical limit to reducing the size because it is susceptible to noise.

【0021】次に、画素の値に雑音が混入していると仮
定したときに凹凸測定結果に与える誤差について見積も
る。左右の画像の座標(x,y)における画素に加わる
雑音をそれぞれnL(x,y),nR(x,y)とする
と、
Next, the error given to the unevenness measurement result when it is assumed that noise is mixed in the pixel value is estimated. Assuming that noises added to the pixel at the coordinates (x, y) of the left and right images are n L (x, y) and n R (x, y),

【数20】 雑音の存在を無視してずれの計算に(1.12)式をそ
のまま適用したとすると、
(Equation 20) Assuming that the equation (1.12) is applied as it is to the calculation of the deviation ignoring the presence of noise,

【数21】 で与えられる。すなわち雑音による影響は、1)画像の
濃淡勾配x(x,y)が大きいほど小さく、2)雑音
のうち左右画像に共通する成分の影響はずれに比例して
増大し、3)その差成分の影響はずれに無関係であるこ
とがわかる。さらに2)で雑音の共通成分は画像の標本
化間隔Δxで割られるため、4)画素の雑音が独立のと
きは標本化間隔が小さいほど誤差は増大することも示さ
れる。
(Equation 21) Given in. That is, the influence of noise is 1) smaller as the gray scale fx (x, y) of the image is larger, 2) the influence of the component common to the left and right images in the noise increases in proportion to the deviation, and 3) the difference component thereof. It can be seen that the effect of is independent of the deviation. Further, in 2), the common component of the noise is divided by the sampling interval Δx of the image. 4) When the noise of the pixel is independent, it is also shown that the error increases as the sampling interval becomes smaller.

【0022】一方、局所最小二乗法においては、同様な
計算により誤差項は、
On the other hand, in the local least square method, the error term is calculated by the same calculation as follows.

【数22】 と求められる。この式における雑音による影響は、1)
画像の濃淡勾配x(x,y)の近傍領域Γ内での二乗
和が大きいほど小さく、2)雑音のうち左右画像に共通
する成分の影響はずれに比例して増大し、3)その差成
分の影響はずれに無関係であることがわかる。このよう
な性質は(1.24)式の場合と基本的に変わらない
が、雑音の相関が少ないときΓ内で雑音成分の平均化が
行われて相対的に誤差が減少する。さらに2)において
雑音の共通成分は画像の標本化間隔Δxで割られるた
め、4)画素の雑音が独立ならば一般的に標本化間隔が
小さいほど誤差は増大するが、5)画像の濃淡勾配
(x,y)の変化がΓ内でゆるやかならば(画像の平坦
さとは異なることに注意)、分子の被積分関数が相殺さ
れるから(1.24)式の場合より大幅に誤差が小さく
なる。
(Equation 22) Is required. The effect of noise in this equation is 1)
The larger the sum of squares in the neighborhood Γ of the density gradient fx (x, y) of the image, the smaller the sum of the squares. It can be seen that the influence of the components is independent of the deviation. Such a property is basically the same as that of the expression (1.24), but when the correlation of the noise is small, the noise component is averaged in Γ and the error is relatively reduced. Further, in 2), the common component of the noise is divided by the sampling interval Δx of the image. 4) If the noise of the pixel is independent, the error generally increases as the sampling interval decreases, but 5) the density gradient of the image. fx
If the change of (x, y) is gentle within Γ (note that this is different from the flatness of the image), the integrand of the molecule is canceled out, so that the error is significantly smaller than in the case of equation (1.24). Become.

【0023】明らかなように(1.24)と(1.2
5)式は撮像時の配置のパラメータDとHには無関係に
ずれの量を計測するときの誤差を表す。したがって凹凸
を計測するときの誤差は(1.19)式によってずれを
高さに変換する際の係数2H/D倍される。
As is apparent, (1.24) and (1.2)
Equation 5) represents an error when measuring the amount of deviation regardless of the arrangement parameters D and H at the time of imaging. Therefore, the error in measuring the unevenness is multiplied by a factor of 2H / D when converting the deviation into a height by the equation (1.19).

【0024】以上に、局所最小二乗法により、凹凸h
(x,y)は画像上の任意の点で求められることを示し
た。この演算は画像全体にわたる並列処理の構造を前提
として見ると、非常に組織立った演算法となっているこ
とがわかる。すなわち入力画像fに対して
As described above, the unevenness h
(X, y) indicates that it can be obtained at any point on the image. It can be seen that this operation is a very organized operation method, assuming a parallel processing structure over the entire image. That is, for the input image f

【数23】 を段階的に施し、(1.19)式の係数2H/Dを乗ず
ることで凹凸h(x,y)がパターン的に同時に定まる
ことになる。個々の段階での処理はいずれも単純であ
り、原理的に並列処理はきわめて容易である。
(Equation 23) Are applied stepwise, and by multiplying by the coefficient 2H / D of the expression (1.19), the unevenness h (x, y) is determined simultaneously in a pattern. The processing at each individual stage is simple, and parallel processing is extremely easy in principle.

【0025】次に以上説明した態様に基づいて立体像を
抽出する実施の形態について説明する。図6〜図12に
は、その実施の形態を示す。図6において、11,12
は、対象となる静止立体SOBのある基準面RP上で輻
輳角θにて各光軸が交差する2つの固体撮像素子カメラ
であり、ここでは、128×128画素のイメージセン
サ(RETICON社製MC−9000)を用いてい
る。このカメラ11,12は撮像体駆動回路13からの
画素クロックおよび同期信号により制御される。また、
カメラ11、12の光軸は、輻輳角制御装置20により
回動され、基準面RPを前後(図面上では上下)にずら
すことができる。すなわち、図7に示すように、両カメ
ラ11,12は、基台21上に設置され、カメラ11,
12のそれぞれは、連結機構22,23を介してステッ
プモーター24,25に連結されている。これらステッ
プモーター24,25は、駆動回路26からの信号によ
り回転される。すなわち、後述の自己判断/制御論理部
54からの輻輳角制御信号が駆動回路26に供給されて
ステップモーター24,25が所定ステップ数づつ回転
され、これによりカメラ11,12の光軸を回動させて
輻輳角θを変更し両光軸の交差位置を上述した基準面R
Pに対して前後に変更可能とされている。
Next, an embodiment for extracting a three-dimensional image based on the above-described embodiment will be described. 6 to 12 show the embodiment. In FIG. 6, 11, 12
Are two solid-state imaging device cameras whose optical axes intersect at a convergence angle θ on a reference plane RP having a target stationary solid SOB. Here, a 128 × 128 pixel image sensor (MC manufactured by RETICON, Inc.) is used. -9000). The cameras 11 and 12 are controlled by a pixel clock and a synchronizing signal from the imaging body driving circuit 13. Also,
The optical axes of the cameras 11 and 12 are rotated by the convergence angle control device 20, and can shift the reference plane RP forward and backward (up and down in the drawing). That is, as shown in FIG. 7, both cameras 11, 12 are installed on a base 21, and
Each of 12 is connected to step motors 24 and 25 via connecting mechanisms 22 and 23. These step motors 24 and 25 are rotated by a signal from a drive circuit 26. That is, a convergence angle control signal from a self-determination / control logic unit 54 described later is supplied to the drive circuit 26, and the step motors 24 and 25 are rotated by a predetermined number of steps, whereby the optical axes of the cameras 11 and 12 are rotated. And the convergence angle θ is changed, and the intersection of the two optical axes is changed to the above-described reference plane R.
P can be changed before and after.

【0026】両カメラ11,12からのアナログ画像信
号L,Rは、A/D変換器5で、デジタル信号L,Rに
変換され相対標高/自己評価量演算部30に入力され、
ここで後述する相対標高および自己評価量JDET,JERR
を演算して立体合成再現部50に出力する。
The analog image signals L and R from the cameras 11 and 12 are converted into digital signals L and R by the A / D converter 5 and input to the relative altitude / self-evaluation amount calculator 30.
Relative altitude and self-evaluation amount J DET , J ERR described later
Is calculated and output to the stereoscopic synthesis reproduction unit 50.

【0027】この立体合成再現部50は、後述の如き演
算を行ない、標高マップおよび誤差マップを出力する。
この標高マップにより対象物体SOBの立体情報が抽出
される。
The three-dimensional composition reproducing unit 50 performs an operation as described below, and outputs an elevation map and an error map.
The three-dimensional information of the target object SOB is extracted from the elevation map.

【0028】次に、相対標高/自己評価量演算部30お
よび立体合成再現部50について詳述する。 (1)相対標高/自己評価量演算部30 これは、相対標高演算部30aと自己評価量演算部30
bとからなる。図8にこの演算部30の一例を示す。画
像信号L,Rは和差回路31に入力され、和画像信号R
+Lおよび差画像信号R−Lが演算される。和画像信号
R+LはX微分回路32に入力され
Next, the relative altitude / self-evaluation amount calculation unit 30 and the three-dimensional composition reproduction unit 50 will be described in detail. (1) Relative altitude / self-evaluation amount calculation unit 30 This is a relative elevation calculation unit 30a and a self-evaluation amount calculation unit 30
b. FIG. 8 shows an example of the calculation unit 30. The image signals L and R are input to the sum and difference circuit 31, and the sum image signal R
+ L and a difference image signal RL are calculated. The sum image signal R + L is input to the X differentiating circuit 32.

【数24】 この和分回路33は省略してもよい。X微分値は、2乗
回路34および乗算回路35に、平均値は、2乗回路3
6および乗算回路35に入力される。
(Equation 24) This summing circuit 33 may be omitted. The X differential value is supplied to the squaring circuit 34 and the multiplying circuit 35, and the average value is supplied to the squaring circuit 3
6 and the multiplication circuit 35.

【0029】2乗回路34は、The squaring circuit 34

【数25】 を2乗し、その結果が平滑化回路37に入力される。こ
の平滑化回路37は、入力信号を予め定められた近傍サ
イズ(例えば5×5画素)で積分した出力Sxxを自己
評価量JDETとして立体合成再現部50および比回路4
0,43に出力する。
(Equation 25) Is squared, and the result is input to the smoothing circuit 37. The smoothing circuit 37 integrates the input signal with a predetermined neighborhood size (for example, 5 × 5 pixels), and uses the output Sxx as the self-evaluation amount J DET as the stereo synthesis reproduction unit 50 and the ratio circuit 4.
0, 43.

【数26】 その結果が平滑化回路38に入力される。この平滑化回
路38は、入力信号を上記近傍サイズで積分した出力S
xdを比回路40および乗算回路41に出力する。
(Equation 26) The result is input to the smoothing circuit 38. This smoothing circuit 38 outputs an output S obtained by integrating the input signal with the above-mentioned neighborhood size.
xd is output to the ratio circuit 40 and the multiplication circuit 41.

【数27】 その結果が平滑化回路39に入力される。平滑化回路3
9は入力信号を近傍サイズで積分した出力Sddを減算
回路42に出力する。
[Equation 27] The result is input to the smoothing circuit 39. Smoothing circuit 3
Reference numeral 9 outputs an output Sdd obtained by integrating the input signal in the neighborhood size to the subtraction circuit 42.

【数28】 の演算を施し、相対標高値ΔRLxを出力する。乗算回路
41は、比回路40の出力ΔRLxと、平滑化回路38の
出力Sxdとを乗算してその結果ΔRLx×Sxdを得、
減算回路42に出力する。減算回路42は、入力信号Δ
RLx×Sxd,Sddに対して、 Sdd−ΔRLx×Sxd=JRES …(1.27) の演算を施し、自己評価量JRESを出力する。この
(1.27)式は(1.20)式に相当する。比回路4
3は、入力される減算回路42の出力JRESおよび平滑
化回路37の出力JDET(Sxx)に対して、
[Equation 28] And outputs a relative altitude value Δ RL x. The multiplication circuit 41 multiplies the output Δ RL x of the ratio circuit 40 by the output Sxd of the smoothing circuit 38 to obtain a result Δ RL x × Sxd,
Output to the subtraction circuit 42. The subtraction circuit 42 receives the input signal Δ
RL x × Sxd, relative Sdd, performing an operation of Sdd-Δ RL x × Sxd = J RES ... (1.27), and outputs a self-evaluation value J RES. This equation (1.27) corresponds to equation (1.20). Ratio circuit 4
3 is the output J RES of the subtraction circuit 42 and the output J DET (Sxx) of the smoothing circuit 37,

【数29】 の演算を施し、自己評価量JERRを出力する。すなわ
ち、相対標高/自己評価量演算部30から、自己評価量
DET,JERRおよび相対標高値ΔRLxが立体合成再現部
50に出力される。
(Equation 29) And outputs a self-evaluation amount JERR . That is, the relative altitude / self-evaluation amount calculation unit 30 outputs the self-evaluation amounts J DET and J ERR and the relative altitude value Δ RL x to the three-dimensional composition reproduction unit 50.

【0030】(2)立体合成再現部50 図6に示すとおり、立体合成再現部50は次の各要素に
て構成される。 相対標高値分類部51 これは、図9に示す処理手順によるソフトウェアの形態
で実現され、入力される自己評価量JDET,JERRに基づ
いて、128×128の各画素について近傍サイズ毎に
分類が行なわれる。すなわち、手順P1において相対標
高/自己評価量演算部30からの自己評価量JDETを、
予め定められた閾値SS1と大小比較し、JDET≧閾値
SS1であれば、手順P2に進み、相対標高/自己評価
量演算部30からの自己評価量JERRを、予め定めた閾
値SS2と大小比較する。JERR≦閾値SS2ならば手
順P3において、自己評価量JERRの演算対象である近
傍サイズの中心画素に有効領域のラベルをセットする。
(2) Stereoscopic synthesis reproducing section 50 As shown in FIG. 6, the stereoscopic synthesis reproducing section 50 is composed of the following elements. Relative elevation value classification unit 51 This is realized in the form of software according to the processing procedure shown in FIG. 9, and classifies 128 × 128 pixels for each neighborhood size based on the input self-evaluation amounts J DET and J ERR. Is performed. That is, in the procedure P1, the self-evaluation amount J DET from the relative altitude / self-evaluation amount calculation unit 30 is calculated as follows :
The magnitude is compared with a predetermined threshold value SS1, and if J DET ≧ the threshold value SS1, the procedure proceeds to step P2, where the self-evaluation amount J ERR from the relative altitude / self-evaluation amount calculation unit 30 is compared with the predetermined threshold value SS2. Compare. If J ERR ≦ threshold value SS2, in step P3, the label of the effective area is set to the center pixel of the neighborhood size, which is the target of calculation of the self-evaluation amount J ERR .

【0031】手順P1で否定判定されると、手順P4に
おいて、上述の近傍サイズの中心画素に対して無効領域
のラベルをセットする。また、手順P2が否定判定され
ると、手順P5において、同様に標高過剰領域のラベル
をセットする。すなわち、自己評価量JDETは、最小二
乗法が有効なために正規方程式(1.16)の良さを決
めるものであり、十分大きくなくてはならない。また、
自己評価量JERRは、誤差の原因が画素雑音のみと仮定
すると、雑音分散Δ2に比例するから、予め測定誤差が
どの程度含まれているかを予測する量として用いること
ができ、小さいほどよい。
If a negative determination is made in step P1, in step P4, a label of an invalid area is set for the center pixel of the above-described neighborhood size. If a negative determination is made in the procedure P2, a label of the excessive elevation area is similarly set in the procedure P5. That is, the self-evaluation amount J DET determines the goodness of the normal equation (1.16) because the least squares method is effective, and must be sufficiently large. Also,
Self-evaluation amount J ERR is the cause of the error is assumed only pixel noise, proportional to the noise variance delta 2, can be used as an amount which predict that it contains what extent previously measured error, better smaller .

【0032】荷重標高/荷重累積部52 これは、図10に示す回路の形態で実現され、入力され
る相対標高ΔRLxと、自己評価量JERR(荷重として用
いる)と、後述の標高バイアスとに基いて、累積荷重標
高および累積荷重が演算される。すなわち、有効領域と
して分類された近傍領域毎に相対標高と標高バイアスと
が和回路521に入力され、両入力の和が比回路522
に入力される。比回路522には、自己評価量JERR
入力されており、
The load elevation / load accumulator 52 which is realized in the form of the circuit shown in FIG. 10, the relative elevation delta RL x input, self-evaluation value J ERR (used as a load), described later altitude bias Then, the cumulative load altitude and the cumulative load are calculated. That is, the relative altitude and the altitude bias are input to the summing circuit 521 for each neighboring area classified as an effective area, and the sum of both inputs is calculated by the ratio circuit 522.
Is input to The self-evaluation amount J ERR is also input to the ratio circuit 522.

【数30】 が演算され、その出力は和回路523に入力される。こ
の和回路523には、スイッチ528を介して累積メモ
リ524が後続し、その累積メモリ524の出力が和回
路523に入力されている。したがって、和回路523
は、
[Equation 30] Is calculated, and the output is input to the sum circuit 523. This accumulation circuit 523 is followed by an accumulation memory 524 via a switch 528, and the output of the accumulation memory 524 is input to the accumulation circuit 523. Therefore, the sum circuit 523
Is

【数31】 のように過去の累積データに新しいデータを加算し、そ
の結果を出力することになる。以上の回路構成により累
積メモリ524から各画素の累積荷重標高が出力され
る。
(Equation 31) , New data is added to the past accumulated data, and the result is output. With the above circuit configuration, the cumulative load altitude of each pixel is output from the cumulative memory 524.

【0033】また、自己評価量JERRが逆数回路525
に入力され、逆数回路525から1/JERRが次段の和
回路526に出力される。この和回路526には、スイ
ッチ529を介して累積メモリ527が後続し、その累
積メモリ527の出力が和回路526に入力されてい
る。したがって、和回路526は、
Further, the self-evaluation amount J ERR is calculated by a reciprocal circuit 525.
And 1 / J ERR is output from the reciprocal circuit 525 to the sum circuit 526 at the next stage. The summing circuit 526 is followed by a cumulative memory 527 via a switch 529, and the output of the cumulative memory 527 is input to the summing circuit 526. Therefore, the sum circuit 526 is

【数32】 のような過去の累積データに新しいデータを加算し、そ
の結果を出力することになる。以上の回路構成により、
累積メモリ527から各画素の累積荷重が出力される。
なお、上述したスイッチ528,529は、後述する自
己判断/制御論理部54からの累積制御信号によりオン
・オフされる。
(Equation 32) , New data is added to the past accumulated data, and the result is output. With the above circuit configuration,
The cumulative weight of each pixel is output from the cumulative memory 527.
The switches 528 and 529 described above are turned on / off by an accumulated control signal from a self-determination / control logic unit 54 described later.

【0034】標高再現部53 これは、図10に示す回路の形態で実現され、前段の荷
重標高/荷重累積部52から入力される累積荷重標高と
累積荷重とに基づいて標高マップおよび誤差マップとが
出力される。すなわち、累積荷重標高と累積荷重とが比
回路531に入力され、
This is realized in the form of a circuit shown in FIG. 10, and is based on the cumulative load altitude and the cumulative load input from the preceding load altitude / load accumulator 52 and an altitude map and an error map. Is output. That is, the cumulative load altitude and the cumulative load are input to the ratio circuit 531.

【数33】 が演算され、後述の自己判断/制御論理部54に出力さ
れるとともに、最終出力データとして取り出される。一
方、累積荷重が逆数回路532に入力されてその逆数が
演算され、
[Equation 33] Is calculated, output to the self-determination / control logic unit 54 described later, and taken out as final output data. On the other hand, the cumulative load is input to the reciprocal circuit 532, and the reciprocal thereof is calculated.

【数34】 として自己判断/制御論理部54に出力されるととも
に、最終出力データとして取り出される。
(Equation 34) Is output to the self-determination / control logic unit 54, and is extracted as final output data.

【0035】自己判断/制御論理部54 これは、図11に示す処理手順によるソフトウェアの形
態で実現される。相対標高値分類部51からの分類マッ
プと、相対標高演算部30aからの相対標高と、標高再
現部53からの標高マップおよび誤差マップとに基づい
て、標高バイアスと、累積制御信号と、輻輳角制御信号
と、撮像カメラ起動信号と、相対標高演算部起動信号と
を演算して出力する。
Self-determination / control logic unit 54 This is realized in the form of software according to the processing procedure shown in FIG. Based on the classification map from the relative altitude value classifying unit 51, the relative altitude from the relative altitude calculating unit 30a, the altitude map and the error map from the altitude reproducing unit 53, an altitude bias, a cumulative control signal, and a convergence angle. A control signal, an imaging camera activation signal, and a relative elevation operation unit activation signal are computed and output.

【0036】すなわち、図11において、手順P11で
累積領域および輻輳角の初期化を行ない、手順P12で
は、分類マップにしたがって有効領域の抽出を行う。手
順P13では、誤差マップにしたがって、累積確定領域
の抽出を行う。これは、予め設定された閾値SS3に対
して 誤差マップ≦閾値SS3 となるベき領域を抽出するものである。次いで、手順P
14において各手順P12,13で抽出された両領域の
オーバラップ領域を抽出する。そして、手順P15に進
みオーバーラップ領域での相対標高の平均値、すなわち
標高バイアス(平均標高差)を抽出し、図10の和回路
521に入力する。
That is, in FIG. 11, the cumulative area and the convergence angle are initialized in a procedure P11, and an effective area is extracted in a procedure P12 according to the classification map. In step P13, an accumulated confirmed area is extracted according to the error map. This is to extract a region where the error map ≦ the threshold SS3 with respect to a preset threshold SS3. Then, the procedure P
At 14, an overlap area of both areas extracted at each of the procedures P12 and P13 is extracted. Then, the process proceeds to step P15, in which the average value of the relative altitudes in the overlap area, that is, the altitude bias (average altitude difference) is extracted and input to the sum circuit 521 in FIG.

【0037】なお、以上の手順P12〜P15に代え
て、図12に示すように、輻輳角の変化から基準面RP
の前後移動量を演算して標高バイアスを求めることもで
きる。
Instead of the above procedures P12 to P15, as shown in FIG.
It is also possible to calculate the altitude bias by calculating the amount of forward and backward movement of.

【0038】次いで、手順P16では累積制御信号を出
力して図10に示したスイッチ528,529を閉成
し、上述したように手順P15で求められた標高バイア
スと近傍領域内の各画素の相対標高とを加算するととも
に、その後、前述したように累積荷重標高を累積メモリ
524に格納し、また、そのときの累積荷重を累積メモ
リ527に格納する。その後手順P17,P18に順次
に進み標高荷重領域および標高不確定領域をそれぞれ抽
出する。ここで、標高不確定領域とは、先の手順P13
において抽出された累積確定領域以外の領域である。更
に手順P19で、これら両領域のオーバラップ領域、す
なわち未測定の測定可能領域を残存領域として抽出す
る。その後手順P20に進み、残存領域の有無を判定
し、残存領域があれば手順P21に進んで、両カメラ1
1,12を所定量制御するためステップモーター駆動回
路26に輻輳角制御信号を供給する。例えば、基準面R
Pが前側に2〓ずれるように輻輳角が制御される。カメ
ラ11,12の輻輳角が制御されると、手順P22にお
いて、撮像体駆動回路部13に撮像体起動信号を供給し
てカメラ11,12による対象物体SOBの撮影を指令
するとともに、相対標高演算部30aへその起動信号を
供給して起動する。手順P20において残存領域がなけ
れば、以上の処理を終了する。また、図には示していな
いが、カメラ11,12の輻輳角が限界値を超えるよう
な場合にもこの処理を終了する。
Next, in step P16, the accumulation control signal is output to close the switches 528 and 529 shown in FIG. 10, and as described above, the altitude bias obtained in step P15 and the relative position of each pixel in the neighboring area are determined. The altitude and the altitude are added, and thereafter, the accumulated load altitude is stored in the accumulated memory 524 as described above, and the accumulated load at that time is stored in the accumulated memory 527. Thereafter, the process proceeds to steps P17 and P18 in order to extract the altitude load area and the altitude uncertain area, respectively. Here, the altitude uncertainty area refers to the previous procedure P13
Is an area other than the cumulative determined area extracted in. Further, in a procedure P19, an overlap area between these two areas, that is, an unmeasurable measurable area is extracted as a remaining area. Thereafter, the process proceeds to step P20, where the presence or absence of a remaining area is determined.
A convergence angle control signal is supplied to the step motor drive circuit 26 in order to control a predetermined amount of 1 and 12. For example, the reference plane R
The convergence angle is controlled so that P is shifted 2 ° to the front side. When the vergence angles of the cameras 11 and 12 are controlled, in step P22, an image pickup body activation signal is supplied to the image pickup body drive circuit unit 13 to instruct the image pickup of the target object SOB by the cameras 11 and 12, and the relative altitude is calculated. The unit 30a is activated by supplying the activation signal. If there is no remaining area in the procedure P20, the above processing ends. Although not shown in the figure, this process is also terminated when the convergence angles of the cameras 11 and 12 exceed the limit value.

【0039】図7に示した表面にランダムドット模様を
つけた立方体を計測対象とした場合の実験結果の例を図
13〜図15に示す。図13および図14はそれぞれ輻
輳角θを異にして得た有効データによる標高マップであ
り、図15はこのような複数の標高マップを合成して得
た最終結果である。また、図16に示すようなくさびを
計測対象とした場合の実験結果を図17〜図19に示
す。各図は、それぞれ輻輳角θを異にして得た有効デー
タによる標高マップである。なお、計測にあたりくさび
にランダムドット模様をつけた。
FIGS. 13 to 15 show examples of experimental results when a cube having a random dot pattern on the surface shown in FIG. 7 is to be measured. 13 and 14 are elevation maps based on effective data obtained at different convergence angles θ, and FIG. 15 is a final result obtained by combining a plurality of such elevation maps. In addition, FIGS. 17 to 19 show experimental results when wedges are measured as shown in FIG. Each figure is an elevation map based on effective data obtained by making the convergence angle θ different. In the measurement, a random dot pattern was formed on the wedge.

【0040】以上説明したようにこの態様による立体抽
出は、所定の基準面RPに対して得た画像系列から 1)空間微分と左右画像差を画素値とする画像(微分画
像,差分画像)2種を形成し、 2)それらの積を画素値とする画像(積画像)を2種類
形成し、 3)それらを近傍領域Γのサイズの点拡がり関数で平滑
化し(平滑化積画像)、 4)それらの積和の比を画像全体で計算する、 ことにより行なわれる。従って、図8,図11に示すよ
うな多段並列演算回路によって実現でき、実時間にて立
体情報の抽出ができる。なお、上記4)のステップはさ
らに分解してもよい。
As described above, the three-dimensional extraction according to this embodiment can be performed by: 1) an image (differential image, difference image) in which the spatial differentiation and the difference between the left and right images are pixel values from an image sequence obtained for a predetermined reference plane RP; Forming seeds; 2) forming two types of images (product images) having their products as pixel values; 3) smoothing them with a point spread function of the size of the neighborhood Γ (smoothed product images); ) Calculate the ratio of their sum of products over the entire image. Therefore, it can be realized by a multi-stage parallel operation circuit as shown in FIGS. 8 and 11, and three-dimensional information can be extracted in real time. The step 4) may be further disassembled.

【0041】また、立体情報抽出の過程で演算された自
己評価量JDET,JERRにより抽出された立体情報を評価
してその有効,無効の判定を含む有効度の判定を行な
い、有効と判定された領域の立体情報に対して荷重J
ERRによる重みづけ(有効度に応じた重みづけ)を行な
って対象立体の画像を再現し、無効と判定された領域に
対しては、基準面RPを前後に、すなわち撮像体と対象
立体との距離Hを変更して同様な処理を繰り返して行な
う。従って、従来、雑音に大きく影響され、悪条件下で
の対処が不十分であることにより実現が難しいと言われ
ていた時空間微分法による立体像の再現を精度よく行な
うことができる。ここで、JDETは測定可能性を示す評
価量で大きいほど有効度が高く、JERRは測定誤差の推
定値を示す評価量で、JRESは測定条件の正当性を示す
評価量である。
Further, the three-dimensional information extracted by the self-evaluation amounts J DET and J ERR calculated in the process of extracting the three-dimensional information is evaluated, and its validity including validity / invalidity is determined, and the validity is determined. Weight J for the three-dimensional information of the
The image of the target solid is reproduced by performing weighting (weighting according to the degree of validity) by ERR , and the region determined to be invalid is located before and after the reference plane RP, that is, between the imaging body and the target solid. The same processing is repeated by changing the distance H. Therefore, it is possible to accurately reproduce a stereoscopic image by the spatiotemporal differentiation method, which has conventionally been considered to be difficult to be realized because of being largely affected by noise and insufficiently coped with under bad conditions. Here, J DET is an evaluation value indicating measurability, and the larger the evaluation value, the higher the effectiveness. J ERR is an evaluation value indicating an estimated value of the measurement error, and J RES is an evaluation value indicating validity of the measurement condition.

【0042】なお、以上では対象物体にランダムドット
パターンを付したが、ランダムドトパターンをプロジェ
クトで対象物体に投影してもよい。また、表面に模様の
ないものに対しては、ランダムドットパターンをプロジ
ェクトにより投影して表面に濃淡パターンをつける必要
がある。更に、測定毎に輻輳角を変更するとともに、対
象物体の表面の濃淡パターンを変更するために測定の都
度プロジェクトがランダムな模様を投影することにより
一層精度が向上する。
Although the random dot pattern is given to the target object in the above description, the random dot pattern may be projected on the target object in the project. In addition, for those having no pattern on the surface, it is necessary to project a random dot pattern by a project to provide a shading pattern on the surface. Further, the accuracy is further improved by changing the convergence angle for each measurement and projecting a random pattern every time the measurement is performed in order to change the shading pattern of the surface of the target object.

【0043】次いで、動画像を時空間微分法に基づいて
抽出する態様について説明する。従来の技術で述べたよ
うに、動画像を時空間微分法に基づいて抽出する場合、
演算量を少なくし雑音に強くする必要がある。雑音を排
除するには解の自由度を減らし、かつ解に実質的に寄与
するデータ量を多くすれば良いのであるが、ここでは、
単純に、「着目点近傍において速度場はほぼ一定と近似
できる」ことを仮定し、近傍内のデータを連立して一個
の速度を求める。近傍の大きさは対象の濃淡の細かさと
速度場測定の空間分解能との兼ねあいで決める。この領
域をΓと置くと、Γ内のいたるところ ufx(x,y)+vfy(x,y)+ft(x,y)=0 …(2.1) が成立していなければならない。いまこの式のΓ内での
一様な成立の良さ(悪さ)を左辺の二乗積分で評価し、
これを近傍ごとに最小化すると、
Next, a mode for extracting a moving image based on the spatiotemporal differentiation method will be described. As described in the related art, when extracting a moving image based on the spatiotemporal differentiation method,
It is necessary to reduce the amount of calculation and to be strong against noise. To eliminate noise, it is necessary to reduce the degree of freedom of the solution and increase the amount of data that substantially contributes to the solution.
Simply, it is assumed that "the velocity field can be approximated to be substantially constant in the vicinity of the point of interest", and one velocity is obtained by simultaneously combining data in the vicinity. The size of the neighborhood is determined based on the balance between the fineness of the density of the object and the spatial resolution of the velocity field measurement. If this region is denoted by Γ, the following must be established: ufx (x, y) + vfy (x, y) + ft (x, y) = 0 (2.1) Now, the goodness (badness) of the uniform establishment in Γ of this equation is evaluated by the square integration of the left side,
If this is minimized for each neighborhood,

【数35】 ただし変数(x,y)の記述を省略した。これをu,v
に関して微分して零とおくと正規方程式、 uSxx+vSxy+Sxt=0 { …(2.3) uSxy+vSyy+Syt=0 が得られる。サフィックス付のSはそれぞれ
(Equation 35) However, the description of the variable (x, y) is omitted. U, v
And normalizing it as zero, uSxx + vSxy + Sxt = 0 {(2.3) uSxy + vSyy + Syt = 0 is obtained. S with suffix is

【数36】 で計算される微分の積の積分値を表わす。これらの値を
代入し(2.3)式を解くと、速度ベクトル(u,v)
[Equation 36] Represents the integral of the product of the differentials calculated by By substituting these values and solving equation (2.3), the velocity vector (u, v)
Is

【数37】 のように求まる。(37) Is obtained as follows.

【0044】この演算は画像全体の並列処理に適した構
造をもっている。すなわち、多量の積和計算を含むSx
x,Sxy,Syy,Sxt,Syt,Sttの計算
は、入力画像fの全体に対して、 1)空間時間微分画像 fx,fy,ft 2)自己、相互積画像 fx2,fxfy,fy2,fxft,fyft,ft2 3)移動平均画像 Sxx,Sxy,Syy,Sxt,Syt,Stt を段階的に形成する並列演算に置き換わる。移動平均は
Γ上の積分に相当する。各段階での処理に特殊なものが
ないから汎用画像処理ハードウェアにて処理できる。
This operation has a structure suitable for parallel processing of the entire image. That is, Sx including a large amount of product-sum calculation
x, Sxy, Syy, Sxt, Syt, and Stt are calculated based on the entire input image f by: 1) a spatiotemporal differential image fx, fy, ft 2) a self-intersection image fx 2 , fxfy, fy 2 , fxft, fyft, ft 2 3) The moving average image Sxx, Sxy, Syy, Sxt, Syt, and Stt are replaced by parallel calculations. The moving average corresponds to the integral over Γ. Since there is no special processing in each stage, the processing can be performed by general-purpose image processing hardware.

【0045】時空間微分法を用いた動画像処理では、上
述した雑音への鋭敏さ以上に、ずれが微小な場合に適用
を限定する必要性が重要である。従来の技術に示した
(2)式の近似が成立しないと解(2.5a,b)は全
く無意味となるが、解からはこれを判断できない危険が
ある。したがって、対象の速度がどの程度の範囲内にあ
る場合に実用上十分な測定精度が得られるかを把握し、
また実際に対象の速度がその範囲に入っているかを判定
する必要がある。
In moving image processing using the spatio-temporal differentiation method, it is important to limit the application when the deviation is small, beyond the sensitivity to noise described above. The solution (2.5a, b) is completely meaningless unless the approximation of equation (2) shown in the prior art is established, but there is a risk that it cannot be determined from the solution. Therefore, it is necessary to understand the range within which the target speed can provide practically sufficient measurement accuracy.
In addition, it is necessary to determine whether the target speed is actually within the range.

【0046】また、この画像処理に固有な問題として、
近傍の適切な大きさを選択して不必要な分解能の低下を
避け、また近傍内での速度の一様性を高める必要があ
る。そこで、以下にこれらの点に関係する評価量と判断
基準を説明する。
Also, as a problem unique to this image processing,
There is a need to select an appropriate size of the neighborhood to avoid unnecessary degradation of resolution and to increase velocity uniformity within the neighborhood. Therefore, evaluation amounts and judgment criteria relating to these points will be described below.

【0047】a)測定可能性の評価量 (2.3)式が安定して解かれるためには係数行列の行
列式が十分大きい必要がある。いま、これをJDET 2と置
くと、
A) Evaluation amount of measurability In order for equation (2.3) to be solved stably, the determinant of the coefficient matrix needs to be sufficiently large. Now, if we put this as J DET 2 ,

【数38】 であるからSchwartz不等式の条件よりJDET 2
零となるのはΓ内のいたるところ、 fx(x,y)=Cfy(x,y) (C:任意定数) のときである。この式は濃淡が一方向(x+y/c=一
定の直線上)に一様であることを表す。すなわち解の安
定性のためにはΓ内の濃淡が2方向に自由度をもって変
化する必要がある。これはΓの大きさ選択の指針となる
とともに、JDET 2によってΓが実際にこの条件を満たし
ている度合を評価できる。この意味でJDETは着目点で
の測定可能性を表していると見なせる。
(38) Therefore, J DET 2 becomes zero according to the condition of the Schwartz inequality when fx (x, y) = Cfy (x, y) (C: arbitrary constant) throughout Γ. This equation indicates that the shading is uniform in one direction (x + y / c = constant straight line). That is, for the stability of the solution, it is necessary that the shading in Γ changes in two directions with a degree of freedom. This guides the selection of the size of Γ, and the degree to which 評 価 actually satisfies this condition can be evaluated by J DET 2 . In this sense, J DET can be considered to represent the measurability at the point of interest.

【0048】b)仮定の正当性の評価量 評価関数Jに(2.3)式を代入し最適条件下での残留
誤差JRESを計算すると、
B) Evaluation amount of validity of assumption Substituting equation (2.3) into evaluation function J and calculating residual error J RES under optimal conditions,

【数39】 が得られる。この式の値は一般にモデル外要因の混入の
指標となるから、微小ずれ仮定の不成立,画素雑音の存
在,Γ内での速度変動等の判断の基礎情報となる。
[Equation 39] Is obtained. Since the value of this equation generally serves as an index of the inclusion of a factor outside the model, it serves as basic information for determining whether the assumption of a small deviation is not satisfied, the presence of pixel noise, the speed fluctuation in Γ, and the like.

【0049】c)測定誤差分散の評価量 (2.2)式の定義から分かるように残留誤差JRES
誤差が時間微分fxのみに含まれると仮定すると、おお
よそこの分散の面積分を表している。実際、画像ずれが
大きくなると支配的になるTaylor展開の一次近似
誤差は等価的にftに加わった誤差と見なせる。いまこ
の誤差の解への伝搬を調べるため、これを次式を満たす
白色雑音ε(x,y)で表わす。
C) Evaluation amount of measurement error variance As can be seen from the definition of the equation (2.2), assuming that the error is included only in the time derivative fx, the residual error J RES roughly represents the area of this variance. I have. In fact, the first approximation error of Taylor expansion, which becomes dominant as the image shift increases, can be regarded as an error equivalently added to ft. Now, to investigate the propagation of this error to the solution, this is represented by white noise ε (x, y) satisfying the following equation.

【数40】 と求められる。このJERRは仮定の不成立度と着目点付
近の濃淡から予想される解のばらつきを示すから、おお
よそ測定誤差の自己評価量の意味をもつ。
(Equation 40) Is required. Since J ERR indicates the dispersion of the solution expected from the degree of non- satisfaction of the assumption and the shading near the point of interest, it has a meaning of the self-evaluation amount of the measurement error.

【0050】測定が意味をもつにはJDETは画素雑音に
起因して不可避的に生ずる値よりも大きくなければなら
ない。いまΓが十分に大きい場合を想定し、画素雑音の
自己相関々数をΨ(x,y)とすると、相関々数の微分
定理より
For the measurement to be meaningful, J DET must be greater than the value that would inevitably occur due to pixel noise. Assuming that Γ is sufficiently large and the number of autocorrelations of pixel noise is Ψ (x, y), the differential theorem of the number of correlations gives

【数41】 程度の値を雑音のみの寄与によりとり得る。画素雑音が
独立で画素間隔が1に規格化されている場合を想定し、
間隔1の標本化のNyguist帯域内で雑音が白色で
分散がσ2と仮定すると自己相関々数は、
[Equation 41] The degree value can be taken by the noise-only contribution. Assuming that pixel noise is independent and pixel spacing is normalized to 1,
Assuming that the noise is white and the variance is σ 2 within the Nyguist band of sampling at interval 1, the autocorrelation number is

【数42】 で与えられる。これを代入すると(2.11)式の値は
(πσ)4/4と求まり、測定可能なJDETの条件として
(Equation 42) Given in. Substituting this (2.11) where the value of Motomari and (πσ) 4/4, as a condition for measurable J DET

【数43】 が得られる。σ2=0.5量子化単位2,Γ=5×5画素
とすると右辺≒62となる。
[Equation 43] Is obtained. If σ 2 = 0.5 quantization unit 2 and Γ = 5 × 5 pixels, the right side becomes ≒ 62.

【0051】JERRは測定誤差分散の見積りだから、
(2.13)式が満たされている測定点ではそのまま測
定誤差の大きさを表わすと考えられる。したがって最低
限許容できる絶対精度AABSないし相対精度ARELを前も
って与えて、 JERR≦AABS 2 or JERR≦AREL 2(u2+v2) …(2.14) を満たさない測定点を最終結果から排除する。
Since J ERR is an estimate of the measurement error variance,
It is considered that the measurement point at which the expression (2.13) is satisfied represents the magnitude of the measurement error as it is. Therefore, the absolute permissible absolute accuracy A ABS or the relative accuracy A REL is given in advance, and the measurement points that do not satisfy J ERR ≦ A ABS 2 or J ERR ≦ A REL 2 (u 2 + v 2 ) (2.14) Is excluded from the final result.

【0052】(2.13),(2.14)式を用いると
本実施の形態ではJDET,JRESの評価量を組みあわせて
対象上の速度場を、1)測定条件が適切で信頼できる速
度が得られた領域、2)模様の存在からは測定は可能と
見られるが速度が過剰なため信頼できる測定が行われな
かった領域、3)対象上に適切な模様がなく測定が不可
能な領域の3種に分類する事ができる。2)の原因とし
ては他に近傍での速度の不均一さえも考えられる。この
分類図は最終結果とともに出力されるばかりでなく、測
定条件の設定にも用いる。すなわち、1)の領域が十分
広くてJDETの値に余裕があるときには、近傍領域サイ
ズを下げて分解能と速度均一性の向上を図る。2)の速
度過剰領域が多く生じた時には、フレーム間隔を短くし
て画像のずれ量を抑える,3)の領域が広すぎる場合は
近傍領域サイズを上げる,等の方針をとる。
Using the equations (2.13) and (2.14), in the present embodiment, the velocity field on the object is determined by combining the evaluation amounts of J DET and J RES. 2) A region where a speed that can be obtained is obtained. 2) A measurement is considered possible due to the presence of a pattern, but a region where reliable measurement was not performed due to excessive speed. 3) A measurement was not performed because there was no appropriate pattern on the object. It can be classified into three types of possible areas. Another possible cause of 2) is non-uniformity of the speed in the vicinity. This classification diagram is used not only for output with the final result but also for setting measurement conditions. That is, when the region 1) is sufficiently large and there is a margin in the value of J DET , the size of the neighboring region is reduced to improve the resolution and the speed uniformity. When a large number of excessive speed regions occur in 2), the frame interval is shortened to suppress the image shift amount, and when the region in 3) is too wide, the size of the neighboring region is increased.

【0053】次に、以上説明した態様に基づいて動画像
を抽出する実施の形態について説明する。図20〜図3
1にその実施の形態を示す。図20において、61は、
対象となる移動物体MOBを所定フレーム間隔で撮影す
る固体撮像素子カメラであり、ここでは128×128
画素のイメージセンサ(RETICON社製MC−91
28)を用いている。このカメラ61は、撮像体駆動回
路62からの画素クロックの周期に応じて、撮像レート
を10〜500フレーム毎秒の範囲で自由に設定でき
る。この画素クロックの制御は、後述する自己判断/制
御論理部90からのクロック制御信号によりなされる。
Next, an embodiment for extracting a moving image based on the above-described embodiment will be described. 20 to 3
1 shows an embodiment thereof. In FIG. 20, 61 is
This is a solid-state image sensor camera for photographing a target moving object MOB at predetermined frame intervals.
Pixel image sensor (MC-91 manufactured by RETICON)
28) is used. The camera 61 can freely set the imaging rate in a range of 10 to 500 frames per second according to the cycle of the pixel clock from the imaging body driving circuit 62. The control of the pixel clock is performed by a clock control signal from a self-determination / control logic unit 90 described later.

【0054】なお、計測対象の並進成分が零でないとき
に、追従機構63により撮像カメラ61を移動物体MO
Bの動きに角度θで追従するように構成し、これによ
り、計測範囲を拡大することができる。
When the translation component to be measured is not zero, the image pickup camera 61 is moved by the tracking mechanism 63 to the moving object MO.
It is configured to follow the movement of B at an angle θ, thereby expanding the measurement range.

【0055】撮像カメラ61の隣接する2フレームのア
ナログ画像信号がA/D変換器5でデジタル画像信号に
変換され速度分布/自己評価量演算部70に入力され、
後述する速度ベクトルマップ,誤差マップ(自己評価
量)JERRが最終出力として取り出されるとともに、自
己評価量JDET,JERRが後述の速度分布データ分類部8
0に入力される。この速度分布データ分類部80は、入
力信号JDET,JERRに基づいて、128×128の各画
素に対して近傍サイズ毎に分類を行ない、各近傍領域の
中心画素に対して有効領域、速度過剰領域、および無効
領域の各ラベルをセットする。このようにして、各ラベ
ルがセットされた各画素の情報と、速度分布/自己評価
量演算部70からの速度ベクトルマップと自己評価量J
ERRとが自己判断/制御論理部90に入力され、後述す
る近傍サイズの拡大、縮小および画素クロック周波数の
増大、減少がそれぞれ制御される。
An analog image signal of two frames adjacent to the imaging camera 61 is converted into a digital image signal by the A / D converter 5 and input to the speed distribution / self-evaluation amount calculation unit 70,
A speed vector map and an error map (self-evaluation amount) J ERR to be described later are extracted as a final output, and the self-evaluation amounts J DET and J ERR are output to a speed distribution data classification unit 8 to be described later.
Input to 0. The velocity distribution data classifying unit 80 classifies 128 × 128 pixels for each neighborhood size based on the input signals J DET and J ERR , and determines the effective area and the velocity for the central pixel of each neighborhood area. Set the labels for the excess area and the invalid area. In this manner, the information of each pixel on which each label is set, the velocity vector map from the velocity distribution / self-evaluation amount calculation unit 70, and the self-evaluation amount J
ERR is input to the self-determination / control logic unit 90, which controls enlargement and reduction of the neighborhood size and increase and decrease of the pixel clock frequency, which will be described later.

【0056】次に以上の各要素について詳述する。 (1)速度分布/自己評価量演算部70 図21および図22にこの演算部70の一例を示す。こ
れは、図21に示す速度分布演算部70aと、図22に
示す自己評価量演算部70bとからなる。
Next, each of the above elements will be described in detail. (1) Speed distribution / self-evaluation amount calculation unit 70 FIGS. 21 and 22 show an example of the calculation unit 70. This is composed of a speed distribution calculator 70a shown in FIG. 21 and a self-evaluation calculator 70b shown in FIG.

【0057】速度分布演算部70a 図21において、この演算部70aは、まず撮像カメラ
61による隣接2フレームの画像データを取り込み実時
間で微分画像fx,fy,ftを形成する。すなわち、
入力画像fはX微分回路71、Y微分回路72およびT
微分回路73に入力されてそれぞれの回路から、空間時
間微分画像fx,fy,ftが出力される。微分画像f
x,fy,ftは、それぞれ2乗回路74,76,79
で2乗されるとともに乗算回路75,77,78で相互
に乗算され、各回路74〜79から自己・相互積画像f
2,fxfy,fy2,fxft,fyft,ft2
出力される。これらの自己・相互積画像fx2,fxf
y,fy2,fxft,fyft,ft2はそれぞれ次段
の平滑化回路80〜85に入力されて、各平滑化回路8
0〜85から移動平均画像Sxx,Sxy,Syy,S
xt,Syt,Sttが出力される。ここで、移動平均
画像Sxx,Sxy,Syy,Sxt,Syt,Stt
は、所定の近傍サイズΓ上の積分値に相当し、後述する
自己判断/制御論理部90で演算されて決定される近傍
サイズ制御信号によりその積分領域が変更される。
Speed distribution calculation unit 70a In FIG. 21, this calculation unit 70a first takes in image data of two adjacent frames by the imaging camera 61 and forms differential images fx, fy, and ft in real time. That is,
The input image f is divided into an X differentiating circuit 71, a Y differentiating circuit 72, and T
The signals are input to the differentiating circuits 73, and the spatiotemporal differential images fx, fy, and ft are output from the respective circuits. Differential image f
x, fy, and ft are squaring circuits 74, 76, and 79, respectively.
, And multiplied by each other in multiplication circuits 75, 77, 78.
x 2, fxfy, fy 2, fxft, fyft, ft 2 is output. These self-cross product images fx 2 , fxf
y, fy 2 , fxft, fyft, and ft 2 are input to the next-stage smoothing circuits 80 to 85, respectively, and each of the smoothing circuits 8
Moving average images Sxx, Sxy, Syy, S from 0 to 85
xt, Syt, Stt are output. Here, moving average images Sxx, Sxy, Syy, Sxt, Syt, Stt
Corresponds to an integral value on a predetermined neighborhood size Γ, and the integration area is changed by a neighborhood size control signal calculated and determined by a self-determination / control logic unit 90 described later.

【0058】平滑化回路80および82の出力Sxx,
Syyは乗算回路86に入力され、その結果SxxSy
yが差回路92に出力される。また、平滑化回路81の
出力Sxyは2乗回路87に入力され、その結果Sxy
2が差回路92に出力される。したがって、差回路92
は、入力信号SxxSyyおよびSxy2に対して、 SxxSyy−Sxy2=JDET …(2.15) の演算を施し、自己評価量JDETが出力される。この式
は(2.6)式に相当する。
The outputs Sxx of the smoothing circuits 80 and 82,
Syy is input to the multiplication circuit 86, and as a result, SxxSy
y is output to the difference circuit 92. The output Sxy of the smoothing circuit 81 is input to the squaring circuit 87, and as a result, Sxy
2 is output to the difference circuit 92. Therefore, the difference circuit 92
Performs an operation of SxxSyy−Sxy 2 = J DET (2.15) on input signals SxxSyy and Sxy 2 , and outputs a self-evaluation amount J DET . This equation corresponds to equation (2.6).

【0059】平滑化回路80および84の出力Sxx,
Sytは、乗算回路88に入力され、その結果SxxS
ytが差回路93に出力される。また平滑化回路81お
よび83の出力Sxy,Sxtは乗算回路89に入力さ
れ、その結果SxySxtが差回路93に入力される。
したがって、差回路93は、入力信号SxxSytおよ
びSxySxtに対して、 SxySxt−SxxSyt …(2.16) の演算を施す。そして、差回路92の出力JDETおよび
差回路93の出力SxySxt−SxxSytが比回路
95に入力されて、
The outputs Sxx of the smoothing circuits 80 and 84,
Syt is input to the multiplication circuit 88, and as a result, SxxS
yt is output to the difference circuit 93. The outputs Sxy and Sxt of the smoothing circuits 81 and 83 are input to the multiplication circuit 89, and the result SxySxt is input to the difference circuit 93.
Therefore, the difference circuit 93 performs an operation of SxySxxt-SxxSyt (2.16) on the input signals SxxSyt and SxySxt. Then, the output J DET of the difference circuit 92 and the output SxySxt−SxxSyt of the difference circuit 93 are input to the ratio circuit 95,

【数44】 が出力される。ここでuは速度ベクトルを表す。[Equation 44] Is output. Here, u represents a velocity vector.

【0060】一方、平滑化回路82および83の出力S
yy,Sxtは乗算回路90に入力され、その結果Sy
ySxtが差回路94に出力される。また、平滑化回路
81および84の出力Sxy,Sytは乗算回路91に
入力され、その結果SxySytが差回路94に出力さ
れる。したがって差回路94は、入力信号SyySxt
およびSxySytに対して、 SxySyt−SyySxt …(2.18) の演算を施す。そして、差回路92の出力JDETおよび
差回路94の出力SxySyt−SyySxtが比回路
96に入力されて、
On the other hand, the outputs S of the smoothing circuits 82 and 83
yy and Sxt are input to the multiplication circuit 90, and as a result, Sy
ySxt is output to the difference circuit 94. The outputs Sxy and Syt of the smoothing circuits 81 and 84 are input to the multiplication circuit 91, and as a result, SxySyt is output to the difference circuit 94. Therefore, the difference circuit 94 outputs the input signal SySxt
And SxySyt, the following operation is performed: SxySyt−SySxt (2.18). Then, the output J DET of the difference circuit 92 and the output SxySyt−SySxt of the difference circuit 94 are input to the ratio circuit 96,

【数45】 が出力される。ここで、vは速度ベクトルを表す。[Equation 45] Is output. Here, v represents a velocity vector.

【0061】図23に平滑化回路80〜85の一例を示
す。画像Sxxの平滑化回路80について以下説明す
る。平滑化回路80は、最大近傍サイズNгに相応した
Nг段のシフトレジスタ群201と、加算器202と、
そのレジスタのNг×Nгの領域と加算器202とを接
続するスイッチ群203とから成る。画像Sxxをスキ
ャンすると、シフトレジスタ群201に順次にデータが
入力される。今、近傍サイズがその制御信号によりNг
×Nгの数に設定されると、スイッチ群203のすべて
がオンするから、レジスタ群201のNг×Nг領域の
データが加算器202で加算されて平滑化回路80の出
力とされる。一方、近傍サイズ制御信号により近傍サイ
ズが5×5となると、スイッチ群203の各スイッチが
それに相応してオン・オフし、レジスタ群201の例え
ば5×5領域データが加算器202で加算されて出力と
される。
FIG. 23 shows an example of the smoothing circuits 80 to 85. The smoothing circuit 80 for the image Sxx will be described below. The smoothing circuit 80 includes an Nг-stage shift register group 201 corresponding to the maximum neighborhood size Nг, an adder 202,
It comprises a switch group 203 for connecting the Nг × Nг area of the register and the adder 202. When the image Sxx is scanned, data is sequentially input to the shift register group 201. Now, the neighborhood size is N 近 傍 by the control signal.
When the number is set to × N ×, all the switches 203 are turned on, so that the data in the Nг × Nг area of the register group 201 is added by the adder 202 and output as the output of the smoothing circuit 80. On the other hand, when the neighborhood size becomes 5 × 5 by the neighborhood size control signal, each switch of the switch group 203 is turned on / off correspondingly, and, for example, 5 × 5 area data of the register group 201 is added by the adder 202. Output.

【0062】自己評価量演算部70b 図22において、この演算部70bは速度分布演算部7
0aに後続して自己評価量JERRを演算する。速度ベク
トルuと移動平均画像Sytは乗算回路97に入力さ
れ、乗算回路97はu×Sytを出力する。一方、速度
ベクトルvと移動平均画像Sxtは乗算回路98に入力
され、乗算回路98はv×Sxtを出力する。乗算回路
97,98からの出力u×Syt,v×Sxtおよび前
段の演算部70aからの移動平均画像Sttは和回路9
9に入力される。和回路99はこれらの入力信号に対し
て u×Syt+v×Sxt+Stt=JRES …(2.20) の演算を施して、自己評価量JRESを比回路101に出
力する。比回路101には、前段の演算部70aで求め
られた自己評価量JDETも入力されており、JRES/J
DETが演算され、その結果が次段の乗算回路102に出
力される。和回路100には、前段の演算部70aから
移動平均画像Sxx,Syyが入力され、この結果Sx
x+Syyが乗算回路102に出力される。乗算回路1
02は両入力信号に対して、
Self-evaluation amount calculation unit 70b In FIG. 22, this calculation unit 70b is a speed distribution calculation unit 7
Following 0a, the self-evaluation amount J ERR is calculated. The speed vector u and the moving average image Syt are input to the multiplication circuit 97, and the multiplication circuit 97 outputs u × Syt. On the other hand, the velocity vector v and the moving average image Sxt are input to the multiplication circuit 98, and the multiplication circuit 98 outputs v × Sxt. The outputs u × Syt, v × Sxt from the multiplication circuits 97 and 98 and the moving average image Stt from the preceding operation unit 70a are added to the sum circuit 9.
9 is input. The sum circuit 99 performs an operation of u × Syt + v × Sxt + Stt = J RES (2.20) on these input signals, and outputs a self-evaluation amount J RES to the ratio circuit 101. The self-evaluation amount J DET obtained by the preceding operation unit 70a is also input to the ratio circuit 101, and J RES / J
DET is calculated, and the result is output to the multiplication circuit 102 in the next stage. The moving average images Sxx and Syy are input to the sum circuit 100 from the operation unit 70a at the preceding stage.
x + Syy is output to the multiplication circuit 102. Multiplication circuit 1
02 for both input signals

【数46】 の演算を施して、その自己評価量JERRを出力する。
(2.21)式は(2.9)式に相当する。
[Equation 46] And outputs the self-evaluation amount J ERR .
Equation (2.21) corresponds to equation (2.9).

【0063】次に、速度分布データ分類部80について
図24に基づき説明する。これはソフトウエアの形態で
実現され、入力される自己評価量JDET,JERRに基づい
て128×128の画素に対して各近傍サイズ毎に分類
が行なわれる。すなわち、手順P31において、前段の
演算部70aからの自己評価量JDETを、予め定められ
た閾値SS4と大小比較し、JDET≧閾値SS4であれ
ば、手順P32に進み、演算部70bからの自己評価量
ERRを、予め定めた閾値SS5と大小比較する。JERR
≦閾値SS5ならば手順P33において、自己評価量J
ERRの演算対象である近傍サイズの中心画素に対して有
効領域のラベルをセットする。
Next, the speed distribution data classifying section 80 will be described with reference to FIG. This is realized in the form of software. Based on the self-evaluation amounts J DET and J ERR that are input, classification is performed for each 128 × 128 pixel for each neighborhood size. That is, in step P31, the self-evaluation amount J DET from the preceding operation unit 70a is compared in magnitude with a predetermined threshold SS4, and if J DET ≧ the threshold SS4, the process proceeds to step P32 and the operation from the operation unit 70b. The self-evaluation amount J ERR is compared in magnitude with a predetermined threshold value SS5. J ERR
If ≤ threshold value SS5, in step P33, the self-evaluation amount J
The label of the effective area is set for the center pixel of the neighborhood size that is the calculation target of ERR .

【0064】手順P31で否定判定されると、手順P3
4において、上述の近傍サイズの中心画素に対して無効
領域のラベルをセットする。また、手順P32が否定判
定されると、手順P35において、同様に速度過剰領域
のラベルをセットする。これらの分類マップは次段の自
己判断/制御論理部90に出力される。
If a negative determination is made in step P31, step P3
In step 4, the label of the invalid area is set for the center pixel having the above-described neighborhood size. If a negative determination is made in the procedure P32, a label for the excessive speed area is set in the same manner in the procedure P35. These classification maps are output to the self-judgment / control logic unit 90 at the next stage.

【0065】図25は自己判断/制御論理部90をソフ
トウエアの形態で実現したものである。この自己判断/
制御部90は、入力される分類マップにしたがって、後
述の演算を行ない、近傍サイズの拡大,縮小およびカメ
ラ61のフレーム間隔であるクロック周波数の増大,減
少の制御を行う。
FIG. 25 shows the self-judgment / control logic unit 90 realized in the form of software. This self judgment /
The control unit 90 performs an operation described below in accordance with the input classification map, and controls the enlargement / reduction of the neighborhood size and the increase / decrease of the clock frequency, which is the frame interval of the camera 61.

【0066】手順P41において無効領域の面積を算出
し、手順P42において速度過剰領域の面積を算出す
る。また、手順P43において、有効領域内での自己評
価量JERRの平均値および√(u2+v2)の平均値を算
出する。次いで、手順P44において、無効領域が過剰
か否かを判定する。肯定判定されると手順P48に進
み、近傍領域を拡大すべく近傍サイズ制御信号(図21
の平滑化回路80〜85の積分領域を定める信号)を変
更する。手順P44が否定判定されると手順P45に進
み、速度過剰領域が過剰か否かを判定する。肯定判定さ
れると手順P50に進み、フレーム間隔を短くすべくク
ロック周波数を増大させる。
In step P41, the area of the invalid area is calculated, and in step P42, the area of the excessive speed area is calculated. In step P43, the average value of the self-evaluation amount J ERR and the average value of √ (u 2 + v 2 ) in the effective area are calculated. Next, in a procedure P44, it is determined whether or not the invalid area is excessive. If an affirmative determination is made, the process proceeds to step P48, where the neighborhood size control signal (FIG. 21) is used to enlarge the neighborhood.
) Of the smoothing circuits 80 to 85 are changed. If a negative determination is made in step P44, the process proceeds to step P45, in which it is determined whether the excessive speed region is excessive. If an affirmative determination is made, the process proceeds to step P50, in which the clock frequency is increased to reduce the frame interval.

【0067】手順P45が否定判定されると手順P46
に進み、平均JERRに余裕があるか否かを判定する。肯
定判定されると手順P49に進み、近傍サイズを縮小す
べく近傍サイズ制御信号を変更する。手順P46が否定
判定されると、手順P47に進み、平均√(u2+v2
が過小か否かを判定する。肯定判定されると手順P51
に進み、フレーム間隔を長くすべくクロック周波数を減
少させる。否定判定されると、この一連の手順を終了す
る。
If a negative determination is made in step P45, step P46 is reached.
To determine whether the average J ERR has room. If an affirmative determination is made, the process proceeds to step P49, where the neighborhood size control signal is changed to reduce the neighborhood size. If the procedure P46 is negatively determined, the procedure proceeds to the procedure P47, where the average √ (u 2 + v 2 )
Is determined to be too small. If a positive determination is made, the procedure P51
And reduce the clock frequency to increase the frame interval. If a negative determination is made, this series of procedures ends.

【0068】図26〜図28に、この実施の形態により
流体の流速分布を実時間計測した結果を示す。墨汁を混
ぜてアルミ粉末を浮かせた水面に平板を差し込み水面に
沿って動かすと、平板の後方に捲き込み渦の発生が容易
に観察される。この模様を実時間で速度ベクトル分布と
して計測した。32×32の格子点上で得られた速度
u,vと評価量JDET,JERRの値が0.15秒ごとに計
算機の拡張記憶にストアされ一連の計測のあとでこれを
表示した。表示を同時に行わせることもできるが計測間
隔がその分大幅に長くなる。図26〜図28において、
升目付きの印は、速度範囲が適切で正しい測定が行なわ
れた領域を示し、線分のみの印は対象に模様があって測
定は可能だが速度が過剰なため正しい測定ができなかっ
た領域を示し、中心点のみの印は、対象に模様がなく測
定が不可能な領域を示している。下部の空白領域が平板
を表しており、これが下方に動くにつれて上方から水面
が引きずられ捲込まれてゆく様子が計測されている。渦
の中心に近い部分は速度が過剰ないし速度の不均一性が
高いと判断されていることも読み取れる。
FIGS. 26 to 28 show the results of real-time measurement of the flow velocity distribution of the fluid according to this embodiment. When a flat plate is inserted into the water surface on which the aluminum powder is floated by mixing the ink and moving along the water surface, the generation of a vortex is easily observed behind the flat plate. This pattern was measured in real time as a velocity vector distribution. The values of the speeds u and v and the evaluation amounts J DET and J ERR obtained on the 32 × 32 grid points are stored in the extended memory of the computer every 0.15 seconds, and are displayed after a series of measurements. The display can be performed at the same time, but the measurement interval becomes much longer. 26 to 28,
Marks with squares indicate areas where the speed range was appropriate and correct measurement was performed, and marks with only line segments indicate areas where there was a pattern on the target and measurement was possible, but measurement was not possible due to excessive speed. The mark of only the center point indicates an area where there is no pattern on the target and measurement is impossible. The blank area at the bottom represents a flat plate, and it is measured that the water surface is dragged from above as it moves downward, and the water is dragged. It can also be seen that the portion near the center of the vortex is judged to have excessive velocity or high non-uniformity in velocity.

【0069】図29〜図31に他の実験結果を示す。計
測対象は回転軸に取付けた直径32cmの白色円板の上に
数mm大の黒色斑点模様をランダムに吹き付けたものであ
る。円板の回転速度はギヤヘッドにより0.0833回
転/秒に減速し、カメラのクロックを0.25MHz,
0.5MHz,1MHzに変化させて等価的に3段階の
物体速度に相応する画像ずれを生じさせた。対応するフ
レーム間隔はそれぞれ約68ms,34ms,17ms
であり、そのとき隣接フレーム画像間での最大ずれは円
板の縁でそれぞれ2.27画素,1.14画素,0.5
7画素である。フレーム間隔を変えたときの感度変化は
照明強度で補償した。画像データ(各画素8ビット)は
必ず隣接する2フレームを連続して取り込み、ディジタ
ルのハードウエアにより実時間で微分画像を形成する。
このときの機構上の理由により後フレームが空間微分画
像の形成に用いられ、前フレームは時間微分のみに利用
される。空間微分計算には空間異方性の導入を避けるた
め中心差分法が使われている。実験では平滑化の近傍領
域には主に5×5画素を用い、1画素分のオーバラップ
を許して32×32の標本化を用いた。これ以後の処理
は逐次処理となるため、この間引き計算方式は高速化に
大きな効果がある。さらに今回の実験では中心点を指定
すると上記の6種の積和が同時に計算されるハードウエ
ア機構を用いて高速化を図った。最終出力は速度成分u
とv,測定可能性を示す評価量JDET,測定誤差の評価
量JERRが納められた4個の32×32配列である。上
の条件で画素の取り込みから最終出力までに要する時間
は約0.15秒である。
FIGS. 29 to 31 show other experimental results. The object to be measured is a randomly sprayed black spot pattern several mm in size on a 32 cm-diameter white disk attached to the rotating shaft. The rotation speed of the disk is reduced to 0.0833 rotation / sec by the gear head, and the clock of the camera is set to 0.25 MHz,
By changing to 0.5 MHz and 1 MHz, an image shift equivalent to three stages of object speed was equivalently generated. The corresponding frame intervals are about 68ms, 34ms, 17ms respectively
At this time, the maximum deviation between adjacent frame images is 2.27 pixels, 1.14 pixels, and 0.5 pixels at the edge of the disk, respectively.
7 pixels. The change in sensitivity when the frame interval was changed was compensated for by the illumination intensity. Image data (8 bits for each pixel) always takes in two adjacent frames continuously and forms a differential image in real time by digital hardware.
For mechanical reasons at this time, the subsequent frame is used for forming a spatial differential image, and the previous frame is used only for temporal differentiation. The central difference method is used in the spatial derivative calculation to avoid introducing spatial anisotropy. In the experiment, 5 × 5 pixels were mainly used in the region near the smoothing, and 32 × 32 sampling was used while allowing one pixel overlap. Since the subsequent processing is sequential processing, this thinning calculation method has a great effect on speeding up. Furthermore, in this experiment, when the center point was designated, the above six types of sum of products were calculated at the same time by using a hardware mechanism for speeding up. The final output is the velocity component u
And v, an evaluation amount J DET indicating the measurability, and a measurement error evaluation amount J ERR in four 32 × 32 arrays. Under the above conditions, the time required from the capture of the pixel to the final output is about 0.15 seconds.

【0070】図29〜図31に示す測定結果はプロッタ
表示であり、各々フレーム間隔が17ms,34ms,
68msに対するもので、線分の方向と長さがその点で
の速度ベクトル(u,v)を(先端が下流向き)、中心
点での升目の有無が測定誤差の評価量JERRが規定の範
囲に納まっているかを表している。前者の規定値は0.
25(画素長/フレーム間隔)2、後者の規定値は64
(明度量子化単位)2が用いられている。図29の結果
では円板全体でほぼ正しい速度分布が求まっているが、
図30,図31では速度が大きな周辺部から異常な測定
結果が広がってきている。また升目で示されるJERR
規定以下の測定点の範囲も狭まっている。
The measurement results shown in FIGS. 29 to 31 are plotted display, and the frame intervals are 17 ms, 34 ms,
For 68 ms, the direction and length of the line segment indicate the velocity vector (u, v) at that point (tip is downstream), and the presence or absence of the grid at the center point is determined by the measurement error evaluation amount J ERR . It indicates whether it is within the range. The former specified value is 0.
25 (pixel length / frame interval) 2 , the latter specified value is 64
(Brightness quantization unit) 2 is used. In the result of FIG. 29, almost correct velocity distribution is obtained for the entire disk,
In FIG. 30 and FIG. 31, abnormal measurement results are spreading from the peripheral portion where the speed is high. Also, the range of measurement points where the J ERR indicated by the square is below the specified value is also narrowed.

【0071】上の実験からも分かるように、本方法では
自己評価量JERRとJDETを用いることにより、対象物体
上の領域を、1)速度範囲が適切で正しい測定が行なわ
れた領域、2)対象に模様があって測定は可能だが速度
が過剰なため正しい測定ができなかった領域、3)対象
に模様がなく測定が不可能な領域、の3種に分類するこ
とができる。それらが、1)升目付き、2)線分のみ、
3)中心点のみ、の格子点集合として表示されている。
2)の場合の速度過剰領域が多く生じた時にフレーム間
隔を短くするような動的制御を導入すれば測定範囲を適
応的に拡大することが可能と予想される。
As can be seen from the above experiment, the present method uses the self-evaluation amounts J ERR and J DET to determine the area on the target object, 1) the area where the speed range is appropriate and the correct measurement was performed, It can be classified into two types: 2) a region where the target has a pattern and measurement is possible, but measurement was impossible due to excessive speed; and 3) a region where the target did not have a pattern and measurement was impossible. They are 1) with squares, 2) only line segments,
3) Only the center point is displayed as a grid point set.
In the case of 2), it is expected that the measurement range can be adaptively expanded by introducing dynamic control such as shortening the frame interval when a large number of overspeed regions occur.

【0072】なお、図20に破線で示す合成部110に
速度ベクトルマップと誤差マップとを入力し、図29〜
図31のようなデータを合成することもできる。このよ
うな合成は、定常パターンが移動するようなもの、例え
ば人工衛星からとらえた地球の雲の動きのようなものに
対して有効である。
The speed vector map and the error map are input to the synthesizing unit 110 shown by a broken line in FIG.
Data as shown in FIG. 31 can also be synthesized. Such a combination is effective for those in which the stationary pattern moves, such as the movement of the earth's cloud captured from an artificial satellite.

【0073】以上説明したようにこの態様による動画像
抽出は、所定のフレーム間隔で得た隣接2フレームの画
像系列から、 1)空間微分と時間微分とを画素値とする画像(微分画
像)3種を形成し、 2)それらの積を画素値とする画像(積画像)を5種類
形成し、 3)それらの近傍領域Γのサイズの点拡がり関数で平滑
化し(平滑化積画像)、 4)それらの積和の比2種類を画像全体で計算する、 ことにより行なわれる。従って、図21、22に示すよ
うな多段並列演算回路によって実現でき、実時間にて動
画像の抽出が行なえる。なお、上記4)のステップは更
に分解しても良い。
As described above, the moving image extraction according to this embodiment includes the following three steps: (1) an image (differential image) having pixel values of the spatial differentiation and the time differentiation from the image sequence of two adjacent frames obtained at a predetermined frame interval. Forming seeds; 2) forming five types of images (product images) having their products as pixel values; 3) smoothing them with a point spread function of the size of their neighboring region ((smoothed product images); And 2) calculating the ratio of the sum of the products over the entire image. Therefore, it can be realized by a multi-stage parallel operation circuit as shown in FIGS. 21 and 22, and a moving image can be extracted in real time. Step 4) may be further disassembled.

【0074】また、動画像抽出の過程で演算された自己
評価量JDET,JERRにより、抽出された動画像情報を評
価してその有効、無効の判定を含む有効度の判定を行な
い、その判定結果に基づいてフレーム間隔を増減し、ま
た、近傍サイズの拡大、縮小を行ない、理想的な測定条
件に収れんさせるようにしたので、雑音に影響されず、
また、計測対象の速度範囲を適応的に拡大することがで
きる、時空間微分法による動画像処理が実現できる。
The extracted moving image information is evaluated based on the self-evaluation amounts J DET and J ERR calculated in the process of extracting the moving image, and the validity including the validity / invalidity determination is determined. The frame interval is increased or decreased based on the determination result, and the neighborhood size is enlarged or reduced to make it fit under ideal measurement conditions, so it is not affected by noise,
Further, it is possible to realize a moving image processing by a spatio-temporal differentiation method capable of adaptively expanding a speed range of a measurement target.

【0075】次いで、本発明による音源を定位するため
の時間差を抽出する際に、時空間微分法を適用した態様
について説明する。図32に示すように、音源をS、中
心点0から等距離dだけ離れて設置された左右一対のマ
イクロフォンをML,MRで示し、中心点0と音源Sと
のなす角度をθ、距離をDとしたとき、マイクロフォン
ML,MRで受信する音響信号をそれぞれfL(t),
R(t)、中心0での仮想的な信号をf0(t)で表す
と、 fL(t)=f0(t−τ) …(3.1) fR(t)=f0(t+τ) …(3.2) で示される。ここで、τは、fL(t),fR(t)の時
間差を表わす。ここで、τが十分小さいものとすれば、
(3.1)式,(3.2)式をTaylor展開して1
次項で近似すると、
Next, an embodiment in which a spatio-temporal differentiation method is applied when extracting a time difference for localizing a sound source according to the present invention will be described. As shown in FIG. 32, a sound source is indicated by S, a pair of left and right microphones installed at an equal distance d from the center point 0 is indicated by ML and MR, an angle between the center point 0 and the sound source S is θ, and a distance is indicated by θ. D, the acoustic signals received by the microphones ML and MR are f L (t) and f L (t), respectively.
When f R (t) and a virtual signal at the center 0 are represented by f 0 (t), f L (t) = f 0 (t−τ) (3.1) f R (t) = f 0 (t + τ) (3.2) Here, τ represents a time difference between f L (t) and f R (t). Here, if τ is small enough,
Formulas (3.1) and (3.2) are Taylor-expanded to 1
Approximating with the next term,

【数47】 となる。[Equation 47] Becomes

【0076】ここで、時空間微分法により時間差τを求
める場合、演算量を少くして雑音に強くする必要があ
る。そこで、「ある一定の時間内(t1〜tm)では時間
差τは一定である」と仮定し、最小二乗法により解の安
定を図る。つまり、
Here, when obtaining the time difference τ by the spatio-temporal differentiation method, it is necessary to reduce the amount of calculation and to be strong against noise. Therefore, it is assumed that the time difference τ is constant within a certain time (t 1 to tm), and the solution is stabilized by the least square method. That is,

【数48】 を、求める時間差τ1とする。ここで、(3.9)式が
安定して求まるには、(3.9)式の分母が零より十分
大きい必要がある。また、(3.8)式における評価関
数Jは最適条件において、
[Equation 48] Is the time difference τ1 to be obtained. Here, in order to stably obtain the expression (3.9), the denominator of the expression (3.9) needs to be sufficiently larger than zero. Further, the evaluation function J in the equation (3.8) is obtained under the optimum condition.

【数49】 と書ける。この式の値は残留誤差を表すから、音響信号
に含まれる雑音の大きさ等の判断基準となりうる。
[Equation 49] I can write Since the value of this equation represents a residual error, it can be a criterion for determining the magnitude of noise included in the audio signal.

【0077】以上の本発明の実施の形態について以下説
明する。図33〜図35はその実施の形態を示す。図3
3において、111,112は計測対象である音源AO
Bに対して方位角θで正対する左右一対のマイクロフォ
ンであり、角度制御部113により方位角θが制御され
る。両マイクロフォン111,112で集音された音響
信号は、時間差演算/自己評価量演算部120に入力さ
れ、時間差τ1、自己評価量JDET,JERR,JRESが演
算される。自己判断/制御論理部140にはそれらの信
号が入力され、自己評価量JDET,JERRにより演算部1
20での演算を評価し、予め定めた評価に達っしていな
い場合には、方位角θを制御して分解能を高めて所定の
評価が得られるようにする。そして、そのときの時間差
τ1を最終データとして出力する。
The above embodiment of the present invention will be described below. 33 to 35 show the embodiment. FIG.
3, reference numerals 111 and 112 denote sound sources AO to be measured.
The microphone is a pair of left and right microphones directly facing B at an azimuth angle θ, and the azimuth angle θ is controlled by the angle control unit 113. The sound signals collected by the microphones 111 and 112 are input to the time difference calculation / self-evaluation amount calculation unit 120, and the time difference τ1 and the self-evaluation amounts J DET , J ERR and J RES are calculated. These signals are input to the self-judgment / control logic unit 140, and the arithmetic unit 1 is calculated based on the self-evaluation amounts J DET and J ERR.
The operation at 20 is evaluated, and if the predetermined evaluation is not reached, the azimuth angle θ is controlled to increase the resolution so that a predetermined evaluation can be obtained. Then, the time difference τ1 at that time is output as final data.

【0078】次に、時間差演算/自己評価量演算部12
0を図34に基づいて説明する。マイクロフォン11
1,112からの信号fL(t),fR(t)はアンプ1
31,132にそれぞれ入力される。アンプ131,1
32の出力は減算器133および加算器134にそれぞ
れ入力され、
Next, the time difference calculation / self-evaluation amount calculation unit 12
0 will be described with reference to FIG. Microphone 11
The signals f L (t) and f R (t) from
31 and 132 respectively. Amplifier 131, 1
32 is input to a subtractor 133 and an adder 134, respectively.

【数50】 を演算し、時間差τ1として出力するとともに、その信
号が乗算回路144に入力される。その乗算回路144
には信号Stdも入力されているから、
[Equation 50] Is calculated and output as the time difference τ1, and the signal is input to the multiplication circuit 144. The multiplication circuit 144
Also receives the signal Std,

【数51】 が演算され、差回路145に入力される。(Equation 51) Is input to the difference circuit 145.

【数52】 を演算し、自己評価量JRESを出力する。この自己評価
量JRESは比回路146にも入力されている。比回路1
46には信号Stt=JDETも入力されており、両入力
信号に対して、
[Equation 52] And outputs the self-evaluation amount J RES . The self-evaluation amount J RES is also input to the ratio circuit 146. Ratio circuit 1
46, a signal Stt = J DET is also input.

【数53】 を演算し、自己評価量JERRが得られる。(Equation 53) Is calculated, and a self-evaluation amount J ERR is obtained.

【0079】次に、自己判断/制御論理部140につい
て説明する。これは図35に示すソフトウエアの形態で
実現される。まず、手順P61では、自己評価量JDET
≧閾値SS6か否かを判定する。肯定判定されると手順
P62に進み、JERR≦閾値SS7か否かを判定する。
肯定判定されると手順P63において、時間差τ1を出
力する。手順P61または手順P62が否定判定される
と手順P64に進み方位角制御部113を駆動して方位
角θを制御する。以上のようにして得られた時間差τ1
に基づいて音源AOBを定位することができる。
Next, the self-judgment / control logic unit 140 will be described. This is realized in the form of software shown in FIG. First, in procedure P61, the self-evaluation amount J DET
It is determined whether or not ≧ threshold SS6. If an affirmative determination is made, the process proceeds to step P62 where it is determined whether J ERR ≤ threshold value SS7.
If an affirmative determination is made, a time difference τ1 is output in step P63. When the procedure P61 or the procedure P62 is negatively determined, the process proceeds to a procedure P64 to drive the azimuth control unit 113 to control the azimuth θ. The time difference τ1 obtained as described above
The sound source AOB can be localized based on

【0080】以上説明した本発明の態様においても時間
差τ1を、図34に示す多段並列演算回路により実時間
で抽出できる。また、その抽出過程で演算された自己評
価量JDET,JERRにより抽出された時間差情報を評価し
てその有効、無効を判定し、有効な時間差τ1のみとり
出す。従って、雑音等による精度の悪い情報が排除さ
れ、時空間微分法による時間差抽出が可能となる。
In the embodiment of the present invention described above, the time difference τ1 can be extracted in real time by the multi-stage parallel operation circuit shown in FIG. Further, the time difference information extracted by the self-evaluation amounts J DET and J ERR calculated in the extraction process is evaluated to determine whether the time difference information is valid or invalid, and only the valid time difference τ1 is extracted. Therefore, inaccurate information due to noise or the like is eliminated, and the time difference can be extracted by the spatiotemporal differentiation method.

【0081】以上、本発明を説明したが、この発明は、
X線透視画像による背景と個々の物体との分離を時空間
微分法により実現する場合、超音波やNMRによる画像
抽出等、光像によらない画像処理の分野にも十分適用で
きる。
The present invention has been described above.
When the separation of the background from an individual object by the X-ray fluoroscopic image is realized by the spatio-temporal differentiation method, it can be sufficiently applied to the field of image processing not based on an optical image, such as image extraction by ultrasonic waves or NMR.

【0082】[0082]

【発明の効果】本発明による計測装置によれば、計測音
源から出力された音響信号が一対の集音装置に到達する
までの時間差を所定時間ごとに演算し、演算された時間
差の有効度を判定するための基準となる自己評価量を演
算し、この自己評価量に基づいて時間差の有効度を判定
し、有効度が低いと判断された場合は方位角を変更し、
有効度が高いと判定された場合は時間差に基づいて計測
音源を定位するようにしたので、すなわち、計測音源か
ら出力された音響信号が一対の集音装置に到達するまで
の時間差の有効度が高くなるように一対の集音装置の方
位角を制御するため、計測音源を精度よく定位できる。
According to the measuring device of the present invention, the time difference until the sound signal output from the measurement sound source reaches the pair of sound collecting devices is calculated for each predetermined time, and the effectiveness of the calculated time difference is calculated. Calculate a self-evaluation amount as a reference for determination, determine the validity of the time difference based on this self-evaluation amount, change the azimuth angle if it is determined that the validity is low,
When the effectiveness is determined to be high, the measurement sound source is localized based on the time difference, that is, the effectiveness of the time difference until the acoustic signal output from the measurement sound source reaches the pair of sound collection devices is determined. Since the azimuth angles of the pair of sound collection devices are controlled to be higher, the measurement sound source can be localized with high accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の概念的説明図FIG. 1 is a conceptual explanatory diagram of the present invention.

【図2】本発明の概念的説明図FIG. 2 is a conceptual explanatory diagram of the present invention.

【図3】撮影体と対象物体との位置関係を上方から見た
FIG. 3 is a top view of a positional relationship between a photographing object and a target object.

【図4】図3の左側面から見た図FIG. 4 is a view from the left side of FIG. 3;

【図5】近傍サイズを説明する図FIG. 5 is a diagram illustrating a neighborhood size.

【図6】立体情報を再現する態様の一実施の形態を示す
全体構成図
FIG. 6 is an overall configuration diagram showing an embodiment of a mode for reproducing stereoscopic information.

【図7】撮像カメラと対象物体とを示す斜視図FIG. 7 is a perspective view showing an imaging camera and a target object.

【図8】相対標高/自己評価量演算部の一例を示すブロ
ック図
FIG. 8 is a block diagram illustrating an example of a relative elevation / self-evaluation amount calculation unit.

【図9】相対標高値分類部の一例を示すフローチャートFIG. 9 is a flowchart illustrating an example of a relative elevation value classification unit.

【図10】荷重標高/荷重累積部および標高再現部の一
例を示すブロック図
FIG. 10 is a block diagram showing an example of a load altitude / load accumulating unit and an altitude reproducing unit;

【図11】自己判断/制御論理部の一例を示すフローチ
ャート
FIG. 11 is a flowchart illustrating an example of a self-determination / control logic unit.

【図12】標高バイアスを算出する他の例を示す図FIG. 12 is a diagram illustrating another example of calculating an altitude bias;

【図13】立体像抽出の実験結果を示す図FIG. 13 is a diagram showing an experimental result of stereoscopic image extraction.

【図14】立体像抽出の実験結果を示す図FIG. 14 is a diagram showing an experimental result of stereoscopic image extraction.

【図15】立体像抽出の実験結果を示す図FIG. 15 is a diagram showing experimental results of stereoscopic image extraction.

【図16】立体像が抽出されるくさびを示す図FIG. 16 is a diagram showing a wedge from which a stereoscopic image is extracted.

【図17】立体像抽出の実験結果を示す図FIG. 17 is a diagram showing experimental results of stereoscopic image extraction.

【図18】立体像抽出の実験結果を示す図FIG. 18 is a diagram showing an experimental result of stereoscopic image extraction.

【図19】立体像抽出の実験結果を示す図FIG. 19 is a diagram showing an experimental result of stereoscopic image extraction.

【図20】動画像抽出を行う態様の一実施の形態を示す
全体構成図
FIG. 20 is an overall configuration diagram showing an embodiment of a mode for extracting a moving image;

【図21】速度分布演算部の一例を示すブロック図FIG. 21 is a block diagram illustrating an example of a speed distribution calculation unit.

【図22】自己評価量演算部の一例を示すブロック図FIG. 22 is a block diagram illustrating an example of a self-evaluation amount calculation unit.

【図23】平滑化回路の一例を示すブロック図FIG. 23 is a block diagram illustrating an example of a smoothing circuit.

【図24】速度ベクトル分類部の一例を示すフローチャ
ート
FIG. 24 is a flowchart illustrating an example of a velocity vector classification unit.

【図25】自己判断/制御論理部の一例を示すフローチ
ャート
FIG. 25 is a flowchart illustrating an example of a self-determination / control logic unit.

【図26】動画像抽出の実験結果を示す図FIG. 26 is a view showing experimental results of moving image extraction;

【図27】動画像抽出の実験結果を示す図FIG. 27 is a diagram showing experimental results of moving image extraction;

【図28】動画像抽出の実験結果を示す図FIG. 28 is a diagram showing an experimental result of moving image extraction.

【図29】動画像抽出の実験結果を示す図FIG. 29 is a view showing experimental results of moving image extraction;

【図30】動画像抽出の実験結果を示す図FIG. 30 is a view showing experimental results of moving image extraction;

【図31】動画像抽出の実験結果を示す図FIG. 31 is a diagram showing experimental results of moving image extraction;

【図32】本発明を音源定位に供される時間差抽出に適
用した態様における音源とマイクロフォンとの位置関係
を示す図
FIG. 32 is a diagram showing a positional relationship between a sound source and a microphone in a mode in which the present invention is applied to time difference extraction used for sound source localization.

【図33】本発明の一実施の形態を示す全体構成図FIG. 33 is an overall configuration diagram showing an embodiment of the present invention.

【図34】時間差/自己評価量演算部の一例を示すブロ
ック図
FIG. 34 is a block diagram illustrating an example of a time difference / self-evaluation amount calculation unit.

【図35】自己判断/制御論理部の一例を示すフローチ
ャート
FIG. 35 is a flowchart illustrating an example of a self-determination / control logic unit;

【符号の説明】[Explanation of symbols]

111,112 集音装置 113 角度制御部 120 時間差演算/自己評価量演算部 140 自己判断/制御論理部 500 演算手段 501 判定手段 502 センサ 503 演算手段 504 判定手段 505 制御手段 111, 112 sound collecting device 113 angle control unit 120 time difference calculation / self-evaluation amount calculation unit 140 self-judgment / control logic unit 500 calculation unit 501 determination unit 502 sensor 503 calculation unit 504 determination unit 505 control unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // G01S 3/782 9061−5H G06F 15/70 410 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location // G01S 3/782 9061-5H G06F 15/70 410

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 一対の集音装置の方位角を制御して計測
音源を定位する時空間微分法を用いた計測装置であっ
て、 前記計測音源から出力された音響信号が前記一対の集音
装置に到達するまでの時間差を所定時間ごとに演算する
時間差演算手段と、 前記演算された時間差の有効度を判定するための基準と
なる自己評価量を演算する自己評価量演算手段と、 前記演算された自己評価量に基づいて、前記演算された
時間差の有効度を判定する判定手段と、 前記有効度が低いと判定された場合に前記方位角を変更
する方位角制御手段と、 前記有効度が高いと判定された前記時間差に基づいて前
記計測音源を定位する音源定位手段とを備えることを特
徴とする時空間微分法を用いた計測装置。
1. A measurement device using a spatiotemporal differentiation method for localizing a measurement sound source by controlling an azimuth angle of a pair of sound collection devices, wherein an acoustic signal output from the measurement sound source is a pair of the sound collection devices. A time difference calculating means for calculating a time difference until reaching the device every predetermined time; a self-evaluation amount calculating means for calculating a self-evaluation amount serving as a reference for determining the effectiveness of the calculated time difference; Determining means for determining the validity of the calculated time difference based on the calculated self-evaluation amount; azimuth control means for changing the azimuth when the validity is determined to be low; And a sound source localization means for localizing the measurement sound source based on the time difference determined to be high.
JP8114957A 1996-05-09 1996-05-09 Measurement device using spatio-temporal differentiation method Expired - Lifetime JP2641417B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8114957A JP2641417B2 (en) 1996-05-09 1996-05-09 Measurement device using spatio-temporal differentiation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8114957A JP2641417B2 (en) 1996-05-09 1996-05-09 Measurement device using spatio-temporal differentiation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP61170882A Division JP2543505B2 (en) 1986-07-22 1986-07-22 Signal processing device and measuring device using space-time differential method

Publications (2)

Publication Number Publication Date
JPH0926473A true JPH0926473A (en) 1997-01-28
JP2641417B2 JP2641417B2 (en) 1997-08-13

Family

ID=14650836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8114957A Expired - Lifetime JP2641417B2 (en) 1996-05-09 1996-05-09 Measurement device using spatio-temporal differentiation method

Country Status (1)

Country Link
JP (1) JP2641417B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162461A (en) * 2004-12-08 2006-06-22 Institute Of Physical & Chemical Research Sound source position detection apparatus and method
WO2008092138A1 (en) * 2007-01-26 2008-07-31 Microsoft Corporation Multi-sensor sound source localization
JP2009068989A (en) * 2007-09-13 2009-04-02 Nec Corp Active sonar device and reverberation removal method by the same
US8054078B2 (en) 2006-07-12 2011-11-08 Ge Medical Systems Global Technology Company, Llc Parallel imaging method and MRI apparatus
JP2014049854A (en) * 2012-08-30 2014-03-17 Honda Motor Co Ltd Artificial movable ear device and method for specifying sound source direction
CN112904275A (en) * 2021-01-21 2021-06-04 武汉大学 Short wave sky wave propagation time difference positioning method based on Taylor series linear distance

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162461A (en) * 2004-12-08 2006-06-22 Institute Of Physical & Chemical Research Sound source position detection apparatus and method
US8054078B2 (en) 2006-07-12 2011-11-08 Ge Medical Systems Global Technology Company, Llc Parallel imaging method and MRI apparatus
WO2008092138A1 (en) * 2007-01-26 2008-07-31 Microsoft Corporation Multi-sensor sound source localization
JP2009068989A (en) * 2007-09-13 2009-04-02 Nec Corp Active sonar device and reverberation removal method by the same
JP2014049854A (en) * 2012-08-30 2014-03-17 Honda Motor Co Ltd Artificial movable ear device and method for specifying sound source direction
CN112904275A (en) * 2021-01-21 2021-06-04 武汉大学 Short wave sky wave propagation time difference positioning method based on Taylor series linear distance
CN112904275B (en) * 2021-01-21 2022-06-07 武汉大学 Short wave sky wave propagation time difference positioning method based on Taylor series linear distance

Also Published As

Publication number Publication date
JP2641417B2 (en) 1997-08-13

Similar Documents

Publication Publication Date Title
JP2543505B2 (en) Signal processing device and measuring device using space-time differential method
JP4467838B2 (en) Image recognition apparatus and image recognition method
KR100886439B1 (en) Estimation System, Estimation Method, and Estimation Program for Estimating Object Condition
CN101441076B (en) Method and device for detecting barrier
JP3054681B2 (en) Image processing method
Malciu et al. A robust model-based approach for 3d head tracking in video sequences
US8848035B2 (en) Device for generating three dimensional surface models of moving objects
KR20010042659A (en) Face recognition from video images
CN106846372B (en) Human motion quality visual analysis and evaluation system and method thereof
CN118397588B (en) Camera scene analysis method, system, equipment and medium for intelligent driving automobile
JP2641417B2 (en) Measurement device using spatio-temporal differentiation method
Dardelet et al. An event-by-event feature detection and tracking invariant to motion direction and velocity
EP0643368A2 (en) Object movement estimator using one-dimensional optical flow
CN114184127B (en) Single-camera target-free building global displacement monitoring method
JP2736320B2 (en) Measurement device using spatiotemporal differentiation method
Tan et al. Target-free vision method for planar displacement measurement of structures subjected to out-of-plane movement by UAV
Bruyelle et al. Direct range measurement by linear stereovision for real-time obstacle detection in road traffic
JPH05312819A (en) Speed detecting device for moving object
CN119296136A (en) Method and device for automatic annotation of millimeter wave radar point cloud imaging network model based on binocular camera
CN115797400B (en) A method for long-term target tracking in a multi-unmanned system
JP2001183133A (en) Three-dimensional shape measuring apparatus and method, and recording medium
JP5230354B2 (en) POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE
CN120580260B (en) Moving object detection method and segmentation method of event camera and electronic equipment
Liu et al. Two-frame multi-scale optical flow estimation using wavelet decomposition
Ohmura et al. Method of detecting face direction using image processing for human interface