[go: up one dir, main page]

JPH06138137A - Moving-object extraction apparatus - Google Patents

Moving-object extraction apparatus

Info

Publication number
JPH06138137A
JPH06138137A JP28795192A JP28795192A JPH06138137A JP H06138137 A JPH06138137 A JP H06138137A JP 28795192 A JP28795192 A JP 28795192A JP 28795192 A JP28795192 A JP 28795192A JP H06138137 A JPH06138137 A JP H06138137A
Authority
JP
Japan
Prior art keywords
contour
extracting
tracking
movement
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP28795192A
Other languages
Japanese (ja)
Other versions
JP3288086B2 (en
Inventor
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP28795192A priority Critical patent/JP3288086B2/en
Publication of JPH06138137A publication Critical patent/JPH06138137A/en
Application granted granted Critical
Publication of JP3288086B2 publication Critical patent/JP3288086B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Indicating Or Recording The Presence, Absence, Or Direction Of Movement (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 本発明は、動物体の輪郭形状とその動きを安
定して抽出することのできる動物体抽出装置を提供する
ことを目的とする。 【構成】 本発明の動物体抽出装置は、供給される画像
情報から動きのある物体を検出し、その輪郭を抽出する
輪郭抽出手段と、この輪郭抽出手段で抽出された輪郭を
対象として設けられる複数の輪郭追跡手段と、この複数
の輪郭追跡手段の形状とその動きから当該物体の輪郭形
状と動きとを求める動物体抽出手段とを備えて構成され
る。
(57) [Summary] [Object] An object of the present invention is to provide a moving object extraction apparatus capable of stably extracting the contour shape of an moving object and its movement. A moving object extracting apparatus of the present invention is provided with a contour extracting unit that detects a moving object from the supplied image information and extracts the contour thereof, and a contour extracted by the contour extracting unit. It comprises a plurality of contour tracking means and a moving object extraction means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracking means.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された画像中で、
動きのある物体の輪郭形状とその動きを同時にかつ安定
に抽出する動物体抽出装置に関するものである。
BACKGROUND OF THE INVENTION The present invention is
The present invention relates to a moving object extraction device that extracts a contour shape of a moving object and its movement simultaneously and stably.

【0002】[0002]

【従来の技術】近年、画像中から動きのある物体(以
下、単に動物体という)を抽出する技術は、動物体を認
識するための、前処理として重要な要素技術である。こ
れまでに、様々な動物体抽出方法が提案されてきた。こ
れらの基本的な考えは、先ず、動物体の動きを検出し、
この検出された動物体の動きに係る情報から、或いは他
の特徴(エッジ、カラー、テクスチャなど)により抽出
された物体領域情報と加味された情報から、当該動物体
領域の抽出を試みようとするものであった。
2. Description of the Related Art In recent years, a technique for extracting a moving object (hereinafter, simply referred to as a moving object) from an image is an important elemental technique as preprocessing for recognizing the moving object. Various animal body extraction methods have been proposed so far. The basic idea is to detect the movement of the moving body,
An attempt is made to extract the moving object area from the information on the detected movement of the moving object or from the information combined with the object area information extracted by other features (edge, color, texture, etc.). It was a thing.

【0003】例えば、動きを検出する代表的な手法に
は、画像間相関を用いた方法(立川、稲葉、井上:高速
相関演算機能をもつビジョンシステム(第2報:実時間
トラッキング処理への応用)、第9回日本ロボット学術
講演会予稿集(1991)) 、他に、特定カラー、角などの特
徴点の対応付けより動きを求める方法(福井、久保田、
溝口、石川:風船お手玉ロボットの視覚処理、第5回産
業における画像センシング技術シンポジム予稿集、pp.9
1-96(1990))、オプティカルフローによる方法(千葉、
小沢:ノイズを含んだ画像からのオプティカルフローの
検出、電子情報通信学会論文誌、Vol.j73-D-II, No.12,
pp.1952-1959(1990))、さらに、差分による方法、時空
間に展開して求める方法(間瀬:非エピポーラ面画像に
おける物体速度の推定、コンピュータビジョン研究会、
CV-71,pp1-8(1991) )等が挙げられる。
For example, a typical method for detecting motion is a method using inter-image correlation (Tachikawa, Inaba, Inoue: Vision system with high-speed correlation calculation function (2nd report: application to real-time tracking processing). ), Proceedings of the 9th Annual Conference on Robotics in Japan (1991)), and other methods (Fukui, Kubota, Fukui, Kubota,
Mizoguchi, Ishikawa: Visual processing of balloon beanbag robot, 5th Symposium of image sensing technology in industry, Proceedings, pp.9
1-96 (1990)), optical flow method (Chiba,
Ozawa: Detection of optical flow from noisy images, IEICE Transactions, Vol.j73-D-II, No.12,
pp.1952-1959 (1990)), and further, the method by difference, the method of expanding in space and time (Mase: Estimation of object velocity in non-epipolar plane image, Computer Vision Research Group,
CV-71, pp1-8 (1991)) and the like.

【0004】また、精度良く動物体領域を抽出するため
には、この動き情報を正確かつ密に検出する必要があ
る。しかし、実際の画像では、本来、3次元の画像情報
を有する物体が2次元面に投影される際に、情報の欠落
やノイズの混入が生じ、さらには検出される動き情報に
は誤差が含まれる場合が多い。また、他の特徴の抽出に
関しても、常にうまく求め得るとも限らない。例えば、
ソーベルオペレータのような単純な手法では、照明の加
減や、背景の状況により、途切れてエッジが抽出された
り、背景のエッジを抽出してしまうこともある。したが
って、抽出される領域も不正確となる。
Further, in order to accurately extract the moving body region, it is necessary to detect this motion information accurately and densely. However, in an actual image, originally, when an object having three-dimensional image information is projected on a two-dimensional surface, information loss and noise mixing occur, and further, the detected motion information includes an error. In many cases Further, the extraction of other features may not always be successful. For example,
With a simple method such as a Sobel operator, an edge may be intermittently extracted or an edge of the background may be extracted depending on the amount of lighting and the condition of the background. Therefore, the extracted region is also inaccurate.

【0005】そこで、予め用意された動的な輪郭モデ
ル、例えばスネーク曲線に、力学系でのエネルギ最小化
問題を適用して、物体の輪郭にフィットさせる方法が、
Kassらによって提案された(M.Kass,A.Witkin,D.Terzop
ouls,"Snakes:Active ContourModels",In Proc. 1st In
t.Conf.on Computer Vision,pp.259-268(1987) )。
Therefore, there is a method of fitting the contour of an object by applying the energy minimization problem in a dynamic system to a dynamic contour model prepared in advance, for example, a snake curve.
Proposed by Kass et al. (M. Kass, A. Witkin, D. Terzop
ouls, "Snakes: Active ContourModels", In Proc. 1st In
t.Conf.on Computer Vision, pp.259-268 (1987)).

【0006】これは、Active Contour Models (Snakes)
と呼ばれ、動物体の輪郭形状と動きを同時に抽出できる
ものである。すなわち、この手法は、画像中の輪郭上で
最小になるよなエネルギ関数を定義して、画像中の対象
物からの輪郭抽出問題を、弛緩法を用いたエネルギ関数
の最小化問題に変換して解く手法である。動物体領域抽
出には、有効な手法である。また、このときのエネルギ
関数Eは、以下の様に定義される。
This is the Active Contour Models (Snakes)
It is capable of extracting the contour shape and movement of a moving object at the same time. That is, this method defines an energy function that minimizes on the contour in the image, and converts the contour extraction problem from the object in the image into the energy function minimization problem using the relaxation method. It is a method of solving. This is an effective method for extracting the moving body region. Further, the energy function E at this time is defined as follows.

【0007】 E=Σ(Eint (vi)+Eimage (vi)+Eext (vi)) (1) ここで、Eint (vi)は、スネーク曲線自身が滑らかに成
ろうとする力(内部エネルギー)、Eimage (vi)は、画
像特徴(線、エッジ、色など)に引き寄せられる力(画
像エネルギー)、Eext (vi)は、外部からの強制力(外
部エネルギー)となる。
E = Σ (E int (vi) + E image (vi) + E ext (vi)) (1) Here, E int (vi) is the force (internal energy) that the snake curve itself tries to make smoothly. , E image (vi) is a force (image energy) attracted to an image feature (line, edge, color, etc.), and E ext (vi) is a forcing force (external energy) from the outside.

【0008】別の観点から見ると、Snakeモデルは、拘
束条件下でスプライン関数を求める手法とも考えられ
る。スネークは、n点の離散的な点列Vi =(Xi ,Y
i )(i=0,n)から成る閉曲線で構成される。物理
的な表現をすると、ある程度剛性を有する針金を、エッ
ジに引き付けられる力で序々に変形させる過程に例えら
れる。引き付けられる力と針金自身が持つ復元力が釣り
合った状態が、エネルギ最小化の状態である。外部エネ
ルギは、外部から加わる拘束力であるが、外部からこの
ような力が加わらない場合は、考慮しない。
From another point of view, the Snake model can be considered as a method for obtaining a spline function under constraint conditions. Snake is a discrete point sequence of n points V i = (X i , Y
i ) (i = 0, n). In terms of physical expression, it is likened to a process in which a wire having a certain degree of rigidity is gradually deformed by a force attracted to an edge. Energy is minimized when the attractive force and the restoring force of the wire itself are balanced. The external energy is a restraining force applied from the outside, but if such a force is not applied from the outside, it is not considered.

【0009】このスネークは、エネルギ関数の最小化問
題を弛緩法で解くため、非常に計算量が多い、この計算
を動的計画法で解く手法も開発されているが、リアルタ
イムに処理するのは、容易ではない。また、スネーク曲
線自身の滑らかになろうとする度合(以下、剛性と呼
ぶ)は、内部エネルギ関数内のパラメタで定義されるの
で、これを最適に決定する必要がある。細かい凹凸輪郭
を抽出する時と、荒い凹凸輪郭を抽出するときでは、剛
性のパラメータを変化させる必要があり、計算量もさら
に増加する。
Since this snake solves the energy function minimization problem by the relaxation method, a very large amount of calculation is required. A method of solving this calculation by dynamic programming has been developed, but it is processed in real time. ,It's not easy. Further, the degree to which the snake curve itself tends to be smooth (hereinafter referred to as rigidity) is defined by a parameter in the internal energy function, and therefore it is necessary to optimally determine this. The stiffness parameter needs to be changed when extracting a fine uneven contour and when extracting a rough uneven contour, which further increases the amount of calculation.

【0010】そこで、これらの問題を解決するために、
コンピュータグラフィックスの分野で曲線を表現するの
に良く使われるBスプライン曲線、ベッイエ曲線を導入
したBスプラインスネーク(B-Spline snake ;R. Cip
olla, A. Blake, “The dynamic Analysis of Apparent
Conours” In Proc. 3st Int. Conf.on.Computer Vis
ion, pp616-623(1990))が開発された。
Therefore, in order to solve these problems,
B-Spline snake (R. Cip), which introduces B-spline curves and Bezier curves that are often used to express curves in the field of computer graphics.
olla, A. Blake, “The dynamic Analysis of Apparent
Conours ”In Proc. 3st Int. Conf.on. Computer Vis
ion, pp616-623 (1990)) was developed.

【0011】このBスプラインスネークは、従来のスネ
ークに比べて、収束繰り返し計算を行なわないため処理
が軽く、リアルタイム処理が可能である。図1に、Bス
プラインスネークの概略図を示す。
Compared to the conventional snake, the B-sprain snake does not perform the convergent repetitive calculation, so the processing is light and the real-time processing is possible. FIG. 1 shows a schematic view of B sprain snake.

【0012】具体的な処理は、以下の5段階から成る。The concrete processing consists of the following five steps.

【0013】ステップ1.初期値として、幾つかの制御
点を与える。
Step 1. Several control points are given as initial values.

【0014】ステップ2.この制御点で表されるベッイ
エ曲線(あるいは、Bスプライン曲線)上の座標X
(s)、Y(s)を次式で計算する。ここで、sは、曲
線上で定義されたパラメータである。
Step 2. Coordinate X on the Bezier curve (or B-spline curve) represented by this control point
(S) and Y (s) are calculated by the following equations. Here, s is a parameter defined on the curve.

【0015】[0015]

【数1】 なお、nは、制御点の総数、Qixは、制御点iのX座
標、Qiyは制御点iのY座標、Bi (s)は、n次混合
関数或いはBスプライン基本関数を表す。
[Equation 1] Note that n is the total number of control points, Q ix is the X coordinate of the control point i, Q iy is the Y coordinate of the control point i, and B i (s) is the nth-order mixing function or B spline basic function.

【0016】[0016]

【数2】 ステップ3.各サンプル点において、曲線の垂直方向に
関して、最も強いエッジ(濃度勾配が最も大きい領域)
を探索する。自分自身と、このエッジまでの距離を移動
距離として、全サンプル点に対して求める。
[Equation 2] Step 3. The strongest edge in the vertical direction of the curve at each sample point (the area with the largest concentration gradient)
To explore. The distance between itself and this edge is taken as the movement distance, and is calculated for all sample points.

【0017】ステップ4.各サンプルs点の移動量(d
sx,dsy)から、次式を最小とするQix、Qiyを最小2
乗法を適用して求め、新しい制御点iまでの移動量とす
る。
Step 4. Amount of movement of each sample s point (d
sx , d sy ), the minimum of Q ix and Q iy that minimizes the following equation is 2
The multiplication is applied to obtain the amount of movement to the new control point i.

【数3】 ここで、mは、曲線上のサンプル点総数である。[Equation 3] Here, m is the total number of sample points on the curve.

【0018】ステップ5.制御点のみを3.で求めた移
動量だけ移動させる。
Step 5. Control points only 3. Move by the amount of movement obtained in.

【0019】ステップ6.ステップ2.へ戻る。Step 6. Step 2. Return to.

【0020】[0020]

【発明が解決しようとする課題】しかしながら、Bスプ
ラインスネークも含め従来の手法では、実画像で使用す
る際に、以下の3つの解決すべき問題点があった。
However, the conventional methods including B spline snake have the following three problems to be solved when used in an actual image.

【0021】第1は、背景画像が複雑でエッジを多く含
む場合には、うまく対象物の輪郭のみを抽出できない点
である。これは、スネークが画像中で、自分自身に最も
近いエッジ(濃度勾配が最も大きい領域)を単純に探索
・抽出しているからである。物体の輪郭より強いエッジ
を含まない単純な背景画像に対しては、動物体の輪郭を
うまく抽出できるが、動物体の輪郭より濃度勾配が大き
い勾配を持つエッジが、近くに存在する場合、それらの
エッジを誤って抽出してしまう。これは、動く物体の輪
郭を追跡する上では、大きな問題となる。
First, when the background image is complicated and has many edges, only the outline of the object cannot be extracted well. This is because Snake simply searches for and extracts the edge closest to itself (the area with the largest density gradient) in the image. For a simple background image that does not include edges that are stronger than the contour of the object, the contour of the moving object can be extracted well, but if there are edges with a density gradient greater than the contour of the moving object in the vicinity, The edges of will be mistakenly extracted. This is a big problem in tracking the contour of a moving object.

【0022】第2は、状況によっては、剛性が適切でな
く、微小な動きに対してもノイズの影響を受けやすくな
るという点である。
Second, depending on the situation, the rigidity is not appropriate, and even a minute movement is easily affected by noise.

【0023】先に述べたようにBスプラインスネーク
は、剛性をベッイエ曲線、あるいは、スプライン曲線で
表現している。そのため、剛性に関するパラメータの調
整は必要ないものの、例えば対象物の一部が見えなくな
る、形状が急激に変化する、画像中のノイズを受けると
いうような状況では、スネークは、その変化に敏感に反
応して、輪郭形状を急激に変形してしまうことになる。
As described above, the B spline snake expresses the rigidity by the Beyer curve or the spline curve. Therefore, although it is not necessary to adjust the parameters related to rigidity, Snake reacts sensitively to such changes in situations where, for example, a part of the object becomes invisible, the shape changes abruptly, or noise in the image is received. Then, the contour shape is suddenly deformed.

【0024】したがって、場合によっては、スネークは
振動を開始して、最終的には発振して、動物体の輪郭形
状をうまく保持できなくなる問題があった。この問題に
関しては、剛体の振動解析と同様に複数の振動モードが
存在するとして報告されている(稲川、Pentland,Sclar
off 、アクティブモデルを用いた形状推定における拘束
条件決定手法: Correspondence in “3D Shape Reconst
ruction for ActiveModels”,PRU91-58(1991) )。
Therefore, in some cases, there is a problem that the snake starts to vibrate and finally oscillates, making it difficult to maintain the contour shape of the moving body. Regarding this problem, it is reported that there are multiple vibration modes similar to the vibration analysis of a rigid body (Inagawa, Pentland, Sclar.
off, Correspondence determination method in shape estimation using active model: Correspondence in “3D Shape Reconst
ruction for ActiveModels ”, PRU91-58 (1991)).

【0025】第3は、従来のスネークに比較して計算量
が多くなる場合がある。Bスプラインスネークは、従来
のスネークに比較して計算量は少ないが、それでも複雑
な形状を細部まで忠実に抽出する場合、サンプル点、制
御点の数を増やす必要があり、それに伴って計算量が増
大してリアルタイム処理ができなくなる点である。
Third, the amount of calculation may be larger than that of the conventional snake. B-Sprain Snake has a smaller amount of calculation than the conventional Snake, but it still needs to increase the number of sample points and control points when extracting a complicated shape faithfully in detail, and the amount of calculation is accordingly increased. The point is that the number increases and real-time processing becomes impossible.

【0026】本発明は、上記課題に鑑みてなされたもの
で、背景画像、Bスプラインスネークの剛性、さらには
対象となる動物体の形状に拘らず、入力された画像中の
動物体の輪郭形状とその動きを同時にかつ安定に抽出す
ることのできる動物体抽出装置を提供することを目的と
する。
The present invention has been made in view of the above-mentioned problems, and the contour shape of the moving object in the input image is irrespective of the background image, the rigidity of B spline snake, and the shape of the target moving object. It is an object of the present invention to provide an animal body extracting device capable of extracting both and its movements simultaneously and stably.

【0027】[0027]

【課題を解決するための手段】上記目的を達成するため
本願第1の発明は、供給される画像情報から動きのある
物体を検出し、その輪郭を抽出する輪郭抽出手段と、こ
の輪郭抽出手段で抽出された輪郭を対象として設けられ
る複数の輪郭追跡手段と、この複数の輪郭追跡手段の形
状とその動きから当該物体の輪郭形状と動きとを求める
動物体抽出手段とを有すること要旨とする。
In order to achieve the above object, the first invention of the present application is a contour extracting means for detecting a contour of a moving object from the supplied image information and a contour thereof, and the contour extracting means. It has a plurality of contour tracking means provided for the contours extracted in 1. and a moving object extracting means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracing means. .

【0028】また、本願第2の発明は、供給される画像
情報から動きのある物体を検出し、その輪郭を抽出する
輪郭抽出手段と、この輪郭抽出手段で抽出された輪郭を
対象として設けられ、それぞれ当該輪郭の特定方向の動
きにのみ反応する複数の輪郭追跡手段と、この複数の輪
郭追跡手段の内、異なる特定方向の動きに反応する少な
くとも2つの輪郭追跡手段を対として、それぞれ相互に
異なる特定方向の動きに係る情報を補間する補間手段
と、前記複数の輪郭追跡手段の形状とその動きから当該
物体の輪郭形状と動きとを求める動物体抽出手段とを有
することを要旨とする。
The second aspect of the present invention is provided with a contour extracting means for detecting a moving object from the supplied image information and extracting the contour thereof, and a contour extracted by the contour extracting means. , A plurality of contour tracking means each responding only to a movement of the contour in a specific direction, and at least two contour tracking means reacting to a movement in a different specific direction among the plurality of contour tracking means are paired with each other. It is summarized that it has an interpolating means for interpolating information relating to movements in different specific directions, and a moving object extracting means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracking means.

【0029】また、本願第3の発明は、供給される画像
情報から動きのある物体を検出し、その輪郭を抽出する
輪郭抽出手段と、この輪郭抽出手段で抽出された輪郭を
対象として設けられ、それぞれ当該輪郭の特定方向の動
きにのみ反応する複数の輪郭追跡手段と、この複数の輪
郭追跡手段の内、異なる特定方向の動きに反応する少な
くとも2つの輪郭追跡手段を対として、相互に当該輪郭
追跡手段の動きを拘束する拘束手段と、前記複数の輪郭
追跡手段の形状とその動きから当該物体の輪郭形状と動
きとを求める動物体抽出手段とを有することを要旨とす
る。
Further, the third invention of the present application is provided with a contour extracting means for detecting a moving object from the supplied image information and extracting the contour thereof, and a contour extracted by the contour extracting means. , A plurality of contour tracking means each responding only to a movement of the contour in a specific direction and at least two contour tracking means reacting to a movement in a different specific direction among the plurality of contour tracking means are paired with each other. The gist is to have a restraint means for restraining the movement of the contour tracing means, and a moving object extracting means for obtaining the contour shape and the movement of the object from the shapes and movements of the plurality of contour tracing means.

【0030】さらに、本願第4の発明は、供給される画
像情報から動きのある物体を検出し、その輪郭を抽出す
る輪郭抽出手段と、この輪郭抽出手段で抽出された輪郭
を対象として設けられる複数の輪郭追跡手段と、この複
数の輪郭追跡手段で囲繞される領域内に任意の点を設定
する任意点設定手段と、この任意点設定手段で設定され
る任意点と前記複数の輪郭追跡手段の各輪郭追跡手段と
の間に設けられ当該輪郭追跡手段の動きを拘束する拘束
手段と、複数の輪郭追跡手段の形状とその動きから当該
物体の輪郭形状と動きとを求める動物体抽出手段とを有
することを要旨とする。
Further, the fourth invention of the present application is provided with the contour extracting means for detecting a moving object from the supplied image information and extracting the contour thereof, and the contour extracted by the contour extracting means. A plurality of contour tracking means, an arbitrary point setting means for setting an arbitrary point in an area surrounded by the plurality of contour tracking means, an arbitrary point set by the arbitrary point setting means, and the plurality of contour tracking means Restraining means provided between the contour tracing means for restraining the movement of the contour tracing means, and a moving body extracting means for obtaining the contour shape and the movement of the object from the shapes of the plurality of contour tracing means and their movements. It is a gist to have.

【0031】[0031]

【作用】本願第1の発明の動物体抽出装置は、供給され
る画像情報から動きのある物体を検出し、抽出された輪
郭を対象として複数の輪郭追跡手段を設け、この輪郭追
跡手段の一部の特異な反応が他に及ばないようにした上
で、この複数の輪郭追跡手段の形状とその動きから当該
物体の輪郭形状と動きとを求めるようにしたものであ
る。また、複数の輪郭追跡手段としていることから並列
処理を行うことが可能であり、また個々の輪郭追跡手段
が小さいことから処理負担を軽減することができ、その
ためリアルタイム処理が可能となる。
The moving object extracting apparatus according to the first invention of the present application detects a moving object from the supplied image information and provides a plurality of contour tracing means for the extracted contours. The unique reaction of a part is prevented from affecting other parts, and the contour shape and movement of the object are obtained from the shapes and movements of the plurality of contour tracking means. Further, since a plurality of contour tracking means are used, it is possible to perform parallel processing, and since each contour tracking means is small, the processing load can be reduced, and therefore real-time processing is possible.

【0032】本願第2の発明の動物体抽出装置は、それ
ぞれ当該輪郭の特定方向の動きにのみ反応する複数の輪
郭追跡手段の内、異なる特定方向の動きに反応する少な
くとも2つの輪郭追跡手段を対として、それぞれ相互に
異なる特定方向の動きに係る情報を補間することで全輪
郭を安定して抽出し得るようにしたものである。
The moving object extracting apparatus according to the second aspect of the present invention includes at least two contour tracking means that respond to movements in different specific directions among a plurality of contour tracking means that respond only to movements of the contours in a specific direction. As a pair, all contours can be stably extracted by interpolating information relating to movements in different specific directions.

【0033】本願第3の発明の動物体抽出装置は、それ
ぞれ当該輪郭の特定方向の動きにのみ反応する複数の輪
郭追跡手段の内、異なる特定方向の動きに反応する少な
くとも2つの輪郭追跡手段を対として、相互に当該輪郭
追跡手段の動きを拘束することで外乱に対して堅固なも
のとなるようにしたものである。
The moving object extracting apparatus according to the third invention of the present application comprises at least two contour tracking means which respond to movements in different specific directions among a plurality of contour tracking means which respectively respond only to movements of the contour in a specific direction. As a pair, the movements of the contour tracking means are mutually constrained to be robust against disturbance.

【0034】本願第4の発明の動物体抽出装置は、設定
される任意点と前記複数の輪郭追跡手段の各輪郭追跡手
段との間に拘束手段を設けたことから当該輪郭追跡手段
の動きが拘束され外乱に対して堅固なものとなるように
したものである。
In the moving object extracting apparatus according to the fourth aspect of the present invention, since the restraint means is provided between the set arbitrary point and each of the contour tracing means of the plurality of contour tracing means, the movement of the contour tracing means can be prevented. It was made to be restrained and robust against external disturbances.

【0035】[0035]

【実施例】まず、本発明の基本的な概念について説明す
る。前述した第1の問題を解決するために、本発明では
動いているエッジを優先的に抽出するようにしている。
このエッジの抽出のために連続する画像間で差分処理、
しきい値処理を行ない、輝度変化した変化領域を検出す
る。次に、この変化量の絶対値をとり、変化量とする。
ビデオレートで2枚の連続した画像間差分処理を行なう
場合は、この変化領域は、ほぼ動物体の輪郭に対応して
いると考えられる。最大勾配を持つエッジ探索は、この
輝度変化領域内で行なう。これにより、誤って、背景画
像中のエッジを抽出してしまうことを防ぐことが可能と
なる。
First, the basic concept of the present invention will be described. In order to solve the first problem described above, the present invention preferentially extracts moving edges.
Difference processing between consecutive images to extract this edge,
Threshold processing is performed to detect a change area where the brightness has changed. Next, the absolute value of this amount of change is taken as the amount of change.
When performing the difference processing between two consecutive images at the video rate, it is considered that this changed region substantially corresponds to the contour of the moving object. The edge search having the maximum gradient is performed in this brightness change area. This makes it possible to prevent the edge in the background image from being accidentally extracted.

【0036】また、多少精度が悪くなるが、変化領域の
中で変化量が最大の部分を輪郭として、探索して良い。
物体が静止して、変化領域が検出されない場合は、最も
近いエッジ、すなわち輝度勾配が最大の点を抽出する。
Further, although the accuracy is somewhat deteriorated, it is possible to search for a portion having a maximum change amount in the change region as a contour.
When the object is stationary and no change area is detected, the closest edge, that is, the point having the maximum brightness gradient is extracted.

【0037】また、前述の第2の問題を解決するため
に、動物体の全輪郭を一つの処理で抽出することを避
け、全輪郭を適宜の小部分に分割して処理するようにし
ている。さらに各部分処理は、お互いに拘束手段として
の仮想のスプリング、あるいは、ダンパで接続されて拘
束し合いながら処理を進める。各部分処理は、以下の2
つの方法で実現する。
Further, in order to solve the above-mentioned second problem, it is avoided to extract the entire contour of the moving body in one process, and the entire contour is divided into appropriate small parts for processing. . Further, each partial process is performed while being restrained by being connected to each other by a virtual spring or a damper as restraining means. Each partial processing is the following 2
Realize in two ways.

【0038】第1の方法として、各部分処理では、異な
る方向にエッジ探索して抽出する。各部分輪郭抽出処理
は、エッジ探索を特定方向(例えば、水平、垂直)に限
定する。各部分輪郭抽出処理は、特定方向に動く輪郭の
みの反応するという選択性をもつ。
As a first method, in each partial processing, edges are searched and extracted in different directions. Each partial contour extraction process limits the edge search to a specific direction (for example, horizontal or vertical). Each partial contour extraction process has the selectivity of reacting only the contour that moves in a specific direction.

【0039】したがって、全輪郭を一度に抽出する場合
を比較して、輪郭の一部を抽出するもので、外乱の影響
も小さくてすむ。さらに、探索方向に垂直な方向には、
輪郭の長さを変化させないので、外乱に対して堅固であ
る。各部分輪郭抽出処理に、自分自身の不足している動
き情報や位置情報を、他の部分輪郭抽出処理から受けと
る。これにより、部分輪郭抽出処理だけでは、2次元的
な動きに対応できないという問題を回避して、全輪郭を
安定に抽出することができる。
Therefore, compared with the case where all contours are extracted at once, a part of the contours is extracted, and the influence of disturbance can be small. Furthermore, in the direction perpendicular to the search direction,
Since it does not change the length of the contour, it is robust against disturbances. In each partial contour extraction process, the motion information and the position information which the self lacks are received from other partial contour extraction processes. As a result, it is possible to stably extract all contours while avoiding the problem that the two-dimensional movement cannot be dealt with only by the partial contour extraction processing.

【0040】第2の方法は、エッジ探索を特定方向に限
定しないで、エッジ探索処理を2段階で構成する。図3
に処理の流れを示す。まず、第1処理では、Aで示す一
時点前に抽出した輪郭モデル(例えばスネーク曲線)を
その形状を保ったまま、平行移動、回転移動等のアフィ
ン変換を行い、エッジの近傍まで移動させる。
The second method does not limit the edge search to a specific direction, but configures the edge search process in two stages. Figure 3
Shows the flow of processing. First, in the first process, the contour model (for example, a snake curve) extracted before the temporary point indicated by A is subjected to affine transformation such as parallel movement and rotation movement while keeping its shape, and moved to the vicinity of the edge.

【0041】続いて、第2処理では、狭い範囲でエッジ
を探索して輪郭モデルに変形を許し、エッジに完全に合
致(フィット)させる。
Subsequently, in the second processing, an edge is searched for in a narrow range to allow the contour model to be deformed, and the edge model is completely matched (fitted) with the edge.

【0042】この第1処理におけるアフィン変換の係数
は、輪郭モデルの各サンプル点の移動量から最小2乗法
を用いて求める。また、求めた移動量、回転角度だけ、
輪郭モデルをアフィン変換する。この方法は、輪郭モデ
ルの形状を保ったまま、現時点のエッジの近傍まで移動
させ、その後で微小な変形を許すので、一度に大きな変
形を許す場合に比べて、剛性が大きくノイズの影響に対
して堅固なものとすることができる。
The affine transformation coefficient in the first process is obtained from the moving amount of each sample point of the contour model using the least square method. Also, only the calculated movement amount and rotation angle,
Affine transform the contour model. With this method, the shape of the contour model is maintained, and the contour model is moved to the vicinity of the edge at the current point in time, and minute deformations are allowed after that. Can be solid.

【0043】さらに、前述の第3の問題に対しては、先
に述べた手段により解決できる。全輪郭の部分毎に、異
なる複数の処理で抽出するので、各処理は、分散、並列
処理が可能であり、リアルタイム処理にも対処できる。
また、サンプル点、制御点が増えても、並列処理する数
を増やせば容易に対応できる。
Further, the above-mentioned third problem can be solved by the means described above. Since each part of the whole contour is extracted by a plurality of different processes, each process can be distributed and parallelized, and real-time processing can be dealt with.
Further, even if the number of sampling points and control points increases, it is possible to easily cope with them by increasing the number of parallel processings.

【0044】次に、本発明に係る一実施例を図面を参照
して具体的に説明する。なお、画像中から顔領域を抽出
することは、画像を用いたヒューマンI/F技術におい
て不可欠な要素技術である。本実施例では、より具体的
なものとするために顔の輪郭抽出場合を例に説明する。
図1は本発明に係る動物体抽出装置の構成を示したブロ
ック図である。
Next, one embodiment according to the present invention will be specifically described with reference to the drawings. Extracting the face area from the image is an essential elemental technique in the human I / F technique using the image. In the present embodiment, in order to make it more specific, a case of extracting the face contour will be described as an example.
FIG. 1 is a block diagram showing the configuration of a moving body extracting apparatus according to the present invention.

【0045】図1に示すように、本実施例の動物体抽出
装置は画像入力部1と、追跡輪郭決定部2と、輪郭追跡
部群3と、ホスト計算機4と、画像出力部5及び位置決
定部6とからなる。
As shown in FIG. 1, the moving object extraction apparatus of this embodiment has an image input unit 1, a tracking contour determination unit 2, a contour tracking unit group 3, a host computer 4, an image output unit 5, and a position. And a decision unit 6.

【0046】また、画像入力部1はカメラ11とA/D
変換器13によって構成され、このA/D変換器13と
画像バスBI を介して接続される追跡輪郭決定部2は画
像メモリ21、差分回路(エッジ抽出回路)23、2値
化回路25、ラベリング回路27及び外接長方形算出回
路29によって構成される。同様にA/D変換器13と
画像バスBI を介して接続される輪郭追跡部群3はロー
カルモジュール、具体的にはn個の輪郭追跡部31a、
31b、〜、31nによって構成される。またホスト計
算機4は、輪郭追跡部管理部41、拘束力計算部43、
全輪郭算出部45及び3次元位置計算部47によって構
成される。画像出力部5は3次元位置計算部47と前記
画像バスBI と接続される出力モニタ51によって構成
される。また、さらに位置決定部6は口位置決定部6
1、両目位置決定部63及び鼻位置決定部65によって
構成される。
Further, the image input section 1 is provided with a camera 11 and an A / D.
The tracking contour determination unit 2 configured by the converter 13 and connected to the A / D converter 13 via the image bus B I includes an image memory 21, a difference circuit (edge extraction circuit) 23, and a binarization circuit 25, It is composed of a labeling circuit 27 and a circumscribed rectangle calculation circuit 29. Similarly, the contour tracing unit group 3 connected to the A / D converter 13 via the image bus B I is a local module, specifically, n contour tracing units 31a,
31b to 31n. Further, the host computer 4 includes a contour tracking unit management unit 41, a binding force calculation unit 43,
It is composed of an entire contour calculation unit 45 and a three-dimensional position calculation unit 47. The image output unit 5 includes a three-dimensional position calculation unit 47 and an output monitor 51 connected to the image bus B I. Further, the position determination unit 6 is further defined as the mouth position determination unit 6
1, a both-eyes position determination unit 63 and a nose position determination unit 65.

【0047】次に、図1及び図2に沿って詳細に説明す
る。画像入力部1のカメラ11は、例えばITVカメラ
が用いられる。ここで、カメラ11から入力された画像
を、画像1と呼ぶ。入力された画像1は、A/D変換器
13によりデジタル化される。
Next, a detailed description will be given with reference to FIGS. As the camera 11 of the image input unit 1, for example, an ITV camera is used. Here, the image input from the camera 11 is referred to as image 1. The input image 1 is digitized by the A / D converter 13.

【0048】追跡輪郭決定部2では、まずステップS1
でカメラ11により撮像された現時点の画像と、画像メ
モリ21に蓄えられている1フレーム前の画像データあ
るいは予め入力してある物体が存在しない背景画像デー
タとの差分を差分回路23で求める。背景画像との差分
の場合は、2値化回路25で2値化し、ラベリング回路
27でラベリングした後に、外接長方形算出回路29で
当該動物体に対する外接長方形座標を求める(ステップ
S3)。この算出された当該動物体に対する外接長方形
座標等の情報は、ホスト計算機4の輪郭追跡部管理部4
1に出力される。
In the tracking contour determining section 2, first, in step S1
In the difference circuit 23, the difference between the current image captured by the camera 11 and the image data of one frame before stored in the image memory 21 or the background image data in which an object previously input does not exist is obtained. In the case of the difference from the background image, the binarization circuit 25 binarizes the data, the labeling circuit 27 labels the data, and the circumscribed rectangle calculation circuit 29 obtains the circumscribed rectangle coordinates for the moving object (step S3). The information such as the circumscribed rectangular coordinates for the moving object that has been calculated is used as the contour tracking unit management unit 4 of the host computer 4.
It is output to 1.

【0049】輪郭追跡部管理部41は、輪郭追跡部群3
を、外接長方形の各辺を含む矩形領域に配置する。輪郭
追跡部群3の配置される位置、輪郭モデルのサイズは、
この外接長方形により決まる。具体的には、図4に示す
ように抽出された外接長方形に4つの輪郭追跡部が配置
される場合には、縦辺には水平輪郭追跡部LHL、L
HRが、横辺には垂直輪郭追跡部LVU、LVDが配置され、
また図5に示すように、8つの輪郭追跡部が配置される
場合には、縦辺には水平輪郭追跡部LHLU 、LHRU、L
HLD 、LHRD が、横辺には垂直輪郭追跡部LVUL 、L
VDL 、LVUR 、LVDRがそれぞれ配置される(ステップ
S5)。
The contour tracking unit management unit 41 uses the contour tracking unit group 3
Are arranged in a rectangular area including each side of the circumscribed rectangle. The position where the contour tracking unit group 3 is arranged and the size of the contour model are
Determined by this circumscribed rectangle. Specifically, when four contour tracing units are arranged in the circumscribed rectangle extracted as shown in FIG. 4, horizontal contour tracing units L HL and L HL are provided on the vertical sides.
HR , the vertical contour tracking units L VU and L VD are arranged on the side,
Further, as shown in FIG. 5, when eight contour tracking units are arranged, horizontal contour tracking units L HLU , L HRU , and L are arranged on the vertical sides .
HLD and L HRD are vertical contour tracing units L VUL and L on the horizontal side.
VDL , L VUR , and L VDR are arranged respectively (step S5).

【0050】あるいは、追跡輪郭決定部2と輪郭追跡管
理部41では、次のような処理を行うことも考えられ
る。連続する画像間の差分を行い、さらにしきい値処
理、2値化処理して物体の輪郭領域を抽出する。通常
は、この輪郭領域は分割して抽出されることが多い。し
たがって、抽出された複数の部分領域は、一度連結され
て、再度分割される。分割は、輪郭重心Gを中心とした
回転角度により基づいて行なわれる。例えば、図6に示
すように4分割の場合は、90度間隔に分割されてこの
線分を含む矩形領域に水平輪郭追跡部LHL、LHR及び垂
直輪郭追跡部LVU、LVDを配置する。8分割の場合は、
45度間隔に分割する。
Alternatively, it is conceivable that the tracking contour determination unit 2 and the contour tracking management unit 41 perform the following processing. The difference between consecutive images is calculated, and threshold processing and binarization processing are performed to extract the contour area of the object. Usually, this contour area is often divided and extracted. Therefore, the plurality of extracted partial areas are once connected and divided again. The division is performed based on the rotation angle about the center of gravity G of the contour. For example, in the case of four divisions as shown in FIG. 6, the horizontal contour tracing units L HL and L HR and the vertical contour tracing units L VU and L VD are arranged in a rectangular area including this line segment at intervals of 90 degrees. To do. In case of 8 divisions,
Divide into 45 degree intervals.

【0051】また、この各輪郭追跡部Lは、人間が出力
モニタ51の画像を見ながら、対話的にマウス、キーボ
ードなどの入力手段により、配置してもよい。
Further, each of the contour tracking portions L may be arranged interactively by an inputting means such as a mouse or a keyboard while a person looks at the image on the output monitor 51.

【0052】配置された各輪郭追跡部Lは、ステップS
7で、それぞれ特定方向にエッジ探索処理を行なう。例
えば、特定方向を画像中の水平・垂直方向とすると、図
7のように、輪郭追跡群3は、複数の輪郭追跡部31
a、31b、〜、31nとから構成されることになる。
任意の輪郭追跡部31kで設定される水平輪郭追跡部L
H (LHLU 、LHRU 、LHLD 、LHRD )では、エッジ探
索方向を水平方向に限定する。他の任意の輪郭追跡部3
1lで設定される垂直輪郭追跡部LV (LVUL
VDL 、LVUR 、LVDR )では、エッジ探索方向を垂直
方向に限定する。つまり、水平輪郭追跡部LH は、輪郭
の水平運動のみの反応する。同様に、垂直輪郭追跡部L
V は、輪郭の垂直運動のみに反応する。
Each of the arranged contour tracking units L executes step S
In step 7, edge search processing is performed in each specific direction. For example, assuming that the specific direction is the horizontal / vertical direction in the image, the contour tracking group 3 includes a plurality of contour tracking units 31 as shown in FIG.
a, 31b, ..., 31n.
Horizontal contour tracking unit L set by an arbitrary contour tracking unit 31k
In H (L HLU , L HRU , L HLD , L HRD ) the edge search direction is limited to the horizontal direction. Other arbitrary contour tracking unit 3
Vertical contour tracking unit L V (L VUL , set by 1 l,
In L VDL , L VUR , and L VDR ), the edge search direction is limited to the vertical direction. That is, the horizontal contour tracking unit L H responds only to the horizontal movement of the contour. Similarly, the vertical contour tracking unit L
V responds only to vertical movement of the contour.

【0053】このようにして配置された直後、ステップ
S7の探索処理では、物体に輪郭モデルを張り付けるた
めに、外接長方形内部のみをエッジ探索する。この段階
では、各輪郭追跡部は、独立で処理が進められる。しか
し、このままでは、各輪郭追跡部は、特定方向の1次元
の動きのみにしか対応できないので、物体の全輪郭を追
跡することができない。そこで、不足する位置情報を各
輪郭追跡部間でお互いに補い合う。
Immediately after the arrangement as described above, in the search processing of step S7, only the inside of the circumscribed rectangle is edge-searched in order to attach the contour model to the object. At this stage, each contour tracking unit proceeds independently. However, as it is, each contour tracking unit can only track one-dimensional movement in a specific direction, and thus cannot trace the entire contour of the object. Therefore, the lacking position information is complemented by the contour tracking units.

【0054】以下、図8を参照して、4つの輪郭追跡部
で構成される場合について説明する。垂直輪郭追跡部L
1と垂直輪郭追跡部L3は、不足する水平位置(輪郭モ
デルの重心位置)を水平輪郭追跡部L2と水平輪郭追跡
部L4の重心位置から求める。逆に、水平輪郭追跡部L
2と水平輪郭追跡部L4は、不足する垂直位置(輪郭モ
デルの重心位置)を垂直輪郭追跡部L1と垂直輪郭追跡
部L3の重心位置から求める。
Hereinafter, with reference to FIG. 8, description will be given of a case where the four contour tracking units are used. Vertical contour tracking section L
1 and the vertical contour tracking unit L3 obtain the lacking horizontal position (the center of gravity position of the contour model) from the center of gravity positions of the horizontal contour tracking unit L2 and the horizontal contour tracking unit L4. On the contrary, the horizontal contour tracking unit L
2 and the horizontal contour tracking unit L4 determine the insufficient vertical position (the center of gravity position of the contour model) from the center of gravity positions of the vertical contour tracking unit L1 and the vertical contour tracking unit L3.

【0055】8つの輪郭追跡部から構成される場合を、
図9に示す。垂直輪郭追跡部L1は、不足している水平
位置を、水平輪郭追跡部L2とL7の重心位置から求め
る。この3つの位置関係は、 x1 =x7 +(x2 −x7 )×(2/3) で表される。垂直輪郭追跡部L8も、水平輪郭追跡部L
2とL7の重心位置から、求める。
In the case of being composed of eight contour tracking units,
It shows in FIG. The vertical contour tracking unit L1 obtains the missing horizontal position from the barycentric positions of the horizontal contour tracking units L2 and L7. The three positional relationships are expressed by x1 = x7 + (x2-x7) * (2/3). The vertical contour tracing section L8 also has a horizontal contour tracing section L.
It is calculated from the position of the center of gravity of 2 and L7.

【0056】 x8 =x7 +(x2 −x7 )×(1/3) 同様に、水平輪郭追跡部L2は、不足している垂直方向
の位置を垂直輪郭追跡部L1とL4の重心位置から求め
る。
X8 = x7 + (x2−x7) × (1/3) Similarly, the horizontal contour tracking section L2 finds the missing vertical position from the center of gravity of the vertical contour tracking sections L1 and L4.

【0057】 y2 =y4 +(y1 −y4 )×(2/3) 水平輪郭追跡部L3、垂直輪郭追跡部L1とL4の重心
位置から、求める。
Y2 = y4 + (y1−y4) × (2/3) Obtained from the barycentric positions of the horizontal contour tracing section L3 and the vertical contour tracing sections L1 and L4.

【0058】 y3 =y4 +(y1 −y4 )×(1/3) 他の輪郭追跡部Lも不足する位置から同様に求める。物
体の大きさの拡大・縮小に対しては、後で述べる各輪郭
追跡部の輪郭モデルのサイズを変化させることにより対
応する。
Y3 = y4 + (y1−y4) × (⅓) Similarly, other contour tracking units L are similarly obtained from insufficient positions. The enlargement / reduction of the size of the object is dealt with by changing the size of the contour model of each contour tracking unit described later.

【0059】輪郭追跡部31は、ホスト計算機から制御
可能な複数のローカルモジュールで処理が行なわれる
(久保田, 福井, 石川, 溝口:“物体の認識、識別をめ
ざしたビジョンプロセッサの構想と試作モデルの開
発”、信学技法、PRU89-07(1990))。ローカルモジュー
ルは、図10に示すようにローカルプロセッサ75を備
え、さまざまな並列処理がソフトウェアで実現できる。
このローカルプロセッサ75は、ローカルバスBL を介
してバスインタフェース71、アドレスデコーダ73、
ウインドコントローラ77及びウインドメモリ79と接
続される。
The contour tracking unit 31 is processed by a plurality of local modules which can be controlled by a host computer (Kubota, Fukui, Ishikawa, Mizoguchi: “Vision processor concept and prototype model for object recognition and discrimination. Development ”, Confidential Techniques, PRU89-07 (1990)). The local module includes a local processor 75 as shown in FIG. 10, and various parallel processes can be realized by software.
The local processor 75, the bus interface 71 via the local bus B L, the address decoder 73,
It is connected to the window controller 77 and the window memory 79.

【0060】線分を中心に含む適当な大きさの矩形領域
を定め、その位置(アドレス)ウィンドウコントローラ
のレジスタにセットする。ローカルモジュールは、現時
点(時刻t)その部分の画像をウィンドウメモリ79に
画像バスBI からビデオレートで取り込む。この領域を
追跡ウィンドウW(図7参照)と呼ぶ。この追跡ウィン
ドウWは、輪郭モデルを含むサイズに設定される。次
に、次時点(時刻t+Δ)で同じ部分の画像をウィンド
ウメモリ79から取り込む。先ず、ローカルプロセッサ
75は、この2枚の連続する画像間で差分処理を行な
い、変化領域を検出する。さらに、取り込んだ画像デー
タに対して、変化領域内で特定方向にエッジ探索処理を
行ない、エッジを抽出・追跡する。
A rectangular area of an appropriate size including the line segment at the center is defined and its position (address) is set in the register of the window controller. The local module loads the image of that portion at the present time (time t) into the window memory 79 from the image bus B I at the video rate. This area is called a tracking window W (see FIG. 7). The tracking window W is set to a size including the contour model. Next, at the next time point (time t + Δ), the image of the same portion is fetched from the window memory 79. First, the local processor 75 performs a difference process between the two continuous images to detect a change area. Furthermore, edge search processing is performed on the captured image data in a specific direction within the change area to extract and track edges.

【0061】輪郭追跡部31の処理については、後で詳
しく述べる。抽出したエッジの位置情報は、随時、パラ
レルポートなどにより、ホスト計算機4上の輪郭追跡部
管理部41に転送される。
The processing of the contour tracking section 31 will be described later in detail. The extracted edge position information is transferred to the contour tracking unit management unit 41 on the host computer 4 via a parallel port or the like at any time.

【0062】輪郭追跡部管理部41では、送られて来た
輪郭位置情報から、拘束力Forceを求め、再度、各輪郭
追跡部の位置を計算する(ステップS9)。また、輪郭
モデルのSize を求め、位置と共に各輪郭追跡部に送り
返す。拘束力は、図中で仮想スプリング(波線)と仮想
ダンパ(実線)で実現され、以下の式で求まる。
The contour tracking section management section 41 obtains the constraint force "Force" from the contour position information sent, and calculates the position of each contour tracking section again (step S9). In addition, Size of the contour model is obtained and sent back to each contour tracking unit together with the position. The binding force is realized by a virtual spring (wavy line) and a virtual damper (solid line) in the figure, and is obtained by the following formula.

【0063】 Force=forcesp+forcedp (6) forcesp=Const1 *(Lenij−Lennatural ) (7) forcedp=Const2 *(Dlen ij/Dt ) (8) ここで、Lenijは、輪郭追跡部i ,間の距離、Len
natural は、仮想スプリングの自然長、Const1 は、ス
プリング定数、Const2 は、ダンピング定数である。
Force = force sp + force dp (6) force sp = Const 1 * (Len ij −Len natural ) (7) force dp = Const 2 * (Dlen ij / D t ) (8) where Len ij is the contour Tracer i, distance between, Len
natural is the natural length of the virtual spring, Const1 is the spring constant, and Const2 is the damping constant.

【0064】各輪郭追跡部の輪郭モデルのサイズは、物
体のサイズの拡大・縮小に伴って変化する。つまり、輪
郭追跡部間にすき間がある場合は、それを埋め、重なっ
ている場合は、短くする。変化させる際の基準として、
一部の輪郭モデルのサイズのみが大きくなるとそれだけ
計算時間が大きくなり、全体の処理時間も上がるため、
できるだけ長さが一様になるように各サイズが決められ
る。
The size of the contour model of each contour tracking unit changes as the size of the object increases or decreases. That is, if there is a gap between the contour tracking units, fill it in, and if there is a gap, shorten it. As a standard when changing,
If only the size of some contour models increases, the calculation time will increase accordingly and the overall processing time will also increase.
Each size is determined so that the length is as uniform as possible.

【0065】図11を用いて、垂直輪郭追跡部L1の例
を説明する。垂直輪郭追跡部L1の輪郭モデルの水平サ
イズは、両端のX座標、Xs1,newとXe1,newで決まる。
ここで、Xs1,newは、隣の水平輪郭追跡部L8の端点の
X座標Xes,oldとXs1,oldの間隔と自分自身の水平長さ
Leng1で決まる。ここで、添え字のnew は、新しく計算
された端点の座標、old は、計算される前の座標であ
る。
An example of the vertical contour tracking section L1 will be described with reference to FIG. The horizontal size of the contour model of the vertical contour tracking unit L1 is determined by the X coordinates of both ends, Xs1, new and Xe1, new.
Here, Xs1, new is determined by the interval between the X coordinates Xes, old and Xs1, old of the end point of the adjacent horizontal contour tracing section L8 and the horizontal length Leng1 of itself. Here, the subscript new is the coordinate of the newly calculated end point, and old is the coordinate before the calculation.

【0066】 Xs1,new=Xs1,old−(Xs1−Xe8)*rat (9) rat =Leng8/(Leng1+Leng8) (10) ここで、Leng8は、水平輪郭追跡部L8の水平長さであ
る。
X s1, new = X s1, old − (X s1 −X e8 ) * rat (9) rat = Leng8 / (Leng1 + Leng8) (10) where Leng8 is the horizontal length of the horizontal contour tracking unit L8. Is.

【0067】他方の端点のX座標Xe1,newは、以下の式
で求まる。
The X coordinate Xe1, new of the other end point is obtained by the following equation.

【0068】 Xe1,new=Xe1,old−(Xs2−Xe1)*rat (11) rat =Leng2/(Leng1+Leng2) (12) ここで、Leng2は、水平輪郭追跡部L2の垂直長さであ
る。
X e1, new = X e1, old − (X s2 −X e1 ) * rat (11) rat = Leng2 / (Leng1 + Leng2) (12) Here, Leng2 is the vertical length of the horizontal contour tracking unit L2. Is.

【0069】同様に、水平輪郭追跡部L2の輪郭モデル
の垂直サイズは、両端のY座標、Ys2,newとYe2,newで
決まる。ここで、Ys2,newは、隣の垂直輪郭追跡部L1
の端点のY座標Ye1,oldとYs2,oldの間隔と自分自身の
垂直長さLeng2で決まる。
Similarly, the vertical size of the contour model of the horizontal contour tracing section L2 is determined by the Y coordinates of both ends, Ys2, new and Ye2, new. Here, Ys2, new is the adjacent vertical contour tracking unit L1.
It is determined by the interval between the Y coordinates Ye1, old and Ys2, old of the end points of and the vertical length Leng2 of itself.

【0070】 Ys2,new=Ys2,old−(Ye1−Ys2)*rat (13) rat =Leng1/(Leng1+Leng2) (14) 他方の端点のY座標Ye2,newは、以下の式で求まる。Y s2, new = Y s2, old − (Y e1 −Y s2 ) * rat (13) rat = Leng1 / (Leng1 + Leng2) (14) The Y coordinate Ye2, new of the other end point is expressed by the following equation. I want it.

【0071】 Ye2,new=Ye2,old−(Ye2−Ys3)*rat (15) rat =Leng3/(Leng2+Leng3) (16) ここで、Leng3は、水平輪郭追跡部L3の垂直長さであ
る。
Y e2, new = Y e2, old − (Y e2 −Y s3 ) * rat (15) rat = Leng3 / (Leng2 + Leng3) (16) where Leng3 is the vertical length of the horizontal contour tracing section L3. Is.

【0072】他の輪郭追跡部の輪郭モデルのサイズも、
同様に求まる。これにより画像中で、顔が距離により拡
大・縮小しても、各輪郭追跡部の輪郭モデルサイズが最
適に変化してうまく輪郭を抽出して追跡できる。
The sizes of the contour models of the other contour tracking units are also
The same is obtained. As a result, even if the face is scaled up or down depending on the distance in the image, the contour model size of each contour tracking unit changes optimally, and the contour can be extracted and tracked successfully.

【0073】全輪郭算出部45では、ステップS11
で、得られた部分輪郭形状を繋げて全輪郭形状を算出す
る。部分輪郭の接続部がうまく継らない場合は、再度形
状の滑らかさの拘束を加えて滑らかに接続する。また、
輪郭形状が得られなかった部分は、スプライン曲線など
で補間する。
In the total contour calculating section 45, step S11
Then, the entire contour shapes are calculated by connecting the obtained partial contour shapes. If the connection of the partial contours does not succeed, connect the smoothness again by adding the constraint of the smoothness of the shape. Also,
The portion where the contour shape is not obtained is interpolated by a spline curve or the like.

【0074】次にステップS13乃至S17において、
口位置決定部61、両目位置決定部63及び鼻位置決定
部65では、それぞれ口、両目、鼻の位置を決定する。
Next, in steps S13 to S17,
The mouth position determining unit 61, the both eye position determining unit 63, and the nose position determining unit 65 determine the positions of the mouth, both eyes, and nose, respectively.

【0075】すなわち、先ず、抽出された顔領域の輪郭
形状情報から、予め登録されている顔モデルに基づい
て、おおよその両目、鼻、口の領域を限定する。さら
に、この領域内で、目、鼻、口の位置を詳細に決定す
る。これは、予め用意してある画像マスクパターンとの
マッチングにより実現する。マスクパターンは、顔の大
きさに比例して拡大・縮小変換される。あるいは、エッ
ジ抽出、ハフ変換を行なって、予め登録されている形状
とのマッチングをとる。例えば、円領域を見つけて目の
位置とする。鼻ならば、三角形領域を鼻とする。
That is, first, based on the contour shape information of the extracted face area, the approximate areas of both eyes, nose, and mouth are limited based on the face model registered in advance. Further, the positions of eyes, nose and mouth are determined in detail within this area. This is realized by matching with an image mask pattern prepared in advance. The mask pattern is enlarged / reduced in proportion to the size of the face. Alternatively, edge extraction and Hough transformation are performed to match with a shape registered in advance. For example, a circle area is found and used as the eye position. If it is a nose, the triangular area is the nose.

【0076】3次元位置計算部47では、ステップS1
9において、顔の輪郭形状と両目と鼻、あるいは、口と
の相対位置関係から顔の3次元位置を求める。予め、顔
の輪郭の大きさとカメラからの距離との関係を求めてお
く。これにより、抽出された顔の輪郭の大きさから逆に
距離を求める。顔の向きは、顔モデルに基づいて、両目
と鼻、あるいは口の幾何学関係から求める。
In the three-dimensional position calculator 47, step S1
At 9, the three-dimensional position of the face is obtained from the contour shape of the face and the relative positional relationship between the eyes and the nose or the mouth. The relationship between the size of the contour of the face and the distance from the camera is obtained in advance. As a result, the distance is obtained from the size of the extracted face contour. The orientation of the face is obtained from the geometrical relationship between the eyes and the nose or the mouth based on the face model.

【0077】画像出力部5は、抽出された部分輪郭形状
を出力モニタ51に出力する(ステップS21)。
The image output unit 5 outputs the extracted partial contour shape to the output monitor 51 (step S21).

【0078】次に、輪郭追跡部の処理について詳細を述
べる。各ローカルプロセッサ75は、取り込んだ画像デ
ータに対して、輪郭を抽出・追跡する。以下に、処理の
流れを示す。
Next, the processing of the contour tracking section will be described in detail. Each local processor 75 extracts and tracks contours in the captured image data. The flow of processing is shown below.

【0079】ステップ11.抽出された部分輪郭を含む
矩形領域に追跡ウィンドウWを配置する。
Step 11. The tracking window W is arranged in the rectangular area including the extracted partial contour.

【0080】ステップ12.幾つか、例えば4個の制御
点を追跡ウィンドウWの2等分線上に与える。
Step 12. Some, for example four, control points are given on the bisector of the tracking window W.

【0081】ステップ13.この制御点で表されるベッ
イエ曲線、或いはBスプライン曲線上の座標X(s)、
Y(s)を次式で計算する。ここで、sは曲線上で定義
されたパラメタである。
Step 13. Coordinates X (s) on the Bezier curve or B spline curve represented by these control points,
Y (s) is calculated by the following formula. Here, s is a parameter defined on the curve.

【0082】[0082]

【数4】 ここで、nは、制御点の総数、Qixは制御点iのX座
標、Qiyは制御点iのY座標、Bi (s)は、n次混合
関数を表す。或いはBスプライン基本関数に置き換えて
も良い。
[Equation 4] Here, n is the total number of control points, Q ix is the X coordinate of the control point i, Q iy is the Y coordinate of the control point i, and B i (s) is the nth-order mixing function. Alternatively, it may be replaced with a B-spline basic function.

【0083】[0083]

【数5】 ステップ14.連続する画像間で差分処理を行ない、し
きい値処理、絶対値をとり、変化領域を検出する。
[Equation 5] Step 14. Difference processing is performed between consecutive images, threshold processing and absolute values are calculated, and a change area is detected.

【0084】ステップ15.図12に示すように、各サ
ンプル点sにおいて、変化領域内で、特定方向にエッジ
領域を探索する。ここでは、各サンプル点の曲線に対す
る法線方向として説明する。各サンプル点と探索された
エッジ領域までの距離を移動距離とする。この移動距離
を、全サンプル点に対して求める。
Step 15. As shown in FIG. 12, at each sample point s, an edge area is searched for in a specific direction within the change area. Here, the normal direction to the curve of each sample point will be described. The distance between each sample point and the searched edge area is taken as the movement distance. This moving distance is obtained for all sample points.

【0085】ステップ16.各サンプルs点の移動量
(dsx,dsy)から、次式を最小とするQix、Qiyを最
小2乗法を適用して求め、新しい制御点iまでの移動量
とする。
Step 16. From the moving amount (d sx , d sy ) of each sample s point, Q ix and Q iy that minimize the following equations are obtained by applying the least square method, and the moving amount to a new control point i is obtained.

【0086】[0086]

【数6】 ここで、mは、曲線上のサンプル点sの総数である。[Equation 6] Here, m is the total number of sample points s on the curve.

【0087】ステップ17.各制御点のみをステップ1
3で求めた移動量だけ移動させる。
Step 17. Step 1 for each control point only
The amount of movement obtained in 3 is moved.

【0088】ステップ18.求めた曲線をローカル画像
メモリに書き込み、画像出力部5の出力モニタ51上に
輪郭を表示する。
Step 18. The obtained curve is written in the local image memory and the contour is displayed on the output monitor 51 of the image output unit 5.

【0089】ステップ19.次に、ローカルウィンドウ
を、全制御点の平均移動距離Distance だけ移動させ
る。同時に、各制御点を−Distance だけ移動させる。
Step 19. Next, the local window is moved by the average movement distance Distance of all control points. At the same time, each control point is moved by -Distance.

【0090】ステップ20.ステップ13へ戻る。Step 20. Return to step 13.

【0091】なお、ステップ15の処理において、精度
が多少落ちるものの変化領域中で、エッジ探索の替わり
に、変化量が最大の部分をエッジとして探索しても良
い。
Incidentally, in the processing of step 15, in the change area, although the accuracy is slightly lowered, instead of the edge search, a portion having the maximum change amount may be searched as an edge.

【0092】次に、図13を参照して、実際の画像を用
いた水平運動する輪郭追跡の結果について説明する。該
図13中で、上段部分の実線W1は、従来のB-splineス
ネークによるもの、下段の実線W2は、新しく差分情報
を加味した輪郭追跡手段によるものをそれぞれ表してい
る。また、長方形は、ローカルウィンドウを示してい
る。2つの手段は、同じ初期位置(X座標が等しい)に
置かれる。動物体(棒)の水平方向の移動と共に、棒を
追跡して、途中まで、うまく追跡している。しかし、境
界線W1は、背景の強いエッジの方を検出してしまい、
追跡が失敗している。それに対して、境界線W2は、う
まく最後まで追跡が成功している。
Next, with reference to FIG. 13, the result of horizontal motion contour tracing using an actual image will be described. In FIG. 13, the upper solid line W1 represents the conventional B-spline snake, and the lower solid line W2 represents the contour tracing means with new difference information. The rectangle indicates a local window. The two means are placed in the same initial position (equal to the X coordinate). Along with the horizontal movement of the moving body (stick), the stick is tracked, and it is tracked halfway. However, the boundary line W1 detects an edge with a strong background,
Tracking has failed. On the other hand, the boundary line W2 is successfully tracked to the end.

【0093】図14は、顔の輪郭をリアルタイムで抽出
した結果を示している。各輪郭追跡部が顔にフィットし
ている様子がわかる。輪郭追跡部は、2つの水平輪郭追
跡部と1つの垂直輪郭追跡部から成る。図15に、各輪
郭追跡部の構成を示す。図13、14中で、矩形は、ロ
ーカルモジュールの追跡ウィンドWを示している。ウィ
ンド内の境界線W1、W2が、水平輪郭追跡部LHL、L
HR、境界線W3が垂直輪郭追跡部LV を示している。
FIG. 14 shows the result of extracting the contour of the face in real time. It can be seen that each contour tracking unit fits the face. The contour tracking unit consists of two horizontal contour tracking units and one vertical contour tracking unit. FIG. 15 shows the configuration of each contour tracking unit. In FIGS. 13 and 14, the rectangle indicates the tracking window W of the local module. The boundary lines W1 and W2 in the window are the horizontal contour tracking portions L HL and L
HR and the boundary line W3 indicate the vertical contour tracking portion L V.

【0094】また、各輪郭追跡部間に拘束力に関して
は、物理的なテンプレートによる方法でも、実現可能で
ある。この拘束力を実現するために、図16に示すよう
な複数の仮想スプリングと仮想ダンパが各輪郭追跡部の
重心g位置と全輪郭重心G位置に置かれ、各輪郭追跡部
に半径方向の拘束力を付加する。また、全輪郭重心Gに
は、仮想巻きバネが置かれて、回転方向の拘束力を実現
している。各スプリングのバネ定数、ダンパの定数の初
期値は、零に初期設定される。
The constraint force between the contour tracing units can also be realized by a method using a physical template. In order to realize this restraint force, a plurality of virtual springs and virtual dampers as shown in FIG. 16 are placed at the center of gravity g position and the total contour center of gravity G of each contour tracking unit, and each contour tracking unit is constrained in the radial direction. Add force. Further, a virtual coil spring is placed at the center of gravity G of all contours to realize the restraining force in the rotational direction. The spring constant of each spring and the initial value of the damper constant are initially set to zero.

【0095】輪郭追跡が予め設定される所定の処理ステ
ップ時間に成功したら、スプリングの自然長がこの時の
重心間距離に設定される。時間と共に、これらの値は大
きくなってゆく。各スプリングでは、ポテンシャルエネ
ルギの値が計算され、この時間変化がモニタされてい
る。時間変化が、決められた値より大きくなった場合、
スプリングの自然長がその時の長さに再設定される。
When the contour tracing succeeds in the preset predetermined processing step time, the natural length of the spring is set to the distance between the centers of gravity at this time. These values grow over time. In each spring, the value of potential energy is calculated and this time change is monitored. When the time change becomes larger than the set value,
The natural length of the spring is reset to that length.

【0096】前述の剛性を付加するには、前述した特定
の方向にエッジ探索を行なう手段以外に、2段階処理に
よる手段でも実現可能である。
The addition of the rigidity described above can be realized by means of a two-step process other than the means for performing edge search in the specific direction described above.

【0097】基本的な考えは、全体処理を2段階の処理
に分離する。第1処理をフリーズ、第2処理をリラック
スと呼ぶ。まずフリーズ処理では、探索した各サンプル
点の動き情報から、次式の
The basic idea is to divide the whole process into two steps. The first process is called freeze and the second process is called relax. First, in the freeze processing, from the motion information of each searched sample point,

【外1】 を最小2乗法により求める。[Outer 1] Is calculated by the least squares method.

【0098】[0098]

【数7】 全制御点を、この求めたパラメータ分だけ回転・並行移
動させる。ここで、全制御点は、同じ変換を受ける。こ
れは、形状を変えないで回転・並行移動することを意味
している。次のリラックス処理では、フリーズ処理の探
索範囲よりも狭い範囲を各サンプル点において、探索し
て動きを求める。この段階では、形状の変形を許して、
全制御点を動かす。このように2段処理により、動物体
が急激に動いたり、形状が変化する場合でも、剛性を持
つことになり、外乱に強くなる。
[Equation 7] All control points are rotated and moved in parallel by the calculated parameters. Here, all control points undergo the same transformation. This means rotating and translating without changing the shape. In the next relaxation process, a range narrower than the search range of the freeze process is searched for at each sample point to obtain a motion. At this stage, allow the shape deformation,
Move all control points. In this way, the two-step processing provides rigidity even when the moving body moves suddenly or changes its shape, and is strong against disturbance.

【0099】次に第2の実施例としての動物体追尾カメ
ラについて説明する。
Next, a moving object tracking camera as a second embodiment will be described.

【0100】この実施例は、画像中から動物体領域を抽
出して、その動きに追尾して、パン、チルト、ズーム、
フォーカスを自動制御するカメラに関する。図17は、
実施例の全体的な構成図であり、画像入力部1Aと、追
跡輪郭決定部2Aと、輪郭追跡部群3と、輪郭追跡部管
理部41と、全輪郭算出部45と、3次元位置計算部4
7と、図示しないカメラ制御部と、カメラ雲台制御部8
と、画像出力部とからなる。
In this embodiment, a moving object area is extracted from an image, and the movement of the moving object area is tracked to perform pan, tilt, zoom,
The present invention relates to a camera that automatically controls focus. Figure 17
1 is an overall configuration diagram of an embodiment, which is an image input unit 1A, a tracking contour determination unit 2A, a contour tracking unit group 3, a contour tracking unit management unit 41, a total contour calculation unit 45, and a three-dimensional position calculation. Part 4
7, a camera control unit (not shown), and a camera platform control unit 8
And an image output unit.

【0101】画像入力部1A、追跡輪郭決定部2A、輪
郭追跡部群3、輪郭追跡部管理部41、全輪郭算出部4
5は、前述の実施例1に述べたものと略同様の作用を有
するものである。カメラ制御部は、フォーカス制御部
と、ズーム制御部85と、絞り制御部から構成される。
フォーカス制御部は、入力される画像からフォーカス制
御回路を用いてフォーカス調整する。ズーム制御部85
では、3次元位置計算部47で計算された物体に大きさ
に基づいてズーム量を調整する。
Image input unit 1A, tracking contour determination unit 2A, contour tracking unit group 3, contour tracking unit management unit 41, total contour calculation unit 4
Reference numeral 5 has substantially the same operation as that described in the first embodiment. The camera control unit includes a focus control unit, a zoom control unit 85, and an aperture control unit.
The focus control unit adjusts the focus from the input image using the focus control circuit. Zoom control unit 85
Then, the zoom amount is adjusted based on the size of the object calculated by the three-dimensional position calculation unit 47.

【0102】ズーム制御量は、画像中で物体領域の面積
の割合いRatioが常に一定となるように、フィードバッ
クループ制御される。
The zoom control amount is feedback loop controlled so that the ratio Ratio of the area of the object region in the image is always constant.

【0103】Ratio=α1 *(s /s0) (2
1) ここで、s は、物体の画像中での面積、s0は、画像全体
の面積である。
Ratio = α1 * (s / s0) (2
1) Here, s is the area of the object in the image, and s0 is the area of the entire image.

【0104】カメラ雲台制御部8は、パン制御部81
と、チルト制御部83からなる。このパン、チルト制御
部81、83は、対象物を常に画像中に捉えるために、
雲台15のパン、チルト角度を変化させる。この制御部
は、フィールドバックループ制御を形成している。画像
中の対象物の位置(x ,y )と、パンPan、チルトTil
t 角度の制御量は、以下の式で求まる。
The camera platform controller 8 has a pan controller 81.
And a tilt control section 83. The pan / tilt control units 81 and 83 are configured to constantly capture the object in the image.
The pan and tilt angles of the platform 15 are changed. This controller forms the field back loop control. Position (x, y) of the object in the image, pan Pan, tilt Til
The control amount of the t angle is obtained by the following formula.

【0105】 Pan=α1 *(x −x0)+β1 *vx (22) Tilt =α2 *(y −y0)+β2 *vy (23) ここで、(x ,y )は物体の重心座標、(x0,y0)は画
像中心座標、(vx,vy)は画像上での物体の速度であ
る。α1,α2,β1 ,β2 は、制御理論により決定さ
れる最適な定数である。
Pan = α1 * (x−x0) + β1 * vx (22) Tilt = α2 * (y−y0) + β2 * vy (23) where (x, y) are the barycentric coordinates of the object, and (x0, y0) is the image center coordinate, and (vx, vy) is the velocity of the object on the image. α1, α2, β1 and β2 are optimum constants determined by the control theory.

【0106】ここで、問題となるのがカメラ自身が動い
ている場合は、前述の輪郭追跡法ではうまく追跡できな
い。なぜならば、差分では、背景のエッジも動くので検
出されてしまう。これを解決するため、カメラが動いて
いる場合は、単純にエッジ抽出を行ない、カメラが静止
している場合に、前述の差分処理と組み合わせたエッジ
探索を行なうことで解決される。
Here, the problem is that when the camera itself is moving, it cannot be tracked well by the above contour tracking method. Because, in the difference, the edge of the background also moves, so it is detected. To solve this, when the camera is moving, edge extraction is simply performed, and when the camera is stationary, the edge search is combined with the above-described difference processing to solve the problem.

【0107】次に、第3の実施例としての動物体抽出機
能付きワークステーションWSについて説明する。
Next, a workstation WS with a moving object extracting function as a third embodiment will be described.

【0108】この実施例は、前述の動物体抽出装置を搭
載したワークステーションWSに関する。図18は、実
施例装置の全体的な概略図であり、A/D変換部13B
と画像メモリ21Bで構成される画像入力部、物体抽出
処理部91、表示変更演算部93、物体追尾演算部95
で構成される中央演算処理装置(CPU)9と、モニタ
回転台制御回路97、カメラ雲台制御回路98、カメラ
制御回路99、グラフィックコントローラ101、画像
出力部51Bsから構成される。図19に、このワーク
ステーションの概観を示す。画像入力部11Bは、第1
の実施例に述べたものが使用される。モニタ51B上の
雲台15Bの設置された入力用の小型ITカメラ11B
は、第2の実施例で述べた物体追尾機能を備えて、使用
者の顔領域を追跡する。モニタ51Bは、2自由度(パ
ン、チルト)を有する回転台97aに乗せられ、前述の
追跡結果に基づいて使用者の方へモニタの向きを変え、
使用者までの距離に応じて、モニタ51Bに表示される
文字サイズを変化させる。
This embodiment relates to a workstation WS equipped with the above-mentioned moving object extracting device. FIG. 18 is an overall schematic view of the apparatus of the embodiment, which is the A / D conversion unit 13B.
And an image memory 21B, an image input unit, an object extraction processing unit 91, a display change calculation unit 93, an object tracking calculation unit 95.
A central processing unit (CPU) 9, a monitor turntable control circuit 97, a camera platform control circuit 98, a camera control circuit 99, a graphic controller 101, and an image output unit 51Bs. FIG. 19 shows an overview of this workstation. The image input unit 11B is the first
What is described in the embodiment of is used. Small IT camera 11B for input with the platform 15B installed on the monitor 51B
Has the object tracking function described in the second embodiment and tracks the face area of the user. The monitor 51B is placed on a turntable 97a having two degrees of freedom (pan, tilt), and the direction of the monitor is changed toward the user based on the above-mentioned tracking result.
The character size displayed on the monitor 51B is changed according to the distance to the user.

【0109】前述の実施例で述べたローカルプロセッサ
での処理は、すべてCPUを使ってソフトウェアで行な
われる。結果表示は、全てワークステーションWSのモ
ニタに開かれたウインドウにリアルタイムで表示され
る。
The processing in the local processor described in the above embodiments is all performed by software using the CPU. All the result displays are displayed in real time in windows opened on the monitor of the workstation WS.

【0110】[0110]

【発明の効果】以上説明したように本発明の動物体抽出
装置は、入力された画像中から動物体の輪郭と動きを同
時に抽出する装置を実現する等の実用上で多大なる効果
が期待できる。
As described above, the moving object extracting apparatus of the present invention can be expected to have a great effect in practical use such as realizing an apparatus for simultaneously extracting the contour and movement of the moving object from the input image. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の全体の概略の構成を示すブ
ロック図である。
FIG. 1 is a block diagram showing an overall schematic configuration of an embodiment of the present invention.

【図2】図1に示した動物体抽出装置の処理全体の流れ
を概略的に示すフローチャートである。
FIG. 2 is a flow chart schematically showing the overall flow of processing of the moving object extraction apparatus shown in FIG.

【図3】エッジ探索を2段階処理で行う場合の処理手順
を示す図である。
FIG. 3 is a diagram showing a processing procedure when the edge search is performed in a two-step process.

【図4】外接長方形に配置された4つの輪郭追跡部が初
期配置される様子を示す図である。
FIG. 4 is a diagram showing a state in which four contour tracking units arranged in a circumscribed rectangle are initially arranged.

【図5】外接長方形に配置された8つの輪郭追跡部が初
期配置される様子を示す図である。
FIG. 5 is a diagram showing a state in which eight contour tracking units arranged in a circumscribed rectangle are initially arranged.

【図6】輪郭追跡部が輪郭重心を中心として回転角度に
基づいて配置される様子を示す図である。
FIG. 6 is a diagram showing a manner in which a contour tracking unit is arranged based on a rotation angle about a center of gravity of a contour.

【図7】各輪郭追跡部による特定方向へのエッジ探索処
理及び各輪郭追跡部間の関係を示す図である。
FIG. 7 is a diagram showing an edge search process in a specific direction by each contour tracking unit and a relationship between each contour tracking unit.

【図8】輪郭追跡部が4つの場合における位置情報の算
出を説明するための図である。
FIG. 8 is a diagram for explaining calculation of position information when there are four contour tracking units.

【図9】輪郭追跡部が8つの場合における位置情報の算
出を説明するための図である。
FIG. 9 is a diagram for explaining calculation of position information when there are eight contour tracking units.

【図10】図1に示したローカルモジュールの構成を示
すブロック図である。
10 is a block diagram showing a configuration of a local module shown in FIG.

【図11】輪郭モデルの各サイズの決定を説明するため
の図である。
FIG. 11 is a diagram for explaining determination of each size of a contour model.

【図12】各サンプル点の変化領域内におけるエッジ領
域の探索を説明するための図である。
FIG. 12 is a diagram for explaining a search for an edge area in a change area of each sample point.

【図13】実際の画像を用いて水平運動する輪郭追跡の
結果を示す図である。
FIG. 13 is a diagram showing a result of contour tracking in which a horizontal motion is performed using an actual image.

【図14】顔の輪郭をリアルタイムで抽出した結果を示
す図である。
FIG. 14 is a diagram showing a result of extracting a contour of a face in real time.

【図15】各輪郭追跡部の構成を示す図である。FIG. 15 is a diagram showing a configuration of each contour tracking unit.

【図16】複数の仮想スプリングと仮想ダンパを用いて
実現した拘束力を説明するための図である。
FIG. 16 is a diagram for explaining a restraining force realized by using a plurality of virtual springs and virtual dampers.

【図17】動物体領域の動きに追従して自動制御される
カメラの概略の構成を示すブロック図である。
FIG. 17 is a block diagram showing a schematic configuration of a camera that is automatically controlled following the movement of a moving object region.

【図18】図17に示した動物体抽出装置を搭載したワ
ークステーションの概略の構成を示すブロック図であ
る。
FIG. 18 is a block diagram showing a schematic configuration of a workstation equipped with the moving object extracting device shown in FIG. 17.

【図19】図18に示したワークステーションの外観を
示す斜視図である。
19 is a perspective view showing the external appearance of the workstation shown in FIG.

【図20】従来例におけるBスプラインスネークを説明
するための概略図である。
FIG. 20 is a schematic diagram for explaining B spline snake in a conventional example.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 追跡輪郭決定部 3 輪郭追跡部群 4 ホスト計算機 5 画像出力部 6 位置決定部 8 カメラ雲台制御部 9 中央演算処理装置(CPU) 11 カメラ 13 A/D変換器 21 画像メモリ 23 差分回路(エッジ抽出回路) 25 2値化回路 27 ラベリング回路 29 外接長方形算出回路 31 輪郭追跡部 41 輪郭追跡部管理部 43 拘束力計算部 45 全輪郭算出部 47 3次元位置計算部 51 出力モニタ 61 口位置決定部 63 両目位置決定部 65 鼻位置決定部 71 バスインタフェース 73 アドレスデコーダ 75 ローカルプロセッサ 77 ウインドコントローラ 79 ウインドメモリ 91 物体抽出処理部 93 表示変更演算部 95 物体追尾演算部 97 モニタ回転台制御回路 98 カメラ雲台制御回路 99 カメラ制御回路 101 グラフィックコントローラ 1 Image Input Section 2 Tracking Contour Determining Section 3 Contour Tracing Section Group 4 Host Computer 5 Image Output Section 6 Position Determining Section 8 Camera Platform Control Section 9 Central Processing Unit (CPU) 11 Camera 13 A / D Converter 21 Image Memory 23 difference circuit (edge extraction circuit) 25 binarization circuit 27 labeling circuit 29 circumscribing rectangle calculation circuit 31 contour tracing unit 41 contour tracing unit management unit 43 binding force calculation unit 45 total contour calculation unit 47 three-dimensional position calculation unit 51 output monitor 61 Mouth position determination unit 63 Both eye position determination unit 65 Nose position determination unit 71 Bus interface 73 Address decoder 75 Local processor 77 Window controller 79 Window memory 91 Object extraction processing unit 93 Display change calculation unit 95 Object tracking calculation unit 97 Monitor turntable control Circuit 98 Camera pan head control circuit 99 Camera control Road 101 Graphics Controller

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 供給される画像情報から動きのある物体
を検出し、その輪郭を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された輪郭を対象として設けら
れる複数の輪郭追跡手段と、 この複数の輪郭追跡手段の形状とその動きから当該物体
の輪郭形状と動きとを求める動物体抽出手段とを有する
ことを特徴とする動物体抽出装置。
1. A contour extracting means for detecting a contour of a moving object from the supplied image information and extracting the contour thereof, and a plurality of contour tracing means provided for the contours extracted by the contour extracting means. A moving object extracting device comprising moving object extracting means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracking means.
【請求項2】 供給される画像情報から動きのある物体
を検出し、その輪郭を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された輪郭を対象として設けら
れ、それぞれ当該輪郭の特定方向の動きにのみ反応する
複数の輪郭追跡手段と、 この複数の輪郭追跡手段の内、異なる特定方向の動きに
反応する少なくとも2つの輪郭追跡手段を対として、そ
れぞれ相互に異なる特定方向の動きに係る情報を補間す
る補間手段と、 前記複数の輪郭追跡手段の形状とその動きから当該物体
の輪郭形状と動きとを求める動物体抽出手段とを有する
ことを特徴とする動物体抽出装置。
2. A contour extracting means for detecting a contour of a moving object from the supplied image information and extracting the contour thereof, and the contours extracted by the contour extracting means are provided as targets, and the respective specific directions of the contour are provided. Of a plurality of contour tracking means that respond only to the movement of a plurality of contour tracking means and at least two contour tracking means that respond to a movement of a different specific direction among the plurality of contour tracking means An animal body extraction device comprising: an interpolation means for interpolating information; and an animal body extraction means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracking means.
【請求項3】 供給される画像情報から動きのある物体
を検出し、その輪郭を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された輪郭を対象として設けら
れ、それぞれ当該輪郭の特定方向の動きにのみ反応する
複数の輪郭追跡手段と、 この複数の輪郭追跡手段の内、異なる特定方向の動きに
反応する少なくとも2つの輪郭追跡手段を対として、相
互に当該輪郭追跡手段の動きを拘束する拘束手段と、 前記複数の輪郭追跡手段の形状とその動きから当該物体
の輪郭形状と動きとを求める動物体抽出手段とを有する
ことを特徴とする動物体抽出装置。
3. A contour extraction means for detecting a contour of a moving object from the supplied image information and a contour thereof, and a contour extracted by the contour extraction means as a target. Of a plurality of contour tracking means and at least two contour tracking means of the plurality of contour tracking means which react to a movement in different specific directions are paired, and the movements of the contour tracking means are mutually restricted. And a moving body extracting means for obtaining the contour shape and movement of the object from the shapes and movements of the plurality of contour tracking means.
【請求項4】 供給される画像情報から動きのある物体
を検出し、その輪郭を抽出する輪郭抽出手段と、 この輪郭抽出手段で抽出された輪郭を対象として設けら
れる複数の輪郭追跡手段と、 この複数の輪郭追跡手段で囲繞される領域内に任意の点
を設定する任意点設定手段と、 この任意点設定手段で設定される任意点と前記複数の輪
郭追跡手段の各輪郭追跡手段との間に設けられ当該輪郭
追跡手段の動きを拘束する拘束手段と、 複数の輪郭追跡手段の形状とその動きから当該物体の輪
郭形状と動きとを求める動物体抽出手段とを有すること
を特徴とする動物体抽出装置。
4. A contour extracting means for detecting a contour of a moving object from the supplied image information and extracting a contour thereof, and a plurality of contour tracking means provided for the contour extracted by the contour extracting means. An arbitrary point setting means for setting an arbitrary point within an area surrounded by the plurality of contour tracing means; an arbitrary point set by the arbitrary point setting means and each contour tracing means of the plurality of contour tracing means. The present invention is characterized by further comprising: restraining means provided between the restraining means for restraining the movement of the contour tracing means, and a moving body extracting means for obtaining the contour shape and movement of the object from the shapes of the plurality of contour tracing means and their movements. Animal body extraction device.
JP28795192A 1992-10-26 1992-10-26 Animal extraction device Expired - Fee Related JP3288086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28795192A JP3288086B2 (en) 1992-10-26 1992-10-26 Animal extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28795192A JP3288086B2 (en) 1992-10-26 1992-10-26 Animal extraction device

Publications (2)

Publication Number Publication Date
JPH06138137A true JPH06138137A (en) 1994-05-20
JP3288086B2 JP3288086B2 (en) 2002-06-04

Family

ID=17723854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28795192A Expired - Fee Related JP3288086B2 (en) 1992-10-26 1992-10-26 Animal extraction device

Country Status (1)

Country Link
JP (1) JP3288086B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0774730A2 (en) 1995-11-01 1997-05-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
JPH10126766A (en) * 1996-10-18 1998-05-15 Fujitsu General Ltd Surveillance camera device
JP2001188910A (en) * 1999-10-22 2001-07-10 Toshiba Corp Image contour extraction method, object extraction method from image, and image transmission system using this object extraction method
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
EP1221673A3 (en) * 2000-12-08 2003-10-08 Mitsubishi Denki Kabushiki Kaisha Method and device for generating a person's portrait and communications terminal using the same
US7254253B2 (en) 2003-03-31 2007-08-07 Honda Motor Co., Ltd. Moving object detection system
JP2009502426A (en) * 2005-08-01 2009-01-29 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド System and method for extracting a body in a medical image volume
JP2009224924A (en) * 2008-03-14 2009-10-01 Sony Computer Entertainment Inc Object tracking device and object tracking method
JP2015522374A (en) * 2012-07-18 2015-08-06 コーニンクレッカ フィリップス エヌ ヴェ Efficient cardiac MR workflow based on automatic planning from mDIXON surveying
WO2017154318A1 (en) * 2016-03-09 2017-09-14 ソニー株式会社 Information processing device, information processing method, program, and information processing system
JP2018028713A (en) * 2016-08-15 2018-02-22 Jfeスチール株式会社 Method of extracting edge of two-dimensional image
CN114359378A (en) * 2021-12-31 2022-04-15 四川省自贡运输机械集团股份有限公司 A positioning method of a belt conveyor inspection robot

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0774730A2 (en) 1995-11-01 1997-05-21 Canon Kabushiki Kaisha Object extraction method, and image sensing apparatus using the method
JPH10126766A (en) * 1996-10-18 1998-05-15 Fujitsu General Ltd Surveillance camera device
JP2002543503A (en) * 1999-04-23 2002-12-17 シーメンス アクチエンゲゼルシヤフト Method and apparatus for determining the position of an object in a scene
US7428335B2 (en) 1999-10-22 2008-09-23 Kabushiki Kaisha Toshiba Method of extracting contour of image, method of extracting object from image, and video transmission system using the same method
JP2001188910A (en) * 1999-10-22 2001-07-10 Toshiba Corp Image contour extraction method, object extraction method from image, and image transmission system using this object extraction method
US7440614B2 (en) 1999-10-22 2008-10-21 Kabushiki Kaisha Toshiba Method of extracting contour of image, method of extracting object from image, and video transmission system using the same method
EP1221673A3 (en) * 2000-12-08 2003-10-08 Mitsubishi Denki Kabushiki Kaisha Method and device for generating a person's portrait and communications terminal using the same
US6885761B2 (en) 2000-12-08 2005-04-26 Renesas Technology Corp. Method and device for generating a person's portrait, method and device for communications, and computer product
US7254253B2 (en) 2003-03-31 2007-08-07 Honda Motor Co., Ltd. Moving object detection system
JP2009502426A (en) * 2005-08-01 2009-01-29 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド System and method for extracting a body in a medical image volume
JP4837036B2 (en) * 2005-08-01 2011-12-14 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド Method for identifying structure different from body in digitized medical image and computer-readable program storage device
JP2009224924A (en) * 2008-03-14 2009-10-01 Sony Computer Entertainment Inc Object tracking device and object tracking method
JP2015522374A (en) * 2012-07-18 2015-08-06 コーニンクレッカ フィリップス エヌ ヴェ Efficient cardiac MR workflow based on automatic planning from mDIXON surveying
WO2017154318A1 (en) * 2016-03-09 2017-09-14 ソニー株式会社 Information processing device, information processing method, program, and information processing system
US10845186B2 (en) 2016-03-09 2020-11-24 Sony Corporation Information processing device, information processing method, and information processing system
JP2018028713A (en) * 2016-08-15 2018-02-22 Jfeスチール株式会社 Method of extracting edge of two-dimensional image
CN114359378A (en) * 2021-12-31 2022-04-15 四川省自贡运输机械集团股份有限公司 A positioning method of a belt conveyor inspection robot

Also Published As

Publication number Publication date
JP3288086B2 (en) 2002-06-04

Similar Documents

Publication Publication Date Title
US10049277B2 (en) Method and apparatus for tracking object, and method and apparatus for calculating object pose information
JP4149213B2 (en) Pointed position detection device and autonomous robot
Meyer et al. Region-based tracking using affine motion models in long image sequences
US8433094B1 (en) System, method and article of manufacture for detecting collisions between video images generated by a camera and an object depicted on a display
JP5167248B2 (en) Modeling of humanoid shape by depth map
CN115861999A (en) A robot grasp detection method based on multi-modal visual information fusion
JP2003346162A (en) Input system by hand image recognition
KR102819021B1 (en) Layered motion representation and extraction from monocular still camera video
JP3288086B2 (en) Animal extraction device
JP2003178303A (en) Object recognition device
JP2001005973A (en) Method and apparatus for estimating a three-dimensional posture of a person from a color image
US5173946A (en) Corner-based image matching
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
Jean et al. Body tracking in human walk from monocular video sequences
JP2005523488A (en) Automatic 3D modeling system and method
KR100292810B1 (en) A Real time face tracking technique using face's color model and ellipsoid approximation model
Cheng et al. Tracking human walking in dynamic scenes
Loutas et al. Occlusion resistant object tracking
JP6995714B2 (en) Specific device, specific method and specific program
JPH0814860A (en) Model making device
KR102875314B1 (en) A full body integrated motion capture method
KR100292811B1 (en) A real time face expression analysis and animation method based on optical flow technique
Takahashi et al. Remarks on a real‐time, noncontact, nonwear, 3D human body posture estimation method
JP3022330B2 (en) Moving image recognition device and moving image recognition method
Pankanti et al. Robust feature detection for 3D object recognition and matching

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080315

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090315

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100315

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees