[go: up one dir, main page]

JP2009289295A - Image extraction method and apparatus - Google Patents

Image extraction method and apparatus Download PDF

Info

Publication number
JP2009289295A
JP2009289295A JP2009209145A JP2009209145A JP2009289295A JP 2009289295 A JP2009289295 A JP 2009289295A JP 2009209145 A JP2009209145 A JP 2009209145A JP 2009209145 A JP2009209145 A JP 2009209145A JP 2009289295 A JP2009289295 A JP 2009289295A
Authority
JP
Japan
Prior art keywords
template
image
matching
representative point
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009209145A
Other languages
Japanese (ja)
Other versions
JP4586103B2 (en
Inventor
Masakazu Matsugi
優和 真継
Toshiaki Kondo
俊明 近藤
Fumiaki Takahashi
史明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009209145A priority Critical patent/JP4586103B2/en
Publication of JP2009289295A publication Critical patent/JP2009289295A/en
Application granted granted Critical
Publication of JP4586103B2 publication Critical patent/JP4586103B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】 所望の対象物を精度良く自動抽出する。
【解決手段】
特徴量抽出装置20は入力画像の特徴量分布を求め2値化する。テンプレートデータ生成装置22は、選択されたテンプレートデータから互いに大きさが異なる複数のテンプレートセットを自動生成する。テンプレート走査装置26は、各テンプレートをそれぞれ画像上でその大きさに応じたサンプリングピッチでラスタースキャンし、各場所で第1の形状適合度を求める。テンプレート図形要素変形装置30が、テンプレート図形を構成するある図形要素の代表点を移動範囲内で移動し、移動後の代表点間を結ぶ新たな曲線セグメントを生成する。形状適合度評価装置32が各部分で第2の形状適合度を評価することにより、第2の形状適合度が所定の基準値以上又は最大となるように代表点が移動する。境界線生成装置34が、代表点間を結ぶ線を生成する。
【選択図】 図2
PROBLEM TO BE SOLVED: To automatically extract a desired object with high accuracy.
[Solution]
The feature quantity extraction device 20 obtains the feature quantity distribution of the input image and binarizes it. The template data generation device 22 automatically generates a plurality of template sets having different sizes from the selected template data. The template scanning device 26 raster-scans each template on the image at a sampling pitch corresponding to the size, and obtains the first shape conformance at each location. The template graphic element deforming device 30 moves a representative point of a certain graphic element constituting the template graphic within the movement range, and generates a new curve segment connecting the representative points after the movement. When the shape conformity evaluation device 32 evaluates the second shape conformance at each portion, the representative point moves so that the second shape conformance is greater than or equal to a predetermined reference value. The boundary line generation device 34 generates a line connecting the representative points.
[Selection] Figure 2

Description

本発明は、画像抽出方法及び装置に関し、より具体的には、画像中から特定カテゴリーの対象を抽出する画像抽出方法及び装置並びに記憶媒体に関する。   The present invention relates to an image extraction method and apparatus, and more specifically, to an image extraction method and apparatus for extracting an object of a specific category from an image, and a storage medium.

特開平8−7107号公報JP-A-8-7107 特開平8−16779号公報JP-A-8-16779 特開平7−334675号公報JP 7-334675 A 特公平7−34219号公報Japanese Patent Publication No. 7-34219 特開平3−240884号公報JP-A-3-240884 特開平7−225847号公報JP 7-225847 A 特開平6−251149号公報JP-A-6-251149 特開平7−107266号公報JP-A-7-107266 特開平8−7075号公報JP-A-8-7075 特開平8−77336号公報JP-A-8-77336 特公平6−42068号公報Japanese Examined Patent Publication No. 6-4068 特公平8−20725号公報Japanese Patent Publication No. 8-20725 特許2642368号公報Japanese Patent No. 2642368 特開平9−50532号公報Japanese Patent Laid-Open No. 9-50532 特開平6−168331号公報JP-A-6-168331 特開平5−242160号公報JP-A-5-242160

M.Kass, A.Witkin, D.Terzopoulos, Snakes, "Active Contour Models,International Journal of Computer Vision, pp.321-331, 1988M. Kass, A. Witkin, D. Terzopoulos, Snakes, "Active Contour Models, International Journal of Computer Vision, pp.321-331, 1988 A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19,pp. 121-132, 1997A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 19, pp. 121-132, 1997 L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061-1075, 1992L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061-1075, 1992 F. S. Cohen, Z. Huang, Z. Yang, "Invariant Matching and Identification of Curves Using B-Splines curve Representation", IEEE Trans. on Image Processing, vo1. 4, pp. 1-10, 1995F. S. Cohen, Z. Huang, Z. Yang, "Invariant Matching and Identification of Curves Using B-Splines curve Representation", IEEE Trans. On Image Processing, vo1. 4, pp. 1-10, 1995 G. C. H. Chuang and C. C. J. Kuo, "Wave1et Descriptor of Planar Curves:Theory and App1ications", IEEE Trans. on Image Processing, vol. 5, pp. 56-70, 1996G. C. H. Chuang and C. C. J. Kuo, "Wave1et Descriptor of Planar Curves: Theory and App1ications", IEEE Trans. On Image Processing, vol. 5, pp. 56-70, 1996

従来、画像から特定の被写体又は対象を切り出す処理として、種々の方式が知られている。第1の方式は、ユーザが指定した物体又は背景上の点の画素値を含む所定範囲の色成分値(又は濃淡値)を有する領域を選択しながら、背景の除去又は抽出被写体の領域指定を繰り返す方法(特開平8−7107号公報、特開平8−16779号公報、特開平7−334675号公報及び特公平7−34219号公報等)、及び、抽出対象の輪郭線を含む大まかな粗輪郭線領域又は局所領域を指定し、その指定領域内で細線化又はクラスタリングなどの処理により対象の境界輪郭線を求めて切り出す方法(特開平3−240884号公報、特開平7−225847号公報、特開平6−251149号公報、特開平7−107266号公報、特開平8−7075号公報、特開平8−77336号公報、特公平6−42068号公報及び特公平8−20725号公報など)がある。   Conventionally, various methods are known as processing for extracting a specific subject or object from an image. The first method is to select a region having a predetermined range of color component values (or shade values) including pixel values of an object specified by the user or a point on the background, or specify the region of the extracted subject. A method of repeating (JP-A-8-7107, JP-A-8-16779, JP-A-7-334675, JP-B-7-34219, etc.), and a rough rough contour including an outline to be extracted A method of specifying a line region or a local region and obtaining and cutting out a target boundary contour line by processing such as thinning or clustering within the specified region (Japanese Patent Laid-Open Nos. 3-240884 and 7-225847, JP-A-6-251149, JP-A-7-107266, JP-A-8-7075, JP-A-8-77336, JP-B-6-4068 and JP-B-8. 20,725 JP, etc.) there is.

第2の方式として、切り出し対象の画像部分を大まかに囲むように閉曲線(又は多角形の境界線)を設定し、色成分の情報のみを用いて対象物の形状にほぼ近い切り出しマスク画像を生成する方法(特許2642368号公報など)がある。   As a second method, a closed curve (or polygonal boundary) is set so as to roughly surround the image portion to be cut out, and a cutout mask image that is almost similar to the shape of the target object is generated using only color component information. There is a method (Japanese Patent No. 2642368).

第3の方式として、画像から対象物体を検出し、その輪郭を抽出する構成(特開平9−50532号公報など)において、多重解像度を利用した粗密探索により入力濃淡画像をモザイク化した画像辞書データを参照しながら対象物体の位置とサイズを求め、それらに基づいて初期輪郭を設定する動的輪郭法(M.Kass, A.Witkin, D.Terzopoulos, Snakes, "Active Contour Models,International Journal of Computer Vision, pp.321−331, 1988)を用いて輪郭を抽出する方法がある。   As a third method, image dictionary data obtained by mosaicing an input grayscale image by a coarse / fine search using multiple resolutions in a configuration (such as JP-A-9-50532) that detects a target object from an image and extracts the contour thereof. A dynamic contour method (M. Kass, A. Witkin, D. Terapoulos, Snakes, “Active Control Models, International Journal of Computer” that obtains the position and size of a target object with reference to FIG. There is a method of extracting a contour using Vision, pp.321-331, 1988).

その他、画像中の特定の物体の有無の判定、又は特定の物体が存在する画像をデータベースから検索して抽出することに利用可能な技術として、予め用意したテンプレートを画像上でスキャンし、各位置でのマッチング度を算出し、そのマッチング度が所定の閾値以上となる位置を探索する方法(特開平6−168331号公報)、画像データベース作成時に画像中の構成要素の領域と構成要素名を入力しておき、所定の特徴を有する画像を高速に検索する方法(特開平5−242160号公報)、ユーザにより与えられた例(スケッチ及び画像等)との類似度を求め、その類似度が高い画像を検索する方法(文献1:A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19,pp. 121−132, 1997など)、及び、形状モデルを用いて境界線を検出する方法(文献2:L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061−1075, 1992)などがある。   In addition, as a technique that can be used to determine the presence or absence of a specific object in an image, or to search and extract an image in which a specific object exists from a database, a template prepared in advance is scanned on the image, and each position A method of calculating a matching level in the image, and searching for a position where the matching level is equal to or higher than a predetermined threshold (Japanese Patent Laid-Open No. 6-168331), inputting a region and a component name of a component in an image when creating an image database In addition, a method of searching for an image having a predetermined feature at a high speed (Japanese Patent Laid-Open No. 5-242160), a degree of similarity with an example given by a user (such as a sketch and an image) is obtained, and the degree of similarity is high Image retrieval method (Reference 1: A. De Bimbo and P. Pa1a, "Visua1 Image Retrieval by Elastic M , “Attaching of User Sketches”, IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19, pp. 121-132, 1997, etc., and a method for detecting a boundary line (Reference 2: L). Steib and JS Duncan, “Boundary Finding with Parametrically Deformable Modes 1”, IEEE Trans. On Pattern Analysis and Machine Int.

曲線をパラメトリックにモデル化する一手法として、スプライン曲線を用いる方法(F. S. Cohen, Z. Huang, Z. Yang, "Invariant Matching and Identification of Curves Using B−Splines curve Representation", IEEE Trans. on Image Processing, vo1. 4, pp. 1−10, 1995)、フーリエ記述子を用いる手法(文献2)、及びウエーブレット記述子を用いる方法(G. C. H. Chuang and C. C. J. Kuo, "Wave1et Descriptor of Planar Curves:Theory and App1ications", IEEE Trans. on Image Processing, vol. 5, pp. 56−70, 1996)などがある   A method using a spline curve as a method for modeling a curve parametrically (FS Cohen, Z Huang, Z Yang, "Invariant Matching and Identification of Curves Reply E". Image Processing, vo1.4, pp. 1-10, 1995), a method using a Fourier descriptor (Literature 2), and a method using a wavelet descriptor (G. C. H. C. Chang and C. C. J. J. et al. Kuo, "Wave1et Descriptor of Planar Curves: Theory and Applications", IEEE Trans. On Image Processing, vol. 5, pp. 56-70, 1996).

しかしながら、上述の第1の方式による画像抽出法は、ユーザの比較的詳細な指示による操作を必要とするので、特定の形状を有する対象物を画像から探索して抽出(切り出し)する処理を自動化できない。   However, since the image extraction method according to the first method described above requires an operation based on a relatively detailed instruction from the user, the process of searching for and extracting (cutting out) an object having a specific shape from the image is automated. Can not.

切り出し対象の画像部分を大まかに囲む閉曲線等を指定する方法(特許2642368号公報)に代表される第2の方式では、閉曲線内に含まれる同じ色成分を有する領域の面積の割合を用いるので、閉曲線内の背景中に被写体と同色となる領域がある場合、及び閉曲線領域が切り出し対象領域と比べて2倍以上の面積を有する場合などでは、背景部分が抽出されるなどの誤抽出を生じ易いという問題があり、汎用性に欠ける。   In the second method typified by a method of specifying a closed curve or the like that roughly encloses an image part to be cut out (Japanese Patent No. 2642368), the ratio of the area of the region having the same color component included in the closed curve is used. If there is an area in the background within the closed curve that has the same color as the subject, or if the closed curve area has an area that is twice or more the area to be cut out, erroneous extraction such as extraction of the background portion is likely to occur. There is a problem and lacks versatility.

第3の方法を示す特開平9−50532号公報に記載される輪郭検出装置では、いわゆる動的輪郭法を用いるので、入力画像の背景部分(抽出対象以外の部分)が複雑なテクスチャパターンを有する場合などでその影響を受けて、抽出すべき輪郭線の複雑さを反映することが困難な場合が多い。すなわち、本来の輪郭線形状から外れた不自然な凹凸形状が抽出されるという問題があった。   In the contour detection apparatus described in Japanese Patent Laid-Open No. 9-50532 showing the third method, the so-called dynamic contour method is used, so that the background portion (portion other than the extraction target) of the input image has a complex texture pattern. In many cases, it is difficult to reflect the complexity of the contour line to be extracted. That is, there is a problem that an unnatural uneven shape deviating from the original contour shape is extracted.

文献2に記載される輪郭抽出法では、輪郭モデルのパラメータ及び輪郭モデルの誤差をガウシアン分布と仮定する確率モデルを前提とするので、実際にそれらの分布が非ガウシアンとなる場合には、正しい輪郭を効率よく抽出することが困難であり、輪郭モデルと抽出対象の形状の差異に関する許容度が低い。   The contour extraction method described in Document 2 assumes a probabilistic model in which the contour model parameters and the contour model error are assumed to be Gaussian distributions. Therefore, when those distributions are actually non-Gaussian, the correct contours are assumed. Is difficult to extract efficiently, and the tolerance for the difference between the contour model and the shape of the extraction target is low.

本発明は、このような問題点を解決する画像抽出方法及び装置を提示することを目的とする。   It is an object of the present invention to provide an image extraction method and apparatus that solves such problems.

本発明はまた、より高速に所望の画像を精度良く抽出できる画像抽出方法及び装置を提示することを目的とする。   It is another object of the present invention to provide an image extraction method and apparatus that can extract a desired image with higher accuracy at a higher speed.

本発明に係る画像抽出方法は、入力画像と局所的なテンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数値を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に代表点を追加する第2のマッチング処理を行う第2のマッチングステップと、前記第2のマッチング処理の結果に基づき前記各代表点を移動し、前記代表点間を結ぶ輪郭線を抽出する輪郭線抽出ステップと、前記輪郭線を含む画像領域を抽出する画像領域抽出ステップとを具備することを特徴とする。   The image extraction method according to the present invention provides a predetermined evaluation function value relating to at least one of a first matching degree relating to a feature value between an input image and a local template and a second matching degree relating to a gradient of the feature value. A first matching step for performing a first matching process to be obtained; and executed when the evaluation function value of the first matching process is equal to or greater than a predetermined threshold value to obtain a distribution function value of edge points on the graphic element A second matching step for performing a second matching process for adding a representative point to a predetermined position in a section where non-edge points exist continuously for a certain length or longer, and each representative based on the result of the second matching process. A contour extracting step for moving a point and extracting a contour line connecting the representative points; and an image region extracting step for extracting an image region including the contour line.

本発明に係る画像抽出装置は、入力画像と局所的なテンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数値を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に代表点を追加する第2のマッチング処理を行う第2のマッチング手段と、前記第2のマッチング処理の結果に基づき前記各代表点を移動し、前記代表点間を結ぶ輪郭線を抽出する輪郭線抽出手段と、前記輪郭線を含む画像領域を抽出する画像領域抽出手段とを具備することを特徴とする。   The image extraction apparatus according to the present invention obtains a predetermined evaluation function value related to at least one of a first matching degree related to a feature value between an input image and a local template and a second matching degree related to a gradient of the feature value. First matching means for performing a first matching process to be obtained and executed when an evaluation function value of the first matching process is equal to or greater than a predetermined threshold value to obtain a distribution function value of edge points on the graphic element Second matching means for performing a second matching process for adding a representative point to a predetermined position in a section where non-edge points exist continuously for a certain length or longer, and each representative based on the result of the second matching process. It comprises a contour line extracting means for moving a point and extracting a contour line connecting the representative points, and an image area extracting means for extracting an image area including the contour line.

本発明に係る画像抽出方法は、画像を入力するステップと、前記画像入力ステップによる入力画像の特徴量分布を抽出する特徴量抽出ステップと、複数の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含むテンプレートモデルを入力するテンプレートモデル入力ステップと、前記テンプレートモデルから前記テンプレートモデルの図形要素と概ね相似の図形要素を有し、互いに異なるサイズの複数のテンプレートセットを生成するテンプレートセット生成ステップと、前記入力画像と前記テンプレートとの前記特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも一つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、前記第1のマッチング処理の結果に基づき前記テンプレートセットの1つを選択するテンプレート選択ステップと、前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に前記代表点を追加する第2のマッチング処理を行う第2のマッチングステップと、前記第2のマッチング処理の結果に基づき前記代表点を移動する代表点更新ステップと、移動後の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含む更新テンプレートを生成するテンプレート更新ステップと、前記更新テンプレートを含む画像データを抽出する画像抽出ステップとを具備することを特徴とする。   An image extraction method according to the present invention includes an image input step, a feature amount extraction step of extracting a feature amount distribution of an input image by the image input step, and a curve or a line connecting a plurality of representative points and the representative points. A template model input step for inputting a template model including a minute as a graphic element, and a template set having a graphic element substantially similar to the graphic element of the template model from the template model and generating a plurality of template sets having different sizes from each other A first matching for obtaining a predetermined evaluation function value relating to at least one of a first matching degree relating to the value of the feature quantity between the input image and the template and a second matching degree relating to a gradient of the feature quantity; A first matching step for performing processing, and a result of the first matching processing A template selection step of selecting one of the template sets based on the evaluation function value of the first matching process is equal to or greater than a predetermined threshold value, and obtaining a distribution function of edge points on the graphic element; A second matching step for performing a second matching process for adding the representative point to a predetermined position in a section where non-edge points exist continuously for a certain length or longer, and the representative point based on a result of the second matching process A representative point update step for moving the image, a template update step for generating an update template including a curved line or a line segment connecting the representative point after the movement and the representative point as a graphic element, and image data including the update template is extracted. And an image extraction step.

本発明に係る画像抽出方法は、画像を入力する画像入力手段と、前記画像入力手段による入力画像の特徴量分布を抽出する特徴量抽出手段と、複数の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含むテンプレートモデルを入力するテンプレートモデル入力手段と、前記テンプレートモデルから前記テンプレートモデルの図形要素と概ね相似の図形要素を有し、互いに異なるサイズの複数のテンプレートセットを生成するテンプレートセット生成手段と、前記入力画像と前記テンプレートとの前記特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも一つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、前記第1のマッチング処理の結果に基づき前記テンプレートセットの1つを選択するテンプレート選択手段と、前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に前記代表点を追加する第2のマッチング処理を行う第2のマッチング手段と、前記第2のマッチング処理の結果に基づき前記代表点を移動する代表点更新手段と、移動後の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含む更新テンプレートを生成するテンプレート更新手段と、前記更新テンプレートを含む画像データを抽出する画像抽出手段とを具備することを特徴とする。   An image extraction method according to the present invention includes an image input unit for inputting an image, a feature amount extraction unit for extracting a feature amount distribution of an input image by the image input unit, and a curve connecting a plurality of representative points and the representative points. Alternatively, template model input means for inputting a template model including a line segment as a graphic element, and a plurality of template sets having graphic elements substantially similar to the graphic element of the template model from the template model and having different sizes from each other are generated. A template set generating means for obtaining a predetermined evaluation function value relating to at least one of a first matching degree relating to the feature value between the input image and the template and a second matching degree relating to a gradient of the feature quantity; First matching means for performing the matching process and the tenth based on the result of the first matching process. A template selection means for selecting one of the rate sets, and when the evaluation function value of the first matching process is equal to or greater than a predetermined threshold value, a distribution function of edge points on the graphic element is obtained, and a fixed length Second matching means for performing a second matching process for adding the representative point to a predetermined position in a section where non-edge points exist continuously, and moving the representative point based on the result of the second matching process Representative point updating means, template update means for generating an update template that includes a curve or a line segment connecting the representative point after movement and the representative point as a graphic element, and image extraction for extracting image data including the update template Means.

これにより、代表点の位置及び数を予め適切に与えて抽出すべき輪郭線形状の複雑さをその輪郭線上の場所毎に設定することができるので、それを保持しながら所定のカテゴリー形状を有する対象を画像から自動的に且つ効率的に探索し、その画像データ又は輪郭線データを高精度に抽出することができる。また、背景部分が複雑なテクスチャパターンを有する場合でも、その影響を受けずに安定して特定の形状を探索のうえ抽出することができる。特に、抽出すべき形状上の固有の特徴、例えば、角(コーナー部)の形状及び凹凸の空間配置関係などが保持され、且つ、その範囲である限りテンプレートモデル形状に対する入力画像中の抽出対象の変形許容量を大きくすることができる。   As a result, the complexity of the contour line shape to be extracted can be set for each location on the contour line by appropriately giving the position and number of representative points in advance, so that it has a predetermined category shape while retaining it. A target can be automatically and efficiently searched from an image, and the image data or contour line data can be extracted with high accuracy. Even when the background portion has a complex texture pattern, a specific shape can be stably searched and extracted without being affected by the influence. In particular, unique features on the shape to be extracted, for example, the shape of corners (corner portions) and the spatial arrangement of irregularities are maintained, and the extraction target in the input image for the template model shape is within the range. The deformation allowance can be increased.

代表点は、その移動範囲が予め設定されている。代表点の移動範囲が他の代表点の位置に基づいて予め設定されていてもよい。これらにより、テンプレートの図形要素の任意の変形を許すことなくおおよその形状を保持したまま効率的に対象を探索し、抽出できる。   The movement range of the representative point is set in advance. The movement range of the representative point may be set in advance based on the position of another representative point. Thus, it is possible to efficiently search for and extract an object while maintaining an approximate shape without allowing any deformation of the graphic elements of the template.

第1のマッチング処理は、入力画像とテンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値を求めることである。第1のマッチング処理は、入力画像と当該テンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値をテンプレートの図形要素上の各代表点とそれを結ぶ曲線上に沿った点について求めることである。これらにより、複雑な背景下でも所望の形状の探索を効率的に行うことができる。   The first matching process is to obtain a predetermined evaluation function value related to at least one of the first matching degree related to the feature value between the input image and the template and the second matching degree related to the gradient of the feature value. In the first matching process, a predetermined evaluation function value relating to at least one of the first matching degree relating to the value of the feature quantity between the input image and the template and the second matching degree relating to the gradient of the feature quantity is obtained as a graphic element of the template. It is to obtain the above representative points and the points along the curve connecting them. Accordingly, a desired shape can be efficiently searched even under a complicated background.

第2のマッチング処理は、当該第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、当該第1のマッチング処理は、当該テンプレートの重心位置を移動し且つ、他の代表点位置との相対位置が概ね保持されるように当該各代表点の移動範囲を設定して当該評価関数値を求めることである。これにより、任意背景を有する画像から所望の対象物を効率的に探索でき、従って、対象物の画像データ又はその輪郭を効率的に抽出できる。   The second matching process is executed when the evaluation function value of the first matching process is equal to or greater than a predetermined threshold, and the first matching process moves the center of gravity position of the template and The evaluation function value is obtained by setting the movement range of each representative point so that the relative position to the representative point position is generally maintained. Thereby, a desired object can be efficiently searched from an image having an arbitrary background, and therefore image data of the object or its contour can be efficiently extracted.

代表点間を結ぶ曲線は各代表点を通るような所定のスプライン関数で表わされる。これにより、少数のパラメータで記述されるモデルデータにより、任意の滑らかさを持った画像又は輪郭線を抽出できる。   A curve connecting representative points is represented by a predetermined spline function passing through each representative point. Thus, an image or contour line having an arbitrary smoothness can be extracted from model data described with a small number of parameters.

代表点は、更新テンプレートの生成後に第2のマッチング処理の評価関数値に基づき所定の位置に追加され、又は所定の位置のものが削除される。これにより、与えられたモデルデータに適合しない複雑さを有する入力画像の輪郭形状部分に対して自動的にこれに適合するようにモデルデータが修整される。その結果として、自動抽出可能な対象物の形状の範囲が1つのモデルデータに対して大幅に拡張される。従って、抽出カテゴリーに属する対象の変形量が比較的大きくても、対応するモデルデータの数を少数にとどめることができる。   The representative point is added to a predetermined position based on the evaluation function value of the second matching process after the update template is generated, or the representative point is deleted. As a result, the model data is automatically modified so that it conforms to the contour shape portion of the input image having a complexity that does not fit the given model data. As a result, the range of the shape of the object that can be automatically extracted is greatly expanded with respect to one model data. Therefore, even if the deformation amount of the target belonging to the extraction category is relatively large, the number of corresponding model data can be limited to a small number.

第2のマッチング処理の評価関数は、当該図形要素上のエッジ点の分布関数であり、一定長以上連続して非エッジ点が存在する区間の所定位置に当該代表点を追加するものである。   The evaluation function of the second matching process is a distribution function of edge points on the graphic element, and adds the representative point to a predetermined position in a section where non-edge points exist continuously for a certain length or more.

テンプレートモデル入力ステップ(手段)は、抽出カテゴリーに属する基本テンプレートを選択するステップ(手段)を含む。これにより、抽出カテゴリーを選択するだけで、入力画像から抽出すべき対象を探索でき、その輪郭線又は画像を抽出できる。   The template model input step (means) includes a step (means) for selecting a basic template belonging to the extraction category. Thereby, the object which should be extracted from an input image can be searched only by selecting an extraction category, and the outline or image can be extracted.

特徴量の勾配は、テンプレートモデルの図形要素上の所定の点での図形要素を構成する線分又は曲線の傾きであり、第2の特徴量はその傾きの一致度を表わす。これにより、テンプレートモデルの局所的形状を一定レベルで保存するように、画像又は輪郭線が抽出される。   The gradient of the feature amount is an inclination of a line segment or a curve constituting the graphic element at a predetermined point on the graphic element of the template model, and the second feature amount represents the degree of coincidence of the inclination. Thereby, an image or a contour line is extracted so as to preserve the local shape of the template model at a certain level.

変形モードは、テンプレートモデルの図形要素の全部又は一部に関する透視変換及びアフィン変換の少なくとも1つを含む幾何学的変換である。これにより、テンプレートモデルの局所的形状の幾何学的位相を保存して、画像又は輪郭線を抽出できる。   The deformation mode is a geometric transformation including at least one of a perspective transformation and an affine transformation for all or part of the graphic elements of the template model. Thereby, the geometric phase of the local shape of a template model is preserve | saved, and an image or an outline can be extracted.

評価関数は、テンプレートの図形要素上のエッジ割合又は図形要素上の各点での特徴量勾配とエッジデータ上の各点に対応する点でのエッジ強度勾配との距離に関する総和である。これにより、テンプレートモデルデータが濃淡画像などで与えられる場合の形状データの相違に関する取り扱いが可能になる。   The evaluation function is the sum of the edge ratio on the graphic element of the template or the distance between the feature amount gradient at each point on the graphic element and the edge intensity gradient at the point corresponding to each point on the edge data. Thereby, it is possible to handle the difference in shape data when the template model data is given as a grayscale image or the like.

図形要素は、抽出すべき対象の輪郭線である。図形要素はまた、抽出すべき対象の画像を所定の解像度で間引いて得られる画像、又は、抽出すべき対象の輪郭線画像を所定の解像度で間引いて得られる画像であってもよい。このようにして細部を省略して抽出すべき対象に関する抽象化されたデータを用いることにより、抽出対象の多様な変形などに容易に対応できるようになる。   The graphic element is a contour line to be extracted. The graphic element may also be an image obtained by thinning out an image of a target to be extracted at a predetermined resolution, or an image obtained by thinning out an outline image of a target to be extracted at a predetermined resolution. In this way, by using the abstracted data related to the object to be extracted with the details omitted, it becomes possible to easily cope with various deformations of the object to be extracted.

図形要素は、所定のスプライン曲線のパラメータにより表わされる。図形要素はまた、所定のフーリエ記述子又はウェーブレット記述子のパラメータにより表わされる。これにより、抽出すべき画像の輪郭に関するデータがコンパクトになり、テンプレートデータの記憶に必要なメモリ容量を少なくできる。また、抽出対象の滑らかな形状及び複雑な形状などを予め核部分ごとにデータとして保持することが出来るので、多様な背景下でも安定して所望の対象物に関する輪郭線を得ることができる。   The graphic element is represented by a predetermined spline curve parameter. A graphic element is also represented by a predetermined Fourier descriptor or wavelet descriptor parameter. As a result, the data regarding the contour of the image to be extracted becomes compact, and the memory capacity required for storing the template data can be reduced. In addition, since a smooth shape, a complicated shape, and the like of an extraction target can be stored in advance as data for each core portion, a contour line regarding a desired target can be stably obtained even under various backgrounds.

代表点の移動範囲は、評価関数値が所定の閾値以上の場合で、図形要素上の代表点が特徴量に関する非エッジ点のときには、代表点が特徴量に関するエッジ点であるときより大きい。これにより、適応的に代表点の探索範囲を設定することが出来、背景パターンの違いや対象の形状変換の多様性に容易に対応出来る。   The movement range of the representative point is larger when the evaluation function value is equal to or greater than a predetermined threshold value, and when the representative point on the graphic element is a non-edge point related to the feature quantity, it is larger than when the representative point is an edge point related to the feature quantity. Thereby, the search range of the representative point can be set adaptively, and it is possible to easily cope with the difference in the background pattern and the variety of target shape conversion.

移動範囲は、各代表点の移動後に図形要素の所定解像度で得られる輪郭線の当該代表点での二次微分値の符号が保持されるように設定される。これにより、形状の局所的な凹凸(凹か凸かの程度の区別)を保持した輪郭線抽出が可能となる。   The movement range is set so that the sign of the secondary differential value at the representative point of the contour line obtained at a predetermined resolution of the graphic element after the movement of each representative point is retained. As a result, it is possible to extract a contour line that retains local unevenness of the shape (a distinction between the degree of concave or convex).

更新ステップにおいて、テンプレートモデルの図形要素は少なくとも一つの開放端を有し、その開放端位置は更新テンプレー外の生成後又は生成過程において特徴量分布に基づき移動することにより、図形要素の形状が更新される。これにより、形状の自由度の高い部分形状を有する対象であっても、少ないテンプレートモデルでその形状変化に対応した輪郭及び画像を抽出できる。   In the update step, the graphic element of the template model has at least one open end, and the open end position is moved based on the feature amount distribution after generation outside the update template or in the generation process, thereby updating the shape of the graphic element. Is done. Thereby, even if it is a target which has a partial shape with a high freedom degree of a shape, the outline and image corresponding to the shape change can be extracted with few template models.

代表点の移動位置は、移動後の当該代表点間を結ぶ曲線又は線分上のエッジ割合が最大又は所定の基準値以上となるように定められる。これにより、入力画像の特徴量に関するエッジ分布(いわゆる濃淡画像のエッジ強度及び空間周波数ドメインでのテクスチャエッジなど)との適合度が高い輪郭線抽出が可能となる。   The movement position of the representative point is determined such that the edge ratio on the curve or line segment connecting the representative points after the movement becomes the maximum or a predetermined reference value or more. As a result, it is possible to extract a contour line having a high degree of matching with an edge distribution relating to the feature quantity of the input image (so-called gray level image edge strength and texture edge in the spatial frequency domain).

代表点の移動位置及び代表点の数は、特徴量分布に対する更新後のテンプレートモデルの所定の情報量基準値が最大となるように定められる。これにより、テンプレートモデルのパラメータが入力画像を過度に高い次数で近似することなどによる弊害、例えばノイズに敏感で不自然な凹凸形状が抽出されることなどを回避できる。   The movement position of the representative point and the number of representative points are determined so that the predetermined information amount reference value of the updated template model for the feature amount distribution is maximized. As a result, it is possible to avoid adverse effects caused by the parameters of the template model approximating the input image with an excessively high order, for example, extraction of an uneven shape sensitive to noise and unnatural.

図形要素は、場所により可変の所定の次数のフーリエ記述子又はウエーブレット記述子のパラメータにより表わされる。これにより、複雑な形状部分と単純な形状部分とが混在するような抽出対象又は形状モデルでも、所望の精度で且つ少ないパラメータで形状を近似できる。   A graphic element is represented by a parameter of a predetermined order Fourier descriptor or wavelet descriptor that is variable depending on the location. As a result, even with an extraction target or shape model in which a complicated shape portion and a simple shape portion are mixed, the shape can be approximated with desired accuracy and with a small number of parameters.

当該特徴量は、局所空間周波数成分の代表値である局所空間周波数成分の代表値である。これにより、テクスチャ境界を安定して捉えることができ、任意の背景と抽出対象の有する模様の組み合わせに対しても、その対象の輪郭及び画像の抽出が安定に行なえる。   The feature amount is a representative value of the local spatial frequency component that is a representative value of the local spatial frequency component. As a result, the texture boundary can be stably captured, and the outline and image of the target can be stably extracted even for a combination of an arbitrary background and a pattern of the extraction target.

代表点更新ステップは、特徴量の分布に最も適合するテンプレートデータに対する所定の局所幾何学的変換パラメータの最ゆう推定値を求めるステップを具備する。これにより、ノイズの影響を排除して、形状の特徴を保存しながら同一カテゴリーに属する抽出対象の輪郭線を抽出できる。   The representative point update step includes a step of obtaining a maximum likelihood estimation value of a predetermined local geometric transformation parameter for the template data that most closely matches the distribution of the feature amount. Thereby, it is possible to extract the outline of the extraction target belonging to the same category while eliminating the influence of noise and preserving the shape characteristics.

最ゆう推定値は、複数の幾何学的変換モードに対応する事前確率分布の所定の線形和からなる第1の評価関数項と特徴量に対する幾何学的変換モードの事後確率を与える第2の評価関数項からなる所定の評価関数を最大にするような幾何学的変換パラメータ値として求められる。これにより、ベイズの法則に基づいて幾何学的変換パラメータ最適値を推定出来る。   The maximum likelihood estimate is a first evaluation function term consisting of a predetermined linear sum of prior probability distributions corresponding to a plurality of geometric transformation modes and a second evaluation that gives the posterior probability of the geometric transformation mode for the feature quantity. It is obtained as a geometric transformation parameter value that maximizes a predetermined evaluation function consisting of function terms. Thereby, the geometric transformation parameter optimum value can be estimated based on Bayes' law.

本発明によれば、テンプレートデータの走査及びその形状に関する適合度評価、並びに拘束条件を与えた変形(移動範囲、形状拘束条件及び局所幾何学的変換など)を実行することにより、形状に関する予め与えられた情報に適合する対象物を画像から自動的に探索することができる。また、適合する範囲において変形の許容度が高く、ノイズに強い輪郭抽出及び画像抽出が可能になる。   According to the present invention, the template data is preliminarily given by executing the template data scanning and the conformity evaluation on the shape, and the deformation (movement range, shape constraint condition, local geometric transformation, etc.) given the constraint condition. It is possible to automatically search for an object that matches the given information from the image. In addition, the tolerance of deformation is high within a compatible range, and noise extraction and contour extraction can be performed.

テンプレートの変形に際して、変形(代表点の移動)に関する拘束条件の全体的なセットが与えられ、又は幾何学的位相を保存するような局所幾何学的変換の推定を行うので、大域的な形状情報が常に保持され、局所的なノイズ等の影響を受けにくい。従って、背景が複雑なパターンを有していても、不自然な輪郭の抽出が効果的に防止される。   When deforming a template, an overall set of constraints on deformation (movement of representative points) is given, or a local geometric transformation is estimated that preserves the geometric phase, so global shape information Are always maintained and are not easily affected by local noise. Therefore, even if the background has a complicated pattern, extraction of an unnatural contour is effectively prevented.

本発明の一実施例の概略構成ブロック図である。It is a schematic block diagram of one Example of this invention. 画像処理装置16の概略構成ブロック図である。2 is a schematic block diagram of an image processing device 16. FIG. テンプレートデータの一例と移動範囲を示す模式図である。It is a schematic diagram which shows an example of template data, and a movement range. テンプレートデータの例を示す表である。It is a table | surface which shows the example of template data. 本実施例の動作フローチャートである。It is an operation | movement flowchart of a present Example. 画像表示装置14の表示画面例である。3 is a display screen example of the image display device 14. 太線上でのエッジ割合の説明例の模式図である。It is a schematic diagram of the example of description of the edge ratio on a thick line. 更新テンプレート生成処理過程におけるテンプレート図形の変形の様子を示す模式図である。It is a schematic diagram which shows the mode of the deformation | transformation of the template figure in the update template production | generation process process. P5がP5’に移動したことに伴う、代表点P6,P7の移動の様子を示す模式図である。It is a schematic diagram which shows the mode of the movement of the representative points P6 and P7 accompanying P5 having moved to P5 '. 更新テンプレート生成処理(図5のS7)を変更した実施例の変更部分の動作フローチャートである。It is an operation | movement flowchart of the change part of the Example which changed the update template production | generation process (S7 of FIG. 5). 人体のテンプレートモデルの例である。It is an example of a human body template model. 幾何学的(アフィン)変換パラメータの推定手順を示すフローチャートである。It is a flowchart which shows the estimation procedure of a geometric (affine) transformation parameter. 不定部分を有するテンプレートモデルの輪郭推定手順を説明する模式図である。It is a schematic diagram explaining the outline estimation procedure of the template model which has an indefinite part. 第3実施例におけるテンプレート更新処理のフローチャートである。It is a flowchart of the template update process in 3rd Example. 図14の説明例である。It is an example of FIG.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例の概略構成ブロック図を示す。10は画像入力装置、12は画像データ及びテンプレートモデル・データを記憶する画像記憶装置、14は画像表示装置、16は画像処理装置、18はマウスなどのポインティング・デバイスからなる指示選択装置である。画像入力装置10は、イメージ・スキャナ、ディジタル・カメラなどの撮像装置、又は、画像データベースに接続する画像データ転送装置からなる。   FIG. 1 shows a schematic block diagram of an embodiment of the present invention. Reference numeral 10 denotes an image input device, 12 denotes an image storage device for storing image data and template model data, 14 denotes an image display device, 16 denotes an image processing device, and 18 denotes an instruction selection device including a pointing device such as a mouse. The image input device 10 includes an imaging device such as an image scanner or a digital camera, or an image data transfer device connected to an image database.

本実施例では、画像入力装置10から、背景から分離抽出されるべき対象を含む画像データが入力し、画像記憶装置12に記憶される。画像記憶装置12に記憶される画像データは、画像表示装置14の画面上の所定位置に所定の形式で表示される。   In this embodiment, image data including an object to be separated and extracted from the background is input from the image input device 10 and stored in the image storage device 12. The image data stored in the image storage device 12 is displayed in a predetermined format at a predetermined position on the screen of the image display device 14.

画像処理装置16の概略構成を図2に示す。20は入力画像の特徴量を抽出する特徴量抽出装置、22は、テンプレートモデル選択装置、24は、複数解像度のテンプレートデータを生成するテンプレートデータ生成装置、26は、テンプレートの走査及び入力画像の特徴量との第1のマッチング評価を実行するテンプレート走査装置、28は、テンプレート上の各代表点の移動範囲・条件を更新及び設定する移動範囲・条件更新設定装置、30は更新テンプレート生成装置、32は変形後の形状適合度の評価を画像特徴量との第2のマッチング処理により変形後の形状適合度を評価する形状適合度評価装置、34は、更新テンプレートの代表点間を滑らかにつなぐスプライン補間曲線によりその図形要素の境界線を生成する境界線生成装置、36は更新テンプレートの境界線を画像表示装置14の画面上で入力画像に重畳して表示する境界線表示装置、38は更新テンプレートの境界線内部の領域を示すマスクデータを生成するマスクデータ生成装置である。図示していないが、更に、更新テンプレートの境界線及び/又はマスクデータを記憶する記憶装置を具備する。   A schematic configuration of the image processing apparatus 16 is shown in FIG. 20 is a feature quantity extraction device that extracts the feature quantity of the input image, 22 is a template model selection apparatus, 24 is a template data generation apparatus that generates template data of multiple resolutions, and 26 is a template scan and a feature of the input image. A template scanning device that executes a first matching evaluation with a quantity; 28, a moving range / condition update setting device that updates and sets the moving range / condition of each representative point on the template; 30, an update template generation device; Is a shape matching degree evaluation apparatus that evaluates the shape matching degree after deformation by evaluating the shape fitting degree after deformation by the second matching process with the image feature amount, and 34 is a spline that smoothly connects the representative points of the update template A boundary line generating device that generates a boundary line of the graphic element by an interpolation curve, Border display device which displays superimposed on the input image on the screen of the device 14, 38 is a mask data generation device for generating mask data indicating a boundary inside region of updating template. Although not shown, a storage device for storing boundary lines and / or mask data of the update template is further provided.

先ず、本実施例で用いるテンプレートモデル及びパラメトリックな曲線表現方法を説明する。   First, a template model and a parametric curve expression method used in this embodiment will be described.

テンプレートデータは、抽出カテゴリ(人物、自動車、魚及び飛行機など)を代表する抽象化された図形要素又は代表的な画像(図形)パターンを主たる構成要素とし、典型的にはそれらを構成する輪郭線データ若しくはその輪郭線を含む背景が無地の濃淡画像又はカラー画像等により与えられる。この輪郭線データは、該当するカテゴリーの外形を表わすものに限らず、そのカテゴリーを構成する主要な形状データ(例えば、人物の顔を構成する目、鼻及び口など)を含んでよいことはいうまでもない。   The template data is mainly composed of abstract graphic elements or representative image (graphic) patterns representative of extraction categories (person, car, fish, airplane, etc.), and typically outlines constituting them. The background including the data or its outline is given by a solid gray image or color image. The contour line data is not limited to representing the outer shape of the corresponding category, but may include main shape data constituting the category (for example, eyes, nose and mouth constituting a human face). Not too long.

各カテゴリーに属する図形要素の輪郭線は、代表点間を通る曲線又は線分で構成され、予めスプライン曲線、フーリエ記述子及びウェーブレット記述子などにより、パラメトリックに表現されているものとする。   The contour lines of the graphic elements belonging to each category are composed of curves or line segments that pass between the representative points, and are preliminarily expressed parametrically by spline curves, Fourier descriptors, wavelet descriptors, and the like.

例えば、輪郭線モデルの全体はJ個のスプライン曲線から構成され、j番目のスプライン曲線   For example, the entire contour model is composed of J spline curves, and the jth spline curve

rj(t) = [ xj(y), yj(t)]
は、n+1個の制御点を有するm次のBスプラインであるとすると、

Figure 2009289295
ここに、j=0,1,・・・,Jである。また、QN,m+1(t)は、
Figure 2009289295
のように表わされる。C=[Cx,N,Cy,N]は、N番目の制御点位置を示すベクトルである。 r j (t) = [x j (y), y j (t)]
Is an m j -th order B-spline with n j +1 control points,
Figure 2009289295
Here, j = 0, 1,..., J. Q N, m + 1 (t) is
Figure 2009289295
It is expressed as C N = [C x, N , C y, N ] is a vector indicating the Nth control point position.

フーリエ記述子を用いる場合には、

Figure 2009289295
と表現される。但し、
Figure 2009289295
である。tは、弧長sと全周長Sを用いて、t=2πs/Sのように表わされる。フーリエ記述子を用いて曲線の一部を表現する場合には、その両端点で When using a Fourier descriptor,
Figure 2009289295
It is expressed. However,
Figure 2009289295
It is. t is expressed as t = 2πs / S using the arc length s and the total circumference S. When expressing a part of a curve using a Fourier descriptor,

x(t) = x(2π−t)   x (t) = x (2π−t)

y(t) = y(2π一t)
とし、従って、b=d=0とすればよい。
y (t) = y (2πone t)
Therefore, b k = d k = 0.

ウェーブレット記述子を用いる場合は、

Figure 2009289295
ここで、
Figure 2009289295
である。 When using wavelet descriptors,
Figure 2009289295
here,
Figure 2009289295
It is.

ウェーブレット関数はそれぞれ周期性を有し、以下のように定義される。すなわち、

Figure 2009289295
ここに、k,m,nは、0又は正の整数であり、関数φ,ψは、双直交3次スプライン関数等が用いられる。 Each wavelet function has periodicity and is defined as follows. That is,
Figure 2009289295
Here, k, m, and n are 0 or a positive integer, and a bi-orthogonal cubic spline function or the like is used for the functions φ and ψ.

テンプレートを構成する輪郭線は、抽出対象の形状を表わす輪郭線を一つの閉曲線として表わすのではなく、抽出対象のカテゴリーを表わす形状の部分的輪郭線からなる構成(例えば、本出願と同じ出願人による特開平7−320086号公報に記載されたモデル)を用いてもよい。   Contour lines constituting the template are not composed of a contour line representing the shape to be extracted as a single closed curve, but are composed of partial contour lines having a shape representing the category to be extracted (for example, the same applicant as the present application). (Japanese Patent Laid-Open No. 7-320086) may be used.

代表点の粗密分布及びこれら曲線のパラメータ(例えば、Bスプライン関数の次数及び制御点の数など)は、抽出すべき対象の形状に関する複雑さ及び滑らかさなどを表現し、反映するものである。図3(a)は、テンプレートを構成する図形要素の一例を示す。テンプレートデータ生成装置24が、画像データから輪郭線抽出などによりこの図形要素を生成してもよい。   The distribution of representative points and the parameters of these curves (for example, the order of the B-spline function and the number of control points) express and reflect the complexity and smoothness of the shape of the object to be extracted. FIG. 3A shows an example of graphic elements constituting the template. The template data generation device 24 may generate this graphic element by extracting contour lines from the image data.

図3(b)及び図4(a),(b)に例示するように、テンプレートデータには、代表点位置とスプライン曲線などのパラメータに関するデータ(曲線の次数及び種別)の他に、各代表点の移動範囲データ又は後述の形状拘束条件が与えられる。   As exemplified in FIGS. 3B and 4A, 4B, the template data includes representative point positions and data related to parameters such as spline curves (curve order and type) as well as representative values. Point movement range data or shape constraint conditions described later are given.

移動範囲を各代表点で明示的に表わすのではなく、単に代表点近傍での形状の凹又は凸が保持されること、若しくは、曲率が保持されること及び新たなループが生成しないことなどの局所形状条件を与えて、それらを移動条件データとして各代表点ごとに与えてもよい。この場合、そのようにして定められる局所形状条件が破られないことと、移動後の更新テンプレートの形状に関する後述する適合度が基準値を満たさないことといいう2つの条件の下で代表点の移動範囲を徐々に拡大して探索し、適合度が基準値以上となった位置で代表点の移動を停止する。   Rather than explicitly representing the movement range at each representative point, the concave or convex shape in the vicinity of the representative point is simply retained, or the curvature is retained and no new loop is generated. Local shape conditions may be given and given as movement condition data for each representative point. In this case, the movement of the representative point is performed under the two conditions that the local shape condition thus determined is not violated and that the later-described goodness of fit regarding the shape of the updated template after the movement does not satisfy the reference value. The range is gradually expanded to search, and the movement of the representative point is stopped at a position where the fitness level is equal to or higher than the reference value.

形状拘束条件としては、例えば、図4(a)の4行目に記載されるように、

Figure 2009289295
とする。(x,y)は、j番目の代表点位置を示す。数8は、代表点(x,y)の近傍の形状に関する凹凸及び曲率の保持されるべき範囲の概算値を示す。 As the shape constraint condition, for example, as described in the fourth line of FIG.
Figure 2009289295
And (X j , y j ) indicates the j-th representative point position. Expression 8 shows an approximate value of the range in which the unevenness and curvature of the shape in the vicinity of the representative point (x j , y j ) should be maintained.

サイズに関する拘束条件として、例えば、

Figure 2009289295
とする。これと形状拘束条件により、(xj−1,yj−1),(x,y)が定まれば、(xj+1,yj+1)は、数8及び数9を満たす範囲の平均値として求めることが出来る。数9でdは、点(x,yj)と(xj+1,yj+1)とを結ぶ線分長の基準値、μはその許容する変化幅の基準値をそれぞれ示す。 As a constraint on size, for example,
Figure 2009289295
And If (x j−1 , y j−1 ) and (x j , y j ) are determined by this and the shape constraint condition, (x j + 1 , y j + 1 ) is the average of the range satisfying Equation 8 and Equation 9. It can be obtained as a value. In Equation 9, d j represents a reference value of the length of the line segment connecting the points (x j , yj) and (x j + 1 , y j + 1 ), and μ represents a reference value of the allowable change width.

図3には、j−1,j,j+1番目の各代表点とそれらを連結するパラメトリックに表現された曲線及び各移動範囲が、図示されている。移動範囲データは、テンプレートを構成する代表点の移動に伴う元のテンプレート形状からの変形許容度を与えるものとして予め与えられている。各移動範囲は、抽出対象の各部分の非剛性度(弾性度及び関節の有無など)及びアプリオリな形状に関する知識によって一般的に異なり、また、テンプレートの変形更新過程においても適宜に変化しうる。   FIG. 3 shows the j−1, j, and j + 1th representative points, the parametric curves connecting them, and the movement ranges. The movement range data is given in advance as giving a deformation tolerance from the original template shape accompanying the movement of the representative points constituting the template. Each movement range generally differs depending on knowledge about the non-rigidity (elasticity, presence / absence of joints, etc.) and a priori shape of each part to be extracted, and can also be changed appropriately in the process of template deformation and update.

例えば、人物の頭部は、通常、2次曲線(楕円形状)関数で近似される凸形状であるが、この頭部を構成する代表点の移動範囲は、移動により新たな凹部が発生しないことを条件に定められる。頭部を構成する外形の曲線を輪郭線に沿った弧長の関数として表わした時、凹部の発生は、2階微分値(又はこれに相当する近似値)が正となることにより検出される。   For example, the head of a person usually has a convex shape approximated by a quadratic curve (elliptical shape) function, but the movement range of the representative points constituting this head does not generate a new concave portion due to the movement. It is determined on the condition. When the contour curve forming the head is expressed as a function of the arc length along the contour line, the occurrence of a recess is detected by the second-order differential value (or an approximate value corresponding thereto) being positive. .

従って、ある代表点の移動範囲の大きさ及び形状は、その点に隣接する代表点を固定したときに、代表点間を結ぶ曲線が移動後の代表点の近傍において2階微分値(又はその近似値)が正とならない範囲となるように決定される。この範囲は、厳密には、当該代表点を除く他の代表点の移動とともに相対的に変化するが、変形量が大きくなく且つ形状の類似性が保たれる範囲として、予め各代表点ごとに固定(代表点ごとにその範囲の大きさ及び形状が異なっても良い)して、設定されている。   Therefore, the size and shape of the movement range of a certain representative point is such that when a representative point adjacent to that point is fixed, the curve connecting the representative points is in the vicinity of the representative point after the movement. (Approximate value) is determined to be in a non-positive range. Strictly speaking, this range changes relatively with the movement of the other representative points excluding the representative point. However, as the range in which the deformation amount is not large and the similarity of the shape is maintained, it is previously determined for each representative point. It is fixed and set (the size and shape of the range may be different for each representative point).

本実施例における画像抽出手順を説明する。図5は、その動作フローチャートを示す。撮影手段などの画像入力装置10から画像データ入力される、画像記憶装置12に格納され、図6に例示するように画像表示装置14の画面上に表示される(S1)。図6で、40は画像表示装置14の画面、42は入力画像、44はテンプレートモデル画像データ、46は目標位置確認インディケータ、48は抽出指示ボタン、50はテンプレートスクロールボタンである。   An image extraction procedure in this embodiment will be described. FIG. 5 shows a flowchart of the operation. Image data is input from the image input device 10 such as a photographing unit, is stored in the image storage device 12, and is displayed on the screen of the image display device 14 as illustrated in FIG. 6 (S1). In FIG. 6, 40 is a screen of the image display device 14, 42 is an input image, 44 is template model image data, 46 is a target position confirmation indicator, 48 is an extraction instruction button, and 50 is a template scroll button.

特徴量抽出装置20は、入力画像の特徴量分布(エッジ強度分布又は各点での局所空間周波数に関する情報など)を求め、所定の閾値で2値化する(S2)。   The feature quantity extraction device 20 obtains a feature quantity distribution (such as edge intensity distribution or information on the local spatial frequency at each point) of the input image, and binarizes it with a predetermined threshold (S2).

テンプレート選択装置22は、テンプレートモデル画像データ44を画像表示装置14の表示画面40上に表示する。ユーザが、抽出カテゴリーのテンプレートデータを選択すると、選択されたテンプレートデータの情報(例えば、図4に例示されるデータ)が読み込まれる(S3)。テンプレートモデル画像データ44に表示される一覧からスクロールボタン50によりテンプレートモデル画像データ44の表示内容をスクロールして所望のものを表示させ、指示選択装置18により選択することにより、希望する1つのテンプレートモデル画像データを選択できる。抽出カテゴリーは、例えば、マイクなどの音声入力装置及び音声認識装置により口頭で抽出カテゴリーの名称を指示入力してもよい。ユーザにより所望のテンプレートデータが選択されると、テンプレートデータ生成装置22は、選択されたテンプレート・データから互いに大きさが異なる複数(通常は10未満)のテンプレートセットを自動生成する(S4)。   The template selection device 22 displays the template model image data 44 on the display screen 40 of the image display device 14. When the user selects template data in the extracted category, information on the selected template data (for example, data illustrated in FIG. 4) is read (S3). By scrolling the display contents of the template model image data 44 from the list displayed in the template model image data 44 with the scroll button 50 to display a desired one and selecting it with the instruction selection device 18, one desired template model is displayed. Image data can be selected. For the extraction category, for example, the name of the extraction category may be verbally input by a voice input device such as a microphone and a voice recognition device. When the desired template data is selected by the user, the template data generating device 22 automatically generates a plurality (usually less than 10) of template sets having different sizes from the selected template data (S4).

テンプレート走査装置26は、各テンプレートをそれぞれ画像上でその大きさに応じた所定のサンプリングピッチ(例えば、テンプレート図形の横幅の10分の1など)でラスタースキャンし(S5)、各場所で第1の形状適合度を求める(S6)。具体的には、形状の適合度を表わすパラメータとして、テンプレート上の図形要素の輪郭線上又はその輪郭線を所定幅(典型的には、5画素程度)に太線化して得られる太線上で、エッジである点の割合及びエッジ点でのエッジ強度勾配の向きの揃い具合(又はそれらの距離)を表わす勾配ベクトルの内積(の絶対値)の総和(又はエッジ点であって上記内積値が基準値以上の点の割合)を求める。   The template scanning device 26 raster-scans each template on the image at a predetermined sampling pitch (for example, one tenth of the width of the template figure) according to the size (S5), and the first scanning is performed at each location. The shape matching degree is obtained (S6). Specifically, as a parameter representing the degree of conformity of the shape, an edge on the outline of the graphic element on the template or on the bold line obtained by thickening the outline to a predetermined width (typically about 5 pixels) The sum of the inner products (absolute values) of the gradient vectors indicating the ratio of the points and the direction of the edge strength gradients at the edge points (or their distance) (or the edge points, the inner product value is the reference value) The ratio of the above points) is obtained.

太線上でのエッジ割合とは、図7に例示するように、太線の中心線上のサンプリング点とそのサンプリング点を含む微小領域(太線領域セル)においてエッジが存在する場合にそのサンプリング点をエッジ点としてカウントする要領で総サンプリング点数に対するエッジ点数の割合である。第1の形状適合度は、画像中の抽出対象とテンプレートとの全体的な形状類似度を表わす。   As illustrated in FIG. 7, the edge ratio on the thick line refers to the sampling point on the center line of the thick line and the minute point (thick line region cell) including the sampling point when the edge exists. Is the ratio of the number of edge points to the total number of sampling points. The first shape matching degree represents the overall shape similarity between the extraction target in the image and the template.

適合度パラメータとしては、本出願と同じ出願人による特開平9−185719号公報に示されるように、テンプレートモデルの輪郭線近傍の画像データ(色成分の情輝度分布など)に関する誤差の逆数等を適合度の尺度として用いてもよい。   As the fitness parameter, as shown in Japanese Patent Laid-Open No. 9-185719 filed by the same applicant as the present application, the reciprocal of an error relating to image data (such as color intensity distribution of color components) in the vicinity of the contour line of the template model. It may be used as a measure of goodness of fit.

複数の大きさの異なるテンプレートの走査及び適合度評価の過程において、あるテンプレートの適合度パラメータが所定の基準値以上となったとき、そのテンプレートの走査を停止し、ユーザに対しては目標対象確認インディケータ46(図6)が表示される。この段階で、対象の位置と大きさに関する情報が抽出されたことになる。ユーザが抽出ボタン48を押して抽出実行処理の開始を指示すると、次の更新テンプレート生成処理(S7)が実行される。   In the process of scanning of multiple templates with different sizes and fitness evaluation, when the fitness parameter of a certain template exceeds a predetermined reference value, scanning of the template is stopped and the target object is confirmed for the user. Indicator 46 (FIG. 6) is displayed. At this stage, information on the position and size of the target is extracted. When the user presses the extraction button 48 to instruct the start of the extraction execution process, the next update template generation process (S7) is executed.

図8は、更新テンプレート生成処理過程におけるテンプレート図形の変形の様子を示す。図8(a)では、テンプレート図形の初期形状と入力画像の対象物形状とのマッチングの程度(補間曲線上のエッジ割合など)が、小さい部分の代表点P1,P2,・・・,P7のように表示されている。これら以外の代表点は、比較的マッチングが良好な点であり、図3(b)に示すような各移動範囲内で最適な移動先が検出される。   FIG. 8 shows a state of deformation of the template figure in the update template generation process. In FIG. 8A, the degree of matching between the initial shape of the template figure and the object shape of the input image (such as the edge ratio on the interpolation curve) of the representative points P1, P2,. Is displayed. Representative points other than these are points with relatively good matching, and an optimal destination is detected within each movement range as shown in FIG.

更新テンププレート生成処理(S7)では、テンプレート図形要素変形装置30が、テンプレート図形を構成するある図形要素(曲線セグメント)の代表点を移動範囲内で(又は数8及び数9などの移動条件に従って)移動し(S7a)、テンプレート図形要素変形装置30が移動後の代表点間を結ぶ新たな曲線セグメントを生成し(S7b)、形状適合度評価装置32が各部分で第2の形状適合度を評価することにより(S7c)、第2の形状適合度が所定の基準値以上又は最大となるように代表点が移動され、最終的に、境界線生成装置34が、代表点間を結ぶ曲線(又は線分)を生成する。これらの処理を実行する過程で、移動条件の緩和等(S7d)が必要に応じて行われ、最終的に、移動条件を満足するようにテンプレート全体が変形される(S7e)。   In the update template generation process (S7), the template graphic element transformation device 30 moves the representative point of a certain graphic element (curve segment) constituting the template graphic within the movement range (or according to the movement conditions such as Equation 8 and Equation 9). ) Moved (S7a), the template graphic element deforming device 30 generates a new curved segment connecting the representative points after the movement (S7b), and the shape conformity evaluation device 32 determines the second shape conformance at each portion. By evaluating (S7c), the representative points are moved so that the second shape conformity is equal to or greater than a predetermined reference value, and finally, the boundary line generating device 34 is a curve ( Or a line segment). In the course of executing these processes, movement conditions are relaxed as necessary (S7d), and finally the entire template is deformed to satisfy the movement conditions (S7e).

境界線表示装置36が、画像表示装置14の画面上にその境界線を入力画像に重畳して表示する。更新テンプレートデータはその境界線データ又はその領域を示す2値のマスクデータとして生成される。   The boundary line display device 36 displays the boundary line superimposed on the input image on the screen of the image display device 14. The update template data is generated as binary mask data indicating the boundary line data or the area.

移動と適合度評価は、各代表点を同時に移動しながら実行するのではなく、エッジ割合の高いセグメントの端点をなす代表点に隣接するエッジ割合の低いセグメントを中継する代表点の移動を優先して行うと効率的である。図8(b)は、そのようにして移動した後の代表点間を結ぶ曲線を表わす更新テンプレートの形状を示す。図8(b)で、図8(a)のPiは、図8(b)では、Pi’に移動している。例えば、図8(a)において、エッジ割合の高いセグメントの端点である代表点Qに隣接する代表点P5について、点Qを中心とする所定の半径(例えば、QからP5までの弧長)の円弧上でP5の移動先を初めに探索する。   Movement and fitness evaluation are not performed while moving each representative point at the same time. Instead, priority is given to moving a representative point that relays a segment with a low edge ratio that is adjacent to a representative point that is an end point of a segment with a high edge ratio. Is efficient. FIG. 8B shows the shape of the update template representing the curve connecting the representative points after moving in such a manner. In FIG. 8B, Pi in FIG. 8A has moved to Pi ′ in FIG. 8B. For example, in FIG. 8A, for a representative point P5 adjacent to the representative point Q that is an end point of a segment with a high edge ratio, a predetermined radius (for example, an arc length from Q to P5) centered on the point Q is used. First, the destination of P5 is searched on the arc.

代表点位置の移動先探索では、上述した移動範囲を所定の確率分布(特に、移動範囲の外で値が0となるようなもの)により表わし、その分布により与えられる代表点位置を確率的に生成し、その代表点を含む曲線セグメントの形状適合度をその都度評価することにより、値が所定基準値以上(又は量大)となる位置を推定してもよい。   In the search for the destination of the representative point position, the above-mentioned movement range is represented by a predetermined probability distribution (particularly, a value having a value of 0 outside the movement range), and the representative point position given by the distribution is stochastically The position where the value is greater than or equal to a predetermined reference value (or large amount) may be estimated by generating and evaluating the shape adaptability of the curve segment including the representative point each time.

代表点の移動先は、第2の形状適合度の評価結果に基づいて決定される。第2の形状適合度は各代表点について定義され、その代表点に隣接する代表点(通常、2つ)との間を結ぶ曲線(又は線分)上のエッジ割合とその曲線(又は線分)上の特徴量勾配(エッジ強度分布の勾配など)の許容範囲内での一致度(許容範囲内で一致している点の割合)の線形和で表わされる。   The movement destination of the representative point is determined based on the evaluation result of the second shape suitability. The second shape fitness is defined for each representative point, and the edge ratio on the curve (or line segment) connecting the representative points (usually two) adjacent to the representative point and the curve (or line segment). ) It is represented by a linear sum of the degree of coincidence (the proportion of points that coincide within the allowable range) within the allowable range of the above feature amount gradient (such as the gradient of the edge intensity distribution).

移動範囲・条件更新設定装置28は、この第2の形状適合度の値に応じて当該代表点の移動範囲を拡大し、又は移動条件を緩和して(S7d)、未だ探索されていない領域から最適な代表点位置、即ち第2の形状適合度が最大となる代表点位置を探索して移動してもよい。即ち、第2の形状適合度に基づいて上述したテンプレートの図形要素を変形することにより、抽出カテゴリーに属するテンプレートの輪郭線形状データと多少異なる輪郭線を有する対象であっても、非適合部分についての代表点移動範囲の拡大又は移動条件の緩和がなされる結果、全体の輪郭抽出が可能となる。   The movement range / condition update setting device 28 expands the movement range of the representative point according to the second shape suitability value or relaxes the movement condition (S7d), and from the area that has not been searched yet. An optimum representative point position, that is, a representative point position that maximizes the second shape suitability may be searched and moved. That is, by deforming the template graphic element described above based on the second shape conformance, even if the target has a slightly different contour from the contour shape data of the template belonging to the extraction category, As a result of the expansion of the representative point movement range or the relaxation of the movement conditions, the entire contour can be extracted.

図8に示す例では、P5がP5’に移動したことに伴い、残りの連続して存在する代表点の移動範囲は、P5’の位置に基づいて更新される。その様子を図9に示す。具体的には、例えば、P5’,P6’,P7’を通る曲線の形状が凸であることと、その曲線の長さと同程度のサイズを維持することの少なくとも一方を拘束条件に移動範囲を設定し、探索を実行する。何れの条件又は両方の条件を用いるかは、抽出対象の非剛性度及び関節の有無などにより異なるが、予めテンプレートデータに定義されているものとする。   In the example shown in FIG. 8, as P5 moves to P5 ', the movement range of the remaining representative points that are present continuously is updated based on the position of P5'. This is shown in FIG. Specifically, for example, the movement range is set with the constraint condition that at least one of the shape of the curve passing through P5 ′, P6 ′, and P7 ′ is convex and the size of the curve is maintained at the same level. Set and run the search. Which condition or both conditions are used depends on the degree of non-rigidity to be extracted and the presence or absence of a joint, but is defined in the template data in advance.

図9では、P6とP6’及びP7とP7’の探索範囲の大きさは同程度であり、各探索範囲の配置は、形状が凸であることの拘束条件(例えば、数8及び数9に示す条件)を当てはめて設定されている。新たに設定される移動範囲は、図9(b)に示すように、元の移動範囲と全く重なり合わないような離れた所になる場合もある。   In FIG. 9, the sizes of the search ranges of P6 and P6 ′ and P7 and P7 ′ are approximately the same, and the arrangement of each search range is a constraint condition that the shape is convex (for example, in Equations 8 and 9). (Conditions shown) are applied. As shown in FIG. 9 (b), the newly set movement range may be far away from the original movement range.

移動範囲を明示的に設定せずに移動の拘束条件のみを与えて代表点を移動する場合には、P5’,P6’,P7’を通る曲線の接線方向の変化率が正であること(数8及び数9参照)等を条件として課せばよい。   When the representative point is moved by giving only the movement constraint condition without explicitly setting the movement range, the rate of change in the tangential direction of the curve passing through P5 ′, P6 ′, and P7 ′ is positive ( (See Equation 8 and Equation 9).

移動後の代表点間を結ぶ曲線は、元のテンプレートを構成する曲線と同種の曲線を用いるのが望ましい。但し、パラメータの次数等は、抽出対象の形状に最も適合するように変更可能とする。例えば、Bスプライン曲線を用いる場合、次数及び制御点の数等は変更しても構わない。   As the curve connecting the representative points after movement, it is desirable to use the same type of curve as the curve constituting the original template. However, the order of the parameters and the like can be changed to best suit the shape to be extracted. For example, when using a B-spline curve, the order and the number of control points may be changed.

更新後のテンプレートを構成する曲線パラメータの決定法の一例を説明する。或る曲線セグメントv(s)=(x(s),y(s))がn階のBスプライン関数を用いてモデル化されているとする。代表点移動後のパラメータの最適値は、例えば、以下のように推定される。即ち、

Figure 2009289295
ここで、Tは転置行列を示し、B(s)はBスプライン行列、tは曲線セグメントの長さ、QはBスプラインパラメータをそれぞれ示す。 An example of a method for determining a curve parameter constituting the updated template will be described. It is assumed that a certain curve segment v (s) = (x (s), y (s)) T is modeled using an nth-order B-spline function. The optimum value of the parameter after the representative point movement is estimated as follows, for example. That is,
Figure 2009289295
Here, T represents a transposed matrix, B (s) represents a B spline matrix, t represents a length of a curve segment, and Q represents a B spline parameter.

曲線セグメントに対応する抽出対象の輪郭線をv’(s)=(x’(s),y’(s))とし、各点での特徴量(エッジ強度値など)をE’(s)とおき、E’(s)がE(s)に対して正規分布をなすとすると、その確率分布密度関数は、

Figure 2009289295
となる。ここで、(σ,(σは、E’(s)=(Ex’(s),Ey’(s))に対する分散を示す。 The contour to be extracted corresponding to the curve segment is set to v ′ (s) = (x ′ (s), y ′ (s)) T, and the feature value (edge intensity value, etc.) at each point is E v ′ ( s), and E v ′ (s) is normally distributed with respect to E v (s), the probability distribution density function is
Figure 2009289295
It becomes. Here, (σ x ) 2 and (σ y ) 2 indicate variances with respect to E v ′ (s) = (E x ′ (s) , E y ′ (s) ).

本実施例では説明を簡単化して理解を容易にするため、E(s)は2値(0又は1)とし、テンプレート図形の輪郭モデルデータは、E(s)=1となる点の集合として与えられるものとする。このとき、最ゆう推定値は、

Figure 2009289295
で与えられる。Qの階数等は、以下に示す情報量基準AIC(Q)が最小となるnなどのようにして求められる。具体的には、
Figure 2009289295
である。Number(Q)は、Qの要素数である。 In this embodiment, in order to simplify the explanation and make it easy to understand, E v (s) is binary (0 or 1), and the contour model data of the template figure is E v (s) = 1. It shall be given as a set. At this time, the most likely estimate is
Figure 2009289295
Given in. The rank of Q and the like are obtained in the following manner, such as n that minimizes the information criterion AIC (Q) shown below. In particular,
Figure 2009289295
It is. Number (Q) is the number of elements of Q.

移動範囲の拡大は、典型的には、元の移動範囲の形状を単純に所定の倍率で拡大する。しかし、テンプレート図形要素の当該代表点を含む曲線の接線方向を大きくとるような非等方的な拡大でもよい。このとき、前述した移動条件を満たす範囲で探索することはいうまでもない。   The expansion of the movement range typically involves simply expanding the shape of the original movement range at a predetermined magnification. However, it may be an anisotropic expansion in which the tangent direction of the curve including the representative point of the template graphic element is increased. At this time, it goes without saying that the search is performed within a range satisfying the above-described movement condition.

移動に関する拘束条件の緩和によっても第2の形状適合度が所定の基準値(例えば0.3)未満である代表点の数がその全体の一定数以下(例えば、過半数)ならば、当該テンプレートの変形を停止し、大きさ等の異なる他のテンプレートに切り替えて上述した処理を実行しても良い。   If the number of representative points whose second shape conformance is less than a predetermined reference value (for example, 0.3) is less than or equal to a certain number (for example, a majority) of the template even after the restriction on movement is relaxed, The above-described processing may be executed by stopping the deformation and switching to another template having a different size.

当該代表点の近傍にある代表点間を結ぶテンプレートの曲線セグメント上でエッジ割合が極めて高い場合(例えば、0.9以上)、当該代表点の上述したような移動先の探索を行わなくてもよい。   When the edge ratio is very high (for example, 0.9 or more) on the curve segment of the template connecting the representative points in the vicinity of the representative point, it is not necessary to search for the movement destination of the representative point as described above. Good.

図8(c)に示すように、代表点間を結ぶ曲線(又は線分)上において、先に抽出された特徴量の非エッジ点がある場合、その非エッジ点を付加代表点として追加し(そのような非エッジ点が連続している場合にはその連続した非エッジ線分上の中点を新たな代表点とする)、その代表点について同様に移動範囲を設定して(又は移動条件を満たすように移動探索を行って)拘束条件を満たす位置へ移動させ、その代表点に隣接する代表点との間を結ぶ曲線を生成してもよい。この代表点の付加は、自動的に行うことができるが、ユーザの指示により実行しても良い。適切な代表点位置が検出されない場合には、同様にして、移動範囲の拡大又は移動条件の緩和を実行する。   As shown in FIG. 8C, when there is a non-edge point of the feature amount extracted previously on the curve (or line segment) connecting the representative points, the non-edge point is added as an additional representative point. (If such non-edge points are continuous, the midpoint on the continuous non-edge line segment is set as a new representative point), and the movement range is similarly set (or moved) for the representative point. It is also possible to perform a movement search so as to satisfy the condition) and move to a position satisfying the constraint condition to generate a curve connecting the representative point adjacent to the representative point. The addition of the representative point can be automatically performed, but may be executed according to a user instruction. If an appropriate representative point position is not detected, the movement range is expanded or the movement condition is relaxed in the same manner.

最後に、更新後のテンプレート輪郭線を表示し(S8)、輪郭線データからマスクデータを生成し(S9)、必要に応じて輪郭線又はマスクデータを記憶装置に記録して(S10)、処理を終了する。   Finally, the updated template contour line is displayed (S8), mask data is generated from the contour line data (S9), and the contour line or mask data is recorded in the storage device as necessary (S10), and the processing is performed. Exit.

以上の各処理は、コンピュータで実行可能な所定のプログラム形式により形成されていても良いし、各部の処理を所定のゲートアレイ(FPGA及びASlC等)などのハードウェア、又は所定のコンピュータプログラムと図1に示す一部の要素を実現する部分的ハードウェア・モジュールとが混在する形式でも実現できることは明らかである。ハードウェアモジュールが含まれる場合、必ずしも各構成要素が図1に示す構成と同一でなくてもよく、その機能が実質的に同一であるもの、又は、一つの要素が図1の複数の要素の機能を備えるものなどは、本発明の技術的範囲に含まれることはいうまでもない。この点は、以下の実施例において同様である。   Each of the above processes may be formed in a predetermined program format that can be executed by a computer, and each part of the processing may be performed by hardware such as a predetermined gate array (FPGA, ASLC, etc.) or a predetermined computer program. It is clear that the present invention can be realized even in a form in which partial hardware modules that realize some of the elements shown in 1 are mixed. When a hardware module is included, each component does not necessarily have the same configuration as that illustrated in FIG. 1, and the function is substantially the same, or one component is a plurality of components in FIG. 1. Needless to say, those having functions are included in the technical scope of the present invention. This point is the same in the following embodiments.

更新テンプレート生成処理(図5のS7)を変更した実施例を説明する。この変更実施例(第2実施例)では、テンプレートの走査と適合度評価を実行して、抽出対象の位置と適切なテンプレートモデルを選択した後、本実施例に特有の更新テンプレート生成処理を実行する。その具体的処理手順のフローチャートを図10に示す。   An embodiment in which the update template generation process (S7 in FIG. 5) is changed will be described. In this modified embodiment (second embodiment), the template scan and the fitness evaluation are executed, the position of the extraction target and an appropriate template model are selected, and then the update template generation process specific to this embodiment is executed. To do. A flowchart of the specific processing procedure is shown in FIG.

先ず、更新前のテンプレートデータから形状適合度の低いセグメントを含む代表点を自動抽出し(S11)、テンプレートデータをその代表点を含むように局所領域に分割する(S12)。予めまとまった形状要素ごとに領域分割されたテンプレートを使う場合には、この領域分割処理は、不要である。   First, representative points including a segment having a low shape matching degree are automatically extracted from the template data before update (S11), and the template data is divided into local regions so as to include the representative points (S12). In the case of using a template that has been divided into regions for each shape element that has been collected in advance, this region division processing is unnecessary.

代表点を含む局所領域で、以下に説明するような幾何学的変換パラメータの推定と変換を実行する(S13)。本実施例では、所定の代表点の近傍領域について局所的な幾何学的変形(局所アフィン変換、局所双線形変換及び局所透視変換など)によりテンプレートを更新するが、ここでは、そのためのテンプレートの局所幾何学的変換パラメータを、曲線パラメータに関する確率過程のベイズの推定手法に基づき入力画像中の対象に最も適合するようなパラメータとして求める。   In the local region including the representative point, estimation and conversion of geometric conversion parameters as described below are executed (S13). In the present embodiment, the template is updated by local geometric deformation (such as local affine transformation, local bilinear transformation, and local perspective transformation) in the vicinity region of a predetermined representative point. The geometric transformation parameter is obtained as a parameter that best fits the object in the input image based on the Bayesian estimation method of the stochastic process regarding the curve parameter.

更に、必要に応じて輪郭モデル形状を微調整するために、上述の実施例と同様に、変換後の代表点間を結ぶ曲線セグメントを生成し(S14)、第2の形状適合度を評価し(S15)、テンプレート形状を変形し、更新する(S16)。   Further, in order to finely adjust the contour model shape as necessary, a curved segment connecting the converted representative points is generated (S14), and the second shape conformance is evaluated, as in the above-described embodiment. (S15) The template shape is deformed and updated (S16).

この実施例で局所的な幾何学的変形と適合度評価を行う意義は、代表点間の相対的な位置関係(即ち、幾何学的位相及び凹又は凸形状など)を概ね保持しながら、局所的な領域において複数の代表点の位置を一括して所与の変形モードと合致するように変換することにより、抽出対象に適合する輪郭モデルの探索を効率化することにある。   The significance of performing local geometric deformation and fitness evaluation in this embodiment is that the relative positional relationship between representative points (ie, geometric phase and concave or convex shape) is generally maintained, By converting the positions of a plurality of representative points in a specific region so as to match a given deformation mode, it is possible to improve the efficiency of searching for a contour model that matches the extraction target.

アフィン変換、透視変換及び双線形変換はそれぞれ、下記式で与えられる。すなわち、

Figure 2009289295
Figure 2009289295
Figure 2009289295
x’=xw’、y’=yw’、[uv]は変換前の座標、[xy]は変換後の座標、{aij}{a}{b}及びwは変換パラメータである。 The affine transformation, perspective transformation, and bilinear transformation are each given by the following equations. That is,
Figure 2009289295
Figure 2009289295
Figure 2009289295
x ′ = xw ′, y ′ = yw ′, [uv] is a coordinate before conversion, [xy] is a coordinate after conversion, {a ij } {a i } {b i }, and w are conversion parameters.

近傍領域としては、複数の代表点を含む所定サイズの矩形領域とするか、又は、予めテンプレートを所定のブロックごとに分割しておき、変形を各ブロックごとに行なうようにしてもよい。例えば、人体を表わすテンプレートでは、頭部、胴部、胸部及び脚部などのように、意味のある形状ごとにブロック分割したものを近傍領域としてもよい。図11は、人体の各部を予め分割しておき、元のデータ図11(a)に対して各部に所定の幾何学的変換を行なった結果図11(b),(c),(d)を例示する。実際に用いる輪郭線データは、図11の各図形の最外郭輪郭線であることはいうまでもない。   The neighborhood area may be a rectangular area having a predetermined size including a plurality of representative points, or the template may be divided in advance for each predetermined block, and the deformation may be performed for each block. For example, in a template representing a human body, a region divided into blocks for each meaningful shape, such as a head, a torso, a chest, and a leg, may be used as a neighborhood region. FIG. 11 shows the result of dividing each part of the human body in advance and performing a predetermined geometric transformation on each part of the original data FIG. 11A. FIG. 11B, FIG. 11C, and FIG. Is illustrated. Needless to say, the contour data actually used is the outermost contour of each figure in FIG.

近傍領域内の各点(又は代表点)位置を上述の幾何学変換により移動することにより、テンプレートが変形される。アフィン変換を例に、最適な変換パラメータを求める手順を説明する。変換パラメータセット{aij}の事前確率をP(a)、画像データの事前確率をP(b)、変換パラメータが与えられたときに、その変換によって得られるテンプレート図形要素が入力画像の特徴量と一致する事後確率をP(b|a)、画像の特徴量bが与えられたときに、それに対応するテンプレートの変換パラメータセットが{aij}である事後確率をP(a|b)、求めるべき変換パラメータを{aopt}とする。{aopt}は、ベイズの法則に従い、最大事後確率max[P(a|b)]を与えるパラメータとして下記式により与えられる。即ち、

Figure 2009289295
上式の最右辺の対数をとり、またP(b)が定数であることを考慮すると、結局、
Figure 2009289295
となる。 The template is deformed by moving the position of each point (or representative point) in the vicinity region by the above-described geometric transformation. Taking affine transformation as an example, a procedure for obtaining an optimum transformation parameter will be described. When the prior probability of the transformation parameter set {a ij } is P (a), the prior probability of the image data is P (b), and a transformation parameter is given, the template figure element obtained by the transformation is the feature quantity of the input image. And P (b | a), which is a feature quantity b of the image, and P (a | b), the posterior probability that the conversion parameter set of the corresponding template is {a ij } Let the conversion parameter to be obtained be {a opt }. {A opt } is given by the following equation as a parameter that gives the maximum posterior probability max [P (a | b)] according to Bayes' law. That is,
Figure 2009289295
Taking the logarithm of the rightmost side of the above equation and considering that P (b) is a constant, after all,
Figure 2009289295
It becomes.

次に、図12を参照して、幾何学的(アフィン)変換パラメータの推定手順を具体的に説明する。幾何学的変換パラメータの事前確率分布P(a)及び変換によって得られるテンプレート図形要素が入力画像の特徴量と一致する事後確率P(b|a)を下記式に示すようにして求め(S21)、それらを数18の右辺に代入して最大事後確率評価関数を求める(S22)。求めた関数の値が最大となるようなパラメータ{aopt}を、連続勾配山登り法などによる最適化法により求める(S23)。 Next, a procedure for estimating a geometric (affine) transformation parameter will be specifically described with reference to FIG. The prior probability distribution P (a) of the geometric transformation parameter and the posterior probability P (b | a) that the template figure element obtained by the transformation matches the feature quantity of the input image are obtained as shown in the following equation (S21). These are substituted into the right side of Equation 18 to obtain the maximum posterior probability evaluation function (S22). A parameter {a opt } that maximizes the value of the obtained function is obtained by an optimization method such as a continuous gradient hill climbing method (S23).

テンプレートデータが線図形からなるものとし、ある代表点を含むテンプレートの図形要素を構成する局所線分(曲線要素)上の点の集合Nにおいて2値のテンプレートデータt(u,v)にアフィン変換{a}を行った結果の誤差がガウシアン分布となると仮定する。この仮定の下では、事後確率P(b|a)は下記式で与えられる。即ち、

Figure 2009289295
ここで、σは分散、a(u,v)はアフィン変換により点(u,v)が移される座標、bは入力画像の2値のエッジマップ(エッジ強度分布を所定の閾値で2値化したもの)をそれぞれ示す。テンプレートデータが濃淡画像の場合、Nは当該代表点を含む局所領域又は予め分割された当該代表点を含む領域上の点の集合となり、bはエッジ強度分布を示す。 Assume that the template data consists of line figures, and affine transformation into binary template data t (u, v) in a set N of points on a local line segment (curve element) constituting a graphic element of a template including a representative point Assume that the error resulting from performing {a} is Gaussian. Under this assumption, the posterior probability P (b | a) is given by the following equation. That is,
Figure 2009289295
Where σ is the variance, a (u, v) is the coordinate to which the point (u, v) is moved by affine transformation, b is the binary edge map of the input image (the edge intensity distribution is binarized with a predetermined threshold value) Each). When the template data is a grayscale image, N is a set of points on a local region including the representative point or a region including the representative point divided in advance, and b indicates an edge intensity distribution.

事前確率分布P(a)は、水平又は垂直方向への変倍、回転又はシフトを与える変形モードで高い値をとるものとし、

Figure 2009289295
Figure 2009289295
ここで、mij,σijはそれぞれaijの平均及び分散を示し、
Figure 2009289295
である。mode={回転、回転、・・・、倍率、倍率2、・・・、シフト、・・・、その他}のように表わされ、各変形モードごとに、mij及びσijのパラメータ値が与えられる。‘その他’のモードは、特定の名称が与えられない任意の変換モードである。 The prior probability distribution P (a) is assumed to take a high value in a deformation mode that gives scaling, rotation or shift in the horizontal or vertical direction,
Figure 2009289295
Figure 2009289295
Here, m ij and σ ij indicate the mean and variance of a ij , respectively.
Figure 2009289295
It is. mode = {rotation 1 , rotation 2 ,..., magnification 1 , magnification 2, ..., shift 1 ,..., etc.}, and m ij and σ ij for each deformation mode. Parameter values are given. 'Other' mode is any conversion mode that is not given a specific name.

最適な変換パラメータは、数19、数20、数21及び数22を数18に代入し、Vmode及び{aij}について連続勾配山登り法(continuous gradient ascent)又はPowel法などを用いることにより求められる。以上は、最適な変換パラメータを求める手法の一例であり、他の最適化手法(EMアルゴリズム、動的計画法及び遺伝的アルゴリズムなど)を用いてもよいことはいうまでもない。 The optimum transformation parameters are obtained by substituting Equations 19, 20, 21, and 22 into Equation 18 and using a continuous gradient hill climbing method or the Powel method for V mode and {a ij }. It is done. The above is an example of a method for obtaining an optimum conversion parameter, and it goes without saying that other optimization methods (EM algorithm, dynamic programming, genetic algorithm, etc.) may be used.

上述した方法で求めた変換パラメータにより変換されたテンプレートデータを初期値として、更に第1の実施例に示した第2の形状適合度評価に基づく代表点の移動と代表点間を結ぶ曲線の生成処理を行ってもよい。   Using the template data converted by the conversion parameter obtained by the method described above as an initial value, generation of a curve connecting the movement of the representative points and the representative points based on the second shape fitness evaluation shown in the first embodiment Processing may be performed.

上述した方法により抽出対象の輪郭線(閉曲線)が求まったら、その閉曲線データを画像表示装置14の画面上に表示し、必要があれば、閉曲線内部の領域データとしてマスクデータを生成し、その何れかを所定の記憶手段に記録する。   When the contour line (closed curve) to be extracted is obtained by the above-described method, the closed curve data is displayed on the screen of the image display device 14, and if necessary, mask data is generated as area data inside the closed curve. Is recorded in a predetermined storage means.

不定部分を一部に有する図形要素からなる可変形状テンプレートを用いてもよい。不定部分とは変形の自由度が大きい部分であり、変形に伴い新たなループ形状が発生しないこと、及び、不定部分に対応する形状が凹か凸かが予め分かっていることを拘束条件として、それ以外の特定の拘束条件が課されない部分をいう。   You may use the variable shape template which consists of a graphic element which has an indefinite part in part. The indeterminate part is a part with a large degree of freedom of deformation, and it is a constraint that the new loop shape does not occur with the deformation and that the shape corresponding to the indeterminate part is known in advance as concave or convex. A part where no other specific constraint is imposed.

抽出対象として、例えば人物の胸部及び脚部のように関節を有する部分は、変形の自由度が他の部分に比べて大きいことが予め分かっているから、これらの部分を不定部分として予めテンプレートデータ上で定義しておく。   As an extraction target, for example, portions having joints such as a person's chest and legs are known in advance to have a greater degree of freedom of deformation than other portions. Define it above.

第1実施例と同様に、テンプレートの走査と適合度評価を実行し、抽出対象の位置と適切なテンプレートモデルを選択する。次に、テンプレートを構成する図形要素の変形と形状適合度評価によるテンプレート更新を実行する。その際に、先ず、不定部分を除いた部分で第1実施例又は第2実施例に示した方法によりテンプレートを変形し、その後、不定部分の輪郭線を推定する。   As in the first embodiment, template scanning and fitness evaluation are executed, and the position to be extracted and an appropriate template model are selected. Next, template update is executed by deformation of the graphic elements constituting the template and shape suitability evaluation. At that time, first, the template is deformed by the method shown in the first embodiment or the second embodiment except for the indefinite portion, and then the contour of the indefinite portion is estimated.

不定部分の輪郭線を推定する方法として2つの方法を説明する。第1の方法では、不定部分の一方の端点を始点とし、他方を終点とする輪郭追跡を不定部分ごとに実行する。その結果得られる不定部分の輪郭線を近似する曲線を生成してもよい。図13(a),(b)は、第1の方法による不定部分の輪郭形状抽出過程の一例を示す。   Two methods will be described as methods for estimating the contour of the indefinite portion. In the first method, contour tracking with one end point of the indefinite portion as the start point and the other end point is executed for each indefinite portion. A curve that approximates the contour of the indefinite portion obtained as a result may be generated. FIGS. 13A and 13B show an example of the contour shape extraction process of the indefinite portion by the first method.

第2の方法では、図13(c)に示すように、不定部分の両端点を結ぶ線分を直径とするプローブ円をその不定部分の形状が凸なら外側に、凹なら内側方向に移動させながら、各場所でその円の半径と位置を微少量ずつ変化させて、抽出対象の輪郭がその円と2箇所(p,q)で接するような円の位置と半径を求める。これにより、順次、輪郭線の座標を確定していく。この方法は、分岐のない形状の輪郭線を抽出するのに適している。この方法で概略の形状を抽出してから、抽出された部分を初輪郭モデルとして用い、第1実施例又は第2実施例で説明した手法で細部の形状を抽出してもよい。 In the second method, as shown in FIG. 13 (c), the probe circle whose diameter is a line segment connecting both end points of the indeterminate part is moved outward if the indeterminate part is convex, and inward if it is concave. However, the radius and the position of the circle are changed little by little at each place, and the position and radius of the circle where the contour to be extracted is in contact with the circle at two locations (p j , q j ) are obtained. Thereby, the coordinates of the contour line are determined sequentially. This method is suitable for extracting a contour line having no branch. After extracting the approximate shape by this method, the extracted shape may be used as the initial contour model, and the detailed shape may be extracted by the method described in the first embodiment or the second embodiment.

図14は、第3実施例におけるテンプレート更新処理のフローチャートを示す。図14に示す処理は、図5のS7に相当する。   FIG. 14 shows a flowchart of the template update process in the third embodiment. The process shown in FIG. 14 corresponds to S7 in FIG.

先ず、端点を有する曲線セグメントペアを選択し(S31)、不定部分以外のテンプレート図形要素の形状を先の実施例で説明した方法により更新する(S32)。次に、更新後の隣接する図形要素の相対する端点から始点及び終点を設定し(S33)、上述した方法、即ち始点及び終点間を結ぶ輪郭追跡(第1の方法)、又はプローブ円による輪郭位置確定(第2の方法)を実行する(S34)。以上の処理を全ての端点がなくなるまで繰り返し(S35)、テンプレートの図形要素により1つの閉曲線が形成されたら(S35)、更新後のテンプレートデータとして出力する(S36)。   First, a curve segment pair having end points is selected (S31), and the shape of the template graphic element other than the indefinite portion is updated by the method described in the previous embodiment (S32). Next, the start point and the end point are set from the opposite end points of the adjacent graphic elements after the update (S33), and the above-described method, that is, the contour tracking connecting the start point and the end point (first method), or the contour by the probe circle Position determination (second method) is executed (S34). The above processing is repeated until all the end points are eliminated (S35). When one closed curve is formed by the graphic elements of the template (S35), it is output as updated template data (S36).

このような構成では、特定部分について形状の不確定性(自由度)が高いことが予め分かっている抽出対象の輪郭を安定して抽出することが出来る。すなわち、与えられたテンプレートの形状とは大きく異なる部分を有する対象が画像中に存在しても、その異なる部分の輪郭について残りの確定した部分形状のギャップを補完するような最も確からしい曲線(例えば、端点での形状連続性又は画像特徴量の連続性の条件を満たすものとして輪郭追跡により求まる曲線)として求めることができる。   With such a configuration, it is possible to stably extract the contour of the extraction target that is known in advance to have high shape uncertainty (degree of freedom) for a specific portion. That is, even if there is an object in the image that has a part that differs greatly from the shape of the given template, the most probable curve that complements the remaining defined part shape gap for the outline of the different part (e.g. , A curve obtained by contour tracing as a condition satisfying the continuity of the shape at the end points or the continuity of the image feature amount.

第4の実施例として、テンプレート更新処理(図5のS7)に相当する処理として、代表点間を通るテンプレートを構成する図形要素の曲線(又は線分)に沿った(又はその曲線を中心線とする)所定幅の太線を図15に示すように生成し、太線の両側の特徴量(色成分値及び局所空間周波数代表値など)に基づき太線内部の境界位置を推定するようにしてもよい。この場合、テンプレート更新処理の前には、先の実施例と同様の処理が施される。   As a fourth embodiment, as a process corresponding to the template update process (S7 in FIG. 5), a curve along a graphic element (or line segment) constituting a template passing between representative points (or a center line of the curve). A thick line having a predetermined width may be generated as shown in FIG. 15, and the boundary position inside the thick line may be estimated based on the feature values (color component values, local spatial frequency representative values, etc.) on both sides of the thick line. . In this case, the same process as in the previous embodiment is performed before the template update process.

具体的には、図15に示すように太線化した領域の輪郭線1又は輪郭線2の少なくとも一方の上に、領域成長のための核を設定する。領域成長処理では、その核での画像特徴量の差が所定の閾値より小さい核の近傍領域を核に併合し、その結果得られる輪郭線1からの成長結果と輪郭線2からの成長結果を統合する。又は、いずれかの輪郭線からの成長結果に基づいて1つの境界線を推定する。   Specifically, as shown in FIG. 15, a nucleus for region growth is set on at least one of the contour line 1 or the contour line 2 of the thickened region. In the region growing process, a region near the nucleus whose image feature value difference in the nucleus is smaller than a predetermined threshold is merged with the nucleus, and the growth result from the contour line 1 and the growth result from the contour line 2 are obtained as a result. Integrate. Alternatively, one boundary line is estimated based on the growth result from any one of the contour lines.

境界位置は例えば、太線の方向に略直交するライン上での特徴量の最大エッジ強度位置として、又は、太線の両側の所定サンプリング点からの特徴量(例えば、色成分)の類似度に基づく領域成長による境界位置などとして決定される。   The boundary position is, for example, a region based on the maximum edge strength position of the feature amount on a line substantially orthogonal to the direction of the thick line, or the similarity of feature amounts (for example, color components) from predetermined sampling points on both sides of the thick line. It is determined as the boundary position by growth.

本実施例では、最終的に抽出される輪郭線は必ずしもパラメトリックな曲線で表現されなくても良い。   In this embodiment, the contour line finally extracted does not necessarily have to be expressed by a parametric curve.

10:画像入力装置
12:画像記憶装置
14:画像表示装置
16:画像処理装置
18:指示選択装置
20:特徴量抽出装置
22:テンプレートモデル選択装置
24:テンプレートデータ生成装置
26:テンプレート走査装置
28:移動範囲・条件更新設定装置
30:更新テンプレート生成装置
32:形状適合度評価装置
34:境界線生成装置
36:境界線表示装置
38:マスクデータ生成装置
40:画像表示装置14の画面
42:入力画像
44:テンプレートモデル画像データ
46:目標位置確認インディケータ
48:抽出指示ボタン
50:テンプレートスクロールボタン
10: image input device 12: image storage device 14: image display device 16: image processing device 18: instruction selection device 20: feature quantity extraction device 22: template model selection device 24: template data generation device 26: template scanning device 28: Movement range / condition update setting device 30: update template generation device 32: shape conformity evaluation device 34: boundary line generation device 36: boundary line display device 38: mask data generation device 40: screen 42 of image display device 14: input image 44: Template model image data 46: Target position confirmation indicator 48: Extraction instruction button 50: Template scroll button

Claims (4)

入力画像と局所的なテンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、
前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数値を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に代表点を追加する第2のマッチング処理を行う第2のマッチングステップと、
前記第2のマッチング処理の結果に基づき前記各代表点を移動し、前記代表点間を結ぶ輪郭線を抽出する輪郭線抽出ステップと、
前記輪郭線を含む画像領域を抽出する画像領域抽出ステップ
とを具備することを特徴とする画像抽出方法。
A first matching process is performed for obtaining a predetermined evaluation function value related to at least one of a first matching degree relating to a feature value between the input image and a local template and a second matching degree relating to a gradient of the feature quantity. 1 matching step;
This is executed when the evaluation function value of the first matching process is equal to or greater than a predetermined threshold value, obtains a distribution function value of edge points on the graphic element, and obtains a section where non-edge points exist continuously for a certain length or more. A second matching step for performing a second matching process for adding a representative point to a predetermined position;
An outline extracting step of moving the representative points based on a result of the second matching process and extracting an outline connecting the representative points;
An image region extracting step for extracting an image region including the contour line.
入力画像と局所的なテンプレートとの特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも1つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、
前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数値を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に代表点を追加する第2のマッチング処理を行う第2のマッチング手段と、
前記第2のマッチング処理の結果に基づき前記各代表点を移動し、前記代表点間を結ぶ輪郭線を抽出する輪郭線抽出手段と、
前記輪郭線を含む画像領域を抽出する画像領域抽出手段
とを具備することを特徴とする画像抽出装置。
A first matching process is performed for obtaining a predetermined evaluation function value related to at least one of a first matching degree relating to a feature value between the input image and a local template and a second matching degree relating to a gradient of the feature quantity. 1 matching means,
This is executed when the evaluation function value of the first matching process is equal to or greater than a predetermined threshold value, obtains a distribution function value of edge points on the graphic element, and obtains a section where non-edge points exist continuously for a certain length or more. A second matching means for performing a second matching process for adding a representative point to a predetermined position;
Contour extraction means for moving the representative points based on the result of the second matching process and extracting contour lines connecting the representative points;
An image extraction apparatus comprising: an image region extraction unit that extracts an image region including the contour line.
画像を入力するステップと、
前記画像入力ステップによる入力画像の特徴量分布を抽出する特徴量抽出ステップと、
複数の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含むテンプレートモデルを入力するテンプレートモデル入力ステップと、
前記テンプレートモデルから前記テンプレートモデルの図形要素と概ね相似の図形要素を有し、互いに異なるサイズの複数のテンプレートセットを生成するテンプレートセット生成ステップと、
前記入力画像と前記テンプレートとの前記特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも一つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、
前記第1のマッチング処理の結果に基づき前記テンプレートセットの1つを選択するテンプレート選択ステップと、
前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に前記代表点を追加する第2のマッチング処理を行う第2のマッチングステップと、
前記第2のマッチング処理の結果に基づき前記代表点を移動する代表点更新ステップと、
移動後の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含む更新テンプレートを生成するテンプレート更新ステップと、
前記更新テンプレートを含む画像データを抽出する画像抽出ステップ
とを具備することを特徴とする画像抽出方法。
Inputting an image;
A feature amount extraction step of extracting a feature amount distribution of the input image by the image input step;
A template model input step for inputting a template model including a plurality of representative points and a curve or a line segment connecting the representative points as a graphic element;
A template set generating step for generating a plurality of template sets having different graphic sizes from the template model and having a graphic element substantially similar to the graphic element of the template model;
A first matching process is performed for obtaining a predetermined evaluation function value relating to at least one of a first matching degree relating to the feature value of the input image and the template and a second matching degree relating to a gradient of the feature value. 1 matching step;
A template selection step of selecting one of the template sets based on a result of the first matching process;
This is executed when the evaluation function value of the first matching processing is equal to or greater than a predetermined threshold value, obtains a distribution function of edge points on the graphic element, and determines a predetermined interval of non-edge points continuously longer than a certain length. A second matching step for performing a second matching process for adding the representative point to a position;
A representative point update step of moving the representative point based on a result of the second matching process;
A template update step for generating an update template including a curve or a line segment connecting the representative point after movement and the representative point as a graphic element;
An image extraction method comprising: an image extraction step of extracting image data including the update template.
画像を入力する画像入力手段と、
前記画像入力手段による入力画像の特徴量分布を抽出する特徴量抽出手段と、
複数の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含むテンプレートモデルを入力するテンプレートモデル入力手段と、
前記テンプレートモデルから前記テンプレートモデルの図形要素と概ね相似の図形要素を有し、互いに異なるサイズの複数のテンプレートセットを生成するテンプレートセット生成手段と、
前記入力画像と前記テンプレートとの前記特徴量の値に関する第1の一致度と特徴量の勾配に関する第2の一致度の少なくとも一つに関する所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、
前記第1のマッチング処理の結果に基づき前記テンプレートセットの1つを選択するテンプレート選択手段と、
前記第1のマッチング処理の評価関数値が所定の閾値以上になったときに実行され、図形要素上のエッジ点の分布関数を求め、一定長以上連続して非エッジ点が存在する区間の所定位置に前記代表点を追加する第2のマッチング処理を行う第2のマッチング手段と、
前記第2のマッチング処理の結果に基づき前記代表点を移動する代表点更新手段と、
移動後の代表点と前記代表点間を結ぶ曲線又は線分を図形要素として含む更新テンプレートを生成するテンプレート更新手段と、
前記更新テンプレートを含む画像データを抽出する画像抽出手段
とを具備することを特徴とする画像抽出方法。
An image input means for inputting an image;
Feature quantity extraction means for extracting the feature quantity distribution of the input image by the image input means;
A template model input means for inputting a template model including a plurality of representative points and curves or line segments connecting the representative points as graphic elements;
A template set generating means for generating a plurality of template sets having different graphic sizes from the template model and having a graphic element substantially similar to the graphic element of the template model;
A first matching process is performed for obtaining a predetermined evaluation function value relating to at least one of a first matching degree relating to the feature value of the input image and the template and a second matching degree relating to a gradient of the feature value. 1 matching means,
Template selection means for selecting one of the template sets based on a result of the first matching process;
This is executed when the evaluation function value of the first matching processing is equal to or greater than a predetermined threshold value, obtains a distribution function of edge points on the graphic element, and determines a predetermined interval of non-edge points continuously longer than a certain length. A second matching means for performing a second matching process for adding the representative point to a position;
Representative point updating means for moving the representative point based on the result of the second matching process;
A template updating means for generating an update template including a curve or a line segment connecting the representative point after movement and the representative point as a graphic element;
An image extraction method comprising image extraction means for extracting image data including the update template.
JP2009209145A 2009-09-10 2009-09-10 Image extraction method and apparatus Expired - Fee Related JP4586103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009209145A JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009209145A JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP01468199A Division JP4392886B2 (en) 1999-01-22 1999-01-22 Image extraction method and apparatus

Publications (2)

Publication Number Publication Date
JP2009289295A true JP2009289295A (en) 2009-12-10
JP4586103B2 JP4586103B2 (en) 2010-11-24

Family

ID=41458390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009209145A Expired - Fee Related JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP4586103B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103249349A (en) * 2010-12-02 2013-08-14 奥林巴斯株式会社 Endoscopic image processing apparatus and program
CN112926695A (en) * 2021-04-16 2021-06-08 动员(北京)人工智能技术研究院有限公司 Image recognition method and system based on template matching

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (en) * 1994-08-22 1996-03-08 Konica Corp Face extracting method
JPH0950532A (en) * 1995-08-09 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> Contour detector
JPH10191020A (en) * 1996-12-20 1998-07-21 Canon Inc Method and apparatus for extracting subject image
JPH10247240A (en) * 1996-12-11 1998-09-14 Hewlett Packard Co <Hp> Method for compressing size of handwriting digital expression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (en) * 1994-08-22 1996-03-08 Konica Corp Face extracting method
JPH0950532A (en) * 1995-08-09 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> Contour detector
JPH10247240A (en) * 1996-12-11 1998-09-14 Hewlett Packard Co <Hp> Method for compressing size of handwriting digital expression
JPH10191020A (en) * 1996-12-20 1998-07-21 Canon Inc Method and apparatus for extracting subject image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103249349A (en) * 2010-12-02 2013-08-14 奥林巴斯株式会社 Endoscopic image processing apparatus and program
CN103249349B (en) * 2010-12-02 2015-12-16 奥林巴斯株式会社 Endoscope image processing apparatus and image processing method
CN112926695A (en) * 2021-04-16 2021-06-08 动员(北京)人工智能技术研究院有限公司 Image recognition method and system based on template matching
CN112926695B (en) * 2021-04-16 2024-05-24 动员(北京)人工智能技术研究院有限公司 Image recognition method and system based on template matching

Also Published As

Publication number Publication date
JP4586103B2 (en) 2010-11-24

Similar Documents

Publication Publication Date Title
JP4392886B2 (en) Image extraction method and apparatus
Audenaert et al. Cascaded statistical shape model based segmentation of the full lower limb in CT
Wei et al. Tensor voting guided mesh denoising
Kégl et al. Piecewise linear skeletonization using principal curves
KR100682889B1 (en) Realistic 3D Face Modeling Method and Apparatus Based on Image
Fan et al. Robust feature-preserving mesh denoising based on consistent subneighborhoods
Werghi et al. A functional-based segmentation of human body scans in arbitrary postures
JP6612822B2 (en) System and method for modifying a model
KR20220019278A (en) Deep Learning Models for Image Processing
Chan et al. Two and three dimensional image registration based on B-spline composition and level sets
Amit Graphical shape templates for automatic anatomy detection with applications to MRI brain scans
Sappa Unsupervised contour closure algorithm for range image edge-based segmentation
CN115689966A (en) Medical object recognition method, apparatus, computer device and storage medium
Wu et al. Regulated morphology approach to fuzzy shape analysis with application to blood vessel extraction in thoracic CT scans
JP4586103B2 (en) Image extraction method and apparatus
JP2000216979A (en) Image extraction method and apparatus, and storage medium
CN113780040B (en) Lip key point positioning method and device, storage medium, and electronic device
JP2000048212A (en) Image processing method and apparatus, recording medium
Liu et al. Segmenting geometric reliefs from textured background surfaces
Garrido et al. Image segmentation with cage active contours
Pan et al. Preferential image segmentation using trees of shapes
Palenichka et al. Multi-scale model-based skeletonization of object shapes using self-organizing maps
Kwon et al. Rolled fingerprint construction using MRF-based nonrigid image registration
Xu et al. Group mean differences of voxel and surface objects via nonlinear averaging
Mignotte Nonparametric multiscale energy-based mode and its application in some imagery problems

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees