JPH09327037A - Contour extraction method, image extraction method and device - Google Patents
Contour extraction method, image extraction method and deviceInfo
- Publication number
- JPH09327037A JPH09327037A JP8140076A JP14007696A JPH09327037A JP H09327037 A JPH09327037 A JP H09327037A JP 8140076 A JP8140076 A JP 8140076A JP 14007696 A JP14007696 A JP 14007696A JP H09327037 A JPH09327037 A JP H09327037A
- Authority
- JP
- Japan
- Prior art keywords
- image
- contour
- point
- extracting
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Circuits (AREA)
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 撮像条件の異なる複数の画像を用いて、効率
的且つ高精度の輪郭線抽出を可能とした画像抽出を提供
することにある。
【解決手段】 複数の画像を入力する画像入力部と、画
像入力部によって入力された複数の画像を記憶する画像
メモリと、該複数の画像の少なくとも一対の画像間の画
素値の距離データを演算する第1の演算部と、前記距離
データに基づく輪郭の抽出を行う第2の演算部とを備え
た撮像装置。
An object of the present invention is to provide image extraction that enables efficient and highly accurate contour line extraction by using a plurality of images with different imaging conditions. An image input unit for inputting a plurality of images, an image memory for storing the plurality of images input by the image input unit, and distance data of pixel values between at least a pair of images of the plurality of images are calculated. An image pickup apparatus comprising: a first calculation unit that performs the above; and a second calculation unit that extracts a contour based on the distance data.
Description
【0001】[0001]
【発明の属する技術分野】本発明は輪郭抽出、画像抽出
機能を有する撮像、画像処理システムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup and image processing system having contour extraction and image extraction functions.
【0002】[0002]
【従来の技術】従来、画像切り出し(抽出)を行う一般
的な手法としては特定の色背景を用いるクロマキーや画
像処理(ヒストグラム処理、差分、微分処理、輪郭強
調、輪郭追跡など)によりキー信号を生成するビデオマ
ット(テレビジョン学会技術報告、vol.12,p
p.29−34,1988)などの手法が知られる。2. Description of the Related Art Conventionally, as a general method for extracting (extracting) an image, a key signal is obtained by a chroma key using a specific color background or image processing (histogram processing, difference, differentiation processing, contour enhancement, contour tracking, etc.). Generated video mat (Technical Report of the Television Society, vol. 12, p.
p. 29-34, 1988) and the like.
【0003】画像から特定領域を抽出する他の装置とし
て特公平6−9062号公報に開示される手法において
は空間フィルタによって得られる微分値を2値化して境
界線を検出し、境界線で仕切られる連結領域にラベル付
けを行い、同じラベルを有する領域を抽出するものであ
る。In another method for extracting a specific area from an image, the method disclosed in Japanese Patent Publication No. 6-9062 discloses a method in which a differential value obtained by a spatial filter is binarized to detect a boundary, and the boundary is divided. The connected regions are labeled and the regions having the same label are extracted.
【0004】背景画像との差分に基づいて画像抽出を行
う手法は古典的なものであり、最近は特開平4−216
181号公報において背景画像と処理対象画像との差分
データにマスク画像(特定処理領域のこと)を設定して
画像中の複数の特定領域における対象物体を抽出または
検出を行う手法が開示されている。また特公平7−16
250号公報に係る方式では抽出対象の色彩モデルを用
いて背景を含む現画像の色彩変換データ、背景画像と現
画像との明度の差データから抽出対象の存在確率分布を
求めるものであった。The method of extracting an image based on the difference from the background image is a classical one, and recently, it has been disclosed in Japanese Patent Laid-Open No. 4-216.
Japanese Patent No. 181 discloses a method of extracting or detecting target objects in a plurality of specific regions in an image by setting a mask image (specific processing region) in difference data between a background image and a processing target image. . In addition,
In the method disclosed in Japanese Unexamined Patent Publication No. 250, the existence probability distribution of the extraction target is obtained from the color conversion data of the current image including the background and the brightness difference data between the background image and the current image using the color model of the extraction target.
【0005】また画像から対象物の外輪郭線を抽出して
特定物体画像を抽出する技術の一つにいわゆる動的輪郭
法(M.Kass et al.,“Snakes:A
ctive Contour Models,”Int
ernational Journal of Com
puter Vision,vol.1,pp.321
−331,1987)が知られる。この手法においては
一例として対象物を包囲するように適切に設定された初
期輪郭が移動、変形して最終的に対象物の外形に収束す
る。動的輪郭法はこのように輪郭線に関して定めた評価
関数の最小化により対象の輪郭線を求める手法(動的輪
郭法)である。その初期輪郭の設定法として特開平6−
138137号公報、特開平6−251148号公報、
特開平6−282652号公報などがある。One of the techniques for extracting the outer contour line of an object from an image to extract a specific object image is the so-called dynamic contour method (M. Kass et al., "Snakes: A.
ctive Contour Models, “Int
international Journal of Com
putter Vision, vol. 1, pp. 321
-331,1987) is known. In this method, as an example, an initial contour that is appropriately set so as to surround the object moves, deforms, and finally converges on the outer shape of the object. The active contour method is a method (active contour method) for obtaining a target contour line by minimizing the evaluation function defined in this way. As a method for setting the initial contour, Japanese Patent Laid-Open No. 6-
138137, JP-A-6-251148,
There is JP-A-6-282652 and the like.
【0006】[0006]
【発明が解決しようとしている課題】しかしながら、上
記従来例のうちクロマキー方式は背景の制約が大きく屋
外で使えないこと、色ぬけなどの問題点がある。またビ
デオマット方式は輪郭の指定作業は人間が画素単位で正
確に行う必要があり、そのためには労力と熟練を要する
という問題点がある。However, among the above-mentioned conventional examples, the chroma key method has problems that it cannot be used outdoors due to a large restriction of the background and that the color fades. In addition, the video mat method has a problem in that it is necessary for a person to accurately specify the contour in pixel units, which requires labor and skill.
【0007】背景画像との差分を利用する方式は、一般
的に被写体を除いた背景のみの画像を撮像できない場合
(被写体のサイズ、重量が巨大である場合など)には適
用できず、またユーザ側の負荷もあるという問題があ
る。また撮像条件(カメラパラメータ及び照明などの外
的条件)を考慮していないために背景画像と抽出すべき
被写体込みの画像とを同じ撮像条件、同一固定位置で得
なければ差分データからの抽出対象領域の判定誤差が非
常に大きくなるという問題点があった。また特開平7−
16250号公報では抽出対象の色彩モデルを要すると
いう点で未知物体の画像抽出に不向きである。The method of utilizing the difference from the background image cannot be generally applied when an image of only the background excluding the subject cannot be captured (when the size and weight of the subject are enormous), and also the user. There is also a problem that there is a load on the side. In addition, because the imaging conditions (external conditions such as camera parameters and lighting) are not taken into consideration, if the background image and the image including the subject to be extracted have the same imaging conditions and are not acquired at the same fixed position, the extraction target from the difference data There is a problem that the judgment error of the area becomes very large. In addition, JP-A-7-
No. 16250 is unsuitable for image extraction of an unknown object in that it requires a color model to be extracted.
【0008】また上述した動的輪郭法の初期輪郭設定法
のうち、特開平6−138137号公報においてはフレ
ーム間差分に基づく動きのある物体領域の検出とその領
域近傍での輪郭抽出(変化領域の最大勾配エッジ探索)
に基づいて行われ、任意の背景中の静止物体には適用で
きない。特開平6−282652号公報では画像からエ
ッジの強い特徴点を抽出し、特徴点集合から評価関数に
基づいて評価値の高い点を選択して初期輪郭を設定する
ものであるが背景画像が無地または画像データがなだら
かに変化するものである必要があった。Among the above-mentioned initial contour setting methods of the active contour method, in Japanese Patent Laid-Open No. 6-138137, detection of a moving object area based on a difference between frames and extraction of a contour in the vicinity of the area (changed area) Maximum gradient edge search)
And is not applicable to stationary objects in any background. In Japanese Patent Laid-Open No. 6-282652, feature points with strong edges are extracted from an image, and points having a high evaluation value are selected from a feature point set based on an evaluation function to set an initial contour. Or, it is necessary that the image data changes gently.
【0009】本発明の第1の目的は撮像条件の異なる複
数の画像を用いることにより効率的かつ高精度な輪郭線
抽出を可能にすることである。A first object of the present invention is to enable efficient and highly accurate contour line extraction by using a plurality of images with different imaging conditions.
【0010】本発明の第2の目的は抽出すべき輪郭線の
指定及び局所領域内での輪郭線追跡を繰り返すことによ
り、第1の目的に準拠した効率的かつ高速な輪郭線抽出
を可能にすることである。A second object of the present invention is to enable efficient and high-speed contour line extraction based on the first object by repeating the designation of the contour line to be extracted and the tracing of the contour line in the local area. It is to be.
【0011】本発明の第3の目的は例えばピント状態の
異なる複数画像間の距離データ(例えば差分絶対値、差
分の二乗など)を処理する際、複数画像間の各位置での
距離データの極小点列を輪郭線上の点として追跡するこ
とにより第1の目的に準拠した高精度な輪郭線抽出を可
能にすることである。A third object of the present invention is, for example, when processing distance data between a plurality of images having different focus states (for example, absolute difference value, square of difference, etc.), the minimum distance data at each position between the plurality of images. By tracing the point sequence as points on the contour line, it is possible to perform highly accurate contour line extraction in accordance with the first purpose.
【0012】本発明の第4の目的は局所領域内での極小
点探索のための走査方向を追跡結果に基づいて設定する
ことにより輪郭線追跡処理の効率を向上し、第3の目的
に準拠した効率的かつ高速な輪郭線抽出を可能にするこ
とである。A fourth object of the present invention is to improve the efficiency of the contour line tracking processing by setting the scanning direction for searching for the minimum point in the local area based on the tracking result, and to comply with the third object. This is to enable efficient and high-speed contour line extraction.
【0013】本発明の第5の目的は例えばピント状態の
異なる複数画像間の距離データ(例えば差分絶対値、差
分の二乗など)を処理する際、追跡すべき輪郭線上の代
表点(例えば極小点)抽出精度の信頼度を向上した第2
の目的に準拠した輪郭線抽出を可能にすることである。A fifth object of the present invention is, for example, when processing distance data between a plurality of images having different focus states (for example, absolute difference value, square of difference, etc.), a representative point (for example, a minimum point) on a contour line to be traced. ) Second with improved reliability of extraction accuracy
The purpose is to enable contour line extraction in accordance with the purpose of.
【0014】本発明の第6の目的は第5の目的に加えて
輪郭線上代表点位置が信頼度高く抽出できない領域にお
いても局所的ピーク領域のピーク位置を求めることによ
り、輪郭線の形状精度の高い輪郭線抽出を可能にするこ
とである。In addition to the fifth object, a sixth object of the present invention is to obtain the peak position of a local peak area even in a region where the representative point position on the contour line cannot be extracted with high reliability, so that the shape accuracy of the contour line can be improved. This is to enable high contour line extraction.
【0015】本発明の第7の目的は色信号を用いて輪郭
抽出精度の高い第1の目的に準拠した輪郭線抽出を可能
にすることである。A seventh object of the present invention is to enable contour line extraction using color signals in accordance with the first object of high contour extraction accuracy.
【0016】本発明の第8の目的は撮像条件の異なる複
数の画像を用いることにより効率的かつ高精度な特定被
写体の画像切り出しを可能にすることである。An eighth object of the present invention is to enable efficient and highly accurate image cut-out of a specific subject by using a plurality of images having different imaging conditions.
【0017】本発明の第9の目的は撮像条件の異なる複
数の画像間の距離データを用いることにより背景との境
界線を効率的に検出し、かつ高精度な特定被写体の画像
切り出しを可能にすることである。A ninth object of the present invention is to use the distance data between a plurality of images under different imaging conditions to efficiently detect the boundary line with the background and enable highly accurate image cutting of a specific subject. It is to be.
【0018】本発明の第10の目的は第3の目的に準拠
した画像切り出し(抽出)を可能にすることである。A tenth object of the present invention is to enable image cutting (extraction) based on the third object.
【0019】本発明の第11の目的は第2の目的に準拠
した画像切り出し(抽出)を可能にすることである。An eleventh object of the present invention is to enable image cutting (extraction) based on the second object.
【0020】本発明の第12の目的は輪郭線追跡の結
果、複数の寸断された輪郭線が残る場合でもそれらを連
結して閉曲線の生成を容易にすることである。A twelfth object of the present invention is to facilitate the generation of a closed curve by concatenating a plurality of cut contour lines even if a plurality of broken contour lines remain as a result of contour tracing.
【0021】本発明の第13の目的は特定被写体と背景
との境界線(閉曲線)が複数ある場合(例えば被写体画
像中に背景を含む開口領域がある場合など)、その内ま
たは外いずれかの指示に基づいて選択的に画像領域の抽
出を可能にすることである。A thirteenth object of the present invention is to provide a plurality of boundary lines (closed curves) between a specific subject and a background (for example, when the subject image has an opening area including the background), either inside or outside thereof. That is, it is possible to selectively extract an image region based on an instruction.
【0022】本発明の第14の目的は特定被写体と背景
との境界線(閉曲線)が複数ある場合、抽出画像領域の
内外判別データを一括して入力し、論理演算(積)によ
り一括抽出処理可能とし、画像の抽出効率を向上するこ
とである。A fourteenth object of the present invention is that, when there are a plurality of boundary lines (closed curves) between a specific subject and a background, the inside / outside discrimination data of the extracted image area is input all at once, and the batch extraction processing is performed by logical operation (product). It is possible to improve the image extraction efficiency.
【0023】本発明の第15の目的は被写体と背景との
境界線(閉曲線)が複数ある場合、各境界線の外側を抽
出領域とする場合には内側のデータを削除し、判別デー
タを入力するごとに領域抽出または削除の逐次処理を可
能とすることである。A fifteenth object of the present invention is to input discrimination data when there are a plurality of boundary lines (closed curves) between the subject and the background, and when the outside of each boundary line is the extraction area, the data inside is deleted and the discrimination data is input. This is to enable sequential processing of region extraction or deletion each time.
【0024】本発明の第16の目的は第1の目的に準拠
した輪郭抽出方法を提供することである。A sixteenth object of the present invention is to provide a contour extraction method based on the first object.
【0025】本発明の第17の目的は第1の目的に準拠
した輪郭抽出により得られる閉曲線を用いた画像切り出
し(抽出)方法を提供することである。A seventeenth object of the present invention is to provide an image cutting (extracting) method using a closed curve obtained by contour extraction according to the first object.
【0026】本発明の第18の目的はピント状態の異な
る複数画像間の差異または距離データから第1の目的に
準拠した輪郭抽出を行った得られる閉曲線を用いた画像
切り出し(抽出)方法を提供することである。An eighteenth object of the present invention is to provide an image cutting (extracting) method using a closed curve obtained by performing contour extraction according to the first object from the difference or distance data between a plurality of images having different focus states. It is to be.
【0027】本発明の第19の目的は撮像条件の異なる
複数画像間の距離データ(例えば差分絶対値)から抽出
すべき領域を含む連結領域を抽出する方法を提供するこ
とである。例えば所定の点を含み、所定閾値以上の距離
データを有する領域を併合して閉領域を生成し該領域と
その内または外の領域を含む領域を抽出する。A nineteenth object of the present invention is to provide a method for extracting a connected area including an area to be extracted from distance data (for example, absolute difference value) between a plurality of images having different imaging conditions. For example, an area including a predetermined point and having distance data equal to or more than a predetermined threshold is merged to generate a closed area, and an area including the area and an area inside or outside the area is extracted.
【0028】本発明の第20の目的は第3の目的に準拠
した画像切り出し(抽出)方法を提供することである。A twentieth object of the present invention is to provide an image cutting (extracting) method based on the third object.
【0029】本発明の第21の目的は第16の目的に準
拠した輪郭抽出において、局所的処理と信頼度評価によ
る効率的な輪郭線抽出を行うことができ、かつ信頼度の
高い輪郭線どうしのみを結ぶ曲線を生成させるインター
フェースを設けることにより、最終的な輪郭線形状を著
しく損なわないようにすることである。A twenty-first object of the present invention is, in the contour extraction conforming to the sixteenth object, capable of performing efficient contour line extraction by local processing and reliability evaluation and having high reliability between contour lines. By providing an interface for generating a curve connecting only those, the final contour shape is not significantly impaired.
【0030】本発明の第22の目的は撮像条件の異なる
複数画像間の距離データから輪郭線追跡を行う際、分岐
構造を有するか或は信頼度の低い場合に、輪郭線がその
点近傍を通るように制御点などを設定可能とするインタ
ーフェース機構を設けることにより効率的かつ高精度な
輪郭線抽出方式を提供することである。A twenty-second object of the present invention is to perform contour line tracing from distance data between a plurality of images having different imaging conditions, and when the contour line has a branch structure or has low reliability, the contour line is located near the point. It is to provide an efficient and highly accurate contour line extraction method by providing an interface mechanism capable of setting control points and the like so as to pass.
【0031】本発明の第23の目的は輪郭線が背景パタ
ーンと分岐構造をなす場合の分岐方向選択方式、抽出す
べき輪郭線と交差する背景のパターンの効率的な除去方
式を提供することである。A twenty-third object of the present invention is to provide a branching direction selection method in the case where a contour line has a branching structure with a background pattern, and an efficient removal method of a background pattern intersecting the contour line to be extracted. is there.
【0032】本発明の第24の目的は輪郭線が分岐構造
を有する場合に分岐方向の自動選択方式を提供すること
である。A twenty-fourth object of the present invention is to provide an automatic selection method of branch directions when a contour has a branch structure.
【0033】本発明の第25の目的は撮像条件の異なる
画像間の距離データを表示することによりユーザが抽出
すべき輪郭線の指定、制御の設定を行うことのできるイ
ンターフェース機構を設けることにより効率的かつ高精
度な輪郭線抽出方式を提供することである。A twenty-fifth object of the present invention is to provide an interface mechanism by which the user can specify the contour line to be extracted and set the control by displaying the distance data between images having different imaging conditions. The object is to provide a precise and highly accurate outline extraction method.
【0034】本発明の第26の目的は例えばピント状態
の異なる画像間の差分絶対値(距離データ)からの高精
度かつ欠損の少ない輪郭線抽出方式を提供することであ
る。A twenty-sixth object of the present invention is to provide a highly accurate contour line extraction method with few defects from absolute difference values (distance data) between images having different focus states.
【0035】本発明の第27の目的は撮像条件の異なる
複数画像間の距離データから互いに隣接する均質な(値
が所定範囲内にある)領域を連結抽出することにより画
像抽出を安定して行う方法を提供することである。A twenty-seventh object of the present invention is to perform stable image extraction by connecting and extracting adjacent homogeneous (values within a predetermined range) regions from distance data between a plurality of images under different imaging conditions. Is to provide a method.
【0036】[0036]
【課題を解決するための手段】上記目的を達成するた
め、本願に係る請求項1に記載の発明は、複数の撮像条
件での画像を入力する画像入力手段、画像記憶手段、該
複数画像の少なくとも一対の画像間の画素値の距離デー
タを算出する第一の演算手段、該距離データに基づく輪
郭の抽出を行う第二の演算手段を具備することを特徴と
する。これにより、撮像条件を活用して背景パターンの
除去と被写体抽出を効率的かつ高精度に行うことができ
る。In order to achieve the above object, the invention according to claim 1 of the present application provides an image input means for inputting images under a plurality of image pickup conditions, an image storage means, and an image storage means for storing the plurality of images. It is characterized by comprising a first arithmetic means for calculating distance data of pixel values between at least a pair of images and a second arithmetic means for extracting a contour based on the distance data. As a result, the background pattern can be removed and the subject can be extracted efficiently and highly accurately by utilizing the imaging conditions.
【0037】本願に係る請求項2に記載の発明は、距離
データに基づく輪郭の抽出を行う第二の演算手段は所定
の方法で指示された点を中心とする局所領域設定手段、
局所領域内の輪郭線を追跡する輪郭線追跡手段、追跡後
の輪郭線端点を中心とする再帰的局所領域設定手段とを
有することを特徴とする。これにより、効率的な輪郭線
抽出を行うことができる。According to a second aspect of the present invention, the second computing means for extracting the contour based on the distance data is a local area setting means centered on a point designated by a predetermined method,
The present invention is characterized by having a contour line tracking means for tracking a contour line in a local area and a recursive local area setting means centering on a contour line end point after tracking. As a result, efficient contour line extraction can be performed.
【0038】本願に係る請求項3に記載の発明は、第二
の演算手段は距離データの極大点に略隣接する極小点位
置の検出手段、極小点位置の追跡手段とを有することを
特徴とする。これにより、例えばピント状態の異なる複
数画像から高精度に輪郭抽出を行うことができる。The invention according to claim 3 according to the present application is characterized in that the second computing means has a detecting means for detecting a minimum point position substantially adjacent to the maximum point of the distance data and a tracking means for tracking the minimum point position. To do. Thereby, for example, contour extraction can be performed with high accuracy from a plurality of images having different focus states.
【0039】本願に係る請求項4に記載の発明は、第二
の演算手段は局所領域内の走査方向設定ステップ、走査
開始点更新ステップ、走査方向の一次元的画素値分布極
大点を含むピーク領域において極小点の検出ステップと
極小点位置の追跡ステップとを有することを特徴とす
る。これにより、抽出すべき輪郭線の検出効率及びその
追跡効率を向上させることができる。In the invention according to claim 4 of the present application, the second calculating means is a peak including a scanning direction setting step in the local region, a scanning start point updating step, and a one-dimensional pixel value distribution maximum point in the scanning direction. It is characterized by having a minimum point detection step and a minimum point position tracking step in the region. As a result, the detection efficiency of the contour line to be extracted and its tracking efficiency can be improved.
【0040】本願に係る請求項5に記載の発明は、極小
点検出手段は極大点の画素値との差が所定閾値以上の点
から極小点位置を検出し、輪郭線追跡手段は該極小点間
を結ぶ曲線生成手段を有することを特徴とする。これに
より、輪郭線位置信頼度の高い点のみを用いて輪郭線を
形成し、それ以外の点または輪郭線どうしは近似曲線を
生成することにより被写体画像抽出に適した輪郭線の抽
出を行うことができる。In the invention according to claim 5 of the present application, the minimum point detecting means detects the minimum point position from the point where the difference from the pixel value of the maximum point is a predetermined threshold value or more, and the contour line tracking means detects the minimum point. It is characterized in that it has a curve generating means for connecting between them. As a result, a contour line is formed by using only points with high reliability of the contour line position, and other points or contour lines are approximated by generating an approximated curve to extract a contour line suitable for subject image extraction. You can
【0041】本願に係る請求項6に記載の発明は、曲線
生成手段は極小点間の極小点の存在しない領域において
ピーク領域の極大点を曲線上の点として設定することを
特徴とする。これにより、第5の発明と同様の作用を得
ることができ、かつ輪郭線形状の著しい歪曲を回避する
ことのできる被写体画像抽出に適した輪郭線の抽出を行
うことができる。The invention according to claim 6 of the present application is characterized in that the curve generating means sets the maximum point of the peak region as a point on the curve in a region where there is no minimum point between the minimum points. With this, it is possible to obtain the same operation as that of the fifth aspect of the present invention, and it is possible to perform contour line extraction suitable for subject image extraction that can avoid significant distortion of the contour line shape.
【0042】本願に係る請求項9に記載の発明は、距離
データを算出する際の画素値は3種の色信号からなり、
第二の演算手段は各色信号ごとの差分データに基づき輪
郭の抽出を行うことを特徴とする。これにより、撮像条
件の異なる複数画像を用いて信頼度の高い輪郭線抽出を
行うことができる。According to the invention of claim 9 of the present application, the pixel value at the time of calculating the distance data comprises three kinds of color signals,
The second calculation means is characterized in that the contour is extracted based on the difference data for each color signal. This makes it possible to perform highly reliable contour line extraction using a plurality of images with different imaging conditions.
【0043】本願に係る請求項8に記載の発明は、複数
の異なる撮像条件での画像を入力する画像入力手段、撮
像条件の制御手段、画像記憶手段、画像中の点または領
域の指示選択手段、画像表示手段、複数画像の少なくと
も一対の画像間の画素値の距離データを算出する第一の
演算手段、距離データに基づき画像データの抽出を行う
第二の演算手段を有することを特徴とする。これによ
り、複数の撮像条件の画像から背景を効率よく除去し、
かつ精度の高い画像抽出が可能である。The invention according to claim 8 of the present application is an image input means for inputting images under a plurality of different image pickup conditions, a control means for the image pickup conditions, an image storage means, an instruction selection means for a point or area in the image. An image display means, a first calculation means for calculating distance data of pixel values between at least a pair of images of a plurality of images, and a second calculation means for extracting image data based on the distance data. . This effectively removes the background from images with multiple imaging conditions,
In addition, highly accurate image extraction is possible.
【0044】本願に係る請求項9の発明(画像抽出装
置)は、複数の異なる撮像条件での画像を入力する画像
入力手段、該撮像条件の制御手段、画像記憶手段、画像
中の点または領域の指示選択手段、画像表示手段、複数
画像の少なくとも一対の画像間の画素値の距離データを
算出する第一の演算手段、距離データに基づく輪郭線の
抽出を行う第二の演算手段、輪郭線データから閉曲線を
生成する第三の演算手段、閉曲線の内側または外側の画
像データを抽出する第四の演算手段を具備することを特
徴とする。これにより、背景との境界線を閉曲線として
効率よく抽出し、かつ精度の高い画像抽出が可能であ
る。尚、精密な領域抽出法としては統計的処理(領域成
長、クラスタリング)、或は動的輪郭法などが用いられ
るが、特に限定はしない。According to a ninth aspect of the present invention (image extracting apparatus), an image input means for inputting images under a plurality of different image pickup conditions, a control means for the image pickup conditions, an image storage means, a point or area in the image. Instruction selecting means, image display means, first calculating means for calculating distance data of pixel values between at least one pair of images of a plurality of images, second calculating means for extracting a contour line based on the distance data, contour line It is characterized by comprising a third arithmetic means for generating a closed curve from data and a fourth arithmetic means for extracting image data inside or outside the closed curve. As a result, the boundary line with the background can be efficiently extracted as a closed curve, and highly accurate image extraction can be performed. As the precise area extraction method, statistical processing (area growth, clustering), active contour method, or the like is used, but it is not particularly limited.
【0045】本願に係る請求項10の発明は、前記請求
項8の発明において第二の演算手段は距離データの極大
点に略隣接する極小点位置の検出手段、極小点位置の追
跡手段とを有することを特徴とする。これにより、第3
の発明と同様の作用を有する画像抽出が可能である。According to a tenth aspect of the present invention, in the eighth aspect of the invention, the second computing means includes a minimum point position detecting means and a minimum point position tracking means which are substantially adjacent to the maximum point of the distance data. It is characterized by having. This makes the third
It is possible to extract an image having the same operation as the invention of.
【0046】本願に係る請求項11の発明は、前記請求
項の発明において第二の演算手段は所定の方法で指示さ
れた点を中心とする局所領域設定手段、局所領域内の輪
郭線を追跡する輪郭線追跡手段、追跡後の輪郭線端点を
中心とする再帰的局所領域設定手段とを有することを特
徴とする。これにより、発明と同様の作用を有する画像
抽出が可能である。In the invention of claim 11 according to the present application, in the invention of the above claim, the second computing means is local area setting means centering on a point designated by a predetermined method, and traces a contour line in the local area. And a recursive local area setting means centered on the contour line end point after tracing. As a result, it is possible to extract an image having the same effect as the invention.
【0047】本願に係る請求項12の発明は、前記図中
の発明において第二の演算手段は指示選択手段により指
定される点を中心とする輪郭線抽出後の該輪郭線上の端
点と指定点と異なる点を中心として抽出される他の輪郭
線上の端点とを結ぶ曲線を生成することを特徴とする。
これにより、輪郭追跡の結果得られる複数の断片的な輪
郭線を連結して一つまたは複数の閉曲線を生成して被写
体存在領域を効率よく抽出することができる。According to a twelfth aspect of the present invention, in the invention shown in the figure, the second computing means is the end point and the designated point on the contour line after the contour line is extracted with the point designated by the instruction selecting means as the center. It is characterized in that a curve connecting the other end points on the contour line that is extracted with a different point as the center is generated.
Accordingly, it is possible to efficiently extract a subject existing region by connecting a plurality of fragmentary contour lines obtained as a result of contour tracing to generate one or a plurality of closed curves.
【0048】本願に係る請求項13に記載の発明は、上
記請求項9の発明において第二の演算手段は抽出すべき
画像領域が前記閉曲線の内側か外側かの判別指示データ
を入力し、指示データに基づき画像領域の抽出を行うこ
とを特徴とする。これにより、抽出対象領域の指示を最
小限の指定ステップで行うことが可能である。According to a thirteenth aspect of the present invention, in the above-mentioned ninth aspect of the invention, the second computing means inputs the determination instruction data indicating whether the image region to be extracted is inside or outside the closed curve, and issues an instruction. It is characterized in that the image area is extracted based on the data. As a result, it is possible to specify the extraction target area with the minimum number of specifying steps.
【0049】本願に係る請求項14に記載の第15図に
記載の発明は、上記請求項9の発明において第四の演算
手段は複数の前記閉曲線データとそれぞれに対応する判
別指示データとを入力し、各指示データに基づき得られ
る複数の抽出画像領域データの論理積データを算出する
ことを特徴とする。これにより、対象領域の指示及び抽
出処理を最小限の指定ステップで一括して行うことが可
能である。In the invention of FIG. 15 according to claim 14 of the present application, in the invention of claim 9 described above, the fourth computing means inputs a plurality of the closed curve data and discrimination instruction data corresponding to each of them. The logical product data of the plurality of extracted image area data obtained based on each instruction data is calculated. As a result, it is possible to collectively specify and extract the target area with the minimum number of specifying steps.
【0050】本願に係る請求項15に記載の発明は、請
求項6に記載した発明において第四の演算手段は所定の
順序で入力される複数の前記閉曲線データと対応する判
別指示データに基づいて画像領域の抽出処理を逐次的に
行うことを特徴とする。これにより、背景との境界線
(閉曲線)が多数ある場合は対話的に所望の順序で抽出
処理を行うことが可能である。According to a fifteenth aspect of the present invention, in the invention according to the sixth aspect, the fourth calculating means is based on the determination instruction data corresponding to the plurality of closed curve data input in a predetermined order. The feature is that the extraction processing of the image region is sequentially performed. Thereby, when there are many boundary lines (closed curves) with the background, it is possible to interactively perform the extraction processing in a desired order.
【0051】本願に係る請求項16に記載の発明(輪郭
抽出方法)は、複数の撮像条件での画像を入力するステ
ップ、複数画像の少なくとも一対の画像間の画素値の距
離データを算出する距離データ算出ステップ、距離デー
タに基づく輪郭の抽出を行う輪郭抽出ステップを具備す
ることを特徴とする。これにより、第1の発明と同様な
作用を有する輪郭抽出ステップが実現される。According to a sixteenth aspect of the present invention (contour extraction method), a step of inputting images under a plurality of image pickup conditions, a distance for calculating distance data of pixel values between at least a pair of images of the plurality of images. It is characterized by comprising a data calculation step and a contour extraction step of extracting a contour based on distance data. As a result, the contour extracting step having the same operation as the first aspect of the invention is realized.
【0052】本願に係る請求項17に記載の発明(画像
抽出方法)は、複数の撮像条件での画像を入力するステ
ップ、複数画像の少なくとも一対の画像間の画素値の距
離データを算出する距離データ算出ステップ、距離デー
タに基づく輪郭の抽出を行う輪郭抽出ステップ、抽出さ
れた輪郭に基づいて閉曲線を生成する曲線生成ステッ
プ、閉曲線の内側または外側の画像データ抽出するステ
ップを具備することを特徴とする。これにより、前記請
求項9の発明と同様な作用を有する画像抽出ステップが
実現される。According to a seventeenth aspect of the present invention (image extracting method), a step of inputting images under a plurality of image pickup conditions, a distance for calculating distance data of pixel values between at least a pair of images of the plurality of images. A data calculation step, a contour extraction step for extracting a contour based on distance data, a curve generation step for generating a closed curve based on the extracted contour, and a step for extracting image data inside or outside the closed curve. To do. As a result, the image extracting step having the same effect as that of the invention of claim 9 is realized.
【0053】本願に係る請求項18に記載の発明(輪郭
抽出方法)は、フォーカス条件を制御して合焦度が最大
条件での画像と非合焦画像の複数画像を入力する画像入
力ステップ、複数画像の少なくとも一対の画像間の画素
値の距離データを算出する距離データ算出ステップ、距
離データに基づく輪郭の抽出を行う輪郭抽出ステップを
具備することを特徴とする。これにより、高精度な輪郭
抽出を行うための撮像制御ステップが実現される。The invention (contour extraction method) according to claim 18 of the present application is an image input step of controlling a focus condition and inputting a plurality of images of an image with a maximum focus degree condition and an out-of-focus image, It is characterized by comprising a distance data calculating step of calculating distance data of pixel values between at least a pair of images of a plurality of images and a contour extracting step of extracting a contour based on the distance data. As a result, the image capturing control step for performing highly accurate contour extraction is realized.
【0054】本願に係る請求項19に記載の発明(画像
抽出方法)は、複数の撮像条件での画像を入力するステ
ップ、複数画像の少なくとも一対の画像間の画素値の距
離データを算出する距離データ算出ステップ、距離デー
タに基づく連結領域生成ステップ、連結領域に基づく画
像データ抽出するステップを具備することを特徴とす
る。これにより、輪郭線が複雑な場合、或は画像間の距
離データが概略均質な領域が抽出対象に相当する場合
(視点位置の異なる画像間の視差を距離データとして抽
出する場合など)には距離データの偏差の少ない領域を
連結、併合させることにより、最終的に統計処理による
画像の精密な抽出処理の効率、精度を向上することが可
能である。According to a nineteenth aspect of the present invention (image extracting method), a step of inputting images under a plurality of image pickup conditions, a distance for calculating distance data of pixel values between at least a pair of images of the plurality of images. It is characterized by comprising a data calculation step, a connected area generation step based on distance data, and an image data extraction step based on the connected area. As a result, if the contour line is complicated, or if the area where the distance data between images is approximately uniform corresponds to the extraction target (for example, when parallax between images with different viewpoint positions is extracted as distance data), By connecting and merging the regions having less data deviation, it is possible to finally improve the efficiency and accuracy of the precise image extraction processing by the statistical processing.
【0055】本願に係る請求項20に記載の発明(画像
抽出方法)は、前記請求項16に記載の発明において輪
郭抽出ステップは距離データの極大点に略隣接する極小
点位置の検出ステップ、極小点位置の追跡ステップとを
有することを特徴とする。これにより、例えばピント状
態の異なる複数の画像からの高精度な輪郭抽出ステップ
が実現される。The invention according to claim 20 (image extracting method) according to the present application is the method according to claim 16, wherein the contour extracting step includes a step of detecting a minimum point position which is substantially adjacent to a maximum point of the distance data, and a minimum point. And a point position tracking step. Thereby, for example, a highly accurate contour extraction step from a plurality of images having different focus states is realized.
【0056】本願に係る請求項21に記載の発明(画像
抽出方法)は、前記請求項16の発明において輪郭抽出
ステップは所定の方法で入力される指定点を中心とする
局所領域設定ステップ、局所領域内の輪郭線を追跡する
輪郭線追跡ステップ、追跡後の輪郭線端点を中心とする
局所領域を再帰的に設定するステップ、追跡ステップ終
了後、残存する輪郭線の端点どうしを結ぶ曲線生成ステ
ップを有することを特徴とする。これにより、複数の異
なる撮像条件で得られる画像から効率的に背景との境界
線を抽出し、被写体抽出を行うステップが実現される。According to a twenty-first aspect of the present invention (image extracting method), in the invention of the sixteenth aspect, the contour extracting step is a local area setting step centered on a designated point input by a predetermined method, and a local area setting step. A contour tracing step for tracing the contour lines in the area, a step for recursively setting a local area centered on the contour edge points after tracing, and a curve generation step for connecting the remaining contour line endpoints after the tracing step It is characterized by having. As a result, the step of efficiently extracting the boundary line with the background from the images obtained under a plurality of different imaging conditions and extracting the subject is realized.
【0057】本願に係る請求項22に記載の発明(画像
抽出方法)は、前記請求項16の発明において輪郭抽出
ステップは所定の方法で入力される制御点またはその近
傍の特徴点を通る曲線生成ステップを有することを特徴
とする。これにより、輪郭線に分岐構造がある場合の追
跡方向の選択及び輪郭抽出が困難な場合の輪郭抽出を確
実に行うことができ、かつ複雑な処理を行わずに抽出精
度の向上をもたらすことができる。The invention according to claim 22 (image extracting method) according to the present application is the method according to claim 16, wherein the contour extracting step is a curve generation passing through a control point input by a predetermined method or a characteristic point in the vicinity thereof. It is characterized by having steps. As a result, it is possible to reliably perform the tracking direction selection when the contour line has a branch structure and the contour extraction when the contour extraction is difficult, and to improve the extraction accuracy without performing complicated processing. it can.
【0058】本願に係る請求項23に記載の発明(画像
抽出方法)は、前記請求項16の発明において輪郭抽出
ステップは処理領域設定ステップ、処理領域内での距離
データの局所ピーク分布の極大または極小点列の追跡ス
テップ、ピーク分布の分岐構造判定ステップ、判定ステ
ップにより分岐構造の存在が判定された場合に追跡ステ
ップにおいて一方の分岐の点列端点の位置と点列方向に
基づく処理領域との交差を判定するステップ、分岐構造
の一方を選択する分岐選択ステップを有することを特徴
とする。これにより、例えばユーザによって指定される
被写体を囲む領域内に処理を限定し、かつその領域との
交差判定を利用することにより、効率的に被写体の輪郭
と交差する背景パターン(輪郭線)の除去を行うことが
できる。The invention according to claim 23 (image extracting method) according to the present application is the method according to claim 16, wherein the contour extracting step is a processing area setting step, or the local peak distribution of distance data in the processing area is maximum or If the existence of a branch structure is determined by the tracking step of the minimal point sequence, the branch structure determination step of the peak distribution, and the determination step, the position of the point sequence end point of one branch and the processing area based on the direction of the point sequence The method is characterized by including a step of determining an intersection and a branch selection step of selecting one of branch structures. Thereby, for example, by limiting the processing to the area surrounding the subject specified by the user and utilizing the intersection determination with the area, the background pattern (contour line) efficiently intersecting the contour of the subject is removed. It can be performed.
【0059】本願に係る請求項24に記載の発明(画像
抽出方法)は、前記請求項16に記載の発明において輪
郭抽出ステップは距離データの局所ピーク分布の極大ま
たは極小点列の追跡ステップ、ピーク分布の分岐構造判
定ステップ、分岐構造の一方を選択する分岐選択ステッ
プを有し、追跡ステップにおいて判定ステップにより分
岐構造の存在が判定された場合に分岐選択ステップは点
列方向の連続性の高い分岐方向を選択することを特徴と
する。これにより、人手を介した対話的な処理を行わず
に、ある程度自動的な輪郭線追跡を行うことができ、効
率的な被写体抽出が実現される。According to a twenty-fourth aspect of the present invention (image extracting method), in the invention according to the sixteenth aspect, the contour extracting step includes a step of tracking a local maximum peak or a local minimum point sequence of distance data and a peak. It has a branching structure judgment step of distribution and a branching selection step of selecting one of the branching structures. When the existence of the branching structure is judged by the judgment step in the tracing step, the branching selection step is a branch with high continuity in the point sequence direction. It is characterized by selecting a direction. As a result, contour line tracking can be performed to some extent without performing interactive processing through human hands, and efficient subject extraction is realized.
【0060】本願に係る請求項25に記載の発明(画像
抽出方法)は、前記請求項16の発明において輪郭抽出
ステップは距離データの分布を所定の表示手段に表示す
るステップ、表示手段上の距離データ分布に基づいて制
御点を設定するステップ、制御点またはその近傍の特徴
点を通る曲線生成ステップを有することを特徴とする。
これにより、ユーザが画像間の距離データ分布に基づい
て背景との境界が顕著でない領域または分岐構造の発生
箇所において抽出される輪郭が通るべき制御点を設定す
るインターフェース機構により被写体切り出し処理の信
頼度が向上される。According to a twenty-fifth aspect of the present invention (image extracting method), in the invention of the sixteenth aspect, the contour extracting step includes a step of displaying a distribution of distance data on a predetermined display means, and a distance on the display means. The method is characterized by including a step of setting a control point based on the data distribution and a step of generating a curve passing through the control point or a characteristic point in the vicinity thereof.
This allows the user to set the control point through which the contour extracted at the region where the boundary with the background is not noticeable or where the branch structure occurs based on the distance data distribution between images, and the reliability of the subject extraction process by the interface mechanism. Is improved.
【0061】本願に係る請求項26に記載の発明(画像
抽出装置)は、前記請求項9の発明において第二の演算
手段は指示選択手段により設定される制御点またはその
近傍の特徴点を通る曲線生成手段、距離データの極小点
または極小点が所定の判定基準により存在しないと判定
された場合には局所ピーク領域内の代表点を抽出する特
徴点抽出手段及び該特徴点列追跡手段を有し、曲線生成
手段においては制御点またはその近傍に存在し、特徴点
抽出手段により抽出された隣接する特徴点間を結ぶ曲線
を生成することを特徴とする。これにより、例えばピン
ト状態の異なる複数画像間の距離データから背景との境
界線を抽出する際、信頼度の高い境界線(局所的ピーク
領域内の極小点列)が存在する場合はそれを追跡し、存
在しない場合は局所ピーク領域の代表点(極大点または
中点など)または制御点を通るように被写体抽出に適し
た輪郭線を生成することにより背景との境界が不鮮明な
画像、背景または被写体が複雑なパターン形状を有し、
背景との境界線抽出が困難な場合でも確実に画像抽出が
可能である。According to a twenty-sixth aspect of the present invention (image extracting apparatus), in the invention of the ninth aspect, the second computing means passes through a control point set by the instruction selecting means or a characteristic point in the vicinity thereof. A curve generating means, a minimum point of the distance data or a characteristic point extracting means for extracting a representative point in the local peak region when it is determined that the minimum point does not exist according to a predetermined criterion, and the characteristic point sequence tracking means. However, the curve generating means is characterized in that a curve existing at or near the control point and connecting between the adjacent characteristic points extracted by the characteristic point extracting means is generated. As a result, when a boundary line with the background is extracted from the distance data between multiple images with different focus states, if a highly reliable boundary line (local minimum point sequence in the local peak area) exists, it is tracked. If it does not exist, a contour line suitable for subject extraction is generated so as to pass through a representative point (local maximum point or midpoint) or control point of the local peak area. The subject has a complicated pattern shape,
Even if it is difficult to extract the boundary line with the background, the image can be surely extracted.
【0062】本願に係る請求項27に記載の発明(画像
抽出装置)は、前記請求項8に記載の発明において第二
の演算手段は距離データの略均質な複数の隣接する領域
を連結抽出することを特徴とする。これにより、例えば
視点位置の異なる複数の撮像条件で得られる画像間の視
差(距離データ)が所定の範囲内にある領域を抽出する
場合、或はピント状態に異なる画像間の差分絶対値(距
離データ)から特定被写体を抽出する場合などに輪郭追
跡を行わずに、大まかにかつ効率的に被写体領域の抽出
を行うことができる。細密な抽出系統的処理(クラスタ
リング、領域成長法など)により行う。According to a twenty-seventh aspect of the present invention (image extracting device), in the invention according to the eighth aspect, the second calculating means connects and extracts a plurality of adjacent regions having substantially uniform distance data. It is characterized by Thus, for example, when extracting a region in which parallax (distance data) between images obtained under a plurality of imaging conditions with different viewpoint positions is within a predetermined range, or when the absolute value of difference (distance between images different in focus state It is possible to roughly and efficiently extract a subject region without performing contour tracking when extracting a specific subject from (data). Fine extraction is performed by systematic processing (clustering, region growing method, etc.).
【0063】[0063]
(第1の実施の形態)以下、本発明における実施形態
を、各図を参照しながら説明する。(First Embodiment) An embodiment of the present invention will be described below with reference to the drawings.
【0064】本実施形態ではピント状態を制御し、異な
る撮像条件での画像から特定被写体抽出処理を、照明条
件などによらず安定的かつ高速に行うことを可能とした
ものである。特定被写体の抽出とは背景からの切り出し
を行うことであるが、これを画像の分類、認識、追跡等
の処理などに適用しても良い。In this embodiment, the focus state is controlled, and the specific subject extraction processing from images under different image pickup conditions can be performed stably and at high speed irrespective of the illumination conditions. Extraction of a specific subject means cutting out from the background, but this may be applied to processing such as image classification, recognition, and tracking.
【0065】図2は本実施形態で用いる特定被写体の抽
出用の撮影モードと抽出処理機構を有する画像処理カメ
ラ1およびそれに端末20、ディスプレイ21、指示選
択手段22が接続された場合の要部構成図である。但し
画像の抽出に必要な処理はカメラで行わず、端末上で行
うようにしてもよい。尚、被写体抽出用撮影モードとは
撮像パラメータ(レンズ配置、シャッタ速度、絞り径な
ど)を制御して複数の画像データをイメージセンサから
画像記録(記憶)手段に出力するまでの撮像動作モード
をさす。FIG. 2 is a diagram showing the main configuration of the image processing camera 1 having a photographing mode for extracting a specific subject and an extraction processing mechanism used in this embodiment, and a terminal 20, a display 21, and an instruction selecting means 22 connected thereto. It is a figure. However, the processing required for image extraction may be performed on the terminal instead of the camera. The subject extraction shooting mode refers to an image pickup operation mode in which image pickup parameters (lens arrangement, shutter speed, aperture diameter, etc.) are controlled to output a plurality of image data from an image sensor to an image recording (storing) means. .
【0066】1は画像入力手段である撮像手段全体(カ
メラヘッド)、2は結像光学系であり主被写体と背景と
の判別を容易とするため、また距離の違いに対応する画
像の差を明確にするため、焦点深度の浅いものが望まし
い。3はレンズモータ駆動制御部であり、合焦レンズ駆
動手段(フォーカスモータ)、ズームレンズ駆動手段、
およびマウントされたレンズの種別等のレンズ情報読み
出し(計測)手段などから構成される。4はイメージセ
ンサで典型的にはCCDなどの固体撮像素子、5は撮像
パラメータ計測制御手段であり、ズーム検出制御手段5
1、焦点信号(合焦状態)検出制御手段52、シャッタ
速度検出制御手段53、絞り計測制御手段54、画像信
号特性パラメータ(ガンマ、ニー、ホワイトバランス補
正、蓄積時間(CCD)など)の特徴量(例えばガンマ
については補正係数など)検出手段55などを含む。シ
ャッタ速度制御手段53は不図示の機械的シャッタの制
御を行うもので、電子シャッタを用いる場合は後述する
センサ駆動回路18で実質的なシャッタ速度イメージセ
ンサの(電荷蓄積時間)を制御して行う。合焦状態の検
出は映像信号を用いた検出方式、赤外線を用いた測定方
式のいずれでもよい。6は画像記録再生手段で撮像時に
記録媒体(テープ媒体、光(磁気)ディスクなどのディ
スク媒体、或いはICメモリカード等のICメモリ媒体
など)に所定のフォーマットでデジタル記録する。Reference numeral 1 denotes the entire image pickup means (camera head) which is an image input means, and 2 denotes an image forming optical system for facilitating the discrimination between the main subject and the background. A shallow depth of focus is desirable for clarity. Reference numeral 3 denotes a lens motor drive control unit, which is a focusing lens drive unit (focus motor), a zoom lens drive unit,
And lens information reading (measuring) means such as the type of mounted lens. Reference numeral 4 is an image sensor, typically a solid-state image sensor such as CCD, and 5 is imaging parameter measurement control means, and zoom detection control means 5
1. Focus signal (focusing state) detection control means 52, shutter speed detection control means 53, aperture measurement control means 54, image signal characteristic parameters (gamma, knee, white balance correction, accumulation time (CCD), etc.) It includes a detection means 55 (for example, a correction coefficient for gamma). The shutter speed control means 53 controls a mechanical shutter (not shown). When an electronic shutter is used, the sensor drive circuit 18 described later controls a substantial shutter speed image sensor (charge accumulation time). . The focus state may be detected by either a detection method using a video signal or a measurement method using infrared rays. An image recording / reproducing unit 6 digitally records in a predetermined format on a recording medium (tape medium, disk medium such as optical (magnetic) disk, or IC memory medium such as IC memory card) at the time of image pickup.
【0067】尚、記録媒体または画像記録再生手段6は
カメラ本体と着脱可能としてもよい。また記録媒体には
被写体抽出モードでの撮像動作手順プログラムおよび必
要データなどを書き込んでおき、その情報に基づいて撮
像を行うように制御してもよい。The recording medium or the image recording / reproducing means 6 may be detachable from the camera body. Further, the image capturing operation procedure program in the subject extraction mode and necessary data may be written in the recording medium, and the image capturing may be controlled based on the information.
【0068】画像の再生時は電子ビューファインダ(E
VF)等のモニタ7または後述するデータ転送手段12
に画像データを出力する。The electronic viewfinder (E
VF) monitor 7 or data transfer means 12 described later
The image data is output to.
【0069】8は撮像モード記録手段であり、レンズモ
ータ駆動手段3からレンズ情報、撮像パラメータ、画像
信号特性パラメータ、およびストロボ発光の有無、スキ
ャンニングなどの意図的なカメラ操作(運動)、手ぶれ
の有無などを含む撮像時の情報を記録する。これらの情
報は外部制御、マニュアル操作、内蔵プログラムによる
自律制御いずれの場合にも記録され、後で同一撮像条件
を再生するのに用いることができる。Reference numeral 8 denotes an image pickup mode recording means, which is used by the lens motor driving means 3 to obtain lens information, image pickup parameters, image signal characteristic parameters, presence / absence of strobe light emission, intentional camera operation (movement) such as scanning, and camera shake. Information at the time of imaging including the presence or absence is recorded. These pieces of information are recorded in any of external control, manual operation, and autonomous control by a built-in program, and can be used later to reproduce the same imaging condition.
【0070】尚、カメラ操作(スキャン、パンなど)情
報については映像信号処理より画像信号中の動き情報か
ら電子的に検出してもよいし、撮像手段に不図示の加速
度センサ、或いはジャイロ等を内蔵させ、その出力デー
タから物理的に判定してもよい。The camera operation (scan, pan, etc.) information may be electronically detected from the motion information in the image signal by video signal processing, or the image pickup means may be provided with an acceleration sensor (not shown), a gyro or the like. It may be built in and physically judged from the output data.
【0071】9は被写体抽出、追跡、識別等のための撮
像モード設定手段としてのスイッチであり、これが設定
されるとスイッチの投入に続く不図示のシャッタボタン
等からの撮像開始動作信号により、同撮像モードによる
画像取り込みが行われる。尚、撮像開始用スイッチは被
写体抽出モード設定スイッチを兼ねるように構成しても
よい。Reference numeral 9 denotes a switch as an image pickup mode setting means for subject extraction, tracking, identification, etc. When this switch is set, the switch is turned on and the image pickup start operation signal from a shutter button or the like (not shown) causes the same. An image is captured in the image capturing mode. The imaging start switch may also be configured to double as a subject extraction mode setting switch.
【0072】10は端末20を介して外部からのコマン
ドデータの通信を制御するコマンドデータ通信制御手
段、11は出力画像生成手段で、出力先に応じてアナロ
グ/デジタル画像信号を生成する。Reference numeral 10 is a command data communication control means for controlling communication of command data from the outside via the terminal 20, and 11 is an output image generation means for generating an analog / digital image signal according to an output destination.
【0073】例えばTV受像機にはNTSC信号、また
はPAL信号を生成する。更に出力機器に応じた濃淡の
階調補正、誤差拡散処理、色成分補正処理を行った画像
信号を外部接続されたディスプレイ、プリンタなどに出
力してもよい。For example, an NTSC signal or PAL signal is generated for a TV receiver. Further, the image signal which has been subjected to the gradation correction of the light and shade according to the output device, the error diffusion processing, and the color component correction processing may be output to an externally connected display, a printer or the like.
【0074】このような出力信号の生成、加工の指示は
コマンドデータ通信制御手段10を介して外部から行う
か、またはカメラの不図示の操作パネル上スイッチなど
を用いて行えるものとする。It is assumed that such an output signal generation and processing instruction is given externally via the command / data communication control means 10 or by using a switch (not shown) on the operation panel of the camera.
【0075】12はデータ転送手段であり、不図示の通
信インターフェース手段、アダプター端子などを含み、
外部の表示装置やコンピュータなどに画像データなどを
出力するときに用いる。Reference numeral 12 is a data transfer means, which includes a communication interface means (not shown), an adapter terminal, etc.
Used when outputting image data to an external display device or computer.
【0076】13は被写体抽出手段で、複数の撮像条件
で得られる画像に対して、後述する方法により、背景領
域と被写体領域の判別、輪郭線の抽出、画像の切り出し
等の処理を行う。内部の詳細に構成については後述す
る。Reference numeral 13 denotes a subject extracting means, which performs a process such as discrimination between a background region and a subject region, extraction of contour lines, and clipping of an image on an image obtained under a plurality of image pickup conditions by a method described later. The detailed internal structure will be described later.
【0077】14は画像取り込み信号発生回路であり、
露光条件、撮像条件の制御状態のチェック、イメージセ
ンサ(CCD)での電荷蓄積・転送時間、およびメモリ
6での画像の書き込み制御信号のタイミングなどを自動
的に考慮して、適切な撮像の取り込みを行うためのもの
である。Reference numeral 14 is an image capture signal generation circuit,
Appropriate capture of images by automatically checking the exposure conditions, control conditions of image capturing conditions, charge storage / transfer time in the image sensor (CCD), and timing of image writing control signals in the memory 6 Is for doing.
【0078】15は複数撮像条件の設定手段としてのシ
ステム制御部であり、コマンドデータ通信制御手段1
0、撮像モード設定スイッチ9からの信号、或は画像記
録再生手段6の記録媒体に書き込まれた制御プログラム
の情報を読み込むことにより被写体抽出モードの一連の
撮像動作用制御信号を発生する。Reference numeral 15 denotes a system control section as a means for setting a plurality of image pickup conditions, and the command data communication control means 1
0, a signal from the imaging mode setting switch 9 or information of a control program written in the recording medium of the image recording / reproducing means 6 is read to generate a series of imaging operation control signals in the subject extraction mode.
【0079】16は絞り、17は映像信号処理部であ
り、前処理回路(17a;サンプルアンドホールド回
路、オートゲインコントロール回路、A/D変換回路な
ど)、ガンマ補正回路(17b)、その他の映像信号処
理回路(17c;ホワイトバランス補正回路、手ぶれ補
正回路等を含む)から構成される。尚、これらの回路構
成は図2に概略図示したものに限定されるものではな
い。18はイメージセンサ4の駆動回路であり、電荷蓄
積時間、転送タイミングなどを制御する。また、同図に
おいては、本実施例に特に関係した制御信号の流れを太
線の矢印で示してある。Reference numeral 16 is a diaphragm, and 17 is a video signal processing section, which includes a preprocessing circuit (17a; a sample and hold circuit, an auto gain control circuit, an A / D conversion circuit, etc.), a gamma correction circuit (17b), and other video. It is composed of a signal processing circuit (17c; including a white balance correction circuit, a camera shake correction circuit, etc.). Note that these circuit configurations are not limited to those schematically shown in FIG. A drive circuit 18 for the image sensor 4 controls the charge storage time, the transfer timing, and the like. Further, in the figure, the flow of the control signal particularly related to the present embodiment is shown by a thick arrow.
【0080】本実施形態では被写体抽出用撮像モードに
おいては合焦レベル検出手段からの出力に基づき、合焦
用レンズモータ(フォーカスモータ)を駆動し、最適合
焦レベル、即ち被写体に最もピントの合った状態におい
てイメージセンサから高解像画像の取り込みを行った
後、続いて直前の合焦レンズモータの駆動方向と同一方
向にピントずれが生じるように駆動し、適切な非合焦レ
ベルでの低解像画像の取り込みを連続的に行う。In the present embodiment, in the subject extraction image pickup mode, the focusing lens motor (focus motor) is driven on the basis of the output from the focusing level detecting means to obtain the optimum focusing level, that is, the subject is most focused. In this condition, after capturing a high-resolution image from the image sensor, the lens is then driven so that the focus shifts in the same direction as the driving direction of the focusing lens motor immediately before, and the low-level at an appropriate non-focus level. The resolution image is continuously captured.
【0081】ここで適切な非合焦レベルとは予め設定さ
れ、記憶手段に記憶された値または外部の端末などから
のコマンド信号により設定された値のことであり、例え
ば合焦レベルからの割合(合焦値の9割のような数値)
などで与えられる。Here, the appropriate out-of-focus level is a value set in advance and stored in the storage means or a value set by a command signal from an external terminal, for example, a ratio from the in-focus level. (A numerical value like 90% of the focus value)
Given in.
【0082】また更に異なる非合焦レベルで撮像し、画
像切り出しの初期データ抽出(粗く切り出された画像デ
ータ)のために用いてもよい。Still further, the image may be picked up at different out-of-focus levels and used for extracting the initial data for image cutting (roughly cut image data).
【0083】以上のような連続撮像動作が終了すると自
動的に被写体抽出モードが解除されるか、或は撮像モー
ド設定スイッチ9により標準モードへの復帰設定がなさ
れる。尚、上述した撮像モードの設定および解除等の操
作は不図示の端末を介して外部の機器からのコマンド入
力により行ってもよい。When the above continuous image pickup operation is completed, the subject extraction mode is automatically canceled, or the image pickup mode setting switch 9 is used to set the return to the standard mode. The above-described operations such as setting and canceling the imaging mode may be performed by command input from an external device via a terminal (not shown).
【0084】図4はピント制御による複数撮像条件での
撮影を行う場合の焦点信号とフォーカスレンズとの撮像
位置の関係を模式的に示したものである。初期位置から
フォーカスレンズを駆動して一旦合焦レベルを検知して
撮影した後、所定量フォーカスレンズを駆動して許容範
囲内でのピントずれ画像を取り込むことを示している。FIG. 4 schematically shows the relationship between the focus signal and the image pickup position of the focus lens in the case of performing image pickup under a plurality of image pickup conditions under focus control. The figure shows that the focus lens is driven from the initial position to detect the focus level once, and an image is taken, and then the focus lens is driven by a predetermined amount to capture an out-of-focus image within an allowable range.
【0085】尚、非合焦度の異なる低解像度の複数画像
を用いる場合には、空間周波数の高い成分がカットさ
れ、後述するようにそれらの距離データ(差分絶対値デ
ータなど)から特定対象の輪郭線を抽出する際、余分な
孤立特徴点または孤立領域の発生を制御することができ
る。When a plurality of low-resolution images having different out-of-focus degrees are used, high spatial frequency components are cut, and as will be described later, the distance data (difference absolute value data, etc.) is used as a target for identification. When extracting the contour line, it is possible to control the generation of extra isolated feature points or isolated regions.
【0086】従ってノイズや背景部の高い空間周波数成
分、或は照明条件に左右されずに精度の安定した初期デ
ータ(輪郭線)を得ることが可能である。Therefore, it is possible to obtain stable initial data (contour line) with stable accuracy without being affected by noise, high spatial frequency components in the background, or illumination conditions.
【0087】また、焦点深度の浅い結像光学系を用いる
ことにより、抽出対象と背景との距離が被写体距離に比
べて、十分大きい場合には特に、差分画像データにおい
て背景と被写体との境界部に出現する輪郭線の分岐構造
を抑制したり、特定被写体のみの輪郭線を追跡処理を行
わずに選択的に抽出することも可能である。Further, by using the imaging optical system having a shallow depth of focus, especially when the distance between the extraction target and the background is sufficiently larger than the subject distance, the boundary portion between the background and the subject in the difference image data is increased. It is also possible to suppress the branching structure of the contour line appearing in, or to selectively extract the contour line of only the specific subject without performing the tracking process.
【0088】図5はカメラと端末が接続されたシステム
またはカメラ上での操作を基本とする場合の基本制御フ
ローを示す。尚、端末としては回線またはケーブルで接
続された端末およびリモートコントローラが含まれる。
図中、太線の枠で示される項目は端末側で行い、破線で
示される項目はカメラまたは端末いずれで行っても良
い。その他はカメラ内で行われる機能動作またはカメラ
のスイッチ類の直接操作を示す。FIG. 5 shows a basic control flow in the case where a system in which the camera and the terminal are connected to each other or an operation on the camera is basically used. The terminals include terminals connected by lines or cables and remote controllers.
In the figure, items indicated by a bold frame may be performed on the terminal side, and items indicated by a broken line may be performed by either the camera or the terminal. Others indicate a functional operation performed in the camera or direct operation of camera switches.
【0089】先ず、端末側からカメラとの通信セッショ
ンを確立し(S5a)、カメラに対して被写体抽出撮像
モードの設定コマンドを送信(S5b)する。或いはカ
メラの操作パネルのマニュアル操作により被写体抽出モ
ードを設定する(S5a′)。First, a communication session with the camera is established from the terminal side (S5a), and a subject extraction imaging mode setting command is transmitted to the camera (S5b). Alternatively, the subject extraction mode is set by manual operation of the operation panel of the camera (S5a ').
【0090】この段階では基本制御プログラムを作動す
る(S5c)か、または制御すべき撮像パラメータ、撮
像条件の制御量、撮影枚数、およびカメラ内部での処理
範囲(例えば切り出し処理のための差分データ算出など
の前処理まで、複数撮像条件での撮影のみなどのように
指定される)などを端末側から入力設定する(S5d)
か、のいずれかを選択することができる。これは、端末
の表示手段に表示されるメニューなどから選択すればよ
い。At this stage, the basic control program is operated (S5c), or the imaging parameter to be controlled, the control amount of the imaging condition, the number of images to be taken, and the processing range inside the camera (for example, calculation of difference data for clipping processing). (Pre-processing such as is specified only for shooting under multiple shooting conditions) is input from the terminal side (S5d)
Or either of them can be selected. This may be selected from a menu or the like displayed on the display means of the terminal.
【0091】尚、基本制御プログラムにはこられの条件
が予め標準的に設定されるいるものとする。複数の撮像
条件設定による撮像時(S5e)には、設定されたパラ
メータに基づく撮像条件の制御とその時の撮像パラメー
タ(レンズデータ、焦点距離、倍率、焦点信号、フォー
カスレンズ配置、ガンマ制御値、絞り径、電荷蓄積時間
など)の記録が行われる。It is assumed that these conditions are preset as standard in the basic control program. During image pickup by setting a plurality of image pickup conditions (S5e), control of image pickup conditions based on the set parameters and image pickup parameters (lens data, focal length, magnification, focus signal, focus lens arrangement, gamma control value, aperture) at that time are controlled. Diameter, charge accumulation time, etc.) is recorded.
【0092】その後はカメラ内部での処理範囲に応じ
て、3通りの制御フローがある。標準モードに自動復帰
する(S5f)か、被写体抽出モードでの撮像動作終了
後は切り出し条件入力を受ける(S5g)か、或は予め
設定された標準条件で切り出し処理(S5h;後述)を
行う。After that, there are three control flows depending on the processing range inside the camera. It automatically returns to the standard mode (S5f), receives the cutout condition input after the imaging operation in the subject extraction mode (S5g), or performs the cutout process (S5h; described later) under the preset standard condition.
【0093】処理終了後は切り出し画像をカメラ本体内
の記憶手段に記録するか、外部メモリまたは表示装置へ
転送する(S5i)か、或はファインダディスプレイに
表示(S5i′)してもよい。After the processing is completed, the cut-out image may be recorded in the storage means in the camera body, transferred to the external memory or the display device (S5i), or displayed on the finder display (S5i ').
【0094】尚、切り出し画像の出力形態は予め制御デ
ータ入力時または基本プログラムに指定されているもの
とする。以上の処理の後、最終的には標準撮像モードへ
の自動または手動による復帰(S5f)が行われる。It is assumed that the output form of the cut-out image is designated in advance when the control data is input or in the basic program. After the above processing, the automatic or manual return to the standard imaging mode is finally performed (S5f).
【0095】次に、イメージセンサ4から取り込まれた
各画像の処理過程について詳述する。この処理はカメラ
と接続した端末において行うこともできるものとする。
カメラ内部での演算手段により処理については標準処理
モードとして登録しておくか、コマンドデータ通信制御
手段10を介して端末などから指定することもできるよ
うになっている。典型的には、カメラ内部での標準処理
としては複数撮像条件の画像間の距離データ、即ち差分
絶対値データ算出、および2値化処理、平滑化処理など
が基本制御プログラムとして設定される。ここでは先
ず、合焦状態(ピント)を制御して得られる少なくとも
2つのセンサからの映像信号に対してそれぞれ映像信号
処理手段17においてガンマ補正、ホワイトバランス補
正などが行われる。撮像手段内部の輪郭抽出処理手段1
3においては高解像画像(合焦画像)と低解像画像(非
合焦画像)との差分または2つの異なる低解像度画像間
の差分絶対値データを求め、これらに対して輪郭線抽出
処理を行う。尚、差分絶対値算出以外の処理は、不図示
の外部端末などからコマンドデータ通信制御手段10を
介して処理パラメータを入力して行ってもよい。Next, the process of processing each image captured by the image sensor 4 will be described in detail. This processing can also be performed in a terminal connected to the camera.
The processing can be registered as a standard processing mode by the arithmetic means inside the camera, or can be designated from a terminal or the like via the command data communication control means 10. Typically, as standard processing inside the camera, distance data between images under a plurality of imaging conditions, that is, calculation of absolute difference value data, binarization processing, smoothing processing, and the like are set as a basic control program. Here, first, gamma correction, white balance correction and the like are performed in the video signal processing means 17 on the video signals from at least two sensors obtained by controlling the in-focus state (focus). Contour extraction processing means 1 inside the image pickup means
3, the difference between the high-resolution image (focused image) and the low-resolution image (non-focused image) or the difference absolute value data between two different low-resolution images is calculated, and the contour line extraction processing is performed on them. I do. The processing other than the calculation of the absolute difference value may be performed by inputting the processing parameter from the external terminal (not shown) or the like via the command data communication control means 10.
【0096】図3は本実施例での輪郭線抽出の原理説明
図である。いま、合焦画像のステップエッジ強度分布
(a)と非合焦画像のボケたエッジ強度分布(b)の両
面像間の距離データとしてり差分絶対値分布(c)は局
所的な極大(ピーク領域)中に鋭い極小点を有する。こ
の極小点位置はステップエッジの境界点位置に相当す
る。FIG. 3 is a diagram for explaining the principle of contour line extraction in this embodiment. Now, as the distance data between the two-sided images of the step edge intensity distribution (a) of the focused image and the blurred edge intensity distribution (b) of the unfocused image, the absolute difference distribution (c) is a local maximum (peak). Region) has a sharp minimum point. This minimum point position corresponds to the boundary point position of the step edge.
【0097】抽出すべき極小点の判定にはピーク領域中
の極大レベルとの差分(正またはゼロ)が所定閾値以上
となることを条件として用いればよい。The determination of the minimum point to be extracted may be performed on the condition that the difference (positive or zero) with the maximum level in the peak region is equal to or larger than a predetermined threshold value.
【0098】撮像手段から入力される画像がカラー画像
である場合には各色成分(R、G、Bなど)において差
分絶対値を算出し、同様に極小点位置が求まる色成分の
距離データを用いればよい。When the image input from the image pickup means is a color image, the absolute difference value is calculated for each color component (R, G, B, etc.), and the distance data of the color component for which the minimum point position is similarly used is used. Good.
【0099】輪郭線抽出の基本方式はこの点列を追跡す
るものであるが、画素値の2次元的分布形状によっては
必ずしも明瞭な極小点が現れないことがある。このよう
な場合には局所ピーク領域中に代表点(例えば極大点、
中点、追跡方向とほぼ直交方向にピーク領域を走査して
検出される端点など)を抽出してもよい。また、明瞭に
現れる極小点間を滑らかに連結する曲線を生成してもよ
い。The basic method of contour line extraction is to trace this point sequence, but a clear minimum point may not always appear depending on the two-dimensional distribution shape of pixel values. In such a case, a representative point (for example, a maximum point,
It is also possible to extract a midpoint, an end point detected by scanning the peak region in a direction substantially orthogonal to the tracking direction). Further, a curve that smoothly connects the minimal points that appear clearly may be generated.
【0100】次に、図1に基づいて切り出し処理(輪郭
線追跡処理)について説明する。この処理は被写体抽出
手段13の内部または、外部端末手段のいずれで行って
もよい。後者の場合は一旦複数画像をメモリに記録して
端末データ供給するか、或いはデータ通信手段を介して
端末側に転送してから行う。Next, the cutout processing (contour line tracking processing) will be described with reference to FIG. This processing may be performed either inside the subject extraction means 13 or outside terminal means. In the latter case, the plural images are once recorded in the memory and the terminal data is supplied, or they are transferred to the terminal side via the data communication means.
【0101】先ず、処理範囲を限定することにより、抽
出効率を高める目的で抽出すべき被写体を含む最小限サ
イズの処理領域をマウスなどの指示選択手段22で設定
する(Sx0)。First, by limiting the processing range, the instruction selecting means 22 such as a mouse sets a minimum-size processing area including a subject to be extracted for the purpose of enhancing the extraction efficiency (Sx0).
【0102】次に、マウスなどの指示選択手段22で輪
郭追跡開始点または後述する制御点を設定する(Sx
1)。開始指定点においてはそれを中心とする一定サイ
ズ(例えば16×16画素のブロック)の局所領域が自
動設定されるこれは画面内を走査して画像のエッジ部分
を検出することによって行われる(Sx2)。この領域
サイズはここではマウスなどにより任意の形状の局所領
域を設定してもよい。Next, a contour tracking start point or a control point described later is set by the instruction selecting means 22 such as a mouse (Sx).
1). At the designated start point, a local area of a fixed size (for example, a block of 16 × 16 pixels) centered on the designated start point is automatically set. This is performed by scanning the inside of the screen to detect the edge portion of the image (Sx2 ). As for this area size, a local area having an arbitrary shape may be set here with a mouse or the like.
【0103】その領域内においてそのエッジ部分すなわ
ち輪郭を追跡する輪郭線追跡処理(Sx3)を行う(局
所領域が抽出すべき輪郭線を含むことはいうまでもな
い)。処理終了後はその端点を中心とする局所領域を自
動設定(Sx4)し、同様の処理を繰り返して最終的に
背景との境界線をなす閉曲線を得る。The contour line tracing process (Sx3) is performed to trace the edge portion, that is, the contour in the area (needless to say, the local area includes the contour line to be extracted). After the processing is completed, a local area centering on the end point is automatically set (Sx4), and similar processing is repeated to finally obtain a closed curve forming a boundary line with the background.
【0104】尚、輪郭線追跡処理(Sx3)においては
局所領域内で画像間の距離データ(差分絶対値)をディ
スプレイに表示し(Sx5;入力画像と重ね合わせて表
示してもよい)、複数のエッジまたは輪郭線が存在する
場合にはいずれのエッジを取るかをマウスなどの手段を
用いて選択指示(Sx6;抽出輪郭線の指定)してもよ
い。In the contour tracking process (Sx3), distance data (absolute difference value) between images in the local area is displayed on the display (Sx5; it may be displayed by superimposing it on the input image), and a plurality of images are displayed. If there is an edge or a contour line, a selection instruction (Sx6; designation of extracted contour line) may be made using a means such as a mouse as to which edge to take.
【0105】そして単一のエッジのみ存在するか、或は
ユーザによりエッジが選択されると予め設定された方向
に輪郭線追跡処理が行われ、サンプリング点の各位置を
逐次抽出する。ここで本実施形態中のサンプリング点と
は前述したように差分絶対値データの局所ピーク領域中
の極小点または代表点をさす。Then, when only a single edge exists or when an edge is selected by the user, contour line tracking processing is performed in a preset direction, and each position of sampling points is sequentially extracted. Here, the sampling point in this embodiment refers to the minimum point or the representative point in the local peak area of the difference absolute value data as described above.
【0106】追跡過程において輪郭線または局所ピーク
領域が分岐構造を有する場合に分岐方向の選択処理(S
x7)を行う。方法としては、分岐前の点の追跡方向と
直交方向の輪郭線の画像データ属性(色、輝度またはそ
れらの分散など)が連続する分岐方向の選択、制御点の
存在する分岐方向の選択、或は分岐前後の方向変化が少
ない方向を優先して選択してもよい。In the tracking process, when the contour line or the local peak region has a branch structure, a branch direction selection process (S
x7). As a method, selection of a branching direction in which image data attributes (color, brightness or dispersion thereof) of the contour line in a direction orthogonal to the tracing direction of the point before the branching is selected, a branching direction in which a control point exists, or May preferentially select a direction in which the direction change before and after branching is small.
【0107】前者の場合には分岐後の各点を中心とする
微小領域の画像属性を検出して行う。他の方法としては
輪郭追跡を中断し、分岐点を中心とする領域を点滅表示
するなどして、いずれの分岐をとるかをユーザに選択さ
せてもよい。In the former case, the image attribute of a minute area centered on each point after the branch is detected. As another method, the user may be allowed to select which branch to take by interrupting the contour tracking and blinking the area around the branch point.
【0108】輪郭線追跡の結果、途中で分断された輪郭
線が残存する場合にはそれらの接続処理(Sx8)を行
う。この場合、所定のエッジ接続アルゴリズム(第23
回画像工学コンファレンス論文集、pp.67−70,
1992など参照)により行うか、或は対話的処理によ
り行う。後者は輪郭線端点の点滅表示または輪郭線と異
なる色表示を行い、ユーザによる確認と指示選択手段2
2を用いた指示により連結曲線を生成して接続を行う。
接続点どうしを結ぶ輪郭線としては、直線または輪郭線
上の代表点を用いてスプライン補間曲線などを生成して
もよい。特に輪郭追跡後の端点が画像フレームまたは処
理領域の枠上にある場合はもう一方のフレーム上端点と
を結んでもよい。As a result of the contour line tracing, when the divided contour lines remain in the middle, the connection processing (Sx8) is performed. In this case, a predetermined edge connection algorithm (23rd
Annual Meeting of Image Engineering Conference, pp. 67-70,
1992) or by interactive processing. The latter performs blinking display of the end points of the contour line or color display different from the contour line, and the user confirms and indicates the instruction selection means 2.
A connection curve is generated and connected according to the instruction using 2.
As the contour line connecting the connection points, a spline interpolation curve or the like may be generated using a straight line or a representative point on the contour line. In particular, when the end point after contour tracing is on the image frame or the frame of the processing area, it may be connected to the upper end point of the other frame.
【0109】以上のようにして最終的に背景との境界を
なす閉輪郭線が得られる。この曲線内または外の画像デ
ータが抽出すべき領域となる。As described above, the closed contour line that finally forms the boundary with the background is obtained. The image data inside or outside this curve is the area to be extracted.
【0110】尚、抽出すべき被写体の背景との境界線
(閉曲線)内部に更に複数の閉じた同様の背景との境界
線が存在する場合には各輪郭線ごとに抽出すべき領域が
その内部かまたは外部であるかの指示情報が必要とな
る。ユーザにより抽出領域が内か外かの指示かそれぞれ
の輪郭線が抽出されるごとに与えられる(Sx9)と、
逐次的に画像抽出(Sx10)が進行して最終的に所望
の被写体抽出が完成する。尚、内・外条件の指示を各境
界線が抽出されるごとに与え、各条件に適合する画像領
域の論理積による抽出を一括して行ってもよい。If there are a plurality of closed borders with the background similar to the background of the subject to be extracted (closed curve), the area to be extracted for each contour line is inside the border. Indication information is required whether it is external or external. If the user gives an instruction as to whether the extraction area is inside or outside, or is given each time the respective contour lines are extracted (Sx9),
Image extraction (Sx10) progresses sequentially, and finally desired subject extraction is completed. It is also possible to give an instruction of the inside / outside condition each time each boundary line is extracted, and collectively perform the extraction by the logical product of the image areas that meet each condition.
【0111】図6は上述した合焦度の異なる複数画面を
用いて、特定被写体画像を抽出する処理を説明するため
の図である。FIG. 6 is a diagram for explaining a process of extracting a specific subject image by using a plurality of screens having different degrees of focus described above.
【0112】同図において、(1)は被写体に合焦した
画像を示し、(2)は同じ被写体に対して非合焦の画像
を示している。これらの画像を引き算することにより、
図3で示した原理に基づき、両画像間に共通の画像部分
が相殺され、被写体の輪郭を表す部分のみが強調されて
現れる。(4)は引き算処理を行った後、差分の絶対値
を平滑化し、さらに2値化して、特定被写体画像と背景
画像とを分離し、輪郭画像のみを抽出したものである。In the figure, (1) shows an image focused on a subject, and (2) shows an image not focused on the same subject. By subtracting these images,
Based on the principle shown in FIG. 3, the common image portion is canceled between both images, and only the portion representing the contour of the subject is emphasized and appears. In (4), after the subtraction process is performed, the absolute value of the difference is smoothed and further binarized, the specific subject image and the background image are separated, and only the contour image is extracted.
【0113】一方、(1)の合焦画像において、特定被
写体として抽出する処理を行う画像領域を指定すること
により、(5)に示すように、指定した画像のみを抽出
することが可能となる。On the other hand, in the focused image of (1), it is possible to extract only the designated image as shown in (5) by designating the image area to be processed as the specific subject. .
【0114】尚、この画像の切り出し処理においては、
例えば複数のデータ画像の輪郭部分の複数の画像データ
を最小自乗法等の統計的処理によって誤差が最小となる
部分を求めて輪郭画像を抽出したり、あるいは画像を画
面内で変化させるとともに画像の変位を検出し、画像の
輪郭部分を正確に求める等の動的輪郭法等の処理を行っ
て最終的に、(5)に示すような特定被写体画像のみを
抽出することができるわけである。In this image cutting process,
For example, a plurality of image data of contour portions of a plurality of data images are obtained by statistical processing such as a least square method to obtain a portion having a minimum error, and a contour image is extracted, or the images are changed on the screen while the images are changed. The displacement can be detected, the contour portion of the image can be accurately obtained, and other processing such as the dynamic contour method can be performed to finally extract only the specific subject image as shown in (5).
【0115】(第2の実施形態)本実施の形態では複数
カメラまたは単独カメラを用いて同一被写体に対して異
なる視点位置で撮像して得られる複数の画像間の視差分
布に基づいて特定被写体の背景からの分離抽出を行う。(Second Embodiment) In the present embodiment, a specific subject is identified based on a parallax distribution between a plurality of images obtained by capturing images of the same subject at different viewpoint positions using a plurality of cameras or a single camera. Separate and extract from the background.
【0116】図7は本実施形態の処理フローを表す。FIG. 7 shows the processing flow of this embodiment.
【0117】図5と同様に、太線の枠で示される項目は
端末側で行い、破線で示される項目はカメラまたは端末
いずれで行っても良い。その他のカメラで行われる機能
動作またはカメラのスイッチ類の直接操作を示す。As in the case of FIG. 5, items indicated by a bold frame may be performed on the terminal side, and items indicated by a broken line may be performed by either the camera or the terminal. Indicates a functional operation performed by another camera or direct operation of camera switches.
【0118】カメラの操作パネルのマニュアネル操作ま
たは端末からのコマンド入力などにより被写体抽出モー
ドを設定する(S7a)。この時、撮像パラメータ、撮
影枚数の指定、およびカメラ内部での処理範囲(例えば
切り出し処理のための差分データ算出などの前処理ま
で、複数撮像条件での撮影のみなどのように指定され
る)などを端末側から入力設定してもよい(S7
a′)。The subject extraction mode is set by manipulating the manual of the operation panel of the camera or inputting a command from the terminal (S7a). At this time, the imaging parameters, the number of shots, and the processing range inside the camera (for example, preprocessing such as difference data calculation for cutout processing, only shooting under multiple shooting conditions are specified), etc. May be input and set from the terminal side (S7
a ').
【0119】次にカメラ内部の記憶手段に内蔵された基
本制御プログラムが作動する(S7c)。先ず、単独の
カメラまたは複眼撮像系の一方のカメラにおいて焦点信
号などにより被写体までのおよその距離を算出し(S7
c)、次にその値に基づいて視点位置の制御パラメータ
(複眼カメラでは基線上、単独カメラでは視点移動距離
など)の適正値を推定する(S7d)。Next, the basic control program stored in the storage means inside the camera operates (S7c). First, an approximate distance to a subject is calculated by a focus signal or the like in a single camera or one camera of a compound eye imaging system (S7).
c) Next, based on that value, an appropriate value of the viewpoint position control parameter (eg, the baseline for a compound eye camera, the viewpoint moving distance for a single camera) is estimated (S7d).
【0120】撮影時(S7e)には、設定されたパラメ
ータ(視点移動量または基線長など)に基づく撮像条件
の設定とその時の撮像パラメータ(レンズデータ、焦点
距離、倍率、焦点信号、フォーカスレンズ配置、ガンマ
制御値、絞り径、電荷蓄積時間など)の記録が行われ
る。At the time of photographing (S7e), the setting of the imaging condition based on the set parameters (viewpoint movement amount or base line length) and the imaging parameters at that time (lens data, focal length, magnification, focus signal, focus lens arrangement) , Gamma control value, aperture diameter, charge storage time, etc. are recorded.
【0121】その後はカメラ内部での処理範囲(S7
a′で設定済)に応じて、3通りの制御フローがある。
標準モードに自動的に復帰する(S7f)か、被写体抽
出モードでの撮像動作終了後は切り出し条件入力を受け
る(S7g)か、或は予め設定された標準条件で切り出
し処理(S7h;後述)を行うかである。処理終了後は
切り出し画像をカメラ本体内の記憶手段に記憶するか、
外部メモリまたは表示装置へ転送する(S7i)か、或
いはファインダディスプレイに表示(S7i′)しても
よい。After that, the processing range within the camera (S7
There are three types of control flows according to (already set in a ').
It automatically returns to the standard mode (S7f), receives the cutout condition input after the image pickup operation in the subject extraction mode (S7g), or performs the cutout process (S7h; described later) under preset standard conditions. Whether to do it. After finishing the process, store the clipped image in the storage means in the camera body,
It may be transferred to an external memory or a display device (S7i), or may be displayed on the finder display (S7i ').
【0122】尚、切り出し画像の出力形態は予め制御デ
ータ入力時または基本プログラムに指定されているもの
とする。以上の処理の後、最終的には標準撮像モードへ
の自動または手動による復帰(S7f)が行われる。It is assumed that the output form of the cutout image is designated in advance when the control data is input or in the basic program. After the above processing, the automatic or manual return to the standard imaging mode is finally performed (S7f).
【0123】以下、画像切り出し処理(S7h)につい
て説明する。ここでは画像間の距離データとして対応点
間の視差分布に基づき、その不連続境界部における領域
分割または一定範囲の視差値を有する領域抽出を行う。
また図8は視差分布に基づく初期データ抽出原理を説明
するための図である。The image cutout process (S7h) will be described below. Here, based on the parallax distribution between corresponding points as the distance data between images, the region division at the discontinuous boundary portion or the region extraction having the parallax value within a certain range is performed.
FIG. 8 is a diagram for explaining the principle of initial data extraction based on the parallax distribution.
【0124】対応点の抽出(S7h−1)は代表的には
相関法(各画素ごとに所定サイズのブロックを設定し、
画像間で強度分布の相互相関係数が最大となる点を対応
点として抽出する)などを用い、画像間距離データとし
ての視差分布の抽出(S7h−2)は対応点間の水平方
向(視点位置が水平方向にシフトしている場合)距離と
して抽出する。Corresponding point extraction (S7h-1) is typically performed by a correlation method (a block of a predetermined size is set for each pixel,
Extraction of the parallax distribution as inter-image distance data (S7h-2) is performed in the horizontal direction between the corresponding points (viewpoint If the position is shifted horizontally) Extract as a distance.
【0125】次に被写体抽出を行うための初期データ算
出のためにディスプレイに視差分布を表示し(S7h−
3)、ユーザは実写画像と視差分布を確認しながら抽出
すべき被写体を指示し、その代表的視差値を含む画像領
域の分割および連結領域の抽出(S7h−4)を行う。Next, the parallax distribution is displayed on the display for calculating initial data for subject extraction (S7h-
3) The user specifies the subject to be extracted while confirming the real image and the parallax distribution, and divides the image area including the representative parallax value and extracts the connected area (S7h-4).
【0126】図8は視差分布から特定の画像を抽出する
上記の処理を説明するものであり、同図(a)は視差値
(基線長、視点距離)を横軸にとり、縦軸にその視差値
の現われる頻度をとったものであり、被写体の存在する
位置に相当する視差値で、検出頻度が高くなっている。
図で見れば背景と抽出しようとする抽出対象のところで
頻度が高くなっていることがわかる。すなわちこれから
被写体像の輪郭を検出することが可能となる。FIG. 8 illustrates the above-mentioned processing for extracting a specific image from the parallax distribution. In FIG. 8A, the horizontal axis represents the parallax value (baseline length, viewpoint distance), and the vertical axis represents the parallax value. This is the frequency at which the value appears and is the parallax value corresponding to the position where the subject is present, and the detection frequency is high.
It can be seen from the figure that the frequency is high in the background and the extraction target to be extracted. That is, it is possible to detect the contour of the subject image.
【0127】図8(b)−(1)は原画像を示し、図8
(b)−(2)は原画像を見たときの視差分布表示画像
を表している。8 (b)-(1) show the original image, and FIG.
(B)-(2) represents the parallax distribution display image when the original image is viewed.
【0128】即ち、図8(b)においてディスプレイに
表示された視差分布(図8(b)−(2))を見てユー
ザは前実施例と同様の抽出被写体の領域の一部を指示選
択手段で指示し、その点または領域との視差値の差異が
所定範囲内にある連結領域の併合を行って、切り出しの
ための初期データとして抽出(図8(b)−(2))す
る。That is, looking at the parallax distribution (FIGS. 8 (b)-(2)) displayed on the display in FIG. 8 (b), the user designates and selects a part of the area of the extracted subject similar to the previous embodiment. Instructed by means, merge the connected regions whose disparity value difference with that point or region is within a predetermined range, and extract as initial data for cutting out (FIGS. 8 (b)-(2)).
【0129】またマウスなどの指示手段を用いて初期デ
ータ内に局所的に存在する不要データ(背景など)を除
去するかまたは抽出対象の一部として併合する(S7h
−5)。この様にして得られる初期データは遮蔽領域
(片側のカメラにしか写らない領域)の存在、対応点お
よび視差抽出誤差などの影響により、切り出し精度とし
ては不十分であるが、これをマスクとして原画像に対し
て統計的処理(領域成長、クラスタリングなど)または
動的輪郭法などを適用し(S7h−6)、抽出画像の輪
郭部分のみを抽出し、最終的に精密な画像抽出を行って
特定被写体か抽出される(図8(b)−(4))。Further, unnecessary data (background, etc.) locally present in the initial data is removed by using an instruction means such as a mouse, or merged as a part of the extraction target (S7h).
-5). The initial data obtained in this way is not sufficient for cutting out accuracy due to the presence of occluded areas (areas that can be seen only on one side of the camera), corresponding points and parallax extraction errors, but this is used as the mask Statistical processing (region growth, clustering, etc.) or the active contour method is applied to the image (S7h-6), only the contour portion of the extracted image is extracted, and finally, precise image extraction is performed to specify. The subject is extracted (FIGS. 8B to 8D).
【0130】尚、視差分布の領域分割方法としてはヒス
トグラムから適切な閾値を設定して行う方法を用いても
よい。この場合は図8(a)において隣り合う二つのピ
ーク(一方は背景で視差値が小、他方は物体で視差値が
大とする)のうち、例えば物体側ピークの幅を与える2
つの視差値のうち背景側の視差値を閾値とすればよい。As a method of dividing the parallax distribution into regions, a method of setting an appropriate threshold value from a histogram may be used. In this case, of the two adjacent peaks in FIG. 8A (one has a background with a small parallax value and the other has an object with a large parallax value), for example, the width of the object-side peak is given as 2
Of the two parallax values, the parallax value on the background side may be used as the threshold value.
【0131】[0131]
【発明の効果】本願に係る請求項1に記載の発明によれ
ば、撮像条件を活用して背景パターンの除去と被写体抽
出を効率的にかつ高精度に行うことができる。According to the invention described in claim 1 of the present application, the background pattern can be removed and the subject can be extracted efficiently and highly accurately by utilizing the imaging conditions.
【0132】本願に係る請求項2に記載の発明によれ
ば、輪郭線の指定および局所領域内での輪郭線追跡を繰
り返すことにより、効率的かつ高速な輪郭線抽出が可能
となった。According to the invention described in claim 2 of the present application, efficient and high-speed contour line extraction can be performed by repeatedly designating the contour line and tracing the contour line in the local area.
【0133】本願に係る請求項3に記載の発明によれ
ば、ピント状態の異なる複数画像から高精度に輪郭抽出
を行うことができた。According to the invention of claim 3 of the present application, the contour can be extracted with high accuracy from a plurality of images having different focus states.
【0134】本願に係る請求項4に記載の発明によれ
ば、抽出すべき輪郭線の検出効率およびその追跡効率を
向上させることができた。According to the invention described in claim 4 of the present application, the detection efficiency of the contour line to be extracted and the tracking efficiency thereof can be improved.
【0135】本願に係る請求項5に記載の発明によれ
ば、輪郭線位置信頼度の高い点列と近似曲線の生成を併
用して被写体画像抽出に適した輪郭線(背景との境界)
の抽出を行うことができた。According to the invention described in claim 5 of the present application, a contour line (boundary with the background) suitable for subject image extraction by using a sequence of points with high reliability of contour line position and generation of an approximate curve together
Was able to be extracted.
【0136】本願に係る請求項6に記載の発明によれ
ば、輪郭線近傍の画像データの分布の影響を著しく受け
ずに安定した精度で被写体画像抽出に適した輪郭線抽出
を行うことができた。According to the invention of claim 6 of the present application, it is possible to perform contour line extraction suitable for subject image extraction with stable accuracy without being significantly affected by the distribution of image data near the contour line. It was
【0137】本願に係る請求項7に記載の発明によれ
ば、複数撮像条件の画像から輪郭抽出する方式において
色信号を用いて輪郭線抽出精度を向上した。According to the invention of claim 7 of the present application, the contour line extraction accuracy is improved by using the color signal in the method of contour extraction from the image of the plurality of image pickup conditions.
【0138】本願に係る請求項8に記載の発明によれ
ば、複数の撮像条件の画像から背景を効率よく除去し、
かつ精度の高い画像抽出が可能となった。According to the invention of claim 8 of the present application, the background is efficiently removed from the images of a plurality of imaging conditions,
And it became possible to extract images with high accuracy.
【0139】本願に係る請求項9に記載の発明によれ
ば、背景との境界線を閉曲線として効率よく抽出し、か
つ精度の高い画像抽出が可能である。According to the invention described in claim 9 of the present application, it is possible to efficiently extract the boundary line with the background as a closed curve and to extract an image with high accuracy.
【0140】本願に係る請求項10に記載の発明によれ
ば、請求項3の発明と同様の効果を有する画像抽出が可
能である。According to the invention of claim 10 of the present application, it is possible to extract an image having the same effect as that of the invention of claim 3.
【0141】本願に係る請求項11に記載の発明によれ
ば、請求項2の発明と同様の効果を有する画像抽出が可
能である。According to the eleventh aspect of the present invention, it is possible to extract an image having the same effect as that of the second aspect of the invention.
【0142】本願に係る請求項12に記載の発明によれ
ば、輪郭追跡の結果得られる複数の断片的な輪郭線を連
結して1つまたは複数の閉曲線を生成して被写体存在領
域を効率よく抽出することができる。According to the twelfth aspect of the present invention, a plurality of fragmentary contour lines obtained as a result of contour tracing are concatenated to generate one or more closed curves, and the subject existing region is efficiently formed. Can be extracted.
【0143】本願に係る請求項13に記載の発明によれ
ば、抽出対象領域の指示を最小限の指定ステップで行う
ことが可能である。According to the thirteenth aspect of the present invention, it is possible to specify the extraction target area with a minimum number of specifying steps.
【0144】本願に係る請求項14に記載の発明によれ
ば、背景との境界線(閉曲線)が複数ある場合、論理演
算(積)により一括抽出処理可能とし、画像の抽出効率
を向上することが可能である。According to the fourteenth aspect of the present invention, when there are a plurality of boundary lines (closed curves) with the background, batch extraction processing can be performed by logical operation (product), and image extraction efficiency is improved. Is possible.
【0145】本願に係る請求項15に記載の発明によれ
ば、背景との境界線(閉曲線)が多数ある場合は対話的
に所望の順序で抽出処理を行うことが可能である。According to the fifteenth aspect of the present invention, when there are many boundary lines (closed curves) with the background, it is possible to interactively perform extraction processing in a desired order.
【0146】本願に係る請求項16に記載の発明によれ
ば、請求項1の発明と同様な効果を有する輪郭抽出が可
能である。According to the sixteenth aspect of the present invention, it is possible to extract the contour having the same effect as that of the first aspect of the invention.
【0147】本願に係る請求項17に記載の発明によれ
ば、請求項9の発明と同様な効果を有する輪郭抽出が可
能である。According to the seventeenth aspect of the present invention, it is possible to perform contour extraction having the same effect as that of the ninth aspect of the invention.
【0148】本願に係る請求項18に記載の発明によれ
ば、高精度な輪郭抽出を行うための撮像制御ステップが
実現された。According to the eighteenth aspect of the present invention, the imaging control step for performing highly accurate contour extraction is realized.
【0149】本願に係る請求項19に記載の発明によれ
ば、距離データの偏差の少ない領域を連結、併合させる
ことにより、最終的に統計処理による画像の精密な抽出
処理の効率、精度を向上することが可能である。According to the invention described in claim 19 of the present application, the efficiency and accuracy of the precise image extraction processing by the statistical processing are finally improved by connecting and merging the areas having small deviations in the distance data. It is possible to
【0150】本願に係る請求項20に記載の発明の手順
によれば、請求項3の発明に準拠した画像切り出し(抽
出)が可能である。According to the procedure of the invention described in claim 20 of the present application, it is possible to cut out (extract) an image based on the invention of claim 3.
【0151】本願に係る請求項21に記載の発明によれ
ば、効率的に背景との境界線を抽出し、被写体抽出を行
うステップが実現された。According to the twenty-first aspect of the present invention, the step of efficiently extracting the boundary between the background and the subject is realized.
【0152】本願に係る請求項22に記載の発明によれ
ば、輪郭抽出または輪郭追跡が困難な場合でもユーザに
よって指定される制御点を通る曲線を生成することによ
り、確実に背景との境界線を抽出し、かつ少ない演算処
理ステップで高精度な画像抽出を行うことが可能であ
る。According to the twenty-second aspect of the present invention, even if contour extraction or contour tracing is difficult, a curve passing through the control point designated by the user is generated, so that the boundary line with the background is surely obtained. And it is possible to perform highly accurate image extraction with a small number of calculation processing steps.
【0153】本願に係る請求項23に記載の発明によれ
ば、指定された処理領域との交差判定を利用することに
より、被写体の境界線と交差する背景のパターンまたは
輪郭線の除去を効率的に行うことが可能である。According to the twenty-third aspect of the present invention, by utilizing the intersection determination with the designated processing area, it is possible to efficiently remove the background pattern or contour line that intersects with the boundary line of the subject. It is possible to
【0154】本願に係る請求項24に記載の発明によれ
ば、撮像条件を活用した被写体抽出において自動的な輪
郭線追跡を行うことができ、効率的な被写体抽出が可能
である。According to the twenty-fourth aspect of the present invention, automatic contour line tracking can be performed in subject extraction utilizing the imaging conditions, and efficient subject extraction is possible.
【0155】本願に係る請求項25に記載の発明によれ
ば、画像間の距離データ分布の表示に基づいてユーザが
輪郭が通るべき制御点を対話的に設定することが可能と
なるインターフェース機構により被写体切り出し処理の
信頼度が向上された。According to the twenty-fifth aspect of the present invention, by the interface mechanism that enables the user to interactively set the control point through which the contour should pass based on the display of the distance data distribution between the images. The reliability of subject extraction processing has been improved.
【0156】本願に係る請求項26に記載の発明によれ
ば、背景との境界が不鮮明な画像、背景または被写体が
複雑なパターン形状を有し、背景との境界線抽出が困難
な場合でも確実に画像抽出が可能である。According to the twenty-sixth aspect of the present invention, an image with a blurred boundary with the background, a background or a subject having a complicated pattern shape, and reliable extraction of the boundary line with the background are reliable. Image extraction is possible.
【0157】本願に係る請求項27に記載の発明によれ
ば、複雑な形状を有する被写体に対して、異なる撮像条
件を活用した領域ベースの抽出処理により、被写体領域
の概略抽出と背景除去の効率が向上した。According to the twenty-seventh aspect of the present invention, the efficiency of the rough extraction of the subject region and the background removal can be improved by subjecting the subject having a complicated shape to region-based extraction processing utilizing different imaging conditions. Has improved.
【図1】本発明の輪郭追跡により画像切り出し処理基本
処理フロー図である。FIG. 1 is a basic processing flow chart of image cutout processing by contour tracking according to the present invention.
【図2】端末装置などと接続された被写体抽出機能を有
する撮像手段の要部構成図である。FIG. 2 is a main part configuration diagram of an imaging unit having a subject extraction function, which is connected to a terminal device or the like.
【図3】ピント状態を制御して得られる複数画像からの
距離データ算出による境界線検出原理説明図である。FIG. 3 is an explanatory diagram of a boundary line detection principle by calculating distance data from a plurality of images obtained by controlling a focus state.
【図4】被写体抽出のための撮影時のピント状態に基づ
くフォーカスモータ位置の制御範囲説明図である。FIG. 4 is an explanatory diagram of a focus motor position control range based on a focus state at the time of shooting for subject extraction.
【図5】本発明の撮像動作から画像切り出しまでの制御
フロー図である。FIG. 5 is a control flow chart from an image capturing operation to image cutting according to the present invention.
【図6】ピント状態の異なる複数画像から特定被写体を
抽出するまでの処理過程説明図である。FIG. 6 is an explanatory diagram of a process of extracting a specific subject from a plurality of images having different focus states.
【図7】異なる視点位置で撮像して得られる視差分布に
基づく被写体抽出処理フロー説明図である。FIG. 7 is an explanatory diagram of a subject extraction processing flow based on a parallax distribution obtained by capturing images at different viewpoint positions.
【図8】視差分布に基づく初期データ抽出原理説明図で
ある。FIG. 8 is an explanatory diagram of an initial data extraction principle based on a parallax distribution.
1 画像入力手段本体 2 結像光学系 3 レンズモータ駆動制御部 4 イメージセンサ 5 撮像パラメータ計測制御手段 6 画像記録再生手段 7 ビューファインダ 8 撮像パラメータ記録手段 9 被写体抽出用撮像モード設定スイッチ 10 コマンドデータ通信制御手段 11 出力画像生成手段 12 データ転送手段 13 被写体抽出手段 14 画像取り込み信号発生手段 15 画像入力手段本体のシステム制御部 16 絞り 17 映像信号処理部 18 イメージセンサの駆動回路 20 端末 21 表示手段 22 指示選択手段 1 Image Input Means Main Unit 2 Imaging Optical System 3 Lens Motor Drive Control Unit 4 Image Sensor 5 Imaging Parameter Measurement Control Means 6 Image Recording / Reproducing Means 7 Viewfinder 8 Imaging Parameter Recording Means 9 Subject Extraction Imaging Mode Setting Switch 10 Command Data Communication Control means 11 Output image generation means 12 Data transfer means 13 Subject extraction means 14 Image capture signal generation means 15 System control section of image input means body 16 Aperture 17 Video signal processing section 18 Image sensor drive circuit 20 Terminal 21 Display means 22 Instruction Means of selection
Claims (27)
入力手段と、入力された画像を記憶する画像記憶手段
と、該複数画像の少なくとも一対の画像間の画素値の距
離データを算出する第一の演算手段と、該距離データに
基づく輪郭の抽出を行う第二の演算手段とを具備するこ
とを特徴とする輪郭抽出装置。1. An image input unit for inputting images under a plurality of image pickup conditions, an image storage unit for storing the input images, and distance data of pixel values between at least a pair of images of the plurality of images. A contour extracting device comprising: a first computing means; and a second computing means for extracting a contour based on the distance data.
は所定の方法で指示された点を中心とする局所領域設定
手段と、該局所領域内の輪郭線を追跡する輪郭線追跡手
段と、追跡後の輪郭線端点を中心とする再帰的局所領域
設定手段とを有することを特徴とする輪郭抽出装置。2. A local area setting means centering on a point designated by a predetermined method, and a contour line tracking means for tracking a contour line in the local area according to claim 1. And a recursive local area setting means having a contour line end point after tracking as a center.
は該距離データの極大点に略隣接する極小点位置の検出
手段と、該極小点位置の追跡手段とを有することを特徴
とする輪郭抽出装置。3. The method according to claim 1, wherein the second calculation means has a minimum point position detecting means which is substantially adjacent to the maximum point of the distance data, and a minimum point position tracking means. Contour extraction device.
は前記局所領域内の走査方向設定ステップと、走査開始
点更新ステップと、該走査方向の一次元的画素値分布の
前記極大点を含むピーク領域において前記極小点の検出
ステップと該極小点位置の追跡ステップとを有すること
を特徴とする輪郭抽出装置。4. The method according to claim 3, wherein the second calculation means determines a scanning direction setting step in the local region, a scanning start point updating step, and the local maximum point of the one-dimensional pixel value distribution in the scanning direction. An outline extracting apparatus comprising: a step of detecting the minimum point and a step of tracking the position of the minimum point in the included peak region.
は前記極大点の画素値との差が所定閾値以上の点から該
極小点位置を検出し、前記輪郭線追跡手段は該極小点間
を結ぶ曲線生成手段を有することを特徴とする輪郭抽出
装置。5. The minimum point detecting means according to claim 2, wherein the minimum point position is detected from a point whose difference from the pixel value of the maximum point is equal to or more than a predetermined threshold value, and the contour line tracking means detects between the minimum points. A contour extraction device having a curve generation unit that connects the contours.
前記極小点間の極小点の存在しない領域において前記ピ
ーク領域の極大点を該曲線上の点として設定することを
特徴とする輪郭抽出装置。6. The contour extracting device according to claim 5, wherein the curve generating means sets a maximum point of the peak region as a point on the curve in a region where there is no minimum point between the minimum points. .
色信号からなり、前記第二の演算手段は各色信号ごとの
差分データに基づき輪郭の抽出を行うことを特徴とする
輪郭抽出装置。7. The contour extracting device according to claim 1, wherein the pixel value is composed of three kinds of color signals, and the second computing means extracts a contour based on difference data for each color signal. .
る画像入力手段と、該撮像条件を制御する制御手段と、
画像記憶手段と、画像中の点または領域の指示選択手段
と、画像表示手段と、該複数画像の少なくとも一対の画
像間の画素値の距離データを算出する第一の演算手段
と、該距離データに基づき画像データの抽出を行う第二
の演算手段とを有することを特徴とする画像抽出装置。8. An image input unit for inputting images under a plurality of different image pickup conditions, and a control unit for controlling the image pickup conditions.
Image storage means, point or area instruction selection means in the image, image display means, first calculation means for calculating distance data of pixel values between at least a pair of images of the plurality of images, and the distance data An image extracting device, comprising: a second arithmetic means for extracting image data based on the above.
る画像入力手段と、該撮像条件を制御する制御手段と、
画像記憶手段と、画像中の点または領域の指示選択手段
と、画像表示手段と、該複数画像の少なくとも一対の画
像間の画素値の距離データを算出する第一の演算手段
と、該距離データに基づく輪郭線の抽出を行う第二の演
算手段と、該輪郭線データから閉曲線を生成する第三の
演算手段と、該閉曲線の内側または外側の画像データを
抽出する第四の演算手段を具備することを特徴とする画
像抽出装置。9. An image input unit for inputting images under a plurality of different image pickup conditions, and a control unit for controlling the image pickup conditions.
Image storage means, point or area instruction selection means in the image, image display means, first calculation means for calculating distance data of pixel values between at least a pair of images of the plurality of images, and the distance data A second calculating means for extracting a contour line based on the contour line data, a third calculating means for generating a closed curve from the contour line data, and a fourth calculating means for extracting image data inside or outside the closed curve. An image extraction device characterized by:
段は前記距離データの極大点に略隣接する極小点位置の
検出手段と、該極小点位置の追跡手段とを有することを
特徴とする画像抽出装置。10. The method according to claim 9, wherein the second calculation means has a detection means for detecting a minimum point position substantially adjacent to the maximum point of the distance data and a tracking means for tracking the minimum point position. Image extraction device.
段は所定の方法で指示された点を中心とする局所領域設
定手段と、該局所領域内の輪郭線を追跡する輪郭線追跡
手段と、追跡後の輪郭線端点を中心とする再帰的局所領
域設定手段とを有することを特徴とする画像抽出装置。11. The method according to claim 9, wherein the second computing means includes a local area setting means having a point designated by a predetermined method as a center, and a contour line tracing means for tracing a contour line in the local area. An image extraction apparatus, comprising: a recursive local area setting means having a contour line end point after tracking as a center.
段は前記指示選択手段により指定される点を中心とする
輪郭線抽出後の該輪郭線上の端点と該指定点と異なる点
を中心として抽出される他の輪郭線上の端点とを結ぶ曲
線を生成することを特徴とする画像抽出装置。12. The method according to claim 9, wherein the second computing means is centered on a point different from the designated point and the end point on the contour line after the contour line is extracted with the point designated by the instruction selecting means as the center. An image extraction device characterized by generating a curve that connects with other extracted end points on a contour line.
段は抽出すべき画像領域が前記閉曲線の内側か外側かの
判別指示データを入力し、該指示データに基づき画像領
域の抽出を行うことを特徴とする画像抽出装置。13. The method according to claim 9, wherein the second computing unit inputs the determination instruction data indicating whether the image area to be extracted is inside or outside the closed curve, and extracts the image area based on the instruction data. An image extraction device characterized by.
線データとそれぞれに対応する前記判別指示データとを
入力し、各指示データに基づき得られる複数の抽出画像
領域データの論理積データを算出することを特徴とする
画像抽出装置。14. The fourth arithmetic means inputs a plurality of the closed curve data and the determination instruction data corresponding to each of the closed curve data, and calculates logical product data of a plurality of extracted image area data obtained based on each instruction data. An image extraction device characterized by:
段は所定の順序で入力される前記閉曲線データと対応す
る前記判別指示データに基づいて画像領域の抽出処理を
逐次的に行うことを特徴とする画像抽出装置。15. The method according to claim 9, wherein the fourth arithmetic means sequentially performs the image area extraction processing based on the determination instruction data corresponding to the closed curve data input in a predetermined order. Image extraction device.
テップと、該複数画像の少なくとも一対の画像間の画素
値の距離データを算出する距離データ算出ステップと、
該距離データに基づく輪郭の抽出を行う輪郭抽出ステッ
プを具備することを特徴とする輪郭抽出方法。16. A step of inputting images under a plurality of imaging conditions, a distance data calculating step of calculating distance data of pixel values between at least a pair of images of the plurality of images,
A contour extracting method comprising a contour extracting step for extracting a contour based on the distance data.
テップ、該複数画像の少なくとも一対の画像間の画素値
の距離データを算出する距離データ算出ステップと、該
距離データに基づく輪郭の抽出を行う輪郭抽出ステップ
と、該輪郭に基づいて閉曲線を生成する曲線生成ステッ
プと、該閉曲線の内側または外側の画像データ抽出する
ステップを具備することを特徴とする画像抽出方法。17. A step of inputting images under a plurality of imaging conditions, a distance data calculation step of calculating distance data of pixel values between at least a pair of images of the plurality of images, and a contour extraction based on the distance data. An image extraction method comprising: a contour extraction step to be performed; a curve generation step of generating a closed curve based on the contour; and a step of extracting image data inside or outside the closed curve.
大条件での画像と非合焦画像の複数画像を入力する画像
入力ステップと、該複数画像の少なくとも一対の画像間
の画素値の距離データを算出する距離データ算出ステッ
プと、該距離データに基づく輪郭の抽出を行う輪郭抽出
ステップを具備することを特徴とする輪郭抽出方法。18. An image input step of controlling a focus condition to input a plurality of images of an image with a maximum degree of focus and an out-of-focus image, and a pixel value distance between at least a pair of images of the plurality of images. A contour extracting method comprising: a distance data calculating step of calculating data; and a contour extracting step of extracting a contour based on the distance data.
テップと、該複数画像の少なくとも一対の画像間の画素
値の距離データを算出する距離データ算出ステップと、
該距離データに基づく連結領域生成ステップと、該連結
領域に基づく画像データ抽出するステップを具備するこ
とを特徴とする画像抽出方法。19. A step of inputting images under a plurality of imaging conditions, a distance data calculating step of calculating distance data of pixel values between at least a pair of images of the plurality of images,
An image extraction method comprising: a connected area generating step based on the distance data; and a step of extracting image data based on the connected area.
テップは前記距離データの極大点に略隣接する極小点位
置の検出ステップ、該極小点位置の追跡ステップとを有
することを特徴とする輪郭抽出方法。20. The contour extracting method according to claim 16, wherein the contour extracting step includes a step of detecting a minimum point position substantially adjacent to a maximum point of the distance data and a tracking step of the minimum point position. .
テップは所定の方法で入力される指定点を中心とする局
所領域設定ステップと、該局所領域内の輪郭線を追跡す
る輪郭線追跡ステップと、追跡後の輪郭線端点を中心と
する局所領域を再帰的に設定するステップと、追跡ステ
ップ終了後、残存する該輪郭線の端点どうしを結ぶ曲線
生成ステップを有することを特徴とする輪郭抽出方法。21. The contour extraction step according to claim 16, further comprising a local area setting step centered on a designated point input by a predetermined method, and a contour line tracking step of tracing a contour line in the local area. A contour extraction method comprising: a step of recursively setting a local area centered on a contour line end point after tracking; and a curve generation step of connecting remaining end points of the contour line after the tracking step.
テップは所定の方法で入力される制御点またはその近傍
の特徴点を通る曲線生成ステップを有することを特徴と
する輪郭抽出方法。22. The contour extracting method according to claim 16, wherein the contour extracting step includes a curve generating step that passes through a control point input by a predetermined method or a characteristic point in the vicinity thereof.
テップは処理領域設定ステップと、該処理領域内での前
記距離データの局所ピーク分布の極大または極小点列の
追跡ステップと、該ピーク分布の分岐構造判定ステップ
と、該判定ステップにより分岐構造の存在が判定された
場合に該追跡ステップにおいて一方の分岐の該点列端点
の位置と該点列方向に基づく該処理領域との交差を判定
するステップと、分岐構造の一方を選択する分岐選択ス
テップを有することを特徴とする輪郭抽出方法。23. The contour extracting step according to claim 16, a processing area setting step, a step of tracking a local maximum or minimum point sequence of a local peak distribution of the distance data in the processing area, and a branching of the peak distribution. A structure determining step, and a step of determining an intersection between the position of the point sequence end point of one branch and the processing region based on the point sequence direction in the tracking step when the presence of a branch structure is determined by the determining step And a branch selection step of selecting one of the branch structures.
テップは前記距離データの局所ピーク分布の極大または
極小点列の追跡ステップと、該ピーク分布の分岐構造判
定ステップと、分岐構造の一方を選択する分岐選択ステ
ップを有し、該追跡ステップにおいて該判定ステップに
より分岐構造の存在が判定された場合に該分岐選択ステ
ップは該点列方向の連続性の高い分岐方向を選択するこ
とを特徴とする輪郭抽出方法。24. The contour extracting step according to claim 16, wherein one of a branching structure determining step and a branching structure determining step of the peak distribution of a local peak distribution or a local minimum point sequence of the distance data is selected. A contour having a branch selection step, wherein the branch selection step selects a branch direction having high continuity in the point sequence direction when the presence of the branch structure is determined by the determination step in the tracking step. Extraction method.
テップは前記距離データの分布を所定の表示手段に表示
するステップと、該表示手段上の距離データ分布に基づ
いて制御点を設定するステップと、該制御点またはその
近傍の特徴点を通る曲線生成ステップを有することを特
徴とする画像抽出方法。25. The contour extraction step according to claim 16, wherein the distribution of the distance data is displayed on a predetermined display means, and a control point is set based on the distance data distribution on the display means. An image extraction method comprising a step of generating a curve passing through the control point or a characteristic point in the vicinity thereof.
段は前記指示選択手段により設定される制御点またはそ
の近傍の特徴点を通る曲線生成手段と、前記距離データ
の極小点または該極小点が所定の判定基準により存在し
ないと判定された場合には局所ピーク領域内の代表点を
抽出する特徴点抽出手段及び該特徴点列追跡手段を有
し、前記曲線生成手段においては該制御点またはその近
傍に存在し、該特徴点抽出手段により抽出された隣接す
る特徴点間を結ぶ曲線を生成することを特徴とする画像
抽出装置。26. The curve calculating means according to claim 9, wherein the second computing means passes through a control point set by the instruction selecting means or a characteristic point in the vicinity thereof, and a minimum point of the distance data or the minimum point. Has a feature point extracting means and a feature point sequence tracking means for extracting a representative point in the local peak region when it is determined that the control point or the control point is not present according to a predetermined determination criterion. An image extracting device characterized by generating a curve existing in the vicinity thereof and connecting between adjacent characteristic points extracted by the characteristic point extracting means.
段は前記距離データの略均質な複数の隣接する領域を連
結抽出することを特徴とする画像抽出装置。27. The image extraction device according to claim 8, wherein the second calculation means connects and extracts a plurality of substantially uniform adjacent regions of the distance data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP8140076A JPH09327037A (en) | 1996-06-03 | 1996-06-03 | Contour extraction method, image extraction method and device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP8140076A JPH09327037A (en) | 1996-06-03 | 1996-06-03 | Contour extraction method, image extraction method and device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH09327037A true JPH09327037A (en) | 1997-12-16 |
Family
ID=15260413
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP8140076A Pending JPH09327037A (en) | 1996-06-03 | 1996-06-03 | Contour extraction method, image extraction method and device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH09327037A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003044856A (en) * | 2001-07-30 | 2003-02-14 | Dds:Kk | Device, method and program for matching fingerprint |
| JP2007129311A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging device |
| JP2009134587A (en) * | 2007-11-30 | 2009-06-18 | Toyota Motor Corp | Image processing device |
| JP2010044606A (en) * | 2008-08-13 | 2010-02-25 | Casio Comput Co Ltd | Image synthesizer and program |
| JP2012182582A (en) * | 2011-02-28 | 2012-09-20 | Olympus Imaging Corp | Imaging apparatus |
| US8724015B2 (en) | 2010-08-04 | 2014-05-13 | Olympus Corporation | Image processing apparatus, image processing method, imaging apparatus, and information storage medium |
| JP2024033803A (en) * | 2022-08-31 | 2024-03-13 | 岩崎通信機株式会社 | Angle measuring device, angle measuring method, angle measuring program |
-
1996
- 1996-06-03 JP JP8140076A patent/JPH09327037A/en active Pending
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003044856A (en) * | 2001-07-30 | 2003-02-14 | Dds:Kk | Device, method and program for matching fingerprint |
| JP2007129311A (en) * | 2005-11-01 | 2007-05-24 | Nikon Corp | Imaging device |
| JP2009134587A (en) * | 2007-11-30 | 2009-06-18 | Toyota Motor Corp | Image processing device |
| US8107725B2 (en) | 2007-11-30 | 2012-01-31 | Toyota Jidosha Kabushiki Kaisha | Image processor and image processing method |
| JP2010044606A (en) * | 2008-08-13 | 2010-02-25 | Casio Comput Co Ltd | Image synthesizer and program |
| US8724015B2 (en) | 2010-08-04 | 2014-05-13 | Olympus Corporation | Image processing apparatus, image processing method, imaging apparatus, and information storage medium |
| JP2012182582A (en) * | 2011-02-28 | 2012-09-20 | Olympus Imaging Corp | Imaging apparatus |
| JP2024033803A (en) * | 2022-08-31 | 2024-03-13 | 岩崎通信機株式会社 | Angle measuring device, angle measuring method, angle measuring program |
| JP2024035023A (en) * | 2022-08-31 | 2024-03-13 | 岩崎通信機株式会社 | Angle measuring device, angle measuring method, angle measuring program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3679512B2 (en) | Image extraction apparatus and method | |
| JP5313127B2 (en) | Video composition method, video composition system | |
| CN108377374B (en) | Method and system for generating depth information related to an image | |
| JP2003044861A (en) | Moving object detection method and device | |
| JP4348028B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and computer program | |
| JP3794744B2 (en) | Focusing surface detection method, image input / output device, and optical microscope | |
| JPH09327037A (en) | Contour extraction method, image extraction method and device | |
| JPH08210847A (en) | Image processing method | |
| JP3774495B2 (en) | Image information extracting apparatus and method | |
| JPH1021408A (en) | Image extraction apparatus and method | |
| JP2006145793A (en) | Microscopic image pickup system | |
| JP3488762B2 (en) | Image processing apparatus and image processing method | |
| JPH09138355A (en) | Microscope still picture photographing device and microscope image transmission system | |
| JPH09186935A (en) | Image extraction device | |
| JP3624037B2 (en) | Image input apparatus and image processing apparatus | |
| JPH089314A (en) | Moving image recording medium, still image extracting device, moving image recording device and still image automatic extracting method | |
| JPH06153047A (en) | Video camera system | |
| JP2001004370A (en) | Parallax image picking-up device, and method therefor parallax image processing device and method therefor | |
| JPH06121214A (en) | Image recorder | |
| JP2947037B2 (en) | Video camera | |
| JP2004304822A (en) | Image processing system and image processing method of image processing system | |
| CN115086558B (en) | Focusing method, camera equipment, terminal equipment and storage media | |
| JPH10155110A (en) | Imaging method and apparatus, and storage medium | |
| JP7458723B2 (en) | Image processing device, imaging device, control method, and program | |
| JP5092958B2 (en) | Image processing apparatus and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040528 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040907 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050111 |