JP2013037522A - Object tracking program and object tracking device - Google Patents
Object tracking program and object tracking device Download PDFInfo
- Publication number
- JP2013037522A JP2013037522A JP2011172896A JP2011172896A JP2013037522A JP 2013037522 A JP2013037522 A JP 2013037522A JP 2011172896 A JP2011172896 A JP 2011172896A JP 2011172896 A JP2011172896 A JP 2011172896A JP 2013037522 A JP2013037522 A JP 2013037522A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- processing
- search
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
【課題】時系列に入力されるフレーム画像において適切に主要被写体を追跡すること。
【解決手段】被写体追跡プログラムは、時系列で入力される各フレーム画像の色情報および輝度情報に基づいて複数の要素画像を生成する要素画像生成処理と、複数の要素画像をそれぞれ2値化して複数の2値化要素画像を生成する2値化要素画像生成処理と、複数の2値化要素画像を論理積演算する論理積演算処理と、論理積演算後の2値論理積画像に対するラベリング処理に基づいて、各フレーム画像における主要被写体の位置を特定する特定処理と、特定処理で特定された範囲と所定範囲との論理積演算に基づいて特定された範囲を縮小する縮小処理と、前フレーム画像において縮小処理で縮小された範囲を膨張させて所定範囲を得るモルフォロジー処理と、をコンピュータに実行させる。
【選択図】図13An object of the present invention is to appropriately track a main subject in a frame image input in time series.
An object tracking program binarizes a plurality of element images and element image generation processing for generating a plurality of element images based on color information and luminance information of each frame image input in time series. Binarization element image generation processing for generating a plurality of binarization element images, AND operation processing for ANDing a plurality of binarization element images, and labeling processing for a binary AND image after the AND operation Specific processing for specifying the position of the main subject in each frame image, reduction processing for reducing the range specified based on the logical product of the range specified by the specification processing and the predetermined range, and the previous frame The computer executes a morphological process for expanding a range reduced by the reduction process in an image to obtain a predetermined range.
[Selection] Figure 13
Description
本発明は、被写体追跡プログラムおよび被写体追跡装置に関する。 The present invention relates to a subject tracking program and a subject tracking device.
時系列に入力されるフレーム画像内でテンプレート画像と類似度が高い画像の位置を探索することにより、各フレームにおいて主要被写体の位置を特定する被写体追跡技術が知られている(特許文献1参照)。 A subject tracking technique is known in which the position of a main subject in each frame is specified by searching for the position of an image having a high similarity to the template image in frame images input in time series (see Patent Document 1). .
従来技術では、特定した位置に主要被写体以外の背景部分が含まれるため、被写体の位置が不明確になるという問題があった。 In the prior art, the background position other than the main subject is included in the specified position, so that the subject position is unclear.
本発明による被写体追跡プログラムは、コンピュータに、時系列で入力される各フレーム画像の色情報および輝度情報に基づいて複数の要素画像を生成する要素画像生成処理と、複数の要素画像をそれぞれ2値化して複数の2値化要素画像を生成する2値化要素画像生成処理と、複数の2値化要素画像を論理積演算する論理積演算処理と、論理積演算後の2値論理積画像に対するラベリング処理に基づいて、各フレーム画像における主要被写体の位置を特定する特定処理と、特定処理で特定された範囲と所定範囲との論理積演算に基づいて特定された範囲を縮小する縮小処理と、前フレーム画像において縮小処理で縮小された範囲を膨張させて所定範囲を得るモルフォロジー処理と、を実行させることを特徴とする。
本発明による被写体追跡プログラムは、コンピュータに、テンプレート内の主要被写体の2値化画像を膨張させるモルフォロジー処理と、モルフォロジー処理による膨張後の2値化画像を包絡する範囲を探索領域に決定する探索領域決定処理と、時系列で入力される各フレーム画像のうち探索領域内で探索枠を移動させながら、各探索枠位置における探索枠内の画像とテンプレートとの類似度を算出する類似度算出処理と、類似度が最も高い探索枠の位置を主要被写体の位置として特定する特定処理と、を実行させることを特徴とする。
An object tracking program according to the present invention includes an element image generation process for generating a plurality of element images based on color information and luminance information of each frame image input in time series to a computer, and each of the plurality of element images is binarized. A binarized element image generation process for generating a plurality of binarized element images, a logical product operation process for performing a logical AND operation on the plurality of binarized element images, and a binary logical product image after the AND operation A specifying process for specifying the position of the main subject in each frame image based on the labeling process, and a reducing process for reducing the specified range based on a logical product operation of the range specified by the specifying process and the predetermined range; Morphological processing for expanding a range reduced by the reduction processing in the previous frame image to obtain a predetermined range is performed.
A subject tracking program according to the present invention is a search region in which a computer determines, as a search region, a morphological process for expanding a binary image of a main subject in a template and a range enclosing the binary image after expansion by the morphological process. A determination process, and a similarity calculation process for calculating the similarity between the image in the search frame and the template at each search frame position while moving the search frame in the search area among the frame images input in time series And a specifying process for specifying the position of the search frame with the highest similarity as the position of the main subject.
本発明によれば、時系列に入力されるフレーム画像において適切に主要被写体を追跡できる。 According to the present invention, it is possible to appropriately track a main subject in a frame image input in time series.
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、第一の実施形態における被写体追跡装置としてカメラを使用した場合の一実施の形態の構成を例示するブロック図である。第一の実施形態では、ラベリング手法を用いて被写体を追跡する。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズスイッチ、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含む。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating the configuration of an embodiment when a camera is used as the subject tracking device in the first embodiment. In the first embodiment, a subject is tracked using a labeling method. The
レンズ102は、複数の光学レンズ群から構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSイメージセンサによって構成され、レンズ102により結像した被写体像を撮像して画像を取得する。そして、取得した画像のデータ(画像データ)を制御装置104へ出力する。制御装置104は、撮像素子103で取得された画像データを所定の画像形式、例えばJpeg形式に圧縮し、Exif(Exchangeable Image File Format for Digital Still Camera)等の所定の形式の画像ファイルを生成してメモリカードスロット105へ出力する。
The
メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。
The
モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、撮像素子103から時系列で画像を取得してモニタ106に出力する。これによって、モニタ106には、各フレームの画像が所定時間間隔で順番に表示される。すなわちモニタ106には画像が表示される。
The
制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、後述する演算部104aを機能的に備えている。なお、制御装置104を構成するメモリには、プログラムを格納するメモリ、ワークメモリ、バッファメモリとして使用するメモリを含む。例えばフラッシュメモリや、RAM、SDRAMなどである。
The
図2は、第一の実施形態におけるカメラ100の処理を示すフローチャートである。図2に示す処理は、撮像素子103から画像の入力が開始されると起動するプログラムとして、制御装置104内の演算部104aによって実行される。
FIG. 2 is a flowchart showing the processing of the
図2のステップS51において、制御装置104の演算部104aは、フレーム画像を読み込んでステップS52へ進む。ステップS52において、演算部104aは、使用者からの指示に基づいて、読み込んだフレーム画像から所定範囲内の画像を抽出し、ステップS53へ進む。
In step S51 of FIG. 2, the
ステップS53において、演算部104aは、抽出画像に基づいてYCbCr形式の画像を算出し、Y成分の画像(Yプレーン画像)、Cr成分の画像(Crプレーン画像)、および、Cb成分の画像(Cbプレーン画像)をそれぞれ生成する。具体的には、RGB表色系で表されている対象画像を次式(1)〜(3)を用いてYCbCr色空間における輝度成分(Y成分)からなる輝度画像と色差成分(Cb成分、Cr成分)とからなる色差画像とに変換する。
In step S53, the
すなわち、演算部104aは、抽出画像から次式(1)を用いてY成分からなる輝度画像をYプレーン画像として生成する。演算部104aはさらに、抽出画像から次式(2)および(3)を用いてCb成分からなる色差画像とCr成分からなる色差画像とをそれぞれCbプレーン画像、およびCrプレーン画像として生成し、ステップS54へ進む。
Y = 0.299R+0.587G+0.114B ・・・(1)
Cb=−0.169R−0.332G+0.500B ・・・(2)
Cr= 0.500R−0.419G−0.081B ・・・(3)
That is, the
Y = 0.299R + 0.587G + 0.114B (1)
Cb = −0.169R−0.332G + 0.500B (2)
Cr = 0.500R−0.419G−0.081B (3)
ステップS54では、演算部104aは2値化演算を行う。演算部104aは、Yプレーン画像、Cbプレーン画像、およびCrプレーン画像において、たとえば、各々の平均値を閾値として2値化した2値化画像を算出し、ステップS55へ進む。図3は、2値化したYプレーン画像を例示する図である。図4は、2値化したCbプレーン画像を例示する図である。図5は、2値化したCrプレーン画像を例示する図である。なお、2値化に用いる閾値は、各々の平均値に標準偏差σに係数を掛けたものを加減算したものでもよい。
In step S54, the
ステップS55において、演算部104aは第一のAND演算を行う。具体的には、2値化後の各プレーン画像を画素ごとに論理積演算してステップS56へ進む。図6は、2値化したYプレーン画像、Cbプレーン画像、およびCrプレーン画像を第一のAND演算した2値化画像を例示する図である。
In step S55, the
ステップS56において、演算部104aは、第一のAND演算後の2値化画像に対し、公知のラベリング処理を行い白画素で構成されるラベリング領域を「島」として認識する。選択処理は、上記抽出したラベリング領域のうち、所定の評価処理によって被写体により近い島を選択する。
In step S56, the
ステップS57において、演算部104aは、最初のフレームか否かを判定する。演算部104aは、最初のフレームでない(すなわち2フレーム目以降である)場合はステップS57を否定判定してステップS58へ進む。演算部104aは、最初のフレームの場合はステップS57を肯定判定してステップS59へ進む。
In step S57, the
ステップS58において、演算部104aは第二のAND演算を行う。具体的には、ラベリング、選択処理後の2値化画像と、前フレームで膨張処理した2値化画像(図8)とを論理積演算してステップS59へ進む。図9は、第二のAND演算後の2値化画像を例示する図である。図9において白画素のまとまりを囲む枠は、主要被写体が存在する範囲を明示するためのターゲット枠である。
In step S58, the
ステップS59において、演算部104aは、第二のAND後の2値化画像に対してモルフォロジーによる膨張処理を行う。図8は、膨張処理後の2値化画像を例示する図である。なお、ステップS57を肯定判定した場合の演算部104aは、最初のフレームの2値化画像に対してモルフォロジーによる膨張処理を行う。
In step S <b> 59, the
ステップS60において、演算部104aは、上記ターゲット枠をフレーム画像上に表示し、ステップS61へ進む。図10は、フレーム画像上のターゲット枠151を例示する図である。ターゲット枠151は、2値化画像において主要被写体を示す「島」である白領域を囲む包絡枠に相当する。第一の実施形態では、ターゲット枠151で囲まれる範囲が追跡結果(主要被写体が存在する範囲)となる。
In step S60, the
ステップS61において、演算部104aは、フレーム終了か否かを判定する。演算部104aは、画像の入力が終了した場合にステップS61を肯定判定して図2による処理を終了する。演算部104aは、画像の入力が終了していない場合には、ステップS61を否定判定してステップS51へ戻る。ステップS51へ戻る場合は次フレームの読込みを行って上述した処理を繰り返す。
In step S61, the
以上説明した第一の実施形態によれば、以下のような作用効果を得ることができる。
(1)カメラ100は、時系列で入力される各フレーム画像の色情報および輝度情報に基づいて複数のプレーン画像Y、Cb、Crを生成する要素画像生成処理と、複数のプレーン画像Y、Cb、Crをそれぞれ2値化して複数の2値化プレーン画像を生成する2値化演算処理と、複数の2値化プレーン画像を論理積演算する第1のAND演算処理と、第1のAND演算後の2値論理積画像に対するラベリング処理に基づいて、各フレーム画像における主要被写体の位置を特定するラベリング、選択処理と、ラベリング、選択処理で特定された範囲と所定範囲との論理積演算に基づいて特定された範囲を縮小する第2のAND演算処理と、前フレーム画像において縮小処理で縮小された範囲を膨張させて所定範囲を得る膨張処理と、を演算部104aに実行させる被写体追跡プログラムを搭載したので、時系列に入力されるフレーム画像において適切に主要被写体を追跡できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The
上述した第二のAND演算後の2値化画像(図9)と、第二のAND演算を行わない場合との比較例を説明する。図7は、第1のAND演算後の2値化画像(図6)に対してラベリング、選択処理を施す従来技術による2値化画像を例示する図である。図7と図9とを比較すると、第二のAND演算後の2値化画像(図9)の方が主要被写体が存在する範囲(すなわち、白画素のまとまり)が小さく、精度よく主要被写体を追跡できることがわかる。主要被写体が存在する範囲(すなわち、白画素のまとまり)を小さくできるので、主要被写体以外の背景ノイズなどを含む可能性が低く抑えられる。 A comparative example between the above-described binarized image after the second AND operation (FIG. 9) and the case where the second AND operation is not performed will be described. FIG. 7 is a diagram illustrating a binarized image according to the prior art in which labeling and selection processing are performed on the binarized image (FIG. 6) after the first AND operation. Comparing FIG. 7 and FIG. 9, the binarized image after the second AND operation (FIG. 9) has a smaller range in which the main subject exists (that is, a group of white pixels), and the main subject is accurately detected. You can trace. Since the range in which the main subject exists (that is, a group of white pixels) can be reduced, the possibility of including background noise other than the main subject is suppressed to a low level.
(2)上記(1)の被写体追跡プログラムにおいて、要素画像生成処理は、輝度画像Yおよび色差画像Cb、Crをそれぞれ生成するので、主要被写体追跡に適した要素画像が得られる。 (2) In the subject tracking program of (1), the element image generation process generates the luminance image Y and the color difference images Cb and Cr, respectively, so that an element image suitable for main subject tracking can be obtained.
(第二の実施形態)
第二の実施形態では、制御部104aが撮像素子103から入力される各フレーム画像に対してテンプレートマッチング処理を行って、フレーム画像内で主要被写体が写っている領域を特定する。そして、特定した領域をフレーム間で追跡する。具体的には、次のように処理する。
(Second embodiment)
In the second embodiment, the
図11は、モニタ106に表示されたフレーム画像を例示する図である。例えば、使用者は、最初のフレーム画像のスルー画がモニタ106に表示されたときに、操作部材101を操作して、最初のフレーム内で、フレーム間で追跡したい被写体(主要被写体Aと呼ぶ)を含む範囲Eを指定する。演算部104aは、使用者によって指定された範囲E内の画像を抽出し、テンプレートTとしてメモリに記憶する。図12は、テンプレートTを例示する図である。
FIG. 11 is a diagram illustrating a frame image displayed on the
演算部104aは、図13に例示するように、テンプレートTと撮像素子103から時系列で入力される各フレームの画像データ(ターゲット画像Iと呼ぶ)との間でマッチング演算を行う。具体的には、テンプレートTを用いてターゲット画像I内における主要被写体位置を特定する。
As illustrated in FIG. 13, the
テンプレートマッチングの手法は公知であるため詳細な説明は省略するが、類似度の算出は、たとえば次式(4)に示す残差和や次式(5)に示す正規化相関により算出できる。次式(4)に示す残差和により類似度を算出した場合は、算出されるrが小さいほどテンプレートTとターゲット画像Iとの類似度が高いことを示している。一方、次式(5)に示す正規化相関により類似度を算出した場合は、算出されるrが大きいほどテンプレートTとターゲット画像Iとの類似度が高いことを示している。
演算部104aは、撮像素子103からの画像の入力が開始されると、各フレーム(コマ)の画像をターゲット画像Iとし、当該ターゲット画像I上の所定の位置にテンプレートTと同じ大きさの探索枠Bを設定する。演算部104aは、設定した探索枠Bをターゲット画像I内で移動させながら、各位置における探索枠B内の画像と、テンプレートTとのマッチング演算を行なう。マッチング演算の結果、テンプレートTとの間で最も類似度の高い探索枠Bの位置を被写体位置として特定する。
When the input of the image from the
なお、第二の実施形態の演算部104aは、ターゲット画像Iの全体ではなく、フレーム画像内からテンプレートTを抽出した範囲Eを含む所定範囲(探索領域S2と呼ぶ)を対象にテンプレートマッチングを行う。このように探索領域S2のサイズをターゲット画像Iより小さくするのは、画面全体を追尾対象とすると処理時間がかかる上、背景による擬似マッチングが起きやすいことから、これらを避けるためである。探索領域S2のサイズの決め方は後述する。
Note that the
ところで、図12のような主要被写体A以外の部分を多く含むテンプレートTでは、マッチング演算時に使用するターゲット画像Iの状態によっては図14のように背景ノイズが混入しやすくマッチング精度が出ないことが多い。そのため図15に示すような、主要被写体Aに公知のモルフォロジー(数理形態学)の膨張処理を施した膨張マスクDを設定する。すなわち、テンプレートTを2値化し、該2値化画像を膨張させて膨張マスクDを得る。膨張マスクDは、図15に示すように内側の画素がすべて1、外側がすべて0にしてある。この膨張マスクDと、ターゲット画像IをAND演算することにより、ターゲット画像Iに含まれる背景ノイズをカットする。図16は、背景ノイズカットを説明する図である。図16によれば、ターゲット画像Iのうち膨張マスクDの内部(画素1)の画像のみが残り、外部(画素0)の背景ノイズを含む画像が消去される。 By the way, in the template T including many parts other than the main subject A as shown in FIG. 12, background noise is likely to be mixed as shown in FIG. 14 depending on the state of the target image I used during the matching calculation, and matching accuracy may not be obtained. Many. Therefore, as shown in FIG. 15, an expansion mask D is set in which the main subject A is subjected to expansion processing of a known morphology (mathematical morphology). That is, the template T is binarized and the binarized image is expanded to obtain the expansion mask D. In the expansion mask D, as shown in FIG. 15, the inner pixels are all 1 and the outer pixels are all 0. By performing an AND operation on the expansion mask D and the target image I, the background noise included in the target image I is cut. FIG. 16 is a diagram for explaining background noise cut. According to FIG. 16, only the image inside the expansion mask D (pixel 1) remains in the target image I, and the image including background noise outside (pixel 0) is deleted.
膨張マスクDを採用する場合の演算部104aは、図17に示すように、主要被写体Aを中心として膨張マスクDを包絡する枠を探索領域S2とする。図18は探索領域S2内での最初のテンプレートTの位置を示し、図19は探索領域S2内での最後のテンプレートTの位置を示す。テンプレートT内において膨張マスクDの外側に相当する部分、つまりテンプレートTの右下と左上の部分は、マッチング演算の対象から除外できる。
As illustrated in FIG. 17, the
図20に、1回のマッチング演算時のテンプレートTの移動量X2、Y2を示す。膨張マスクDを採用する第二の実施形態では、探索領域S2のサイズは一意的に決まる。また、膨張マスクDによる探索領域S2のサイズは、従来のマッチング演算で用いた探索領域より小さくなることが多いことが実験で示されている。このように膨張マスクDを導入することで、背景ノイズの削減だけでなくマッチング演算の短縮も可能となる。 FIG. 20 shows the movement amounts X2 and Y2 of the template T during one matching calculation. In the second embodiment employing the expansion mask D, the size of the search area S2 is uniquely determined. Experiments have shown that the size of the search area S2 by the expansion mask D is often smaller than the search area used in the conventional matching calculation. By introducing the expansion mask D in this way, not only the background noise can be reduced but also the matching operation can be shortened.
演算部104aは、上述した処理を、入力される各フレーム画像に対して実行する。演算部104aは、マッチング演算によって特定された主要被写体位置のうち、マッチング時の類似度が最も高い位置を被写体位置とする。そして、この被写体位置を追跡対象としてターゲット枠を表示し、各フレーム間で被写体追跡を行うことができる。
The
図21は、第二の実施形態におけるカメラ100の処理を示すフローチャートである。図21に示す処理は、撮像素子103から画像の入力が開始されると起動するプログラムとして、制御装置104の演算部104aによって実行される。
FIG. 21 is a flowchart showing the processing of the
図21のステップS11において、演算部104aは、フレーム画像を読み込んで、ステップS12へ進む。ステップS12では、演算部104aは、使用者からの指示に基づいて、フレーム画像から所定範囲内の画像を抽出し、ステップS13へ進む。
In step S11 of FIG. 21, the
ステップS13において、演算部104aは、最初のフレームか否かを判定する。演算部104aは、最初のフレームでない(すなわち2フレーム目以降である)場合はステップS13を否定判定してステップS14へ進む。演算部104aは、最初のフレームの場合はステップS13を肯定判定してステップS18へ進む。
In step S13, the
ステップS14において、演算部104aは2値化演算を行う。演算部104aは、上記所定範囲内の画像を2値化した2値化画像を算出し、ステップS15へ進む。ステップS15において、演算部104aは、2値化画像に対してモルフォロジーによる膨張処理を行い、膨張マスクDを設定してステップS16へ進む。ステップS16において、演算部104aは 膨張マスクDを包絡する枠を探索領域S2としてステップS17へ進む。ステップS17において、演算部104aはマッチング演算を行ってステップS18へ進む。
In step S14, the
ステップS18において、演算部104aは、主要被写体が存在する範囲を明示するためのターゲット枠をフレーム画像上に表示し、ステップS19へ進む。ステップS19において、演算部104aは、フレーム終了か否かを判定する。演算部104aは、画像の入力が終了した場合にステップS19を肯定判定して図21による処理を終了する。演算部104aは、画像の入力が終了していない場合には、ステップS19を否定判定してステップS11へ戻る。ステップS11へ戻る場合は次フレームの読込みを行って上述した処理を繰り返す。
In step S18, the
以上説明した第二の実施形態によれば、以下のような作用効果を得ることができる。
(1)カメラ100は、テンプレートT内の主要被写体Aの2値化画像を膨張させるモルフォロジー処理と、モルフォロジー処理による膨張後の2値化画像を包絡する範囲を探索領域S2に決定する探索領域決定処理と、時系列で入力される各フレーム画像のうち探索領域S2内で探索枠Bを移動させながら、各探索枠位置における探索枠B内の画像とテンプレートTとの類似度を算出する類似度算出処理と、類似度が最も高い探索枠Bの位置を主要被写体の位置として特定する特定処理と、を制御装置104に実行させる被写体追跡プログラムを搭載したので、時系列に入力されるフレーム画像において適切に主要被写体を追跡できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The
(2)上記(1)の被写体追跡プログラムにおいて、フレーム画像から膨張後の2値化画像に基づいて画像を抽出する膨張マスク処理をさらに備え、類似度算出処理は、時系列で入力される各フレーム画像のうち探索領域S2内で探索枠Bを移動させながら、各探索枠位置における探索枠B内で膨張マスク処理後の画像とテンプレートTとの類似度を算出するようにしたので、フレーム画像において仮に主要被写体A以外の背景ノイズが含まれる場合でも、この背景ノイズをカットして適切に主要被写体Aを追跡できる。 (2) The subject tracking program of (1) further includes an expansion mask process for extracting an image from a frame image based on a binarized image after expansion, and the similarity calculation process is performed in time series. Since the search frame B is moved in the search area S2 in the frame image, the similarity between the image after the expansion mask processing and the template T in the search frame B at each search frame position is calculated. Even if background noise other than the main subject A is included, the background noise can be cut and the main subject A can be tracked appropriately.
(変形例)
上述した実施形態では、カメラ100の制御装置104が被写体追跡処理を行う例を説明したが、被写体追跡処理をコンピュータに行わせるように構成するようにしてもよい。図2、図21に例示したフローチャートに基づく処理を行うプログラムをコンピュータに実行させることにより、被写体追跡装置を構成する。プログラムをコンピュータに取込んで使用する場合には、コンピュータのデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させる。
(Modification)
In the above-described embodiment, an example in which the
コンピュータに対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記憶媒体をコンピュータにセットして行ってもよいし、ネットワークなどの通信回線を経由する方法でコンピュータへローディングしてもよい。通信回線を経由する場合は、通信回線に接続されたサーバー(コンピュータ)のストレージ装置などにプログラムを格納しておく。プログラムは、記憶媒体や通信回線を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。 The program may be loaded into the computer by setting a storage medium such as a CD-ROM storing the program in the computer, or may be loaded into the computer by a method via a communication line such as a network. When passing through a communication line, the program is stored in a storage device of a server (computer) connected to the communication line. The program can be supplied as various forms of computer program products such as provision via a storage medium or a communication line.
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
100…カメラ
101…操作部材
104…制御装置
104a…演算部
106…モニタ
DESCRIPTION OF
Claims (5)
時系列で入力される各フレーム画像の色情報および輝度情報に基づいて複数の要素画像を生成する要素画像生成処理と、
前記複数の要素画像をそれぞれ2値化して複数の2値化要素画像を生成する2値化要素画像生成処理と、
前記複数の2値化要素画像を論理積演算する論理積演算処理と、
前記論理積演算後の2値論理積画像に対するラベリング処理に基づいて、各フレーム画像における主要被写体の位置を特定する特定処理と、
前記特定処理で特定された範囲と所定範囲との論理積演算に基づいて前記特定された範囲を縮小する縮小処理と、
前フレーム画像において前記縮小処理で縮小された範囲を膨張させて前記所定範囲を得るモルフォロジー処理と、
を実行させることを特徴とする被写体追跡プログラム。 On the computer,
Element image generation processing for generating a plurality of element images based on color information and luminance information of each frame image input in time series;
Binarization element image generation processing for binarizing each of the plurality of element images to generate a plurality of binarization element images;
AND operation processing that performs an AND operation on the plurality of binarized element images;
A specifying process for specifying the position of the main subject in each frame image based on a labeling process for the binary AND image after the AND operation;
A reduction process for reducing the specified range based on a logical product operation of the range specified in the specifying process and a predetermined range;
Morphology processing for expanding the range reduced by the reduction processing in the previous frame image to obtain the predetermined range;
A subject tracking program characterized by causing
前記要素画像生成処理は、輝度画像および色差画像をそれぞれ生成することを特徴とする被写体追跡プログラム。 The subject tracking program according to claim 1,
The subject image generation process generates a luminance image and a color difference image, respectively.
テンプレート内の主要被写体の2値化画像を膨張させるモルフォロジー処理と、
前記モルフォロジー処理による膨張後の2値化画像を包絡する範囲を探索領域に決定する探索領域決定処理と、
時系列で入力される各フレーム画像のうち前記探索領域内で探索枠を移動させながら、各探索枠位置における前記探索枠内の画像と前記テンプレートとの類似度を算出する類似度算出処理と、
前記類似度が最も高い前記探索枠の位置を前記主要被写体の位置として特定する特定処理と、
を実行させることを特徴とする被写体追跡プログラム。 On the computer,
Morphological processing for expanding the binarized image of the main subject in the template;
A search region determination process for determining a search region as a range for enveloping the binary image after expansion by the morphology processing;
A similarity calculation process for calculating the similarity between the image in the search frame at each search frame position and the template while moving the search frame in the search region among the frame images input in time series,
A specifying process for specifying the position of the search frame having the highest similarity as the position of the main subject;
A subject tracking program characterized by causing
前記フレーム画像から前記膨張後の2値化画像に基づいて画像を抽出する膨張マスク処理をさらに備え、
前記類似度算出処理は、時系列で入力される各フレーム画像のうち前記探索領域内で探索枠を移動させながら、各探索枠位置における前記探索枠内で前記膨張マスク処理後の画像と前記テンプレートとの類似度を算出することを特徴とする被写体追跡プログラム。 In the subject tracking program according to claim 3,
Further comprising expansion mask processing for extracting an image from the frame image based on the binarized image after expansion,
The similarity calculation processing is performed by moving the search frame in the search area among the frame images input in time series, and the image after the expansion mask processing in the search frame at each search frame position and the template A subject tracking program characterized by calculating a similarity to
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011172896A JP2013037522A (en) | 2011-08-08 | 2011-08-08 | Object tracking program and object tracking device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011172896A JP2013037522A (en) | 2011-08-08 | 2011-08-08 | Object tracking program and object tracking device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2013037522A true JP2013037522A (en) | 2013-02-21 |
Family
ID=47887087
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011172896A Withdrawn JP2013037522A (en) | 2011-08-08 | 2011-08-08 | Object tracking program and object tracking device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2013037522A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015149571A (en) * | 2014-02-05 | 2015-08-20 | 株式会社ニコン | Image processing apparatus, imaging apparatus and image processing program |
| KR102836660B1 (en) * | 2024-09-30 | 2025-07-21 | 국방과학연구소 | Method, system, and computer program for image based object tracking |
-
2011
- 2011-08-08 JP JP2011172896A patent/JP2013037522A/en not_active Withdrawn
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015149571A (en) * | 2014-02-05 | 2015-08-20 | 株式会社ニコン | Image processing apparatus, imaging apparatus and image processing program |
| KR102836660B1 (en) * | 2024-09-30 | 2025-07-21 | 국방과학연구소 | Method, system, and computer program for image based object tracking |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111369545B (en) | Edge defect detection method, device, model, equipment and readable storage medium | |
| US10187546B2 (en) | Method and device for correcting document image captured by image pick-up device | |
| US8254630B2 (en) | Subject extracting method and device by eliminating a background region using binary masks | |
| JP5589548B2 (en) | Imaging apparatus, image processing method, and program storage medium | |
| US9992408B2 (en) | Photographing processing method, device and computer storage medium | |
| JP6763417B2 (en) | Electronics | |
| US9542735B2 (en) | Method and device to compose an image by eliminating one or more moving objects | |
| TW201447775A (en) | Method and system for recognizing information | |
| JP2009522591A (en) | Method and apparatus for controlling autofocus of a video camera by tracking a region of interest | |
| JP2011513809A (en) | Method and apparatus for reading information contained in bar code | |
| JP5246078B2 (en) | Object location program and camera | |
| CN112601068B (en) | Video data augmentation method, device and computer readable medium | |
| JP5083080B2 (en) | Image matching device and camera | |
| US20120144304A1 (en) | System and method for reducing artifacts in images | |
| JP5691617B2 (en) | Subject identification device and subject tracking device | |
| JP5662890B2 (en) | Image processing method, image processing apparatus, image processing program, and radiation dose estimation method by image processing | |
| CN116664919A (en) | Image processing method, device, electronic device, and computer-readable storage medium | |
| JP2010015548A (en) | Object tracking device and camera | |
| JP2013037522A (en) | Object tracking program and object tracking device | |
| JP2002269545A (en) | Face image processing method and face image processing device | |
| CN112862714B (en) | Image processing method and device | |
| WO2012127639A1 (en) | Image-processing device and image-processing method | |
| CN112991419B (en) | Disparity data generation method, device, computer equipment and storage medium | |
| CN119583809B (en) | Video frame interpolation processing method, device, computer equipment and readable storage medium | |
| JP4661957B2 (en) | Image matching device and camera |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20141104 |