[go: up one dir, main page]

JP2018151689A - 画像処理装置及びその制御方法、プログラム、記憶媒体 - Google Patents

画像処理装置及びその制御方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2018151689A
JP2018151689A JP2017045250A JP2017045250A JP2018151689A JP 2018151689 A JP2018151689 A JP 2018151689A JP 2017045250 A JP2017045250 A JP 2017045250A JP 2017045250 A JP2017045250 A JP 2017045250A JP 2018151689 A JP2018151689 A JP 2018151689A
Authority
JP
Japan
Prior art keywords
tracking
reliability
feature point
priority
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017045250A
Other languages
English (en)
Other versions
JP6894725B2 (ja
Inventor
優 成田
Masaru Narita
優 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017045250A priority Critical patent/JP6894725B2/ja
Priority to US15/909,708 priority patent/US10803597B2/en
Publication of JP2018151689A publication Critical patent/JP2018151689A/ja
Application granted granted Critical
Publication of JP6894725B2 publication Critical patent/JP6894725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影状況に応じて望ましい特徴点追跡を実現できるようにした画像処理装置を提供する。
【解決手段】画像を複数の分割領域に分割する領域分割部102と、複数の分割領域のそれぞれにおいて特徴点を抽出する特徴点抽出部103と、複数の画像間において特徴点を追跡して動きベクトルを検出するベクトル検出部107と、特徴点の追跡の信頼度を算出する信頼度算出部108と、画像の着目対象を推定する着目対象推定部110と、着目対象推定部110の出力を用いて着目対象の動きを追跡するよう、複数の分割領域のそれぞれについて追跡対象の特徴点を設定する優先度を算出する優先度算出部111と、信頼度および優先度に基づいて、追跡対象の特徴点を複数の分割領域のいずれかに設定する特徴点補填部112とを備える。
【選択図】図1

Description

本発明は、複数のフレーム画像間で特徴点を追跡する画像処理装置に関するものである。
デジタルカメラ等の撮像装置による撮影時に、カメラ本体部を保持するユーザの「手振れ」等で被写体像に振れが生ずる場合がある。「手振れ」による像振れを補正するためには、撮像装置の位置姿勢変化を検出する必要がある。そのための撮像装置の姿勢および位置を検出する自己位置推定方法が知られている。これは、公知のSFM(Structure from Motion)と慣性センサを用いた位置姿勢推定(Visual and Inertial Sensor Fusion)技術を応用して、実空間内に存在する物体の3次元位置と撮像装置の位置姿勢を推定する手法である。
この手法では、視点の異なる複数の画像において同一の特徴点を複数追跡し、三角測量の原理により特徴点の3次元座標を算出することによって、物体の3次元位置と撮像装置の位置姿勢を推定している。
特徴点追跡は、画像から抽出された特徴点の動きベクトルを、連続する複数のフレーム画像に渡って逐次検出することで実現できる(例えば特許文献1、2)。特徴点追跡では、追跡している特徴点が画角外に消えてしまったり、何らかの物体に隠れて見えなくなってしまったりすることで、特徴点が消失し、追跡が失敗してしまうことがある。このような追跡の失敗により追跡対象の特徴点の数が減ってしまった場合、別の特徴点を追跡対象として設定する(補填する)ことが必要である。
特許文献1では、特徴点が画面に一様に分布するように特徴点を補填する技術が開示されている。特許文献2では、消失した特徴点の位置を予測した予測点に特徴点を補填する技術が開示されている。
特開2007−334625号公報 特開2016−152027号公報
ここで、追跡対象の特徴点の画面内での望ましい分布は、特徴点追跡結果の用途によって異なる。例えば、像振れ補正やシーンの3次元復元などの用途を想定すると、画面全体の動きを検出する必要があり、特徴点が画面に一様に分布していることが望ましい。一方、被写体の動き検知の用途では、検知対象は被写体であるため、被写体の周辺に特徴点が集中して分布していることが望ましい。このように、特徴点追跡では追跡対象の特徴点の分布を用途に応じて適切に変更する必要がある。
しかしながら、特許文献1、2に開示された技術では、撮影状況によらず、常に一定の規則に従って追跡対象の特徴点を設定しているため、ある特定の用途に適した状態でしか追跡対象の特徴点の分布を設定できないという問題があった。
前述したように、特許文献1では、画面に一様に分布するように特徴点を設定するため、像振れ補正やシーンの3次元復元などの用途には適しているが、被写体の動き検知の用途には適さない。一方、特許文献2では、被写体の移動に伴って特徴点が消失した場合にも、消失した位置を予測して特徴点を設定するため、被写体の動き検知の用途には適しているが、像振れ補正やシーンの3次元復元などの用途には適さない。
本発明は上述した課題に鏡見てなされたものであり、その目的は、撮影状況に応じて望ましい特徴点追跡を実現できるようにした画像処理装置を提供することである。
本発明に係わる画像処理装置は、画像を複数の分割領域に分割する領域分割手段と、前記複数の分割領域のそれぞれにおいて特徴点を抽出する特徴点抽出手段と、複数の画像間において前記特徴点を追跡して動きベクトルを検出するベクトル検出手段と、前記特徴点の追跡の信頼度を算出する信頼度算出手段と、画像の着目対象を推定する着目対象推定手段と、前記着目対象推定手段の出力を用いて前記着目対象の動きを追跡するよう、前記複数の分割領域のそれぞれについて追跡対象の特徴点を設定する優先度を算出する優先度算出手段と、前記信頼度および前記優先度に基づいて、前記追跡対象の特徴点を前記複数の分割領域のいずれかに設定する特徴点補填手段と、を備えることを特徴とする。
本発明によれば、撮影状況に応じて望ましい特徴点追跡を実現できるようにした画像処理装置を提供することが可能となる。
本発明の第1の実施形態に係わる撮像装置の構成を示すブロック図。 第1の実施形態で行われる画像処理を説明するフローチャート。 特徴点の抽出を説明する図。 テンプレートマッチングを説明する図。 相関値マップを説明する図。 相関値マップの表現方法を説明する図。 特徴点の追跡信頼度を表わす相関値指標を説明する図。 特徴点の追跡信頼度の算出方法を説明する図。 カメラ情報と着目対象の関係を示す図。 着目対象が背景の場合の評価値算出処理を説明するフローチャート。 特徴点の領域IDの算出を説明する図。 領域IDごとの追跡成功特徴点数を示す図。 着目対象が背景の場合の評価値の算出方法を説明する図。 着目対象が背景の場合の評価値のソートを説明する図。 着目対象が被写体の場合の評価値算出処理を説明するフローチャート。 着目対象が被写体の場合の評価値の算出方法を説明する図。 着目対象が被写体の場合の評価値のソートを説明する図。 着目対象が背景の場合の特徴点補填結果を説明する図。 着目対象が被写体の場合の特徴点補填結果を説明する図。 第2の実施形態で行われる画像処理を説明するフローチャート。 第2の実施形態の評価値算出処理を説明するフローチャート。 第2の実施形態の評価値の算出方法を説明する図。 第2の実施形態の評価値のソートを説明する図。 第2の実施形態の特徴点補填結果を説明する図。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる画像処理装置100の構成を示す図である。図1において、画像入力部101は画像を入力する。領域分割部102は、画像入力部101により入力された画像を複数の画像領域に分割するための分割情報を出力する。各画像領域の形状は任意であるが、本実施形態では図3(a)に示すように、画像を格子状に分割する。
特徴点抽出部103は、領域分割部102からの分割情報に基づいて、画像領域ごとに所定数の特徴点を抽出する。以下では、特徴点抽出部103によりフレームごとに抽出される特徴点を新規特徴点と呼ぶ。新規特徴点情報保持部104は、特徴点抽出部103により抽出された特徴点の情報を保持する。追跡特徴点情報保持部105は、追跡対象の特徴点(以下、新規特徴点と区別し、追跡特徴点と呼ぶ)の情報を保持する。初期フレームに関しては、新規特徴点を追跡特徴点として扱えばよい。
画像メモリ106は、画像入力部101により入力された画像を1フレーム分又は複数のフレーム分、一時的に記憶保持する。動きベクトル検出部(ベクトル算出部)107は、追跡特徴点情報保持部105に保持されている追跡特徴点情報に基づいて、画像入力部101および画像メモリ106から入力される画像に対して、例えばテンプレートマッチングにより動きベクトルを検出する。信頼度算出部108は、動きベクトル検出部107から入力される動きベクトルに対して信頼度を算出する。
カメラ情報取得部109は、撮影状況を推定するために必要なカメラ情報を取得する。カメラ情報とは、例えば撮影モード、主被写体情報、シャッタースピード、焦点距離、奥行き情報、慣性センサ情報、ユーザ指示情報等である。着目対象推定部110は、カメラ情報取得部109より得られるカメラ情報に基づいて、背景と被写体のいずれに着目して特徴点追跡を行うべきかを推定する。
優先度算出部111は、着目対象推定部110の推定結果に基づいて、動きベクトル検出部107で検出された動きベクトルおよび信頼度算出部108で算出された信頼度を用いて、分割領域ごとの追跡対象特徴点の設定優先度を算出する。特徴点補填部112は、信頼度算出部108により得られる信頼度および優先度算出部111により得られる優先度に基づいて、動きベクトル検出部107より得られる動きベクトルの終点から追跡特徴点を決定する。あるいは、新規特徴点情報保持部104より得られる新規特徴点から、追跡特徴点を決定する。そして、追跡特徴点保持部105に出力する。ここでは、優先度が高い分割領域に属する特徴点ほど、優先して追跡特徴点として設定する。
次に、上記のように構成される画像処理装置100の動作について、図2に示すフローチャートを用いて説明する。
まず、ステップS201では、特徴点抽出部103は、画像入力部101により入力された画像に対して、領域分割部102により分割された複数の画像領域ごとに所定数の特徴点を抽出する。図3(a)において、白い矩形領域が特徴点抽出を行う特徴抽出領域であり、特徴点抽出領域の周辺には斜線で示す周辺領域を設けている。これは、抽出される特徴点の位置によっては、後述する動きベクトル検出に用いるテンプレート領域およびサーチ領域が特徴抽出領域をはみ出すため、そのはみ出し分だけ設けた余剰の画像領域である。図3(b)は格子状に分割された画像領域ごとに1個の特徴点301を抽出する様子を示している。
特徴点の抽出方法としては、公知の方法を用いればよく、例えばHarris corner検出器もしくはShi and Tomasiの手法を用いる場合について説明する。これらの手法では、画像の画素(x,y)における輝度値をI(x,y)と表現し、画像に対して水平および垂直の1次微分フィルタを適用した結果Ix,Iyから、式(1)で示す自己相関行列Hを作成する。
Figure 2018151689
式(1)において、Gは式(2)に示すガウス分布による平滑化を表す。
Figure 2018151689
Harris検出器は、式(3)に示す特徴評価式により、特徴量が大きくなる画素を特徴点として抽出する。
Harris=det(H)−α(tr(H))2 (α=0.04〜0.15) …(3)
式(3)において、detは行列式を、trは対角成分の和を表す。また、αは定数であり、実験的に0.04〜0.15の値がよいとされている。
一方、Shi and Tomasiの手法では、式(4)に示す特徴評価式を用いる。
Shi and Tomashi = min(λ1,λ2) …(4)
式(4)は、式(1)の自己相関行列Hの固有値λ1,λ2のうち小さい方の固有値を特徴量とすることを表す。Shi and Tomasiの手法を用いる場合でも、特徴量が大きくなる画素を特徴点として抽出する。分割された画像領域ごとに、式(3)または式(4)により画素の特徴量を算出し、特徴量が高い方から所定数の画素を特徴点として抽出する。
ステップS202では、ステップS201で抽出された特徴点を用いて動きベクトルの検出を行う。動きベクトル検出部107は、テンプレートマッチングにより動きベクトルを検出する。
図4は、テンプレートマッチングの概要を示す図である。図4(a)は2つのベクトル検出画像のうちの一方である基準画像を示し、図4(b)は他方である参照画像を示している。ここでは、基準画像として画像メモリ106に保持されているフレーム画像、参照画像として画像入力部101から直接入力される画像データを用いることで、過去のフレーム画像から現在のフレーム画像への動きベクトルを算出する。なお、基準画像と参照画像は逆に入れ替えてもよく、その場合は現在のフレーム画像から過去のフレーム画像への動きベクトルを算出することを意味する。
動きベクトル検出部107は、基準画像にテンプレート領域401、参照画像にサーチ領域402を配置し、これらのテンプレート領域401とサーチ領域402の相関値を算出する。ここで、テンプレート領域401は、ステップS201で抽出された特徴点を中心に配置し、サーチ領域はテンプレート領域を上下左右均等に包含するように所定の大きさで配置すればよい。
本実施形態では、相関値の算出方法として、差分絶対値和(Sum of Absolute Difference:以下、SADと略す)を使用する。SADの計算式を式(5)に示す。
Figure 2018151689
式(5)において、f(i,j)はテンプレート領域401内の座標(i,j)での輝度値を示している。また、g(i,j)はサーチ領域402内において相関値の算出対象となる領域(以下、相関値算出領域という)403内の各座標での輝度値を示す。SADでは、サーチ領域402、相関値算出領域403内の輝度値f(i,j),g(i,j)の差の絶対値を計算し、その総和を求めることで相関値S_SADを得る。相関値S_SADの値が小さいほど、テンプレート領域401と相関値算出領域403のテクスチャの類似度が高いことを表す。なお、相関値の算出にSAD以外の方法を用いてもよく、例えば差分二乗和(SSD)や正規化相互相関(NCC)を用いてもよい。
動きベクトル検出部107は、サーチ領域402の全域において相関値算出領域403を移動させて相関値を算出する。これにより、サーチ領域402に対して図5に示すような相関値マップを作成する。
図5(a)はサーチ領域402の座標系で算出した相関値マップを示しており、X軸とY軸は相関値マップ座標、Z軸は各座標での相関値の大きさを表している。また図5(b)は、図5(a)の等高線を示したものである。図5(a)および図5(b)において、相関値が最も小さいのは極小値501(相関の極大値)であり、サーチ領域402内で極小値501が算出された領域にはテンプレート領域401と非常に類似したテクスチャが存在していると判定できる。502は2番目の極小値、503は3番目の極小値を表わしており、これらは極小値501に次いで類似したテクスチャが存在していることを意味する。
このように、動きベクトル検出部107は、テンプレート領域401とサーチ領域402との間で相関値を算出し、その値が最も小さくなる相関値算出領域403の位置を判定する。これにより、基準画像上のテンプレート領域401の参照画像上での移動先を特定することができる。そして、基準画像上でのテンプレート領域の位置を基準とした参照画像上での移動先への方向および移動量を方向および大きさとした動きベクトルを検出することができる。
ステップS203では、信頼度算出部108は、ステップS201で得られた特徴点情報と、ステップS202で得られた相関値情報の少なくともいずれかを用いて、特徴点追跡の信頼度(追跡信頼度)を算出する。
最初に、相関値情報を用いて追跡信頼度を算出する例について説明する。図5(b)の2次元相関値マップにおいて、相関値を矢印504で示すようにラスター順に並べ1次元で表わしたものを図6に示す。図6の縦軸は相関値、横軸は相関値マップのX座標とY座標により一意に定まる画素アドレスである。以降、追跡信頼度を算出するため、この図6の表現を用いることにする。なお、図6に601で示す位置は図5の極小値に対応する位置である。
図7は、追跡信頼度を表わす相関値の指標の一例を示す図である。図7の横軸は画素のアドレス、縦軸は相関値である。図7(a)では、指標として相関値の最小値と最大値の差分Daを用いる。Daは相関値マップのレンジを表わしており、Daが小さい場合、テクスチャのコントラストが低いことが考えられ、信頼度が低いことを示す。
図7(b)では、指標として相関値の最小値と最大値の差分Aと、最小値と平均値の差分Bとの比率Db(=B/A)を用いる。Dbは相関値ピークの急峻性を表わしており、Dbが小さい場合、テンプレート領域とサーチ領域の類似度が低いと考えられ、信頼度が低いことを示す。
図7(c)では、指標として相関値の極小値と2番目の極小値の差分Dcを用いる。ここで、701,702,703は、それぞれ図5の相関値501,502,503と対応している。よって、図7(c)は、図5(b)の等高線において、相関値の最小と類似した極小値が存在しないかを確認することを意味している。Dcは相関値マップの周期性を表わし、Dcが小さい場合、テクスチャが繰り返しパターンやエッジなどであることが考えられ、信頼度が低いことを示す。なお、ここでは極小値と二番目の極小値を選択したが、相関値マップの周期性を判定できればよいため、その他の極小値を選択してもよい。
図7(d)では、指標として相関値の最小値Ddを用いる。Ddが大きい場合、テンプレート領域とサーチ領域の類似度が低いと考えられ、信頼度が低いことを表わす。Ddと信頼度は反比例の関係にあるため、Ddの逆数(1/Dd)を指標とする。
上記で説明した相関値の指標はそのまま信頼度として用いることができるが、例えば図8(a)のように相関値指標と信頼度の対応付けを行ってもよい。図8(a)の横軸は相関値指標(上述のDa,Db,Dc,1/Ddのいずれか)、縦軸は信頼度である。この例では、二つの閾値T1,T2を設けており、T1以下なら信頼度を0、T2以上なら信頼度を1としている。閾値は相関値指標ごとに変更してもよい。また閾値T1とT2の間の区間は、相関値指標と信頼度を非線形に対応付けてもよい。以降の説明では、各相関値指標から得られる信頼度をRa,Rb,Rc,Rdと表現する。ここで、Ra=f(Da),Rb=f(Db),Rc=f(Dc),Rd=f(Dd)の関係にある。
最終的な信頼度R1は、これらRa,Rb,Rc,Rdを組み合わせて算出すればよい。ここでは、重み付け加算に基づく組み合わせ方法について説明する。重み付け加算による組み合わせでは、Ra,Rb,Rc,Rdの重みをそれぞれWa,Wb,Wc,Wdとすれば、信頼度R1は式(6)のように計算される。
R1=Wa×Ra+Wb×Rb+Wc×Rc+Wd×Rd …(6)
例えば重みをWa=0.4,Wb=0.3,Wc=0.2,Wd=0.1とする。全ての信頼度が十分に高く、Ra=Rb=Rc=Rd=1の場合には、式(6)よりR1=1.0となる。またRa=0.6,Rb=0.5,Rc=0.7,Rd=0.7のような場合には、式(6)よりR1=0.6となる。
次に、特徴点の特徴量を用いて追跡信頼度を算出する例について説明する。同一の特徴点を正しく追跡できている場合、追跡前後で特徴点の特徴量の変化は小さくなる。そのため、追跡前後の特徴量の変化量に応じて、追跡信頼度を算出する。
特徴量の変化量は、追跡前後で式(3)または式(4)により特徴量を算出し、両者の差分を取ることで得られる。図8(b)に、特徴量の変化量と信頼度の対応付けの一例を示す。図8(b)の横軸は特徴量の変化量、縦軸は信頼度R2である。この例では、二つの閾値T1,T2を設けている。特徴量の変化量が閾値T1以下で小さい場合、前述したように同一の特徴点を正しく追跡できていると考え、信頼度R2を1にしている。反対に、特徴量の変化量が閾値T2以上で大きい場合、異なる特徴点を誤追跡していると考え、信頼度R2を0にしている。閾値T1とT2の間の区間は、特徴量の変化量と信頼度を非線形に対応付けてもよい。
以上のことから、相関値情報と特徴点情報のそれぞれから追跡信頼度R1,R2を算出することができる。最終的な追跡信頼度Rとしては、いずれか一方を用いてもよいし、両者を組み合わせて用いてもよい。組み合わせに関しては、式(6)で述べたような重み付け加算を用いればよい。
次にS204では、カメラ情報取得部109は、撮影状況を推定するために必要なカメラ情報を取得する。S204で取得するカメラ情報の例として、撮影モード、主被写体情報、シャッタースピード、焦点距離、奥行き情報、慣性センサ情報、ユーザ指示情報を用いるものとする。
主被写体情報は例えば、主被写体の人物らしさ、主被写体の大きさ、主被写体の動き等である。主被写体の人物らしさおよび大きさは、例えば主被写体を人物の顔とする場合、主被写体の色や輪郭の情報を用いる公知の顔検出技術によって得ることができる。主被写体の動きは、画像フレーム間で前述の動きベクトル検出技術により検出される動きベクトルから得ることができる。また、奥行き情報は、例えば測距センサを用いるか、あるいは、撮像画像から公知のステレオマッチング法により検出できる。
ステップS205では、着目対象推定部110は、ステップS204で取得したカメラ情報に基づいて、撮影状況を推定し、背景と被写体のいずれに着目して特徴点追跡を行うべきかを推定する。撮影時の着目対象が背景の場合、追跡特徴点は画面で一様に分布していることが望ましい。特徴点の分布が局所に偏っていると、特徴点が存在しない領域に含まれる背景の動き情報が得られないためである。一方、撮影時の着目対象が被写体の場合、追跡特徴点は被写体近傍に集中して分布していることが望ましい。特徴点の分布が一様であると、被写体の動き情報が十分に得られないためである。よって、カメラ情報から着目対象が背景と被写体のいずれであるかを推定し、その推定結果に応じて、追跡特徴点の分布を制御することが好ましい。
次に、カメラ情報に基づいて、着目対象を推定する方法について説明する。ここでは、まずカメラ情報ごとに着目対象が背景である度合いを表す背景度合いと、着目対象が被写体である度合いを表す被写体度合いを算出する。ここでは、背景度合いと被写体度合いを合計して1になる数値として表現する。なお、被写体度合いと背景度合いのいずれか一方だけを算出するようにしてもよい。
撮影モードについては、例えば、ポートレートモードの場合には人物(=被写体)に着目して撮影している可能性が高いので、被写体度合を高く(例えば0.9)、背景度合いを低く(例えば0.1)する。一方、風景モードの場合には風景に着目して撮影している可能性が高いため、被写体度合いを低く(例えば0.1)、背景度合いを高く(例えば0.9)する。このように、撮影モードでは、モードによって可能性の高い撮影状況を想定することで、被写体度合いおよび背景度合いを決めることができる。主被写体の人物らしさについては、主被写体がより人物らしいほど、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.7)、背景度合いを低く(例えば0.3)する。
主被写体の大きさについては、主被写体が大きいほど、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.8)、背景度合いを低く(例えば0.2)する。主被写体の動きについては、主被写体の動きが小さいほど、被写体を捉えようとカメラを構えていることが想定され、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.6)、背景度合いを低く(例えば0.4)する。シャッタースピードについては、シャッタースピードが速いほど、高速に移動する被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.7)、背景度合いを低く(例えば0.3)する。以上までのカメラ情報と着目被写体の関係について図9にまとめた。括弧内の数値は、前述した背景度合い/被写体度合いの一例を示している。
次に、焦点距離と奥行き情報については、それぞれ単独では撮影者の意図を汲み取ることが難しい。そこで、両者を組み合わせて着目対象を推定する方法の一例について説明する。
焦点距離f[mm]と、主被写体までの距離(奥行き情報)d[mm]が与えられている場合、撮像面上での主被写体の大きさをX[mm]とすれば、実際の主被写体の大きさY[mm]は、以下の式(7)で算出できる。
Y=(d/f)X
実際の主被写体の大きさが分かれば、像面上での主被写体の大きさや焦点距離との関係から、撮影者の意図を汲み取ることができる。例えば、実際の主被写体の大きさは小さいが、像面上での主被写体の大きさが大きく、焦点距離が長い場合は、主被写体に非常に着目していることになる。そのため、実際の主被写体の大きさが小さい、かつ、像面上での主被写体の大きさが大きい、かつ、焦点距離が長いほど被写体度合いを高く、背景度合いを低くする。
慣性センサ情報についても、単独では撮影者の意図を汲み取ることが難しい。そこで、慣性センサ情報と被写体の動き情報を組み合わせて着目対象を推定する方法の一例について説明する。撮影者の着目対象が被写体である場合、被写体を画面の定位置に収めようとカメラを動かすため、被写体の動きはカメラの動きに比べて相対的に小さくなる。よって、慣性センサ情報により得られるフレーム画像間のカメラの移動量に対して、被写体の移動量が小さくなるほど、被写体を捉えようとカメラを構えていることが想定され、被写体に着目して撮影している可能性が高い。そのため、被写体度合いを高く、背景度合いを低くする。
着目対象の推定に利用できるカメラ情報が複数ある場合、カメラ情報ごとに得られる背景度合いおよび被写体度合いに対してそれぞれ重み付け加算(加重加算)を行い、最終的な背景度合いおよび被写体度合いを算出すればよい。重みは、例えば各情報源の確からしさに基づいて設定すればよい。各情報源の確からしさが同一または不明の場合は、全ての重みを1にすればよい。
最後に、最終的な背景度合いおよび被写体度合いに基づいて着目対象を推定する。例えば、最終的な背景度合いが被写体度合い以上に大きい場合、着目対象を背景と推定してステップS206に移行する。反対に、最終的な背景度合いが被写体度合いよりも小さい場合、着目対象を被写体と推定してステップS207に移行する。なお、カメラ情報としてユーザ指示情報を用いる場合、例えば背景と被写体のいずれに着目しているかをユーザに指示させることで、推定することなく着目対象を決めることができる。
ステップS206では、優先度算出部111は、着目対象が背景であるため、前述の通り追跡特徴点が画面に一様に分布するよう、分割領域ごとの追跡対象特徴点の設定優先度を算出する。図10にステップS206の詳細なフローチャートを示す。
図10において、ステップS1001では、優先度算出部111は、追跡した特徴点が属する分割領域のIDを算出する。図11に特徴点の領域IDの一例を示す。各特徴抽出領域内の右上の数字が領域IDを示している。図11の例では、領域IDは0〜11の1次元で与えられる。なお、領域IDは水平・垂直の2次元で表現してもよい。また、ステップS203で追跡信頼度が所定の閾値以上と判定された特徴点を追跡成功特徴点として○印、追跡信頼度が所定の閾値より低いと判定された特徴点を追跡失敗特徴点として×印で示している。図11の例では、12個ある特徴点のうち、8個が追跡成功特徴点、4個が追跡失敗特徴点になる。
ここでは、少なくとも追跡成功特徴点に関して、それぞれの領域IDを算出する。領域IDの算出方法としては、例えば領域分割部102から分割情報として各特徴抽出領域の四隅の座標値を取得し、特徴点座標と比較を行うことで、いずれの特徴抽出領域に属しているかを算出できる。
ステップS1002では、優先度算出部111は、ステップS1001で算出された各特徴点の領域IDに基づいて、各領域に含まれる追跡成功特徴点の数をカウントする。ここで、追跡失敗特徴点の数はカウントしない。図11の場合の追跡成功特徴点数のカウント結果を図12に示す。追跡成功特徴点が領域ID=0,1,3,5,6の領域に1個、領域ID=2の領域に3個存在している。
ステップS1003では、優先度算出部111は、ステップS1002で得られた領域ごとの特徴点数を用いて、各領域に対して新たに追跡特徴点を設定する優先度を算出する。ここで、目的は追跡特徴点を画面一様に分布するように設定することなので、追跡成功特徴点が少ない領域ほど、新たに追跡特徴点を設定する優先度を高くする。また、領域内に追跡成功特徴点が少ない場合でも、その周囲の領域に追跡成功特徴点が多く存在する場合には、当該領域の優先度を低くする。上記の考え方に基づき、優先度を算出する方法について図13を用いて説明する。
図13(a)では、領域ID=5の領域に対して優先度を算出する。着目領域である領域ID=5の領域以外に、その周囲の領域ID=0,1,2,4,6,8,9,10の領域を考慮する。優先度Pを算出するため、例えば着目領域および当該着目領域の周囲の領域に含まれる追跡成功特徴点の数を重み付け加算した値を評価値Sとして採用する。重み付け加算における重みの一例を図13(c)に示す。着目領域に近い領域ほど重みを大きくするという考えに基づき、着目領域の重みを4、当該着目領域の上下左右の領域の重みを2、当該着目領域の斜めの領域の重みを1としている。
図13(a)において、図13(c)の重みを用いて、領域ID=5の領域に対する評価値を計算すると、S=Σ(各領域の重み×各領域の追跡成功特徴点数)=1×1+2×1+1×3+2×0+4×1+2×1+1×0+2×0+1×0=12となる。ここで、評価値Sが大きい領域ほど、着目領域および当該着目領域の周囲の領域に含まれる追跡成功特徴点の数が多いことを意味し、当該着目領域に対して新たに追跡特徴点を設定する優先度は低くなる。よって、評価値Sが小さいほど、優先度が高い。
図13(b)では、領域ID=8の領域に対して評価値Sを算出する。図13(a)の場合と同様に、着目領域である領域ID=8の領域以外に、その周囲の領域を考慮する必要があるが、領域ID=4,5,9以外の領域は前述した周辺領域である点で異なる。周辺領域は特徴抽出領域外のため新規特徴点は存在せず、存在する特徴点は追跡されて移動してきた特徴点のみである。そのため、周辺領域は特徴抽出領域に比べて特徴点の存在確率が低く、周辺領域の特徴点の数をそのまま使用すると、一番外側の特徴抽出領域(図11の領域ID=5,6以外の特徴抽出領域)の評価値が低く算出され、優先度に偏りが生じる。このことを防ぐため、周辺領域の特徴点の数は零ではない値として扱うことが望ましく、ここでは常に1とする。周辺領域の特徴点の数を1とした場合、初期フレームにおいて、各特徴抽出領域の評価値Sは全て同じ値(今回の例ではS=1×1+2×1+1×1+2×1+4×1+2×1+1×1+2×1+1×1=16で、これは重みの総和値に等しい)となり、偏りが生じない。
ステップS1004では、優先度算出部111は、ステップS1003で得られた評価値に基づいて、優先度が高い順(今回の例では評価値が小さい順)に、領域IDを並び替える。
図14(a)に、図11の例に対して評価値を算出した結果を示す。図14(a)は並び替え前で、この時点では領域ID順に評価値が並んでいる。これを評価値の小さい順に並び替えると、図14(b)のようになる。なお、複数の領域IDで評価値が同じ場合は、例えば領域IDの小さい順に並べればよい。ステップS1004が完了すると、ステップS208に移行する。
一方、ステップS207では、優先度算出部111は、着目対象が被写体であるため、前述の通り追跡特徴点が被写体近傍に集中して分布するよう、分割領域ごとの追跡対象特徴点の設定優先度を算出する。図15にステップS207の詳細なフローチャートを示す。
図15において、ステップS1501では、優先度算出部111は、ステップS204でカメラ情報取得部109より得られた主被写体情報を用いて、主被写体領域を示す座標を主被写体位置として決定する。例えば、顔領域の重心座標を主被写体位置として決定する。
ステップS1502では、優先度算出部111は、ステップS1501で得られた主被写体位置を用いて、各領域に対して新たに追跡特徴点を設定する優先度を算出する。ここで、目的は追跡特徴点を被写体近傍に集中して分布するように設定することなので、被写体近傍の領域ほど、新たに追跡特徴点を設定する優先度を高くする。上記の考え方に基づき、優先度を算出する方法について図16を用いて説明する。
図16では、領域ID=6の領域に顔があり、その顔領域の重心座標を主被写体位置(主被写体の代表位置)としている。この主被写体位置に近い分割領域ほど、優先度を高くすることになる。ここでは、優先度Pを算出するため、例えば主被写体位置■と各分割領域を代表する代表点△との間の距離を評価値Sとして採用する。図16では、各分割領域の代表点として新規特徴点を示しているが、各分割領域の重心座標を用いてもよい。また、各分割領域内で新規特徴点を複数抽出している場合は、いずれか1個の新規特徴点(例えば特徴量が最大の新規特徴点)を、各分割領域の代表点とすればよい。
ここで、評価値Sが大きい領域ほど、主被写体位置から距離が遠いことを意味し、この着目領域に対して新たに追跡特徴点を設定する優先度は低くなる。よって、評価値Sが小さいほど、優先度が高い。
ステップS1503では、優先度算出部111は、ステップS1502で得られた評価値に基づいて、優先度が高い順(今回の例では評価値が小さい順)に、領域IDを並び替える。図17(a)に、図16の例に対して評価値を算出した結果を示す。図17(a)は並び替え前で、この時点では領域ID順に評価値が並んでいる。これを評価値の小さい順に並び替えると、図17(b)のようになる。ステップS1503が完了すると、ステップS208に移行する。
ステップS208では、特徴点補填部112は、ステップS203で得られた信頼度および、ステップS206またはステップS207で得られた分割領域ごとの追跡対象特徴点の設定優先度に基づいて、追跡特徴点を設定する。
再び図11を用いて、ステップS208の詳細について説明する。図11では、ステップS203で追跡信頼度が所定の閾値より低いと判定された追跡失敗特徴点が4個ある。特徴点補填部112は、この4個の追跡失敗特徴点を追跡対象特徴点から除外し、新たに4個の新規特徴点を追跡対象に設定する。このとき、ステップS206またはステップS207で算出された分割領域ごとの追跡対象特徴点の設定優先度に基づいて、新たな4個の追跡対象特徴点を決定する。
まずステップS206からステップS208に移行した場合について説明する。ステップS206では、着目対象は背景であり、追跡特徴点が画面に一様に分布するよう、分割領域ごとの追跡対象特徴点の設定優先度を算出し、図14(b)の結果を得た。特徴点補填部112は、図14(b)で評価値が最も低い4つの領域ID=9,10,8,11を選択する。そして、図18のように、選択された4つの領域IDの各々で抽出された4個の新規特徴点●を追跡対象に設定することで、およそ画面に一様に追跡特徴点が設定されることになる。
次にステップS207からステップS208に移行した場合について説明する。ステップS207では、着目対象は被写体であり、追跡特徴点が被写体近傍に集中して分布するよう、分割領域ごとの追跡対象特徴点の設定優先度を算出し、図17(b)の結果を得た。特徴点補填部112は、図17(b)で評価値が最も低い4つの領域ID=6,10,7,2を選択する。そして、図19のように、選択された4つの領域IDの各々で抽出された4個の新規特徴点●を追跡対象に設定することで、およそ被写体近傍に集中して追跡特徴点が設定されることになる。
最後のステップS209では、画像処理装置100は、最終フレームまで処理が完了したかどうかを判定する。最終フレームまで処理が完了していない場合はステップS201に戻り、ステップS201〜ステップS209の動作を最終フレームになるまで繰り返す。
以上説明したように、本実施形態では、カメラ情報を用いて撮影状況を推定し、背景と被写体のいずれに着目して特徴点追跡を行うべきかを推定した上で、推定結果に適した特徴点分布となるよう追跡特徴点を設定することができる。
(第2の実施形態)
本発明の第2の実施形態に係わる画像処理装置について説明する。装置のブロック構成は、図1に示した第1の実施形態と同一のため、説明を省略する。本実施形態が第1の実施形態と異なるのは、優先度算出部111で各分割領域の追跡成功率を考慮する点である。
第1の実施形態では、背景と被写体のいずれに着目して特徴点追跡を行うべきかを推定し、推定結果に適した特徴点分布となるよう追跡特徴点を設定した。しかしながら、シーンによっては一部の画像領域でテクスチャが存在せず、追跡の成功率が低い場合がある。そのため、追跡の成功率を考慮せず、追跡特徴点を設定すると、設定した特徴点が即座に追跡不能となり、継続的に追跡を行える特徴点が十分に得られない場合がある。そこで、本実施形態では、各分割領域の追跡成功率を考慮して追跡特徴点を設定することで、継続的に追跡を行える特徴点の数を増加させることを目的とする。
図20に示すフローチャートを用いて第2の実施形態について説明する。図20において、図2に示したステップと共通するステップについては、図2と同符号を付し説明を省略する。本実施形態では、ステップS206またはステップS207の処理完了後、ステップS2001に移行する。
ステップS2001では、優先度算出部111は、各分割領域の追跡成功率を考慮して、追跡対象特徴点の設定優先度を算出する。図21にステップS2001の詳細なフローチャートを示す。
ステップS2101では、優先度算出部111は、追跡した特徴点が属する分割領域の領域IDを算出する。この処理はステップS1001と同一であるため、説明は省略する。ステップS2001以前に、ステップS1001の処理を行っている場合は、ステップS1001での結果を保持しておくことで、本ステップを省略することができる。
ステップS2102では、優先度算出部111は、ステップS2101で得られた領域IDに基づいて、各領域に属する特徴点の追跡成功回数をカウントする。図22(a)に、図11の例に対してステップS2102を実行した結果の一例を示す。追跡が成功した特徴点が存在しない領域ID=4,7,8,9,10,11の領域に関しては、追跡成功回数0として扱っている。
ステップS2103では、優先度算出部111は、ステップS2102で得られた分割領域ごとの特徴点の追跡成功回数に基づいて、ステップS206またはステップS207で得られた評価値に対するゲインを算出する。ここでは、継続的に追跡可能な特徴点の数を向上させるため、特徴点の追跡成功回数が多い領域ほど、追跡対象特徴点の設定優先度を高くする(今回の例では、評価値を小さくする)よう、評価値ゲインを決定する。評価値ゲインの算出方法の一例を図22(a)、22(b)に示す。図22(b)の横軸は特徴点の追跡成功回数、縦軸は評価値ゲインである。この例では、二つの閾値T1,T2を設けている。特徴点の追跡成功回数が閾値T1以下で少ない場合に評価値ゲインを1、閾値T2以上で多い場合に評価値ゲインを0としている。閾値T1とT2の間の区間は、特徴点の追跡成功回数と評価値ゲインを非線形に対応付けてもよい。このように算出した評価値ゲインの一例を図22(a)に示している。なお、同じ領域内に複数の特徴点が存在している場合、例えば各特徴点の追跡成功回数の平均値を、その領域における特徴点の追跡成功回数として、評価値ゲインを算出すればよい。
ステップS2104では、優先度算出部111は、ステップS206またはステップS207で得られた評価値に対して、ステップS2103で得られた評価値ゲインを乗算する。図14の評価値に対して、図22(a)の評価値ゲインを乗算した結果を、図23(a)に示す。
最後にステップS2105では、優先度算出部111は、ステップS2104で得られた評価値に基づいて、優先度が高い順(今回の例では評価値が小さい順)に、領域IDを並び替える。
図23(a)を評価値の小さい順に並び替えると、図23(b)のようになる。なお、複数の領域IDで評価値が同じ場合は、例えば領域IDの小さい順に並べればよい。ステップS2105が完了すると、ステップS208に移行する。
ステップS208では、特徴点補填部112は、ステップS2105で得られた図23(b)で、評価値が最も低い4つの領域ID=6,5,0,9を選択する。そして、図24のように、選択された4つの領域IDの各々で抽出された4個の新規特徴点●を追跡対象に設定する。図24の結果は、第1の実施形態の図18および図19で示した結果とは異なっているが、これは各分割領域の追跡成功率を考慮したためである。
以上説明したように、本実施形態では、各分割領域の追跡成功率を考慮して追跡特徴点を設定することで、撮影状況に適した分布の特徴点を追跡できるという第1の実施形態の効果に加え、継続的に追跡を行える特徴点の数を向上できるという効果が得られる。
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
100:画像処理装置、101:画像入力部、102:領域分割部、103:特徴点抽出部、104:新規特徴点情報保持部、105:追跡特徴点情報保持部、106:画像メモリ、107:動きベクトル検出部、108:信頼度算出部、109:カメラ情報取得部、110:着目対象推定部、111:優先度算出部、112:特徴点補填部

Claims (21)

  1. 画像を複数の分割領域に分割する領域分割手段と、
    前記複数の分割領域のそれぞれにおいて特徴点を抽出する特徴点抽出手段と、
    複数の画像間において前記特徴点を追跡して動きベクトルを検出するベクトル検出手段と、
    前記特徴点の追跡の信頼度を算出する信頼度算出手段と、
    画像の着目対象を推定する着目対象推定手段と、
    前記着目対象推定手段の出力を用いて前記着目対象の動きを追跡するよう、前記複数の分割領域のそれぞれについて追跡対象の特徴点を設定する優先度を算出する優先度算出手段と、
    前記信頼度および前記優先度に基づいて、前記追跡対象の特徴点を前記複数の分割領域のいずれかに設定する特徴点補填手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記着目対象推定手段は、撮影モードの情報、主被写体の情報、シャッタースピードの情報、焦点距離の情報、奥行きの情報、慣性センサの情報、ユーザ指示の情報の少なくともいずれかに基づいて、前記着目対象を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記優先度算出手段は、所定の分割領域およびその周囲の分割領域に含まれる特徴点の数が少ないほど、当該所定の分割領域に追跡対象の特徴点を設定する優先度を高く算出する第1の算出方法により優先度を算出することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記優先度算出手段は、前記着目対象推定手段により、着目対象が背景と推定された場合に前記第1の算出方法により優先度を算出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記優先度算出手段は、所定の分割領域の代表位置と主被写体領域の代表位置との距離が近いほど、当該所定の分割領域に追跡対象の特徴点を設定する優先度を高く算出する第2の算出方法により優先度を算出することを特徴とする請求項1または2に記載の画像処理装置。
  6. 前記優先度算出手段は、前記着目対象推定手段により、着目対象が被写体と推定された場合に前記第2の算出方法により優先度を算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記着目対象推定手段は、前記撮影モードの情報、主被写体の情報、シャッタースピードの情報、焦点距離の情報、奥行きの情報、慣性センサの情報、ユーザ指示の情報のうちの少なくとも1つの情報に基づいて、撮影時の着目対象の背景度合いおよび被写体度合いを算出することを特徴とする請求項2に記載の画像処理装置。
  8. 前記着目対象推定手段は、複数の前記背景度合いおよび前記被写体度合いのそれぞれを加重加算することにより、最終的な背景度合いおよび被写体度合いを算出することを特徴とする請求項7に記載の画像処理装置。
  9. 前記着目対象推定手段は、前記背景度合いと前記被写体度合いを比較し、背景度合いの方が大きい場合に着目対象を背景と推定し、被写体度合いの方が大きい場合に着目対象を被写体と推定することを特徴とする請求項7または8に記載の画像処理装置。
  10. 前記優先度算出手段は、前記信頼度算出手段による特徴点の追跡の信頼度が高い特徴点を多く含む分割領域ほど、前記追跡対象の特徴点を設定する優先度を高く算出することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記信頼度算出手段は、前記動きベクトル算出手段から得られる相関値の算出の結果に基づいて、特徴点の追跡の信頼度を算出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 前記信頼度算出手段は、複数の特徴点の追跡の信頼度を加重加算することにより、最終的な特徴点の追跡の信頼度を算出することを特徴とする請求項11に記載の画像処理装置。
  13. 前記信頼度算出手段は、前記動きベクトル算出手段から得られる相関値に基づく相関の最大値が大きくなるにつれて、特徴点の追跡の信頼度を高く算出することを特徴とする請求項11または12に記載の画像処理装置。
  14. 前記信頼度算出手段は、前記動きベクトル算出手段から得られる相関値に基づく相関の最大値と最小値との差分が大きくなるにつれて、特徴点の追跡の信頼度を高く算出することを特徴とする請求項11または12に記載の画像処理装置。
  15. 前記信頼度算出手段は、前記動きベクトル算出手段から得られる相関値に基づく相関の最大値と最小値との差分と、相関の最大値と平均値との差分との比率が大きくなるにつれて、特徴点の追跡の信頼度を高く算出することを特徴とする請求項11または12に記載の画像処理装置。
  16. 前記信頼度算出手段は、前記動きベクトル算出手段から得られる相関値に基づく相関の最大値と、少なくとも一つの相関の極大値との差分が大きくなるにつれて、特徴点の追跡の信頼度を高く算出することを特徴とする請求項11または12に記載の画像処理装置。
  17. 前記信頼度算出手段は、特徴点の追跡の前後における特徴点の特徴量の変化量が小さくなるにつれて、特徴点の追跡の信頼度を高く算出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  18. 前記特徴点補填手段は、前記信頼度算出手段により算出された特徴点の追跡の信頼度が所定の閾値よりも低い特徴点の代わりに、前記優先度算出手段により算出された優先度が高い分割領域の順に、当該分割領域で新たに抽出された特徴点を、追跡対象の特徴点に設定することを特徴とする請求項1乃至17のいずれか1項に記載の画像処理装置。
  19. 画像を複数の分割領域に分割する領域分割工程と、
    前記複数の分割領域のそれぞれにおいて特徴点を抽出する特徴点抽出工程と、
    複数の画像間において前記特徴点を追跡して動きベクトルを検出するベクトル検出工程と、
    前記特徴点の追跡の信頼度を算出する信頼度算出工程と、
    画像の着目対象を推定する着目対象推定工程と、
    前記着目対象推定工程における出力を用いて前記着目対象の動きを追跡するよう、前記複数の分割領域のそれぞれについて追跡対象の特徴点を設定する優先度を算出する優先度算出工程と、
    前記信頼度および前記優先度に基づいて、前記追跡対象の特徴点を前記複数の分割領域のいずれかに設定する特徴点補填工程と、
    を有することを特徴とする画像処理装置の制御方法。
  20. 請求項19に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。
  21. 請求項19に記載の制御方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2017045250A 2017-03-09 2017-03-09 画像処理装置及びその制御方法、プログラム、記憶媒体 Active JP6894725B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017045250A JP6894725B2 (ja) 2017-03-09 2017-03-09 画像処理装置及びその制御方法、プログラム、記憶媒体
US15/909,708 US10803597B2 (en) 2017-03-09 2018-03-01 Image processing device, method for controlling the same, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017045250A JP6894725B2 (ja) 2017-03-09 2017-03-09 画像処理装置及びその制御方法、プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JP2018151689A true JP2018151689A (ja) 2018-09-27
JP6894725B2 JP6894725B2 (ja) 2021-06-30

Family

ID=63444850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017045250A Active JP6894725B2 (ja) 2017-03-09 2017-03-09 画像処理装置及びその制御方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US10803597B2 (ja)
JP (1) JP6894725B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923344A (zh) * 2020-07-09 2022-01-11 原相科技股份有限公司 运动侦测方法及图像传感器装置
JPWO2023032255A1 (ja) * 2021-09-02 2023-03-09

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106504270B (zh) * 2016-11-08 2019-12-20 浙江大华技术股份有限公司 一种视频中目标物体的展示方法及装置
CN109086650B (zh) * 2017-06-14 2022-04-12 现代摩比斯株式会社 校准方法和校准设备
US10499867B2 (en) * 2018-01-08 2019-12-10 Shenzhen Keya Medical Technology Corporation Method, storage medium, and system for analyzing image sequences of periodic physiological activities
US10547790B2 (en) * 2018-06-14 2020-01-28 Google Llc Camera area locking
US11272171B1 (en) * 2019-05-24 2022-03-08 Facebook Technologies, Llc Systems and methods for fallback tracking based on real-time tracking performance
US11315211B2 (en) * 2019-08-19 2022-04-26 Qualcomm Incorporated Methods and apparatus for efficient motion estimation
CN112154479A (zh) * 2019-09-29 2020-12-29 深圳市大疆创新科技有限公司 提取特征点的方法、可移动平台及存储介质
CN111273581B (zh) * 2020-01-23 2021-11-09 深圳市大拿科技有限公司 一种智能衣柜的控制方法及相关产品
US20210256665A1 (en) * 2020-02-18 2021-08-19 Canon Kabushiki Kaisha Generation apparatus, generation method, and storage medium
WO2022190652A1 (ja) * 2021-03-09 2022-09-15 ソニーセミコンダクタソリューションズ株式会社 撮像装置、追跡システム、および撮像方法
US11582358B2 (en) * 2021-03-29 2023-02-14 Toshiba Tec Kabushiki Kaisha Image forming apparatus and information processing method
CN114511589B (zh) * 2022-01-05 2025-07-04 北京中广上洋科技股份有限公司 一种人体跟踪方法和系统
CN117456426B (zh) * 2023-12-12 2025-06-03 成都信息工程大学 一种固定场景监控视频目标检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336235A (ja) * 2006-06-15 2007-12-27 Sony Corp 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
JP2012022655A (ja) * 2010-07-16 2012-02-02 Canon Inc 画像処理方法、画像処理装置、およびプログラム
JP2014229030A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US20150187076A1 (en) * 2013-12-31 2015-07-02 Personify, Inc. System and Methods for Persona Identification Using Combined Probability Maps
JP2016147026A (ja) * 2015-02-13 2016-08-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016152027A (ja) * 2015-02-19 2016-08-22 株式会社リコー 画像処理装置、画像処理方法およびプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4482795B2 (ja) * 2004-03-05 2010-06-16 ソニー株式会社 画像処理装置、移動物体追跡方法、移動物体追跡プログラム、監視装置及びゲーム装置
JP2007334625A (ja) 2006-06-15 2007-12-27 Sony Corp 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置
JP5406705B2 (ja) * 2009-12-28 2014-02-05 キヤノン株式会社 データ補正装置及び方法
JP5772821B2 (ja) * 2010-05-26 2015-09-02 日本電気株式会社 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
JP5661359B2 (ja) * 2010-07-16 2015-01-28 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5558949B2 (ja) * 2010-07-16 2014-07-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2012205037A (ja) * 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
JP5874398B2 (ja) * 2012-01-05 2016-03-02 オムロン株式会社 画像検査装置の検査領域設定方法
JP6031819B2 (ja) * 2012-05-17 2016-11-24 富士通株式会社 画像処理装置、画像処理方法
JP5977591B2 (ja) * 2012-06-20 2016-08-24 オリンパス株式会社 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US9277129B2 (en) * 2013-06-07 2016-03-01 Apple Inc. Robust image feature based video stabilization and smoothing
KR102069269B1 (ko) * 2014-01-21 2020-01-22 한화테크윈 주식회사 영상 안정화 장치 및 방법
US10051274B2 (en) * 2013-10-25 2018-08-14 Canon Kabushiki Kaisha Image processing apparatus, method of calculating information according to motion of frame, and storage medium
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
JP6431302B2 (ja) * 2014-06-30 2018-11-28 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2016045874A (ja) * 2014-08-26 2016-04-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
JP6525545B2 (ja) * 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
JP2016164709A (ja) * 2015-03-06 2016-09-08 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP6704679B2 (ja) * 2015-05-01 2020-06-03 キヤノン株式会社 制御装置、光学機器、制御方法、プログラム、および、記憶媒体
JP6702329B2 (ja) * 2015-09-03 2020-06-03 ソニー株式会社 映像処理装置、映像処理方法、及び、プログラム
JP6602141B2 (ja) * 2015-10-05 2019-11-06 キヤノン株式会社 画像処理装置および方法
JP6618766B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
WO2017129804A1 (en) * 2016-01-29 2017-08-03 Kiwisecurity Software Gmbh Methods and apparatus for using video analytics to detect regions for privacy protection within images from moving cameras
US10949712B2 (en) * 2016-03-30 2021-03-16 Sony Corporation Information processing method and information processing device
JP6740052B2 (ja) * 2016-08-02 2020-08-12 キヤノン株式会社 撮像装置およびその制御方法
US10885349B2 (en) * 2016-11-08 2021-01-05 Oxehealth Limited Method and apparatus for image processing

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336235A (ja) * 2006-06-15 2007-12-27 Sony Corp 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
JP2012022655A (ja) * 2010-07-16 2012-02-02 Canon Inc 画像処理方法、画像処理装置、およびプログラム
JP2014229030A (ja) * 2013-05-21 2014-12-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US20150187076A1 (en) * 2013-12-31 2015-07-02 Personify, Inc. System and Methods for Persona Identification Using Combined Probability Maps
JP2016147026A (ja) * 2015-02-13 2016-08-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2016152027A (ja) * 2015-02-19 2016-08-22 株式会社リコー 画像処理装置、画像処理方法およびプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923344A (zh) * 2020-07-09 2022-01-11 原相科技股份有限公司 运动侦测方法及图像传感器装置
CN113923344B (zh) * 2020-07-09 2024-02-06 原相科技股份有限公司 运动侦测方法及图像传感器装置
JPWO2023032255A1 (ja) * 2021-09-02 2023-03-09
WO2023032255A1 (ja) * 2021-09-02 2023-03-09 日立Astemo株式会社 画像処理装置
JP7614377B2 (ja) 2021-09-02 2025-01-15 日立Astemo株式会社 画像処理装置

Also Published As

Publication number Publication date
JP6894725B2 (ja) 2021-06-30
US10803597B2 (en) 2020-10-13
US20180260961A1 (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6894725B2 (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
JP7032871B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR102415505B1 (ko) 스테레오 영상 매칭 방법 및 장치
US12205238B2 (en) Automatic dolly zoom image processing device
KR20090019197A (ko) 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
CN104205826A (zh) 用于重建高密度三维图像的设备和方法
EP3588437B1 (en) Apparatus that generates three-dimensional shape data, method and program
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
WO2022040988A1 (zh) 图像处理方法、装置及可移动平台
KR101025405B1 (ko) 초점 조절 영상 생성 시스템, 방법 및 이를 채용한 촬영 장치
JP5968379B2 (ja) 画像処理装置およびその制御方法
JP2013185905A (ja) 情報処理装置及び方法、並びにプログラム
WO2014014135A1 (ko) 촬영된 이미지의 리포커싱 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
JP5200042B2 (ja) 視差推定装置およびそのプログラム
JP2016005027A (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6579816B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7341712B2 (ja) 画像処理装置、画像処理方法、撮像装置、およびプログラム
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20140067253A (ko) 영상 처리 장치 및 방법
JP2015033047A (ja) 複数カメラを用いた奥行き推定装置
JP2019083407A (ja) 像振れ補正装置およびその制御方法、撮像装置
JP2019176261A (ja) 画像処理装置
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R151 Written notification of patent or utility model registration

Ref document number: 6894725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151