[go: up one dir, main page]

JP2018195084A - 画像処理装置及び画像処理方法、プログラム、記憶媒体 - Google Patents

画像処理装置及び画像処理方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2018195084A
JP2018195084A JP2017098409A JP2017098409A JP2018195084A JP 2018195084 A JP2018195084 A JP 2018195084A JP 2017098409 A JP2017098409 A JP 2017098409A JP 2017098409 A JP2017098409 A JP 2017098409A JP 2018195084 A JP2018195084 A JP 2018195084A
Authority
JP
Japan
Prior art keywords
motion vector
image processing
image
reliability
dividing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017098409A
Other languages
English (en)
Other versions
JP2018195084A5 (ja
JP7032871B2 (ja
Inventor
優 成田
Masaru Narita
優 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017098409A priority Critical patent/JP7032871B2/ja
Priority to US15/980,971 priority patent/US10839529B2/en
Publication of JP2018195084A publication Critical patent/JP2018195084A/ja
Publication of JP2018195084A5 publication Critical patent/JP2018195084A5/ja
Application granted granted Critical
Publication of JP7032871B2 publication Critical patent/JP7032871B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】限られた動きベクトル情報によって背景と主被写体の動きを効率的に検出できる画像処理装置を提供する。【解決手段】カメラの情報を取得する情報取得部と、カメラの情報に基づいて、カメラにより撮像された画像における撮影時の着目対象を推定する推定部と、画像を、複数種類の分割方法で、それぞれ複数の分割領域に分割する領域分割部と、複数種類の分割方法のそれぞれについて、複数の分割領域における動きベクトルを検出する動きベクトル検出部と、を備え、領域分割部は、推定部により推定された着目対象に応じて、画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更する。【選択図】図1

Description

本発明は、複数のフレーム画像間で動きベクトルを検出する技術に関するものである。
デジタルカメラ等の撮像装置を用いて撮影された映像に対して手ぶれ補正やダイナミックレンジ拡大処理を施すためには、フレーム画像間の動き量を検出してそれら複数枚の画像の位置合わせを行う必要がある。
フレーム画像を用いた動き量推定の方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出方法がある。テンプレートマッチングでは、まず映像中のある2枚のフレーム画像の一方を基準画像、もう一方を参照画像とする。そして、基準画像上に配置した所定の大きさの矩形領域をテンプレートブロックとし、参照画像の各位置において参照画像の輝度値の分布とテンプレートブロック内の輝度値の分布との相関を求める。その結果、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先の位置であり、基準画像上でのテンプレートブロックの位置を基準とした時の移動先の位置への向きと移動量が動きベクトルとなる。
このとき、フレーム画像内には撮像装置の移動に伴う背景の動きと、主被写体の動きが混在している。画像内の全画素について動きベクトル検出を行えば、これらの動きを網羅的に検出することが可能である。しかしながら、カメラシステム上でリアルタイムに全画素の動きベクトルを検出することは、多大な回路規模や処理時間、メモリ帯域、消費電力を要するため困難である。そこで、画像内のいくつかの画素(以下、着目点と呼ぶ)に着目し、これらの画素の移動量から背景と主被写体の動きを検出する技術が知られている(例えば特許文献1、2)。
特許文献1には、画像から背景の動きを検出し、背景の動きに基づいて主被写体の動きを検出する技術が開示されている。特許文献2には、被写体追尾を行う場合は主被写体の動き、被写体追尾を行わない場合は背景の動きを主に検出するよう動きベクトルの検出領域の大きさを切り替える技術が開示されている。
特開平6−217188号公報 特開2015−89108号公報
カメラシステム上でリアルタイムに動きベクトルを検出できる着目点の数は限られている。手ぶれ補正などの用途では背景の動きを検出する必要があるため、着目点を画面一様に分布させることが望ましい。一方、被写体追尾などの用途では被写体の動きを検出する必要があるため、着目点を主被写体に密集して分布させることが望ましい。また、HDR(ハイダイナミックレンジ)合成などの用途では、画面全体の位置合わせと動体領域の除去を行うため、背景と主被写体の両方の動きを検出することが求められる。このように、用途によって、限られた着目点を適切に設定する必要がある。
しかしながら、特許文献1、2に開示された技術では、撮影状況によらず、常に固定的な領域でベクトル検出を行っているため、限られた着目点を十分に活用できないという問題があった。
例えば、特許文献1では、背景と主被写体の動きを常に一定数ずつ検出している。そのため、背景と主被写体の各々に対する着目度が異なる場合でも、着目度が高い側と低い側で同じ検出量が割り当てられることになる。前述の通り、着目点の数には限りがあるため、着目度が低い側にも着目度が高い側と同じ検出量を割り当てた結果、着目度が高い側の動きが十分に検出できない場合がある。
特許文献2では、被写体追尾を行うか否かに応じて、背景と主被写体の動きのいずれを検出するかを切り替えている。そのため、背景と主被写体の動き検出を両立することはできない。また、被写体追尾を行うか否かは、撮影者の指示や主被写体検出の可否により判定することを想定している。動画撮影では、シーンがダイナミックに変化するため、撮影者が毎回指示を行うことは煩わしく、実用的でない。また主被写体検出の可否だけでは撮影者の意図を汲み取ることが難しい。
本発明は、上述した課題に鑑みてなされたものであり、その目的は、限られた動きベクトル情報によって背景と主被写体の動きを効率的に検出できる画像処理装置を提供することである。
本発明に係わる画像処理装置は、カメラの情報を取得する情報取得手段と、前記カメラの情報に基づいて、前記カメラにより撮像された画像における撮影時の着目対象を推定する推定手段と、前記画像を、複数種類の分割方法で、それぞれ複数の分割領域に分割する領域分割手段と、前記複数種類の分割方法のそれぞれについて、前記複数の分割領域における動きベクトルを検出する動きベクトル検出手段と、を備え、前記領域分割手段は、前記推定手段により推定された着目対象に応じて、前記画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更することを特徴とする。
本発明によれば、限られた動きベクトル情報によって背景と主被写体の動きを効率的に検出できる画像処理装置を提供することが可能となる。
本発明の第1の実施形態に係わる画像処理装置の構成を示すブロック図。 第1の実施形態で行われる画像処理を説明するフローチャート。 カメラ情報と着目対象の関係を示す図。 画像の領域分割および着目点設定を説明する図。 画像の領域分割の一例を説明する図。 着目対象に基づく領域制御を説明する図。 着目対象に基づく領域制御における制御パラメータの変化を示す図。 テンプレートマッチングを説明する図。 相関値マップを説明する図。 動きベクトル検出結果の一例を示す図。 本発明の第2の実施形態に係わる画像処理装置の構成を示すブロック図。 第2の実施形態で行われる画像処理を説明するフローチャート。 相関値マップの表現方法を説明する図。 動きベクトルの信頼度を表わす相関値指標を説明する図。 動きベクトルの信頼度の算出方法を説明する図。 クラスタリング処理を説明する図。 クラスタリング処理結果に基づく領域サイズの制御を説明する図。 クラスタリング処理結果に基づく領域個数の制御を説明する図。 着目対象に基づく目標の動きベクトル数の設定方法を説明する図。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係わる画像処理装置の構成を示すブロック図である。図1において、画像入力部101は画像を入力する。領域制御部102は、1つ以上(複数種類)の領域分割部102a,102b,…を備え、画像入力部101により入力された画像を、後述する着目対象推定部107の出力に基づいて、複数の画像領域に分割するための分割情報を出力する。各画像領域の形状は任意であるが、本実施形態では図4(a)に示すように、画像を格子状に分割する。また、1つ以上の領域分割部102a,102b,…は互いに独立で、それぞれ異なる分割設定が可能である。
着目点設定部103は、領域制御部102からの分割情報(分割の大きさ、分割数、座標など)に基づいて、画像領域ごとに所定数の着目点を設定する。画像メモリ104は、画像入力部101により入力された1フレームの画像又は複数フレームの画像を一時的に記憶保持する。動きベクトル検出部105は、着目点設定部103から出力される着目点に基づいて、画像入力部101および画像メモリ104から入力される画像に対して、例えばテンプレートマッチングにより動きベクトルを検出する。
カメラ情報取得部106は、撮影状況を推定するために必要なカメラ情報を取得する。カメラ情報とは、例えば撮影モード、主被写体情報、シャッタースピード、焦点距離、奥行き情報、慣性センサ情報、ユーザ指示情報などである。着目対象推定部107は、カメラ情報取得部106により得られるカメラ情報に基づいて、撮影時にユーザが背景と被写体のいずれに着目しているか、そして背景と被写体のいずれに着目して動きベクトル検出を行うべきかを推定する。
上記のように構成される画像処理装置100の動作について、図2に示すフローチャートを参照して詳細に説明する。
ステップS201では、カメラ情報取得部106は、撮影状況を推定するために必要なカメラ情報を取得する。カメラ情報の例として、撮影モード、主被写体情報、シャッタースピード、焦点距離、奥行き情報、慣性センサ情報、ユーザ指示情報を用いるものとする。
主被写体情報は、例えば、主被写体の人物らしさ、主被写体の大きさ、主被写体の動きである。主被写体の人物らしさおよび大きさは、例えば主被写体を人物の顔とする場合、主被写体の色や輪郭の情報を用いる公知の顔検出技術によって得ることができる。主被写体の動きは、画像フレーム間で後述の動きベクトル検出技術により検出される動きベクトルから得ることができる。また、奥行き情報は、例えば測距センサを用いるか、あるいは、撮像画像から公知のSfM(Structure from Motion)により検出することができる。
ステップS202では、着目対象推定部107は、ステップS201で取得したカメラ情報に基づいて、撮影状況を推定し、背景と主被写体のいずれに着目して動きベクトル検出を行うべきかを推定する。
ここで、カメラ情報に基づいて、着目対象を推定する方法について説明する。ここでは、まずカメラ情報ごとに着目対象が背景である度合いを表す背景度合いと、着目対象が主被写体である度合いを表す被写体度合いを算出する。背景度合いと被写体度合いを合計して1になる数値として表現するものとする。なお、背景度合いと被写体度合いのいずれか一方だけを算出するようにしてもよい。
撮影モードについては、例えば、ポートレートモードの場合には人物(=被写体)に着目して撮影している可能性が高いので、被写体度合を高く(例えば0.9)、背景度合いを低く(例えば0.1)する。一方、風景モードの場合には風景に着目して撮影している可能性が高いため、被写体度合いを低く(例えば0.1)、背景度合いを高く(例えば0.9)する。このように、撮影モードによって可能性の高い撮影状況を想定することで、背景度合いおよび被写体度合いを決めることができる。
主被写体の人物らしさについては、主被写体がより人物らしいほど、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.7)、背景度合いを低く(例えば0.3)する。主被写体の大きさについては、主被写体が大きいほど、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.8)、背景度合いを低く(例えば0.2)する。
主被写体の動きについては、主被写体の動きが小さいほど、被写体を捉えようとカメラを構えていることが想定され、被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.6)、背景度合いを低く(例えば0.4)する。シャッタースピードについては、シャッタースピードが速いほど、高速に移動する被写体に着目して撮影している可能性が高いので、被写体度合いを高く(例えば0.7)、背景度合いを低く(例えば0.3)する。図3は、以上のカメラ情報と着目被写体の関係についてまとめた表を示す図である。括弧内の数値は、前述した背景度合い/被写体度合いの一例を示している。
次に、焦点距離と奥行き情報については、それぞれ単独では撮影者の意図を汲み取ることが難しい。そこで、両者を組み合わせて着目対象を推定する方法の一例について説明する。
焦点距離f[mm]と、主被写体までの距離(奥行き情報)d[mm]が与えられている場合、撮像面上での主被写体の大きさをX[mm]とすれば、実際の主被写体の大きさY[mm]は、以下の式(1)で算出できる。
Y=(d/f)・X …(1)
実際の主被写体の大きさが分かれば、像面上での主被写体の大きさや焦点距離との関係から、撮影者の意図を汲み取ることができる。例えば、実際の主被写体の大きさは小さいが、像面上での主被写体の大きさが大きく、焦点距離が長い場合は、主被写体に非常に着目していることになる。そのため、実際の主被写体の大きさが小さい、かつ、像面上での主被写体の大きさが大きい、かつ、焦点距離が長いほど被写体度合いを高く、背景度合いを低くする。
慣性センサ情報についても、単独では撮影者の意図を汲み取ることが難しい。そこで、慣性センサ情報と被写体の動き情報を組み合わせて着目対象を推定する方法の一例について説明する。撮影者の着目対象が被写体である場合、被写体を画面の定位置に収めようとカメラを動かすため、被写体の画面上での動きはカメラの動きに比べて相対的に小さくなる。よって、慣性センサ情報により得られるフレーム画像間のカメラの移動量に対して、被写体の画面上での移動量が小さくなるほど、被写体を捉えようとカメラを構えていることが想定され、被写体に着目して撮影している可能性が高いので、被写体度合いを高く、背景度合いを低くする。
着目対象の推定に利用できるカメラ情報が複数ある場合、カメラ情報ごとに得られる背景度合いおよび被写体度合いに対してそれぞれ重み付け加算を行い、最終的な背景度合いおよび被写体度合いを算出すればよい。重みは、例えば各情報源の確からしさに基づいて設定すればよい。
図3の例を用いて説明する。撮影モード、主被写体の人物らしさ、主被写体の大きさ、主被写体の動き、シャッタースピードのそれぞれから得られる背景度合いをDa、Db、Dc、Dd、De、重みをGa、Gb、Gc、Gd、Geとする。最終的な背景度合いDは、加重加算により以下の式(2)で計算できる。
D=Ga×Da+Gb×Db+Gc×Dc+Gd×Dd+Ge×De …(2)
例えば、重みをGa=0.3、Gb=0.2、Gc=0.2、Gd=0.1、Ge=0.2とする。ここで、重みは合計が1になるよう正規化している。いま撮影モードが風景モード(Da=0.9)、主被写体の人物らしさが高い(Db=0.3)、主被写体の大きさが小さい(Dc=0.8)、主被写体の動きが小さい(Dd=0.4)、シャッタースピードが遅い(De=0.7)とすれば、式(2)よりD=0.6となる。最終的な被写体度合いについても同じように算出できる。
各情報源の確からしさが同一または不明の場合は、全ての重みを同じにすればよい。
なお、カメラ情報としてユーザによる指示情報を用いる場合、例えば背景と被写体の着目度合いをユーザに指示させることで、推定することなく背景度合いと被写体度合いを決めることができる。
ステップS203では、領域制御部102は、ステップS202で得られた背景度合いおよび被写体度合いに基づいて1つ以上の領域分割部102a,102b,…を制御し、画像を複数の領域に分割する。
図4は、領域分割部の制御パラメータを示す図である。図4(a)において、白い矩形領域が着目点を設定する着目点設定領域であり、着目点設定領域の周辺には斜線で示す周辺領域を設けている。これは、設定される着目点の位置によっては、後述する動きベクトル検出に用いるテンプレート領域およびサーチ領域が着目点設定領域をはみ出すため、そのはみ出し分だけ設けた余剰の画像領域である。
領域分割部の制御パラメータとしては、例えば着目点設定領域の水平・垂直位置を示すSx,Sy、水平・垂直個数を示すNx,Ny、水平・垂直サイズを示すLx,Lyがある。なお、ここでは制御を容易にするため、各領域の水平・垂直サイズを一律としたが、各領域の水平・垂直サイズを独立に設定できるようにしてもよい。
次に、これら領域分割部102の制御パラメータを、背景度合いおよび被写体度合いに基づいて制御する方法について説明する。ここでは、独立した2個の領域分割部102a,102bを制御する例について示す。例えば、第1の領域分割部102aを背景の動きベクトル検出、第2の領域分割部102bを主被写体の動きベクトル検出に適するように制御する。
なお、領域分割部は3個以上設けてもよい。例えば、領域分割部が3個ある場合は、背景と主被写体に加えて、第3の領域分割部を主被写体以外の被写体の動きベクトル検出に適するように制御すればよい。
また、図5のように各領域の水平・垂直サイズを複数独立に設定できるような領域分割部を設けてもよい。図5の例では、水平・垂直個数Nx1,Ny1および水平・垂直サイズLx1,Ly1の分割領域を背景の動きベクトル検出に適した分割領域としている。また、水平・垂直個数Nx2,Ny2および水平・垂直サイズLx2,Ly2の分割領域を主被写体の動きベクトル検出に適した分割領域としている。
着目点設定領域の数(着目点の数)が増えるほど、動きベクトル検出にかかる処理時間は増え、動きベクトル情報を保持するためのメモリ容量およびメモリ帯域も増える。カメラシステム上でリアルタイムに動きベクトル検出を行うには、これらのシステム負荷の制約を満たす必要があるため、着目点設定領域の数には上限がある。
図6に示した、独立した2個の第1及び第2の領域分割部102a,102bを制御する例では、着目点設定領域の数の上限を48個(一定)とし、各領域で1個の着目点を設定するものとする。なお、着目点設定領域の数の上限は、システム負荷の制約を満たす範囲内で動的に変更してもよい。図6では、左から右にいくにつれて、被写体度合いが高く、背景度合いが低くなっている。
被写体度合いが背景度合いに対して極めて低い場合、ユーザは背景のみに着目していることが想定されるので、背景の動きベクトルのみを検出すればよい。そのため、第1の領域分割部102aによる領域分割を図6(a)、第2の領域分割部102bによる領域分割を図6(b)のように設定することが望ましい。図6(a)では、着目点設定領域の上限である48個を全て画面広域に配置し、背景の動きを最大限に検出するようにしている。一方、図6(b)では、主被写体の動きは検出しないようにしている。
次に被写体度合いが背景度合いに対して低い場合、ユーザは主に背景に着目しているが、わずかに主被写体にも着目していることが想定されるので、背景の動きベクトルを優先して検出すればよい。そのため、第1の領域分割部102aによる領域分割を図6(c)、第2の領域分割部102bによる領域分割を図6(d)のように設定することが望ましい。図6(c)では、着目点設定領域の上限である48個のうち過半数の36個を画面広域に配置し、背景の動きを優先して検出するようにしている。一方、図6(d)では、着目点の残りの12個を主被写体領域に配置し、主被写体の動きも検出するようにしている。
次に被写体度合いが背景度合いに対して同程度の場合、ユーザは背景と主被写体を同程度に着目していることが想定されるので、背景と主被写体の動きベクトルを両立するように検出すればよい。そのため、第1の領域分割部102aによる領域分割を図6(e)、第2の領域分割部102bによる領域分割を図6(f)のように設定することが望ましい。図6(e)では、着目点設定領域の上限である48個のうち半数の24個を画面広域に配置し、背景の動きを検出するようにしている。一方、図6(f)では、着目点の残りの24個を主被写体領域に配置し、主被写体の動きも背景と同程度に検出するようにしている。
次に被写体度合いが背景度合いに対して高い場合、ユーザは主に主被写体に着目しているが、わずかに背景にも着目していることが想定されるので、主被写体の動きベクトルを優先して検出すればよい。そのため、第1の領域分割部102aによる領域分割を図6(g)、第2の領域分割部102bによる領域分割を図6(h)のように設定することが望ましい。図6(g)では、着目点設定領域の上限である48個のうち半数未満の12個を画面広域に配置し、背景の動きを検出するようにしている。一方、図6(h)では、着目点の残りの36個を主被写体領域に配置し、主被写体の動きを優先して検出するようにしている。
最後に被写体度合いが背景度合いに対して極めて高い場合、ユーザは主被写体のみに着目していることが想定されるので、主被写体の動きベクトルのみを検出すればよい。そのため、第1の領域分割部102aによる領域分割を図6(i)、第2の領域分割部102bによる領域分割を図6(j)のように設定することが望ましい。図6(i)では、背景の動きは検出しないようにしている。一方、図6(j)では、着目点設定領域の上限である48個を全て主被写体領域に配置し、主被写体の動きを最大限に検出するようにしている。
図6に示した制御を行うには、第1及び第2の領域分割部102a,102bの制御パラメータを図7のように制御すればよい。図7の左側の(a)〜(d)は第1の領域分割部102a、右側の(e)〜(h)は第2の領域分割部102bの制御を示している。図7の横軸は被写体度合いを示し、縦軸は制御パラメータを示している。図7(c)、図7(d)の縦軸は、着目点設定領域全体の水平サイズが1となるように正規化し、図7(g)、図7(h)の縦軸は、着目点設定領域全体の垂直サイズが1となるように正規化した値を示している。
制御パラメータについては、第1の領域分割部102aの制御パラメータは、添え字に1を付けてSx1,Sy1,Nx1,Ny1,Lx1,Ly1と表記する。また、第2の領域分割部102bの制御パラメータは、添え字に2を付けてSx2,Sy2,Nx2,Ny2,Lx2,Ly2と表記する。
図7について被写体度合いをHで表すと、0≦H<0.2は図6(a)、図6(b)の状態に、0.2≦H<0.4は図6(c)、図6(d)の状態に相当する。また、0.4≦H<0.6は図6(e)、図6(f)の状態に、0.6≦H<0.8は図6(g)、図6(h)の状態に、0.8≦H≦1.0は図6(i)、図6(j)の状態に相当する。
被写体度合いが高くなるにつれて、Nx1,Ny1を少なく、Nx2,Ny2を多くし、主被写体領域に設定する分割領域の数を増やしている。また、被写体度合いが高くなるにつれて、Lx1,Ly1を大きく、Lx2,Ly2を小さくし、主被写体領域に設定する分割領域の密度を高めている。ここで、着目点設定領域の上限をNmaxとして、Nx1×Ny1+Nx2×Ny2≦Nmaxの制約を満たすように制御するものとする。なお、分割領域のXY方向の位置を表す制御パラメータSX,SYについては、例えばSX1,SY1は背景領域の左上の座標、SX2,SY2は主被写体領域の左上の座標に設定すればよい。
ステップS204では、着目点設定部103は、ステップS203で分割された複数の画像領域ごとに所定数の着目点を設定する。着目点としては、例えば各領域における特徴点を用いればよい。図4(b)は格子状に分割された画像領域ごとに1個の特徴点301を抽出する様子を示している。
特徴点の抽出方法としては、公知の方法を用いればよく、例えばHarris corner検出器もしくはShi and Tomasiの手法を用いる場合について説明する。これらの手法では、画像の画素(x,y)における輝度値をI(x,y)と表現し、画像に対して水平および垂直の1次微分フィルタを適用した結果のIx,Iyから、式(3)で示す自己相関行列Hを作成する。
Figure 2018195084
式(3)において、Gは式(4)に示すガウス分布による平滑化を表す。
Figure 2018195084
Harris検出器は、式(5)に示す特徴評価式により、特徴量が大きくなる画素を特徴点として抽出する。
Harris=det(H)−α(tr(H))2 (α=0.04〜0.15) …(5)
式(5)において、detは行列式を、trは対角成分の和を表す。また、αは定数であり、実験的に0.04〜0.15の値がよいとされている。
一方、Shi and Tomasiの手法では、式(6)に示す特徴評価式を用いる。
Shi and Tomashi = min(λ1,λ2) …(6)
式(6)は、式(3)の自己相関行列Hの固有値λ1,λ2のうち小さい方の固有値を特徴量とすることを表す。Shi and Tomasiの手法を用いる場合でも、特徴量が大きくなる画素を特徴点として抽出する。分割された画像領域ごとに、式(5)または式(6)により画素の特徴量を算出し、特徴量が高い方から所定数の画素を特徴点として抽出し、着目点として設定する。
ステップS205では、ステップS204で設定された着目点を用いて動きベクトルの検出を行う。動きベクトル検出部105は、テンプレートマッチングにより動きベクトルを検出する。
図8は、テンプレートマッチングの概要を示す図である。図8(a)は2つのベクトル検出画像のうちの一方である基準画像を示し、図8(b)は他方である参照画像を示している。ここでは、基準画像として画像メモリ104に保持されているフレーム画像、参照画像として画像入力部101から直接入力される画像データを用いることで、過去のフレーム画像から現在のフレーム画像への動きベクトルを算出する。なお、基準画像と参照画像は逆に入れ替えてもよく、その場合は現在のフレーム画像から過去のフレーム画像への動きベクトルを算出することを意味する。
動きベクトル検出部105は、基準画像にテンプレート領域701、参照画像にサーチ領域702を配置し、これらのテンプレート領域701とサーチ領域702の相関値を算出する。ここで、テンプレート領域701は、ステップS204で設定された着目点を中心に配置し、サーチ領域はテンプレート領域を上下左右均等に包含するように所定の大きさで配置すればよい。
本実施形態では、相関値の算出方法として、差分絶対値和(Sum of Absolute Difference:以下、SADと略す)を使用する。SADの計算式を式(7)に示す。
Figure 2018195084
式(7)において、f(i,j)はテンプレート領域701内の座標(i,j)での輝度値を示している。また、g(i,j)はサーチ領域702内において相関値の算出対象となる領域(以下、相関値算出領域という)703内の各座標での輝度値を示す。SADでは、サーチ領域702、相関値算出領域703内の輝度値f(i,j),g(i,j)の差の絶対値を計算し、その総和を求めることで相関値S_SADを得る。相関値S_SADの値が小さいほど、テンプレート領域701と相関値算出領域703のテクスチャの類似度が高いことを表す。なお、相関値の算出にSAD以外の方法を用いてもよく、例えば差分二乗和(SSD)や正規化相互相関(NCC)を用いてもよい。
動きベクトル検出部105は、サーチ領域702の全域において相関値算出領域703を移動させて相関値を算出する。これにより、サーチ領域702に対して図9に示すような相関値マップを作成する。
図9(a)はサーチ領域702の座標系で算出した相関値マップを示しており、X軸とY軸は相関値マップ座標、Z軸は各座標での相関値の大きさを表している。また図9(b)は、図9(a)の等高線を示したものである。図9(a)および図9(b)において、相関値が最も小さいのは極小値801(相関の極大値)であり、サーチ領域702内で極小値801が算出された領域にはテンプレート領域701と非常に類似したテクスチャが存在していると判定できる。802は2番目の極小値、803は3番目の極小値を表わしており、これらは極小値801に次いで類似したテクスチャが存在していることを意味する。
このように、動きベクトル検出部105は、テンプレート領域701とサーチ領域702との間で相関値を算出し、その値が最も小さくなる相関値算出領域703の位置を判定する。これにより、基準画像上のテンプレート領域701の参照画像上での移動先を特定することができる。そして、基準画像上でのテンプレート領域の位置を基準とした参照画像上での移動先への方向および移動量を方向および大きさとした動きベクトルを検出することができる。
図10は、本実施形態における動きベクトル検出結果の一例を示す図である。この例では、図2のステップS202において背景度合いと被写体度合いは同程度と推定し、ステップS203において第1の領域分割部102aによる領域分割を図6(e)、第2の領域分割部102bによる領域分割を図6(f)のように設定している。
図10(a)は、第1の領域分割部102aにより分割された分割領域(図6(e))において設定された着目点に基づいて検出された動きベクトルを示している。一方、図10(b)は、第2の領域分割部102bにより分割された分割領域(図6(f))において設定された着目点に基づいて検出された動きベクトルを示している。
図10(a)および図10(b)は、フレーム画像901上に、背景902と左方向に移動する主被写体903とが存在しており、右上方向への撮像装置の動きが生じている状況を示している。なお、撮像装置の動きは、手振れ等による撮像装置の小さな動きだけでなく、より大きな動きや、パンニング、チルティング等のカメラモーションによる意図的な動きも含んでいる。
検出された動きベクトルのうち、背景902の動きを表す動きベクトルを904、主被写体の動きを表す動きベクトルを905で示している。背景の動きベクトル904は、主被写体の動きベクトル905とは全く異なる方向と大きさを有している。なお、破線の動きベクトル906は誤検出された動きベクトルであり、詳細は第2の実施形態の説明において述べる。
図10(a)では画面広域に着目点が設定されているため、背景の動きベクトル904が多く検出されており、一部の主被写体領域においてわずかに主被写体の動きベクトル905が検出されている。図10(b)では主被写体領域に着目点が設定されているため、主被写体の動きベクトル905が多く検出されており、一部の背景領域においてわずかに背景の動きベクトル904が検出されている。特に背景と主被写体の境界部分においては、テンプレートに含まれるテクスチャの強度によって、背景と主被写体のいずれの動きベクトルが検出されるかが変わり得る。
図10(a)および図10(b)で検出された動きベクトルを重ね合わせた様子を図10(c)に示す。画面広域および主被写体領域に均等に着目点を設定することにより、背景と主被写体の動きベクトルの両方が得られる。
最後のステップS206では、画像処理装置100が、最終フレームまでの処理を完了したか否かを判定する。最終フレームまでの処理が完了していない場合はステップS201に戻る。
以上説明したように、本実施形態では、カメラ情報を用いて撮影状況を推定し、背景と主被写体のいずれに着目して動きベクトル検出を行うべきかを推定する。その上で、推定結果に適した着目点分布となるよう分割領域を制御することで、ユーザの着目対象の動きを優先して検出することが可能となる。
(第2の実施形態)
図11は、本発明の第2の実施形態の画像処理装置の構成を示す図である。図11において、図1に示した構成要素と共通するものについては、図1と同符号を付す。本実施形態の画像処理装置は、図1に示した構成に加えて、信頼度算出部1001とクラスタリング部1002を有する。本実施形態では、第1の実施形態と同一部分については説明を省略し、第1の実施形態と異なる処理を行う部分についてのみ説明する。
第1の実施形態では、背景と主被写体に対する着目度合いに応じて分割領域を制御した。その結果、背景と主被写体に対する着目度合いが同程度の場合には、図10(c)に示すように、背景と主被写体の動きベクトルを両方得ることができた。しかしながら、図10(c)の例では、背景と主被写体の動きベクトルの数は均等ではなく、背景の動きベクトルの数の方が多い。これは、主被写体領域に配置した着目点のうち、背景ベクトルを検出するものの割合が多かったためである。特に主被写体と背景の境界部分においては、主被写体上に着目点があったとしても、テンプレートが背景のテクスチャを含むため、背景ベクトルが検出されやすい傾向にある。
そこで、本実施形態では、実際に検出された動きベクトルを解析した結果を、分割領域の制御にフィードバックすることにより、背景と主被写体に対する着目度合いにより適合した動きベクトル検出を行う。本実施形態が第1の実施形態と異なるのは、領域制御部112において、クラスタリング部1002の出力結果をフィードバックする点である。
信頼度算出部1001は、動きベクトル検出部105から入力される動きベクトルに対して信頼度を算出する。クラスタリング部1002は、動きベクトル検出部105から得られる動きベクトルに対して、信頼度算出部1001から得られる信頼度を用いてクラスタリング処理を行う。ここにいう「クラスタリング処理」とは、複数の動きベクトルのうち、同じような方向と大きさ(例えば、差が所定値以下の方向や大きさ)を持つ1又は2以上の動きベクトルを1つのグループとするように、グループ分けを行うことに相当する。1つのグループを以下の説明では、クラスタと称する。
図12は、第2の実施形態の画像処理装置の動作を示すフローチャートである。図12において、図2に示したステップと共通するものについては、図2と同符号を付し説明を省略する。
ステップS1101では、領域制御部112は、ステップS202で得られた背景度合いおよび被写体度合いと、後述するステップS1103のクラスタリング結果に基づいて1つ以上の領域分割部を制御し、画像を複数の領域に分割する。なお、最初のフレームではステップS1103がまだ実行されていないため、ステップS203と同じく背景度合いおよび被写体度合いに基づいて1つ以上の領域分割部を制御する。第2フレーム以降の処理については、ステップS1103の説明の後に説明する。
ステップS1102では、信頼度算出部1001は、ステップS205で得られた動きベクトルの信頼度を算出する。動きベクトルの信頼度の算出には二次元の相関値マップを用いる。図9(b)の2次元相関値マップにおいて、相関値を矢印804で示すようにラスター順に並べ1次元で表わしたものを図13に示す。図13の縦軸は相関値、横軸は相関値マップのX座標とY座標により一意に定まる画素アドレスである。以降、動きベクトルの信頼度を算出するため、この図13の表現を用いることにする。なお、図13に1201で示す位置は図9の極小値に対応する位置である。
図14は、動きベクトルの信頼度を表わす相関値の指標の一例を示す図である。図14の横軸は画素のアドレス、縦軸は相関値である。図14(a)では、指標として相関値の最小値と最大値の差分Daを用いる。Daは相関値マップのレンジを表わしており、Daが小さい場合、テクスチャのコントラストが低いことが考えられ、信頼度が低いことを示す。
図14(b)では、指標として相関値の最小値と最大値の差分Aと、最小値と平均値の差分Bとの比率Db(=B/A)を用いる。Dbは相関値ピークの急峻性を表わしており、Dbが小さい場合、テンプレート領域とサーチ領域の類似度が低いと考えられ、信頼度が低いことを示す。
図14(c)では、指標として相関値の極小値と2番目の極小値の差分Dcを用いる。ここで、1301,1302,1303は、それぞれ図9の相関値801,802,803と対応している。よって、図14(c)は、図9(b)の等高線において、相関値の最小と類似した極小値が存在しないかを確認することを意味している。Dcは相関値マップの周期性を表わし、Dcが小さい場合、テクスチャが繰り返しパターンやエッジなどであることが考えられ、信頼度が低いことを示す。なお、ここでは極小値と2番目の極小値を選択したが、相関値マップの周期性を判定できればよいため、その他の極小値を選択してもよい。
図14(d)では、指標として相関値の最小値Ddを用いる。Ddが大きい場合、テンプレート領域とサーチ領域の類似度が低いと考えられ、信頼度が低いことを表わす。Ddと信頼度は反比例の関係にあるため、Ddの逆数(1/Dd)を指標とする。
上記で説明した相関値の指標はそのまま信頼度として用いることができるが、例えば図15のように相関値指標と信頼度の対応付けを行ってもよい。図15の横軸は相関値指標(上述のDa,Db,Dc,1/Ddのいずれか)、縦軸は信頼度である。この例では、二つの閾値T1,T2を設けており、T1以下なら信頼度を0、T2以上なら信頼度を1としている。閾値は相関値指標ごとに変更してもよい。また閾値T1とT2の間の区間は、相関値指標と信頼度を非線形に対応付けてもよい。以降の説明では、各相関値指標から得られる信頼度をRa,Rb,Rc,Rdと表現する。ここで、Ra=f(Da),Rb=f(Db),Rc=f(Dc),Rd=f(Dd)の関係にある。
最終的な動きベクトルの信頼度Rは、これらRa,Rb,Rc,Rdを組み合わせて算出すればよい。ここでは、重み付け加算に基づく組み合わせ方法について説明する。重み付け加算による組み合わせでは、Ra,Rb,Rc,Rdの重みをそれぞれWa,Wb,Wc,Wdとすれば、信頼度Rは式(8)のように計算される。
R=Wa×Ra+Wb×Rb+Wc×Rc+Wd×Rd …(8)
例えば重みをWa=0.4,Wb=0.3,Wc=0.2,Wd=0.1とする。全ての信頼度が十分に高く、Ra=Rb=Rc=Rd=1の場合には、式(8)よりR=1.0となる。またRa=0.6,Rb=0.5,Rc=0.7,Rd=0.7のような場合には、式(8)よりR=0.6となる。
論理演算による組み合わせでは、Ra,Rb,Rc,Rdに対する閾値をそれぞれTa,Tb,Tc,Tdとすれば、信頼度Rは例えば論理積を用いて式(9)のように計算される。
R=(Ra≧Ta)∧(Rb≧Tb)∧(Rc≧Tc)∧(Rd≧Td) …(9) ∧は論理積を表す記号である。Ra≧Ta、Rb≧Tb、Rc≧Tc、Rd≧Tdが全て成立する場合にR=1(高信頼)、それ以外の場合にR=0(低信頼)となる。また論理和を用いて式(10)のように計算してもよい。
R=(Ra<Ta)↓(Rb<Tb)↓(Rc<Tc)↓(Rd<Td) …(10)
↓は否定論理和を表す記号である。Ra<Ta、Rb<Tb,Rc<Tc、Rd<Tdの全てが成立しない場合にR=1(高信頼)、それ以外の場合にR=0(低信頼)となる。
ステップS1103では、クラスタリング部1002は、ステップS205で得られた動きベクトルに対して、ステップS1102で得られた信頼度を用いてクラスタリング処理を行う。以下に、本実施形態におけるクラスタリング処理について説明する。ここでは、動きベクトルの大きさに着目してクラスタリング処理を行う。
最初に、動きベクトル検出部105により検出された全ての動きベクトルのうち、信頼度算出部1001より算出された信頼度が所定の閾値よりも低いものを除去する。信頼度が低い動きベクトルは誤検出の可能性が高く、後述のクラスタリング処理で誤ったクラスタを形成する恐れがあるためである。
図10において、破線の動きベクトル906は信頼度が所定の閾値よりも低く、誤検出と判定された動きベクトルである。図10(d)は、図10(c)の動きベクトル検出結果から、信頼度が低い動きベクトルを除去した状態を示している。この図10(d)に対して、各動きベクトルの大きさをグラフ(クラスタマップ)上にプロットしたものを図16に示す。
図16において、横軸は動きベクトルのX方向(水平方向)の大きさ、縦軸はY方向(垂直方向)の大きさを表す。X方向及びY方向において、符号が正の場合には、動きベクトルが上方向及び右方向を向いていることを示す。また、符号が負の場合には、動きベクトルが下方向及び左方向を向いていることを示す。
動きベクトルを、その大きさに着目してプロットすることによって、同じような方向及び大きさを有する2つ以上の動きベクトル同士が同じような位置にプロットされることになり、その結果として、動きベクトルの集合であるクラスタが形成される。
図16において、クラスタ1501は、背景の動きベクトル904により形成されたクラスタ(以下、背景クラスタともいう)であり、クラスタ1502は、主被写体の動きベクトル905により形成されたクラスタ(以下、主被写体クラスタともいう)である。このように、動きベクトルに対してクラスタリング処理を行うことにより、背景と主被写体の動きベクトルを分離することが可能となる。これにより、各着目点および動きベクトルが、背景と主被写体のいずれに属しているかを表す所属が得られる。
以上のようなクラスタリング処理は、順次生成される各フレーム画像に対して算出される複数の動きベクトルに対して順次行われる。また、本実施形態では、クラスタリング処理を動きベクトルの大きさに着目して行う場合について説明したが、動きベクトルの空間的な微分値を用いてクラスタリング処理を行う等の他のクラスタリング手法を用いてもよい。
その後ステップS206の判定において、最終フレームまで処理が完了していない場合はステップS201に戻り、次にステップS202、そして再びステップS1101が実行される。2回目以降のステップS1101では、領域制御部112は、ステップS202で得られた背景度合いおよび被写体度合いだけでなく、ステップS1103のクラスタリングの結果に基づいて1つ以上の領域分割部を制御する。
以下では、クラスタリングの結果を領域分割の制御に反映する方法について説明する。クラスタリングの結果から、各着目点および動きベクトルの所属が与えられる。各着目点の所属を領域制御に反映する方法について図17を用いて説明する。
図17(a)では、図10(b)において被写体の動きベクトル905が検出された着目点が●印1601、背景の動きベクトル904が検出された着目点が×印1602として示されている。着目点設定領域(白い矩形領域)は、被写体領域に合わせて設定されている。一方、図17(b)では、被写体の動きベクトルが検出された着目点1601と、それを包含する領域1603が示されている。領域1603は、実際に被写体の動きベクトルを検出できる領域と見なせる。この例では、領域1603は被写体領域に対して内側に存在している。そのため、図17(c)のように、領域制御部112は、着目点設定領域を領域1603に合わせるように分割領域の大きさを変更する。
なお、領域1603の決定方法として、ここでは全ての着目点1601を含む領域としたが、それに限られるものではない。例えば、全ての着目点1601の重心を求め、重心から近い所定数の着目点を選択し、選択された着目点を含むように領域1603を決定してもよい。
次に各動きベクトルの所属を領域制御に反映する方法について説明する。背景と主被写体に対する着目度合いが同程度の場合について考えると、背景と主被写体の動きベクトルがそれぞれ均等に同数ずつ検出されることが望ましい。図10(d)の例では、背景の動きベクトルが25本、主被写体の動きベクトルが13本、誤検出の動きベクトルが10本となっている。背景と主被写体の動きベクトルの合計は38本であるので、これを均等に19本ずつにすることが目標になる。ベクトル数を比較すると、目標の動きベクトルの数(以下、目標ベクトル数と呼ぶ)に対して、背景の動きベクトルは6本多く、被写体の動きベクトルは6本少ない。そのため、図6(e)、図6(f)のように、画面広域と主被写体領域に均等に24個ずつ設定していた着目点設定領域を、それぞれ図18(a)、図18(b)のように変更する。
図18(a)では、着目点設定領域の上限である48個のうち18個を画面広域に配置し、背景の動きを検出するようにしている。一方、図18(b)では、着目点の残りの30個を主被写体領域に配置し、主被写体の動きを検出するようにしている。このように主被写体領域に配置する着目点の設定領域の数を増やすことで、背景と主被写体の動きベクトルの数が均等に近づくようにすることができる。
主被写体の目標ベクトル数Ntarは、図19のように被写体度合いに応じて制御すればよい。この例では、二つの閾値T1,T2を設けており、T1以下なら0、T2以上なら上限のNmaxとしている。なお、閾値T1とT2の間の区間は、被写体度合いと目標ベクトル数とを非線形に対応付けてもよい。また、主被写体ではなく、背景に対する目標ベクトル数を背景度合いに応じて同様に制御してもよい。
実際に検出された主被写体のベクトル数をNcurとすると、主被写体領域に配置する着目点の設定領域の数の変化量はΔN=Ntar−Ncurとすればよい。主被写体領域に配置する着目点設定領域について、現在の数をNx2,Ny2、クラスタリング結果反映後の数をNx2’,Ny2’と表現する。クラスタリング結果を反映するには、Nx2×Ny2+ΔN≧Nx2’×Ny2’の関係を満たすような最大の整数Nx2’とNy2’を求めればよい。
上述の例では、Nx2=6、Ny2=4、ΔN=6であるため、Nx2’×Ny2’≦30となる。例えば、水平の配置数を固定して考えると、Nx2’=Nx2=6となるので、Ny2’=5が得られる。
以上のようにして、クラスタリング結果である各着目点および動きベクトルの所属を領域制御に反映することができる。
以上説明したように、本実施形態では、実際に検出された動きベクトルのクラスタリング結果を、分割領域の制御にフィードバックする。これにより、第1の実施形態よりもさらに背景と主被写体に対する着目度合いに適合した動きベクトル検出が可能となるという効果が得られる。
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
100:画像処理装置、101:画像入力部、102:領域制御部、103:着目点設定部、104:画像メモリ、105:動きベクトル検出部、106:カメラ情報取得部、107:着目対象推定部、1001:信頼度算出部、1002:クラスタリング部

Claims (19)

  1. カメラの情報を取得する情報取得手段と、
    前記カメラの情報に基づいて、前記カメラにより撮像された画像における撮影時の着目対象を推定する推定手段と、
    前記画像を、複数種類の分割方法で、それぞれ複数の分割領域に分割する領域分割手段と、
    前記複数種類の分割方法のそれぞれについて、前記複数の分割領域における動きベクトルを検出する動きベクトル検出手段と、を備え、
    前記領域分割手段は、前記推定手段により推定された着目対象に応じて、前記画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更することを特徴とする画像処理装置。
  2. 前記複数種類の分割方法は、前記複数の分割領域のそれぞれが前記画像における主被写体を含むように前記画像を分割する第1の分割方法と、前記複数の分割領域のそれぞれが前記画像における背景を含むように前記画像を分割する第2の分割方法とを含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記領域分割手段は、前記推定手段により推定された前記着目対象が主被写体である度合いが高くなるについて、前記第1の分割方法における前記複数の分割領域の大きさを小さくするか、前記分割領域の数を増やすかの少なくともいずれかを行うとともに、前記第2の分割方法における前記複数の分割領域の大きさを大きくするか、前記分割領域の数を減らすかの少なくともいずれかを行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記領域分割手段は、前記第1の分割方法における前記複数の分割領域の数と、前記第2の分割方法における前記複数の分割領域の数の和が一定となるように、前記第1の分割方法における前記複数の分割領域の数と、前記第2の分割方法における前記複数の分割領域の数を変更することを特徴とする請求項3に記載の画像処理装置。
  5. 前記カメラの情報は、撮影モード、主被写体情報、シャッタースピード、焦点距離、奥行き情報、慣性センサ情報、ユーザ指示情報の少なくともいずれかを含むことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記推定手段は、前記カメラの情報の1つまたは複数に基づいて、撮影時の着目対象が主被写体である度合いおよび背景である度合いを算出することを特徴とする請求項5に記載の画像処理装置。
  7. 前記推定手段は、前記カメラの情報のそれぞれについて算出された、前記着目対象が主被写体である度合い及び背景である度合いを加重加算することにより、最終的な前記着目対象が主被写体である度合い及び背景である度合いを算出することを特徴とする請求項6に記載の画像処理装置。
  8. 前記動きベクトルの信頼度を算出する信頼度算出手段と、前記動きベクトルに対して、前記信頼度を用いてクラスタリング処理を行うクラスタリング手段とをさらに備え、
    前記領域分割手段は、前記推定手段および前記クラスタリング手段の出力に基づいて、前記画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記動きベクトルの信頼度を算出する信頼度算出手段と、前記動きベクトルに対して、前記信頼度を用いてクラスタリング処理を行うクラスタリング手段とをさらに備え、
    前記動きベクトル検出手段は、前記第1の分割方法における複数の分割領域のそれぞれにおいて着目点を設定し、該着目点に基づいて前記複数の分割領域における動きベクトルを検出し、
    前記領域分割手段は、前記第1の分割方法における複数の分割領域のそれぞれにおいて設定された前記着目点のうち、前記クラスタリング手段により主被写体の動きベクトルが検出されたと判定された着目点の分布に基づいて、前記第1の分割方法における複数の分割領域の大きさを変更することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  10. 前記領域分割手段は、前記推定手段の出力に基づいて得られる目標の動きベクトル数と、前記クラスタリング手段の出力から得られる実際の動きベクトル数との比較に基づいて、前記画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更することを特徴とする請求項8に記載の画像処理装置。
  11. 前記信頼度算出手段は、前記動きベクトルを算出する画像間の相関値の演算の結果に基づいて、前記動きベクトルの信頼度を算出することを特徴とする請求項8に記載の画像処理装置。
  12. 前記信頼度算出手段は、複数の前記動きベクトルの信頼度を加重加算することにより、最終的な動きベクトルの信頼度を算出することを特徴とする請求項11に記載の画像処理装置。
  13. 前記信頼度算出手段は、前記動きベクトルを算出する画像間の相関の最大値が大きくなるにつれて、前記動きベクトルの信頼度を高く算出することを特徴とする請求項11に記載の画像処理装置。
  14. 前記信頼度算出手段は、前記動きベクトルを算出する画像間の相関の最大値と最小値との差分が大きくなるにつれて、前記動きベクトルの信頼度を高く算出することを特徴とする請求項11に記載の画像処理装置。
  15. 前記信頼度算出手段は、前記動きベクトルを算出する画像間の相関の最大値と最小値の差分と、相関の最大値と平均値の差分との比率が大きくなるにつれて、前記動きベクトルの信頼度を高く算出することを特徴とする請求項11に記載の画像処理装置。
  16. 前記信頼度算出手段は、前記動きベクトルを算出する画像間の相関の最大値と、少なくとも一つの相関の極大値との差分が大きくなるにつれて、前記動きベクトルの信頼度を高く算出することを特徴とする請求項11に記載の画像処理装置。
  17. カメラの情報を取得する情報取得工程と、
    前記カメラの情報に基づいて、前記カメラにより撮像された画像における撮影時の着目対象を推定する推定工程と、
    前記画像を、複数種類の分割方法で、それぞれ複数の分割領域に分割する領域分割工程と、
    前記複数種類の分割方法のそれぞれについて、前記複数の分割領域における動きベクトルを検出する動きベクトル検出工程と、を有し、
    前記領域分割工程では、前記推定工程において推定された着目対象に応じて、前記画像を分割する複数種類の分割方法のそれぞれにおける分割領域の大きさ及び分割数の少なくとも一方を変更することを特徴とする画像処理方法。
  18. 請求項17に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
  19. 請求項17に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2017098409A 2017-05-17 2017-05-17 画像処理装置及び画像処理方法、プログラム、記憶媒体 Expired - Fee Related JP7032871B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017098409A JP7032871B2 (ja) 2017-05-17 2017-05-17 画像処理装置及び画像処理方法、プログラム、記憶媒体
US15/980,971 US10839529B2 (en) 2017-05-17 2018-05-16 Image processing apparatus and image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098409A JP7032871B2 (ja) 2017-05-17 2017-05-17 画像処理装置及び画像処理方法、プログラム、記憶媒体

Publications (3)

Publication Number Publication Date
JP2018195084A true JP2018195084A (ja) 2018-12-06
JP2018195084A5 JP2018195084A5 (ja) 2020-07-27
JP7032871B2 JP7032871B2 (ja) 2022-03-09

Family

ID=64271915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098409A Expired - Fee Related JP7032871B2 (ja) 2017-05-17 2017-05-17 画像処理装置及び画像処理方法、プログラム、記憶媒体

Country Status (2)

Country Link
US (1) US10839529B2 (ja)
JP (1) JP7032871B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021096460A (ja) * 2019-12-17 2021-06-24 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム
US12238425B2 (en) 2020-02-25 2025-02-25 Panasonic Intellectual Property Management Co., Ltd. Shutter speed determination device and imaging device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6894707B2 (ja) * 2017-01-06 2021-06-30 キヤノン株式会社 情報処理装置およびその制御方法、プログラム
US10957068B2 (en) 2017-01-06 2021-03-23 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
WO2020128587A1 (en) * 2018-12-20 2020-06-25 Pratik Sharma Intelligent image sensor
CN110047096B (zh) * 2019-04-28 2019-11-22 中南民族大学 一种基于深度条件随机场模型的多目标跟踪方法和系统
KR20210149542A (ko) * 2020-06-02 2021-12-09 삼성에스디에스 주식회사 이미지 촬영 및 판독 방법, 이를 위한 장치
JP2023026919A (ja) * 2021-08-16 2023-03-01 キヤノン株式会社 撮像装置及びその制御方法並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203164A (ja) * 1992-12-28 1994-07-22 Canon Inc 動きベクトル検出装置
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP2015115903A (ja) * 2013-12-13 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、コンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3473064B2 (ja) 1992-11-20 2003-12-02 ソニー株式会社 画像動きベクトル検出装置及びビデオカメラ
JP6147001B2 (ja) * 2012-12-28 2017-06-14 キヤノン株式会社 画像処理装置および画像処理方法
JP6335058B2 (ja) 2013-09-24 2018-05-30 キヤノン株式会社 撮像装置及び撮像方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203164A (ja) * 1992-12-28 1994-07-22 Canon Inc 動きベクトル検出装置
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP2015115903A (ja) * 2013-12-13 2015-06-22 キヤノン株式会社 撮像装置、撮像装置の制御方法、コンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今村 幸祐: "動き情報の時間相関性を考慮したx−meansクラスタリングによる動オブジェクト分割法の精度改善", 情報処理学会研究報告 2012(平成24)年度▲5▼ [CD−ROM], vol. Vol.2012-AVM-79 No.4, JPN6021025090, 15 February 2013 (2013-02-15), JP, pages 1 - 6, ISSN: 0004544046 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021096460A (ja) * 2019-12-17 2021-06-24 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム
JP7710293B2 (ja) 2019-12-17 2025-07-18 キヤノン株式会社 像ブレ補正装置及びその制御方法、プログラム
US12238425B2 (en) 2020-02-25 2025-02-25 Panasonic Intellectual Property Management Co., Ltd. Shutter speed determination device and imaging device

Also Published As

Publication number Publication date
US20180336688A1 (en) 2018-11-22
JP7032871B2 (ja) 2022-03-09
US10839529B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP7032871B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP6894725B2 (ja) 画像処理装置及びその制御方法、プログラム、記憶媒体
WO2019221013A4 (en) Video stabilization method and apparatus and non-transitory computer-readable medium
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
JP6570296B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10708505B2 (en) Image processing apparatus, method, and storage medium
US20190362505A1 (en) Image processing apparatus, method, and storage medium to derive optical flow
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN105516579A (zh) 一种图像处理方法、装置和电子设备
JP2020004219A (ja) 3次元形状データを生成する装置、方法、及びプログラム
WO2014014135A1 (ko) 촬영된 이미지의 리포커싱 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2017076240A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7341712B2 (ja) 画像処理装置、画像処理方法、撮像装置、およびプログラム
JP6854629B2 (ja) 画像処理装置、画像処理方法
JP2020181399A (ja) 画像処理装置及びその制御方法及びプログラム
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2005339535A (ja) 相違度の計算
JP7009253B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6953184B2 (ja) 画像処理装置および画像処理方法
JP6381212B2 (ja) 撮像装置及びその制御方法
JP2019176261A (ja) 画像処理装置
JP6344903B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP7086761B2 (ja) 画像処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200511

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220225

R151 Written notification of patent or utility model registration

Ref document number: 7032871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees