[go: up one dir, main page]

JP2011113197A - 画像検索方法およびシステム - Google Patents

画像検索方法およびシステム Download PDF

Info

Publication number
JP2011113197A
JP2011113197A JP2009267620A JP2009267620A JP2011113197A JP 2011113197 A JP2011113197 A JP 2011113197A JP 2009267620 A JP2009267620 A JP 2009267620A JP 2009267620 A JP2009267620 A JP 2009267620A JP 2011113197 A JP2011113197 A JP 2011113197A
Authority
JP
Japan
Prior art keywords
image
search target
query
corresponding point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009267620A
Other languages
English (en)
Other versions
JP5385105B2 (ja
Inventor
Tomohito Ueno
智史 上野
Masayuki Hashimoto
真幸 橋本
Ryoichi Kawada
亮一 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009267620A priority Critical patent/JP5385105B2/ja
Publication of JP2011113197A publication Critical patent/JP2011113197A/ja
Application granted granted Critical
Publication of JP5385105B2 publication Critical patent/JP5385105B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】窓や柱などの同一形状物を多数備える建物画像のように、似通った形状物を多く備える被写体の画像を比較する場合でも対応点を正確に識別できる画像検索方法およびシステムを提供する。
【解決手段】図10(a)のクエリ画像Iqおよび図10(b)の類似画像候補(街並画像)Iwcのペアからは2組の対応点候補[q1,w1]および[q2,w2]が抽出されている。一方の対応点候補[q1,w1]については、クエリ画像Iq側の対応点q1の縦位置が出現パターン[N1-N2-N3…]のN1の位置であるのに対して、類似画像候補Iwc側の対応点w1はN3の位置であり、両者はズレ量が多いので破棄される。他方の対応点候補[q2,w2]については、クエリ画像Iq側の対応点q1の縦位置が出現パターン[N1-N2-N3…]のN2の位置であり、類似画像候補Iwc側の対応点w2も同様にN2の位置であり、両者は距離が近いので対応点とされる。
【選択図】図10

Description

本発明は、クエリ画像に類似した画像を多数の検索対象画像の中から検索する画像検索方法およびシステムに係り、特に各画像の局所特徴量同士を比較して画像間の類似性を判断する画像検索方法およびシステムに関する。
建物などの剛体を撮影した画像をロバストに検出する手法の一つとして、非特許文献1にSIFT(Scale Invariant Feature Transform)が開示されている。このSIFTでは、クエリ画像および検索対象画像の双方から予め局所特徴量が抽出され、各画像の局所特徴量間のユークリッド距離Lに基づいて最近傍探索が実行される。そして、距離の近い局所特徴量同士が対応点ペアとされ、最終的に対応点ペアの多い検索対象画像が検索結果とされる。
David G. Lowe,"Distinctive image features from scale-invariant keypoints" International Journal of Computer Vision, 60, 2 (2004), pp.91-110.
建築構造物、特にビルディングのように窓、柱あるいは壁などの直線を基調とする構成要素が一様に組み合わされる建物の画像では、これら構成要素の形状に建物間でのオブジェクト相違が小さい。したがって、異なる建物の画像同士を比較した場合でも、窓部等の局所特徴量は近い値を示してしまい、個々の対応点が実際に正しい対応点を示さない場合があった。すなわち、建物画像同士の比較では建物以外の画像同士を比較する場合に較べて対応点を誤認する場合があった。
また、対応点の一部が誤認であっても、同一の建物画像間での誤認であれば、対応点に基づいてクエリ画像と同一の建物を含む類似画像を検索対象の中から検索できる場合がある。しかしながら、検索結果の類似画像からクエリ画像の撮影位置すなわちユーザ位置を各対応点に基づいてさらに特定しようとすると、誤認された対応点の影響により撮影位置を正確に推定することができないことがあった。
本発明の目的は、上記した従来技術の課題を解決し、窓や柱などの同一形状物を多数備える建物画像のように、似通った形状物を多く備える被写体の画像を比較する場合でも対応点を高い確度で識別できる画像検索方法およびシステムを提供することにある。
上記の目的を達成するために、本発明は、クエリ画像に類似した画像を検索対象画像の集合から検索する画像検索システムにおいて、以下のような手段を講じた点に特徴がある。
(1)クエリ画像および各検索対象画像を、その被写体の平行成分が画像上でも平行となるように幾何変換する手段と、クエリ画像および各検索対象画像の特徴点から局所特徴量を抽出する局所特徴量抽出手段と、クエリ画像および検索対象画像の各特徴点から抽出した局所特徴量を比較し、類似度が上位の特徴点を対応点候補として抽出する対応点候補抽出手段と、幾何変換されたクエリ画像および検索対象画像からエッヂ成分を抽出する手段と、クエリ画像および各検索対象画像からエッヂ成分の出現パターンを検出する手段と、エッヂ成分の出現パターンに基づいて、前記対応点候補から対応点を抽出する対応点抽出手段と、抽出された対応点に基づいて、クエリ画像に類似した検索対象画像を決定する類似画像決定手段とを具備したことを特徴とする。
(2)対応点候補抽出手段は、クエリ画像の特徴点ごとに、各検索対象画像から類似度が上位Nベストの特徴点を抽出する手段と、Nベスト特徴点の局所特徴量をクエリ画像の対応する特徴点の局所特徴量と比較し、局所領域のスケールおよびオリエンテーションの差分で定義されるプロットの分布を算出する手段と、プロットの分布に基づいて、対応点としての尤度が高い複数の特徴点ペアを対応点候補として抽出する手段とを具備し、各プロットには、クエリ画像および各検索対象画像の各特徴点の局所特徴量の類似度に応じた重み値が付与されていることを特徴とする。
本発明によれば、以下のような効果が達成される。
(1)クエリ画像および各検索対象画像から抽出したエッジ成分に基づいてクエリ画像および各検索対象画像のエッヂ成分に関する出現パターンを検出し、この出現パターンに基づいて、各対応点候補のクエリ画像Iq側の位置と検索対象画像Iw(k)側の位置とのズレ量を算出し、ズレ量が小さい対応点候補のみが真の対応点とされるようにしたので、対応点以外を対応点と判定してしまう誤りを防止できるようになる。
(2)クエリ画像Iqおよび各検索対象画像Iwからエッヂ成分に関する出現パターンを検出する前に、クエリ画像Iqおよび各検索対象画像Iwに対して、その被写体の平行成分が画像上でも平行となるように幾何変換するようにしたので、エッヂ成分に関する出現パターンの検出精度を向上させることができる。
(3)クエリ画像Iqの各特徴点と局所特徴量が類似したNベストの特徴点を各検索対象画像から抽出する際、各画像の特徴点間の局所特徴量に関する類似性を「オリエンテーションの角度差」および「スケール比」の2つのパラメータで定義されるプロットの分布で表すと共に、各プロットに各局所特徴量間の類似度に関するユークリッド距離に依存した重み値を付与するようにしたので、局所特徴量間の類似性を前記プロットの分布から正確に求められるようになる。
本発明の画像検索システムを適用した位置案内システムのブロック図である。 対応点抽出部304のブロック図である。 相違分布の算出方法を模式的に示した図である。 相違分布の一例を示した図である。 対応点候補の抽出方法の一例を示した図である。 対応点候補の抽出方法の他の一例を示した図である。 画像補正部407による幾何変換を説明するための図である。 領域分割部408による領域分割を説明するための図である。 エッジ出現パターンの検出方法を示した図である。 エッジ出現パターンに基づく対応点候補の評価方法を示した図である。 本発明の一実施形態の動作を示したメインフローである。 対応点候補抽出処理の手順を示したフローチャートである。 対応点抽出処理の手順を示したフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。図1は、本発明の画像検索システムが適用される位置案内システムの主要部の構成を示したブロック図であり、ここでは、本発明の説明に不要な構成は図示が省略されている。
位置案内システムは、車両等の移動体に搭載されて街並みを全方位カメラで撮影する撮影装置1と、撮影された静止画像から検索対象となる多数の街並画像Iwを生成し、さらに各街並画像Iwから局所特徴量fwを抽出してデータベース化すると共に、ユーザ端末2で撮影された目印画像(クエリ画像Iq)に類似した街並画像Iwを前記データベースから検索する画像検索部3と、クエリ画像Iqに最も類似した街並画像Iw(best)に基づいてユーザの現在位置を推定し、これをユーザ端末2へ応答する位置推定部4とを主要な構成としている。
前記撮影装置1において、全方位カメラ101は多数の撮像部を備えて全方位の静止画像を撮影する。位置検知部102は、撮影タイミングの現在位置(撮影位置)を、例えば複数のGPS信号により測位する。撮影された各静止画像は、その撮影位置の情報と紐付けられて画像蓄積部103に次々と蓄積される。なお、例えばGoogle マップのストリートビューのように、街並画像Iwを撮影して構築された外部のデータベースを利用できるならば、前記撮影装置1に代えて、このような既存の外部データベースから街並画像を取得するようにしても良い。
画像検索部3において、街並画像生成部301は、前記全方位カメラ101で撮影された多数の静止画像に基づいてパノラマ画像を生成し、このパノラマ画像から所定の規則で多数の画像を街並画像Iw(k)として切り出す。符号kは各街並画像Iwの識別子である。
局所特徴量抽出部302は、クエリ画像Iqおよび各街並画像Iw(k)の各特徴点i,jを基準にして局所特徴量fq(i),fw(k,j)を抽出する。本実施形態では、SIFTを利用して特徴点の抽出および対応付けが行われる。局所領域の特定には、非特許文献1に開示されているDifference of Gaussian (DoG)によるスケールスペース内の極値に基づく特徴点抽出が用いられる。この特徴点抽出の結果、特徴点の位置およびその局所領域の範囲(スケール)が算出され、この局所領域の特徴記述子として、輝度勾配の方向ヒストグラムが用いられる。
このような方向ヒストグラムは、特徴領域の各ピクセルの輝度勾配を算出し、それに重みを付けてヒストグラムを生成し、最も多いbin領域の方向を基準にして、その方向に特徴領域の回転(オリエンテーション)を行い、再度輝度方向の方向ヒストグラムを作成し、さらに前記ヒストグラムをブロックに分割し、各ブロック内で方向ヒストグラムを算出し、これを正規化してベクトル化することにより得られる。本実施形態では、ブロック内の輝度方向を8方向、対象領域内を16分割しているため、一つの特徴記述子は8*16=128次元となる。
これら特徴記述子の特徴として、局所領域の特徴を生成するのでオクルージョンに耐性があり、特徴点に対してスケールを決定するので画像サイズに不変であり、また輝度勾配に基づき画像平面内でオリエンテーションを行うので、画像平面に対する回転に不変であることなどが挙げられる。さらに、エッヂ成分を利用しているので輝度変化に耐性がある。このような特徴点検出が画像の全てのピクセルに対して行われるが、ある特徴点が極値を取った場合でも特徴点として不適な場合は特徴領域から除外される。
本実施形態では、クエリ画像Iqの各局所特徴量fq(i)が次式(1)で表される。pq(i)は同次座標で表した特徴点の位置、op(i)は特徴点のオリエンテーション、σq(i)は特徴点が発見されたスケール、dq(i)は特徴記述子であり、符号iはクエリ画像Iqの特徴点識別子である。
fq(i)={pq(i),op(i), σq(i),dq(i)} ・・・(1)
同様に、各街並画像Iw(k)の局所特徴量fw(k,j)は次式(2)で表される。pw(k,j)は同次座標で表した特徴点の位置、ow(k,j)は特徴点のオリエンテーション、σw(k,j)は特徴点が発見されたスケール、dw(k,j)は特徴記述子であり、符号jは街並画像Iw(k)の特徴点識別子である。
fw(k,j)={pw(k,j),ow(k,j),σw(k,j),dw(k,j)} ・・・(2)
このようにして抽出された局所特徴量fw(k,j)は、その街並画像Iw(k)と共に画像データベース303に蓄積される。
対応点抽出部304は、後に詳述するように、クエリ画像Iqの各局所特徴量fq(i)を各街並画像Iw(k)の各局所特徴量fw(k,j)と比較して対応点候補を求めると共に、この対応点候補の数に基づいて各街並画像Iw(k)から類似画像候補Iwc(k)を抽出し、さらに各類似画像候補Iwc(k)の対応点候補を、クエリ画像Iqおよび各類似画像候補Iwc(k)の幾何拘束の条件に基づいて尤度の高い真の対応点まで絞り込む。
類似画像決定部305は、対応点が最も多い各類似画像候補Iwc(k)を抽出し、これを検索結果Iw(best)として出力する。あるいは更に、前記抽出された複数の対応点を利用して射影変換を行い、このうち、射影変換できた対応点の個数が最も多い各類似画像候補Iwc(k)を検索結果Iw(best)とするようにしても良い。
位置推定部4は、クエリ画像Iqおよび当該クエリ画像Iqに最も類似する街並画像Iw(best)に基づいてユーザの撮影位置および撮影方向を推定し、これをユーザ端末2へ応答する。
図2は、前記対応点抽出部304の主要部の構成を示したブロック図であり、前記と同一の符号は同一または同等の内容を示している。
検索範囲絞込部401は、ユーザ端末2のGPSシステムにより測位されているユーザの現在位置に基づいて街並画像Iw(k)の検索範囲を予め絞り込む。Nベスト抽出部402は、クエリ画像Iqの各特徴点の局所特徴量と前記検索範囲内の全ての街並画像Iw(k)の各特徴点の局所特徴量とを比較し、クエリ画像Iqの特徴点ごとに、各街並画像Iw(k)から局所特徴量の類似度が高い上位N個の特徴点をNベスト特徴点として抽出する。したがって、クエリ画像Iqにm個の特徴点が設定されていれば、(m×N)個のNベスト特徴点が、前記検索範囲内の街並画像Iw(k)から抽出されることになる。
本実施形態では、クエリ画像Iqの各特徴点について、全ての街並画像Iw(k)の各特徴点を対象に局所特徴量の最近傍探索が行われ、街並画像Iw(k)ごとに、局所特徴量間の距離に基づいて類似度が算出される。本実施形態では、各特徴点の局所特徴量fq(i),fw(k,j)間の類似度が、次式(3)で与えられる各特徴記述子dq(i),dw(k,j)間のユークリッド距離Lで代表される。
L=|dq(i)−dw(k,j)| ・・・(3)
相違分布算出部403は、Nベスト特徴点の局所特徴量をクエリ画像Iqの対応する特徴点の局所特徴量と比較し、各局所領域の相違に関する分布を算出する。本実施形態では、初めに局所領域のスケール比(または差)、およびオリエンテーションの角度差(または角度比)に関する分布が算出される。
次いで、図3に一例を示したように、Nベスト特徴点ごとに、その局所特徴量とクエリ画像Iqの対応する局所特徴量との局所領域(スケール)のサイズ比およびオリエンテーションの角度差を算出して対応付け、これを全てのNベスト特徴点について実施して仮想的な二次元空間上にプロットすることにより、図4に一例を示した相違分布を算出する。
なお、本実施形態では各プロットに前記ユークリッド距離Lに基づく重み値が設定されている。すなわち、前記ユークリッド距離Lの短いNベスト特徴点ほど大きな重み値が付与される。図4に示した例では、各プロットの重み値が便宜的にプロットの大きさで代表されている。
図2へ戻り、対応点候補抽出部404は、前記相違分布に基づいて、対応点としての尤度が高い複数の対応点候補を抽出する。
図5は、対応点候補の抽出方法の一例を示した図であり、本実施形態では、分布密度の最も高い位置を中心に所定の範囲内に存在するNベスト特徴点が対応点候補とされ、それ以外のNベスト特徴点はノイズとして除去される。なお、前記分布密度に基づいて対応点候補を抽出する方法は上記に限定されるものではなく、図6に一例を示したように、前記相違分布をクラスタリングし、各クラスタから大きく外れるNベスト特徴点を除去し、残りを対応点候補とするようにしても良い。
図2へ戻り、類似画像候補抽出部405は、対応点候補の多い上位M個の街並画像Iwを類似画像候補Iwcとして抽出する。正規化部406は、各類似画像候補Iwc(k)の大きさを、その対応点候補の局所特徴量fwc(k)のスケール比等に基づいて正規化する。
画像補正部407は、各類似画像候補Iwc(k)およびクエリ画像Iqから水平成分および垂直成分を抽出し、各成分に基づいて消失点を抽出することで撮影の視点方向を求めると共に、この視点方向に基づいて、被写体の平行線が画像上でも平行となるように各画像に幾何変換を実施する。これ以後、幾何変換により被写体の平行線が画像上でも平行とされている画像を「平面化画像」と表現する場合もある。
図7は、前記画像補正部407において、被写体の平行線が画像上でも平行となるようにクエリ画像Iqおよび各類似画像候補Iwc(k)に対して実行される幾何変換を説明するために図であり、同図(a)は幾何変換の対象となる原画像を示している。
本実施形態では、初めにクエリ画像Iqおよび各各類似画像候補Iwc(k)を対象に、Canny法[J. Canny:"A computational approach to edge detection,"IEEE Transactions on Pattern Analysis and Machine Intelligence, 8(6), November 1986]を適用することでエッヂが検出される。次いで、前記検出されたエッヂを対象にHough変換[Duda, R. O. and P. E. Hart, "Use of the Hough Transformation to Detect Lines and Curves in Pictures," Comm. ACM, Vol. 15, pp. 11-15 (January, 1972).]が実行され、同図(b)に示したように垂直成分および水平成分のエッヂが抽出される。
次いで、無限平面を有限の変形領域に変換する消失点抽出方法[松藤,齋藤:" 無限平面内での消失点抽出,"情報処理学会研究報告,Vol.99, No.70, pp.25-30, 1999]に基づいて、同図(c)に示したように消失点が求められる。次いで、この消失点に基づいて撮影時の視点方向が求められ、この視点方向に基づいて各画像が幾何変換されることにより、同図(d)に示したように、被写体の平行線が画像上でも平行な平面化画像が得られる。
領域分割部408は、クエリ画像Iqおよび各類似画像候補Iwc(k)を領域分割し、画像認識に不適な領域を予め検索対象から除外する。図8は、前記領域分割部408による領域分割の様子を示した図であり、本実施形態では、(1)道路領域の白線、(2)車や樹木などの移動体あるいは形態が変化する物体、のように、対応点検出に悪影響を及ぼす物体の領域が、同図(a)の原画像から予め除外される。
本実施形態では、初めに学習用の街並画像に対して手動で領域のラベリングが行われ、画像内の各領域が、例えば建物・空・道路・車・人・植物といった複数のカテゴリに分類される。次いで、各領域内のSIFT特徴点を利用して学習が行われ、この学習データを利用して、クエリ画像Iqおよび各類似画像候補Iw(k)が複数のブロックに分割されると共に、各ブロックがいずれかのカテゴリに分類される。この学習には、例えばSVM(Support Vector Machine)を利用できる。このような領域分割により、同図(b)に示したように、移動体や季節によって変化する物体、あるいは似たような形状が多い道路の白線などの、対応点検出に悪影響を及ぼす物体の領域が検索対象から予め除外され、四角枠で示した領域のみが検索対象とされることになる。
エッヂ検出部409は、クエリ画像Iqおよび各類似画像候補Iwc(k)からエッヂ成分を検出する。垂直エッヂ抽出部410は、各エッヂ成分から垂直エッヂを抽出する。エッヂ出現パターン検出部411は、クエリ画像Iqおよび各類似画像候補Iwc(k)の垂直エッヂの出現パターンを検出する。
対応点抽出部412は、対応点候補が抽出されているクエリ画像Iqおよび類似画像候補Iwc(k)の画像ペアについて、各対応点候補のクエリ画像側の位置と類似画像候補側の位置とのズレ量を、各画像の垂直エッヂの出現パターンに基づいて算出するズレ量算出部412aを具備し、このズレ量の算出結果に基づいて、前記対応点候補から真の対応点を抽出する。
図9は、前記エッヂ検出および垂直エッヂ抽出により得られた垂直エッヂの一例を示した図であり、窓が配置されている領域では多数の垂直エッヂが検出されている。このような垂直エッヂの出現パターンは各建物に固有なので、本実施形態ではクエリ画像Iqおよび各類似画像候補Iwc(k)に関して、前記エッヂ出現パターン検出部411により、所定の単位間隔で垂直エッヂ数Nxが計数され、さらに垂直エッヂの出現パターン[N1-N2-N3-N4…]が検出される。
前記対応点抽出部412は、クエリ画像Iqおよび各類似画像候補Iwc(k)のエッヂ出現パターンに基づいて各画像間の相対的な位置関係を把握し、各対応点候補のズレ量を検出する。そして、ズレ量の小さい対応点候補を真の対応点とする一方、ズレ量の多い対応点候補を誤対応として破棄する。
図10は、前記垂直エッヂの出現パターンに基づいて対応点候補を評価し、真の対応点を抽出する方法を説明するための図であり、同図(a)はクエリ画像Iqの一例を示しており、同図(b)は当該クエリ画像Iqとの間で対応点候補が抽出されている類似画像候補Iwc(k)の一例を示している。ここでは、図面を見やすくするために垂直エッヂの表示が省略されている。
図10では、対応点候補が抽出されているクエリ画像Iqおよび類似画像候補Iwcのペア(以下、対応画像ペアと表現する場合もある)間で2組の対応点候補[q1,w1]および[q2,w2]が抽出されている。そして、一方の対応点候補[q1,w1]については、クエリ画像Iq側の対応点q1の縦位置が出現パターン[N1-N2-N3-N4…]のN1の位置であるのに対して、類似画像候補Iwc側の対応点w1の縦位置は出現パターン[N1-N2-N3-N4…]のN2〜N3の位置であり、両者はズレ量が多いので破棄される。
これに対して、他方の対応点候補[q2,w2]については、クエリ画像Iq側の対応点q1の縦位置が出現パターン[N1-N2-N3-N4…]のN2の位置であり、類似画像候補Iw側の対応点w2の縦位置も同様に出現パターン[N1-N2-N3-N4…]のN2の位置であり、両者は距離が近いので対応点とされる。
図1へ戻り、類似画像決定部305は、以上のようにして抽出された真の対応点が最も多い類似画像候補Iwc(k)を抽出し、これを検索結果Iw(best)として出力する。あるいは更に、前記抽出された複数の対応点を利用して射影変換を行い、このうち、射影変換できた対応点の個数が最も多い類似画像候補Iwc(k)を検索結果Iw(best)とするようにしても良い。
前記位置推定部4は、前記検索結果の街並画像Iw(best)と類似する街並画像を前記データベース303から抽出する。本実施形態では、検索対象の街並画像が道路に沿って離散的に撮影されているので、街並画像Iw(best)の両隣の街並画像Iw(best-1),Iw(best+1)のうち、前記街並画像Iw(best)により類似する一方(ここでは、例えばIw(best-1)がデータベース303から抽出される。次いで、これら2つの画像Iq,Iw(best-1)の対応点が上記と同様に検出されてエピポーラ拘束が算出され、撮影位置が既知の2枚の画像Iq,Iw(best-1)から特徴点の3次元位置が推定される。
未知の空間上の点X を画像Iw(best)に射影した点x = [u v 1]T と画像Iw(best-1)に射影した点x'= [u' v' 1]T とには次式(4)の関係が成立する。
xTFx'= 0 … (4)
これはエピポーラ拘束と呼ばれ、F は基礎行列である。上記関係に基づいて街並画像のデータベース内での対応点の3次元位置が推定されたのち、クエリ画像Iqと街並画像Iw(best)とに関しても同様に対応関係が算出され、これに基づいてユーザ位置が推定される。
次いで、フローチャートを参照して本発明の一実施形態の動作を詳細に説明する。図11は、本発明の一実施形態の動作を示したメインフローであり、主に前記対応点抽出部304の動作を示している。
ステップS1では、ユーザ端末2からクエリ画像Iqと共に受信されている当該ユーザ端末2の現在位置に基づいて、前記検索範囲絞込部401により街並画像Iwの検索範囲がユーザ位置近傍に予め絞り込まれる。ステップS2では、前記Nベスト抽出部402により、クエリ画像Iqの各特徴点の局所特徴量と各街並画像Iw(k)の各特徴点の局所特徴量とがクエリ画像Iqおよび街並画像Iw(k)の組み合わせ毎に比較され、クエリ画像Iqの特徴点ごとに、局所特徴量が類似するNベストの特徴点が各街並画像Iw(k)から抽出される。ステップS3では、前記Nベスト特徴点の中から対応点候補が抽出される。
図12は、前記対応点候補の抽出手順を示したフローチャートであり、主に前記違分布算出部403および対応点候補抽出部404の動作を示している。
ステップS101では、前記検索範囲内の街並画像Iw(k)の一つが今回の注目画像として選択される。ステップS102では、今回の街並画像Iwから抽出されているNベスト特徴点の一つに注目し、これに対応するクエリ画像Iqの特徴点が取得される。ステップS103では、前記取得された各特徴点の局所特徴量同士が比較され、そのサイズ比およびオリエンテーションの角度差が算出される。ステップS104では、前記図3を参照して説明したように、今回のNベスト特徴点が、前記サイズ比およびオリエンテーション角度差に基づいて仮想的な二次元空間にプロットされる。
ステップS105では、今回の街並画像Iwから抽出されている全てのNベスト特徴点に関して上記のプロットが完了したか否かが判定される。完了していなければステップS102へ戻り、残りのNベスト特徴点について同様の手順が繰り返される。
全てのNベスト特徴点に関してプロットが完了し、前記図4の相違分布が完成するとステップS106へ進み、分布密度の最大位置が検出(図5)され、あるいはクラスタリングが実施(図6)される。ステップS107では、前記分布密度に基づいて所定の範囲内のNベスト特徴点が対応点候補とされ、それ以外のNベスト特徴点は誤対応のノイズとして破棄される。
図11へ戻り、ステップS4では、前記類似画像候補決定部405において、対応点候補が多い上位M個の街並画像Iw(k)が抽出され、これが類似画像候補Iwcとして出力される。ステップS5では、前記M個の類似画像候補Iwcを対象に改めて対応点探索が実行され、真の対応点が抽出される。
図13は、前記M個の類似画像候補Iwcから真の対応点を抽出する処理の手順を示したフローチャートであり、主に前記対応点抽出部412の動作を示している。
ステップS201では、類似画像候補Iwcの一つが今回の注目画像として選択される。ステップS202では、今回の注目画像Iwcから抽出されている対応点候補の一つが今回の注目候補として選択される。ステップS203では、今回の注目画像Iwcの対応点候補の一つと当該対応点候補と対応するクエリ画像Iq側の特徴点とのズレ量が、前記エッヂ出現パターン検出部411により別途に検出されているエッヂ出現パターンに基づいて検出される。ステップS204では、前記ズレ量の算出結果が所定の許容範囲内であるか否かが判定され、許容範囲外であればステップS205へ進み、誤対応点と判定されて破棄される。
ステップS206では、今回の注目画像Iwcから抽出されている全ての対応点候補に関して上記の処理が完了したか否かが判定される。完了していなければステップS202へ戻り、注目する対応点候補を切り替えながら上記の処理が繰り返される。今回の注目画像Iwcの全ての対応点候補に関して上記の処理が完了するとステップS207へ進み、破棄されることなく残っている全ての対応点候補が真の対応点とされる。ステップS208では、全ての類似画像候補Iwcに関して上記の処理が完了したか否かが判定され、完了していなければステップS201へ戻り、注目する類似画像候補Iwcを切り替えながら上記の各処理が繰り返される。
前記類似画像決定部305は、対応点が最も多い類似画像候補Iwc(k)を抽出し、これを検索結果Iw(best)として出力する。あるいは更に、前記抽出された複数の対応点を利用して射影変換が行われ、このうち、射影変換できた対応点の個数が最も多い類似画像候補Iwc(k)が検索結果Iw(best)として出力される。
1…撮影装置,2…ユーザ端末,3…画像検索部,4…位置推定部,101…全方位カメラ,102…位置検知部,103…画像蓄積部,301…街並画像生成部,302…局所特徴量抽出部,303…データベース,304…対応点抽出部,305…類似画像決定部,401…検索範囲絞込部,402…Nベスト抽出部,403…相違分布算出部,404…対応点候補抽出部,405…類似画像候補抽出部,406…正規化部,407…画像補整部,408…領域分割部,409…エッヂ検出部,410…垂直エッヂ抽出部,411…エッヂ出現パターン検出部,412…対応点抽出部

Claims (5)

  1. クエリ画像に類似した画像を検索対象画像の集合から検索する画像検索システムにおいて、
    クエリ画像および各検索対象画像の特徴点から局所特徴量を抽出する局所特徴量抽出手段と、
    クエリ画像および各検索対象画像を、その被写体の平行成分が画像上でも平行となるように幾何変換する手段と、
    前記クエリ画像および検索対象画像の各特徴点から抽出した局所特徴量を比較し、類似度が上位の特徴点を対応点候補として抽出する対応点候補抽出手段と、
    前記幾何変換されたクエリ画像および検索対象画像からエッヂ成分の出現パターンを検出する手段と、
    対応点候補が抽出されているクエリ画像および検索対象画像のペアについて、各対応点候補のクエリ画像側の位置と検索対象画像側の位置とのズレ量を、各画像のエッヂ成分の出現パターンに基づいて算出する手段と、
    前記ズレ量の算出結果に基づいて、前記対応点候補から対応点を抽出する対応点抽出手段と、
    前記抽出された対応点に基づいて、クエリ画像に類似した検索対象画像を決定する類似画像決定手段とを具備したことを特徴とする画像検索システム。
  2. 前記対応点候補抽出手段は、
    クエリ画像の特徴点ごとに、各検索対象画像から類似度が上位Nベストの特徴点を抽出する手段と、
    前記Nベスト特徴点の局所特徴量をクエリ画像の対応する特徴点の局所特徴量と比較し、局所領域のスケールおよびオリエンテーションの差分で定義されるプロットの分布を算出する手段と、
    前記プロットの分布に基づいて、対応点としての尤度が高い複数の特徴点ペアを対応点候補として抽出する手段とを具備し、
    前記各プロットには、クエリ画像および各検索対象画像の各特徴点の局所特徴量の類似度に応じた重み値が付与されていることを特徴とする請求項1に記載の画像検索システム。
  3. 前記幾何変換する手段は、
    クエリ画像および各検索対象画像から直線成分を抽出する手段と、
    前記直線成分に基づいて消失点を検知する手段とを具備し、
    前記消失点に基づいて各画像の視点方向を算出する手段とを具備し、
    前記指定方向に基づいて、被写体の平行成分が画像上でも平行となるように各画像が幾何変換されることを特徴とする請求項1または2に記載の画像検索システム。
  4. 前記検索対象画像が、建物が被写体となる街並画像であることを特徴とする請求項1ないし3のいずれかに記載の画像検索システム。
  5. クエリ画像に類似した画像を検索対象画像の集合から検索する画像検索方法において、
    クエリ画像および各検索対象画像を、その被写体の平行成分が画像上でも平行となるように幾何変換する手順と、
    クエリ画像および各検索対象画像の特徴点から局所特徴量を抽出する手順と、
    前記クエリ画像および検索対象画像の各特徴点から抽出した局所特徴量を比較し、類似度が上位の特徴点を対応点候補として抽出する手順と、
    前記幾何変換されたクエリ画像および検索対象画像からエッヂ成分の出現パターンを検出する手順と、
    対応点候補が抽出されているクエリ画像および検索対象画像のペアについて、各対応点候補のクエリ画像側の位置と検索対象画像側の位置とのズレ量を、各画像のエッヂ成分の出現パターンに基づいて算出する手順と、
    前記ズレ量の算出結果に基づいて、前記対応点候補から対応点を抽出する手順と、
    前記抽出された対応点に基づいて、クエリ画像に類似した検索対象画像を決定する手順とを含むことを特徴とする画像検索方法。
JP2009267620A 2009-11-25 2009-11-25 画像検索方法およびシステム Expired - Fee Related JP5385105B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009267620A JP5385105B2 (ja) 2009-11-25 2009-11-25 画像検索方法およびシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009267620A JP5385105B2 (ja) 2009-11-25 2009-11-25 画像検索方法およびシステム

Publications (2)

Publication Number Publication Date
JP2011113197A true JP2011113197A (ja) 2011-06-09
JP5385105B2 JP5385105B2 (ja) 2014-01-08

Family

ID=44235500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009267620A Expired - Fee Related JP5385105B2 (ja) 2009-11-25 2009-11-25 画像検索方法およびシステム

Country Status (1)

Country Link
JP (1) JP5385105B2 (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097645A (ja) * 2011-11-02 2013-05-20 Fujitsu Ltd 認識支援装置、認識支援方法、およびプログラム
WO2013147170A1 (ja) 2012-03-29 2013-10-03 楽天株式会社 画像検索装置、画像検索方法、プログラムおよびコンピュータ読取り可能な記憶媒体
WO2014027500A1 (ja) * 2012-08-15 2014-02-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 特徴抽出方法、プログラム及びシステム
WO2014030399A1 (ja) * 2012-08-23 2014-02-27 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
WO2014030400A1 (ja) * 2012-08-23 2014-02-27 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
JP2014102772A (ja) * 2012-11-22 2014-06-05 Kddi Corp 特徴ベクトルの集合で表されるコンテンツ間の類似度を算出するプログラム、装置及び方法
JP2015504215A (ja) * 2012-01-02 2015-02-05 テレコム・イタリア・エッセ・ピー・アー 画像を比較するための方法およびシステム
WO2015099016A1 (ja) * 2013-12-26 2015-07-02 日本電気株式会社 画像処理装置、被写体識別方法及びプログラム
US9588991B2 (en) 2011-09-16 2017-03-07 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
CN107644022A (zh) * 2016-07-21 2018-01-30 联想移动通信科技有限公司 一种地理位置搜索方法、移动终端及服务器
JP2018036760A (ja) * 2016-08-30 2018-03-08 株式会社リコー 画像管理システム、画像管理方法、及びプログラム
US9940366B2 (en) 2012-03-29 2018-04-10 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
CN111563181A (zh) * 2020-05-12 2020-08-21 海口科博瑞信息科技有限公司 数字图像文件查询方法、装置及可读存储介质
JP2022114957A (ja) * 2021-01-27 2022-08-08 株式会社竹中工務店 モチーフ類似度計算装置、及びモデル学習装置
JP2022149076A (ja) * 2021-03-25 2022-10-06 Kddi株式会社 位置推定装置、方法及びプログラム
JP2023509105A (ja) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法
CN115761492A (zh) * 2022-11-18 2023-03-07 苏州空天信息研究院 一种基于空间自注意力的地标检索识别与定位方法
JP2024042806A (ja) * 2022-09-16 2024-03-29 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346651A (ja) * 2004-06-07 2005-12-15 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2006031567A (ja) * 2004-07-20 2006-02-02 Chuden Gijutsu Consultant Kk 建造物画像検索システム
JP2006214893A (ja) * 2005-02-04 2006-08-17 Iwate Univ 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
JP2008287438A (ja) * 2007-05-16 2008-11-27 Canon Inc 画像処理装置及び画像検索方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346651A (ja) * 2004-06-07 2005-12-15 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2006031567A (ja) * 2004-07-20 2006-02-02 Chuden Gijutsu Consultant Kk 建造物画像検索システム
JP2006214893A (ja) * 2005-02-04 2006-08-17 Iwate Univ 対象物測定方法及びコンピュータシステムを用いて対象物の三次元形状を計測するためのコンピュータソフトウエアプログラム
JP2008287438A (ja) * 2007-05-16 2008-11-27 Canon Inc 画像処理装置及び画像検索方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNG200600533003; 児玉真吾, 外2名: '"屋外拡張現実感のための縦方向の直線エッジを用いたパノラマ画像との位置合わせ"' 情報処理学会研究報告 第2006巻, 第3号, 20060113, p.17-23, 社団法人情報処理学会 *
CSNG201000143018; 上野智史, 外3名: '"SIFTを用いた都市環境の建物画像検索によるユーザ位置・方向推定手法に関する一検討"' 電子情報通信学会技術研究報告 第109巻, 第306号, 20091119, p.127-132, 社団法人電子情報通信学会 *
JPN6013029872; 上野智史, 外3名: '"SIFTを用いた都市環境の建物画像検索によるユーザ位置・方向推定手法に関する一検討"' 電子情報通信学会技術研究報告 第109巻, 第306号, 20091119, p.127-132, 社団法人電子情報通信学会 *
JPN6013029874; 児玉真吾, 外2名: '"屋外拡張現実感のための縦方向の直線エッジを用いたパノラマ画像との位置合わせ"' 情報処理学会研究報告 第2006巻, 第3号, 20060113, p.17-23, 社団法人情報処理学会 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9588991B2 (en) 2011-09-16 2017-03-07 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
JP2013097645A (ja) * 2011-11-02 2013-05-20 Fujitsu Ltd 認識支援装置、認識支援方法、およびプログラム
KR101833953B1 (ko) 2012-01-02 2018-03-02 텔레콤 이탈리아 소시에떼 퍼 아찌오니 이미지들을 비교하는 방법 및 시스템
JP2015504215A (ja) * 2012-01-02 2015-02-05 テレコム・イタリア・エッセ・ピー・アー 画像を比較するための方法およびシステム
US9940366B2 (en) 2012-03-29 2018-04-10 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
WO2013147170A1 (ja) 2012-03-29 2013-10-03 楽天株式会社 画像検索装置、画像検索方法、プログラムおよびコンピュータ読取り可能な記憶媒体
US9747305B2 (en) 2012-03-29 2017-08-29 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
US9020196B2 (en) 2012-08-15 2015-04-28 International Business Machines Corporation Extracting feature quantities from an image to perform location estimation
GB2519266B (en) * 2012-08-15 2015-08-26 Ibm Feature extraction method, program and system
WO2014027500A1 (ja) * 2012-08-15 2014-02-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 特徴抽出方法、プログラム及びシステム
GB2519266A (en) * 2012-08-15 2015-04-15 Ibm Feature extraction method, program and system
JP5878634B2 (ja) * 2012-08-15 2016-03-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 特徴抽出方法、プログラム及びシステム
US9087268B2 (en) 2012-08-15 2015-07-21 International Business Machines Corporation Extracting feature quantities from an image to perform location estimation
JPWO2014030399A1 (ja) * 2012-08-23 2016-07-28 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
WO2014030399A1 (ja) * 2012-08-23 2014-02-27 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
TWI505201B (zh) * 2012-08-23 2015-10-21 Nec Corp Object recognition device, object recognition method and program product
US20150220810A1 (en) * 2012-08-23 2015-08-06 Nec Corporation Object identification apparatus, object identification method, and program
JPWO2014030400A1 (ja) * 2012-08-23 2016-07-28 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
CN104584073A (zh) * 2012-08-23 2015-04-29 日本电气株式会社 物体识别装置、物体识别方法、以及程序
WO2014030400A1 (ja) * 2012-08-23 2014-02-27 日本電気株式会社 物体識別装置、物体識別方法、及びプログラム
CN104584073B (zh) * 2012-08-23 2017-04-05 日本电气株式会社 物体识别装置和物体识别方法
US9679221B2 (en) 2012-08-23 2017-06-13 Nec Corporation Object identification apparatus, object identification method, and program
CN104584071B (zh) * 2012-08-23 2018-01-26 日本电气株式会社 物体识别装置、物体识别方法
JP2014102772A (ja) * 2012-11-22 2014-06-05 Kddi Corp 特徴ベクトルの集合で表されるコンテンツ間の類似度を算出するプログラム、装置及び方法
JPWO2015099016A1 (ja) * 2013-12-26 2017-03-23 日本電気株式会社 画像処理装置、被写体識別方法及びプログラム
US9798955B2 (en) 2013-12-26 2017-10-24 Nec Corporation Image processing apparatus, photographic subject identifying method and program
KR101822317B1 (ko) 2013-12-26 2018-01-25 닛본 덴끼 가부시끼가이샤 화상 처리 장치, 피사체 식별 방법 및 프로그램
EP3089108A4 (en) * 2013-12-26 2017-08-23 Nec Corporation Image processing device, subject identification method and program
CN105849776A (zh) * 2013-12-26 2016-08-10 日本电气株式会社 图像处理装置、主题识别方法和程序
WO2015099016A1 (ja) * 2013-12-26 2015-07-02 日本電気株式会社 画像処理装置、被写体識別方法及びプログラム
CN107644022A (zh) * 2016-07-21 2018-01-30 联想移动通信科技有限公司 一种地理位置搜索方法、移动终端及服务器
JP2018036760A (ja) * 2016-08-30 2018-03-08 株式会社リコー 画像管理システム、画像管理方法、及びプログラム
CN111563181B (zh) * 2020-05-12 2023-05-05 海口科博瑞信息科技有限公司 数字图像文件查询方法、装置及可读存储介质
CN111563181A (zh) * 2020-05-12 2020-08-21 海口科博瑞信息科技有限公司 数字图像文件查询方法、装置及可读存储介质
JP2023509105A (ja) * 2020-10-26 2023-03-07 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法
JP7336653B2 (ja) 2020-10-26 2023-09-01 3アイ インコーポレイテッド ディープラーニングを利用した屋内位置測位方法
JP2022114957A (ja) * 2021-01-27 2022-08-08 株式会社竹中工務店 モチーフ類似度計算装置、及びモデル学習装置
JP7605645B2 (ja) 2021-01-27 2024-12-24 株式会社竹中工務店 モチーフ類似度計算装置、及びモデル学習装置
JP2022149076A (ja) * 2021-03-25 2022-10-06 Kddi株式会社 位置推定装置、方法及びプログラム
JP7453175B2 (ja) 2021-03-25 2024-03-19 Kddi株式会社 位置推定装置、方法及びプログラム
JP2024042806A (ja) * 2022-09-16 2024-03-29 Lineヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN115761492A (zh) * 2022-11-18 2023-03-07 苏州空天信息研究院 一种基于空间自注意力的地标检索识别与定位方法

Also Published As

Publication number Publication date
JP5385105B2 (ja) 2014-01-08

Similar Documents

Publication Publication Date Title
JP5385105B2 (ja) 画像検索方法およびシステム
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
JP5164222B2 (ja) 画像検索方法およびシステム
US9157757B1 (en) Methods and systems for mobile-agent navigation
CN112667837A (zh) 图像数据自动标注方法及装置
Cui et al. Efficient large-scale structure from motion by fusing auxiliary imaging information
WO2018128667A1 (en) Systems and methods for lane-marker detection
KR20140014298A (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
CN103020956B (zh) 一种基于决策判断Hausdorff距离的图像匹配方法
CN106296587B (zh) 轮胎模具图像的拼接方法
CN110111375B (zh) 一种Delaunay三角网约束下的影像匹配粗差剔除方法及装置
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2014164601A (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP6844235B2 (ja) 距離測定装置および距離測定方法
CN103761768A (zh) 一种三维重建的立体匹配方法
JP5928010B2 (ja) 道路標示検出装置及びプログラム
CN108286970A (zh) 基于DataMatrix码带的移动机器人定位系统、方法及装置
CN107862319B (zh) 一种基于邻域投票的异源高分光学影像匹配误差剔除方法
CN106372552A (zh) 人体目标识别定位方法
CN117115242B (zh) 标志点的识别方法、计算机存储介质和终端设备
CN104992431B (zh) 多光谱图像配准的方法及装置
CN120808296B (zh) 基于多模态融合的目标检测方法、装置、设备及存储介质
Ekekrantz et al. Adaptive iterative closest keypoint
KR20220062709A (ko) 모바일 디바이스 영상에 기반한 공간 정보 클러스터링에 의한 재난 상황 인지 시스템 및 방법
Xiao et al. Monocular ORB SLAM based on initialization by marker pose estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130619

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131003

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees