[go: up one dir, main page]

JP2019012360A - 情報処理装置、プログラム及び情報処理方法 - Google Patents

情報処理装置、プログラム及び情報処理方法 Download PDF

Info

Publication number
JP2019012360A
JP2019012360A JP2017128038A JP2017128038A JP2019012360A JP 2019012360 A JP2019012360 A JP 2019012360A JP 2017128038 A JP2017128038 A JP 2017128038A JP 2017128038 A JP2017128038 A JP 2017128038A JP 2019012360 A JP2019012360 A JP 2019012360A
Authority
JP
Japan
Prior art keywords
image
feature point
conversion information
conversion
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017128038A
Other languages
English (en)
Inventor
満夫 木村
Mitsuo Kimura
満夫 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017128038A priority Critical patent/JP2019012360A/ja
Priority to US16/014,864 priority patent/US10586099B2/en
Publication of JP2019012360A publication Critical patent/JP2019012360A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/18Extraction of features or characteristics of the image
    • G06V30/18143Extracting features based on salient regional features, e.g. scale invariant feature transform [SIFT] keypoints
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/412Layout analysis of documents structured with printed lines or input boxes, e.g. business forms or tables
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Abstract

【課題】 動画撮影している画像におけるトラッキング処理の精度を向上させる。【解決手段】 本発明によれば、予め用意された全体画像から抽出される特徴点と、第1の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第1の撮影画像における座標系との間の座標変換に用いる第1の変換情報(第1の変換行列)を求める装置において、前記第1の変換情報を更新する場合、直前の画像の撮影位置に基づいて、前記全体画像から部分画像を生成し、該部分画像から抽出される特徴点と、前記第1の変換情報の更新に用いる撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、更新用の変換情報を求め、当該求めた更新用の変換情報を用いて前記第1の変換情報を更新する。【選択図】 図11

Description

本発明は、トラッキング処理に関する。
カメラ付きモバイル端末は一般的なものになってきた。従来、ユーザーは紙文書を画像データ化して取り込むためにスキャナなどを利用していたが、モバイル端末のカメラを用いて撮影することで簡単に紙文書の画像データを取得することが出来るようになった。特許文献1は、カメラを利用して取り込んだ電子書類の表示領域および座標を認識およびトラッキングするための技術を開示している。
特開2009−020890号公報
本明細書では、カメラで取り込んだ紙文書の画像の局所領域におけるOCR結果情報を取得し利用する構成について検討する。OCR結果情報を取得する際、取得対象の情報が記された領域(データ入力領域)の位置座標が既知であれば(例えば、既知のフォーマットの帳票)、OCR処理対象の領域を特定できるので、その領域をOCR処理してOCR結果を取得すればよい。このとき名刺や免許証といった比較的小さな被写体であれば、被写体全体を撮影したとしてもOCRに十分な解像度の画像を得られる。一方、A4またはA3のような比較的大きなサイズの紙文書では、文書全体を撮影した画像を用いてOCR処理した場合、OCR結果情報の取得精度が悪化する。それは対象物とカメラとの距離が離れることによりOCR処理対象の領域の解像度が低下することに加え、取り込んだ画像細部のピントのボケが発生しやすくなるからである。そこでA4やA3のような比較的大きなサイズの紙文書であっても対象の領域に接近して拡大画像を撮影することがOCR結果情報の取得精度向上には必須となる。既知フォーマットの帳票を撮影する場合、帳票の現在の撮影範囲を特定できれば、相対的な位置関係に基づいてOCR処理対象領域(データ入力領域)を特定できるので、その対象領域を拡大撮影させるようにすれば良い。よって本出願人は、まず文書画像全体を撮影してOCR処理対象領域を特定し、その特定した対象領域を拡大撮影するようにユーザーに促すために、該対象領域の部分を赤枠などで強調表示することで撮影対象の領域をガイド表示することを考えている。さらに、文書画像全体を撮影した後、ユーザーがカメラを文書のOCR処理対象領域に徐々に近づける動作を行っている間も、その領域をトラッキングして強調表示することによりガイド表示し続けることを考えている。拡大撮影して欲しい領域をガイドすることにより、ユーザーは無駄な部分を拡大撮影せずに済み、効率よく撮影してOCR結果を取得できる。
一方で、撮影画像の特徴点と既知フォーマットの帳票全体の特徴点とを比較することによって、撮影中の帳票の現在の撮影範囲を特定する処理は処理負荷が高いため、撮影動画の全てのフレームでこの処理を行うことは難しい。そこで、最初に、撮影画像の特徴点と既知フォーマットの帳票全体の特徴点とを比較する特徴点比較処理によって、当初の撮影範囲を特定した後は、動画のフレーム間での特徴点の移動量を追跡する特徴点追跡処理を実行することにより、撮影範囲およびOCR処理対象領域をトラッキングすることが考えられる。特許文献1では、電子書類の表示領域及び場所を、インビジブルジャンクション特徴量を使用して認識及びトラッキングする方法が記されており、インビジブルジャンクション特徴量による表示領域及び場所の特定が一度行われれば、ビデオフレーム間で特徴点を追跡し、ビデオフレーム間での平面的な動き(投影変換)を推定することが記述されている。
しかしながら、動画のフレーム間で特徴点を追跡することにより撮影範囲およびOCR処理対象領域をトラッキングするように構成した場合、フレーム間の特徴点追跡処理における誤差が徐々に累積していき、対象領域の位置ズレが大きくなってしまう。トラッキングの誤差の蓄積によりOCR処理対象領域の位置がずれた状態で、その領域に対してOCR処理を適用すると、本来必要な情報がその領域からはみ出て認識されない可能性がある。したがって、トラッキングの誤差の蓄積による位置ズレは定期的に修正する必要がある。そこで、本出願人は、撮影中のフレーム画像の特徴点と既知フォーマットの帳票全体の特徴点とを比較する特徴点比較処理を定期的に実行することによって、定期的に、現在の撮影範囲を特定し直すことにより、位置ズレを修正することを検討している。しかしながら、カメラを被写体に近づけて被写体の一部を拡大撮影しているときの撮影画像の特徴点と、既知フォーマットの帳票全体の特徴点とを比較する特徴点比較処理を実行する場合、特徴点比較処理を失敗しやすくなる。これは、帳票の一部に対応する拡大撮影画像から抽出される帳票の特徴点の数が減るため、帳票全体の特徴点と比較したときに、その拡大撮影画像の特徴点に適合する特徴点を有する箇所が、帳票全体から複数見つかることがあるためである。
上記課題を解決するために、本発明の情報処理装置は、予め用意された全体画像から抽出される特徴点と、第1の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第1の撮影画像における座標系との間の座標変換に用いる第1の変換情報を求める第1の取得手段と、前記第1の変換情報を求める際に用いた前記第1の撮影画像から抽出される特徴点に基づいて、前記第1の変換情報を求めた時点での第2の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記第1の撮影画像における座標系と前記第2の撮影画像における座標系との間の座標変換に用いる第2の変換情報を求める第2の取得手段と、第3の撮影画像の直前の撮影画像から抽出される特徴点に基づいて、当該第3の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記直前の撮影画像における座標系と前記第3の撮影画像における座標系との間の座標変換に用いる第3の変換情報を求める第3の取得手段と、前記第1の変換情報と前記第2の変換情報と前記第3の変換情報とに基づいて、前記第3の撮影画像に対応する撮影位置を前記全体画像にマッピングする第1のマッピング手段と、前記第1の変換情報を更新する場合、前記第1のマッピング手段によりマッピングされた前記撮影位置に基づいて、前記全体画像から部分画像を生成する生成手段と、前記部分画像から抽出される特徴点と、前記第1の変換情報の更新に用いる第4の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第4の撮影画像における座標系との間の座標変換に用いる更新用の変換情報を求め、当該求めた更新用の変換情報を用いて前記第1の変換情報を更新する更新手段と、を備えることを特徴とする。
本発明の情報処理装置によれば、動画撮影している画像におけるトラッキング処理の精度を向上させることができる。
モバイル端末の外観の一例を示す図である。 モバイル端末のハードウェア構成の一例を示す図である。 モバイル端末のソフトウェア構成の一例を示す図である。 モバイルアプリのUIの一例を示す図である。 全体画像と撮影画像の一例を示す図である。 データ抽出領域の一例を示す図である。 トラッキング処理の一例を示す図である。 基本処理フローを示す図である。 第1及び第2変換行列作成・更新フローを示す図である。 特徴点比較フローを示す図である。 部分画像の一例を示す図である。
(実施例1)
本実施形態に係る情報処理装置の一例として、カメラ機能付きのモバイル端末(携帯端末)を例に説明する。図1は、モバイル端末の外観の一例を示す図である。モバイル端末100は、各種のユニット(101〜104)を含んで構成される。モバイル端末100の前面部101には、タッチパネル102が設けられているタッチパネル102は、画像(動画)等の情報を表示するためのディスプレイ(表示部)としての機能と、ユーザーのタッチ操作に応じて指示を入力するための入力部としての機能とを備えている。さらに、モバイル端末100の背面部103は、紙文書等の被写体105を撮影して撮影画像を取り込むためのカメラ104を含む。モバイル端末100のユーザーは、後述のモバイルアプリ(モバイルアプリケーション)を起動させ、カメラ104を使用して被写体105の画像を撮ることによって処理を開始することができる。図1の被写体105は、A4サイズの紙文書の注文書である。なお、被写体105は、紙文書だけに限らず、様々なサイズの名刺、写真、カードなどを含むことができる。後述のモバイルアプリは、被写体105の画像をカメラ104を使用して取り込み、タッチパネル102にその画像を表示出力することができる。
図2は、モバイル端末100のハードウェアの構成の一例を示す図である。モバイル端末100は、各種のユニット(201〜208)を含んで構成される。CPU(Central Processing Unit)201は、各種のプログラムを実行し、様々な機能を実現するユニットである。RAM(Random Access Memory)202は、各種の情報を記憶するユニットである。また、RAM202は、CPU201の一時的な作業記憶領域としても利用されるユニットである。ROM(Read Only Memory)203は、各種のプログラム等を記憶する記憶媒体である。ROM203は、フラッシュメモリやSSD(Solid State Disk)やHDD(Hard Disk Drive)等の記憶媒体であればよい。そして、CPU201は、ROM203に記憶されているプログラムをRAM202にロードしてプログラムを実行する。これにより、CPU201は、図3に示されるようなモバイルアプリの各処理部として機能し、後述するシーケンスの各ステップの処理を実行する。なお、モバイルアプリの各処理部の機能及び後述するシーケンスに係る処理の全部又は一部については、CPU201で実現するものに限るものではなく、専用のハードウェアを用いて実現してもよい。
Input/Outputインターフェース204は、タッチパネル102とデータを送受信する。NIC(Network Interface Card)205は、モバイル端末100をネットワーク(不図示)に接続するためのユニットである。カメラユニット206は、カメラ104と接続し、被写体105の画像をモバイル端末100に取り込む。加速度センサ207は、モバイル端末100の加速度(速度の変化率)を計測するためのセンサである。上述した各ユニットは、バス208を介してデータの送受信を行うことが可能に構成されている。
図3は、モバイル端末100のソフトウェア構成の一例を示す図である。図3に示されるモバイルアプリにおける各機能処理部(モバイルアプリの各モジュール部)を実現するプログラムは、ROM203等に記憶されている。モバイル端末100のOS(Operating System)(不図示)は、データ管理部301を有する。
データ管理部301は、画像やアプリケーションデータを管理する。OSは、データ管理部301を利用するための制御API(Application Programming Interface)を提供している。モバイルアプリはその制御APIを利用することで、データ管理部301が管理する画像やアプリケーションデータの取得や保存を行う。
モバイルアプリ302は、モバイル端末100のOSのインストール機能を利用して、各OSのアプリストア等からダウンロードおよびインストールされたアプリケーションである。モバイルアプリ302は、カメラユニット206を介して取り込んだ被写体105の画像に対する各種のデータ処理を行う。
メイン制御部303は、モバイル端末100用のアプリケーション(モバイルアプリ)302を構成する各モジュール部(304〜314)を連携させて制御するための制御部である。
情報表示部304は、メイン制御部303からの指示に従い、モバイルアプリ302のユーザーインタフェース(UI)を画面に表示させてユーザーに提供する。図4は、モバイルアプリ302のUI(携帯端末用のUI)を提供する画面の一例(モバイル端末画面400)を示す図である。モバイル端末画面400は、モバイル端末100のタッチパネル102に表示される。また、モバイル端末画面400では、表示および操作を行うための領域401に、カメラ104を介して取り込んだ画像を表示し、また、画像等に対するユーザーによる操作(ユーザー操作)を、当該表示されたUIを介して受け付ける。なお、モバイルアプリ302のUIの形態(位置、大きさ、範囲、配置、表示内容など)は、図に示す形態に限定されるものではなく、後述する各処理を実現することができる適宜の構成を採用することができる。
操作情報取得部305は、情報表示部304により表示されたUIを介してユーザー操作された内容を示す情報を取得し、当該取得した情報をメイン制御部303に通知する。例えば、領域401をユーザーが手で触れると、操作情報取得部305は、当該触れられた画面上の位置の情報を感知し、感知した位置の情報をメイン制御部303に送信する。
撮影画像取得部306は、カメラユニット206を介して撮影された動画像等の各撮影画像を取得し、記憶部307に送信する。記憶部307は、撮影画像取得部306により取得された撮影画像を記憶する。また、記憶部307は、メイン制御部303の指示により、当該記憶している撮影画像の削除を行うこともできる。
DB部308は、データベース機能を有し、後述する全体画像500や、全体画像500中において抽出すべきデータ情報が記載されているデータ入力領域(OCR対象領域)の位置を示す情報を、データ入力領域情報テーブル601などを管理する。DB部308のデータは、メイン制御部303によるアプリケーション302の起動時に、記憶部307に送信され、必要な時に制御部303の指示により取得される。
特徴点抽出部309は、カメラユニット206を介して撮影された画像などに対して、画像上の輝度の変化が大きい箇所(エッジ)などを、特徴的なピクセル点(特徴点)とし、その特徴点の特徴を表すデータ(特徴量)を算出する。特徴点およびその特徴量を求める手法としては、SIFT(Scale−Invariant Feature Transform)やSURF(Speeded−Up Robust Features)などの手法がある。なお、特徴点とその特徴量を求める手法は、上述の手法に限るものではないが、回転や拡大縮小、画像の移動といった変化に頑強で、後述する特徴点比較処理において、マッチングする特徴点が一意に定まるような手法が好ましい。
特徴点比較処理部310は、特徴点抽出部309により異なる2つの画像それぞれから抽出された特徴点を比較する特徴点比較処理を行う。特徴点比較処理は、各画像間の特徴点とその特徴量を比較することで、画像間で一致する特徴点の組み合わせを求める(マッチングをする)ことができる。また、RANSAC(Random sample consensus)のような外れ値を排除して法則性を推定する手法を用いることで、ノイズとなる特徴点の組み合わせを排除し、より精度の高いマッチングを行うことが可能となる。特徴点比較処理は精度の高いマッチング手法ではあるが、一般的に処理速度が遅い。本実施形態では、予め用意した既知のフォーマットの文書(帳票等)の全体画像と、カメラユニットで撮影した撮影画像との間で特徴点比較処理を行う。
特徴点追跡処理部311は、動画撮影した第1のフレームの撮影画像(原画像)から特徴点抽出部309により特徴点を抽出し、比較対象の第2のフレームの撮影画像上で前記特徴点の移動位置を推定する特徴点追跡処理(オプティカルフロー)を行う。特徴点追跡処理は、原画像上の各特徴点が、比較対象の画像においてどの方向にどれだけ移動したかの移動ベクトルを推定する。これにより、原画像上の特徴点が比較対象の画像上のどの位置に移動したかの推定を行うことができる。特徴点追跡処理部311での特徴点追跡処理は、特徴点比較処理部310での特徴点比較処理よりも処理速度が速い。ただし、特徴点追跡処理において移動ベクトルを正確に算出するためには、2つの画像(第1のフレームの撮影画像と第2のフレームの撮影画像)間において、オブジェクトの移動量が一定以下である(画像間の差分が小さい)必要がある。
座標変換処理部312は、2つの画像(全体画像と撮影画像、もしくは、第1フレームの撮影画像と第2フレームの撮影画像)の間で、ホモグラフィー変換(homography transform、平面射影変換)を行うためのホモグラフィー変換行列(以下、変換行列)を算出することで、点のマッピングを行う。ホモグラフィー変換は、ある平面座標系上の点を、異なる平面座標系上に変形して移し替えることができる。似たものに、画像の回転、平行移動、拡大縮小を行うアフィン変換があるが、ホモグラフィー変換は、それらに加えて、座標位置に応じて拡大縮小の比率を変え、台形状の変換が可能となる。ホモグラフィー変換は、変換元の画像上の座標点(x1,y1)、変換後の画像上の座標点(x2,y2)、変換行列H、定数sを用いて以下のように表せられる。なお、変換行列の数式は、下記の数式(行列式)での表現に限るものではなく、2つの画像の座標系を変換するための変換式であれば、その他の形態であっても構わない。このような変換式(変換行列)は、2つの画像の座標系を変換する際の変換情報として使用される。
2つの画像に同じオブジェクトから抽出される特徴点が存在している場合、特徴点比較処理部310または特徴点追跡処理部311のマッチング処理によって求められた画像間の対応点座標をもとに、変換行列Hのパラメータを算出する。これにより、2つの画像間の変換行列を求め、第1の画像中の座標を第2の画像中にマッピングすることや、変換行列の逆行列を求めて、その逆のマッピングをおこなうことが可能となる。しかし、2つの画像間に同じオブジェクトがほとんど存在しなかった場合(画像間の差異が大きかった場合)、マッチングに成功する特徴点の数が少なくなり、変換行列Hの算出に失敗してしまう。
トラッキング処理部313は、後述するトラッキング処理により、カメラ104による最新の撮影画像が全体画像500のどの部分(領域)を撮影しているかをトラッキングする。そして、そのトラッキング結果と、データ入力領域情報テーブル601に保存されているデータ入力領域の情報とに基づいて、撮影画像上にデータ入力領域をマッピングして描画し、モバイル端末画面400上に表示する。そのため、最新の撮影画像を取得してから、モバイル端末画面400上にデータ入力領域がマッピングされた画像を表示するまでに、座標変換処理部312による、全体画像500と最新の撮影画像間の変換行列を求める処理を待つ必要がある。座標変換処理部312による変換行列の算出には、2つの画像間の特徴点のマッチング処理が必要となり、マッチング処理には特徴点比較処理部311と特徴点追跡処理部312による2通りの算出方法がある。特徴点比較処理部311によるマッチング処理には時間がかかるため、特徴点比較処理が完了するまで描画を行わないでいると、撮影レートの低下を招いてしまう。また、特徴点追跡処理部312による特徴点追跡処理は高速ではあるが、各撮影フレーム間で求めた変換行列を順次掛け合わせていくことによりトラッキングを行うので、各フレーム間で求めた変換行列の誤差が蓄積していく。したがって、特徴点追跡処理部312による特徴点追跡処理だけを行っていると、次第にトラッキング結果にズレが生じてしまう。そのため、後述するトラッキング処理では、定期的に特徴点比較処理を行ってズレを補正しながら、特徴点比較処理と特徴点追跡処理とを組み合わせて使用することで、トラッキングのズレを最小限にしつつ、モバイル端末画面400への描画における撮影レートの低下を防いでいる。
部分画像生成部314は、全体画像500の一部を切り出した画像(部分画像)を生成する。
次に、全体画像と撮影画像について図5を用いて説明する。全体画像500は、予め用意された文書画像の一例である。全体画像500は、被写体105の全体像に関する画像データで、予めDB部308に保存されているものとするが、これに限るものではない。例えば、被写体105の全体を最初に撮影して取得した画像データに基づき、被写体以外の領域を削除する紙面検出処理や、歪み部分を補正する歪み補正処理などの整形加工を行うことにより、全体画像500を取得するフローをアプリケーション302に追加しても良い。また、全体画像500は、帳票等の表枠や固定の文字列部分のみを含む既知のフォーマットの文書画像(データ入力領域に文字列が記載される前の画像)であってもよい。
また、被写体105に対してカメラ104を用いて動画撮影した被写体105の一部(あるいは全体)の各フレームの画像を撮影画像と呼ぶ。撮影画像501、502、503、504は、動画撮影した各フレームの撮影画像の一例である。さらに撮影領域505、506、507、508は、全体画像において、撮影画像501〜504に対応する撮影領域を示している。すなわち、撮影画像501〜504は、撮影画像取得部306で取得された連続する動画撮影を抜き出したものの例であり、カメラ104の移動に応じて、撮影領域が505から508へと移動していることを図示している。
次に、DB部312に格納されているデータ入力領域情報テーブルについて説明する。図6は、本実施形態におけるデータ入力領域情報テーブルのデータ構造と、該テーブルに保持されているデータ入力領域(OCR処理対象領域)に関する情報の一例を示す図である。データ入力領域情報テーブル601は、idカラム、keyカラム、pointカラム、widthカラム、heightカラムから構成される。idカラムはデータ入力領域情報テーブルにレコードが追加されるたびに1ずつ増加する値で、TableのPrimary keyである。keyカラムは、各レコードがなんの情報に関するデータ入力領域情報なのかを示す情報を格納する。pointカラムは、データ入力領域の左上端の、全体画像500座標系における座標を格納する。widthカラムは、データ入力領域の幅をピクセル単位で示した情報を格納する。heightカラムは、データ入力領域の高さをピクセル単位で示した情報を格納する。また、図6の全体画像500上に図示された領域608〜613は、それぞれデータ入力領域情報テーブル601のデータ入力領域の情報602〜607に対応する領域を示している。
次に、トラッキング処理部313によるトラッキング処理について、図7を用いて説明する。なお、以下では、2つの画像間の座標変換に用いる変換情報を「変換行列」として説明するが、前述の座標変換処理部312の説明において説明したように、行列式の表現に限るものではなく、その他の変換式(その他の変換情報)であっても構わない。撮影画像700から708は撮影画像取得部306から取得された連続する動画撮影の撮影画像であり、被写体105にカメラ104を近づけて撮影されたものである。そのうち、撮影画像700は、撮影開始時点から数えて一番初めに取得された撮影画像である。第1変換行列709は、予め用意された全体画像500と撮影画像700とを入力として、特徴点比較処理部310によって求められた特徴点比較結果を用いて、座標変換処理部312により求められる変換行列である。特徴点比較処理部310の処理には時間がかかるため、第1変換行列709が算出されるまでに、動画像の各フレーム画像として撮影画像701、702が取得される。このとき、第1変換行列が未生成のため、データ入力領域の位置を求めることができず、撮影画像701,702がそのままモバイル端末画面400に表示される。
図7の例では、撮影画像703が取得された時点で、座標変換処理部312による第1変換行列709の算出が終わり、第1変換行列709が得られたとする。その時点で、第2変換行列710の生成が行われる。第2変換行列710は、第1変換行列709の算出に用いられた撮影画像700と最新の撮影画像703とを入力画像として、特徴点追跡処理部311で特徴点を追跡する特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。そして、第1変換行列709と第2変換行列710とを掛け合わせることにより、全体画像500と撮影画像703との間で座標の変換が可能となる変換行列が求められる。当該求めた変換行列と、データ入力領域情報テーブル601に保存されているデータ入力領域情報とをもとに、撮影画像703上に各データ入力領域をマッピングして描画し、モバイル端末画面400に表示する。
さらにその後、最新の撮影画像704とひとつ前の撮影画像703とを入力画像として、特徴点追跡処理部311で特徴点を追跡する特徴点追跡処理を実行した結果を用いて、第3変換行列711が座標変換処理部312により求められる。そして、第1変換行列709と、第2変換行列710と、第3変換行列711とを掛け合わせることにより、全体画像500と撮影画像704との間で座標の変換が可能となる変換行列が求められる。同様にして、最新の撮影画像とひとつ前の撮影画像間で第3変換行列712〜715を求める。そして、第1変換行列709と、第2変換行列710と、1乃至複数の第3変換行列とを掛け合わせることで、全体画像500と最新の撮影画像(704〜708のいずれか)との間で座標の変換を行う変換行列を求めることができる。
しかし、座標変換処理部312により求められる変換行列の精度は、特徴点追跡処理部311による特徴点追跡処理の推定誤差の影響などにより100%ではないため、複数の変換行列を掛け合わせることで誤差が蓄積する。そのため、定期的に、第1変換行列と第2変換行列とを更新し、誤差の蓄積をリセットする。第1変換行列716は、全体画像500と撮影画像704とを入力として、特徴点比較処理部310によって求められた特徴点比較結果を用いて、座標変換処理部312により求められる変換行列である。第1変換行列709を求める時と同様に、第1変換行列716の算出にも時間がかかるため、第1変換行列716が算出されるまでに撮影画像705、706が取得されている。このとき、各撮影画像705,706を取得するたびに、一つ前の撮影画像との間で第3変換行列712、713を算出する。そして、生成済みの第1変換行列709と第2変換行列710と、第3変換行列711、712、713を用いて、最新の撮影画像706と全体画像500の間で座標の変換を行う変換行列を求めることができる。そして、撮影画像707が取得された時点で、座標変換処理部312による第1変換行列716の算出が終わり、第1変換行列716が得られたとする。その時点で第2変換行列717の生成が行われる。第2変換行列717は、第1変換行列716の算出に用いられた撮影画像704と、最新の撮影画像707とを入力画像として、特徴点追跡処理部311で特徴点追跡処理を実行した結果を用いて、座標変換処理部312により求められる。第2変換行列717が求められた時点で、第1変換行列と第2変換行列の更新が完了し、以降の撮影画像では、更新された第1変換行列716と第2変換行列717と、各撮影画像間の第3変換行列715とを用いて、全体画像500と最新の撮影画像708の間で座標の変換を行う変換行列を求める。この第1変換行列と第2変換行列との更新により、最新の撮影画像でのトラッキングに第3変換行列711から714が不要となるため、これらの第3変換行列を掛け合わせることで生じていた誤差がリセットされる。このように、第1変換行列および第2変換行列を定期的に更新することで、トラッキング中の誤差を最小限に保つことができる。
<基本フロー>
次に、モバイル端末100のCPU201がモバイルアプリ302を実行することにより実現される、本発明の基本的なトラッキング処理フローについて図8を用いて説明する。本フローは、ユーザーによりモバイル端末100におけるモバイルアプリ302が起動され、被写体105に対してカメラ104を接近して画像を取得することをトリガーに開始する。
S801で、メイン制御部303は、DB部308に保存されている全体画像500を記憶部307に送信して使用できるようにする。
S802で、メイン制御部303は、DB部308に保存されているデータ入力領域情報テーブル600を記憶部307に送信して使用できるようにする。
S803で、メイン制御部303は、撮影画像取得部306から、動画の最新フレームの画像を、撮影画像として1枚取得するよう命令する。
S804で、メイン制御部303は、後述する第1変換行列および第2変換行列の作成・更新処理フローを実行し、第1及び第2変換行列の作成・更新を行う。
S805で、メイン制御部303は、S804で第1および第2変換行列の作成が完了していた場合、トラッキング可能と判断して、S806に進む。一方、第1および第2変換行列の作成が完了していなかった場合は、トラッキング不可能と判断して、S810へ進む。
S806で、メイン制御部303は、特徴点追跡処理部311に対し、入力された最新の撮影画像と直前に入力された撮影画像との間で特徴点追跡処理を行うように指示し、更に、座標変換処理部312に対し、その特徴点追跡処理の結果に基づいて第3変換行列を生成するように命令する。座標変換処理部312は、前述したように、比較対象となった最新の撮影画像とその直前の撮影画像との間で特徴点比較処理部310により対応付けられた複数の特徴点の座標に基づいて、第3変換行列を生成する。
S807で、メイン制御部303は、座標変換処理部312に対し、生成済みの第1、第2、第3変換行列を用いて、全体画像と最新の撮影画像間で座標の変換が可能となる変換行列を生成するよう命令する。
S808で、メイン制御部303は、S807で生成した変換行列の逆行列を用いて、最新の撮影画像の四角の点を、全体画像上にマッピングし、全体画像座標系上の四辺形情報(四辺形の四つの頂点の座標から成る)を生成する。すなわち、現在撮影している位置が全体画像上のどの位置に相当するかの座標情報を生成する。
S809で、メイン制御部303は、S808で生成した四辺形情報を保存する。
S810で、メイン制御部303は、S807で第1〜3の変換行列に基づいて生成した変換行列と、記憶部307に記憶されたデータ入力領域情報テーブル600の情報を用いて、データ入力領域情報テーブル600に格納されている全体画像座標系上のデータ入力領域(OCR処理対象領域)を、撮影画像上にマッピングする。マッピングしたデータ入力領域を、モバイル端末100の画面400にガイド表示する。なお、撮影画像入力後に、S807によるトラッキング処理を経由していない場合は、データ入力領域をマッピングしていない撮影画像をそのままモバイル端末画面400に表示する。
S811で、メイン制御部303は、撮影画像取得部306による撮影画像の入力が終了したかどうかの判断を行う。撮影画像の入力が終了していた場合はフローを終了し、撮影画像の入力が続いていた場合はS803へ戻りフローを継続する。
<第1及び第2変換行列作成・更新処理(S804)の詳細フロー>
次に、図8のS804の第1及び第2変換行列作成・更新処理の詳細について、図9を用いて説明する。
S901で、メイン制御部303は、第1変換行列をすでに生成済みか判断する。生成済みの場合はS902へ遷移し、未生成の場合はS905へ遷移する。なお、後述するS902で第1変換行列を更新するタイミングと判断され且つS906で特徴点比較処理が開始され且つ第1変換行列が更新されていない場合も、S901においてメイン制御部303は、更新用の第1変換行列を生成済みでないと判断してS905へ遷移するものとする。
S902で、メイン制御部は、第1変換行列を新たに更新するタイミングであるかどうかの判断を行う。第1変換行列の更新タイミングは、第1変換行列及び第2変換行列がすでに生成済みで、全体画像と最新の撮影画像との間のトラッキング経路が確立されたタイミングで最新の撮影画像に対して更新を行うようにしてもよい。あるいは、トラッキング経路が確立されたのち、数フレーム撮影してから行うようにしてもよい。いずれにしても、メイン制御部303は、第1変換行列を定期的に更新するように判断する。第1変換行列を新たに更新するタイミングでないと判断した場合はS903へ進み、新たに更新するタイミングであると判断した場合はS905へ進む。
S903で、メイン制御部303は、第2変換行列がすでに生成済みかどうかの判定を行う。第2変換行列が生成済みの場合はS904へ、未生成の場合はS909へ遷移する。
S904で、メイン制御部303は、第1変換行列の更新が行われたかどうかの判断を行う。第1変換行列が更新されている場合はS909へ進み、更新されていない場合はフローを終了する。
S905で、メイン制御部303は、特徴点比較処理部310による特徴点比較処理が行われている最中かどうかを判別する。特徴点比較処理実行中でなければS906へ遷移し、実行中であればS907へ遷移する。
S906で、メイン制御部303は、特徴点比較処理部310に対し、全体画像と最新の撮影画像との間で特徴点比較処理を開始するよう指示し、フローを終了する。なお、図10を用いて後述するように、S902で第1変換行列を更新するタイミングであると判断されて該特徴点比較処理を開始する場合、それまでのトラッキング結果に基づき、全体画像の比較対象部分を絞り込んで該処理を実行する。
S907で、メイン制御部303は、特徴点比較処理部310による特徴点比較処理が完了したかどうかを判定する。処理が完了した場合はS908へ遷移し、処理が完了していない場合はフローを終了する。
S908で、メイン制御部303は、特徴点比較処理部310による特徴点比較処理結果を用いて、座標変換処理部312に対して、当該特徴点比較処理の対象となった全体画像と撮影画像との間の第1変換行列を生成するよう指示する。座標変換処理部312は、特徴点比較処理部310により対応付けられた全体画像における複数の特徴点の座標と比較対象の撮影画像における複数の特徴点の座標とに基づいて、第1変換行列を生成する。この生成された第1変換行列が更新用の第1変換行列であった場合は、第1変換行列の更新処理も行う。第1変換行列の生成および更新が完了すると、S901へ遷移しフローを継続する。
S909で、メイン制御部は、特徴点追跡処理部311に対し、第1変換行列を求める際に用いた撮影画像(特徴点比較画像)と最新の撮影画像との間で特徴点追跡処理を行うように指示し、更に、座標変換処理部312に対し、その特徴点追跡処理の結果に基づいて第2変換行列を求めるよう指示する。第2変換行列の生成が完了するとフローを終了する。
<特徴点比較処理の詳細フロー>
次に、図9のS902で第1の変換行列を更新するタイミングと判断されてS906で開始を指示する特徴点比較処理の詳細について、図10を用いて説明する。
カメラ104を紙面に近づけた状態の撮影画像は、全体画像の一部分だけを撮影した画像であり、撮影画像と全体画像のスケール差は大きくなる。その場合、撮影画像と全体画像との間で特徴点比較を行うと、撮影画像の特徴点に所定閾値以上マッチする特徴点の候補が、全体画像中の複数個所から見つかる。そのため、全体画像中の該特徴点にマッチする箇所を特定できず、特徴点比較処理が失敗に終わってしまう場合がある。そこで、本発明では、トラッキング中の位置情報を使って、全体画像の中の比較対象にする部分を絞り込むことによって、該撮影画像の特徴点にマッチする箇所を特定しやすくする。具体的には、直前の撮影画像の撮影位置を全体画像にマッピングした四辺形情報(図8のS809で保存した四辺形情報)に基づいて、全体画像から切り出される部分画像に基づいて特徴点比較を行う。また、部分画像から抽出される特徴点と、撮影画像から抽出される特徴点との比較になるので、全体画像から抽出される全ての特徴点と比較する場合に比べ、特徴点比較にかかる時間も短くて済む。
なお、部分画像として全体画像から切り出す領域は、カメラ104の移動を考慮して、直前の位置情報である四辺形情報を含む一回り大きいサイズの矩形(例えば、四辺形の外接矩形に対して幅と高さを所定の拡大率(1.2倍)で大きくした矩形)を設定する。あるいは、加速度センサ207で検出した速度の変化率の情報からカメラ104の移動方向と距離を推定して、部分画像として切り出す領域を設定してもよい。部分画像生成部314によって切り出される部分画像について、図11の例を用いて説明する。全体画像1100に対して、図8のS809で保存した四辺形情報(直前の撮影画像1103に対応する、全体画像における撮影位置)が1101であったとする。このとき、部分画像1104として切り出す領域1102は、直前の撮影画像の撮影位置1101より一回り大きい領域として設定される。
S1001で、特徴点比較処理部310は、図8のS809で保存した四辺形情報に基づいて、全体画像から部分画像を切り出して生成するように、部分画像生成部314に指示する。
S1002で、特徴点比較処理部310は、当該生成された部分画像から抽出される特徴点と、撮影画像の特徴点とを比較することにより、該部分画像において該撮影画像にマッチする箇所を特定する。
S1003で、特徴点比較処理部310は、部分画像と撮影画像との間の特徴点比較が成功したかどうか(該部分画像において該撮影画像にマッチする箇所を特定できたかどうか)を判断する。特徴点比較が成功したと判断した場合はS1004に進み、失敗したと判断した場合はS1005に進む。
S1004で、特徴点比較処理部310は、特徴点比較の結果、部分画像中のマッチした箇所の座標情報を、全体画像の座標系に変換しフローを終了する。このS1004で変換された全体画像の座標系における特徴点の座標情報とS1002で対応付けられた撮影画像の特徴点の座標情報とを用いて、前述したS908において、座標変換処理部312が、更新用の第1変換行列を生成することになる。
S1005で、特徴点比較処理部310は、全体画像の特徴点と撮影画像の特徴点とを比較する。なお、S1005では、全体画像との比較になるので、撮影画像の特徴点に所定閾値以上マッチする特徴点の候補が、全体画像中の複数個所から見つかる可能性がある。このように全体画像中の複数個所から見つかった場合は、例えば、S1001で特定した部分画像の位置に最も近い箇所を選択すればよい。
以上説明したように、本発明では、全体画像と撮影画像との特徴点比較処理において、それ以前に撮影された撮影画像の全体画像中の撮影位置に基づいて、全体画像中の比較対象にする部分を絞り込んでいる。これにより、特徴点比較処理における精度の向上と、処理スピードの向上が見込める。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。

Claims (7)

  1. 予め用意された全体画像から抽出される特徴点と、第1の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第1の撮影画像における座標系との間の座標変換に用いる第1の変換情報を求める第1の取得手段と、
    前記第1の変換情報を求める際に用いた前記第1の撮影画像から抽出される特徴点に基づいて、前記第1の変換情報を求めた時点での第2の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記第1の撮影画像における座標系と前記第2の撮影画像における座標系との間の座標変換に用いる第2の変換情報を求める第2の取得手段と、
    第3の撮影画像の直前の撮影画像から抽出される特徴点に基づいて、当該第3の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記直前の撮影画像における座標系と前記第3の撮影画像における座標系との間の座標変換に用いる第3の変換情報を求める第3の取得手段と、
    前記第1の変換情報と前記第2の変換情報と前記第3の変換情報とに基づいて、前記第3の撮影画像に対応する撮影位置を前記全体画像にマッピングする第1のマッピング手段と、
    前記第1の変換情報を更新する場合、前記第1のマッピング手段によりマッピングされた前記撮影位置に基づいて、前記全体画像から部分画像を生成する生成手段と、
    前記部分画像から抽出される特徴点と、前記第1の変換情報の更新に用いる第4の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第4の撮影画像における座標系との間の座標変換に用いる更新用の変換情報を求め、当該求めた更新用の変換情報を用いて前記第1の変換情報を更新する更新手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記更新手段は、前記部分画像から抽出される特徴点と前記第4の撮影画像から抽出される特徴点とを比較する特徴点比較処理でマッチした箇所を前記全体画像の座標系に変換することにより、当該前記全体画像における座標系と前記第4の撮影画像における座標系との間の座標変換に用いる更新用の変換情報を求め、当該求めた更新用の変換情報を用いて前記第1の変換情報を更新する、ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段により生成される部分画像は、前記第1のマッピング手段によりマッピングされた前記撮影位置のサイズより大きいサイズの部分画像であることを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記生成手段により生成される部分画像は、前記第1のマッピング手段によりマッピングされた前記撮影位置と、加速度センサで検出した速度の変化率の情報とに基づいて設定される領域の画像であることを特徴とする請求項1または2に記載の情報処理装置。
  5. 前記第1の変換情報と前記第2の変換情報と前記第3の変換情報とに基づいて、前記全体画像におけるデータ入力領域を、前記第3の撮影画像にマッピングする第2のマッピング手段を、更に有することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. コンピュータを、請求項1乃至5のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  7. 予め用意された全体画像から抽出される特徴点と、第1の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第1の撮影画像における座標系との間の座標変換に用いる第1の変換情報を求める第1の取得ステップと、
    前記第1の変換情報を求める際に用いた前記第1の撮影画像から抽出される特徴点に基づいて、前記第1の変換情報を求めた時点での第2の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記第1の撮影画像における座標系と前記第2の撮影画像における座標系との間の座標変換に用いる第2の変換情報を求める第2の取得ステップと、
    第3の撮影画像の直前の撮影画像から抽出される特徴点に基づいて、当該第3の撮影画像における特徴点の位置を追跡する特徴点追跡処理を実行することにより、前記直前の撮影画像における座標系と前記第3の撮影画像における座標系との間の座標変換に用いる第3の変換情報を求める第3の取得ステップと、
    前記第1の変換情報と前記第2の変換情報と前記第3の変換情報とに基づいて、前記第3の撮影画像に対応する撮影位置を前記全体画像にマッピングする第1のマッピングステップと、
    前記第1の変換情報を更新する場合、前記第1のマッピングステップでマッピングされた前記撮影位置に基づいて、前記全体画像から部分画像を生成する生成ステップと、
    前記部分画像から抽出される特徴点と、前記第1の変換情報の更新に用いる第4の撮影画像から抽出される特徴点とを比較する特徴点比較処理を実行することにより、前記全体画像における座標系と前記第4の撮影画像における座標系との間の座標変換に用いる更新用の変換情報を求め、当該求めた更新用の変換情報を用いて前記第1の変換情報を更新する更新ステップと、
    を備える情報処理方法。
JP2017128038A 2017-06-29 2017-06-29 情報処理装置、プログラム及び情報処理方法 Pending JP2019012360A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017128038A JP2019012360A (ja) 2017-06-29 2017-06-29 情報処理装置、プログラム及び情報処理方法
US16/014,864 US10586099B2 (en) 2017-06-29 2018-06-21 Information processing apparatus for tracking processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017128038A JP2019012360A (ja) 2017-06-29 2017-06-29 情報処理装置、プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2019012360A true JP2019012360A (ja) 2019-01-24

Family

ID=64738793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017128038A Pending JP2019012360A (ja) 2017-06-29 2017-06-29 情報処理装置、プログラム及び情報処理方法

Country Status (2)

Country Link
US (1) US10586099B2 (ja)
JP (1) JP2019012360A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158800A1 (ja) * 2016-03-17 2017-09-21 株式会社Pfu モバイル端末、画像処理方法、および、プログラム
JP7446320B2 (ja) * 2019-09-12 2024-03-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、ヘッドマウントディスプレイ、および空間情報取得方法
JP7521543B2 (ja) * 2020-01-31 2024-07-24 日本電気株式会社 物体認識装置、物体認識理方法、及び、プログラム
US11361532B1 (en) * 2020-04-30 2022-06-14 Idemia Identity & Security USA LLC System and method for OCR based object registration

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6970591B1 (en) * 1999-11-25 2005-11-29 Canon Kabushiki Kaisha Image processing apparatus
US8184155B2 (en) 2007-07-11 2012-05-22 Ricoh Co. Ltd. Recognition and tracking using invisible junctions
US20070031063A1 (en) * 2005-08-05 2007-02-08 Hui Zhou Method and apparatus for generating a composite image from a set of images
US7978932B2 (en) * 2007-08-02 2011-07-12 Mauna Kea Technologies Robust mosaicing method, notably with correction of motion distortions and tissue deformations for in vivo fibered microscopy
WO2014064783A1 (ja) * 2012-10-24 2014-05-01 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
JP6450589B2 (ja) * 2014-12-26 2019-01-09 株式会社モルフォ 画像生成装置、電子機器、画像生成方法及びプログラム
US9392185B1 (en) * 2015-02-11 2016-07-12 Xerox Corporation Apparatus and method for image mosiacking under low-light conditions
US20160282599A1 (en) * 2015-03-27 2016-09-29 Syntheslide, LLC Systems and methods for combining magnified images of a sample
RU2647670C1 (ru) * 2016-09-27 2018-03-16 Общество с ограниченной ответственностью "Аби Девелопмент" Автоматизированные способы и системы выявления на изображениях, содержащих документы, фрагментов изображений для облегчения извлечения информации из выявленных содержащих документы фрагментов изображений

Also Published As

Publication number Publication date
US10586099B2 (en) 2020-03-10
US20190005323A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
CN111612696B (zh) 图像拼接方法、装置、介质及电子设备
US10810711B2 (en) Information processing apparatus, storage medium, and information processing method
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP7028729B2 (ja) 物体追跡装置、物体追跡システム、および物体追跡方法
JP2019012360A (ja) 情報処理装置、プログラム及び情報処理方法
JP2019012359A (ja) 情報処理装置、プログラム及び情報処理方法
JP2019004305A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7118729B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP4781233B2 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2018046337A (ja) 情報処理装置、プログラム及び制御方法
JP6171660B2 (ja) 情報処理装置、情報処理システム及びプログラム
JP4145014B2 (ja) 画像処理装置
JP6669390B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11908144B2 (en) Image processing apparatus, method, and medium using degrees of reliability and similarity in motion vectors
CN119672766B (zh) 眼镜设备中手关节检测的方法、存储介质、电子设备及产品
WO2022111461A1 (zh) 识别方法、装置及电子设备
JP4321251B2 (ja) 合成画像を生成・表示する装置及び方法
JP2019106008A (ja) 推定装置、推定方法、及び推定プログラム
JP6534411B2 (ja) 相対角度推定装置、相対角度推定方法、及び相対角度推定プログラム
JP2021077283A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016081095A (ja) 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
CN115294358A (zh) 特征点提取方法、装置、计算机设备及可读存储介质
JP2019028677A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018185702A (ja) 情報処理装置、その制御方法とプログラム