[go: up one dir, main page]

JP2018010599A - 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム - Google Patents

情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム Download PDF

Info

Publication number
JP2018010599A
JP2018010599A JP2016140811A JP2016140811A JP2018010599A JP 2018010599 A JP2018010599 A JP 2018010599A JP 2016140811 A JP2016140811 A JP 2016140811A JP 2016140811 A JP2016140811 A JP 2016140811A JP 2018010599 A JP2018010599 A JP 2018010599A
Authority
JP
Japan
Prior art keywords
image
information
panoramic image
images
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016140811A
Other languages
English (en)
Inventor
勝司 三浦
Katsuji Miura
勝司 三浦
山 姜
Sang Jiang
山 姜
創輔 山尾
Sosuke Yamao
創輔 山尾
桂樹 岡林
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016140811A priority Critical patent/JP2018010599A/ja
Priority to US15/617,467 priority patent/US20180020203A1/en
Publication of JP2018010599A publication Critical patent/JP2018010599A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】利用者の視線方向から見やすくなるようなパノラマ画像を生成すること。【解決手段】情報処理装置200は、異なる位置で撮影され、同一の特徴点を有する複数の画像を取得する。情報処理装置200は、複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定する。情報処理装置200は、視線方向を基にして、複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる。【選択図】図4

Description

本発明は、情報処理装置等に関する。
現在、作業現場では、労働力不足、現場技術者の育成などの課題に直面しており、熟練者を各作業現場に配置することが難しい場合がある。この課題を解消するべく、熟練者が遠隔地の情報を把握しながら、遠隔地で作業する作業者に指示を行うことで、協調的に作業を行うシステムがある。また、カメラで撮影した実環境の映像に仮想世界情報を重畳し、作業者に情報提供を行うAR(Augmented Reality)技術と併用することで、作業を効率的に行うことができる。
図16は、従来のシステムの一例を示す図である。図16に示すシステムでは、一例として、作業現場の作業員2が、指示者1からの指示に基づき作業を行う場合を示している。作業員2は、作業員端末50と、表示デバイス21dと、カメラ21cとを装着している。作業員端末50は、表示デバイス21dおよびカメラ21cと無線通信等により接続されている。作業員2のカメラ21cが捉えた2次元(2D)画像を含む画像フレーム2cは、作業員端末50の無線ネットワーク通信機能により、指示者1の遠隔支援装置60に送信される。例えば、画像フレーム2cの画像で表される範囲は、視野7dで示される。
遠隔支援装置60は、指示者1によって操作される。遠隔支援装置60は、遠隔地の作業員端末50から送信される画像フレーム2cから3次元(3D)パノラマ画像4を生成して表示する。指示者1は、遠隔支援装置60に表示された3次元パノラマ画像4から遠隔地の作業現場の状況を把握する。3次元パノラマ画像4は、画像フレーム2cを受信する度に更新される。
指示者1が、例えば、3次元パノラマ画像4内において指示したい箇所をクリックする。指示者1がクリックした画像フレーム2c内の位置情報、指示内容2g等を含む指示情報2fが、遠隔支援装置60から作業員端末50に送信される。作業員端末50は、指示情報2fを受信すると、指示内容2gを、表示デバイス21dに表示させる。作業員2は、表示デバイス21dに表示された指示内容2gを参照して、作業を行う。
ここで、3次元パノラマ画像4を生成する従来処理の一例について説明する。従来技術は、画像フレーム2cを撮影したカメラ21cの位置姿勢情報を、SLAM(Simultaneous Localization And Mapping)技術等に基づいて算出する。従来技術は、カメラの位置姿勢情報と、事前に取得しておいたカメラ21cの内部パラメータを用いて、フラスタム状の3次元画像描画オブジェクトを生成し、3次元画像描画オブジェクトの底辺に、画像フレーム2cをテクスチャマッピングする。そして、従来技術は、テクスチャマッピングした3次元画像描画オブジェクトを、カメラ21cの位置姿勢情報に基づいて、3次元空間上に配置する。従来技術は、上記の処理を、繰り返し実行することで、3次元パノラマ画像4を生成する。
特開2012−53896号公報 特開2002−209208号公報
しかしながら、上述した従来技術では、利用者の視線方向から見やすくなるようなパノラマ画像を生成することができないという問題がある。
1つの側面では、本発明は、利用者の視線方向から見やすくなるようなパノラマ画像を生成することができる情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラムを提供することを目的とする。
第1の案では、情報処理装置は、取得部と、特定部と、表示制御部とを有する。取得部は、異なる位置で撮影され、同一の特徴点を有する複数の画像を取得する。特定部は、複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定する。表示制御部は、視線方向を基にして、複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる。
利用者の視線方向から見やすくなるようなパノラマ画像を生成することができる。
図1は、参考例の画像処理装置によって生成される3次元パノラマ画像の一例を示す図である。 図2は、作業員の動きによる撮影位置を説明するための図である。 図3は、利用者にとって見づらい3次元パノラマ画像の一例を示す図である。 図4は、本実施例に係るシステムの構成を示す図である。 図5は、本実施例に係る作業員端末の構成を示す機能ブロック図である。 図6は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。 図7は、管理テーブルのデータ構造の一例を示す図である。 図8は、リストのデータ構造の一例を示す図である。 図9は、パノラマ画像テーブルのデータ構造の一例を示す図である。 図10は、なす角を算出する処理を説明するための図である。 図11は、表示制御部の処理を説明するための図(1)である。 図12は、表示制御部の処理を説明するための図(2)である。 図13は、本実施例に係るシステムの処理手順の一例を示すフローチャートである。 図14は、3次元パノラマ画像生成処理の処理手順を示すフローチャートである。 図15は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図16は、従来のシステムの一例を示す図である。
以下に、本願の開示する情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る情報処理装置の説明を行う前に、3次元パノラマ画像を生成する参考例について説明する。以下に説明する参考例は従来技術ではない。参考例として説明する画像処理装置は、カメラにより撮影された画像データから特徴点を抽出し、カメラの撮影位置から特徴点までの距離を算出する。画像処理装置は、各画像データをテクスチャマッピングした3次元画像描画オブジェクトを生成し、撮影位置から特徴点までの距離に合わせて、3次元画像描画オブジェクトを配置していくことで、3次元パノラマ画像を生成する。
図1は、参考例の画像処理装置によって生成される3次元パノラマ画像の一例を示す図である。図1に示す例では、撮影位置から特徴点までの距離に合わせて3次元描画オブジェクト10−1,10−2,10−3,10−4を配置することで、3次元パノラマ画像10が生成されている。参考例の画像処理装置は、現場の作業員2があまり移動せず、その場で作業員2が、現場の環境を見回すような動作を行うことを想定している。このため、想定通りに作業員2が動作してくれれば、3次元パノラマ画像を適切に生成することができる。
しかし、作業員が想定通りに動作しない状況が発生する場合がある。例えば、点検現場等では配管の継ぎ手部分の錆やヒビを点検するなど、作業員2が特定の物体に対して様々な方向から覗き込むようにチェックを行う場合がある。図2は、作業員の動きによる撮影位置を説明するための図である。図2に示す例では、点検対象15に対して、作業員2が、撮影位置15a,15b,15c、その他の撮影において、点検対象15を点検したものとする。
例えば、図2に示したように、作業員2が点検を行った場合には、図3に示すような3次元パノラマ画像が生成される。図3は、利用者にとって見づらい3次元パノラマ画像の一例を示す図である。図2のように作業員2が点検を行うと、同一の特徴点を含む3次元描画オブジェクトが交互に交差した状態で表示されるため、利用者にとって非常に見づらい3次元パノラマ画像が生成されてしまう。
次に、本実施例に係るシステムの構成について説明する。図4は、本実施例に係るシステムの構成を示す図である。図4に示すように、このシステムは、作業員端末100と、情報処理装置200とを有する。作業員端末100と、情報処理装置200とは、ネットワーク70を介して相互に接続される。
作業員端末100は、作業現場で作業する作業員が装備する端末装置である。図5は、本実施例に係る作業員端末の構成を示す機能ブロック図である。図5に示すように、この作業員端末100は、通信部110と、カメラ120と、表示デバイス130と、記憶部140と、制御部150とを有する。
通信部110は、ネットワーク70を介して、情報処理装置200とデータ通信を実行する処理部である。通信部110は、例えば、通信装置に対応する。後述する制御部150は、通信部110を介して、情報処理装置200と情報をやり取りする。
カメラ120は、作業員が装着するカメラである。カメラ120は、無線通信等によって、作業員端末100に接続される。カメラ120は、HMC(Head Mounted Camera)であり、ウェアラブルなCCD(Charge Coupled Device)等の小型カメラである。カメラ120は、撮影範囲の画像を撮影し、撮影した画像の情報を、作業員端末100に出力する。
表示デバイス130は、制御部150から出力される情報を表示する表示装置である。表示デバイス130は、例えば、HMD(Head Mounted Display)であり、ウェアラブルな音声の入出力可能な表示装置である。例えば、表示デバイス130は、情報処理装置200から送信される指示者による指示情報等を表示する。
記憶部140は、特徴点マップ情報141と、位置姿勢情報142と、画像情報143とを有する。記憶部140は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
特徴点マップ情報141は、カメラ120によって撮影された画像情報143に含まれる複数の特徴点と、各特徴点の3次元座標とを対応付けた情報である。
位置姿勢情報142は、カメラ120が画像情報143を撮影したタイミングにおけるカメラ120の位置および姿勢を示す情報である。
画像情報143は、カメラ120によって撮影される画像の情報である。
制御部150は、取得部151と、送信部152と、表示デバイス制御部153とを有する。制御部150は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部150は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。
取得部151は、カメラ120によって撮影された画像情報に含まれる被写体の特徴点の情報と、カメラ120の位置姿勢情報とを取得する処理部である。取得部151は、被写体の特徴点の情報を、特徴点マップ情報141に登録する。取得部151は、カメラ120の位置姿勢情報を、位置姿勢情報142として、記憶部140に格納する。また、取得部151は、カメラ120によって撮影された画像情報を、画像情報143として、記憶部140に登録する。
取得部151が、特徴点の情報を算出する処理の一例について説明する。取得部151は、カメラ120から画像情報を取得し、画像情報から特徴点を抽出する。例えば、取得部151は、画像情報に対してエッジ検出処理を実行することで、画像情報から特徴点を抽出する。
取得部151は、時刻T1においてカメラ120により撮影された第1画像情報の特徴点と、時刻T2においてカメラ120により撮影された第2画像情報の特徴点とを比較して、同一の特徴点を対応付ける。例えば、取得部151は、特徴点の特徴量を比較して、特徴量の差分が最小となる特徴点の組を、同一の特徴点と判定する。特徴点の特徴量は、特徴点周辺の輝度分布、エッジ強度等に対応する。
取得部151は、第1画像情報および第2画像情報に含まれる同一の特徴点の座標と、ステレオマッチングの原理に基づいて、特徴点の3次元座標を算出する。取得部151は、各特徴点について、上記処理を繰り返し実行することで、各特徴点の3次元座標を算出することで、特徴点の情報を取得する。
取得部151が、カメラ120の位置姿勢情報を算出する処理の一例について説明する。取得部151は、単眼SLAM機能によって、カメラの位置姿勢情報を推定すればよい。例えば、取得部151は、特徴点マップ情報141の各特徴点の3次元座標を、変換テーブルに基づき、2次元座標に変換することで、各特徴点を、現在のカメラ120により撮影された画像情報に投影する。変換テーブルは、カメラ120の位置姿勢情報に応じて、特徴点の3次元座標から求められる2次元座標が異なる。
取得部151は、同一の特徴点について、画像情報上の特徴点と、投影された特徴点との誤差が最小となる、カメラ120の位置姿勢情報を探索する。取得部151は、誤差が最小となる位置姿勢情報を、現在のカメラ120の位置姿勢情報として取得する。
送信部152は、記憶部140に格納される特徴点マップ情報141、位置姿勢情報142、画像情報143を含む画像フレームを、情報処理装置200に送信する処理部である。例えば、送信部152は、画像情報143が更新され、更新された画像情報143を基に、位置姿勢情報142が更新される度に、画像フレームを、情報処理装置200に送信する。なお、送信部152は、画像フレームに、カメラ120の内部パラメータの情報を格納しても良い。
表示デバイス制御部153は、情報処理装置200から指示情報を受信した場合に、受信した指示情報を、表示デバイス130に表示させる処理部である。
情報処理装置200は、作業員端末100から画像フレームを受信して、3次元パノラマ画像を生成する装置である。情報処理装置200を使用する指示者は、3次元パノラマ画像等を参照することで、現場の状況を把握する。
図6は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図6に示すように、この情報処理装置200は、通信部210と、入力部220と、表示デバイス230と、記憶部240と、制御部250とを有する。
通信部210は、ネットワーク70を介して、作業員端末100とデータ通信を実行する処理部である。通信部210は、例えば、通信装置に対応する。後述する制御部250は、通信部210を介して、作業員端末100と情報をやり取りする。
入力部220は、情報処理装置200に各種の情報を入力するための入力装置である。入力部220は、例えば、キーボードやマウス、タッチパネル等に対応する。指示者は、入力部220を操作して、各種の指示情報を入力する。また、指示者は、3次元パノラマ画像を見る場合に、入力部220を操作して、指示者の視線方向を指示する。
表示デバイス230は、制御部250から出力される情報を表示する表示装置である。例えば、表示デバイス230は、制御部250から出力される3次元パノラマ画像の情報を表示する。表示デバイス230は、例えば、液晶ディスプレイ、タッチパネル等に対応する。
記憶部240は、管理テーブル241と、リスト242と、パノラマ画像テーブル243とを有する。記憶部240は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
管理テーブル241は、作業員端末100から送信される画像フレームを格納するテーブルである。上記のように、画像フレームには、特徴点マップ情報141、位置姿勢情報142、画像情報143が含まれる。
図7は、管理テーブルのデータ構造の一例を示す図である。図7に示すように、この管理テーブル241は、レコード番号と、特徴点マップ情報と、位置姿勢情報と、画像情報とを対応付けて記憶する。レコード番号は、管理テーブル241の各レコードを一意に識別する情報である。特徴点マップ情報、位置姿勢情報、画像情報に関する説明は、上記の説明と同様である。なお、同一の画像フレームに含まれる特徴点マップ情報、位置姿勢情報、画像情報は、同一のレコード番号に対応付けられて、管理テーブル241に格納される。
リスト242は、3次元パノラマ画像に用いる画像情報と非表示にする画像情報とを区別する場合に利用する情報である。図8は、リストのデータ構造の一例を示す図である。図8に示すように、このリスト242は、レコード番号と、なす角と、非表示フラグとを対応付ける。レコード番号は、管理テーブル241のレコードと対応付けるための番号である。なす角に関する説明は後述する。非表示フラグは、対応する画像情報を非表示にするか否かを示す情報である。例えば、非表示フラグが「オフ」であれば、レコード番号に対応する画像情報を表示することを示す。非表示フラグが「オン」であれば、レコード番号に対応する画像情報を表示しないことを示す。
パノラマ画像テーブル243は、3次元パノラマ画像を構成する複数の3次元画像描画オブジェクトの情報を保持するテーブルである。図9は、パノラマ画像テーブルのデータ構造の一例を示す図である。図9に示すように、このパノラマ画像テーブル243は、識別番号と、レコード番号と、3次元画像描画オブジェクトとを対応付ける。識別番号は、3次元画像描画オブジェクトを一意に識別する情報である。レコード番号は、管理テーブル241のレコードと対応付けるための番号である。3次元画像描画オブジェクトは、3次元パノラマ画像を生成する場合に、配置される情報である。
例えば、3次元画像描画オブジェクトA16は、管理テーブル241のレコード番号「R1001」のレコードに基づき生成される。3次元画像描画オブジェクトA26は、管理テーブル241のレコード番号「R1002」のレコードに基づき生成される。3次元画像描画オブジェクトA36は、管理テーブル241のレコード番号「R1003」のレコードに基づき生成される。ここでは図示を省略するが、その他の3次元画像描画オブジェクトも、同様に、管理テーブル241のレコードに対応付けられる。
制御部250は、取得部251と、特定部252と、表示制御部253と、指示情報送信部254とを有する。制御部250は、ASICや、FPGAなどの集積装置に対応する。また、制御部250は、例えば、CPUやMPU等の電子回路に対応する。
取得部251は、作業員端末100から画像フレームを受信する処理部である。取得部251は、画像フレームを受信する度に、受信した画像フレームに含まれる特徴点マップ情報、位置姿勢情報、画像情報を、レコード番号に対応付けて、管理テーブル241に格納する。
特定部252は、3次元パノラマ画像を見る指示者の視線方向を特定する処理部である。特定部252は、特定した視線方向の情報を、表示制御部253に出力する。例えば、特定部252は、入力部220から指示者の視線方向の指示を受け付けることで、指示者の視線方向を特定する。なお、特定部252は、他の技術を利用して、指示者の視線方向を特定しても良い。例えば、指示者が加速度・角速度センサ等を備えたヘッドマウントディスプレイを装着し、特定部252は、加速度・角速度センサから得られる情報を基にして、指示者の頭の動き・視線方向を特定しても良い。
表示制御部253は、視線方向の情報を基にして、管理テーブル241の複数の画像情報から特定の画像情報を選択し、選択した特定の画像情報により構成した3次元パノラマ画像を表示デバイス230に表示させる処理部である。以下において、表示制御部253の処理について具体的に説明する。
表示制御部253は、管理テーブル241から、レコード番号によって対応付けられる位置姿勢情報および画像情報を取得する。表示制御部253は、位置姿勢情報、画像情報、視線方向の情報を基にして、なす角を算出する。以下の説明では、表示制御部253が、管理テーブル241から取得する画像情報を、適宜、キーフレーム(Keyframe)と表記する。
図10は、なす角を算出する処理を説明するための図である。図10において、なす角θは、第1線分80aと第2線分80bとのなす角である。第1線分80aは、指示者の視点86とキーフレーム90aの画像中心90bとを通る直線である。キーフレーム90aは、特徴点マップ情報に基づき、仮想空間上に配置されている。
第1線分80aは、視線方向の情報と、画像中心90bとを基に特定される。第2線分80bは、画像中心90bとカメラ120の位置90cとを通る直線である。位置90cは、キーフレーム90aを撮影した時点におけるカメラ120の位置姿勢情報により特定される。第2線分80bは、画像中心90bを通る、キーフレーム90aの法線に対応する。
表示制御部253は、各キーフレームに対して、なす角を算出する処理を繰り返し実行する。表示制御部253は、キーフレームに対応するレコード番号と、なす角とを対応付け、なす角の小さいものから昇順にソートすることで、リスト242を生成する。各レコード番号に対応する非表示フラグの初期値を「オフ」とする。
続いて、表示制御部253は、下記の処理を実行することで、キーフレームに対応するレコード番号の非表示フラグを「オン」にするか「オフ」にするかを判定し、非表示フラグを更新する。非表示フラグが「オフ」であれば、該当するキーフレームは、3次元パノラマ画像を生成する場合に利用される。一方、非表示フラグが「オン」であれば、該当するキーフレームは、3次元パノラマ画像を生成する場合に利用されない。
図11および図12は、表示制御部の処理を説明するための図である。まず、表示制御部253は、上記のようにキーフレーム毎になす角を算出し、各キーフレームの内、なす角が所定の閾値以上であるキーフレームに対応する非表示フラグを「オン」に設定する。所定の閾値を90度とする。
図11のステップS10について説明する。ここでは一例として、キーフレーム11−1,11−2,11−3,11−4を用いて説明する。例えば、キーフレーム11−1〜11−4のうち、キーフレーム11−1のなす角θ11−1が、閾値以上であるとする。この場合には、表示制御部253は、キーフレーム11−1のレコード番号に対応する非表示フラグを「オン」に設定する。
図12のステップS11について説明する。上記のように、表示制御部253が、キーフレーム11−1のレコード番号に対応する非表示フラグを「オン」に設定することで、3次元パノラマ画像を構成するキーフレームから、キーフレーム11−1が取り除かれる。
続いて、表示制御部253は、表示フラグが「オフ」となる各キーフレームのうち、画像の特徴が類似するキーフレームを選択する。表示制御部253は、画像の特徴が類似するキーフレームが複数存在する場合には、画像の特徴が類似するキーフレームのうち、最もなす角が小さいキーフレームの非表示フラグを「オフ」に設定し、他のキーフレームの非表示フラグを「オン」に設定する。
図12のステップS12について説明する。ここでは一例として、キーフレーム11−2〜11−4のなす角を、所定の閾値未満とする。また、キーフレーム11−3の画像特徴と、キーフレーム11−4の画像特徴とが類似しているものとする。表示制御部253は、キーフレーム11−3のなす角θ11−2と、キーフレーム11−4のなす角θ11−4とを比較する。表示制御部253は、最もなす角が小さいキーフレーム11−3の非表示フラグを「オフ」に設定し、キーフレーム11−4の非表示フラグを「オン」に設定する。
図12のステップS13について説明する。上記のように、表示制御部253が、キーフレーム11−4のレコード番号に対応する非表示フラグを「オン」に設定することで、3次元パノラマ画像を構成するキーフレームから、キーフレーム11−4が取り除かれる。
ここで、表示制御部253が、画像特徴の類似するキーフレームの組を判定する処理の一例について説明する。SLAM技術でキーフレームを取得する場合には、”FAST”,”AGAST”,”ORB”,”BRISK”,”GFTT”,”AKAZE”,”MSER”など様々な画像特徴抽出方法を使ってキーフレーム上の各画素に対して画像特徴を抽出する。表示制御部253は、2枚のキーフレームの画像特徴を比較し、同一の特徴点か否かを判定することで共通の画像特徴を持つ特徴点を特定する。
表示制御部253は、画像の類似度の指標を示すSSOを式(1)に基づき算出する。
SSO=共通の画像特徴点の数/(第1のキーフレームの画像特徴点の数+第2のキーフレームの画像特徴点の数−共通の画像特徴点の数)・・・(1)
例えば、第1のキーフレームと第2のキーフレームとが完全に同じ画像である場合には、SSOの値は「1」となる。第1のキーフレームと第2のキーフレームとが全く異なる画像である場合には、SSOの値は「0」となる。表示制御部253は、SSOの値が閾値T以上である場合に、第1のキーフレームと、第2のキーフレームとが類似するキーフレームの組であると判定する。
表示制御部253は、なす角が所定の閾値未満となる各キーフレームに対して、上記処理を繰り返し実行し、類似するキーフレームの組を判定する。
続いて、表示制御部253が、リスト242において非表示フラグが「オフ」となる画像情報を用いて3次元パノラマ画像を生成する処理について説明する。非表示フラグが「オフ」となる画像情報は、リスト242の非表示フラグが「オフ」となるレコード番号をキーにして特定される。例えば、図8において、レコード番号「R1001」の非表示フラグが「オフ」となっているため、図7におけるレコード番号「R1001」の画像情報は、3次元パノラマ画像の生成に用いられる。
表示制御部253は、フラスタム状の基準オブジェクトを生成し、基準オブジェクトの底面に、非表示フラグが「オフ」となる画像情報をテクスチャマッピングすることで、3次元画像描画オブジェクトを生成し、パノラマ画像テーブル243に格納する。基準オブジェクトの形状は、予め設定されているものとする。表示制御部253は、非表示フラグが「オフ」となる全ての画像情報について、上記処理を繰り返し実行する。
表示制御部253は、パノラマ画像テーブル243の各3次元画像描画オブジェクトを、位置姿勢情報を基にして配置していくことで、3次元パノラマ画像を生成する。表示制御部253は、生成した3次元パノラマ画像の情報を、表示デバイス230に出力して、表示させる。
指示情報送信部254は、入力部220等を介して指示者に入力された指示情報を、作業員端末100に送信する処理部である。
次に、本実施例に係るシステムの処理手順の一例について説明する。図13は、本実施例に係るシステムの処理手順の一例を示すフローチャートである。図13に示すように、作業員端末100は、画像フレームを情報処理装置200に送信する(ステップS101)。情報処理装置200は、作業員端末100から画像フレームを受信する(ステップS102)。
情報処理装置200は、3次元パノラマ画像生成処理を実行する(ステップS103)。情報処理装置200は、3次元パノラマ画像を表示する(ステップS104)。情報処理装置200は、指示者による指示情報を受け付ける(ステップS105)。
情報処理装置200は、指示情報を作業員端末100に送信する(ステップS106)。作業員端末100は、指示情報を情報処理装置200から受信し(ステップS107)、受信した指示情報を作業員に表示する(ステップS108)。
続いて、図13のステップS103で説明した3次元パノラマ画像生成処理の処理手順の一例について説明する。図14は、3次元パノラマ画像生成処理の処理手順を示すフローチャートである。図14に示すように、情報処理装置200の取得部251は、作業員端末100から画像フレームを取得する(ステップS201)。
情報処理装置200の特定部252は、指示者の視線方向を特定する(ステップS202)。情報処理装置200の表示制御部253は、指示者の視線方向に基づき、第1線分を特定する(ステップS203)。表示制御部253は、各キーフレームについて、第2線分を特定する(ステップS204)。
表示制御部253は、第1線分と第2線分とのなす角をそれぞれ算出する(ステップS205)。表示制御部253は、なす角θが0度に近い順に、リスト242を生成する(ステップS206)。表示制御部253は、第1線分とのなす角θが閾値以上となる第2線分を特定し、この第2線分に対応するキーフレームの非表示フラグを「オン」に設定する(ステップS207)。
表示制御部253は、リスト242の選択対象となるレコードの内、最上位のレコードに対応するキーフレームと画像特徴が類似したキーフレームのレコードの非表示フラグを「オン」に設定する(ステップS208)。ステップS208において、最上位のレコードに対応するキーフレームは、リスト242の最上位のレコード番号に対応する、画像情報を示す。画面特徴が類似したキーフレームは、リスト242の最上位のレコード番号に対応する、画像情報と画面特徴が類似した画像情報を示す。
表示制御部253は、リスト242の選択対象となるレコードの内、最上位のレコードと、非表示フラグが「オン」となったレコードをリスト242の選択対象から除外する(ステップS209)。
表示制御部253は、リスト242に選択対象のレコードが存在するか否かを判定する(ステップS210)。表示制御部253は、リスト242に選択対象のレコードが存在する場合には(ステップS210,Yes)、ステップS208に移行する。
一方、表示制御部253は、リスト242に選択対象のレコードが存在しない場合には(ステップS210,No)、3次元パノラマ画像を生成する(ステップS211)。
次に、本実施例に係る情報処理装置200の効果について説明する。情報処理装置200は、カメラ120の撮影位置に応じて、3次元パノラマ画像を生成する場合に、指示者の視線方向を基にして、類似する複数の画像情報から適切な画像情報以外を削除して、3次元パノラマ画像を生成する。これにより、指示者にとって見やすい3次元パノラマ画像を生成することができる。例えば、情報処理装置200は、類似する複数の画像情報が存在している場合に、利用者の視線方向に基づき、より利用者に対して正面を向いている画面情報を残すように処理を行うことで、見やすい3次元パノラマ画像の生成を可能にする。
情報処理装置200は、視線方向および画像中心に基づく第1線分と、画像を撮影した位置および画像中心を通る第2線分とのなす角を特定する処理を、画像情報毎に実行し、なす角が所定の閾値未満となる画像を、特定の画像として選択する。このため、利用者の方向を向いている画像情報を精度良く選択することができる。
情報処理装置200は、なす角が所定の閾値未満となる画像から類似する複数の画像を抽出し、抽出した画像のうち、なす角が最小となる画像を、特定の画像として選択する。このため、方向が異なる類似した複数の画像情報が密集している場合に、密集している画像情報から、利用者にたいしてより正面を向いている画像情報を残して、3次元パノラマ画像を生成することができる。例えば、現場の作業員が、特定の物体に対して様々な方向から覗き込むようにチェックを行う場合でも、指示者によって見やすい3次元パノラマ画像を生成することができる。
次に、上記実施例に示した情報処理装置200と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図15は、情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図15に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置305とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301〜307は、バス308に接続される。
ハードディスク装置307は、取得プログラム307a、特定プログラム307b、表示制御プログラム307cを有する。CPU301は、取得プログラム307a、特定プログラム307b、表示制御プログラム307cを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。特定プログラム307bは、特定プロセス306bとして機能する。表示制御プログラム307cは、表示制御プロセス306cとして機能する。
取得プロセス306aの処理は、取得部251の処理に対応する。特定プロセス306bの処理は、特定部252の処理に対応する。表示制御プロセス306cの処理は、表示制御部253の処理に対応する。
なお、各プログラム307a〜307cについては、必ずしも最初からハードディスク装置307に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a〜307cを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)異なる位置で撮影され、同一の特徴点を有する複数の画像を取得する取得部と、
前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定する特定部と、
前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる表示制御部と
を有することを特徴とする情報処理装置。
(付記2)前記表示制御部は、視線方向および画像中心に基づく第1線分と、画像を撮影した位置および前記画像中心を通る第2線分とのなす角を特定する処理を、画像毎に実行し、画像毎のなす角に基づいて、前記特定の画像を選択することを特徴とする付記1に記載の情報処理装置。
(付記3)前記表示制御部は、前記なす角が所定の閾値未満となる画像を、前記特定の画像として選択することを特徴とする付記2に記載の情報処理装置。
(付記4)前記表示制御部は、前記なす角が所定の閾値未満となる画像から類似する複数の画像を抽出し、抽出した画像のうち、前記なす角が最小となる画像を、前記特定の画像として選択することを特徴とする付記3に記載の情報処理装置。
(付記5)コンピュータが実行するパノラマ画像表示方法であって、
異なる位置で撮影され、同一の特徴点を有する複数の画像を取得し、
前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定し、
前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる
処理を実行することを特徴とするパノラマ画像表示方法。
(付記6)前記選択する処理は、視線方向および画像中心に基づく第1線分と、画像を撮影した位置および前記画像中心を通る第2線分とのなす角を特定する処理を、画像毎に実行し、画像毎のなす角に基づいて、前記特定の画像を選択することを特徴とする付記5に記載のパノラマ画像表示方法。
(付記7)前記選択する処理は、前記なす角が所定の閾値未満となる画像を、前記特定の画像として選択することを特徴とする付記6に記載のパノラマ画像表示方法。
(付記8)前記選択する処理は、前記なす角が所定の閾値未満となる画像から類似する複数の画像を抽出し、抽出した画像のうち、前記なす角が最小となる画像を、前記特定の画像として選択することを特徴とする付記7に記載のパノラマ画像表示方法。
(付記9)コンピュータに、
異なる位置で撮影され、同一の特徴点を有する複数の画像を取得し、
前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定し、
前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる
処理を実行させることを特徴とするパノラマ画像表示プログラム。
(付記10)前記選択する処理は、視線方向および画像中心に基づく第1線分と、画像を撮影した位置および前記画像中心を通る第2線分とのなす角を特定する処理を、画像毎に実行し、画像毎のなす角に基づいて、前記特定の画像を選択することを特徴とする付記9に記載のパノラマ画像表示プログラム。
(付記11)前記選択する処理は、前記なす角が所定の閾値未満となる画像を、前記特定の画像として選択することを特徴とする付記10に記載のパノラマ画像表示プログラム。
(付記12)前記選択する処理は、前記なす角が所定の閾値未満となる画像から類似する複数の画像を抽出し、抽出した画像のうち、前記なす角が最小となる画像を、前記特定の画像として選択することを特徴とする付記11に記載のパノラマ画像表示プログラム。
100 作業員端末
200 情報処理装置

Claims (6)

  1. 異なる位置で撮影され、同一の特徴点を有する複数の画像を取得する取得部と、
    前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定する特定部と、
    前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる表示制御部と
    を有することを特徴とする情報処理装置。
  2. 前記表示制御部は、視線方向および画像中心に基づく第1線分と、画像を撮影した位置および前記画像中心を通る第2線分とのなす角を特定する処理を、画像毎に実行し、画像毎のなす角に基づいて、前記特定の画像を選択することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記なす角が所定の閾値未満となる画像を、前記特定の画像として選択することを特徴とする請求項2に記載の情報処理装置。
  4. 前記表示制御部は、前記なす角が所定の閾値未満となる画像から類似する複数の画像を抽出し、抽出した画像のうち、前記なす角が最小となる画像を、前記特定の画像として選択することを特徴とする請求項3に記載の情報処理装置。
  5. コンピュータが実行するパノラマ画像表示方法であって、
    異なる位置で撮影され、同一の特徴点を有する複数の画像を取得し、
    前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定し、
    前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる
    処理を実行することを特徴とするパノラマ画像表示方法。
  6. コンピュータに、
    異なる位置で撮影され、同一の特徴点を有する複数の画像を取得し、
    前記複数の画像に基づき生成されるパノラマ画像を見るユーザの視線方向を特定し、
    前記視線方向を基にして、前記複数の画像から特定の画像を選択し、選択した特定の画像により構成したパノラマ画像を表示させる
    処理を実行させることを特徴とするパノラマ画像表示プログラム。
JP2016140811A 2016-07-15 2016-07-15 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム Pending JP2018010599A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016140811A JP2018010599A (ja) 2016-07-15 2016-07-15 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム
US15/617,467 US20180020203A1 (en) 2016-07-15 2017-06-08 Information processing apparatus, method for panoramic image display, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016140811A JP2018010599A (ja) 2016-07-15 2016-07-15 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム

Publications (1)

Publication Number Publication Date
JP2018010599A true JP2018010599A (ja) 2018-01-18

Family

ID=60941542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016140811A Pending JP2018010599A (ja) 2016-07-15 2016-07-15 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム

Country Status (2)

Country Link
US (1) US20180020203A1 (ja)
JP (1) JP2018010599A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019132664A (ja) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
KR102146839B1 (ko) * 2019-02-20 2020-08-21 강영호 실시간 가상현실 구축을 위한 시스템 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11270426B2 (en) * 2018-05-14 2022-03-08 Sri International Computer aided inspection system and methods
EP3598749A1 (en) * 2018-07-19 2020-01-22 Thomson Licensing A method and apparatus for generating an immersive image from images captured by a plurality of cameras
US11853524B2 (en) * 2022-04-01 2023-12-26 Capital One Services, Llc Augmented reality extended view

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019132664A (ja) * 2018-01-30 2019-08-08 株式会社豊田中央研究所 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
JP7036400B2 (ja) 2018-01-30 2022-03-15 株式会社豊田中央研究所 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
KR102146839B1 (ko) * 2019-02-20 2020-08-21 강영호 실시간 가상현실 구축을 위한 시스템 및 방법

Also Published As

Publication number Publication date
US20180020203A1 (en) 2018-01-18

Similar Documents

Publication Publication Date Title
CN110427917B (zh) 用于检测关键点的方法和装置
US11222471B2 (en) Implementing three-dimensional augmented reality in smart glasses based on two-dimensional data
CN107820593B (zh) 一种虚拟现实交互方法、装置及系统
US9208607B2 (en) Apparatus and method of producing 3D model
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
CN103139463B (zh) 扩增实境的方法、系统及移动装置
JP6264834B2 (ja) ガイド方法、情報処理装置およびガイドプログラム
CN105096382B (zh) 一种在视频监控图像中关联真实物体信息的方法及装置
US9129435B2 (en) Method for creating 3-D models by stitching multiple partial 3-D models
WO2023093217A1 (zh) 数据标注方法、装置、计算机设备、存储介质和程序
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
JP2013508794A (ja) 画像の少なくとも1つの特徴として記述子を提供する方法及び特徴をマッチングする方法
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
JP2011095797A (ja) 画像処理装置、画像処理方法及びプログラム
WO2015048906A1 (en) Augmented reality system and method for positioning and mapping
RU2013148372A (ru) Автоматическая калибровка системы отсчета дополненной реальности
CN104427230B (zh) 增强现实的方法和增强现实的系统
JP2018010599A (ja) 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム
WO2017041740A1 (en) Methods and systems for light field augmented reality/virtual reality on mobile devices
CN107710280A (zh) 对象可视化方法
WO2020015501A1 (zh) 地图构建方法、装置、存储介质及电子设备
CN113228117B (zh) 创作装置、创作方法和记录有创作程序的记录介质
CN104134235A (zh) 真实空间和虚拟空间的融合方法和融合系统
JP7043601B2 (ja) 環境モデルを生成するための方法および装置ならびに記憶媒体
JP5518677B2 (ja) 仮想情報付与装置及び仮想情報付与プログラム