[go: up one dir, main page]

JP2019003280A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2019003280A
JP2019003280A JP2017115309A JP2017115309A JP2019003280A JP 2019003280 A JP2019003280 A JP 2019003280A JP 2017115309 A JP2017115309 A JP 2017115309A JP 2017115309 A JP2017115309 A JP 2017115309A JP 2019003280 A JP2019003280 A JP 2019003280A
Authority
JP
Japan
Prior art keywords
parameter
unit
map
real space
environmental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017115309A
Other languages
English (en)
Other versions
JP7046506B2 (ja
Inventor
拓哉 琴寄
Takuya Kotoyori
拓哉 琴寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017115309A priority Critical patent/JP7046506B2/ja
Priority to US16/003,607 priority patent/US10839549B2/en
Publication of JP2019003280A publication Critical patent/JP2019003280A/ja
Application granted granted Critical
Publication of JP7046506B2 publication Critical patent/JP7046506B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】マップ作成時とその後の複合現実感等の体験時との間で現実空間の環境が大きく異なった場合に、撮像部の位置の推定精度の低下を防止し得る仕組みを提供する。【解決手段】抽出部1102で現実空間に係る画像から抽出した特徴を用いて現実空間における撮像部1300の位置を推定する推定部1103と、抽出した特徴と推定した撮像部1300の位置とを用いて現実空間における当該特徴のマップ1105を生成する生成部1104と、マップ作成時において取得部1107で取得した第1の環境パラメータをマップ1105に関連付けて記録する記録部1108と、第1の環境パラメータと、複合現実感等の体験時において取得部1107で取得した第2の環境パラメータとの差が基準値よりも大きい場合に、通知部1500から警告を通知させる制御を行う差分判定部1110を備える。【選択図】図1

Description

本発明は、現実空間に係る画像を処理する情報処理装置及び情報処理方法、並びに、当該情報処理方法をコンピュータに実行させるためのプログラムに関するものである。
現実空間と仮想空間とをリアルタイムに融合させる技術として、複合現実感(Mixed Reality:MR)技術や拡張現実感(Augmented Reality:AR)技術が知られている。これらの技術は、現実空間とコンピュータによって作られる仮想空間とを繋ぎ目なく融合する技術である。そして、これらの技術は、例えば、組み立て作業時に作業手順や配線の様子を重畳表示する組み立て支援や、患者の体表面に体内の様子を重畳表示する手術支援等の様々な分野への応用が期待されている。
仮想物体が現実空間に実在するように観察者が感じるための装置の1つとして、ビデオシースルー型の情報処理装置がある。この情報処理装置は、例えば、ビデオカメラ等の撮像部で現実空間を撮影し、その撮影画像に仮想物体を重畳して得た合成画像を、リアルタイムにディスプレイ等の表示部に表示して、観察者に提示する装置である。一般に、このような情報処理装置としては、背面にビデオカメラを有するタブレット端末である携帯型情報端末や、頭部搭載型のビデオシースルー型HMD(Head Mounted Display)等が用いられる。
また、このような情報処理装置では、複合現実感等の体験時のために情報処理装置(具体的には撮像部)の現実空間内での位置を計算して推定する自己位置推定を行う必要がある。この際、高精度な自己位置推定を行うと処理負荷が高くなるため、自己位置推定の精度を保ちつつ、複合現実感等の体験時の処理負荷を低減させる手法が検討されている。その手法の1つとして、従来においては、体験領域について予めマップを作成する手法(例えば、特許文献1)や、体験時にマップを参照しながら自己位置推定を行う手法(例えば、特許文献2)が検討されている。
米国特許第8787614号明細書 特許第5296746号公報
Klein, G., Murray, D.: Parallel tracking and mapping for small AR workspaces. In: Intl. Symp. on Mixed and Augmented Reality (ISMAR), 2007 LSD-SLAM: Large-Scale Direct Monocular SLAM, J. Engel, T. Schops, D. Cremers, European Conference on Computer Vision (ECCV), 2014
しかしながら、上述した従来の技術においては、マップ作成時(第1の時点)とその後の複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく異なった場合に、撮像部の位置の推定精度が低下してしまうという問題があった。
本発明は、このような問題点に鑑みてなされたものであり、マップ作成時(第1の時点)とその後の複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく異なった場合に、撮像部の位置の推定精度の低下を防止し得る仕組みを提供することを目的とする。
本発明の情報処理装置は、撮像部で撮像された現実空間に係る画像を取得する画像取得手段と、前記画像から特徴を抽出する抽出手段と、前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する推定手段と、前記特徴と前記推定手段で推定した前記撮像部の位置とを用いて、前記現実空間における前記特徴のマップを生成する生成手段と、前記現実空間の環境を表す環境パラメータを取得するパラメータ取得手段と、前記生成手段で前記マップを生成した第1の時点において前記パラメータ取得手段で取得した前記環境パラメータである第1の環境パラメータを、当該マップに関連付けて記録する記録手段と、前記第1の環境パラメータと、前記第1の時点よりも後の第2の時点において前記パラメータ取得手段で取得した前記環境パラメータである第2の環境パラメータとの差が基準値よりも大きい場合に、警告を通知する通知手段と、を有する。
本発明の情報処理装置における他の態様は、撮像部で撮像された現実空間に係る画像を取得する画像取得手段と、前記画像から特徴を抽出する抽出手段と、前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する推定手段と、前記特徴と前記推定手段で推定した前記撮像部の位置とを用いて、前記現実空間における複数の環境条件に対応した前記特徴の複数のマップを生成する生成手段と、前記現実空間の前記複数の環境条件に係る環境を表す環境パラメータを取得するパラメータ取得手段と、前記生成手段で前記複数のマップを生成した第1の時点において前記パラメータ取得手段で前記複数の環境条件ごとに取得した複数の前記環境パラメータである複数の第1の環境パラメータを、それぞれ対応する当該複数のマップに関連付けて記録する記録手段と、前記第1の時点よりも後の第2の時点において前記パラメータ取得手段で取得した前記環境パラメータである第2の環境パラメータに基づいて、前記複数のマップの中から1つのマップを選択する選択手段と、を有し、前記推定手段は、前記第2の時点において前記抽出手段で抽出した特徴と、前記選択手段で選択したマップとを用いて、前記第2の時点における前記撮像部の位置を推定する。
また、本発明は、上述した情報処理装置による情報処理方法、及び、当該情報処理方法をコンピュータに実行させるためのプログラムを含む。
本発明によれば、マップ作成時(第1の時点)とその後の複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく異なった場合に、撮像部の位置の推定精度の低下を防止することができる。
本発明の第1の実施形態に係る情報処理システムの機能構成の一例を示すブロック図である。 本発明の第1の実施形態に係る情報処理システムのハードウェア構成の一例を示すブロック図である。 本発明の第1の実施形態に係る情報処理装置によるマップ生成時(第1の時点)の処理手順の一例を示すフローチャートである。 本発明の第1の実施形態に係る情報処理装置による複合現実感等の体験時(第2の時点)の処理手順の一例を示すフローチャートである。 本発明の第2の実施形態に係る情報処理システムの機能構成の一例を示すブロック図である。 本発明の第2の実施形態に係る情報処理装置によるマップ生成時(第1の時点)の処理手順の一例を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置による複合現実感等の体験時(第2の時点)の処理手順の一例を示すフローチャートである。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る情報処理システム1000の機能構成の一例を示すブロック図である。本実施形態に係る情報処理システム1000は、図1に示すように、情報処理装置1100、操作入力部1200、撮像部1300、照度センサー1400、及び、通知部1500を有して構成されている。なお、本明細書原稿においては、図1に示す情報処理装置1100を「情報処理装置1100−1」と記載する。また、情報処理装置1100−1は、図1に示すように、画像取得部1101、特徴抽出部1102、自己位置推定部1103、マップ生成部1104、マップ1105、パラメータ設定部1106、パラメータ取得部1107、パラメータ記録部1108、基準値設定部1109、及び、差分判定部1110の各機能構成を有している。
操作入力部1200は、ユーザである観察者が操作を行って情報処理装置1100−1に対して情報を入力する。
撮像部1300は、情報処理装置1100−1の制御に基づいて、現実空間に係る画像を撮像する。
照度センサー1400は、情報処理装置1100−1の制御に基づいて、現実空間の照度を検出する。なお、本実施形態においては、現実空間の環境を表す環境パラメータとして照度の情報を取得する例について説明を行うが、本発明においてはこれに限定されるものではない。
次いで、情報処理装置1100−1について説明する。
画像取得部1101は、操作入力部1200からの入力情報に基づいて、撮像部1300から現実空間に係る画像を取得する。特徴抽出部1102は、画像取得部1101で取得した画像から、画像中の特徴を抽出する。
自己位置推定部1103は、マップ生成時(第1の時点)においては、特徴抽出部1102で抽出した特徴を用いて、現実空間における撮像部1300の位置を推定する自己位置推定を行う。また、自己位置推定部1103は、マップ生成時(第1の時点)よりも後の複合現実感等の体験時(第2の時点)においては、当該体験時に特徴抽出部1102で抽出した特徴とマップ1105から得たマップ情報とを用いて、現実空間における撮像部1300の位置を推定する自己位置推定を行う。
マップ生成部1104は、特徴抽出部1102で抽出した特徴と自己位置推定部1103で推定した撮像部1300の位置とを用いて、現実空間における当該特徴のマップ1105を生成する。
パラメータ設定部1106は、操作入力部1200からの入力情報に基づいて、現実空間の環境を表す環境パラメータを設定する。具体的に、本実施形態においては、パラメータ設定部1106は、環境パラメータとして照度の情報を設定する。
パラメータ取得部1107は、パラメータ設定部1106で設定された環境パラメータに従って、現実空間の環境を表す環境パラメータを取得する。具体的に、本実施形態においては、パラメータ取得部1107は、環境パラメータとして照度の情報を取得する。
パラメータ記録部1108は、マップ生成時(第1の時点)においてパラメータ取得部1107で取得した環境パラメータ(第1の環境パラメータ)を、マップ1105に関連付けて記録する。具体的に、本実施形態においては、パラメータ記録部1108は、第1の環境パラメータとしてパラメータ取得部1107で取得した照度の情報を、マップ1105に関連付けて記録する。なお、パラメータ記録部1108は、環境パラメータをマップ1105に関連付けて記録する場合に、環境パラメータをマップ1105の内部に記録する態様であっても、環境パラメータをマップ1105とは別情報として記録する態様であってもよい。
基準値設定部1109は、操作入力部1200からの入力情報に基づいて、差分判定部1110による判定基準である基準値(許容値)を設定する。差分判定部1110は、マップ1105に関連付けて記録されている環境パラメータ(第1の環境パラメータ)と、複合現実感等の体験時(第2の時点)においてパラメータ取得部1107で取得した環境パラメータ(第2の環境パラメータ)との差が、基準値設定部1109で設定した基準値以下であるか否かを判定する。ここで、第1の環境パラメータと第2の環境パラメータとの差が基準値以下でない場合(即ち、第1の環境パラメータと第2の環境パラメータとの差が基準値よりも大きい場合)には、マップ生成時(第1の時点)と複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく異なり、自己位置推定部1103による自己位置推定の精度が低下することが想定される場合である。この場合、差分判定部1110は、自己位置推定部1103による自己位置推定の精度が低下する可能性がある旨の警告を通知部1500から通知するべく、通知部1500を制御する。
通知部1500は、差分判定部1110において第1の環境パラメータと第2の環境パラメータ)との差が、基準値設定部1109で設定した基準値以下でないと判定された場合(即ち、第1の環境パラメータと第2の環境パラメータとの差が基準値よりも大きいと判定された場合)に、差分判定部1110の制御に基づいて、自己位置推定部1103による自己位置推定の精度が低下する可能性がある旨の警告を通知する。例えば、通知部1500は、当該警告を表示してユーザに通知する態様をとり得る。なお、本実施形態においては、当該警告を表示して通知する態様に限定されるものではなく、例えば、情報処理装置1100−1の各機能構成に出力して通知する態様や他の外部装置に出力して通知する態様も適用可能である。また、図1に示す例では、情報処理装置1100−1の外部に通知部1500を設けた形態を示しているが、本発明はこの形態に限定されるものではなく、情報処理装置1100−1の内部に通知部1500を設けた形態も本発明に適用可能である。
図2は、本発明の第1の実施形態に係る情報処理システム1000のハードウェア構成の一例を示すブロック図である。なお、図2において、図1に示す構成と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
情報処理装置1100は、図2に示すように、CPU1121、RAM1122、ROM1123、外部記憶装置1124、記憶媒体ドライブ1125、入出力I/F(インターフェース)1126、及び、バス1127の各ハードウェア構成を有している。
CPU1121は、バス1127を介して接続する各デバイス(各ハードウェア構成)を統括的に制御して、情報処理装置1100の動作を制御する。CPU1121は、読み出し専用メモリであるROM1123に記憶されたプログラムを読み出して実行する。なお、本実施形態においては、例えば、オペレーティングシステム(OS)をはじめとして、本実施形態に係る各処理のプログラムやデバイスドライバ等は、ROM1123に記憶されているものとする。CPU1121は、これらのプログラム等をランダムアクセスメモリであるRAM1122に一時記憶して、適宜実行する。
外部記憶装置1124は、例えば、CPU1121の各制御・処理により得られた情報等を記憶する。記憶媒体ドライブ1125は、記憶媒体を読み書きする装置である。
入出力I/F1126は、CPU1121の制御に基づいて、外部の装置(表示部1600や操作入力部1200等)から情報処理装置1100で処理可能な形式で入力信号を入力する。また、入出力I/F1126は、CPU1121の制御に基づいて、外部の装置(表示部1600等)で処理可能な形式で出力信号を出力する。
図1に示す操作入力部1200の一形態として、図2には、キーボード1201及びマウス1202が設けられている。また、図1に示す通知部1500の一形態として、図2には、表示部1600が設けられている。
ここで、図1に示す情報処理装置1100−1の各機能構成と、図2に示す情報処理システム1000の各ハードウェア構成との対応関係の一例について説明する。
例えば、図2に示すCPU1121がROM1123に記憶されているプログラムをRAM1122に展開して実行することにより、図1に示す情報処理装置1100−1の各機能構成1101〜1110が実現される。なお、例えば、CPU1121を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、図1に示す情報処理装置1100−1の各機能構成1101〜1110の処理に対応させた演算部や回路部を構成する態様も適用可能である。
次に、図1に示す情報処理装置1100−1による情報処理方法の処理手順について、図3及び図4を用いて説明する。
図3は、本発明の第1の実施形態に係る情報処理装置1100−1によるマップ生成時(第1の時点)の処理手順の一例を示すフローチャートである。
図3に示すフローチャートの処理が開始されると、まず、ステップS101において、パラメータ設定部1106は、操作入力部1200からの入力情報に基づいて、現実空間の環境を表す環境パラメータとして照度の情報を設定する。
続いて、ステップS102において、画像取得部1101は、操作入力部1200からの入力情報に基づいて、撮像部1300から現実空間に係る画像を取得する。
続いて、ステップS103において、特徴抽出部1102は、ステップS102で取得された画像から、画像中の特徴を抽出する。この際、このステップS103の具体的な処理手法としては、公知の何れの手法を用いてもよい(例えば、非特許文献1や非特許文献2参照)。
続いて、ステップS104において、自己位置推定部1103は、ステップS103で抽出された特徴を用いて、マップ生成時(第1の時点)での、現実空間における撮像部1300の位置を推定する自己位置推定を行う。このステップS104の具体的な処理手法としては、公知の何れの手法を用いてもよい(例えば、非特許文献1や非特許文献2参照)。
続いて、ステップS105において、マップ生成部1104は、ステップS103で抽出された特徴とステップS104で推定された撮像部1300の位置とを用いて、現実空間における当該特徴のマップ1105を生成する。このステップS105の具体的な処理手法としては、公知の何れの手法を用いてもよい(例えば、非特許文献1や非特許文献2、特許文献1参照)。
続いて、ステップS106において、パラメータ取得部1107は、パラメータ設定部1106で設定された環境パラメータに従って、照度センサー1400から、現実空間の環境を表す環境パラメータとして照度の情報を取得する。なお、ステップS106で取得した照度の情報は、マップ生成時(第1の時点)に取得した第1の環境パラメータに相当する。
続いて、ステップS107において、パラメータ記録部1108は、ステップS106で取得した第1の環境パラメータに相当する照度の情報を、ステップS105で生成したマップ1105に関連付けて記録する。この際、照度の情報をマップ1105に対して全ての点について記録するようにしても、任意の点について記録するようにしてもよい。また、撮像部1300の自己位置推定がされており、特徴点を十分推定できているときに、キーフレームと呼ばれる画像を動画像から取得し、取得したキーフレームごとに照度の情報を記録してもよい。また、マップ1105が複数存在してもよく、その場合にはマップ1105ごとに照度の情報を記録する。
続いて、ステップS108において、情報処理装置1100−1(例えば、マップ生成部1104)は、マップ1105が完成したか否かを判断する。このステップS108の具体的な処理手法としては、ユーザによる判断や所定の時間が経過した場合の他、公知の何れの手法を用いてもよい(例えば、特許文献1参照)。このステップS108の判断の結果、マップ1105が未完成である場合には(S108/NO)、ステップS102に戻り、ステップS102以降の処理を再度行う。
一方、ステップS108の判断の結果、マップ1105が完成した場合には(S108/YES)、図3に示すフローチャートの処理を終了する。
図4は、本発明の第1の実施形態に係る情報処理装置1100−1による複合現実感等の体験時(第2の時点)の処理手順の一例を示すフローチャートである。
図4に示すフローチャートの処理が開始されると、まず、ステップS201において、基準値設定部1109は、操作入力部1200からの入力情報に基づいて、差分判定部1110による判定基準である基準値(許容値)を設定する。このステップS201で設定される基準値は、例えば、ユーザが任意に設定した値であっても、実験によって求められた値であってもよい。
続いて、ステップS202において、パラメータ取得部1107は、パラメータ設定部1106で設定された環境パラメータに従って、照度センサー1400から、現実空間の環境を表す環境パラメータとして照度の情報を取得する。なお、ステップS202で取得した照度の情報は、複合現実感等の体験時(第2の時点)に取得した第2の環境パラメータに相当する。
続いて、ステップS203において、画像取得部1101は、操作入力部1200からの入力情報に基づいて、撮像部1300から現実空間に係る画像を取得する。
続いて、ステップS204において、特徴抽出部1102は、ステップS203で取得された画像から、画像中の特徴を抽出する。この際、このステップS204の具体的な処理手法としては、公知の何れの手法を用いてもよい(例えば、非特許文献1や非特許文献2参照)。
続いて、ステップS205において、差分判定部1110は、ステップS204で抽出された特徴に基づいて、マップ1105から当該特徴と最もよく一致する点について記録されている照度の情報(第1の環境パラメータ)を取得する。
続いて、ステップS206において、差分判定部1110は、ステップS205で取得した照度の情報(第1の環境パラメータ)と、ステップS202で取得された照度の情報(第2の環境パラメータ)との差が、ステップS201で設定された基準値以下であるか否かを判断する。
ステップS206の判断の結果、第1の環境パラメータと第2の環境パラメータとの差が基準値以下である場合には(S206/YES)、ステップS207に進む。なお、ステップS207に進む場合は、マップ生成時(第1の時点)と複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく変化していないと考えられる場合である。
ステップS207に進むと、自己位置推定部1103は、ステップS204で抽出された特徴とマップ1105から得たマップ情報とを用いて、複合現実感等の体験時(第2の時点)での、現実空間における撮像部1300の位置を推定する自己位置推定を行う。このステップS207の具体的な処理手法としては、公知の何れの手法を用いてもよい(例えば、非特許文献1や非特許文献2参照)。そして、このステップS207の処理が終了すると、ステップS202に戻り、ステップS202以降の処理を再度行う。
一方、ステップS206の判断の結果、第1の環境パラメータと第2の環境パラメータとの差が基準値以下でない場合(即ち、基準値よりも大きい場合)には(S206/NO)、ステップS208に進む。なお、ステップS208に進む場合は、マップ生成時(第1の時点)と複合現実感等の体験時(第2の時点)との間で現実空間の環境が大きく異なり、自己位置推定部1103による自己位置推定の精度が低下することが想定される場合である。
ステップS208に進むと、通知部1500は、差分判定部1110の制御に基づいて、自己位置推定部1103による自己位置推定の精度が低下する可能性がある旨の警告を通知する。そして、このステップS208の処理が終了すると、図4に示すフローチャートの処理を終了する。
[第1の実施形態の変形例1]
上述した第1の実施形態の本文の説明では、現実空間の環境を表す環境パラメータとして照度の情報を取得するものであったが、第1の実施形態の変形例1は、当該環境パラメータとして温度の情報を取得するものである。本変形例1の場合には、図1に示す照度センサー1400に替えて温度センサーを適用し、パラメータ設定部1106では、環境パラメータとして温度の情報を設定する態様を採る。また、本変形例1の場合における他の処理については、上述した第1の実施形態における「照度の情報」に替えて「温度の情報」を適用する態様を採る。
[第1の実施形態の変形例2]
第1の実施形態の変形例2は、現実空間の環境を表す環境パラメータとして撮像部1300の内部温度の情報を取得するものである。本変形例2の場合には、図1に示す照度センサー1400に替えて撮像部1300の内部に温度センサーを適用し、パラメータ設定部1106では、環境パラメータとして撮像部1300の内部温度の情報を設定する態様を採る。また、本変形例2の場合における他の処理については、上述した第1の実施形態における「照度の情報」に替えて「撮像部1300の内部温度の情報」を適用する態様を採る。なお、本変形例2の場合、図3のステップS107で記録する撮像部1300の内部温度の情報は、マップ1105の各点に対応していなくてもよい。
[第1の実施形態の変形例3]
第1の実施形態の変形例3は、現実空間の環境を表す環境パラメータとして湿度の情報を取得するものである。本変形例3の場合には、図1に示す照度センサー1400に替えて湿度センサーを適用し、パラメータ設定部1106では、環境パラメータとして湿度の情報を設定する態様を採る。また、本変形例3の場合における他の処理については、上述した第1の実施形態における「照度の情報」に替えて「湿度の情報」を適用する態様を採る。
以上説明したように、第1の実施形態(変形例1〜3も含む)では、差分判定部1110は、マップ生成時(第1の時点)の第1の環境パラメータと、複合現実感等の体験時(第2の時点)の第2の環境パラメータとの差が基準値よりも大きい場合に、自己位置推定部1103による自己位置推定の精度が低下する可能性がある旨の警告を通知部1500から通知させる制御を行っている。
かかる構成によれば、自己位置推定部1103による自己位置推定の精度が低下することが想定される場合に、当該自己位置推定に基づく複合現実感等の体験が行われることを回避することが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
図5は、本発明の第2の実施形態に係る情報処理システム2000の機能構成の一例を示すブロック図である。本実施形態に係る情報処理システム2000は、図1に示すように、情報処理装置1100、操作入力部1200、撮像部1300、及び、照度センサー1400を有して構成されている。なお、本明細書原稿においては、図5に示す情報処理装置1100を「情報処理装置1100−2」と記載する。また、情報処理装置1100−2は、図5に示すように、画像取得部1101、特徴抽出部1102、自己位置推定部1103、マップ生成部1104、マップ1111、パラメータ設定部1106、パラメータ取得部1107、パラメータ記録部1108、及び、マップ選択部1112の各機能構成を有している。なお、図5において、図1に示す構成と同様の構成については同じ符号を付しており、その詳細な説明は省略する。
以下、情報処理装置1100−2について説明する。なお、第2の実施形態においても、第1の実施形態と同様に、現実空間の環境を表す環境パラメータとして照度の情報を取得する例について説明を行うが、本発明においてはこれに限定されるものではない。
画像取得部1101は、操作入力部1200からの入力情報に基づいて、撮像部1300から現実空間に係る画像を取得する。特徴抽出部1102は、画像取得部1101で取得した画像から、画像中の特徴を抽出する。
自己位置推定部1103は、マップ生成時(第1の時点)においては、特徴抽出部1102で抽出した特徴を用いて、現実空間における撮像部1300の位置を推定する自己位置推定を行う。また、自己位置推定部1103は、マップ生成時(第1の時点)よりも後の複合現実感等の体験時(第2の時点)においては、当該体験時に特徴抽出部1102で抽出した特徴とマップ選択部1112で選択したマップから得たマップ情報とを用いて、現実空間における撮像部1300の位置を推定する自己位置推定を行う。
マップ生成部1104は、操作入力部1200からの入力情報に基づいて、特徴抽出部1102で抽出した特徴と自己位置推定部1103で推定した撮像部1300の位置とを用いて、現実空間における複数の環境条件に対応した当該特徴の複数のマップ1111を生成する。具体的に、本実施形態においては、マップ生成部1104は、現実空間における複数の照度条件に対応した複数のマップ1111を生成する。
パラメータ設定部1106は、操作入力部1200からの入力情報に基づいて、現実空間の環境を表す環境パラメータを設定する。具体的に、本実施形態においては、パラメータ設定部1106は、環境パラメータとして照度の情報を設定する。
パラメータ取得部1107は、パラメータ設定部1106で設定された環境パラメータに従って、現実空間の上述した複数の環境条件に係る環境(具体的に本実施形態においては、照度)を表す環境パラメータを取得する。より詳細に、パラメータ取得部1107は、マップ生成時(第1の時点)においては、操作入力部1200からの入力情報に基づいて、複数のマップ1111を生成する複数の環境条件ごとに複数の環境パラメータ(複数の第1の環境パラメータ)を取得する。また、パラメータ取得部1107は、複合現実感等の体験時(第2の時点)においては、操作入力部1200からの入力情報に基づいて、当該体験時の現実空間における環境パラメータ(第2の環境パラメータ)を取得する。
パラメータ記録部1108は、マップ生成時(第1の時点)においてパラメータ取得部1107で取得した複数の環境パラメータ(複数の第1の環境パラメータ)を、それぞれ環境条件が対応する複数のマップ1111に関連付けて記録する。具体的に、本実施形態においては、パラメータ記録部1108は、複数の第1の環境パラメータとしてパラメータ取得部1107で取得した複数の照度の情報を、それぞれ照度条件が対応する複数のマップ1111に関連付けて記録する。なお、パラメータ記録部1108は、複数の第1の環境パラメータをそれぞれ対応する複数のマップ1111に関連付けて記録する場合に、各環境パラメータを対応する各マップの内部に記録する態様であっても、各環境パラメータを対応する各マップとは別情報として記録する態様であってもよい。
マップ選択部1112は、複合現実感等の体験時(第2の時点)においてパラメータ取得部1107で取得した第2の環境パラメータに基づいて、複数のマップ1111の中から1つのマップを選択する。具体的に、マップ選択部1112は、複数のマップ1111の中から、第2の環境パラメータ(照度の情報)との関係で最も近い第1の環境パラメータ(照度の情報)が関連付けて記録されているマップを当該1つのマップとして選択する。
なお、図5に示す情報処理システム2000のハードウェア構成は、上述した図2に示す第1の実施形態に係る情報処理システム1000のハードウェア構成と同様である。この場合、例えば、図2に示すCPU1121がROM1123に記憶されているプログラムをRAM1122に展開して実行することにより、図5に示す情報処理装置1100−2の各機能構成1101〜1104,1106〜1108,1111,1112が実現される。なお、例えば、CPU1121を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、図5に示す情報処理装置1100−2の各機能構成1101〜1104,1106〜1108,1111,1112の処理に対応させた演算部や回路部を構成する態様も適用可能である。
次に、図5に示す情報処理装置1100−2による情報処理方法の処理手順について、図6及び図7を用いて説明する。
図6は、本発明の第2の実施形態に係る情報処理装置1100−2によるマップ生成時(第1の時点)の処理手順の一例を示すフローチャートである。この図6において、図3に示す処理ステップと同様の処理ステップについては、同じステップ番号を付している。
まず、図3に示す第1の実施形態と同様に、或る照度条件についてステップS101〜ステップS108の処理を行う。
ステップS108の判断の結果、或る照度条件におけるマップが完成した場合には(S108/YES)、ステップS301に進む。
ステップS301に進むと、情報処理装置1100−2(例えば、マップ生成部1104)は、例えば操作入力部1200からの入力情報に基づき指定された複数の照度条件に係る複数のマップ1111が完成したか否かを判断する。ここで、複数の照度条件は、ユーザが任意に決定した条件であっても、撮像部1300ごとに定められている条件であってもよい。
ステップS301の判断の結果、複数のマップ1111が未完成である場合には(S301/NO)、ステップS302に進む。
ステップS302に進むと、情報処理装置1100−2(例えば、マップ生成部1104)は、未だ処理を行っていない照度条件に変更し、生成するマップを切り替える。その後、ステップS102に戻り、ステップS102以降の処理を再度行う。なお、このステップ302以降の処理では、情報処理装置1100−2は、ステップS105で生成するマップとステップS107で記録する照度の情報を、これまでの処理で得られたものと別の場所に保存する。また、照度条件の異なるマップの生成は連続して行わなくてもよい。
一方、ステップS301の判断の結果、複数のマップ1111が完成した場合には(S301/YES)、図6に示すフローチャートの処理を終了する。
図7は、本発明の第2の実施形態に係る情報処理装置1100−2による複合現実感等の体験時(第2の時点)の処理手順の一例を示すフローチャートである。この図7において、図4に示す処理ステップと同様の処理ステップについては、同じステップ番号を付している。
図7に示すフローチャートの処理が開始されると、まず、図4のステップS202と同様に、パラメータ取得部1107は、パラメータ設定部1106で設定された環境パラメータに従って、照度センサー1400から、現実空間の環境を表す環境パラメータとして照度の情報を取得する。なお、ステップS202で取得した照度の情報は、複合現実感等の体験時(第2の時点)に取得した第2の環境パラメータに相当する。
続いて、ステップS401において、マップ選択部1112は、複数のマップ1111の中から、ステップS202で取得された第2の環境パラメータ(照度の情報)との関係で最も近い第1の環境パラメータ(照度の情報)が関連付けて記録されているマップを選択する。このステップS401の処理では、マップ全体の照度平均が現在(体験時)の照度に最も近い照度のマップを選択してもよいし、マップ中の基準となる点の照度が現在(体験時)の照度に最も近い照度のマップを選択してもよい。また、マップを用いずに自己位置推定を行い、対応点の照度と現在(体験時)の照度が最も近いマップを選択し、再度、自己位置推定を行ってもよい。
続いて、図4のステップS203と同様に、画像取得部1101は、操作入力部1200からの入力情報に基づいて、撮像部1300から現実空間に係る画像を取得する。
続いて、図4のステップS204と同様に、特徴抽出部1102は、ステップS203で取得された画像から、画像中の特徴を抽出する。
続いて、ステップS402において、自己位置推定部1103は、ステップS204で抽出された特徴とステップS401で選択されたマップから得たマップ情報とを用いて、当該体験時の、現実空間における撮像部1300の位置を推定する自己位置推定を行う。
続いて、ステップS403において、情報処理装置1100−2は、操作入力部1200からの入力情報に基づいて、複合現実感等の体験を終了するか否かを判断する。この判断の結果、複合現実感等の体験を終了しない場合には(S403/NO)、ステップS202に戻り、ステップS202以降の処理を再度行う。
一方、ステップS403の判断の結果、複合現実感等の体験を終了する場合には(S403/YES)、図7に示すフローチャートの処理を終了する。
[第2の実施形態の変形例1]
上述した第2の実施形態の本文の説明では、現実空間の環境を表す環境パラメータとして照度の情報を取得するものであったが、第2の実施形態の変形例1は、当該環境パラメータとして温度の情報を取得するものである。本変形例1の場合には、図5に示す照度センサー1400に替えて温度センサーを適用し、パラメータ設定部1106では、環境パラメータとして温度の情報を設定する態様を採る。また、本変形例1の場合における他の処理については、上述した第2の実施形態における「照度の情報」に替えて「温度の情報」を適用する態様を採る。
[第2の実施形態の変形例2]
第2の実施形態の変形例2は、現実空間の環境を表す環境パラメータとして撮像部1300の内部温度の情報を取得するものである。本変形例2の場合には、図5に示す照度センサー1400に替えて撮像部1300の内部に温度センサーを適用し、パラメータ設定部1106では、環境パラメータとして撮像部1300の内部温度の情報を設定する態様を採る。また、本変形例2の場合における他の処理については、上述した第2の実施形態における「照度の情報」に替えて「撮像部1300の内部温度の情報」を適用する態様を採る。なお、本変形例2の場合、図6のステップS107で記録する撮像部1300の内部温度の情報は、複数のマップ1111におけるそれぞれのマップの各点に対応していなくてもよい。
[第2の実施形態の変形例3]
第2の実施形態の変形例3は、現実空間の環境を表す環境パラメータとして湿度の情報を取得するものである。本変形例3の場合には、図5に示す照度センサー1400に替えて湿度センサーを適用し、パラメータ設定部1106では、環境パラメータとして湿度の情報を設定する態様を採る。また、本変形例3の場合における他の処理については、上述した第2の実施形態における「照度の情報」に替えて「湿度の情報」を適用する態様を採る。
以上説明したように、第2の実施形態(変形例1〜3も含む)では、マップ選択部1112は、マップ生成時(第1の時点)よりも後の複合現実感等の体験時(第2の時点)においてパラメータ取得部1107で取得した第2の環境パラメータに基づいて、複数のマップ1111の中から1つのマップを選択している。具体的に、マップ選択部1112は、複数のマップ1111の中から、第2の環境パラメータとの関係で最も近い第1の環境パラメータが関連付けて記録されているマップを選択している。そして、自己位置推定部1103は、複合現実感等の体験時に特徴抽出部1102で抽出した特徴とマップ選択部1112で選択したマップから得たマップ情報とを用いて、複合現実感等の体験時での、現実空間における撮像部1300の位置を推定している。
かかる構成によれば、自己位置推定部1103による自己位置推定の精度が低下することを防止することができ、その結果、当該精度が低下した自己位置推定に基づく複合現実感等の体験が行われることを回避することが可能となる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、または、その主要な特徴から逸脱することなく、様々な形で実施することができる。
1000:情報処理システム、1100:情報処理装置、1101:画像取得部、1102:特徴抽出部、1103:自己位置推定部、1104:マップ生成部、1105:マップ、1106:パラメータ設定部、1107:パラメータ取得部、1108:パラメータ記録部、1109:基準値設定部、1110:差分判定部、1200:操作入力部、1300:撮像部、1400:照度センサー、1500:通知部

Claims (10)

  1. 撮像部で撮像された現実空間に係る画像を取得する画像取得手段と、
    前記画像から特徴を抽出する抽出手段と、
    前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する推定手段と、
    前記特徴と前記推定手段で推定した前記撮像部の位置とを用いて、前記現実空間における前記特徴のマップを生成する生成手段と、
    前記現実空間の環境を表す環境パラメータを取得するパラメータ取得手段と、
    前記生成手段で前記マップを生成した第1の時点において前記パラメータ取得手段で取得した前記環境パラメータである第1の環境パラメータを、当該マップに関連付けて記録する記録手段と、
    前記第1の環境パラメータと、前記第1の時点よりも後の第2の時点において前記パラメータ取得手段で取得した前記環境パラメータである第2の環境パラメータとの差が基準値よりも大きい場合に、警告を通知する通知手段と、
    を有することを特徴とする情報処理装置。
  2. 前記推定手段は、さらに、前記第1の環境パラメータと前記第2の環境パラメータとの差が基準値以下である場合に、前記第2の時点において前記抽出手段で抽出した特徴と、前記マップとを用いて、前記第2の時点における前記撮像部の位置を推定することを特徴とする請求項1に記載の情報処理装置。
  3. 撮像部で撮像された現実空間に係る画像を取得する画像取得手段と、
    前記画像から特徴を抽出する抽出手段と、
    前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する推定手段と、
    前記特徴と前記推定手段で推定した前記撮像部の位置とを用いて、前記現実空間における複数の環境条件に対応した前記特徴の複数のマップを生成する生成手段と、
    前記現実空間の前記複数の環境条件に係る環境を表す環境パラメータを取得するパラメータ取得手段と、
    前記生成手段で前記複数のマップを生成した第1の時点において前記パラメータ取得手段で前記複数の環境条件ごとに取得した複数の前記環境パラメータである複数の第1の環境パラメータを、それぞれ対応する当該複数のマップに関連付けて記録する記録手段と、
    前記第1の時点よりも後の第2の時点において前記パラメータ取得手段で取得した前記環境パラメータである第2の環境パラメータに基づいて、前記複数のマップの中から1つのマップを選択する選択手段と、
    を有し、
    前記推定手段は、前記第2の時点において前記抽出手段で抽出した特徴と、前記選択手段で選択したマップとを用いて、前記第2の時点における前記撮像部の位置を推定することを特徴とする情報処理装置。
  4. 前記選択手段は、前記第2の環境パラメータとの関係で最も近い前記第1の環境パラメータが関連付けて記録されている前記マップを前記1つのマップとして選択することを特徴とする請求項3に記載の情報処理装置。
  5. 前記パラメータ取得手段は、前記環境パラメータとして照度の情報を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 前記パラメータ取得手段は、前記環境パラメータとして温度の情報を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  7. 前記パラメータ取得手段は、前記環境パラメータとして湿度の情報を取得することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  8. 撮像部で撮像された現実空間に係る画像を取得する画像取得ステップと、
    前記画像から特徴を抽出する抽出ステップと、
    前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する推定ステップと、
    前記特徴と前記推定ステップで推定した前記撮像部の位置とを用いて、前記現実空間における前記特徴のマップを生成する生成ステップと、
    前記現実空間の環境を表す環境パラメータを取得するパラメータ取得ステップと、
    前記生成ステップで前記マップを生成した第1の時点において前記パラメータ取得ステップで取得した前記環境パラメータである第1の環境パラメータを、当該マップに関連付けて記録する記録ステップと、
    前記第1の環境パラメータと、前記第1の時点よりも後の第2の時点において前記パラメータ取得ステップで取得した前記環境パラメータである第2の環境パラメータとの差が基準値よりも大きい場合に、警告を通知する通知ステップと、
    を有することを特徴とする情報処理方法。
  9. 撮像部で撮像された現実空間に係る画像を取得する画像取得ステップと、
    前記画像から特徴を抽出する抽出ステップと、
    前記特徴を用いて、前記現実空間における前記撮像部の位置を推定する第1の推定ステップと、
    前記特徴と前記第1の推定ステップで推定した前記撮像部の位置とを用いて、前記現実空間における複数の環境条件に対応した前記特徴の複数のマップを生成する生成ステップと、
    前記現実空間の前記複数の環境条件に係る環境を表す環境パラメータを取得するパラメータ取得ステップと、
    前記生成ステップで前記複数のマップを生成した第1の時点において前記パラメータ取得ステップで前記複数の環境条件ごとに取得した複数の前記環境パラメータである複数の第1の環境パラメータを、それぞれ対応する当該複数のマップに関連付けて記録する記録ステップと、
    前記第1の時点よりも後の第2の時点において前記パラメータ取得ステップで取得した前記環境パラメータである第2の環境パラメータに基づいて、前記複数のマップの中から1つのマップを選択する選択ステップと、
    前記第2の時点において前記抽出ステップで抽出した特徴と、前記選択ステップで選択したマップとを用いて、前記第2の時点における前記撮像部の位置を推定する第2の推定ステップと、
    を有することを特徴とする情報処理方法。
  10. 請求項8または9に記載の情報処理方法における各ステップをコンピュータに実行させるためのプログラム。
JP2017115309A 2017-06-12 2017-06-12 情報処理装置、情報処理方法及びプログラム Active JP7046506B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017115309A JP7046506B2 (ja) 2017-06-12 2017-06-12 情報処理装置、情報処理方法及びプログラム
US16/003,607 US10839549B2 (en) 2017-06-12 2018-06-08 Apparatus and method for estimating position of image capturing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017115309A JP7046506B2 (ja) 2017-06-12 2017-06-12 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019003280A true JP2019003280A (ja) 2019-01-10
JP7046506B2 JP7046506B2 (ja) 2022-04-04

Family

ID=64564211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017115309A Active JP7046506B2 (ja) 2017-06-12 2017-06-12 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10839549B2 (ja)
JP (1) JP7046506B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117552A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理システム、情報処理方法、及びプログラム
WO2023098463A1 (zh) * 2021-12-03 2023-06-08 杭州睿胜软件有限公司 植物识别方法、植物识别设备和植物识别系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021176947A1 (ja) * 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199099A (ja) * 2001-12-27 2003-07-11 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2015076855A (ja) * 2013-10-11 2015-04-20 リコーイメージング株式会社 撮像装置及び欠陥画素検出方法
WO2016085717A1 (en) * 2014-11-26 2016-06-02 Irobot Corporation Systems and methods for performing simultaneous localization and mapping using machine vision systems

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
FR2829265A1 (fr) * 2001-09-04 2003-03-07 St Microelectronics Sa Detection d'une variation de l'environnement d'un circuit integre
US20050135667A1 (en) * 2003-12-22 2005-06-23 Abb Oy. Method and apparatus for labeling images and creating training material
US20070088550A1 (en) * 2005-10-13 2007-04-19 Dimitar Filev Method for predictive maintenance of a machine
CN102265112B (zh) * 2009-09-04 2014-07-02 松下电器产业株式会社 位置矫正信息收集装置以及位置矫正装置
TWI391874B (zh) 2009-11-24 2013-04-01 Ind Tech Res Inst 地圖建置方法與裝置以及利用該地圖的定位方法
JP5728159B2 (ja) * 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
KR101782057B1 (ko) 2010-05-03 2017-09-26 삼성전자주식회사 지도 생성 장치 및 방법
EP2395418A3 (en) * 2010-06-14 2015-10-28 Sony Computer Entertainment Inc. Information processor, device, and information processing system
EP2423871B1 (en) * 2010-08-25 2014-06-18 Lakeside Labs GmbH Apparatus and method for generating an overview image of a plurality of images using an accuracy information
EP2423873B1 (en) * 2010-08-25 2013-12-11 Lakeside Labs GmbH Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
KR20120070291A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그의 동시 위치 인식 및 지도 작성 방법
JP5652227B2 (ja) * 2011-01-25 2015-01-14 ソニー株式会社 画像処理装置および方法、並びにプログラム
GB2495699B (en) * 2011-10-07 2019-03-27 Samsung Electronics Co Ltd Multimedia location-based sharing & multi-dimensional visualization
WO2014073204A1 (ja) * 2012-11-06 2014-05-15 国立大学法人東京工業大学 特徴量抽出装置及び場所推定装置
US10452892B2 (en) * 2013-12-17 2019-10-22 Sony Corporation Controlling image processing device to display data based on state of object in real space
US20150254881A1 (en) * 2014-03-10 2015-09-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9591458B2 (en) * 2014-03-12 2017-03-07 Marvell World Trade Ltd. Method and apparatus for adaptive positioning
US9807725B1 (en) * 2014-04-10 2017-10-31 Knowles Electronics, Llc Determining a spatial relationship between different user contexts
US9335764B2 (en) * 2014-05-27 2016-05-10 Recreational Drone Event Systems, Llc Virtual and augmented reality cockpit and operational control systems
CN106999247B (zh) * 2014-09-24 2020-10-16 7D外科有限公司 用于执行导航外科手术过程的跟踪标记支承结构以及采用其的表面配准方法
EP3309751B1 (en) * 2015-06-12 2022-04-20 Sony Group Corporation Image processing device, method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003199099A (ja) * 2001-12-27 2003-07-11 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2015076855A (ja) * 2013-10-11 2015-04-20 リコーイメージング株式会社 撮像装置及び欠陥画素検出方法
WO2016085717A1 (en) * 2014-11-26 2016-06-02 Irobot Corporation Systems and methods for performing simultaneous localization and mapping using machine vision systems

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"光源変化シミュレーションと深層学習による特徴量変換を用いたカメラ位置姿勢推定", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア (CVIM) 2017−CVIM−2, JPN6021025876, 3 May 2017 (2017-05-03), ISSN: 0004545654 *
GEORG KLEIN AND DAVID MURRAY: "Parallel Tracking and Mapping for Small AR Workspaces", 2007 6TH IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY, JPN7021002470, 13 November 2007 (2007-11-13), US, ISSN: 0004545655 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117552A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 情報処理システム、情報処理方法、及びプログラム
JPWO2021117552A1 (ja) * 2019-12-10 2021-06-17
US12062147B2 (en) 2019-12-10 2024-08-13 Sony Group Corporation Information processing system and information processing method
JP7613375B2 (ja) 2019-12-10 2025-01-15 ソニーグループ株式会社 情報処理システム、情報処理方法、及びプログラム
WO2023098463A1 (zh) * 2021-12-03 2023-06-08 杭州睿胜软件有限公司 植物识别方法、植物识别设备和植物识别系统

Also Published As

Publication number Publication date
US10839549B2 (en) 2020-11-17
JP7046506B2 (ja) 2022-04-04
US20180357785A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
US10535113B2 (en) Image processing apparatus, image processing method, and storage medium for generating a mask image
JP7743579B2 (ja) 画像処理装置、及び画像処理装置による画像処理方法
CN111027438B (zh) 一种人体姿态的迁移方法、移动终端以及计算机存储介质
US20250342598A1 (en) Object tracking apparatus, object tracking method, and program
JP2019003280A (ja) 情報処理装置、情報処理方法及びプログラム
US10685490B2 (en) Information processing apparatus, information processing method, and storage medium
US12136487B2 (en) Medical imaging system, medical imaging method, and image processing device
JP2021015476A5 (ja)
JP2018041201A (ja) 表示制御プログラム、表示制御方法および情報処理装置
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
CN114253390A (zh) 增强现实系统和生成增强现实的方法
EP2800349B1 (en) Method and electronic device for generating thumbnail image
JP5161544B2 (ja) 画像表示システム
JP2010146285A (ja) 画像処理システム及び画像処理方法
JP2020187529A (ja) 画像処理装置、画像処理システム、制御方法、および、プログラム
JP2022165662A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP2003216977A (ja) 情報提供装置及び情報提供方法、記憶媒体、並びにコンピュータ・プログラム
JP7416736B2 (ja) 撮影支援装置、撮影支援方法、及び撮影支援プログラム
US11463625B2 (en) Electronic appliance, image display system, and image display control method
JP7370769B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2024100582A (ja) 画像処理装置、画像処理方法、及びプログラム
US20240054665A1 (en) Image processing apparatus, method, and program
JP2021163179A (ja) 情報処理装置及びその制御方法、プログラム、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220323

R151 Written notification of patent or utility model registration

Ref document number: 7046506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151