JP2023082038A - 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム - Google Patents
畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム Download PDFInfo
- Publication number
- JP2023082038A JP2023082038A JP2023045383A JP2023045383A JP2023082038A JP 2023082038 A JP2023082038 A JP 2023082038A JP 2023045383 A JP2023045383 A JP 2023045383A JP 2023045383 A JP2023045383 A JP 2023045383A JP 2023082038 A JP2023082038 A JP 2023082038A
- Authority
- JP
- Japan
- Prior art keywords
- homography
- image
- point cloud
- neural network
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Probability & Statistics with Applications (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2017年6月28日に出願され、「METHOD AND SYSTEM FOR PERFORMING SIMULTANEOUS LOCALIZATION AND MAPPING USING CONVOLUTIONAL IMAGE TRANSFORMATION」と題された、米国仮特許出願第62/526,203号の非仮出願であり、その優先権の利益を主張する。
本明細書は、例えば、以下の項目も提供する。
(項目1)
2つの画像に基づいてホモグラフィを算出する方法であって、前記方法は、
第1のカメラ姿勢に基づく第1の画像と、第2のカメラ姿勢に基づく第2の画像とを受信することと、
前記第1の画像に基づく第1の点群と、前記第2の画像に基づく第2の点群とを生成することと、
前記第1の点群および前記第2の点群をニューラルネットワークに提供することと、
前記ニューラルネットワークによって、前記第1の点群および前記第2の点群に基づいて、前記ホモグラフィを生成することと
を含む、方法。
(項目2)
前記第1の点群および前記第2の点群は、2次元(2D)点群である、項目1に記載の方法。
(項目3)
前記第1の画像は、第1の瞬間において第1のカメラによって捕捉され、前記第2の画像は、前記第1の瞬間後の第2の瞬間において前記第1のカメラによって捕捉されている、項目2に記載の方法。
(項目4)
前記第1の点群および前記第2の点群は、第1のニューラルネットワークを使用して生成され、前記ニューラルネットワークは、第2のニューラルネットワークである、項目2に記載の方法。
(項目5)
前記ニューラルネットワークは、
複数の点を含む1つ以上の3D点群のうちの各3次元(3D)点群のために、
前記複数の点の閾値距離内の3D軌道を決定することと、
前記3D軌道をサンプリングし、特定の第1のカメラ姿勢および特定の第2のカメラ姿勢を取得することであって、前記複数の点は、少なくとも部分的に前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢から視認可能である、ことと、
前記特定の第1のカメラ姿勢に基づいて、前記複数の点を第1の2D平面上に投影し、第1の2D点群を生成することと、
前記特定の第2のカメラ姿勢に基づいて、前記複数の点を第2の2D平面上に投影し、第2の2D点群を生成することと、
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢に基づいて、前記第1の2D点群と前記第2の2D点群との間のグラウンドトゥルースホモグラフィを決定することと、
前記ニューラルネットワークによって、前記第1の2D点群および前記第2の2D点群に基づいて、特定のホモグラフィを生成することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
によって以前に訓練されている、項目2に記載の方法。
(項目6)
前記複数の3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、項目5に記載の方法。
(項目7)
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢は、少なくとも30%重複を有する、項目5に記載の方法。
(項目8)
拡張現実(AR)デバイスであって、前記ARデバイスは、
カメラと、
前記カメラに通信可能に結合されたプロセッサと
を備え、
前記プロセッサは、
前記カメラから、第1のカメラ姿勢に基づく第1の画像と、第2のカメラ姿勢に基づく第2の画像とを受信することと、
前記第1の画像に基づく第1の点群と、前記第2の画像に基づく第2の点群とを生成することと、
前記第1の点群および前記第2の点群をニューラルネットワークに提供することと、
前記ニューラルネットワークによって、前記第1の点群および前記第2の点群に基づいて、ホモグラフィを生成することと
を含む動作を実施するように構成されている、ARデバイス。
(項目9)
前記第1の点群および前記第2の点群は、2次元(2D)点群である、項目8に記載のARデバイス。
(項目10)
前記第1の点群および前記第2の点群は、第1のニューラルネットワークを使用して生成され、前記ニューラルネットワークは、第2のニューラルネットワークである、項目9に記載のARデバイス。
(項目11)
前記ニューラルネットワークは、
複数の点を含む1つ以上の3D点群のうちの各3次元(3D)点群のために、
前記複数の点の閾値距離内の3D軌道を決定することと、
前記3D軌道をサンプリングし、特定の第1のカメラ姿勢および特定の第2のカメラ姿勢を取得することであって、前記複数の点は、少なくとも部分的に前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢から視認可能である、ことと、
前記特定の第1のカメラ姿勢に基づいて、前記複数の点を第1の2D平面上に投影し、第1の2D点群を生成することと、
前記特定の第2のカメラ姿勢に基づいて、前記複数の点を第2の2D平面上に投影し、第2の2D点群を生成することと、
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢に基づいて、前記第1の2D点群と前記第2の2D点群との間のグラウンドトゥルースホモグラフィを決定することと、
前記ニューラルネットワークによって、前記第1の2D点群および前記第2の2D点群に基づいて、特定のホモグラフィを生成することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
によって以前に訓練されている、項目9に記載のARデバイス。
(項目12)
前記複数の3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、項目11に記載のARデバイス。
(項目13)
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢は、少なくとも30%重複を有する、項目11に記載のARデバイス。
(項目14)
命令を備えている非一過性コンピュータ読み取り可能な媒体であって、前記命令は、プロセッサによって実行されると、
第1のカメラ姿勢に基づく第1の画像と、第2のカメラ姿勢に基づく第2の画像とを受信することと、
前記第1の画像に基づく第1の点群と、前記第2の画像に基づく第2の点群とを生成することと、
前記第1の点群および前記第2の点群をニューラルネットワークに提供することと、
前記ニューラルネットワークによって、前記第1の点群および前記第2の点群に基づいて、ホモグラフィを生成することと
を含む動作を前記プロセッサに実施させる、非一過性コンピュータ読み取り可能な媒体。
(項目15)
前記第1の点群および前記第2の点群は、2次元(2D)点群である、項目14に記載の非一過性コンピュータ読み取り可能な媒体。
(項目16)
前記第1の画像は、第1の瞬間において第1のカメラによって捕捉され、前記第2の画像は、前記第1の瞬間後の第2の瞬間において前記第1のカメラによって捕捉されている、項目15に記載の非一過性コンピュータ読み取り可能な媒体。
(項目17)
前記第1の点群および前記第2の点群は、第1のニューラルネットワークを使用して生成され、前記ニューラルネットワークは、第2のニューラルネットワークである、項目15に記載の非一過性コンピュータ読み取り可能な媒体。
(項目18)
前記ニューラルネットワークは、
複数の点を含む1つ以上の3D点群のうちの各3次元(3D)点群のために、
前記複数の点の閾値距離内の3D軌道を決定することと、
前記3D軌道をサンプリングし、特定の第1のカメラ姿勢および特定の第2のカメラ姿勢を取得することであって、前記複数の点は、少なくとも部分的に前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢から視認可能である、ことと、
前記特定の第1のカメラ姿勢に基づいて、前記複数の点を第1の2D平面上に投影し、第1の2D点群を生成することと、
前記特定の第2のカメラ姿勢に基づいて、前記複数の点を第2の2D平面上に投影し、第2の2D点群を生成することと、
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢に基づいて、前記第1の2D点群と前記第2の2D点群との間のグラウンドトゥルースホモグラフィを決定することと、
前記ニューラルネットワークによって、前記第1の2D点群および前記第2の2D点群に基づいて、特定のホモグラフィを生成することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することと、
前記比較に基づいて、前記ニューラルネットワークを修正することと
によって以前に訓練されている、項目15に記載の非一過性コンピュータ読み取り可能な媒体。
(項目19)
前記複数の3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、項目18に記載の非一過性コンピュータ読み取り可能な媒体。
(項目20)
前記特定の第1のカメラ姿勢および前記特定の第2のカメラ姿勢は、少なくとも30%重複を有する、項目18に記載の非一過性コンピュータ読み取り可能な媒体。
Claims (11)
- ホモグラフィを算出するためにニューラルネットワークを訓練するための方法であって、前記方法は、
複数の点を含む3D点群を生成することと、
2つのカメラ姿勢を取得することであって、前記2つのカメラ姿勢から前記複数の点が少なくとも部分的に視認可能である、ことと、
前記2つのカメラ姿勢を使用して前記複数の点を2つの2D平面上に投影することにより、2つの2D点群を生成することと、
前記ニューラルネットワークによって、前記2つの2D点群に基づいて、特定のホモグラフィを生成することと、
前記2つのカメラ姿勢に基づいて、グラウンドトゥルースホモグラフィを決定することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することにより、誤差を生成することと、
前記誤差に基づいて、前記ニューラルネットワークを修正することと
を含む、方法。 - 前記3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、請求項1に記載の方法。
- 前記1つ以上の幾何学形状は、平面、球体、または立方体を含む、請求項2に記載の方法。
- 前記2つのカメラ姿勢に基づいて、前記グラウンドトゥルースホモグラフィを決定することは、
前記2つのカメラ姿勢間の相対的回転および相対的平行移動を決定することを含む、請求項1に記載の方法。 - 命令を備えている非一過性コンピュータ読み取り可能な媒体であって、前記命令は、1つ以上のプロセッサによって実行されると、
複数の点を含む3D点群を生成することと、
2つのカメラ姿勢を取得することであって、前記2つのカメラ姿勢から前記複数の点が少なくとも部分的に視認可能である、ことと、
前記2つのカメラ姿勢を使用して前記複数の点を2つの2D平面上に投影することにより、2つの2D点群を生成することと、
ニューラルネットワークによって、前記2つの2D点群に基づいて、特定のホモグラフィを生成することと、
前記2つのカメラ姿勢に基づいて、グラウンドトゥルースホモグラフィを決定することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することにより、誤差を生成することと、
前記誤差に基づいて、前記ニューラルネットワークを修正することと
を含む動作を前記1つ以上のプロセッサに実施させる、非一過性コンピュータ読み取り可能な媒体。 - 前記3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、請求項5に記載の非一過性コンピュータ読み取り可能な媒体。
- 前記1つ以上の幾何学形状は、平面、球体、または立方体を含む、請求項6に記載の非一過性コンピュータ読み取り可能な媒体。
- 前記2つのカメラ姿勢に基づいて、前記グラウンドトゥルースホモグラフィを決定することは、
前記2つのカメラ姿勢間の相対的回転および相対的平行移動を決定することを含む、請求項5に記載の非一過性コンピュータ読み取り可能な媒体。 - 1つ以上のプロセッサと、
命令を備えている非一過性コンピュータ読み取り可能な媒体と
を備えるシステムであって、前記命令は、前記1つ以上のプロセッサによって実行されると、
複数の点を含む3D点群を生成することと、
2つのカメラ姿勢を取得することであって、前記2つのカメラ姿勢から前記複数の点が少なくとも部分的に視認可能である、ことと、
前記2つのカメラ姿勢を使用して前記複数の点を2つの2D平面上に投影することにより、2つの2D点群を生成することと、
ニューラルネットワークによって、前記2つの2D点群に基づいて、特定のホモグラフィを生成することと、
前記2つのカメラ姿勢に基づいて、グラウンドトゥルースホモグラフィを決定することと、
前記特定のホモグラフィを前記グラウンドトゥルースホモグラフィと比較することにより、誤差を生成することと、
前記誤差に基づいて、前記ニューラルネットワークを修正することと
を含む動作を前記1つ以上のプロセッサに実施させる、システム。 - 前記3D点群は、1つ以上の幾何学形状をサンプリングすることによって生成される、請求項9に記載のシステム。
- 前記2つのカメラ姿勢に基づいて、前記グラウンドトゥルースホモグラフィを決定することは、
前記2つのカメラ姿勢間の相対的回転および相対的平行移動を決定することを含む、請求項9に記載のシステム。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201762526203P | 2017-06-28 | 2017-06-28 | |
| US62/526,203 | 2017-06-28 | ||
| JP2019571451A JP7250709B2 (ja) | 2017-06-28 | 2018-06-27 | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム |
| PCT/US2018/039804 WO2019005999A1 (en) | 2017-06-28 | 2018-06-27 | METHOD AND SYSTEM FOR PERFORMING SIMULTANEOUS MAPPING AND LOCALIZATION USING CONVOLUTIONAL IMAGE TRANSFORMATION |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019571451A Division JP7250709B2 (ja) | 2017-06-28 | 2018-06-27 | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023082038A true JP2023082038A (ja) | 2023-06-13 |
| JP7495546B2 JP7495546B2 (ja) | 2024-06-04 |
Family
ID=64738202
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019571451A Active JP7250709B2 (ja) | 2017-06-28 | 2018-06-27 | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム |
| JP2023045383A Active JP7495546B2 (ja) | 2017-06-28 | 2023-03-22 | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019571451A Active JP7250709B2 (ja) | 2017-06-28 | 2018-06-27 | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム |
Country Status (9)
| Country | Link |
|---|---|
| US (2) | US10726570B2 (ja) |
| EP (1) | EP3646244A4 (ja) |
| JP (2) | JP7250709B2 (ja) |
| KR (1) | KR102662201B1 (ja) |
| CN (1) | CN110799991B (ja) |
| AU (1) | AU2018292610B2 (ja) |
| CA (1) | CA3066228A1 (ja) |
| IL (1) | IL271519B2 (ja) |
| WO (1) | WO2019005999A1 (ja) |
Families Citing this family (45)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10726570B2 (en) | 2017-06-28 | 2020-07-28 | Magic Leap, Inc. | Method and system for performing simultaneous localization and mapping using convolutional image transformation |
| US11080890B2 (en) * | 2017-07-28 | 2021-08-03 | Qualcomm Incorporated | Image sensor initialization in a robotic vehicle |
| KR102759339B1 (ko) * | 2017-11-14 | 2025-01-22 | 매직 립, 인코포레이티드 | 호모그래픽 적응을 통한 완전 콘볼루셔널 관심 포인트 검출 및 디스크립션 |
| US10742959B1 (en) | 2017-12-29 | 2020-08-11 | Perceive Corporation | Use of machine-trained network for misalignment-insensitive depth perception |
| GB201804400D0 (en) * | 2018-03-20 | 2018-05-02 | Univ Of Essex Enterprise Limited | Localisation, mapping and network training |
| US11017548B2 (en) * | 2018-06-21 | 2021-05-25 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using range images |
| US11164067B2 (en) * | 2018-08-29 | 2021-11-02 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging |
| WO2020156836A1 (en) * | 2019-02-01 | 2020-08-06 | Siemens Aktiengesellschaft | Dense 6-dof pose object detector |
| US11003909B2 (en) * | 2019-03-20 | 2021-05-11 | Raytheon Company | Neural network trained by homographic augmentation |
| CN110135474A (zh) * | 2019-04-26 | 2019-08-16 | 武汉市土地利用和城市空间规划研究中心 | 一种基于深度学习的倾斜航空影像匹配方法和系统 |
| US12361285B2 (en) | 2019-05-09 | 2025-07-15 | Automobilia Ii, Llc | Methods, systems and computer program products for media processing and display |
| US11003956B2 (en) * | 2019-05-16 | 2021-05-11 | Naver Corporation | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression |
| CN110472668B (zh) * | 2019-07-22 | 2021-02-19 | 华北电力大学(保定) | 一种图像分类方法 |
| CN110426035B (zh) * | 2019-08-13 | 2023-01-24 | 哈尔滨理工大学 | 一种基于单目视觉和惯导信息融合的定位及建图方法 |
| US11468585B2 (en) * | 2019-08-27 | 2022-10-11 | Nec Corporation | Pseudo RGB-D for self-improving monocular slam and depth prediction |
| CN110610486B (zh) * | 2019-08-28 | 2022-07-19 | 清华大学 | 单目图像深度估计方法及装置 |
| US10699715B1 (en) * | 2019-12-27 | 2020-06-30 | Alphonso Inc. | Text independent speaker-verification on a media operating system using deep learning on raw waveforms |
| CN115104135B (zh) * | 2020-02-14 | 2025-02-18 | Oppo广东移动通信有限公司 | 用于增强现实的物体检测系统和方法 |
| KR20210128269A (ko) | 2020-04-16 | 2021-10-26 | 삼성전자주식회사 | 증강 현실(ar) 디바이스 및 증강 현실 디바이스에서 포즈를 예측하는 방법 |
| KR102807183B1 (ko) * | 2021-04-20 | 2025-05-13 | 재단법인대구경북과학기술원 | 듀얼 어텐션 다중 인스턴스 학습 방법 |
| EP4143739A4 (en) | 2020-05-01 | 2023-09-27 | Magic Leap, Inc. | NETWORK OF IMAGE DESCRIPTORS WITH IMPOSED HIERARCHICAL NORMALIZATION |
| CN111612066B (zh) * | 2020-05-21 | 2022-03-08 | 成都理工大学 | 基于深度融合的卷积神经网络的遥感图像分类方法 |
| US11934959B2 (en) * | 2020-06-01 | 2024-03-19 | Nvidia Corporation | Video synthesis using one or more neural networks |
| US20210407302A1 (en) * | 2020-06-30 | 2021-12-30 | Sony Group Corporation | System of multi-drone visual content capturing |
| CN112001431B (zh) * | 2020-08-11 | 2022-06-28 | 天津大学 | 一种基于梳状卷积的高效图像分类方法 |
| US11836965B2 (en) * | 2020-08-12 | 2023-12-05 | Niantic, Inc. | Determining visual overlap of images by using box embeddings |
| US11380121B2 (en) * | 2020-08-25 | 2022-07-05 | Sony Group Corporation | Full skeletal 3D pose recovery from monocular camera |
| CN112417752B (zh) * | 2020-10-29 | 2022-11-08 | 济南大学 | 基于卷积lstm神经网络的云层轨迹预测方法及系统 |
| WO2022099180A1 (en) * | 2020-11-09 | 2022-05-12 | Automobilia Ii, Llc | Methods, systems and computer program products for media processing and display |
| US11263796B1 (en) * | 2020-11-11 | 2022-03-01 | Sony Interactive Entertainment Inc. | Binocular pose prediction |
| US12198395B2 (en) | 2021-01-19 | 2025-01-14 | Objectvideo Labs, Llc | Object localization in video |
| CN112861690B (zh) * | 2021-02-01 | 2024-02-02 | 武汉汉达瑞科技有限公司 | 多方法融合的遥感影像变化检测方法及系统 |
| US11822620B2 (en) * | 2021-02-18 | 2023-11-21 | Microsoft Technology Licensing, Llc | Personalized local image features using bilevel optimization |
| KR20220122287A (ko) | 2021-02-26 | 2022-09-02 | 삼성전자주식회사 | 증강 현실 제공 장치의 포즈 결정 방법 및 장치 |
| CN116940801A (zh) | 2021-03-04 | 2023-10-24 | 株式会社索思未来 | 信息处理设备、信息处理方法和程序 |
| US12047550B2 (en) * | 2021-03-24 | 2024-07-23 | Faro Technologies, Inc. | Three-dimiensional point cloud generation using machine learning |
| CN113393524B (zh) * | 2021-06-18 | 2023-09-26 | 常州大学 | 一种结合深度学习和轮廓点云重建的目标位姿估计方法 |
| CN113592756B (zh) * | 2021-07-29 | 2023-05-23 | 华中科技大学鄂州工业技术研究院 | 一种消化道共聚焦图像拼接方法 |
| US12045950B2 (en) | 2021-09-27 | 2024-07-23 | Ford Global Technologies, Llc | Object pose estimation |
| KR20230049969A (ko) * | 2021-10-07 | 2023-04-14 | 삼성전자주식회사 | 글로벌 측위 장치 및 방법 |
| US11941827B2 (en) * | 2021-10-19 | 2024-03-26 | Datalogic Ip Tech S.R.L. | System and method of 3D point cloud registration with multiple 2D images |
| KR20230120272A (ko) | 2022-02-09 | 2023-08-17 | 삼성전자주식회사 | 객체의 동작을 트랜스퍼하는 방법 및 장치 |
| US12183058B2 (en) * | 2022-02-16 | 2024-12-31 | Shopify Inc. | Systems and methods for training and using a machine learning model for matching objects |
| DE102023205539A1 (de) * | 2023-06-14 | 2024-12-19 | Robert Bosch Gesellschaft mit beschränkter Haftung | Ansteuerung eines Roboters zur Ausführung komplexer Aufgaben |
| US20250046091A1 (en) * | 2023-08-04 | 2025-02-06 | GridMatrix, Inc. | Traffic image sensor movement detection and handling |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
| KR101188588B1 (ko) * | 2008-03-27 | 2012-10-08 | 주식회사 만도 | 모노큘러 모션 스테레오 기반의 주차 공간 검출 장치 및방법 |
| US8339467B2 (en) * | 2010-03-25 | 2012-12-25 | Dacuda Ag | Synchronization of navigation and image information for handheld scanner |
| GB201208088D0 (en) * | 2012-05-09 | 2012-06-20 | Ncam Sollutions Ltd | Ncam |
| US8818133B2 (en) * | 2012-07-11 | 2014-08-26 | Raytheon Company | Point cloud construction with unposed camera |
| KR20150103723A (ko) * | 2013-01-03 | 2015-09-11 | 메타 컴퍼니 | 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스 |
| US9154773B2 (en) | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
| KR102170689B1 (ko) * | 2014-01-14 | 2020-10-27 | 한화테크윈 주식회사 | 영상 정합을 위한 특징점 샘플링 방법 |
| CN105205858B (zh) * | 2015-09-18 | 2018-04-13 | 天津理工大学 | 一种基于单个深度视觉传感器的室内场景三维重建方法 |
| US10430961B2 (en) * | 2015-12-16 | 2019-10-01 | Objectvideo Labs, Llc | Using satellite imagery to enhance a 3D surface model of a real world cityscape |
| US10306254B2 (en) * | 2017-01-17 | 2019-05-28 | Seiko Epson Corporation | Encoding free view point data in movie data container |
| CN106846416A (zh) * | 2017-02-06 | 2017-06-13 | 遂昌县睿鼎科技服务有限公司 | 单机分束双目被动立体视觉精确重构与细分拟合方法 |
| CN106897697A (zh) * | 2017-02-24 | 2017-06-27 | 深圳市唯特视科技有限公司 | 一种基于可视化编译器的人物和姿势检测方法 |
| US10726570B2 (en) | 2017-06-28 | 2020-07-28 | Magic Leap, Inc. | Method and system for performing simultaneous localization and mapping using convolutional image transformation |
-
2018
- 2018-06-27 US US16/020,541 patent/US10726570B2/en active Active
- 2018-06-27 EP EP18824287.9A patent/EP3646244A4/en active Pending
- 2018-06-27 JP JP2019571451A patent/JP7250709B2/ja active Active
- 2018-06-27 AU AU2018292610A patent/AU2018292610B2/en not_active Expired - Fee Related
- 2018-06-27 WO PCT/US2018/039804 patent/WO2019005999A1/en not_active Ceased
- 2018-06-27 KR KR1020207001799A patent/KR102662201B1/ko active Active
- 2018-06-27 CA CA3066228A patent/CA3066228A1/en active Pending
- 2018-06-27 CN CN201880043635.6A patent/CN110799991B/zh active Active
-
2019
- 2019-12-18 IL IL271519A patent/IL271519B2/en unknown
-
2020
- 2020-06-08 US US16/895,878 patent/US11238606B2/en active Active
-
2023
- 2023-03-22 JP JP2023045383A patent/JP7495546B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP7495546B2 (ja) | 2024-06-04 |
| EP3646244A1 (en) | 2020-05-06 |
| WO2019005999A1 (en) | 2019-01-03 |
| US20200302628A1 (en) | 2020-09-24 |
| AU2018292610A1 (en) | 2019-12-19 |
| CA3066228A1 (en) | 2019-01-03 |
| IL271519B2 (en) | 2023-06-01 |
| KR102662201B1 (ko) | 2024-04-30 |
| IL271519A (en) | 2020-02-27 |
| AU2018292610B2 (en) | 2022-11-17 |
| JP2020526818A (ja) | 2020-08-31 |
| US11238606B2 (en) | 2022-02-01 |
| US10726570B2 (en) | 2020-07-28 |
| CN110799991B (zh) | 2023-09-05 |
| JP7250709B2 (ja) | 2023-04-03 |
| US20190005670A1 (en) | 2019-01-03 |
| CN110799991A (zh) | 2020-02-14 |
| EP3646244A4 (en) | 2020-09-30 |
| KR20200024848A (ko) | 2020-03-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7495546B2 (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
| JP7403700B2 (ja) | ホモグラフィ適合を介した完全畳み込み着目点検出および記述 | |
| CN111243093B (zh) | 三维人脸网格的生成方法、装置、设备及存储介质 | |
| KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
| US9525862B2 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
| CN113272713B (zh) | 用于执行自改进的视觉测程法的系统和方法 | |
| WO2023071790A1 (zh) | 目标对象的姿态检测方法、装置、设备及存储介质 | |
| WO2019035155A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
| CN115039137B (zh) | 基于亮度估计渲染虚拟对象的相关方法以及相关产品 | |
| CN113614735A (zh) | 稠密6-DoF姿态对象检测器 | |
| JP2023065296A (ja) | 平面検出装置及び方法 | |
| US20240362891A1 (en) | Systems and methods for selecting motion models for aligning scene content captured by different image sensors | |
| Jian et al. | Realistic face animation generation from videos | |
| Chen et al. | Depth recovery with face priors | |
| US20240362802A1 (en) | Systems and methods for determining motion models for aligning scene content captured by different image sensors | |
| WO2023132261A1 (ja) | 情報処理システム、情報処理方法および情報処理プログラム | |
| CA3255678A1 (en) | Flexible 3d landmark detection | |
| HK40024414A (en) | Method and apparatus for generating three-dimensional face grid, device and storage medium | |
| Purps et al. | Reconstructing Facial Expressions | |
| HK40024414B (en) | Method and apparatus for generating three-dimensional face grid, device and storage medium | |
| Dou | Enhanced 3D capture for room-sized dynamic scenes with commodity depth cameras |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230322 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240523 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7495546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20240613 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20240625 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D04 |