JP2019075082A - 深度値推定を用いた映像処理方法及び装置 - Google Patents
深度値推定を用いた映像処理方法及び装置Info
- Publication number
- JP2019075082A JP2019075082A JP2018133934A JP2018133934A JP2019075082A JP 2019075082 A JP2019075082 A JP 2019075082A JP 2018133934 A JP2018133934 A JP 2018133934A JP 2018133934 A JP2018133934 A JP 2018133934A JP 2019075082 A JP2019075082 A JP 2019075082A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- pixels
- polygon
- pixel
- search range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
前記対応ピクセルの検索範囲を設定するステップは、前記多角形の深度値に基づいて前記対応ピクセルの検索範囲を設定するステップを含み得る。
前記対応ピクセルの複数の候補に基づいて、前記第2フレームで前記対応ピクセルの検索範囲をエピポーララインに沿って設定し得る。
1005:通信バス
1010:カメラ
1020:通信インターフェース
1030:プロセッサ
1040:メモリ
1050:ディスプレイ装置
Claims (35)
- 入力映像シーケンスから、第1フレーム及び第2フレームを含むフレームを選択するステップと、
前記選択されたフレームそれぞれの特徴点のうち深度値を含む特徴点を用いて、前記選択されたフレームごとに多角形を含む多角形メッシュを生成するステップと、
前記多角形メッシュに基づいて、前記第1フレームのピクセルに対応する前記第2フレームの対応ピクセルの検索範囲を設定するステップと、
前記検索範囲に基づいて前記第1フレームのピクセルと前記第2フレームの対応ピクセルをマッチングさせて前記第1フレームのピクセルの深度値を推定するステップと、
を含む、映像処理方法。 - 前記第1フレームのピクセルは、前記多角形メッシュに含まれるいずれか1つの多角形の中に位置し、
前記対応ピクセルの検索範囲を設定するステップは、前記多角形の深度値に基づいて前記対応ピクセルの検索範囲を設定するステップを含む、請求項1に記載の映像処理方法。 - 前記対応ピクセルの検索範囲を設定するステップは、前記第1フレームのピクセルを含む多角形のうち、1つの多角形の頂点の深度値に基づいて前記第2フレームで対応ピクセルの検索範囲を設定するステップを含む、請求項1に記載の映像処理方法。
- 前記対応ピクセルの検索範囲を設定するステップは、
前記第1フレームのピクセルを含む多角形のうち、1つの多角形の頂点が有する深度値を用いて前記第1フレームのピクセルの3次元候補座標を予測するステップと、
前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投影して前記対応ピクセルの検索範囲を設定するステップと、
を含む、請求項1に記載の映像処理方法。 - 前記ピクセルの3次元候補座標を予測するステップは、前記多角形の頂点が有する深度値それぞれを用いて3次元候補座標を予測するステップを含む、請求項4に記載の映像処理方法。
- 前記ピクセルの3次元候補座標を予測するステップは、前記多角形の頂点が有する深度値の補間された値に基づいて前記3次元候補座標を予測するステップを含む、請求項4に記載の映像処理方法。
- 前記対応ピクセルの検索範囲を設定するステップは、
前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投影して前記対応ピクセルの複数の候補を決定するステップと、
前記対応ピクセルの複数の候補を基準としてエピポーララインに沿って前記第2フレームにおける前記対応ピクセルの検索範囲を設定するステップと、
を含む、請求項4に記載の映像処理方法。 - 前記第1フレームのピクセルの深度値を推定するステップは、前記検索範囲に基づいて前記第1フレームのピクセルと前記対応ピクセルの複数の候補をマッチングさせて前記第1フレームのピクセルの深度値を推定するステップを含む、請求項7に記載の映像処理方法。
- 前記フレームを選択するステップは、前記入力映像シーケンスを撮影したカメラのポーズ情報を用いて前記選択されたフレームをペアリングするステップを含む、請求項1ないし8のうち何れか一項に記載の映像処理方法。
- 前記選択されたフレームをペアリングするステップは、前記選択されたフレーム間の重なり程度、前記選択されたフレーム間のベースラインの長さ、前記選択されたフレーム間の視野角のいずれか1つ又は2以上の組み合せに基づいて前記選択されたフレームをペアリングするステップを含む、請求項9に記載の映像処理方法。
- 前記多角形メッシュを生成するステップは、前記多角形が前記深度値を有する特徴点に対応する頂点を含むように前記多角形メッシュを生成するステップを含む、請求項1ないし10のうち何れか一項に記載の映像処理方法。
- 前記多角形のうち、前記第1フレームのピクセルを含む多角形の頂点が有する深度値を決定するステップをさらに含む、請求項1ないし11のうち何れか一項に記載の映像処理方法。
- 前記入力映像シーケンスを撮影するために使用されたカメラのポーズ情報を推定するステップをさらに含む、請求項1ないし12のうち何れか一項に記載の映像処理方法。
- 前記推定された深度値に基づいて深度マップを生成するステップをさらに含む、請求項1ないし13のうち何れか一項に記載の映像処理方法。
- 前記深度マップを用いて前記入力映像シーケンスの再構成された3次元映像を生成するステップを含む、請求項14に記載の映像処理方法。
- ハードウェアと結合して請求項1に記載の方法を実行させるため媒体に格納されたコンピュータプログラム。
- 入力映像シーケンスを撮影するカメラと、
前記入力映像シーケンスから、第1フレーム及び第2フレームを含むフレームを選択し、前記選択されたフレームそれぞれの特徴点のうち深度値を含む特徴点を用いて前記選択されたフレームごとに多角形を含む多角形メッシュを生成し、前記多角形メッシュに基づいて、前記第1フレームのピクセルに対応する前記第2フレームの対応ピクセルの検索範囲を設定し、前記検索範囲に基づいて前記第1フレームのピクセルと前記第2フレームの対応ピクセルをマッチングさせて前記第1フレームのピクセルの深度値を推定するプロセッサと、を含む、映像処理装置。 - 前記第1フレームのピクセルは前記多角形メッシュに含まれるいずれか1つの多角形の中に位置し、
前記プロセッサは、前記多角形の深度値に基づいて前記対応ピクセルの検索範囲を設定する、請求項17に記載の映像処理装置。 - 前記プロセッサは、前記第1フレームのピクセルを含む多角形のうち1つの多角形の頂点の深度値に基づいて、前記第2フレームで対応ピクセルの検索範囲を設定する、請求項17に記載の映像処理装置。
- 前記プロセッサは、前記第1フレームのピクセルを含む多角形のうち、1つの多角形の頂点が有する深度値を用いて前記第1フレームのピクセルの3次元候補座標を予測し、前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投影して前記対応ピクセルの検索範囲を設定する、請求項17に記載の映像処理装置。
- 前記プロセッサは、前記多角形の頂点が有する深度値それぞれを用いて3次元候補座標を予測する、請求項20に記載の映像処理装置。
- 前記プロセッサは、前記多角形の頂点が有する深度値の補間された値に基づいて前記3次元候補座標を予測する、請求項20に記載の映像処理装置。
- 前記プロセッサは、前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投影して前記対応ピクセルの複数の候補を決定し、前記対応ピクセルの複数の候補を基準としてエピポーララインに沿って前記第2フレームにおける前記対応ピクセルの検索範囲を設定する、請求項20に記載の映像処理装置。
- 前記プロセッサは、前記検索範囲に基づいて前記第1フレームのピクセルと前記対応ピクセルの複数の候補をマッチングさせて前記第1フレームのピクセルの深度値を推定する、請求項23に記載の映像処理装置。
- 前記プロセッサは、前記カメラのポーズ情報を用いて前記選択されたフレームをペアリングする、請求項17ないし24のうち何れか一項に記載の映像処理装置。
- 前記プロセッサは、前記選択されたフレーム間の重なり程度、前記選択されたフレーム間のベースラインの長さ、前記選択されたフレーム間の視野角のいずれか1つ又は2以上の組み合せに基づいて前記選択されたフレームをペアリングする、請求項25に記載の映像処理装置。
- 前記プロセッサは、前記多角形が前記深度値を有する特徴点に対応する頂点を含むように前記多角形メッシュを生成する、請求項17ないし26のうち何れか一項に記載の映像処理装置。
- 前記プロセッサは、前記多角形のうち前記第1フレームのピクセルを含む多角形の頂点が有する深度値を決定する、請求項17ないし27のうち何れか一項に記載の映像処理装置。
- 前記プロセッサは、前記カメラのポーズ情報を推定する、請求項17ないし28のうち何れか一項に記載の映像処理装置。
- 前記プロセッサは、前記推定された深度値に基づいて深度マップを生成する、請求項17ないし29のうち何れか一項に記載の映像処理装置。
- 前記プロセッサは、前記深度マップを用いて前記入力映像シーケンスの再構成された3次元映像を生成する、請求項30に記載の映像処理装置。
- 映像キャプチャー装置によってキャプチャーされた2次元入力映像シーケンスの複数のフレームから、第1フレーム及び第2フレームを含むフレームを選択し、
前記選択されたフレームそれぞれの特徴点であって2次元位置に対応する情報を含む特徴点のうち、深度値を含む特徴点を用いて、前記選択されたフレームそれぞれに対する多角形を含む2次元多角形メッシュを生成し、
前記2次元多角形メッシュに基づいて前記第1フレームのピクセルに対応する前記第2フレームの対応ピクセルの検索範囲を設定し、
前記検索範囲に基づいて前記第1フレームのピクセルと前記対応ピクセルをマッチングさせることで前記第1フレームのピクセルの深度値を推定し、
前記推定された深度値に基づいて深度マップを生成するプロセッサと、
前記深度マップを用いて前記2次元入力映像シーケンスの3次元映像を再構成するディスプレイ装置と、
を含む、拡張現実装置。 - 前記プロセッサは、
前記第1フレームのピクセルを含む多角形のうち、多角形の頂点の深度値に基づいて前記第1フレームのピクセルの3次元候補座標を予測し、
前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投射する、請求項32に記載の拡張現実装置。 - 前記プロセッサは、前記多角形の頂点が有する深度値の補間された値に基づいて前記3次元候補座標を予測する、請求項33に記載の拡張現実装置。
- 前記プロセッサは、
前記第1フレームのピクセルの3次元候補座標を前記第2フレームの座標系に投影することによって前記対応ピクセルの候補を決定し、
前記対応ピクセルの複数の候補に基づいて、前記第2フレームで前記対応ピクセルの検索範囲をエピポーララインに沿って設定する、請求項33に記載の拡張現実装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2017-0133815 | 2017-10-16 | ||
| KR1020170133815A KR102468897B1 (ko) | 2017-10-16 | 2017-10-16 | 깊이 값을 추정하는 방법 및 장치 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019075082A true JP2019075082A (ja) | 2019-05-16 |
| JP7173772B2 JP7173772B2 (ja) | 2022-11-16 |
Family
ID=63371544
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018133934A Active JP7173772B2 (ja) | 2017-10-16 | 2018-07-17 | 深度値推定を用いた映像処理方法及び装置 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10621783B2 (ja) |
| EP (1) | EP3471057B1 (ja) |
| JP (1) | JP7173772B2 (ja) |
| KR (1) | KR102468897B1 (ja) |
| CN (1) | CN109671115B (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20220050253A (ko) * | 2020-10-15 | 2022-04-25 | 한국전자기술연구원 | 포즈 정보와 뎁스 정보를 기초로 증강 현실을 제공하기 위한 3차원 맵을 구성하기 위한 장치 및 이를 위한 방법 |
Families Citing this family (30)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
| US10460512B2 (en) * | 2017-11-07 | 2019-10-29 | Microsoft Technology Licensing, Llc | 3D skeletonization using truncated epipolar lines |
| CN108416840B (zh) * | 2018-03-14 | 2020-02-18 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
| WO2020235067A1 (ja) * | 2019-05-22 | 2020-11-26 | オムロン株式会社 | 3次元計測システム及び3次元計測方法 |
| KR102911785B1 (ko) * | 2019-05-24 | 2026-01-14 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
| CN110310371B (zh) * | 2019-05-27 | 2023-04-04 | 太原理工大学 | 一种基于车载单目聚焦序列图像构建对象三维轮廓的方法 |
| KR102129206B1 (ko) * | 2019-06-14 | 2020-07-01 | 주식회사 큐픽스 | 사진 이미지를 이용한 3차원 좌표 계산 방법 및 3차원 좌표 계산 장치 |
| CN112085842B (zh) * | 2019-06-14 | 2024-04-09 | 北京京东乾石科技有限公司 | 深度值确定方法及装置、电子设备和存储介质 |
| CN112243518A (zh) * | 2019-08-29 | 2021-01-19 | 深圳市大疆创新科技有限公司 | 获取深度图的方法、装置及计算机存储介质 |
| US11503266B2 (en) * | 2020-03-06 | 2022-11-15 | Samsung Electronics Co., Ltd. | Super-resolution depth map generation for multi-camera or other environments |
| CN111601181B (zh) * | 2020-04-27 | 2022-04-29 | 北京首版科技有限公司 | 生成视频指纹数据的方法及装置 |
| US12496721B2 (en) * | 2020-05-08 | 2025-12-16 | Samsung Electronics Co., Ltd. | Virtual presence for telerobotics in a dynamic scene |
| CN112750157B (zh) * | 2020-08-11 | 2023-09-12 | 腾讯科技(深圳)有限公司 | 一种深度图像生成方法及装置 |
| CN112070817B (zh) * | 2020-08-25 | 2024-05-28 | 中国科学院深圳先进技术研究院 | 一种图像深度估计方法、终端设备及计算机可读存储介质 |
| WO2022123452A1 (en) * | 2020-12-12 | 2022-06-16 | Niantic, Inc. | Self-supervised multi-frame monocular depth estimation model |
| US11205310B1 (en) * | 2021-03-08 | 2021-12-21 | Htc Corporation | Background skybox constructing method and electronic device |
| US12159359B2 (en) | 2021-03-11 | 2024-12-03 | Quintar, Inc. | Use of multiple registrations for augmented reality system for viewing an event |
| US12542946B2 (en) | 2021-03-11 | 2026-02-03 | Quintar, Inc. | Remote presentation with augmented reality content synchronized with separately displayed video content |
| US12244782B2 (en) | 2021-03-11 | 2025-03-04 | Quintar, Inc. | Augmented reality system for remote presentation for viewing an event |
| US11645819B2 (en) | 2021-03-11 | 2023-05-09 | Quintar, Inc. | Augmented reality system for viewing an event with mode based on crowd sourced images |
| US12003806B2 (en) * | 2021-03-11 | 2024-06-04 | Quintar, Inc. | Augmented reality system for viewing an event with multiple coordinate systems and automatically generated model |
| US20230260240A1 (en) * | 2021-03-11 | 2023-08-17 | Quintar, Inc. | Alignment of 3d graphics extending beyond frame in augmented reality system with remote presentation |
| US11527047B2 (en) | 2021-03-11 | 2022-12-13 | Quintar, Inc. | Augmented reality system for viewing an event with distributed computing |
| US12028507B2 (en) * | 2021-03-11 | 2024-07-02 | Quintar, Inc. | Augmented reality system with remote presentation including 3D graphics extending beyond frame |
| US11657578B2 (en) | 2021-03-11 | 2023-05-23 | Quintar, Inc. | Registration for augmented reality system for viewing an event |
| CN113610961B (zh) * | 2021-08-05 | 2022-12-09 | 北京信息科技大学 | 一种基于卡尔曼滤波的由光场epi重建稠密深度方法 |
| CN113658242A (zh) * | 2021-08-23 | 2021-11-16 | 深圳市慧鲤科技有限公司 | 深度估计方法、装置、计算机设备及存储介质 |
| KR102802542B1 (ko) * | 2022-01-03 | 2025-05-07 | (주)넥스리얼 | 스테레오 영상 기반의 객체를 추적하기 위한 방법, 이를 수행하는 컴퓨팅시스템 및 컴퓨터-판독가능 매체 |
| CN119672084A (zh) * | 2023-09-15 | 2025-03-21 | 奥比中光科技集团股份有限公司 | 立体匹配的方法、装置、双目深度相机和电子设备 |
| CN117272758B (zh) * | 2023-11-20 | 2024-03-15 | 埃洛克航空科技(北京)有限公司 | 基于三角格网的深度估计方法、装置、计算机设备和介质 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012063480A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置 |
| JP2013178656A (ja) * | 2012-02-28 | 2013-09-09 | Topcon Corp | 画像処理装置、画像処理方法および画像処理用のプログラム |
| WO2014141522A1 (ja) * | 2013-03-12 | 2014-09-18 | 富士フイルム株式会社 | 画像判定装置、撮像装置、3次元計測装置、画像判定方法、及びプログラム |
| JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
Family Cites Families (31)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7061489B2 (en) | 2003-08-15 | 2006-06-13 | Microsoft Corporation | Precomputed radiance transfer for rendering objects |
| US7747067B2 (en) | 2003-10-08 | 2010-06-29 | Purdue Research Foundation | System and method for three dimensional modeling |
| US8326025B2 (en) | 2006-09-04 | 2012-12-04 | Koninklijke Philips Electronics N.V. | Method for determining a depth map from images, device for determining a depth map |
| US8330801B2 (en) | 2006-12-22 | 2012-12-11 | Qualcomm Incorporated | Complexity-adaptive 2D-to-3D video sequence conversion |
| KR100894874B1 (ko) | 2007-01-10 | 2009-04-24 | 주식회사 리얼이미지 | 그물 지도를 이용한 이차원 영상으로부터의 입체 영상 생성장치 및 그 방법 |
| JP2008309529A (ja) | 2007-06-12 | 2008-12-25 | Panasonic Corp | ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム |
| KR20100000671A (ko) * | 2008-06-25 | 2010-01-06 | 삼성전자주식회사 | 영상 처리 방법 |
| JP5229733B2 (ja) * | 2008-11-25 | 2013-07-03 | Necシステムテクノロジー株式会社 | ステレオマッチング処理装置、ステレオマッチング処理方法およびプログラム |
| US8290248B2 (en) | 2009-12-31 | 2012-10-16 | Mitsubishi Electric Research Laboratories, Inc. | Determining disparity search range in stereo videos |
| GB2478156A (en) * | 2010-02-26 | 2011-08-31 | Sony Corp | Method and apparatus for generating a disparity map for stereoscopic images |
| KR101681538B1 (ko) * | 2010-10-20 | 2016-12-01 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
| CN103988226B (zh) * | 2011-08-31 | 2017-09-26 | Metaio有限公司 | 用于估计摄像机运动以及用于确定实境三维模型的方法 |
| US9661307B1 (en) | 2011-11-15 | 2017-05-23 | Google Inc. | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D |
| US20130215239A1 (en) | 2012-02-21 | 2013-08-22 | Sen Wang | 3d scene model from video |
| CN102663810B (zh) * | 2012-03-09 | 2014-07-16 | 北京航空航天大学 | 一种基于相位偏移扫描的三维人脸全自动建模方法 |
| US20140241612A1 (en) | 2013-02-23 | 2014-08-28 | Microsoft Corporation | Real time stereo matching |
| US9183583B2 (en) | 2013-05-13 | 2015-11-10 | A9.Com, Inc. | Augmented reality recommendations |
| KR101472314B1 (ko) | 2013-05-22 | 2014-12-12 | 인하대학교 산학협력단 | 단일 카메라를 이용한 3차원 입력장치 및 방법 |
| US9715758B2 (en) | 2013-07-16 | 2017-07-25 | Samsung Electronics Co., Ltd. | Image processing apparatus and method using virtual point light (VPL) information |
| US9275078B2 (en) | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
| US9779508B2 (en) * | 2014-03-26 | 2017-10-03 | Microsoft Technology Licensing, Llc | Real-time three-dimensional reconstruction of a scene from a single camera |
| US20150381972A1 (en) * | 2014-06-30 | 2015-12-31 | Microsoft Corporation | Depth estimation using multi-view stereo and a calibrated projector |
| GB2532003A (en) * | 2014-10-31 | 2016-05-11 | Nokia Technologies Oy | Method for alignment of low-quality noisy depth map to the high-resolution colour image |
| EP3040941B1 (en) * | 2014-12-29 | 2017-08-02 | Dassault Systèmes | Method for calibrating a depth camera |
| KR101679741B1 (ko) * | 2015-05-06 | 2016-11-28 | 고려대학교 산학협력단 | 외곽 공간 특징 정보 추출 방법 |
| KR102146398B1 (ko) | 2015-07-14 | 2020-08-20 | 삼성전자주식회사 | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 |
| CN105654492B (zh) * | 2015-12-30 | 2018-09-07 | 哈尔滨工业大学 | 基于消费级摄像头的鲁棒实时三维重建方法 |
| CN106570900B (zh) * | 2016-10-11 | 2019-04-16 | 宁波大学 | 一种立体图像重定位方法 |
| US10282913B2 (en) * | 2017-07-24 | 2019-05-07 | Visom Technology, Inc. | Markerless augmented reality (AR) system |
| US10290049B1 (en) * | 2018-06-27 | 2019-05-14 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for multi-user augmented reality shopping |
| CN109448045B (zh) * | 2018-10-23 | 2021-02-12 | 南京华捷艾米软件科技有限公司 | 基于slam的平面多边形物体测量方法及机器可读存储介质 |
-
2017
- 2017-10-16 KR KR1020170133815A patent/KR102468897B1/ko active Active
-
2018
- 2018-05-22 US US15/986,368 patent/US10621783B2/en active Active
- 2018-06-28 CN CN201810686860.3A patent/CN109671115B/zh active Active
- 2018-07-17 JP JP2018133934A patent/JP7173772B2/ja active Active
- 2018-08-23 EP EP18190427.7A patent/EP3471057B1/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012063480A1 (ja) * | 2010-11-10 | 2012-05-18 | パナソニック株式会社 | 奥行き情報生成装置、奥行き情報生成方法、および、ステレオ画像変換装置 |
| JP2013178656A (ja) * | 2012-02-28 | 2013-09-09 | Topcon Corp | 画像処理装置、画像処理方法および画像処理用のプログラム |
| WO2014141522A1 (ja) * | 2013-03-12 | 2014-09-18 | 富士フイルム株式会社 | 画像判定装置、撮像装置、3次元計測装置、画像判定方法、及びプログラム |
| JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
Non-Patent Citations (2)
| Title |
|---|
| SEONYOUNG LEE, ET AL: "Real-time dense stereo matching architecture for high-resolution image", 2015 INTERNATIONAL SOC DESIGN CONFERENCE (ISOCC), JPN6022028213, 2015, US, pages 299 - 300, ISSN: 0004822808 * |
| 虞 飛: "高解像度画像対応ステレオマッチングのGPGPUによる高速化", 情報処理学会 研究報告 ハイパフォーマンスコンピューティング(HPC), vol. 2017−HPC−160, JPN6022028212, 19 July 2017 (2017-07-19), JP, pages 1 - 6, ISSN: 0004822807 * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20220050253A (ko) * | 2020-10-15 | 2022-04-25 | 한국전자기술연구원 | 포즈 정보와 뎁스 정보를 기초로 증강 현실을 제공하기 위한 3차원 맵을 구성하기 위한 장치 및 이를 위한 방법 |
| KR102472568B1 (ko) | 2020-10-15 | 2022-12-01 | 한국전자기술연구원 | 포즈 정보와 뎁스 정보를 기초로 증강 현실을 제공하기 위한 3차원 맵을 구성하기 위한 장치 및 이를 위한 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| US10621783B2 (en) | 2020-04-14 |
| KR102468897B1 (ko) | 2022-11-21 |
| JP7173772B2 (ja) | 2022-11-16 |
| EP3471057B1 (en) | 2022-01-26 |
| EP3471057A1 (en) | 2019-04-17 |
| KR20190042187A (ko) | 2019-04-24 |
| CN109671115A (zh) | 2019-04-23 |
| US20190114832A1 (en) | 2019-04-18 |
| CN109671115B (zh) | 2023-07-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7173772B2 (ja) | 深度値推定を用いた映像処理方法及び装置 | |
| US10818029B2 (en) | Multi-directional structured image array capture on a 2D graph | |
| US10846913B2 (en) | System and method for infinite synthetic image generation from multi-directional structured image array | |
| KR102647351B1 (ko) | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 | |
| Pradeep et al. | MonoFusion: Real-time 3D reconstruction of small scenes with a single web camera | |
| Kadambi et al. | 3d depth cameras in vision: Benefits and limitations of the hardware: With an emphasis on the first-and second-generation kinect models | |
| US8433157B2 (en) | System and method for three-dimensional object reconstruction from two-dimensional images | |
| US20190244372A1 (en) | System and method for infinite smoothing of image sequences | |
| EP2751777B1 (en) | Method for estimating a camera motion and for determining a three-dimensional model of a real environment | |
| Vidas et al. | Real-time mobile 3D temperature mapping | |
| CN101512601A (zh) | 从图像中确定深度图的方法以及确定深度图的设备 | |
| JP2018515825A (ja) | Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ | |
| US12015755B2 (en) | Real-time omnidirectional stereo matching method using multi-view fisheye lenses and system thereof | |
| da Silveira et al. | Dense 3D scene reconstruction from multiple spherical images for 3-DoF+ VR applications | |
| Pan et al. | Depth map completion by jointly exploiting blurry color images and sparse depth maps | |
| JP5178538B2 (ja) | 深度マップを画像から決定する方法、深度マップを決定する装置 | |
| JP6240706B2 (ja) | グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング | |
| Chatterjee et al. | Noise in structured-light stereo depth cameras: Modeling and its applications | |
| Placitelli et al. | Low-cost augmented reality systems via 3D point cloud sensors | |
| JP2009530701A5 (ja) | ||
| CN121241370A (zh) | 用于图像区域的深度补全和三维重建的系统及方法 | |
| Laskar et al. | Robust loop closures for scene reconstruction by combining odometry and visual correspondences | |
| KR102802569B1 (ko) | 2차원 거리뷰 이미지들에 기반하여 생성된 3차원 지도에 ar 이미지들을 정합하는 방법 및 장치 그의 동작 방법 | |
| Li et al. | Color-introduced frame-to-model registration for 3d reconstruction | |
| Meng et al. | Fast Visual-Inertial Odometry (VIO) Based on Improved Edge Drawing in Manhattan World |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210420 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220516 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221104 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7173772 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |