[go: up one dir, main page]

CN117808979B - 三维模型的构建方法及装置 - Google Patents

三维模型的构建方法及装置

Info

Publication number
CN117808979B
CN117808979B CN202311184152.7A CN202311184152A CN117808979B CN 117808979 B CN117808979 B CN 117808979B CN 202311184152 A CN202311184152 A CN 202311184152A CN 117808979 B CN117808979 B CN 117808979B
Authority
CN
China
Prior art keywords
dimensional
image
information
point
common feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311184152.7A
Other languages
English (en)
Other versions
CN117808979A (zh
Inventor
请求不公布姓名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhixuan Innovation (Shanghai) Science and Technology Co., Ltd.
Original Assignee
Shanghai Zhiyuan Xinchuang Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Zhiyuan Xinchuang Technology Co ltd filed Critical Shanghai Zhiyuan Xinchuang Technology Co ltd
Priority to CN202311184152.7A priority Critical patent/CN117808979B/zh
Publication of CN117808979A publication Critical patent/CN117808979A/zh
Application granted granted Critical
Publication of CN117808979B publication Critical patent/CN117808979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开涉及一种三维模型的构建方法及装置,该方法包括:获取第一图像、至少一个第二图像和三维点云地图,第一图像与第二图像具有第一共同特征点;根据第一图像中第一共同特征点和三维点云地图,确定第一共同特征点的深度信息;根据第一共同特征点的深度信息、第一共同特征点在第一图像的相机坐标系下的位置信息和第一图像的相机位姿信息,构建第一三维模型;根据第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息;根据第一共同特征点的深度信息、第一共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,得到补充构建后的第二三维模型。

Description

三维模型的构建方法及装置
技术领域
本公开涉及图像定位技术,更具体地,涉及一种三维模型的构建方法及装置。
背景技术
图像定位是机器人和增强现实领域的一项基本任务,是逼真场景重建的基石。精确定位是确保重建三维结果真实可靠的必要条件。
目前,三维重建算法一般使用图像的二维特征点计算图像之间的相对位姿,这种算法易受到光照等环境变化的影响。同时单目图像在定位和重建方面存在尺度信息的缺失,并且随着参与计算的图像数量增加,定位漂移成为一个不可忽视的问题。
另外,通过结合高精度的激光雷达测距和二维图像可以实现较好的建图效果,但是这种方法需要同步采集激光雷达数据和图像数据,使得这种方法存在一些局限性。
因此,目前需要提供一种精确构建三维模型的方法。
发明内容
本发明的一个目的是提供一种三维模型的构建方法的新技术方案。
根据本发明的第一方面,提供了一种三维模型的构建方法,包括:
获取第一图像、至少一个第二图像和三维点云地图;其中,所述第一图像与所述至少一个第二图像具有第一共同特征点;
根据所述第一图像中第一共同特征点和所述三维点云地图,确定所述第一共同特征点的深度信息;
根据所述第一共同特征点的深度信息、所述第一共同特征点在所述第一图像的相机坐标系下的位置信息和所述第一图像的相机位姿信息,构建第一三维模型;
根据所述第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息;
根据所述第一共同特征点的深度信息、所述第一共同特征点在对应的第二图像的相机坐标系下的位置信息和所述对应的第二图像的相机位姿信息,对所述第一三维模型进行补充构建,得到第二三维模型。
可选的,所述根据所述第一图像中各组第一共同特征点和所述三维点云地图,确定所述第一图像中各组第一共同特征点的深度信息,包括:
获取所述第一图像的相机位姿信息;
根据所述第一图像的相机位姿信息,将所述三维点云地图投影到所述第一图像对应的相机成像平面,得到投影结果;
在所述投影结果为所述三维点云地图的一个雷达点的投影点与一个第一共同特征点重合的情况下,确定所述雷达点与所述第一共同特征点的距离,以作为所述第一共同特征点的深度信息。
可选的,所述方法还包括:
在所述投影结果为所述三维点云地图的多个雷达点的投影点与同一个第一共同特征点重合的情况下,确定各雷达点与所述同一个第一特征点的距离,并将最小距离作为所述同一个共同特征点的深度信息。
可选的,所述方法还包括:
对于每两个第二图像,获取第二共同特征点;
根据第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,确定第二共同特征点的深度信息;
根据所述第二共同特征点的深度信息、所述第二共同特征点在对应的第二图像的相机坐标下的位置信息和对应的第二图像的相机位姿信息,对所述第二三维模型进行补充构建,得到第三三维模型。
可选的,所述方法还包括:
在基于每一个第二图像完成对所述第一三维模型的补充构建的情况下,获取参与三维模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息以及三维点对应的雷达点的三维点云信息;
将所述参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息;
根据所述优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,得到优化后的三维模型。
可选的,在所述获取三维点对应的雷达点的三维点云信息之前,所述方法还包括:
获取各三维点对应的所有第二图像;
在第一三维点对应的所有第二图像包括最后一个参与三维模型构建的图像的情况下,从第一三维点对应的所有第二图像中,提取目标图像;其中,所述目标图像与所述最后一个参与三维模型构建的图像的共同特征点的数量超过第一预设阈值;
根据所述目标图像对应的相机在所述三维点云地图中的位置姿态信息,将所述三维点云地图投影到所述目标图像对应的相机成像平面,得到投影结果;
在所述投影结果为所述三维点云地图的一个雷达点的投影点与一个共同特征点重合,并且所述共同特征点是与所述第一三维点对应的像素点的情况下,将所述雷达点的三维点云信息作为所述第一三维点对应的雷达点的三维点云信息。
可选的,所述方法还包括:
在所述投影结果为所述三维点云地图的多个雷达点与同一个共同特征点重合,并且所述共同特征点是与所述第一三维点对应的像素点的情况下,根据各雷达点与同一个共同特征点的连线、各雷达点对应的局部平面的法向量,得到多个夹角值;
选取最小夹角值对应的雷达点的三维点云信息,并将所述最小夹角值对应的雷达点的三维点云信息作为所述第一三维点对应的雷达点的三维点云信息。
可选的,所述方法还包括:
在第二三维点对应的第二图像不包括最后一个参与三维模型构建的图像的情况下,确定与所述第二三维点距离最近的雷达点,并将与所述第二三维点距离最近的雷达点的三维点云信息作为所述第二三维点对应的雷达点的三维点云信息。
可选的,所述将所述参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,包括:
将所述参与模型构建的图像的相机位姿信息划分为第一组相机位姿信息和第二组相机位姿信息;其中,所述第一组相机位姿信息对应的图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第二预设阈值,所述第二组相机位姿信息对应的图像与所述最后一个参与模型构建的图像的共同特征点的数量未超过所述第二预设阈值;
将所述补充构建后的三维模型的三维点的坐标信息划分为第一组三维点的坐标信息和第二组三维点的坐标信息;其中,所述第一组三维点对应的图像的数量超过第三预设阈值,所述第二组三维点对应的图像的数量未超过所述第三预设阈值;
确定各三维点与对应的雷达点的距离值;
将所述第一组相机位姿信息、所述第一组三维点的坐标信息和参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息作为固定因子,所述第二组相机位姿信息、所述第二组三维点的坐标信息作为可变因子,所述各三维点与对应的雷达点的距离值作为因子的边,输入所述因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息。
可选的,所述方法还包括:
在预设数量的第二图像完成对所述第一三维模型的补充构建的情况下,获取位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息;其中,所述特定空间范围为以最后一个参与三维模型构建的图像对应的相机中心为球心,以预设半径作为半径得到的;
将位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息输入因子图中,得到优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息;
根据所述优化后的特定空间范围内的图像的相机位姿信息和所述优化后的特定空间范围内的三维点的坐标信息,得到优化后的三维模型。
根据本发明的第二方面,提供了一种三维模型的构建装置,包括:
获取模块,用于获取第一图像、至少一个第二图像和三维点云地图;其中,所述第一图像与所述至少一个第二图像具有第一共同特征点;
深度信息确定模块,用于根据所述第一图像中第一共同特征点和所述三维点云地图,确定所述第一共同特征点的深度信息;
第一三维模型构建模块,用于根据所述第一共同特征点的深度信息、所述第一共同特征点在所述第一图像的相机坐标系下的位置信息和所述第一图像的相机位姿信息,构建第一三维模型;
相机位姿信息确定模块,用于根据所述第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息;
第二三维模型构建模块,用于根据所述第一共同特征点的深度信息、所述第一共同特征点在对应的第二图像的相机坐标系下的位置信息和所述对应的第二图像的相机位姿信息,对所述第一三维模型进行补充构建,得到第二三维模型。
根据本发明的第三方面,提供了一种三维模型的构建装置,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序用于控制所述处理器进行操作以执行根据本发明的第一方面任一项所述的方法。
本发明提供的三维模型的构建方法,不再需要同步采集图像数据和三维点云数据,通过采集的图像数据和三维点云数据的配准,实现三维模型的准确构建。
通过以下参照附图对本说明书的示例性实施例的详细描述,本说明书的实施例的特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本说明书的实施例,并且连同其说明一起用于解释本说明书实施例的原理。
图1是根据本发明一个实施例的三维模型的构建方法的处理流程图。
图2是根据本发明一个实施例的三维点云地图投影到第一图像对应的相机成像平面的示意图。
图3是根据本发明一个实施例的特定空间范围的确定示意图。
图4是根据本发明一个实施例的三维模型的构建装置的原理框图。
图5是根据本发明一个实施例的三维模型的构建装置的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本说明书的各种示例性实施例。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本说明书实施例及其应用或使用的任何限制。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<方法实施例>
本发明的一个实施例提供了一种三维模型的构建方法。根据图1所示,本实施例的三维模型的构建方法可以包括如下S110~S150。
S110,获取第一图像、至少一个第二图像和三维点云地图;其中,第一图像与至少一个第二图像具有第一共同特征点。
三维点云地图是基于激光雷达传感器对全景扫描得到的三维点云数据生成的地图。
第一图像和第二图像是利用相机对全景中不同场景或者同一场景不同角度拍摄得到的图像。
共同特征点是为不同图像分别基于同一场景对应的成像点。
在第二图像为一个的情况下,第一图像与第二图像具有一组第一共同特征点。
在第二图像为多个的情况下,第一图像与每一个第二图像均具有一组第一共同特征点。每一组第一共同特征点的数量可以是多个。任意两组的第一共同特征点可以是不同的。
S120,根据第一图像中第一共同特征点和三维点云地图,确定第一共同特征点的深度信息。
在一个具体实施例中,S120包括S121~S123。
S121,获取第一图像的相机位姿信息。
第一图像的相机位姿信息是已知的,可以直接获取。
S122,根据第一图像的相机位姿信息,将三维点云地图投影到第一图像对应的相机成像平面,得到投影结果。
图2是根据本发明的一个实施例的三维点云地图投影到第一图像对应的相机成像平面的示意图。
根据第一图像的相机位姿信息,可以确定第一图像对应的相机在三维点云地图中的位置和姿态。
在三维点云地图中确定第一图像对应的相机的位置和姿态后,参见图2,以相机的中心O1为顶点,以第一图像对应的相机成像平面S为底面,组成一个四棱锥。四棱锥的深度为提前标定的参数。
根据沿着垂直于第一图像对应的相机成像平面的方向,将包围在四棱锥内的雷达点投影到第一图像对应的相机成像平面,得到各雷达点的投影结果。
S123,在投影结果为三维点云地图的一个雷达点的投影点与一个第一共同特征点重合的情况下,确定雷达点与第一共同特征点的距离,以作为第一共同特征点的深度信息。
在投影结果为三维点云地图的多个雷达点的投影点与同一个第一共同特征点重合的情况下,确定各雷达点与同一个第一共同特征点的距离,并将最小距离作为同一个共同特征点的深度信息。
需要说明的是,并不是每一个共同特征点都能确定一个对应的深度信息。
S130,根据第一共同特征点的深度信息、第一共同特征点在第一图像的相机坐标系下的位置信息和第一图像的相机位姿信息,构建第一三维模型。
在第二图像为多个的情况下,根据第一图像中的一组第一共同特征点的深度信息、第一图像中的一组第一共同特征点在第一图像的相机坐标系下的位置信息和第一图像的相机位姿信息,可以构建在第一图像的相机坐标系下的三维模型。然后,将在第一图像的相机坐标系下的三维模型转换到世界坐标系下的三维模型,以作为第一三维模型。
具体的,基于每一个共同特征点的深度信息、每一个共同特征点在第一图像的相机坐标系下的位置信息和第一图像的相机位姿信息,可以得到该第一共同特征点在第一图像的相机坐标系下的三维位置信息。然后将该第一共同特征点在第一图像的相机坐标系下的三维位置信息转换为世界坐标系下的三维位置信息。
第一三维模型信息包括多个三维点的坐标信息和各图像的相机位姿信息。
参与第一三维模型构建的一组第一共同特征点的数量超过一个预设阈值。优选地,利用数量最多的一组第一共同特征点参与第一三维模型的构建。
在第二图像为多个的情况下,根据第一图像中各组第一共同特征点的深度信息、第一图像中各组第一共同特征点在第一图像的相机坐标系的位置信息和第一图像的相机位姿信息,可以构建在第一图像的相机坐标系下的三维模型。然后,将在第一图像的相机坐标系下的三维模型转换到世界坐标系下的三维模型,以作为第一三维模型。
S140,根据第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息。
在第二图像为一个的情况下,基于Perspective-n-Point(PnP)算法,根据第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定该第二图像的相机位姿信息。
在第二图像为多个的情况下,利用PnP算法,基于每一个第二图像,根据一组第一共同特征点的深度信息和该组第一共同特征点在对应的图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息。
S150,根据第一共同特征点的深度信息、第一共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,对第一三维模型进行补充构建,得到第二三维模型。
根据第一共同特征点的深度信息、第一共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,可以构建在各第二图像的相机坐标系下的三维模型。然后,将在各第二图像的相机坐标系下的三维模型转换到世界坐标系下的三维模型,以对第一三维模型进行补充构建,得到第二三维模型。
具体的,基于每一个第一共同特征点的深度信息、每一个第一共同特征点在第二图像的相机坐标系下的位置信息和第二图像的相机位姿信息,可以得到该第一共同特征点在第二图像的相机坐标系下的三维位置信息。然后将该第一共同特征点在第二图像的相机坐标系下的三维位置信息转换为世界坐标系下的三维位置信息。
第二三维模型信息包括多个三维点的坐标信息和各图像的相机位姿信息。相较于第一三维模型,第二三维模型包括的三维点的数量更多,各图像的相机位姿信息更多。
本发明实施例提供的三维模型的构建方法,不再需要同步采集图像数据和三维点云数据,通过采集的图像数据和三维点云数据的配准,实现三维模型的准确构建。
在第二图像为多个的情况下,由于不同的第二图像也可能包括同一场景的成像点,这些成像点可以参与三维模型的构建,以提高三维模型构建的完整性。在本发明地一个实施例中,三维模型的构建方法还包括:对于每两个第二图像,获取第二共同特征点;根据第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,确定第二共同特征点的深度信息;根据第二共同特征点的深度信息、第二共同特征点在对应的第二图像的相机坐标下的位置信息和对应的第二图像的相机位姿信息,对第二三维模型进行补充构建,得到第三三维模型。
每一组第二共同特征点的数量可以是多个。
第二共同特征点的深度信息可以根据Direct Linear Transform(DLT,直接线性变换)三角化的方法确定。
基于每两个第二图像,根据第二共同特征点的深度信息、第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,可以分别构建在这两个第二图像的相机坐标系下的三维模型。然后,将在这两个第二图像的相机坐标系下的三维模型分别转换到世界坐标系下的三维模型,以对第二三维模型进行补充构建,得到第三三维模型。
具体的,基于每一个第二共同特征点的深度信息、每一个第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,可以得到该第二共同特征点在第二图像的相机坐标系下的三维位置信息。然后将该第二共同特征点在第二图像的相机坐标系下的三维位置信息转换为世界坐标系下的三维位置信息。
在本发明的一个实施例中,在基于每一个第二图像完成对第一三维模型的补充构建后,对补充构建后的三维模型进行一次优化,提高三维模型的构建精度。该优化操作具体包括S211~S213。
S211,获取参与三维模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息以及三维点对应的雷达点的三维点云信息。
三维点对应的雷达点的三维点云信息可以根据以下步骤确定。
为了区别一个三维点对应的第二图像是否包括最后一个参与三维模型构建的图像的情况,本实施例用“第一”和“第二”加以区分。第一三维点和第二三维点均代表一类三维点。第一三维点对应的第二图像包括最后一个参与三维模型构建的图像。第二三维点对应的第二图像不包括最后一个参与三维模型构建的图像。第一三维点和第二三维点均代表一类三维点。
S211a,获取各三维点对应的所有第二图像。
三维点对应的第二图像是指该三维点是基于第二图像按照上述补充构建第一三维模型的操作方法确定的。
该三维点对应的第二图像可以是一个,也可以是多个。
S211b,在第一三维点对应的所有第二图像包括最后一个参与三维模型构建的图像的情况下,从第一三维点对应的所有第二图像中,提取目标图像;其中,目标图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第一预设阈值。
目标图像的数量为多个的情况下,可任选取一个。
该步骤的最后一个参与三维模型构建的图像是指参与三维模型构建的当前图像。
S211c,根据目标图像的相机位姿信息,将三维点云地图投影到目标图像对应的相机成像平面,得到投影结果。
该投影方法可参照上述图2示出的投影方法,在此不做过多赘述。
S211d,在投影结果为三维点云地图的一个雷达点的投影点与一个共同特征点重合,并且共同特征点是与第一三维点对应的像素点的情况下,将雷达点的三维点云信息作为第一三维点对应的雷达点的三维点云信息。
第一三维点对应的像素点是指该第一三维点是基于该像素点确定的。该三维点是基于该像素点按照上述补充构建第一三维模型的操作方法确定的。
S211e,在投影结果为三维点云地图的多个雷达点与同一个共同特征点重合,并且共同特征点是与第一三维点对应的像素点的情况下,根据各雷达点与同一个共同特征点的连线、各雷达点对应的局部曲面的法向量,得到多个夹角值;选取最小夹角值对应的雷达点的三维点云信息,并将最小夹角值对应的雷达点的三维点云信息作为第一三维点对应的雷达点的三维点云信息。
基于一个雷达点,获取该雷达点的多个相邻雷达点。其中,相邻雷达点与该雷达点的距离未超过预设距离阈值。相邻雷达点的个数可以是两个,也可以三个,在此不做具体限定。然后,根据该雷达点和对应的多个相邻雷达点,拟合得到一个局部曲面。局部曲面的曲率为0时,局部曲面为一个平面。
一个夹角值是一个连线和一个雷达点对应的局部曲面的法向量之间的夹角值。一个连线是一个雷达点与同一个共同特征点的连线。
需要说明的是,并不是每一个共同特征点都能确定一个对应的雷达点。
S211f,在第二三维点对应的第二图像不包括最后一个参与三维模型构建的图像的情况下,确定与第二三维点距离最近的雷达点,并将与第二三维点距离最近的雷达点的三维点云信息作为第二三维点对应的雷达点的三维点云信息。
S212,将参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息。
在一个具体实施例中,S212包括S212a~S212d。
S212a,将参与模型构建的图像的相机位姿信息划分为第一组相机位姿信息和第二组相机位姿信息;其中,第一组相机位姿信息对应的图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第二预设阈值,第二组相机位姿信息对应的图像与最后一个参与模型构建的图像的共同特征点的数量未超过第二预设阈值。
最后一个参与三维模型构建的图像是指参与三维模型构建的当前图像。
S212b,将补充构建后的三维模型的三维点的坐标信息划分为第一组三维点的坐标信息和第二组三维点的坐标信息;其中,第一组三维点对应的图像的数量超过第三预设阈值,第二组三维点对应的图像的数量未超过第三预设阈值。
三维点对应的图像是指该三维点是基于该图像确定的。
S212c,确定各三维点与对应的雷达点的距离值。
具体的,根据三维点的位置坐标信息和对应的雷达点的三维坐标信息,确定一个距离值。
S212d,将第一组相机位姿信息、第一组三维点的坐标信息和参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息作为固定因子,第二组相机位姿信息、第二组三维点的坐标信息作为可变因子,各三维点与对应的雷达点的距离值作为因子的边,输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息。
S213,根据优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,得到优化后的三维模型。
在本发明的一个实施例中,在基于预设数量的第二图像完成对第一三维模型的补充构建后,对补充构建后的三维模型进行一次优化,提高三维模型的构建精度。该优化操作具体包括S214~S216。
S214,在预设数量的第二图像完成对第一三维模型的补充构建的情况下,获取位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息;其中,特定空间范围为以最后一个参与三维模型构建的图像对应的相机中心为球心,以预设半径作为半径得到的。
参见图3,以最后一个参与三维模型构建的图像对应的相机中心O2为球心,以预设半径为半径,得到一个球体。
S215,将位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息输入因子图中,得到优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息。
基于每一个位于特定空间范围内的图像,按照上述补充构建第一三维模型的操作方法可以确定对应的三维点。
三维点对应的雷达点的三维点云信息可以根据以下方式确定:确定与三维点距离最近的雷达点,并将与三维点距离最近的雷达点的三维点云信息作为该三维点对应的雷达点的三维点云信息。
S216,根据优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息,得到优化后的三维模型。
<装置实施例>
本发明的一个实施例提供了一种三维模型的构建装置,如图4所示。该三维模型的构建装置400包括获取模块410、深度信息确定模块420、第一三维模型构建模块430、相机位姿信息确定模块440和第二三维模型构建模块450。
获取模块410用于获取第一图像、至少一个第二图像和三维点云地图;其中,第一图像与至少一个第二图像具有第一共同特征点。
深度信息确定模块420用于根据第一图像中第一共同特征点和三维点云地图,确定第一共同特征点的深度信息。
第一三维模型构建模块430用于根据第一共同特征点的深度信息、第一共同特征点在第一图像的相机坐标系下的位置信息和第一图像的相机位姿信息,构建第一三维模型。
相机位姿信息确定模块440用于根据第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息。
第二三维模型构建模块450用于根据第一共同特征点的深度信息、第一共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,对第一三维模型进行补充构建,得到第二三维模型。
在本发明的一个实施例中,深度信息确定模块420还用于获取第一图像的相机位姿信息;根据第一图像的相机位姿信息,将三维点云地图投影到第一图像对应的相机成像平面,得到投影结果;在投影结果为三维点云地图的一个雷达点的投影点与一个第一共同特征点重合的情况下,确定雷达点与第一共同特征点的距离,以作为第一共同特征点的深度信息。
在本发明的一个实施例中,深度信息确定模块420还用于在投影结果为三维点云地图的多个雷达点的投影点与同一个第一共同特征点重合的情况下,确定各雷达点与同一个第一特征点的距离,并将最小距离作为同一个共同特征点的深度信息。
在本发明的一个实施例中,三维模型的构建装置还包括第三三维模型构建模块。
第三三维模型构建模块用于对于每两个第二图像,获取一组第二共同特征点;根据各组第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,确定各组第二共同特征点的深度信息;根据各组第二共同特征点的深度信息、各组第二共同特征点在对应的第二图像的相机坐标下的位置信息和对应的第二图像的相机位姿信息,对第二三维模型进行补充构建,得到第三三维模型。
在本发明的一个实施例中,三维模型的构建装置还包括第一三维模型优化模块。
第一三维模型优化模块用于在基于每一个第二图像完成对第一三维模型的补充构建的情况下,获取参与三维模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息以及三维点对应的雷达点的三维点云信息;将参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息;根据优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,得到优化后的三维模型。
在本发明的一个实施例中,第一三维模型优化模块还用于获取各三维点对应的所有第二图像;在第一三维点对应的所有第二图像包括最后一个参与三维模型构建的图像的情况下,从第一三维点对应的所有第二图像中,提取目标图像;其中,目标图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第一预设阈值;根据目标图像对应的相机在三维点云地图中的位置姿态信息,将三维点云地图投影到目标图像对应的相机成像平面,得到投影结果;在投影结果为三维点云地图的一个雷达点的投影点与一个共同特征点重合,并且共同特征点是与第一三维点对应的像素点的情况下,将雷达点的三维点云信息作为第一三维点对应的雷达点的三维点云信息。
在本发明的一个实施例中,第一三维模型优化模块还用于在投影结果为三维点云地图的多个雷达点与同一个共同特征点重合,并且共同特征点是与第一三维点对应的像素点的情况下,根据各雷达点与同一个共同特征点的连线、各雷达点对应的局部平面的法向量,得到多个夹角值;选取最小夹角值对应的雷达点的三维点云信息,并将最小夹角值对应的雷达点的三维点云信息作为第一三维点对应的雷达点的三维点云信息。
在本发明的一个实施例中,第一三维模型优化模块还用于在第二三维点对应的第二图像不包括最后一个参与三维模型构建的图像的情况下,确定与第二三维点距离最近的雷达点,并将与第二三维点距离最近的雷达点的三维点云信息作为第二三维点对应的雷达点的三维点云信息。
在本发明的一个实施例中,第一三维模型优化模块还用于将参与模型构建的图像的相机位姿信息划分为第一组相机位姿信息和第二组相机位姿信息;其中,第一组相机位姿信息对应的图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第二预设阈值,第二组相机位姿信息对应的图像与最后一个参与模型构建的图像的共同特征点的数量未超过第二预设阈值;将补充构建后的三维模型的三维点的坐标信息划分为第一组三维点的坐标信息和第二组三维点的坐标信息;其中,第一组三维点对应的图像的数量超过第三预设阈值,第二组三维点对应的图像的数量未超过第三预设阈值;确定各三维点与对应的雷达点的距离值;将第一组相机位姿信息、第一组三维点的坐标信息和参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息作为固定因子,第二组相机位姿信息、第二组三维点的坐标信息作为可变因子,各三维点与对应的雷达点的距离值作为因子的边,输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息。
在本发明的一个实施例中,三维模型的构建装置还包括第二三维模型优化模块。
第二三维模型优化模块用于在预设数量的第二图像完成对所述第一三维模型的补充构建的情况下,获取位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、位于特定空间范围内的三维点对应的雷达点的三维点云信息;其中,所述特定空间范围为以最后一个参与三维模型构建的图像对应的相机中心为球心,以预设半径作为半径得到的;将位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息输入因子图中,得到优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息;根据优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息,得到优化后的三维模型。
本发明的一个实施例提供了一种三维模型的构建装置,如图5所示。该三维模型的构建装置500,包括存储器520和处理器510。存储器520存储计算机程序,计算机程序用于控制处理器510进行操作以执行上述任一实施例中的三维模型的构建方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。对于电动车实施例而言,其相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书的实施例可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本说明书实施例的各个方面的计算机指令。
计算机可读存储介质可以是可以保持和存储由计算机指令执行设备使用的计算机指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有计算机指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机指令,并转发该计算机指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
附图中的流程图和框图显示了根据本说明书的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或计算机指令的一部分,模块、程序段或计算机指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行计算机指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本说明书的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (11)

1.一种三维模型的构建方法,其特征在于,包括:
获取第一图像、至少一个第二图像和三维点云地图;其中,所述第一图像与所述至少一个第二图像均具有第一共同特征点;
根据所述第一图像中第一共同特征点和所述三维点云地图,确定所述第一共同特征点的深度信息,包括:获取所述第一图像的相机位姿信息;根据所述第一图像的相机位姿信息,将所述三维点云地图投影到所述第一图像对应的相机成像平面,得到投影结果;在所述投影结果为所述三维点云地图的一个雷达点的投影点与一个第一共同特征点重合的情况下,确定所述雷达点与所述第一共同特征点的距离,以作为所述第一共同特征点的深度信息;
根据所述第一共同特征点的深度信息、所述第一共同特征点在所述第一图像的相机坐标系下的位置信息和所述第一图像的相机位姿信息,构建第一三维模型;
根据所述第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息;
根据所述第一共同特征点的深度信息、所述第一共同特征点在对应的第二图像的相机坐标系下的位置信息和所述对应的第二图像的相机位姿信息,对所述第一三维模型进行补充构建,得到第二三维模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在所述投影结果为所述三维点云地图的多个雷达点的投影点与同一个第一共同特征点重合的情况下,确定各雷达点与所述同一个第一共同特征点的距离,并将最小距离作为所述同一个第一共同特征点的深度信息。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
对于每两个第二图像,获取第二共同特征点;
根据第二共同特征点在对应的第二图像的相机坐标系下的位置信息和对应的第二图像的相机位姿信息,确定第二共同特征点的深度信息;
根据所述第二共同特征点的深度信息、所述第二共同特征点在对应的第二图像的相机坐标下的位置信息和对应的第二图像的相机位姿信息,对所述第二三维模型进行补充构建,得到第三三维模型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在基于每一个第二图像完成对所述第一三维模型的补充构建的情况下,获取参与三维模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息以及三维点对应的雷达点的三维点云信息;
将所述参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息;
根据所述优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,得到优化后的三维模型。
5.根据权利要求4所述的方法,其特征在于,在所述获取三维点对应的雷达点的三维点云信息之前,所述方法还包括:
获取各三维点对应的所有第二图像;
在第一三维点对应的所有第二图像包括最后一个参与三维模型构建的图像的情况下,从第一三维点对应的所有第二图像中,提取目标图像;其中,所述目标图像与所述最后一个参与三维模型构建的图像的共同特征点的数量超过第一预设阈值;
根据所述目标图像对应的相机在所述三维点云地图中的位置姿态信息,将所述三维点云地图投影到所述目标图像对应的相机成像平面,得到投影结果;
在所述投影结果为所述三维点云地图的一个雷达点的投影点与一个共同特征点重合,并且所述共同特征点是与所述第一三维点对应的像素点的情况下,将所述雷达点的三维点云信息作为所述第一三维点对应的雷达点的三维点云信息。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
在所述投影结果为所述三维点云地图的多个雷达点与同一个共同特征点重合,并且所述共同特征点是与所述第一三维点对应的像素点的情况下,根据各雷达点与同一个共同特征点的连线、各雷达点对应的局部平面的法向量,得到多个夹角值;
选取最小夹角值对应的雷达点的三维点云信息,并将所述最小夹角值对应的雷达点的三维点云信息作为所述第一三维点对应的雷达点的三维点云信息。
7.根据权利要求5所述的方法,其特征在于,所述方法还包括:
在第二三维点对应的第二图像不包括最后一个参与三维模型构建的图像的情况下,确定与所述第二三维点距离最近的雷达点,并将与所述第二三维点距离最近的雷达点的三维点云信息作为所述第二三维点对应的雷达点的三维点云信息。
8.根据权利要求4所述的方法,其特征在于,所述将所述参与模型构建的图像的相机位姿信息、补充构建后的三维模型的三维点的坐标信息、参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息、三维点对应的雷达点的三维点信息输入因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息,包括:
将所述参与模型构建的图像的相机位姿信息划分为第一组相机位姿信息和第二组相机位姿信息;其中,所述第一组相机位姿信息对应的图像与最后一个参与三维模型构建的图像的共同特征点的数量超过第二预设阈值,所述第二组相机位姿信息对应的图像与所述最后一个参与模型构建的图像的共同特征点的数量未超过所述第二预设阈值;
将所述补充构建后的三维模型的三维点的坐标信息划分为第一组三维点的坐标信息和第二组三维点的坐标信息;其中,所述第一组三维点对应的图像的数量超过第三预设阈值,所述第二组三维点对应的图像的数量未超过所述第三预设阈值;
确定各三维点与对应的雷达点的距离值;
将所述第一组相机位姿信息、所述第一组三维点的坐标信息和参与三维模型构建的共同特征点在对应的图像的相机坐标系下的位置信息作为固定因子,所述第二组相机位姿信息、所述第二组三维点的坐标信息作为可变因子,所述各三维点与对应的雷达点的距离值作为因子的边,输入所述因子图中,得到优化后的各图像的相机位姿信息和优化后的三维点的坐标信息。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在预设数量的第二图像完成对所述第一三维模型的补充构建的情况下,获取位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、位于特定空间范围内的三维点对应的雷达点的三维点云信息;其中,所述特定空间范围为以最后一个参与三维模型构建的图像对应的相机中心为球心,以预设半径作为半径得到的;
将位于特定空间范围内的图像的相机位姿信息、基于位于特定空间范围内的图像确定的三维点的坐标信息、三维点对应的雷达点的三维点云信息输入因子图中,得到优化后的特定空间范围内的图像的相机位姿信息和优化后的特定空间范围内的三维点的坐标信息;
根据所述优化后的特定空间范围内的图像的相机位姿信息和所述优化后的特定空间范围内的三维点的坐标信息,得到优化后的三维模型。
10.一种三维模型的构建装置,其特征在于,所述装置包括:
获取模块,用于获取第一图像、至少一个第二图像和三维点云地图;其中,所述第一图像与所述至少一个第二图像具有第一共同特征点;
深度信息确定模块,用于根据所述第一图像中第一共同特征点和所述三维点云地图,确定所述第一共同特征点的深度信息;
第一三维模型构建模块,用于根据所述第一共同特征点的深度信息、所述第一共同特征点在所述第一图像的相机坐标系下的位置信息和所述第一图像的相机位姿信息,构建第一三维模型;
相机位姿信息确定模块,用于根据所述第一共同特征点的深度信息和第一共同特征点在对应的第二图像的相机坐标系下的位置信息,确定对应的第二图像的相机位姿信息;
第二三维模型构建模块,用于根据所述第一共同特征点的深度信息、所述第一共同特征点在对应的第二图像的相机坐标系下的位置信息和所述对应的第二图像的相机位姿信息,对所述第一三维模型进行补充构建,得到第二三维模型;其中,
所述深度信息确定模块还用于获取所述第一图像的相机位姿信息;根据所述第一图像的相机位姿信息,将所述三维点云地图投影到所述第一图像对应的相机成像平面,得到投影结果;在所述投影结果为所述三维点云地图的一个雷达点的投影点与一个第一共同特征点重合的情况下,确定所述雷达点与所述第一共同特征点的距离,以作为所述第一共同特征点的深度信息。
11.一种三维模型的构建装置,其特征在于,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序用于控制所述处理器进行操作以执行根据权利要求1-9中任一项所述的方法。
CN202311184152.7A 2023-09-13 2023-09-13 三维模型的构建方法及装置 Active CN117808979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311184152.7A CN117808979B (zh) 2023-09-13 2023-09-13 三维模型的构建方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311184152.7A CN117808979B (zh) 2023-09-13 2023-09-13 三维模型的构建方法及装置

Publications (2)

Publication Number Publication Date
CN117808979A CN117808979A (zh) 2024-04-02
CN117808979B true CN117808979B (zh) 2025-10-28

Family

ID=90427564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311184152.7A Active CN117808979B (zh) 2023-09-13 2023-09-13 三维模型的构建方法及装置

Country Status (1)

Country Link
CN (1) CN117808979B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951397A (zh) * 2020-08-07 2020-11-17 清华大学 一种多机协同构建三维点云地图的方法、装置和存储介质
CN115342796A (zh) * 2022-07-22 2022-11-15 广东交通职业技术学院 基于视觉激光融合的地图构建方法、系统、装置及介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022077296A1 (zh) * 2020-10-14 2022-04-21 深圳市大疆创新科技有限公司 三维重建方法、云台负载、可移动平台以及计算机可读存储介质
CN114529603B (zh) * 2020-11-23 2023-05-19 新疆大学 一种基于激光slam与单目视觉slam融合的里程计方法
CN113242421A (zh) * 2021-04-02 2021-08-10 青岛小鸟看看科技有限公司 相机校准方法、装置及虚拟现实设备
CN116309813A (zh) * 2022-11-28 2023-06-23 北京航空航天大学 一种固态激光雷达-相机紧耦合位姿估计方法
CN116228974A (zh) * 2023-02-13 2023-06-06 广东虚拟现实科技有限公司 三维模型构建方法、装置、计算机设备以及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111951397A (zh) * 2020-08-07 2020-11-17 清华大学 一种多机协同构建三维点云地图的方法、装置和存储介质
CN115342796A (zh) * 2022-07-22 2022-11-15 广东交通职业技术学院 基于视觉激光融合的地图构建方法、系统、装置及介质

Also Published As

Publication number Publication date
CN117808979A (zh) 2024-04-02

Similar Documents

Publication Publication Date Title
CN111862179B (zh) 三维对象建模方法与设备、图像处理装置及介质
JP7173772B2 (ja) 深度値推定を用いた映像処理方法及び装置
JP4392507B2 (ja) 3次元サーフェス生成方法
JP6426968B2 (ja) 情報処理装置およびその方法
US8452081B2 (en) Forming 3D models using multiple images
US8447099B2 (en) Forming 3D models using two images
CN113160068B (zh) 基于图像的点云补全方法及系统
CN107809610B (zh) 摄像头参数集算出装置、摄像头参数集算出方法以及记录介质
CN113256718B (zh) 定位方法和装置、设备及存储介质
GB2564642A (en) Methods and apparatuses for panoramic image processing
WO2021195939A1 (zh) 一种双目拍摄装置的外参的标定方法、可移动平台及系统
CN114494383B (zh) 基于Richard-Lucy迭代的光场深度估计方法
CN110148086B (zh) 稀疏深度图的深度补齐方法、装置及三维重建方法、装置
Gadasin et al. Reconstruction of a three-dimensional scene from its projections in computer vision systems
CN115035235A (zh) 三维重建方法及装置
CN113361365A (zh) 定位方法和装置、设备及存储介质
JP5178538B2 (ja) 深度マップを画像から決定する方法、深度マップを決定する装置
Fan et al. Large-scale dense mapping system based on visual-inertial odometry and densely connected U-Net
JP2009530701A5 (zh)
JP2009186287A (ja) 平面パラメータ推定装置、平面パラメータ推定方法及び平面パラメータ推定プログラム
CN112785651A (zh) 用于确定相对位姿参数的方法和装置
CN117808979B (zh) 三维模型的构建方法及装置
CN120339561A (zh) 一种多视频与三维场景融合方法、系统、设备和介质
CN109859313B (zh) 3d点云数据获取方法、装置、3d数据生成方法及系统
Ramalingam et al. P 2π: A minimal solution for registration of 3d points to 3d planes

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 7th Floor, Building E2, Kangqiao Business Oasis, No. 2555 Xiupu Road, Pudong New Area, Shanghai, 201315

Patentee after: Zhixuan Innovation (Shanghai) Science and Technology Co., Ltd.

Country or region after: China

Address before: 7th Floor, Building E2, Kangqiao Business Oasis, No. 2555 Xiupu Road, Pudong New Area, Shanghai, 201315

Patentee before: Shanghai Zhiyuan Xinchuang Technology Co.,Ltd.

Country or region before: China