[go: up one dir, main page]

CN115482367A - 三维语义标注方法和装置 - Google Patents

三维语义标注方法和装置 Download PDF

Info

Publication number
CN115482367A
CN115482367A CN202211152027.3A CN202211152027A CN115482367A CN 115482367 A CN115482367 A CN 115482367A CN 202211152027 A CN202211152027 A CN 202211152027A CN 115482367 A CN115482367 A CN 115482367A
Authority
CN
China
Prior art keywords
semantic
point
pixel
mask
euclidean distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211152027.3A
Other languages
English (en)
Inventor
危双丰
李澔
吴耐明
朱元娇
刘光祖
刘畅畅
王尚兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202211152027.3A priority Critical patent/CN115482367A/zh
Publication of CN115482367A publication Critical patent/CN115482367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/20Editing of three-dimensional [3D] images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种三维语义标注方法和装置。该方法包括以下步骤:获取语义掩膜;将语义掩膜中心点设为初始种子点;利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及利用所述区域生长阈值从所述初始种子点开始进行区域生长。

Description

三维语义标注方法和装置
技术领域
本发明涉及导航技术,尤其涉及导航中的语义标注技术。
背景技术
在对图像进行语义分割时,提取图像的细节信息和语义信息都非常重要。通常需要较深的网络结构来提取图像的语义信息,而图像细节信息往往保留在网络浅层中,导致提取图像的细节信息和语义信息对网络结构深浅的需求是相互矛盾的,从而语义标注存在计算速度差、效果不佳等问题。
发明内容
本发明鉴于现有技术的情况作出,用于克服现有技术中存在的一种或更多种的问题,至少提供一种有益的选择。
根据本发明的一个方面,提供了一种三维语义标注方法,包括以下步骤:获取语义掩膜;将所述语义掩膜的中心点设为初始种子点;利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及利用所述区域生长阈值从所述初始种子点进行区域生长。
根据本发明的另一个方面,提供了三维语义标注装置,包括语义掩膜获取装置,用于获取语义掩膜;初始种子点获取单元,用于将语义掩膜中心点设为初始种子点;生长阈值计算单元,用于利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及区域生长单元,用于利用所述区域生长阈值从所述初始种子点进行区域生长。
根据本发明的一些实施方式,能够进行快速和更好的三维语义标注。
附图说明
结合附图可以更好地理解本发明。附图只是示意性的,不是对本发明的保护范围的限制,附图也不是按照比例绘制的,没有示出对于理解本发明没有帮助的部件。
图1是示出了依据本发明的一种实施方式的三维语义标注方法的示意性流程图。
图2示出了计算区域生长阈值的一种示例性实施方式。
图3是示出了依据本发明的一种实施方式的三维语义标注装置的示意性方框图。
具体实施方式
下面结合附图对本发明的具体实施方式进行说明。这些说明都是示例性的,旨在使本领域技术人员能够实现本发明的实施方式,不是对本发明的保护范围的限制。说明中也没有描述对于实际实施不可缺少,但是对于理解本发明无关的内容。
图1是示出了依据本发明的一种实施方式的三维语义标注方法的示意性流程图。如图1所示,首先在步骤S100,获取语义掩膜。根据一种实施方式,使用卷积神经网络对图像进行语义分割,获取语义掩膜。语义分割是指识别图像中每个像素所属的类别,如指出画面中的所有物体各自的类别。语义分割可对图像中同类别的物体产生一个掩膜,即语义掩膜,也称为语义分割掩膜。可以采用目前已知的各种方法获得语义掩膜,例如DS-SLAM算法等。也可以采用本领域技术人员未来知悉的方法。
然后,在步骤S200,将语义掩膜中心点设为初始种子点。根据一种实施方式,可以如下地确定语义掩膜中心点,即初始种子点:
首先,计算语义掩膜轮廓的几何矩:
mpq=∑u,vupvqI(u,v),p,q={0,1}; 公式1
通过掩膜轮廓的几何矩计算语义掩膜中心点:
Figure BDA0003857346100000031
其中,p,q取值为0或1;u,v为掩膜轮廓的像素的坐标;I(u,v)表示在像素坐标(u,v)处图像的灰度值;mpq表示掩膜轮廓的几何矩。m10和m01分别表示掩膜轮廓关于x轴和y轴的矩,m00表示掩膜轮廓的面积。Pcenter表示语义掩膜中心点。u,v为掩膜轮廓的像素坐标。∑u,v即对掩膜轮廓上每一个像素计算upvqI(u,v)后求和。
根据一种实施方式,可以如下地计算mpq。此时,m00为掩膜轮廓上所有像素的灰度值总和:
Figure BDA0003857346100000032
Figure BDA0003857346100000041
Figure BDA0003857346100000042
B表示为掩膜轮廓上所有像素坐标的集合。
以上方法优点在于仅依靠掩膜轮廓的像素坐标即可计算出掩膜的中心点,有较快的计算速度。
然后,在步骤S300,利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值。图2示出了计算区域生长阈值的一种示例性实施方式。
如图2所示,根据一种实施方式,如下地确定区域生长阈值:
首先,在步骤S310,在语义掩膜中随机选取i个像素点(i是大于3的正整数),即随机像素或随机像素点,同时分别选取各随机像素点的相邻8个像素,即相邻像素或相邻像素点。
然后,在步骤S320,计算各像素(包括随机像素和相邻像素)对应的空间坐标。
根据一种实施方式,如下地计算各像素对应的空间坐标:
在通过深度相机获得当前帧的彩色和深度图像后,已知图像中像素点P′的坐标信息(u,v)、深度信息d,则可利用该像素坐标反推其空间点P的坐标,如公式3:
Figure BDA0003857346100000051
式中,fx、fy、cx、cy、df为深度相机内参,fx与fy为所述深度相机的焦距参数,表示水平、垂直方向的缩放倍数;cx与cy表示图像原点的偏移量,表示图像中心距离图像左上角的像素距离;df表示为深度图像的缩放系数;空间点P的坐标为[x,y,z]T,深度信息为d。
深度相机内参为相机所获得深度信息与实际深度距离的转换关系。
接着,在步骤S330,分别计算各随机像素与对应相邻像素对应空间坐标的欧式距离平均值,根据一种实施方式,可以如公式4地计算:
Figure BDA0003857346100000052
式中,
Figure BDA0003857346100000053
表示某一随机像素m与相邻像素对应空间坐标的欧式距离平均值,(xm,ym,zm)表示随机像素点对应的空间坐标,
Figure BDA0003857346100000054
表示随机像素m的第n个对应相邻像素对应的空间坐标。
然后,在步骤S340,计算整体的欧式距离平均值。根据一种实施方式,首先对i个
Figure BDA0003857346100000055
进行排序,然后剔除q个最大值和q个最小值后,再计算整体的欧式距离平均值,如公式5:
Figure BDA0003857346100000056
最后,在步骤S350,根据动态系数ε与欧式距离平均值ρ,最终计算动态阈值。例如,如公式6:
T=ερ (6)
根据一种实施方式,动态系数ε取值在0.8~1.2之间,可以预先设定。
步骤4:利用所述动态阈值T进行区域生长。
区域生长是根据同一区域内像素的相似程度来对图像进行分割,选定图像中某一像素作为初始种子点,将种子点周围相似的像素点归纳到生长区域,得到新的生长点,然后将新的生长点作为种子点重复以上步骤,直到没有可以归纳的像素点为止。本文将深度相机作为传感器,利用了深度信息作为相邻像素相似性的判断依据。
区域生长的结果是完成三维语义标注,得到含有语义信息的三维点云。
根据一种实施方式,如下地进行所述区域生长:
1)将所述初始种子点作为生长起始点;
2)在原始语义掩膜范围内分别找到所述初始种子点相邻的8个像素点,计算其与所述初始种子点空间坐标的欧式距离;若距离小于阈值将其作为下一次的生长点压入堆栈,并将其空间点加入到该语义点云集P;
3)从堆栈中取出一个像素点作为下一次生长的种子点,在原始语义掩膜范围内分别找到与其相邻的8个像素点,计算该8个像素点与所述种子点的空间坐标的欧式距离;若距离小于阈值将其作为下一次的生长点压入堆栈,并将其空间点加入到该语义点云集P;
4),重复步骤3)直到所述堆栈为空,将该语义点云集P作为优化后的结果。
根据本实施方式,通过结合深度信息的区域生长算法进行三维语义标注,减小了二维图像的语义信息映射到三维空间时产生的误差,提高物体语义标注的准确性。可以克服或缓解,在深度学习对图像进行语义分割获得二维的语义信息时,其语义信息存在图像过分割所导致的二维语义信息映射至三维点云时存在的较大偏差。
完成区域生长后,就已经完成了三维语义的标注。
图3是示出了依据本发明的一种实施方式的三维语义标注装置的示意性方框图。如图3所示,依据本发明的一种实施方式的三维语义标注装置包括:语义掩膜获取单元100,用于获取语义掩膜;初始种子点获取单元200,用于将语义掩膜中心点设为初始种子点;生长阈值计算单元300,用于利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及区域生长单元400,用于利用所述区域生长阈值从所述初始种子点进行区域生长。
根据一种实施方式,初始种子点获取单元200如下地确定初始种子点:
首先,计算语义掩膜的轮廓的几何矩:
mpq=∑u,vuPvqI(u,v),p,q={0,1};
然后,利用语义掩膜的轮廓的几何矩计算语义掩膜中心点:
Figure BDA0003857346100000071
其中,u,v为掩膜轮廓的像素的坐标;I(u,v)表示在像素坐标(u,v)处图像的灰度值;mpq表示掩膜轮廓的几何矩,m10和m01分别表示掩膜轮廓关于x轴和y轴的矩,m00表示掩膜轮廓的面积。Pcenter表示语义掩膜中心点。∑u,v即对掩膜轮廓上每一个像素计算upvqI(u,v)后求和。
根据一种实施方式,如下地计算m10,m01以及m00,m00在这种情况下表示掩膜轮廓上所有像素的灰度值总和:
Figure BDA0003857346100000081
Figure BDA0003857346100000082
Figure BDA0003857346100000083
根据一种实施方式,生长阈值计算单元300如下地确定区域生长阈值:
在所述语义掩膜中随机选取i个像素点,即随机像素,并分别选取各随机像素的相邻8个像素,即对应的相邻像素,i是大于3的正整数,
计算所述随机像素和相邻像素对应的空间坐标;
分别计算各随机像素与对应相邻像素对应空间坐标的欧式距离平均值
Figure BDA0003857346100000084
根据所获得的i个欧式距离平均值
Figure BDA0003857346100000085
计算整体的欧式距离平均值ρ,
根据动态系数ε与该整体的欧式距离平均值ρ,确定区域生长阈值。
根据一种实施方式,生长阈值计算单元300如下地分别计算各随机像素与相邻像素对应空间坐标的欧式距离平均值:
Figure BDA0003857346100000091
式中,
Figure BDA0003857346100000092
表示随机像素与相邻像素对应空间坐标的欧式距离平均值,(xm,ym,zm)表示随机像素点对应的空间坐标,
Figure BDA0003857346100000093
表示随机像素m的第n个相邻像素对应的空间坐标。
根据一种实施方式,生长阈值计算单元300如下地根据所获得的i个欧式距离平均值
Figure BDA0003857346100000094
计算整体的欧式距离平均值ρ:
对所述i个欧式距离平均值
Figure BDA0003857346100000095
进行排序;
剔除其中q个最大项和q个最小项;以及
例如如下地计算整体的欧式距离平均值:
Figure BDA0003857346100000096
根据一种实施方式,生长阈值计算单元300如下地根据动态系数ε与该整体的欧式距离平均值ρ,确定区域生长阈值:
T=ερ
其中,ε的取值在0.8~1.2之间。
根据一种实施方式,生长阈值计算单元300如下地计算各像素对应的空间坐标:
在通过深度相机获得当前帧的彩色和深度图像后,利用图像中像素点P′的坐标信息(u,v),如下地反推其空间点P的坐标:
Figure BDA0003857346100000101
式中,fx、fy、cx、cy、df为深度相机内参,fx与fy为所述深度相机的焦距参数,表示水平、垂直方向的缩放倍数;cx与cy表示图像原点的偏移量,表示图像中心距离图像左上角的像素距离;df表示为深度图像的缩放系数;空间点P的坐标为[x,y,z]T,深度信息为d。
根据一种实施方式,区域生长单元400如下地进行所述区域生长:
1)将所述初始种子点作为生长起始点;
2)在语义掩膜范围内分别找到所述初始种子点相邻的8个像素点,计算其与所述初始种子点空间坐标的欧式距离;若距离小于阈值将其作为下一次的生长点压入堆栈,并将其空间点加入到该语义点云集P;
3)从堆栈中取出一个像素点作为下一次生长的种子点,在原始语义掩膜范围内分别找到与种子点相邻的8个像素点,计算8个像素点与种子点空间坐标的欧式距离;若距离小于阈值,则将其作为下一次的生长点压入堆栈,并将其对应的空间点加入到所述语义点云集P;
4),重复步骤3)直到所述堆栈为空,将该语义点云集P作为优化后的结果。
本领域技术人员容易理解,可以利用以上对方法的说明来理解本发明的装置。
本领域技术人员容易理解,本发明的方法还可以包括与本发明的装置所完成的功能对应的其他步骤。以上的这些步骤也可以进行精简。
本发明对单元和步骤的标号仅仅是为了说明的方便,除非上下文中有相反的说明,否则不代表其执行的顺序。
本领域的技术人员应该理解,上述的各单元可以由软件或专门的硬件来实现,例如现场可编程门阵列、单片机、或微芯片等,或者也可以通过软件结合硬件的方式来实现。
本发明还提供了一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现本发明的方法。
本发明还涉及一种计算机软件,该计算机软件在被计算装置(例如单片机、电脑、CPU等)执行时,可以实现本发明的方法。
本发明还涉及一种计算机软件存储装置,例如硬盘、软盘、闪存等,该计算机软件存储装置存储有上述的计算机软件。
本发明对方法或步骤的说明可以用于理解对单元或装置的说明,对单元或装置的说明也可以用于理解本发明的方法或步骤。
以上说明仅仅是示意性的,不是对本发明的保护范围的限制,在本发明的构思范围内的任何改变、替换均在本发明的保护范围内。

Claims (10)

1.一种三维语义标注方法,其特征在于,包括以下步骤:
获取语义掩膜;
将所述语义掩膜的中心点设为初始种子点;
利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及
利用所述区域生长阈值从所述初始种子点进行区域生长。
2.根据权利要求1所述的方法,其中确定初始种子点的步骤包括:
首先,如下计算语义掩膜的轮廓的几何矩:
mpq=∑u,vupvqI(u,v),p,q={0,1};
然后,如下地根据所述语义掩膜的轮廓的几何矩计算所述语义掩膜的中心点:
Figure FDA0003857346090000011
其中,u,v表示所述语义掩膜的轮廓的像素的坐标;I(u,v)表示在像素坐标(u,v)处图像的灰度值;mpq表示掩膜轮廓的几何矩,m10和m01分别表示所述轮廓关于x轴和y轴的矩,m00表示语义掩膜的轮廓的面积,Pcenter表示所述语义掩膜的中心点,∑u,v为对所述语义掩膜的轮廓上每一个像素计算upvqI(u,v)后求和。
3.根据权利要求2所述的方法,其中:
Figure FDA0003857346090000021
Figure FDA0003857346090000022
Figure FDA0003857346090000023
B表示所述语义掩膜的轮廓上所有像素坐标的集合。
4.根据权利要求1所述的方法,其特征在于,如下地计算区域生长阈值:
在所述语义掩膜中随机选取i个像素点,即随机像素,并分别选取各随机像素的相邻8个像素,即对应的相邻像素,i是大于3的正整数,
计算各所述随机像素和相邻像素对应的空间坐标;
分别计算各随机像素与对应相邻像素对应的空间坐标的欧式距离平均值
Figure FDA0003857346090000024
根据所获得的i个欧式距离平均值
Figure FDA0003857346090000025
计算整体的欧式距离平均值ρ,
根据动态系数ε与该整体的欧式距离平均值ρ,确定区域生长阈值。
5.根据权利要求4所述的方法,其特征在于,如下地分别计算各随机像素与对应的相邻像素对应的空间坐标的欧式距离平均值:
Figure FDA0003857346090000026
式中,
Figure FDA0003857346090000027
表示随机像素与对应相邻像素对应的空间坐标的欧式距离平均值,(xm,ym,zm)表示随机像素对应的空间坐标,
Figure FDA0003857346090000031
表示随机像素m的对应的第n个相邻像素对应的空间坐标。
6.根据权利要求4所述的方法,其特征在于,如下地根据所获得的i个欧式距离平均值
Figure FDA0003857346090000032
计算整体的欧式距离平均值ρ:
对所述i个欧式距离平均值
Figure FDA0003857346090000033
进行排序;
剔除其中q个最大项和q个最小项;以及
如下计算整体的欧式距离平均值:
Figure FDA0003857346090000034
7.根据权利要求4所述的方法,其特征在于,如下地根据动态系数ε与该整体的欧式距离平均值ρ,确定区域生长阈值:
T=ερ
其中,ε的取值在0.8~1.2之间。
8.根据权利要求4所述的方法,其特征在于,如下地计算各像素对应的空间坐标:
在通过深度相机获得当前帧的彩色和深度图像后,利用图像中像素点P′的坐标信息(u,v)、深度信息d,如下地反推其空间点P的坐标:
Figure FDA0003857346090000035
式中,fx、fy、cx、cy、df为深度相机内参,fx与fy为所述深度相机的焦距参数,表示水平、垂直方向的缩放倍数;cx与cy表示图像原点的偏移量,表示图像中心距离图像左上角的像素距离;df表示为深度图像的缩放系数;空间点P的坐标为[x,y,z]T,深度信息为d。
9.根据权利要求1所述的方法,其特征在于,进行区域生长包括:
1)将所述初始种子点作为生长起始点;
2)在语义掩膜范围内分别找到所述初始种子点相邻的8个像素点,计算其与所述初始种子点空间坐标的欧式距离;若距离小于阈值,则将其作为下一次的生长点压入堆栈,并将其空间点加入到语义点云集P;
3)从堆栈中取出一个像素点作为下一次生长的种子点,在原始语义掩膜范围内分别找到与种子点相邻的8个像素点,计算8个像素点与种子点空间坐标的欧式距离;若距离小于阈值,则将其作为下一次的生长点压入堆栈,并将其对应的空间点加入到所述语义点云集P;
4),重复步骤3)直到所述堆栈为空,将该语义点云集P作为优化后的结果。
10.一种三维语义标注装置,其特征在于,包括:
语义掩膜获取装置,用于获取语义掩膜;
初始种子点获取单元,用于将语义掩膜中心点设为初始种子点;
生长阈值计算单元,用于利用在所述语义掩膜中随机选取的像素点,计算区域生长阈值;以及
区域生长单元,用于利用所述区域生长阈值从所述初始种子点进行区域生长。
CN202211152027.3A 2022-09-21 2022-09-21 三维语义标注方法和装置 Pending CN115482367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211152027.3A CN115482367A (zh) 2022-09-21 2022-09-21 三维语义标注方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211152027.3A CN115482367A (zh) 2022-09-21 2022-09-21 三维语义标注方法和装置

Publications (1)

Publication Number Publication Date
CN115482367A true CN115482367A (zh) 2022-12-16

Family

ID=84423787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211152027.3A Pending CN115482367A (zh) 2022-09-21 2022-09-21 三维语义标注方法和装置

Country Status (1)

Country Link
CN (1) CN115482367A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240320909A1 (en) * 2023-03-21 2024-09-26 Qualcomm Incorporated Generating semantically-labelled three-dimensional models

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035266A2 (en) * 2006-09-21 2008-03-27 Koninklijke Philips Electronics N.V. Automatic seed point selection
CN109325998A (zh) * 2018-10-08 2019-02-12 香港理工大学 一种基于点云数据的室内3d建模方法、系统及相关装置
CN113963051A (zh) * 2021-09-15 2022-01-21 国网四川省电力公司 基于视觉信息和特征提取的目标直径自动测量方法和系统
CN113989305A (zh) * 2021-12-27 2022-01-28 城云科技(中国)有限公司 目标语义分割方法及应用其的街道目标异常检测方法
CN114648640A (zh) * 2022-05-23 2022-06-21 深圳市其域创新科技有限公司 一种目标物单体化方法、装置、设备及存储介质
CN114973191A (zh) * 2022-05-12 2022-08-30 桂林电子科技大学 基于点云密度和间距的动态阈值确定方法及欧式聚类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008035266A2 (en) * 2006-09-21 2008-03-27 Koninklijke Philips Electronics N.V. Automatic seed point selection
CN109325998A (zh) * 2018-10-08 2019-02-12 香港理工大学 一种基于点云数据的室内3d建模方法、系统及相关装置
CN113963051A (zh) * 2021-09-15 2022-01-21 国网四川省电力公司 基于视觉信息和特征提取的目标直径自动测量方法和系统
CN113989305A (zh) * 2021-12-27 2022-01-28 城云科技(中国)有限公司 目标语义分割方法及应用其的街道目标异常检测方法
CN114973191A (zh) * 2022-05-12 2022-08-30 桂林电子科技大学 基于点云密度和间距的动态阈值确定方法及欧式聚类方法
CN114648640A (zh) * 2022-05-23 2022-06-21 深圳市其域创新科技有限公司 一种目标物单体化方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240320909A1 (en) * 2023-03-21 2024-09-26 Qualcomm Incorporated Generating semantically-labelled three-dimensional models
US12307589B2 (en) * 2023-03-21 2025-05-20 Qualcomm Incorporated Generating semantically-labelled three-dimensional models

Similar Documents

Publication Publication Date Title
CN114463736B (zh) 一种基于多模态信息融合的多目标检测方法及装置
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN101388115B (zh) 一种结合纹理信息的深度图像自动配准方法
CN108549873A (zh) 三维人脸识别方法和三维人脸识别系统
CN113436251B (zh) 一种基于改进的yolo6d算法的位姿估计系统及方法
US12380592B2 (en) Image processing system and method
WO2023151237A1 (zh) 人脸位姿估计方法、装置、电子设备及存储介质
CN108596062B (zh) 基于深度学习的人脸图片实时高光去除方法及装置
WO2021098576A1 (zh) 手部姿态估计方法、装置及计算机存储介质
US12260582B2 (en) Image processing system and method
CN112652020B (zh) 一种基于AdaLAM算法的视觉SLAM方法
CN111739071B (zh) 基于初始值的快速迭代配准方法、介质、终端和装置
CN117557748A (zh) 一种鲁棒性动态视觉同步定位与建图方法及系统
CN111951333A (zh) 六维姿态数据集自动生成方法、系统、终端以及存储介质
CN112818874B (zh) 一种图像处理方法、装置、设备及存储介质
CN114981845A (zh) 图像扫描方法及装置、设备、存储介质
CN111402422A (zh) 三维表面重建方法、装置和电子设备
CN112017199B (zh) 一种楼层边界检测方法、装置、设备及存储介质
CN115482367A (zh) 三维语义标注方法和装置
CN112200822A (zh) 表格重建方法、装置、计算机设备及存储介质
CN110264562A (zh) 颅骨模型特征点自动标定方法
CN120510203A (zh) 一种基于滑动窗口和最小面积交并比的大尺寸图像目标检测方法及系统
CN118365901B (zh) 基于全景语义拓扑图的闭环检测方法、系统、装置及介质
CN117853321A (zh) 基于深度学习的遥感影像自动配准方法及装置
CN115661421A (zh) 点云异常值的移除方法、点云处理方法、装置及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination