[go: up one dir, main page]

CN118334116A - Led灯珠标定方法、装置、设备及介质 - Google Patents

Led灯珠标定方法、装置、设备及介质 Download PDF

Info

Publication number
CN118334116A
CN118334116A CN202410316520.7A CN202410316520A CN118334116A CN 118334116 A CN118334116 A CN 118334116A CN 202410316520 A CN202410316520 A CN 202410316520A CN 118334116 A CN118334116 A CN 118334116A
Authority
CN
China
Prior art keywords
calibration
camera
lamp bead
image
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410316520.7A
Other languages
English (en)
Inventor
叶嘉豪
杨鹏
王兆民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Bounds Inc
Original Assignee
Meta Bounds Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meta Bounds Inc filed Critical Meta Bounds Inc
Priority to CN202410316520.7A priority Critical patent/CN118334116A/zh
Publication of CN118334116A publication Critical patent/CN118334116A/zh
Priority to PCT/CN2025/082727 priority patent/WO2025195304A1/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本申请涉及机器视觉标定技术领域,提供了一种LED灯珠标定方法、装置、设备及介质,所述方法通过第一标定相机和第二标定相机采集目标灯珠的灯珠图像,进而根据目标灯珠在两张灯珠图像中的第一图像坐标和第二图像坐标,以及第一标定相机的第一标定参数,计算目标灯珠在第一标定相机的相机坐标系中的第一三维坐标。第一标定相机和第二标定相机组成的双目立体视觉标定系统,可以提高目标灯珠在相机坐标系中的三维坐标计算精度,从而降低目标灯珠在坐标转换时的坐标误差,使得根据第一标定参数和第二标定参数进行坐标转化得到的目标灯珠在眼动相机对应的相机坐标系中的目标三维坐标误差更小,提高目标灯珠与眼动相机之间相对位置的标定准确性。

Description

LED灯珠标定方法、装置、设备及介质
技术领域
本申请涉及机器视觉标定技术领域,尤其涉及一种LED灯珠标定方法、装置、设备及介质。
背景技术
智能穿戴设备(如AR/VR眼镜等)可以通过眼动追踪技术实现对用户视觉中心的定位,即通过眼动相机采集眼睛图像中的LED光源反射点,然后根据LED光源与眼动相机的相对坐标,构建眼球模型,进而根据眼球模型,计算眼睛图像中的视觉中心坐标,从而实现视觉中心的眼动追踪。因此,视觉中心眼动追踪的精确性取决于眼动相机和LED光源之间的相对位置标定准确性。
但是,相关技术中的LED光源标定方法不能直接获得眼动相机和LED光源的相对位置,而是分别对LED光源和眼动相机进行单独标定,获得两者在世界坐标系中的坐标,从而获得两者的相对位置。由此,会导致LED光源的标定结果不准确,从而降低眼动追踪结果的准确性。
因此,如何提高眼动追踪系统中的LED灯珠标定准确性成为了亟待解决的技术问题。
发明内容
本申请提供了一种LED灯珠标定方法、装置、设备及存储介质,旨在提高眼动追踪系统中的LED灯珠标定准确性。
第一方面,本申请提供一种LED灯珠标定方法,包括:
获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
第二方面,本申请还提供一种LED灯珠标定装置,包括:
标定参数获取模块,用于获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
图像坐标获得模块,用于基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
三维坐标计算模块,用于基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
三维坐标转换模块,用于基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
第三方面,本申请还提供一种计算机设备,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如上所述的LED灯珠标定方法的步骤。
第四方面,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如上所述的LED灯珠标定方法的步骤。
本申请提供一种LED灯珠标定方法、装置、设备及存储介质,所述方法包括获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。通过上述方式,本申请通过第一标定相机和第二标定相机采集目标灯珠的灯珠图像,进而根据目标灯珠在两张灯珠图像中的第一图像坐标和第二图像坐标,以及第一标定相机的第一标定参数,计算目标灯珠在第一标定相机的相机坐标系中的第一三维坐标。第一标定相机和第二标定相机组成的双目立体视觉标定系统,可以提高目标灯珠在相机坐标系中的三维坐标计算精度,从而降低目标灯珠在坐标转换时的坐标误差,使得根据第一标定参数和第二标定参数进行坐标转化得到的目标灯珠在眼动相机对应的相机坐标系中的目标三维坐标误差更小,提高目标灯珠与眼动相机之间相对位置的标定准确性。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种LED灯珠标定方法第一实施例的流程示意图;
图2为本申请实施例提供的一种LED灯珠标定方法第二实施例的流程示意图;
图3为本申请实施例提供的一种LED灯珠标定方法第三实施例的流程示意图;
图4是本申请提供的一种LED灯珠标定装置第一实施例的结构示意图;
图5是本申请实施例提供的一种计算机设备的结构示意性框图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,图1为本申请实施例提供的一种LED灯珠标定方法第一实施例的流程示意图。
如图1所示,该LED灯珠标定方法包括步骤S101至步骤S104。
S101、获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
在一实施例中,双目立体视觉标定系统是由两台相同的相机组成。通过双目立体视觉标定系统对嵌装在智能穿戴设备上的LED灯珠进行标定。智能穿戴设备左右各安装一个眼动相机,若干个LED灯珠分布于眼动相机周围,第一标定相机和第二标定相机的拍摄方向均朝向智能穿戴设备,且智能穿戴设备中的左侧和/或右侧眼动相机以及眼动相机周围分布的若干个LED灯珠需要同时位于第一标定相机的拍摄视场和第二标定相机的拍摄视场内。第一标定相机和第二标定相机同步采集智能穿戴设备上的LED灯珠的灯珠图像,要确保眼动相机与LED灯珠须在第一标定相机和第二标定相机构成的立体视觉系统视场范围内。
在一实施例中,相机中有四个坐标系,包括世界坐标系、相机坐标系、图像坐标系和像素坐标系。其中,世界坐标系经过刚体变换(如旋转、平移)后转化为相机坐标系,相机坐标系经过透视投影转换为图像坐标系,图像坐标系经过仿射变换转换为像素坐标系。
可以理解地是,图像的变换大多可以使用矩阵乘法和矩阵加法来表示变换前后像素的映射关系,因此,在进行图像变换时需要获取相机标定参数,相机标定参数(第一标定参数、第二标定参数和第三标定参数)包括相机内部参数和相机外部参数。
其中,相机内部参数可以包括一个像素的物理尺寸dX和dY,焦距f,图像物理坐标的扭曲因子r,图像原点相对于光心成像点的纵横偏移量u和v(以像素为单位)以及畸变系数;畸变系数可以包括相机的径向畸变系数K(K1,K2,K3)和切向畸变系数P(P1,P2)。相机外部参数可以包括世界坐标系转换到相机坐标系的旋转矩阵R和平移矩阵T。
其中,相机内部参数包括内部参数矩阵和畸变系数等,相机外部参数包括旋转矩阵和平移矩阵等。
在一实施例中,内部参数矩阵可以表示为:
其中,f为焦距,dX、dY分别表示X、Y方向上的一个像素在相机感光板上的物理长度,即一个像素在感光板上的实际长度尺寸和实际宽度尺寸,u0、v0分别表示相机感光板中心在像素坐标系下的X轴坐标和Y轴坐标,θ表示相机感光板的横边和纵边之间的角度(90°表示无误差)。
在一实施例中,外部参数矩阵可以表示为:
其中,R表示旋转矩阵,T表示平移矩阵。
在一实施例中,第一标定相机对应的第一标定参数、第二标定相机对应的第二标定参数和眼动相机的第三标定参数可以采用单相机标定方法进行标定。
进一步地,基于单相机标定方法,对所述第一标定相机、所述第二标定相机和所述眼动相机分别进行参数标定,获得所述第一标定参数、所述第二标定参数和所述第三标定参数。
在一实施例中,单相机标定可以获取相机的内部参数矩阵和畸变系数。在单相机标定方法中,通常涉及拍摄已知尺寸的标定板,并使用如张正友标定法等算法计算出这些参数。
其中,标定板可以是棋盘格和圆点格等。棋盘格是由交替的黑白方块组成,适用于焦点检测;圆点格是由一系列的圆点组成,适用于更精确的特征点定位。
在一实施例中,在进行单相机标定时,首先使用待标定相机(第一标定相机或第二标定相机或眼动相机)从不同的角度和位置拍摄标定板,获得若干张标定板图像,然后通过计算机算法或软件(如OpenCV等)识别和提取标定板上的角点或特征点,根据角点或特征点以及标定板中的已知参数,计算相机的内部参数矩阵和畸变系数,内部参数矩阵可以包括焦距和主点坐标等参数信息,而畸变系数描述了镜头的畸变特性。
在一实施例中,相机的标定过程实际上就是在4个坐标系转化的过程中求出相机的内参和外参的过程。其中,世界坐标系描述物体真实位置;相机坐标系中,可以描述摄像头镜头中心;图像坐标系中,可以描述图像传感器成像中心,图片中心,影布中心,单位一般是毫米;像素坐标系中,描述像素的位置,单位是多少行,多少列。
在一实施例中,从世界坐标系转换到相机坐标系,可以求解相机外部参数,即旋转矩阵和平移矩阵;从相机坐标系转换到图像坐标系,可以求解相机内部参数,即内部参数矩阵和畸变系数;从图像坐标系转换到像素坐标系,可以求解像素转化矩阵,即原点从图片中心到左上角,单位从毫米变成行列。
S102、基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
在一实施例中,目标灯珠需要同时出现在第一标定相机和第二标定相机的采集画面中,通过第一标定相机和第二标定相机分别采集目标灯珠的灯珠图像。然后根据第一标定相机采集的灯珠图像在第一标定相机对应的第一图像坐标系中的坐标位置,获得第一图像坐标;根据第二标定相机采集的灯珠图像在第二标定相机对应的第二图像坐标系中的坐标位置,获得第二图像坐标。
进一步地,获取第二标定相机对应的第二标定参数;基于所述第一标定参数和所述第二标定参数,分别创建所述第一标定相机对应的第一图像坐标系和所述第二标定相机对应的第二图像坐标系;基于所述第一标定相机采集的所述目标灯珠的第一灯珠图像,确定所述目标灯珠在所述第一图像坐标系中的第一图像坐标;基于所述第二标定相机采集的所述目标灯珠的第二灯珠图像,确定所述目标灯珠在所述第二图像坐标系中的第二图像坐标。
在一实施例中,以第一标定相机采集图像的横向像素点和纵向像素点分别作为X轴和Y轴,原点为采集图像的左上角第一个像素点位置,建立第一图像坐标系。然后根据第一标定相机采集的灯珠图像,确定灯珠图像中目标灯珠在第一图像坐标系中的图像坐标,即第一图像坐标。
同理,以第二标定相机采集图像的横向像素点和纵向像素点分别作为X轴和Y轴,原点为采集图像的左上角第一个像素点位置,建立第二图像坐标系。然后根据第二标定相机采集的灯珠图像,确定灯珠图像中目标灯珠在第二图像坐标系中的图像坐标,即第二图像坐标。
其中,第一图像坐标和第二图像坐标均为像素坐标。
S103、基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
在一实施例中,根据第一图像坐标和第二图像坐标,可以计算目标灯珠在第一标定相机和第二标定相机分别采集的两张灯珠图像中的图像视差,即第一图像坐标和第二图像坐标的X轴坐标差值。
在一实施例中,根据图像视差和相机标定参数,可以进一步计算目标灯珠与第一标定相机之间的深度距离,其中,目标灯珠的深度距离计算公式可以表示为:
Z=f·B/d
其中,Z表示深度距离,f表示第一标定相机的焦距,B表示第一标定相机和第二标定相机之间的基线距离,即第一标定相机和第二标定相机之间的实际直线距离,d表示图像视差。第一标定相机和第二标定相机的焦距相等。
S104、基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
在一实施例中,相机标定参数包含相机内部参数和相机外部参数,根据相机内部参数和相机外部参数,可以实现相机相关的各个坐标系的转换,即世界坐标系、相机坐标系、图像坐标系以及像素坐标系之间的相互转化。
世界坐标系是指客观三维世界的绝对坐标系。因为第一标定相机、第二标定相机和眼动相机安放在三维空间中,所以需要世界坐标系这个基准坐标系描述上述三个相机的位置,并且用该世界坐标系描述安放在此三维环境中的其他任何物体的位置,用(X,Y,Z)表示其坐标值。
相机坐标系以相机的光心为坐标原点,X轴和Y轴分别平行于图像坐标系的X轴和Y轴,相机的光轴为Z轴,用(Xc,Yc,Zc)表示其坐标值。
图像坐标系以相机图像传感器的图像平面中心为坐标原点,X轴和Y轴分别平行于图像平面的两条垂直边,用(x,y)表示其坐标值。图像坐标系是用物理单位(如毫米)表示像素在图像中的位置。
像素坐标系是以相机图像传感器的图像平面左上角顶点为原点,X轴和Y轴分别平行于图像坐标系的X轴和Y轴,用(u,v)表示其坐标值。像素坐标系以像素为单位(行×列)。
在一实施例中,像素坐标系与图像坐标系之间的转换关系为:
采用齐次坐标系再用矩阵形式将上式表示为:
其中,u表示像素坐标系中的X轴坐标,v表示像素坐标系中的Y轴坐标,x表示图像坐标系中的X轴坐标,y表示图像坐标系中的Y轴坐标,dx表示相机每个像素在图像平面X轴方向上的物理尺寸,dy表示相机每个像素在图像平面Y轴方向上的物理尺寸,(u0,v0)表示图像坐标系原点在像素坐标系中的坐标。
在一实施例中,齐次坐标就是将一个原本是n维的向量用一个n+1维向量来表示,是指一个用于投影几何里的坐标系统。
在一实施例中,图像坐标系与相机坐标系的转换关系如下:
采用齐次坐标系再用矩阵形式将上式表示为:
其中,f为相机的焦距,(x,y)表示图像坐标系中的二维点坐标,(Xc,Yc,Zc)表示相机坐标系中的三维点坐标。
在一实施例中,相机坐标系与世界坐标系之间的转换关系如下:
其中,R为3×3的旋转矩阵,t为三维平移向量,T为平移矩阵,(Xc,Yc,Zc)表示相机坐标系中的三维点坐标,(X,Y,Z)表示世界坐标系中的三维点坐标。
在一实施例中,第一三维坐标是第一标定相机或者第二标定相机对应的相机坐标系中的三维点坐标,因此,首先需要根据上述中的相机坐标系与世界坐标系之间的坐标转换公式,将第一三维坐标转换为世界坐标系中的三维点坐标,获得目标灯珠在世界坐标系中的三维点坐标。再根据相机坐标系和世界坐标系之间的坐标转换公式,将目标灯珠在世界坐标系中的三维点坐标逆转换到眼动相机对应的相机坐标系中,获得目标灯珠在眼动相机对应的相机坐标系中的目标三维坐标,从而完成目标灯珠和眼动相机的相对位置关系的标定。
其中,眼动相机对应的相机坐标系的坐标原点即为眼动相机所在位置。
本实施例提供了一种LED灯珠标定方法,该方法通过第一标定相机和第二标定相机采集目标灯珠的灯珠图像,进而根据目标灯珠在两张灯珠图像中的第一图像坐标和第二图像坐标,以及两个标定相机的相机标定参数,计算目标灯珠在标定相机的相机坐标系中的第一三维坐标。第一标定相机和第二标定相机组成的双目立体视觉标定系统,可以提高目标灯珠在相机坐标系中的三维坐标计算精度,从而降低目标灯珠在坐标转换时的坐标误差,使得通过坐标转化得到的目标灯珠在眼动相机对应的相机坐标系中的目标三维坐标误差更小,提高目标灯珠与眼动相机之间相对位置的标定准确性。
请参照图2,图2为本申请实施例提供的一种LED灯珠标定方法第二实施例的流程示意图。
如图2所示,基于上述图1所示实施例,所述步骤S102具体包括:
S201、基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离;
在一实施例中,根据第一图像坐标和第二图像坐标,可以计算目标灯珠在第一标定相机和第二标定相机采集的两张灯珠图像中的图像视差。进而根据图像视差、第一标定相机和第二标定相机的焦距以及基线距离,即可计算目标灯珠在第一标定相机(或第二标定相机)对应的相机坐标系中的深度距离,也即目标灯珠在第一标定相机(或第二标定相机)对应的相机坐标系中的Z轴坐标。
进一步地,基于所述第一图像坐标和所述第二图像坐标,计算所述目标灯珠在所述第一灯珠图像和所述第二灯珠图像中的图像视差;获取所述第一标定相机和所述第二标定相机的基线距离;基于所述第一标定参数、所述图像视差和所述基线距离,计算所述深度距离。
在一实施例中,通过图像处理技术中的特征点匹配算法,在第一标定相机和第二标定相机采集灯珠图像中识别和匹配目标灯珠的特征点。这些特征点在第一标定相机和第二标定相机采集的两张灯珠图像中的像素坐标位置一般是存在差异的,即图像视差。
其中,图像视差是指同一物体在左右两个相机采集的图像上的水平位置差值。
示例性的,假设目标灯珠在第一标定相机采集的灯珠图像中的图像坐标为pL,目标灯珠在第二标定相机采集的灯珠图像中的图像坐标为pR。则,图像视差的计算公式可以表示为:
d=pL·x-pR·x
其中,pL·x表示目标灯珠在第一标定相机采集的灯珠图像中的X轴坐标,pR·x表示目标灯珠在第二标定相机采集的灯珠图像中的X轴坐标。
在一实施例中,在计算得到图像视差之后,即可根据第一标定相机和第二标定相机的相机标定参数计算目标灯珠的深度坐标,即目标灯珠距离第一标定相机或第二标定相机的深度距离。
其中,目标灯珠的深度距离计算公式可以表示为:
Z=f·B/d
其中,Z表示深度距离,f表示第一标定相机或第二标定相机的焦距,B表示第一标定相机和第二标定相机之间的基线距离,即第一标定相机和第二标定相机之间的实际直线距离,d表示图像视差。
S202、基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标。
在一实施例中,根据上述的图像坐标系与相机坐标系的转换关系,可以将目标灯珠在第一标定相机对应的图像坐标系中的第一图像坐标转换到第一标定相机对应的相机坐标系中,从而获得目标灯珠在第一标定相机对应的相机坐标系中的X轴和Y轴坐标,而深度距离为目标灯珠在第一标定相机对应的相机坐标系中的Z轴坐标,由此,可以获得目标灯珠在第一标定相机对应的第一相机坐标系中的第一三维坐标。
进一步地,基于所述第一标定参数,获得所述第一标定相机对应的内部参数矩阵;基于所述内部参数矩阵,将所述第一图像坐标转化到所述第一标定相机对应的归一化坐标系中,获得所述目标灯珠对应的归一化坐标;基于所述归一化坐标和所述深度距离,计算所述目标灯珠在所述第一相机坐标系中的所述第一三维坐标。
在一实施例中,第一标定参数包括第一标定相机的相机内部参数和相机外部参数,相机内部参数包括相机内部参数矩阵和畸变系数。因此,可以根据第一标定参数获得第一标定相机对应的内部参数矩阵。
在一实施例中,可以采用去畸变算法以及内部参数矩阵K的逆,将目标灯珠在第一图像坐标系中的第一图像坐标转换为相机坐标系的归一化相机坐标系的归一化坐标。
其中,归一化坐标系是指相机坐标系中的点转换为归一化平面中的点。
示例性的,假设目标灯珠在第一标定相机采集的灯珠图像中的像素坐标为(x1,y1),目标灯珠在第一标定相机的相机坐标系中的深度为Z,第一相机的内参矩阵为K1
其中,(fx,fy)为使用像素表示的X轴和Y轴方向的焦距长度,(cx,cy)为相机感光板中心在像素坐标系下的X轴坐标和Y轴坐标。
将像素坐标转换为归一化相机坐标系中的坐标,则有:
然后,利用深度Z,可以计算得到目标灯珠在第一标定相机的相机坐标系中的三维坐标(XB,YB,ZB),其中:
XB=x×D
YB=y×D
ZB=D
在一实施例中,第一图像坐标和第二图像坐标为灯珠图像中的像素坐标。因此,归一化坐标系可以是图像坐标系,目标灯珠的归一化坐标可以是将目标灯珠的像素坐标转换为图像坐标,即以上述像素坐标系与图像坐标系之间的转换公式将目标灯珠的像素坐标转换为图像坐标,获得归一化坐标。而后,根据图像坐标系与相机坐标系的转换公式,将归一化坐标转换到第一相机坐标系中,获得目标灯珠在第一相机坐标系中的X轴坐标和Y轴坐标,再将深度距离作为Z轴坐标,从而获得目标灯珠在第一相机坐标系中的第一三维坐标。
在一实施例中,图像畸变是由于透镜制造精度以及组装工艺的偏差会引入畸变,导致原始图像失真。镜头的畸变分为径向畸变和切向畸变两类。从镜头获取的原始图像,都是存在第一部分所述的两种畸变的,为了后续进行更好的图像操作,需要执行去畸变过程。
可以理解地是,图像去畸变可以采用现有技术中的去畸变算法,其主要过程包括:将像素坐标转换到相机坐标系中,获得相机坐标,然后根据畸变系数(K1,K2,K3,P1,P2)分别计算X轴和Y轴方向上的畸变量,在根据畸变量对相机坐标进行校正,并将经过校正后的相机坐标转换到像素坐标系中,即可获得校正后的像素坐标。
可以理解地是,第一标定相机和第二标定相机组成双目视觉系统,对目标灯珠进行定位,因此,同样可以采用第二标定相机对目标灯珠进行三维坐标计算。
进一步地,基于所述第一图像坐标、所述第二图像坐标和所述第二标定参数,计算所述目标灯珠在所述第二标定相机对应的相机坐标系中的所述第一三维坐标;基于所述第三标定参数和所述第二标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的所述目标三维坐标。
在一实施例中,因为第一标定相机和第二标定相机构成双目立体视觉系统,因此,通过第一图像坐标和深度距离,计算目标灯珠在第一相机坐标系中的第一三维坐标,与通过第二图像坐标和深度距离,计算目标灯珠在第二相机坐标系中的第一三维坐标的过程是相同的,区别仅在于所采用的相机坐标系。
在一实施例中,根据上述的图像坐标系与相机坐标系的转换关系,可以将目标灯珠在第二标定相机对应的图像坐标系中的第二图像坐标转换到第二标定相机对应的相机坐标系中,从而获得目标灯珠在第二标定相机对应的相机坐标系中的X轴和Y轴坐标,而深度距离为目标灯珠在第二标定相机对应的相机坐标系中的Z轴坐标,由此,可以获得目标灯珠在第二标定相机对应的第二相机坐标系中的第一三维坐标。
本实施例中,根据第一图像坐标和第二图像坐标,计算目标灯珠在第一标定相机和第二标定相机采集的两张灯珠图像中的图像视差,进而根据图像视差、相机标定参数以及两个标定相机之间的基线距离,计算得到目标灯珠与两个标定相机之间的深度距离,通过双目视觉实现对目标灯珠的深度信息计算,从而提高目标灯珠的三维坐标计算的准确性。
请参照图3,图3为本申请实施例提供的一种LED灯珠标定方法第三实施例的流程示意图。
如图3所示,基于上述图2所示实施例,所述步骤S104具体包括:
S301、基于所述第一标定参数和所述第三标定参数,计算所述第一标定相机和所述眼动相机之间的第二旋转矩阵和第二平移向量;
在一实施例中,通过旋转和平移变换将三维的坐标转换为相机二维的坐标,其中的旋转矩阵和平移矩阵就被称为相机的外部标定参数,描述的是将世界坐标系转换成相机坐标系的过程。
在一实施例中,可以通过双目视觉标定的方式,确定两个相机之间的空间关系,即相对位置和相对姿态。
示例性的,以第一标定相机和眼动相机组成双目视觉系统,两个相机从不同角度同步拍摄同一场景(如棋盘格)的多组图片,使用特征提取和匹配算法(如SIFT、SURF或ORB)找到图片间的对应点。基于这些对应点,计算第一标定相机和眼动相机之间的第二旋转矩阵R13和第二平移向量T13
S302、基于所述第二旋转矩阵和所述第二平移向量,将所述第一三维坐标转化到所述眼动相机对应的相机坐标系中,获得所述目标三维坐标。
在一实施例中,将目标灯珠在第一标定相机对应的相机坐标系中的三维坐标转化到眼动相机对应的相机坐标系中,需要使用第一标定相机与眼动相机之间的第二旋转矩阵R13的逆矩阵
其中,目标灯珠在眼动相机中的1就是目标灯珠在第一标定相机的相机坐标系中的第一三维坐标(XB,YB,ZB)。
在一实施例中,还可以通过世界坐标系进行三维坐标转化,即通过第一标定参数和第三标定参数,确定第一标定相机的相机坐标系和世界坐标系之间的旋转矩阵和平移矩阵,以及眼动相机的相机坐标系和世界坐标系之间的旋转矩阵和平移矩阵,也即第一标定相机的外部标定参数和眼动相机的外部标定参数。
进一步地,基于所述第三标定参数,获得所述眼动相机对应的相机坐标系与所述世界坐标系之间的坐标转换矩阵;基于所述坐标转换矩阵,将所述全局三维坐标转换到所述眼动相机对应的相机坐标系中,获得所述目标三维坐标。
在一实施例中,根据外部标定参数(旋转矩阵和平移矩阵),通过上述的相机坐标系与世界坐标系的转换关系,将第一相机坐标系中的第一三维坐标转换到世界坐标系中,获得目标灯珠在世界坐标系中的全局三维坐标。其中,相机坐标系与世界坐标系的转换关系如下:
其中,R为3×3的旋转矩阵,t为三维平移向量,T为平移矩阵,(Xc,Yc,Zc)表示相机坐标系中的三维点坐标,(X,Y,Z)表示世界坐标系中的三维点坐标。
在一实施例中,根据第三标定参数,获得眼动相机的外部标定参数,即眼动相机的相机坐标系与世界坐标系之间的旋转矩阵和平移矩阵。进而获得相机坐标系与世界坐标系之间的坐标转换矩阵,也即上述相机坐标系与世界坐标系的转换关系。
在一实施例中,获取到目标灯珠在世界坐标系中的全局三维坐标,且获得眼动相机的相机坐标系与世界坐标系之间的坐标转换矩阵,即可根据全局三维坐标和坐标转换矩阵,计算得出目标灯珠在眼动相机的相机坐标系中的目标三维坐标。
在一实施例中,因为眼动相机的相机坐标系中以眼动相机的光轴中心作为坐标原点,因此,可以将目标三维坐标作为目标灯珠相对于眼动相机的相对位置表示。
本实施例中,根据第一标定参数和坐标转换矩阵,将目标灯珠在第一标定坐标系中的三维坐标转换到世界坐标系中,获得全局三维坐标。通过眼动相机的第三标定参数,计算眼动相机的相机坐标系与世界坐标系之间的坐标转换矩阵,继而根据坐标转换矩阵,将目标灯珠在世界坐标系中的全局三维坐标转换到眼动相机的相机坐标系中,从而在眼动相机的相机坐标系中标定目标灯珠与眼动相机的相对位置关系,可以避免求解眼动相机在世界坐标系中的点坐标所产生的误差,从而提高眼动相机和目标灯珠的相对位置的标定准确性。
请参阅图4,图4是本申请提供的一种LED灯珠标定装置第一实施例的结构示意图,该LED灯珠标定装置用于执行前述的LED灯珠标定方法。
如图4所示,该LED灯珠标定装置400,包括:标定参数获取模块401、图像坐标获得模块402、三维坐标计算模块403和三维坐标转换模块404。
标定参数获取模块401,用于获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
图像坐标获得模块402,用于基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
三维坐标计算模块403,用于基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
三维坐标转换模块404,用于基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
在一实施例中,所述图像坐标获得模块402具体包括:
图像坐标系创建单元,用于基于所述第一标定参数和所述第二标定参数,分别创建所述第一标定相机对应的第一图像坐标系和所述第二标定相机对应的第二图像坐标系;
第一图像坐标确定单元,用于基于所述第一标定相机采集的所述目标灯珠的第一灯珠图像,确定所述目标灯珠在所述第一图像坐标系中的第一图像坐标;
第二图像坐标确定单元,用于基于所述第二标定相机采集的所述目标灯珠的第二灯珠图像,确定所述目标灯珠在所述第二图像坐标系中的第二图像坐标。
在一实施例中,所述三维坐标计算模块403具体包括:
深度距离计算单元,用于基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离;
第一三维坐标计算单元,用于基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标。
在一实施例中,所述深度距离计算单元具体包括:
图像视差计算子单元,用于基于所述第一图像坐标和所述第二图像坐标,计算所述目标灯珠在所述第一灯珠图像和所述第二灯珠图像中的图像视差;
基线距离获取子单元,用于获取所述第一标定相机和所述第二标定相机的基线距离;
深度距离计算子单元,用于基于所述第一标定参数、所述图像视差和所述基线距离,计算所述深度距离。
在一实施例中,所述第一三维坐标计算单元具体包括:
内部参数矩阵获得子单元,用于基于所述第一标定参数,获得所述第一标定相机对应的内部参数矩阵;
归一化坐标计算子单元,用于基于所述内部参数矩阵,将所述第一图像坐标转化到所述第一标定相机对应的归一化坐标系中,获得所述目标灯珠对应的归一化坐标;
第一三维坐标计算子单元,用于基于所述归一化坐标和所述深度距离,计算所述目标灯珠在所述第一相机坐标系中的所述第一三维坐标。
在一实施例中,所述三维坐标转换模块404具体包括:
转换参数计算单元,用于基于所述第一标定参数和所述第三标定参数,计算所述第一标定相机和所述眼动相机之间的第二旋转矩阵和第二平移向量;
坐标转换单元,用于基于所述第二旋转矩阵和所述第二平移向量,将所述第一三维坐标转化到所述眼动相机对应的相机坐标系中,获得所述目标三维坐标。
在一实施例中,所述LED灯珠标定装置400具体还包括:
第一三维坐标计算第二单元,用于基于所述第一图像坐标、所述第二图像坐标和所述第二标定参数,计算所述目标灯珠在所述第二标定相机对应的相机坐标系中的所述第一三维坐标;
目标三维坐标计算第二单元,用于基于所述第三标定参数和所述第二标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的所述目标三维坐标。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块的具体工作过程,可以参考前述LED灯珠标定方法实施例中的对应过程,在此不再赘述。
上述实施例提供的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图5所示的计算机设备上运行。
请参阅图5,图5是本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备可以是服务器。
参阅图5,该计算机设备包括通过系统总线连接的处理器、存储器和网络接口,其中,存储器可以包括非易失性存储介质和内存储器。
非易失性存储介质可存储操作系统和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器执行任意一种LED灯珠标定方法。
处理器用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器为非易失性存储介质中的计算机程序的运行提供环境,该计算机程序被处理器执行时,可使得处理器执行任意一种LED灯珠标定方法。
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器可以是中央处理单元(CentralProcessingUnit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignalProcessor,DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一个实施例中,所述处理器用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
在一实施例中,所述处理器在实现所述基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像时,用于实现:
基于所述第一标定参数和所述第二标定参数,分别创建所述第一标定相机对应的第一图像坐标系和所述第二标定相机对应的第二图像坐标系;
基于所述第一标定相机采集的所述目标灯珠的第一灯珠图像,确定所述目标灯珠在所述第一图像坐标系中的第一图像坐标;
基于所述第二标定相机采集的所述目标灯珠的第二灯珠图像,确定所述目标灯珠在所述第二图像坐标系中的第二图像坐标。
在一实施例中,所述处理器在实现所述基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标时,用于实现:
基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离;
基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标。
在一实施例中,所述处理器在实现所述基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离时,用于实现:
基于所述第一图像坐标和所述第二图像坐标,计算所述目标灯珠在所述第一灯珠图像和所述第二灯珠图像中的图像视差;
获取所述第一标定相机和所述第二标定相机的基线距离;
基于所述第一标定参数、所述图像视差和所述基线距离,计算所述深度距离。
在一实施例中,所述处理器在实现所述基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标时,用于实现:
基于所述第一标定参数,获得所述第一标定相机对应的内部参数矩阵;
基于所述内部参数矩阵,将所述第一图像坐标转化到所述第一标定相机对应的归一化坐标系中,获得所述目标灯珠对应的归一化坐标;
基于所述归一化坐标和所述深度距离,计算所述目标灯珠在所述第一相机坐标系中的所述第一三维坐标。
在一实施例中,所述处理器在实现所述基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标时,用于实现:
基于所述第一标定参数和所述第三标定参数,计算所述第一标定相机和所述眼动相机之间的第二旋转矩阵和第二平移向量;
基于所述第二旋转矩阵和所述第二平移向量,将所述第一三维坐标转化到所述眼动相机对应的相机坐标系中,获得所述目标三维坐标。
在一实施例中,所述处理器在实现所述基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像之后,还用于实现:
基于所述第一图像坐标、所述第二图像坐标和所述第二标定参数,计算所述目标灯珠在所述第二标定相机对应的相机坐标系中的所述第一三维坐标;
基于所述第三标定参数和所述第二标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的所述目标三维坐标。
本申请的实施例中还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序中包括程序指令,所述处理器执行所述程序指令,实现本申请实施例提供的任一种LED灯珠标定方法。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMediaCard,SMC),安全数字(SecureDigital,SD)卡,闪存卡(FlashCard)等。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种LED灯珠标定方法,其特征在于,所述方法包括:
获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
2.根据权利要求1所述的LED灯珠标定方法,其特征在于,所述基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像,包括:
获取第二标定相机对应的第二标定参数;
基于所述第一标定参数和所述第二标定参数,分别创建所述第一标定相机对应的第一图像坐标系和所述第二标定相机对应的第二图像坐标系;
基于所述第一标定相机采集的所述目标灯珠的第一灯珠图像,确定所述目标灯珠在所述第一图像坐标系中的第一图像坐标;
基于所述第二标定相机采集的所述目标灯珠的第二灯珠图像,确定所述目标灯珠在所述第二图像坐标系中的第二图像坐标。
3.根据权利要求1所述的LED灯珠标定方法,其特征在于,所述基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标,包括:
基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离;
基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标。
4.根据权利要求3所述的LED灯珠标定方法,其特征在于,所述基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的深度距离,包括:
基于所述第一图像坐标和所述第二图像坐标,计算所述目标灯珠在所述第一灯珠图像和所述第二灯珠图像中的图像视差;
获取所述第一标定相机和所述第二标定相机的基线距离;
基于所述第一标定参数、所述图像视差和所述基线距离,计算所述深度距离。
5.根据权利要求3所述的LED灯珠标定方法,其特征在于,所述基于所述第一图像坐标和所述深度距离,确定所述目标灯珠在所述第一标定相机对应的第一相机坐标系中的所述第一三维坐标,包括:
基于所述第一标定参数,获得所述第一标定相机对应的内部参数矩阵;
基于所述内部参数矩阵,将所述第一图像坐标转化到所述第一标定相机对应的归一化坐标系中,获得所述目标灯珠对应的归一化坐标;
基于所述归一化坐标和所述深度距离,计算所述目标灯珠在所述第一相机坐标系中的所述第一三维坐标。
6.根据权利要求5所述的LED灯珠标定方法,其特征在于,所述基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标,包括:
基于所述第一标定参数和所述第三标定参数,计算所述第一标定相机和所述眼动相机之间的第二旋转矩阵和第二平移向量;
基于所述第二旋转矩阵和所述第二平移向量,将所述第一三维坐标转化到所述眼动相机对应的相机坐标系中,获得所述目标三维坐标。
7.根据权利要求1所述的LED灯珠标定方法,其特征在于,所述基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像之后,还包括:
获取第二标定相机对应的第二标定参数;
基于所述第一图像坐标、所述第二图像坐标和所述第二标定参数,计算所述目标灯珠在所述第二标定相机对应的相机坐标系中的所述第一三维坐标;
基于所述第三标定参数和所述第二标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的所述目标三维坐标。
8.一种LED灯珠标定装置,其特征在于,所述LED灯珠标定装置包括:
标定参数获取模块,用于获取第一标定相机对应的第一标定参数和眼动相机的第三标定参数;
图像坐标获得模块,用于基于所述第一标定相机和第二标定相机分别采集的目标灯珠的灯珠图像,获得所述第一标定相机对应的第一图像坐标和所述第二标定相机对应的第二标定图像;
三维坐标计算模块,用于基于所述第一图像坐标、所述第二图像坐标和所述第一标定参数,计算所述目标灯珠在所述第一标定相机对应的相机坐标系中的第一三维坐标;
三维坐标转换模块,用于基于所述第三标定参数和所述第一标定参数,将所述第一三维坐标转化到眼动相机对应的相机坐标系中,获得所述目标灯珠相对于所述眼动相机的目标三维坐标。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如权利要求1至7中任一项所述的LED灯珠标定方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如权利要求1至7中任一项所述的LED灯珠标定方法的步骤。
CN202410316520.7A 2024-03-19 2024-03-19 Led灯珠标定方法、装置、设备及介质 Pending CN118334116A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202410316520.7A CN118334116A (zh) 2024-03-19 2024-03-19 Led灯珠标定方法、装置、设备及介质
PCT/CN2025/082727 WO2025195304A1 (zh) 2024-03-19 2025-03-14 Led灯珠标定方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410316520.7A CN118334116A (zh) 2024-03-19 2024-03-19 Led灯珠标定方法、装置、设备及介质

Publications (1)

Publication Number Publication Date
CN118334116A true CN118334116A (zh) 2024-07-12

Family

ID=91775409

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410316520.7A Pending CN118334116A (zh) 2024-03-19 2024-03-19 Led灯珠标定方法、装置、设备及介质

Country Status (2)

Country Link
CN (1) CN118334116A (zh)
WO (1) WO2025195304A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025195304A1 (zh) * 2024-03-19 2025-09-25 珠海莫界科技有限公司 Led灯珠标定方法、装置、设备及介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107765840A (zh) * 2016-08-22 2018-03-06 深圳纬目信息技术有限公司 一种基于双目测量的泛头戴式设备的视线追踪方法设备
CN116225219A (zh) * 2023-01-28 2023-06-06 深圳锐视智芯科技有限公司 一种基于多组合双目立体视觉的眼球追踪方法及相关装置
CN116051658B (zh) * 2023-03-27 2023-06-23 北京科技大学 基于双目视觉进行目标检测的相机手眼标定方法及装置
CN118334116A (zh) * 2024-03-19 2024-07-12 珠海莫界科技有限公司 Led灯珠标定方法、装置、设备及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025195304A1 (zh) * 2024-03-19 2025-09-25 珠海莫界科技有限公司 Led灯珠标定方法、装置、设备及介质

Also Published As

Publication number Publication date
WO2025195304A1 (zh) 2025-09-25

Similar Documents

Publication Publication Date Title
CN109767474B (zh) 一种多目相机标定方法、装置及存储介质
US9774837B2 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
CN115345942B (zh) 空间标定方法、装置、计算机设备和存储介质
CN111028155B (zh) 一种基于多对双目相机的视差图像拼接方法
TWI555378B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
JP4095491B2 (ja) 距離測定装置、距離測定方法、及び距離測定プログラム
WO2022160761A1 (zh) 双立体相机的标定方法及装置
CN106548489B (zh) 一种深度图像与彩色图像的配准方法、三维图像采集装置
CN113841384B (zh) 校准装置,用于校准的图表和校准方法
US20170127045A1 (en) Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof
JP7675288B2 (ja) 撮影測定方法、装置、機器及び記憶媒体
WO2018076154A1 (zh) 一种基于鱼眼摄像机空间位姿标定的全景视频生成方法
JP5070435B1 (ja) 3次元相対座標計測装置およびその方法
US20120148145A1 (en) System and method for finding correspondence between cameras in a three-dimensional vision system
CN112862897B (zh) 一种基于相位移编码圆的相机离焦状态下的快速标定方法
CN111028295A (zh) 一种基于编码结构光和双目的3d成像方法
CN107808398B (zh) 摄像头参数算出装置以及算出方法、程序、记录介质
JP7489253B2 (ja) デプスマップ生成装置及びそのプログラム、並びに、デプスマップ生成システム
CN101563709A (zh) 校准照相机系统
JP7195801B2 (ja) 画像処理装置およびその制御方法、距離検出装置、撮像装置、プログラム
CN110580718A (zh) 图像装置的校正方法及其相关图像装置和运算装置
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
CN118334116A (zh) Led灯珠标定方法、装置、设备及介质
JP5648159B2 (ja) 3次元相対座標計測装置およびその方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination