CN116405653A - 实时裸眼3d的图像处理方法、系统、设备及介质 - Google Patents
实时裸眼3d的图像处理方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN116405653A CN116405653A CN202310322652.6A CN202310322652A CN116405653A CN 116405653 A CN116405653 A CN 116405653A CN 202310322652 A CN202310322652 A CN 202310322652A CN 116405653 A CN116405653 A CN 116405653A
- Authority
- CN
- China
- Prior art keywords
- image
- parallax image
- parallax
- camera
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 45
- 238000012545 processing Methods 0.000 claims abstract description 96
- 238000000034 method Methods 0.000 claims abstract description 67
- 230000003287 optical effect Effects 0.000 claims description 129
- 238000009434 installation Methods 0.000 claims description 66
- 230000008569 process Effects 0.000 claims description 40
- 230000015654 memory Effects 0.000 claims description 20
- 238000003860 storage Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 14
- 238000011084 recovery Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 17
- 238000010586 diagram Methods 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 17
- 238000013473 artificial intelligence Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 8
- 230000010287 polarization Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 210000001061 forehead Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/225—Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/178—Metadata, e.g. disparity information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
- H04N13/31—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Library & Information Science (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本申请提供了一种实时裸眼3D的图像处理方法、系统、设备及介质,属于实时裸眼3D显示技术领域。方法包括:获取2D格式下的初始图像,初始图像中包括第一视差图像和第二视差图像,第一视差图像和第二视差图像具有视差;对第一视差图像进行处理,得到与第二视差图像相匹配的第三视差图像;将第三视差图像处理成3D格式下的第一帧画面图像,将第二视差图像处理成3D格式下的第二帧画面图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像;将第一帧画面图像与第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。本申请无需专门的3D设备,常规的终端也能实现将二维的图像实时转换成3D显示效果的图像。
Description
技术领域
本申请涉及实时裸眼3D显示技术领域,尤其涉及一种实时裸眼3D的图像处理方法、系统、设备及介质。
背景技术
三维(3-dimension,3D)显示技术是指用户通过眼睛可以看到3D画面,而3D画面是通过左右两眼视差虚拟出的立体空间画面。
相关技术中,通常需要由一套设备来获取二维的图像,再将获取到的图像传输给专门进行3D图像处理的设备,以便处理成3D显示画面。然而,这种3D显示处理需要专门的3D显示设备来实现,常规的终端设备无法实现3D画面的制作,终端设备无法实时根据获取到的图像制成3D图像。
发明内容
本申请实施例的主要目的在于提出一种实时裸眼3D的图像处理方法、系统、设备及介质,能够实时将获取到的二维图像处理成3D显示的图像。
为实现上述目的,本申请实施例的第一方面提出了一种实时裸眼3D的图像处理方法,所述方法包括:获取2D格式下的初始图像,其中,所述初始图像中包括位于所述初始图像第一图像区域的第一视差图像和位于所述初始图像的第二图像区域的第二视差图像,所述第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,所述第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,所述第一光路和所述第二光路不同,以使所述第一视差图像和所述第二视差图像具有视差;对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像;将所述第三视差图像处理成3D格式下的第一帧画面图像,将所述第二视差图像处理成3D格式下的第二帧画面图像,其中,所述第一帧画面图像和所述第二帧画面图像之间互为左右格式图像;将所述第一帧画面图像与所述第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
在一些实施例中,所述实时裸眼3D的图像处理方法应用在终端上,所述终端设置有摄像头,所述摄像头连接有拍摄镜头;其中,所述拍摄镜头设置有棱镜,所述棱镜设置于所述摄像头的上方的一侧以形成所述第一光路,并且所述拍摄镜头在所述摄像头的上方的另一侧形成作为所述第二光路的空腔,以使得目标拍摄对象的第一初始光信号可通过所述第一光路进入所述摄像头,所述目标拍摄对象的第二初始光信号可经过所述第二光路后进入所述摄像头;所述棱镜包括第一棱镜面,以及沿所述第二初始光信号光路依次设置的入光面和出光面,所述第一棱镜面垂直于所述摄像头平面,所述第一棱镜面的延展面将所述摄像头的镜头表面分为第一区域和第二区域,所述第一区域用于接收所述第一初始光信号,所述第二区域用于接收所述出光面出射的光信号,以使得所述目标拍摄对象在所述第一区域形成所述第一视差图像,在所述第二区域形成与所述第一视差图像相对应的所述第二视差图像;所述获取2D格式下的初始图像,包括:确定所述终端上的一个所述摄像头为目标摄像头,并打开所述目标摄像头;实时获取所述目标摄像头拍摄的2D格式下的初始图像。
在一些实施例中,所述终端上的所述摄像头有多个;所述确定所述终端上的一个所述摄像头为目标摄像头,并打开所述目标摄像头,包括:获取摄像头选择信息,其中,所述摄像头选择信息响应于用户选择指令得到,或者通过对各个所述摄像头拍摄的图像进行识别得到;基于所述摄像头选择信息,从多个所述摄像头中选择一个作为目标摄像头,并打开所述目标摄像头。
在一些实施例中,所述打开所述目标摄像头,包括:获取所述目标摄像头的第一参数信息和所述拍摄镜头的第二参数信息;根据所述第一参数信息和所述第二参数信息确定当前所述目标摄像头所能拍摄的目标焦距范围;根据所述目标焦距范围设置所述目标摄像头的拍摄参数,以使所述目标摄像头在所述目标焦距范围内拍摄图像,所述拍摄参数包括所述目标摄像头的拍摄焦距或所述拍摄焦距的可调范围。
在一些实施例中,所述对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像,包括:若所述第一视差图像为所述第二视差图像的镜像图像,对所述第一视差图像进行镜像恢复处理,得到与所述第二视差图像相匹配的第三视差图像;或者,若所述第一视差图像为所述第二视差图像的倒立图像,对所述第一视差图像进行正立恢复处理,得到与所述第二视差图像相匹配的第三视差图像;或者,若所述第一视差图像为所述第二视差图像的镜像倒立图像,对所述第一视差图像进行镜像正立恢复处理,得到与所述第二视差图像相匹配的第三视差图像;或者,若所述第一视差图像为所述第二视差图像的缩小图像,对所述第一视差图像进行镜像放大处理,得到与所述第二视差图像相匹配的第三视差图像;或者,若所述第一视差图像为所述第二视差图像的放大图像,对所述第一视差图像进行镜像缩小处理,得到与所述第二视差图像相匹配的第三视差图像。
在一些实施例中,所述将所述第三视差图像处理成3D格式下的第一帧画面图像,包括:对所述第三视差图像与所述第二视差图像进行图像比对,得到表征图像之间重合度的比对结果;根据所述比对结果对所述第三视差图像进行图像校准,得到校准后的第四视差图像,以使校准后的所述第四视差图像与所述第二视差图像之间的重合度满足预设要求;将校准后的所述第四视差图像处理成3D格式下的第一帧画面图像。
在一些实施例中,所述对所述第三视差图像与所述第二视差图像进行图像比对,得到表征图像之间重合度的比对结果,包括:识别所述第三视差图像中的目标特征,得到所述目标特征在所述第三视差图像中的第一目标角点;识别所述第二视差图像中的所述目标特征,得到所述目标特征在所述第二视差图像中的第二目标角点;将所述第三视差图像和所述第二视差图像进行重叠,并对所述第一目标角点和所述第二目标角点进行虚拟重合对比,根据角点之间的重合度得到表征图像之间重合度的比对结果。
在一些实施例中,所述将所述第三视差图像处理成3D格式下的第一帧画面图像,包括:确定所述第三视差图像中与所述第二视差图像多余的部分,得到第一多余部分;将所述第一多余部分从所述第三视差图像中裁剪掉,并将剩余的所述第三视差图像处理成3D格式下的第一帧画面图像;或者,所述将所述第二视差图像处理成3D格式下的第二帧画面图像,包括:确定所述第二视差图像中与所述第三视差图像多余的部分,得到第二多余部分;将所述第二多余部分从所述第二视差图像中裁剪掉,并将剩余的所述第二视差图像处理成3D格式下的第二帧画面图像。
在一些实施例中,所述实时裸眼3D的图像处理方法应用在终端上,所述终端设置有摄像头,所述摄像头连接有拍摄镜头;所述方法还包括:获取历史上安装所述拍摄镜头的目标安装误差;根据所述目标安装误差的大小确定裁剪参数,其中,所述裁剪参数用于对所述第三视差图像或所述第二视差图像中的多余部分进行裁剪。
在一些实施例中,所述获取历史上安装所述拍摄镜头的目标安装误差,包括:获取所述终端的设备型号信息;获取多个样本安装误差,其中,所述样本安装误差为所述设备型号信息下多个样本设备安装所述拍摄镜头时的安装误差;计算多个所述样本安装误差的方差;若所述方差大于预设的方差阈值,则从多个所述样本安装误差中选择最大误差值,将所述最大误差值作为安装所述拍摄镜头的目标安装误差;若所述方法小于或等于预设的所述方差阈值,则计算多个所述样本安装误差的平均误差值,将所述平均误差值作为安装所述拍摄镜头的目标安装误差。
为实现上述目的,本申请实施例的第二方面提出了一种实时裸眼3D的图像处理系统,所述系统包括:图像获取模块,用于获取2D格式下的初始图像,其中,所述初始图像中包括位于所述初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,所述第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,所述第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,所述第一光路和所述第二光路不同,以使所述第一视差图像和所述第二视差图像具有视差;图像处理模块,用于对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像;3D格式处理模块,用于将所述第三视差图像处理成3D格式下的第一帧画面图像,将所述第二视差图像处理成3D格式下的第二帧画面图像,其中,所述第一帧画面图像和所述第二帧画面图像之间互为左右格式图像;图像融合模块,用于将所述第一帧画面图像与所述第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
为实现上述目的,本申请实施例的第三方面提出了一种实时裸眼3D的图像处理系统,所述系统包括:终端,所述终端设置有摄像头,所述终端用于执行如权利要求1至10中任意一项所述的实时裸眼3D的图像处理方法;拍摄镜头,所述拍摄镜头设置有棱镜;其中,所述棱镜设置于所述摄像头的上方的一侧以形成所述第一光路,并且所述拍摄镜头在所述摄像头的上方的另一侧形成作为所述第二光路的空腔,以使得目标拍摄对象的第一初始光信号可通过所述第一光路进入所述摄像头,所述目标拍摄对象的第二初始光信号可经过所述第二光路后进入所述摄像头;所述棱镜包括第一棱镜面,以及沿所述第二初始光信号光路依次设置的入光面和出光面,所述第一棱镜面垂直于所述摄像头平面,所述第一棱镜面的延展面将所述摄像头的镜头表面分为第一区域和第二区域,所述第一区域用于接收所述第一初始光信号,所述第二区域用于接收所述出光面出射的光信号,以使得所述目标拍摄对象在所述第一区域形成第一视差图像,在所述第二区域形成与所述第一视差图像相对应的第二视差图像。
为实现上述目的,本申请实施例的第四方面提出了一种电子设备,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面实施例所述的实时裸眼3D的图像处理方法。
为实现上述目的,本申请实施例的第五方面提出了一种存储介质,所述存储介质为计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面实施例所述的实时裸眼3D的图像处理方法。
本申请实施例的有益效果如下:通过获取2D格式下的初始图像,其中,初始图像中包括位于初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,第一光路和第二光路不同,因此第一视差图像和第二视差图像具有视差。本申请实施例中可以实现将二维的初始图像处理成3D显示的图像,具体包括对第一视差图像进行处理,得到与第二视差图像相匹配的第三视差图像,再将第三视差图像处理成3D格式下的第一帧画面图像,将第二视差图像处理成3D格式下的第二帧画面图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像,最终将第一帧画面图像与第二帧画面图像进行融合拼接,可以得到3D格式下的3D帧画面图像,通过3D帧画面图像可实现裸眼3D显示效果。本申请实施例无需专门的3D设备,常规的终端设备也能实现将二维的图像实时转换成3D显示效果的图像。
附图说明
图1是本申请实施例提供的终端连接拍摄镜头的结构示意图;
图2是本申请实施例提供的终端连接拍摄镜头的主视图;
图3是本申请实施例提供的拍摄镜头中棱镜的示意图;
图4是图3提供的拍摄镜头中棱镜的主视图;
图5是本申请另一个实施例提供的拍摄镜头中棱镜的示意图;
图6是本申请实施例提供的拍摄镜头的光路图;
图7是本申请另一个实施例提供的拍摄镜头的光路图;
图8是本申请实施例提供的拍摄镜头的成像示意图;
图9是本申请实施例提供的实时裸眼3D的图像处理方法的流程示意图;
图10是本申请实施例提供的初始图像的示意图;
图11是本申请实施例提供的3D帧画面图像的示意图;
图12是图9中的步骤S101的流程示意图;
图13是本申请实施例提供的终端显示屏幕的示意图;
图14是图12中的步骤S201的流程示意图;
图15是本申请实施例提供的打开目标摄像头的流程示意图;
图16是图9中的步骤S102的流程示意图;
图17是图9中的步骤S103的流程示意图;
图18是图17中的步骤S601的流程示意图;
图19是本发明实施例提供的图像校准过程中的角点位置示意图;
图20是本发明实施例提供的图像校准过程中的图像重叠示意图;
图21是图9中的步骤S103中得到第一帧画面图像的另一个流程示意图;
图22是图9中的步骤S103中得到第二帧画面图像的另一个流程示意图;
图23是本申请另一个实施例提供的实时裸眼3D的图像处理方法的流程示意图;
图24是图23中的步骤S1001的流程示意图;
图25是本申请实施例提供的实时裸眼3D的图像处理系统的功能模块示意图;
图26是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
相关技术中,通常需要由一套设备来获取二维的图像,再将获取到的图像传输给专门进行3D图像处理的设备,以便处理成3D显示画面。然而,这种3D显示处理需要专门的3D显示设备来实现,常规的终端设备无法实现3D画面的制作,终端设备无法实时根据获取到的图像制成3D图像。
基于此,本申请实施例提供了一种实时裸眼3D的图像处理方法、系统、设备及介质,无需专门的3D设备,常规的终端设备也能实现将二维的图像实时转换成3D显示效果的图像。
本申请实施例提供的实时裸眼3D的图像处理方法、系统、设备及介质,具体通过如下实施例进行说明,首先描述本申请实施例中的实时裸眼3D的图像处理系统。
示例性的,如图1所示,实时裸眼3D的图像处理系统中设置有终端10和拍摄镜头100,其中,本实施例中,终端10是一种具有拍照或摄像功能的电子设备,例如该电子设备可以是手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personaldigital assistant,PDA)等,非移动电子设备可以为网络附属存储器(Network AttachedStorage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。本实施方式中,终端10为手机。其它实施方式中,终端10可以为平板、照相机等其它形态的具有拍摄功能的设备。
终端10上安装有摄像头200,终端10外的光线入射至摄像头200,然后摄像头200采集光线进行成像。可以理解的是,图1所示实施方式的终端10的摄像头200的安装位置仅仅是示意性的。在一些其他的实施方式中,拍摄镜头100也可以安装于终端10上的其他位置。例如,摄像头200可以安装于终端10的正面,作为终端10的前置摄像头。或者摄像头200可以安装于终端10的背面的上部中间或右上角等。本实施例对摄像头200的安装位置不做任何限定。
同时,摄像头200可以是超广角镜头、广角镜头、主摄镜头、长焦镜头、2倍长焦镜头、单目镜头、红外镜头、深感镜头等。本实施例对摄像头200的类型也不做任何限定。
另外,摄像头200的数量也可以是N个,N为大于等于1的整数,图1中以3个为例进行说明。如果终端10中包含多个摄像头,则基于拍摄需求从中选取一个摄像头作为目标摄像头,这里的目标摄像头即本实施例中的摄像头200。例如,可以选取多个摄像头中的主摄像头作为目标摄像头。可以理解的是,本实施例对摄像头200的数量不做任何限定。
结合图2中终端10的主视图,该实施例中,在终端10的摄像头200上方还包括拍摄镜头100(图中虚线框出区域),其中,拍摄镜头100包含棱镜110和外壳120(图中黑框所示),外壳120为柱状结构,柱状结构的上方具有第一开口。图2是沿着垂直于第一开口的方向正对着终端10的视角的示意图,结合图2可知,该柱状结构中棱镜110贴合于外壳120的内部的一侧(图2中示出的上侧),同时棱镜110设置于摄像头200的上方,外壳120的另一侧的内壁和棱镜110之间形成第一空腔。外壳120的下方具有第二开口,并且第二开口贴近摄像头平面,用于容纳摄像头200。本实施例对第二开口的大小不做具体限定,只需要保证能够参照图2的示意图,第二开口能够容纳摄像头200,这里定义摄像头平面为摄像头200的镜头表面所在平面。
参照图3和图4,棱镜110包括:第一棱镜面111、第二棱镜面112、入光面113、反射面114、出光面115、第一斜面116和第二斜面117。
其中,第一棱镜面111分别与入光面113和出光面115相交,入光面113的另一端与反射面114相交构成第二棱边L2,出光面115的另一端与第二棱镜面112相交,构成第一棱边L1,第二棱镜面112的另一端与反射面114相交。同时,入光面113和反射面114的夹角构成第一夹角,第一棱镜面111和出光面115的夹角构成第二夹角,第二棱镜面112和反射面114的夹角构成第三夹角。
图3中棱镜110还包括:第一斜面116和第二斜面117,其中第一斜面116和第二斜面117均与第一棱镜面111垂直。可以理解的是,通过第一斜面116和第二斜面117将第一棱镜面111、第二棱镜面112、入光面113、反射面114和出光面115构成的棱柱状结构进行切割即可得本实施例的棱镜110。假设第一棱边L1的两个端点为第一顶点D1和第二顶点D2,第二棱边L2的两个端点为第三顶点D3和第四顶点D4,此时第一顶点D1和第三顶点D3构成第一斜边,第二顶点D2和第四顶点D4构成第二斜边,第一斜面116通过第一斜边,第二斜面117通过第二斜边。
下面描述本申请实施例中拍摄镜头的成像原理。
参照图4,为本申请实施例中拍摄镜头的一种透视图。
图中可见,棱镜110贴合于外壳120的内部的一侧,外壳120的上方具有第一开口,图中以K1对第一开口进行示意,外壳120的另一侧的内壁和棱镜110之间形成第一空腔。同时,棱镜110设置于摄像头200的上方,外壳120的下方具有第二开口,图中以K2对第二开口进行示意,第二开口K2不连续的区域代表容纳摄像头的区域。
其中,棱镜110贴合摄像头200的镜头表面,棱镜110的第一棱镜面111垂直于摄像头200,第一棱镜面111的向着摄像头200方向的延展面将摄像头200的镜头表面划分成第一区域Q1和第二区域Q2,棱镜110的第一棱边与摄像头200的镜头表面接触,或者即使未接触也处于非常接近的位置。在一实施例中,第一棱边的长度需要大于或者等于摄像头200的直径。
图4中拍摄目标AB位于摄像头200的拍摄范围,拍摄目标AB发出两路光信号,分别是第二光路上的第二初始光信号S2,第二初始光信号S2通过第一开口K1,经过第一空腔后进入摄像头200的第二区域Q2。同时,拍摄目标AB的另一路光信号为第一光路上的第一初始光信号S1,第一初始光信号S1通过第一开口K1,经过棱镜110的入光面113进入棱镜110,经过棱镜110的出光面115出射后进入摄像头200的第一区域Q1,图中以S1’表示经过出光面115出射的第一初始光信号S1。可以理解的是图中第二初始光信号S2和第一初始光信号S1的光路都仅作示意,不限定真实光路。
由上述可见,第二区域Q2接收的第二初始光信号S2和第一区域Q1接收的出光面出射的光信号S1’,是同一个拍摄目标在微小视差下的光信号,因此拍摄目标在第二区域Q2形成第二视差图像,在第一区域Q1形成与第二视差图像相对应的第一视差图像。此时得到的第一视差图像和第二视差图像可以用于三维显示,并能产生较好的显示效果。
图6是一实施例中拍摄镜头的光路图。
图中假设拍摄目标AB包括两个边界点,分别是第一拍摄边界点A和第二拍摄边界点B,由于拍摄目标AB包含第一初始光信号和第二初始光信号,因此针对两个边界点,第二初始光信号S2包括:第一拍摄边界点A出射的第一边界光信号g1和第二拍摄边界点B出射的第二边界光信号g2,第一初始光信号S1包括:第一拍摄边界点A出射的第三边界光信号g3和第二拍摄边界点B出射的第四边界光信号g4。
分析光路图可知,第一边界光信号g1在有效拍摄范围内,经过第一空腔到达第二区域Q2的第一端点C1,摄像头200在第一端点C1的位置对第一拍摄边界点A成像。同时,第二边界光信号g2在有效拍摄范围内,经过第一空腔,沿着第一棱镜面111到达第二区域的第二端点C2,摄像头200在第二端点C2的位置对第二拍摄边界点B成像,因此,参照图8,第二区域Q2会形成关于拍摄目标AB的第二视差图像。
另一方面,由于第一初始光信号S1从入光面113进入棱镜110得到第一光信号,第一光信号经过反射面114的反射得到第二光信号,第二光信号从出光面115射出得到目标光信号,目标光信号到达镜头表面的第一区域。当第一初始光信号S1为第三边界光信号g3时,第一光信号为第一边界点第一光信号g31,第二光信号为第一边界点第二光信号g32,目标光信号为第一边界点目标光信号g33;当第一初始光信号S1为第四边界光信号g4时,第一光信号为第二边界点第一光信号g41,第二光信号为第二边界点第二光信号g42,目标光信号为第二边界点目标光信号g43。因此光路描述如下:
第三边界光信号g3从入光面113进入棱镜110,由于其并非垂直入射到入光面113,因此第三边界光信号g3在经过入光面113后发生折射,折射改变了第三边界光信号g3的传播方向生成第一边界点第一光信号g31,第一边界点第一光信号g31在棱镜110内部继续传播,经过反射面114对其进行反射,反射改变了第一边界点第一光信号g31的传播方向生成第一边界点第二光信号g32,第一边界点第二光信号g32在棱镜110内部继续传播,到达出光面115,图中以第一边界点第二光信号g32刚好从第一棱边射出为例进行说明,因此第一边界点第二光信号g32穿过出光面115到达第一区域的第一到达点F1。
同时,第四边界光信号g4从入光面113进入棱镜110,由于其并非垂直入射到入光面113,因此第四边界光信号g4在经过入光面113后发生折射,折射改变了第四边界光信号g4的传播方向生成第二边界点第一光信号g41,第二边界点第一光信号g41在棱镜110内部继续传播,经过反射面114对其进行反射,反射改变了第二边界点第一光信号g41的传播方向生成第二边界点第二光信号g42,第二边界点第二光信号g42在棱镜110内部继续传播,到达出光面115,由于其并非垂直入射到出光面115,因此出光面115在接触点发生折射,折射改变了第二边界点第二光信号g42的传播方向生成第二边界点目标光信号g43,因此第二边界点目标光信号g43穿过出光面115到达第一区域的第二到达点F2。
由上述可见,参照图7,如果第一边界点第二光信号g32并非刚好从第一棱边射出,其会在出光面115发生折射生成第一边界点目标光信号g33,则第一边界点目标光信号g33的第一到达点F1’会更接近第二端点C2。
参照图7,第四边界光信号g4直接透过入光面,并且第一边界点目标光信号g33是第一边界点第二光信号g32经过出光面折射得到的。因此本申请实施例中,第二初始光信号经过入光面时,可以是折射通过也可以是直接透过产生第一光信号,第二光信号经过出光面时,可以是折射通过也可以是直接透过产生目标光信号。可以理解的是,通过调整棱镜110的折射率、第一夹角和/或第二夹角来设计第二初始光信号经过入光面或第二光信号经过出光面的通过方式,本实施例对此不做具体限定。
分析光路图可知,第三边界光信号g3最终到达第一区域Q1的第一到达点F1,摄像头200在第一到达点F1的位置对第一拍摄边界点A成像,表示为A’。同时,第四边界光信号g4最终到达第一区域Q1的第二到达点F2,摄像头200在第二到达点F2的位置对第二拍摄边界点B成像,表示为B’,因此,参照图7,第一区域Q1会形成关于拍摄目标AB的第一视差图像。同时第一区域Q1形成的第一视差图像是第二视差图像的镜像图像,或者镜像缩放的第二视差图像的镜像图像。
在一实施例中,为了取得理想的拍摄效果,通过调整棱镜110的折射率、第一夹角和/或第二夹角,使得第一到达点F1的位置为第三端点C3,第二到达点F2的位置为第二端点C2,以在第二区域Q2形成第二视差图像,在第一区域Q1形成与第二视差图像形成镜像的第一视差图像。
由上述可知,如果拍摄镜头只使用平面镜进行反射,则需要使用非常大的平面镜才能保证手机镜头拍摄的镜像完整,这将导致设备体积过大,不适合作为手机的外挂镜头,因此本申请实施例利用棱镜结构的设计可以解决平面镜体积过大的问题,只需使用很小的体积就能使拍摄画面全反射,并获得完整的镜像成像,这使得该设计更加便携实用。
在一实施例中,终端可以进行横屏拍摄或竖屏拍摄,拍摄镜头的安装位置可以是上下安装或左右安装,具体的安装方式可以根据需求设定,不同的安装位置得到的第一视差图像和第二视差图像不同。参照图1或图2所示,在竖屏拍摄时,上下安装拍摄镜头,将镜头表面进行上下划分得到第一区域和第二区域,此时得到的第一视差图像和第二视差图像为上下镜像对应的图像。此时如果转为竖屏拍摄,则拍摄镜头后将镜头表面进行左右划分得到第一区域和第二区域,得到的第一视差图像和第二视差图像为左右镜像对应的图像。或者在一实施例中,如果在竖屏拍摄时,左右安装拍摄镜头,将镜头表面进行左右划分得到第一区域和第二区域,此时第一视差图像和第二视差图像为左右镜像对应的图像。此时如果转为横屏拍摄,则拍摄镜头后将镜头表面进行上下划分得到第一区域和第二区域,得到的第一视差图像和第二视差图像为上下镜像对应的图像。
需要说明的是,本申请实施例中的实时裸眼3D的图像处理方法,可以应用在不同操作系统的终端中,可以根据不同的操作系统(如安卓系统、IOS系统)开发对应的3D显示软件,以实现调用对应设备上的摄像头,最终完成3D格式下的3D帧画面图像的制作。
本申请实施例中的实时裸眼3D的图像处理方法可以通过如下实施例进行说明。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理,包括利用人工智能技术对图像进行处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,例如,获取用户存储的数据以及用户的缓存数据访问请求时,均会先获得用户的许可或者同意;在获取二维的初始图像时,或调用摄像头时,本申请实施例会先获得用户的许可或者同意。而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
图9是本申请实施例提供的实时裸眼3D的图像处理方法的一个可选的流程图,图9中的方法可以包括但不限于包括步骤S101至步骤S104。
步骤S101,获取2D格式下的初始图像,其中,初始图像中包括位于初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,第一光路和第二光路不同,以使第一视差图像和第二视差图像具有视差;
示例性的,本申请实施例中的实时裸眼3D的图像处理方法可以应用在实时裸眼3D的图像处理系统中,该实时裸眼3D的图像处理系统为一终端设备(不含拍摄镜头);或者,该实时裸眼3D的图像处理系统为上述实施例中所描述的系统(含拍摄镜头),在此不再赘述。
在执行实时裸眼3D的图像处理方法时,会首先获取2D格式下的初始图像。获取2D格式下的初始图像的方式有多种,例如,终端可以接收其他设备实时拍摄到的图像作为初始图像,此时的图像来源可以是其他设备上传到远端的,再由终端从云端获取得到,也可以是其他设备通过其他无线或有线传输方式发送给终端的;或者,终端设置有摄像头,通过摄像头可以实时获取终端本身拍摄到的初始图像。
为了实现实时的图像处理,终端在处理图像时,需要限制获取的图像类型。本申请实施例中为了进行3D图像的显示处理,所获取的初始图像是包含有位于初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,其中,第一图像区域为初始图像上的一侧,第二图像区域为初始图像上的另一侧,示例性的,第一图像区域是上述实施例中第一区域摄像头拍摄的图像,第二图像区域是上述实施例中第二区域摄像头拍摄的图像。
可以理解的是,由于人的双眼之间有间距,各个眼睛获取到的图像之间是有视差的,也就是,左眼跟右眼看到的画面是不一样的,基于上述实施例所知,第一视差图像和第二视差图像之间具有视差,通过有视差的图像形成的3D图像,能够提高3D显示的效果。
示例性的,以初始图像为图1中的终端拍摄得到的为例子,将图1中的终端(手机)横向放置后(摄像头位于上方),进行拍摄时,摄像头左边对应棱镜的区域,摄像头右边无棱镜遮挡,此时形成的图像中,如图10所示,第一图像区域为初始图像左侧的区域,第二图像区域为初始图像右侧的区域,因此初始图像的左侧为第一视差图像,初始图像的右侧为第二视差图像。
示例性的,本申请实施例中获取的初始图像可以是一开始就包含第一视差图像和第二视差图像,也可以是分别获取第一视差图像和第二视差图像后,进行图像融合后形成的,在此不做具体限制。
步骤S102,对第一视差图像进行处理,得到与第二视差图像相匹配的第三视差图像;
示例性的,本申请实施例中在得到第一视差图像和第二视差图像后,需要先对第一视差图像进行处理,示例性的,本申请实施例中的第一视差图像为与第二视差图像之间存在图像变换关系的图像。具体的,第一视差图像和第二视差图像为同一个摄像头获取的图像,为了实现同一个摄像头下获取到视差图像,需要给摄像头假装拍摄镜头,通过拍摄镜头上的棱镜实现视差图像的获取。而通过拍摄镜头获取到的第一视差图像需要进行图像变化,以变换到同第二视差图像相匹配的视角。
示例性的,第一视差图像可以是第二视差图像的镜像、倒立、镜像倒立、缩小或放大图像,因此,需要对将第一视差图像处理成与第二视差图像相匹配的第三视差图像,其中,匹配指的是图像的观察角度相同,或者图像大小相同等,在此不做具体限制。
步骤S103,将第三视差图像处理成3D格式下的第一帧画面图像,将第二视差图像处理成3D格式下的第二帧画面图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像;
示例性的,本申请实施例将第三视差图像处理成3D格式下的第一帧画面图像,第一帧画面图像为左眼图像或右眼图像,此外,还将第二视差图像处理成3D格式下的第二帧画面图像,第二帧画面图像为右眼图像或左右图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像。本申请实施例中以第一帧画面图像为左眼图像为例子,以第二帧画面图像为右眼图像为例子。
步骤S104,将第一帧画面图像与第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
示例性的,本申请实施例中最终将第一帧画面图像与第二帧画面图像进行融合拼接,如图11所示,得到3D格式下的3D帧画面图像。需要说明的是,在融合得到3D帧画面图像后,用户的左眼可以看到左眼图像,也就是第一帧画面图像,右眼可以看到右眼图像,也就是第二帧画面图像,实现3D观看效果。
需要说明的是,本发明实施例中的3D格式包括裸眼3D格式、红蓝3D格式和偏振3D格式。
当3D格式包括裸眼3D格式,第一帧画面图像为用于指向用户左眼的图像,第二帧画面图像为用于指向用户右眼的图像,用户直接裸眼可以观看到出射到左眼方向的第一帧画面图像,直接裸眼可以观看到出射到右眼方向的第二帧画面图像。
以通过在终端上的显示屏幕设置光栅贴膜为例子,需要说明的是,在进行图像融合拼接的过程中,本申请实施例将其间隔设置,这样在每个图像的像素被分成几个子像素。这样光栅贴膜就能以不同的方向折射每个子像素发出的光,双眼从不同的角度观看显示屏幕,就看到不同的子像素,实现3D观看效果,本发明实施例可以调整第一帧画面图像和第二帧画面图像的排列间隔,以使得排列间隔调整后的第一帧画面图像从第一方向出射、第二帧画面图像从第二方向出射,使得用户能够清晰观看到3D帧画面图像。
此外,当3D格式包括红蓝3D格式,第一帧画面图像为红色3D图像,第二帧画面图像为蓝色3D图像,用户通过佩戴红蓝3D眼镜可以观看到红色的第一帧画面图像,佩戴红蓝3D眼镜可以观看到蓝色的第二帧画面图像。
此外,当3D格式包括偏振3D格式,第一帧画面图像为用于指向第一偏振方向的图像,第二帧画面图像为用于指向第二偏振方向的图像,用户通过佩戴偏振光眼镜可以观看到第一偏振方向的第一帧画面图像,佩戴偏振光眼镜可以观看到第二偏振方向的第二帧画面图像。
可以理解的是,本申请实施例中的图像可以是帧图像,当存在多帧图像时,通过上述实施例中的方法,可以将帧图像都处理成3D格式下的图像,也即,可以将2D的视频处理成3D视频。
本申请实施例无需专门的3D设备,只要接收到的图像满足要求,常规的终端设备也能实现将二维的图像实时转换成3D显示效果的图像,或者,通过任意具有拍摄能力的终端,在加装好拍摄镜头后,即可实现满足要求的2D图像的获取并进行3D图像的制作。
请参阅图12,在一些实施例中,步骤S101可以包括步骤S201至步骤S202:
步骤S201,确定终端上的一个摄像头为目标摄像头,并打开目标摄像头;
步骤S202,实时获取目标摄像头拍摄的2D格式下的初始图像。
需要说明的是,终端(如手机)无法单独完成3D图像的拍摄,往往需要通过软件进行进一步处理,且拍摄的3D图像效果差,终端无法通过一个摄像头拍摄到与摄像头拍摄的同一图像具有视差的另一图像。
本申请实施例中的终端可以连接有拍摄镜头,拍摄镜头的连接和成像原理在上述实施例中已有描述,在此不再赘述。
在加装好拍摄镜头后,用户需要确定终端上的一个摄像头为目标摄像头,该目标摄像头就是终端上连接好拍摄镜头的摄像头,终端在确定目标摄像头后,可以调用目标摄像头,从而获取目标摄像头拍摄的2D格式下的初始图像。
若调用当前加装好拍摄镜头的目标摄像头,显示界面如图13所示,此时目标摄像头直接拍摄的图像中,就分为第一视差图像和第二视差图像,后续初始图像会经过终端的处理,转换成3D格式的3D帧画面图像再显示出来。因此本申请实施例中通过应用在连接有拍摄镜头的终端中,可以实现在一个设备中拍摄满足要求的2D格式下的初始图像,并最终将初始图像处理成可以进行裸眼3D显示的3D帧画面图像。
可以理解的是,本申请实施例中通过调用目标摄像头,所实现的是一种基于终端本身的实时裸眼3D显示方案,可以通过调用目标摄像头实时拍摄2D的初始图像,并随即对初始图像进行处理,并实时显示3D格式下的3D帧画面图像。
请参阅图14,在一些实施例中,步骤S201可以包括步骤S301至步骤S302:
步骤S301,获取摄像头选择信息,其中,摄像头选择信息响应于用户选择指令得到,或者通过对各个摄像头拍摄的图像进行识别得到;
步骤S302,基于摄像头选择信息,从多个摄像头中选择一个作为目标摄像头,并打开目标摄像头。
示例性的,终端可以设置有多个摄像头,每个摄像头均可以连接拍摄镜头,以实现不同镜头下的拍摄效果,从而可以形成不同的3D图像。
当存在多个摄像头可以连接拍摄镜头时,就需要对当前连接好拍摄镜头的摄像头进行选择,而选择摄像头的方式有多种,例如,终端可以响应于用户选择指令得到摄像头选择信息,或者通过对各个摄像头拍摄的图像进行识别得到摄像头选择信息。
具体的,用户可以在终端的显示屏幕上输入选择操作,显示屏幕接收到用户的输入选择操作后,可以生成选择指令,并根据该选择指令指定的内容,生成摄像头选择信息。示例性的,终端可以在拍摄之前显示几个摄像头的选择内容,再基于用户的选择后确定摄像头选择信息。
具体的,终端还可以通过轮番启动各个摄像头,通过各个摄像头拍摄的图像来识别具体是哪个摄像头连接了拍摄镜头,从而自动确定摄像头选择信息。示例性的,终端在连接好拍摄镜头后,可以响应于用户的启动操作,轮番调用各个摄像头进行拍照,若出现某个摄像头拍摄的画面是包含满足要求的第一视差图像和第二视差图像,随即确定对该摄像头的摄像头选择信息,以确定该摄像头为目标摄像头。
因此,在得到摄像头选择信息后,终端明确当前拍摄的摄像头为目标摄像头,随后在进行原始图像拍摄过程中,通过调用目标摄像头,以实现实时获取2D图像。
请参阅图15,在一些实施例中,步骤S201或步骤S302中打开目标摄像头的步骤,还可以包括步骤S401至步骤S403:
步骤S401,获取目标摄像头的第一参数信息和拍摄镜头的第二参数信息;
步骤S402,根据第一参数信息和第二参数信息确定当前目标摄像头所能拍摄的目标焦距范围;
步骤S403,根据目标焦距范围设置目标摄像头的拍摄参数,以使目标摄像头在目标焦距范围内拍摄图像,拍摄参数包括目标摄像头的拍摄焦距或拍摄焦距的可调范围。
示例性的,本申请实施例中通过连接拍摄镜头,可以实现不同视差图像的获取。然而,拍摄镜头的大小是固定的,因此,需要对终端摄像头的拍摄焦距进行限制,以使得摄像头能够在拍摄镜头允许的焦距范围内拍摄原始图像。
示例性的,本申请实施例中可以获取目标摄像头的第一参数信息和拍摄镜头的第二参数信息,第一参数信息是目标摄像头的参数信息,该参数信息可以是摄像头的焦距范围等;第二参数信息是拍摄镜头的参数信息,该参数信息可以是拍摄镜头允许拍摄的焦距范围。因此,通过二者的参数信息来确定当前目标摄像头所能拍摄的焦距。
获取第一参数信息的方式有多种。例如,终端存储有各个摄像头的参数信息,通过直接调用可以得到第一参数信息;或者,终端没有存储各个摄像头的参数信息,可以通过获取终端的设备型号,再根据设备型号查表得到对应的第一参数信息。
获取第二参数信息的方式有多种。例如,用户可以在终端上输入拍摄镜头的参数信息,终端通过识别可以得到第二参数信息;或者,拍摄镜头上可以设置有识别码或识别磁条,终端通过读取识别码或识别磁条可以得到对应的第二参数信息。
本申请实施例中根据第一参数信息和第二参数信息确定当前目标摄像头所能拍摄的目标焦距范围。示例性的,当第一参数信息和第二参数信息均为焦距范围,则终端根据两个范围重叠的区域,确定为当前目标摄像头所能拍摄的目标焦距范围。例如,若目标摄像头所能拍摄的焦距范围是10-30mm,而拍摄镜头所能拍摄的焦距范围是20-30mm,因此根据二者重叠的区域,确定最终的目标焦距范围为20-30mm。
在满足本申请实施例要求的前提下,第一参数信息还可以是其他信息,如光圈信息,第二参数信息还可以是其他信息,如拍摄镜头的尺寸信息,终端再基于其他参数信息进行计算,从而确定目标摄像头的目标焦距范围。
在得到目标焦距范围后,本申请实施例中根据目标焦距范围设置目标摄像头的拍摄参数,以使目标摄像头在目标焦距范围内拍摄图像,其中,拍摄参数包括目标摄像头的拍摄焦距或拍摄焦距的可调范围。
若拍摄参数为目标摄像头的拍摄焦距,本申请实施例中可以在得到目标焦距范围后,推荐几个最佳的焦距作为摄像头的拍摄焦距,并直接在这些焦距下拍摄初始图像。
若拍摄参数为目标摄像头拍摄焦距的可调范围,本申请实施例中可以在得到目标焦距范围后,限定当前目标摄像头拍摄过程的中焦距选择,只允许目标摄像头在目标焦距范围下拍摄初始图像,当用户调节目标摄像头焦距到超过目标焦距范围时,会发出提示,以提示用户当前焦距下无法拍摄到清晰的图像,或者直接停止拍照,以保证所获取的初始图像满足要求,最终使得3D帧画面图像的图像质量高。
请参阅图16,在一些实施例中,步骤S102可以包括步骤S501至步骤S505:
步骤S501,若第一视差图像为第二视差图像的镜像图像,对第一视差图像进行镜像恢复处理,得到与第二视差图像相匹配的第三视差图像;
步骤S502,或者,若第一视差图像为第二视差图像的倒立图像,对第一视差图像进行正立恢复处理,得到与第二视差图像相匹配的第三视差图像;
步骤S503,或者,若第一视差图像为第二视差图像的镜像倒立图像,对第一视差图像进行镜像正立恢复处理,得到与第二视差图像相匹配的第三视差图像;
步骤S504,或者,若第一视差图像为第二视差图像的缩小图像,对第一视差图像进行镜像放大处理,得到与第二视差图像相匹配的第三视差图像;
步骤S505,或者,若第一视差图像为第二视差图像的放大图像,对第一视差图像进行镜像缩小处理,得到与第二视差图像相匹配的第三视差图像。
示例性的,本申请实施例中的拍摄镜头的结构如上述实施例所描述的,因此,所拍摄的初始图像中,第一视差图像是第二视差图像的镜像图像,但是大小相同,也就是第一视差图像中的物体,与第二视差图像中的物体,是左右颠倒的,第二视差图像是摄像头正常拍摄下的原图像。因此,在对第一视差图像的处理中,需要对第一视差图像进行镜像恢复处理,例如将第一视差图像左右颠倒,从而得到与第二视差图像相匹配的第三视差图像,此时第三视差图像的观看角度与第二视差图像一致,二者也是具有视差的图像,后续可以方便进行图像融合。
示例性的,本申请实施例中的拍摄镜头的结构还可以是其他结构,可以使得所拍摄的初始图像中,第一视差图像是第二视差图像的倒立图像,但是大小相同,也就是第一视差图像中的物体,与第二视差图像中的物体,是上下颠倒的,第二视差图像是摄像头正常拍摄下的原图像。因此,在对第一视差图像的处理中,需要对第一视差图像进行正立恢复处理,例如将第一视差图像上下颠倒,从而得到与第二视差图像相匹配的第三视差图像,此时第三视差图像的观看角度与第二视差图像一致,二者也是具有视差的图像,后续可以方便进行图像融合。
示例性的,本申请实施例中的拍摄镜头的结构还可以是其他结构,可以使得所拍摄的初始图像中,第一视差图像是第二视差图像的镜像倒立图像,但是大小相同,也就是第一视差图像中的物体,与第二视差图像中的物体,是上下、左右都颠倒,第二视差图像是摄像头正常拍摄下的原图像。因此,在对第一视差图像的处理中,需要对第一视差图像进行镜像正立恢复处理,例如将第一视差图像上下、左右都颠倒,从而得到与第二视差图像相匹配的第三视差图像,此时第三视差图像的观看角度与第二视差图像一致,二者也是具有视差的图像,后续可以方便进行图像融合。
示例性的,本申请实施例中的拍摄镜头的结构还可以是其他结构,可以使得所拍摄的初始图像中,第一视差图像是第二视差图像的缩小图像,也就是第一视差图像中的物体,与第二视差图像中的物体,是大小不同的,但是观看角度一致,第二视差图像是摄像头正常拍摄下的原图像。因此,在对第一视差图像的处理中,需要对第一视差图像进行放大处理,例如将第一视差图像的图像大小放大到与第二视差图像相同,此时第三视差图像的大小与第二视差图像的大小一致,二者也是具有视差的图像,后续可以方便进行图像融合。
示例性的,本申请实施例中的拍摄镜头的结构还可以是其他结构,可以使得所拍摄的初始图像中,第一视差图像是第二视差图像的放大图像,也就是第一视差图像中的物体,与第二视差图像中的物体,是大小不同的,但是观看角度一致,第二视差图像是摄像头正常拍摄下的原图像。因此,在对第一视差图像的处理中,需要对第一视差图像进行缩小处理,例如将第一视差图像的图像大小缩小到与第二视差图像相同,此时第三视差图像的大小与第二视差图像的大小一致,二者也是具有视差的图像,后续可以方便进行图像融合。
需要说明的是,本申请实施例中以处理第一视差图像,以使得处理得到的第三视差图像与第二视差图像相匹配,在满足本申请实施例要求的前提下,还可以处理第二视差图像,将处理后的第二视差图像与第一视差图像相匹配,在此不做具体限制。
请参阅图17,在一些实施例中,步骤S103中得到第一帧画面图像的过程可以包括步骤S601至步骤S603:
步骤S601,对第三视差图像与第二视差图像进行图像比对,得到表征图像之间重合度的比对结果;
步骤S602,根据比对结果对第三视差图像进行图像校准,得到校准后的第四视差图像,以使校准后的第四视差图像与第二视差图像之间的重合度满足预设要求;
步骤S603,将校准后的第四视差图像处理成3D格式下的第一帧画面图像。
示例性的,终端的摄像头在拍摄的时候,有可能因为镜头折射的原因,导致拍摄到的第一视差图像和第二视差图像之间的比例或大小不同,或者导致图像中的物体发生畸变,因此,本申请实施例中可以对转换后的第三视差图像进行图像校准,以使得校准后的第三视差图像尽量与第二视差图像一致,但是二者依然保留有视差。
示例性的,图像校准过程首先需要对第三视差图像与第二视差图像进行图像比对,比较图像之间的重合度,从而根据图像之间的重合情况,可以得到表征图像之间重合度的比对结果。其中,比对结果表明第三视差图像与第二视差图像之间重合度的百分比,例如,若第一视差图像与第二视差图像之间有畸变,变换后的第三视差图像与第二视差图像也有畸变,那边此时的重合度可能为90%,图像中存在部分变形。
需要说明的是,在得到比对结果后,本申请实施例中在比对结果低于预设的阈值时(如95%),需要对第三视差图像进行图像校准。图像校准的过程有很多种,例如图像校准过程包括但不限于对图像进行拉伸和收缩,以消除图像中的畸变,并可以在校准后,检测校准后图像与第二视差图像之间重合度的比对结果,根据更新后的比对结果判断是否需要重新校准,最终得到满足要求的第四校准图像;此外,还可以通过预设的神经网络模型对图像进行校准,模型预先可以根据样本进行多次学习,该训练好的模型可以输入第二视差图像和第三视差图像,并可以输出第四视差图像。
在一实施例中,如果重合度不满足预设要求,则通过调整第三视差图像,在调整过程中,不断计算重合度,直至重合度符合预设要求。最终,当调整之后重合度符合预设要求,让校准后得到的第四视差图像与第二视差图像之间的重合度满足预设要求(如95%)。
最终,本申请实施例在得到校准后的第四视差图像后,第四视差图像与第二视差图像基本一致,但是二者依然保留有视差,因此,将校准后的第四视差图像处理成3D格式下的第一帧画面图像,以便后续图像融合成3D帧画面图像,从而提高了3D帧画面图像的图像质量。
请参阅图18,在一些实施例中,步骤S601可以包括步骤S701至步骤S703:
步骤S701,识别第三视差图像中的目标特征,得到目标特征在第三视差图像中的第一目标角点;
步骤S702,识别第二视差图像中的目标特征,得到目标特征在第二视差图像中的第二目标角点;
步骤S703,将第三视差图像和第二视差图像进行重叠,并对第一目标角点和第二目标角点进行虚拟重合对比,根据角点之间的重合度得到表征图像之间重合度的比对结果。
示例性的,本申请实施例中在进行图像比对时,是根据设定图像的点位再进行比对的,其中,图像的点位学名为“角点”。
本申请实施例中可以通过识别第三视差图像中的目标特征,得到目标特征在第三视差图像中的第一目标角点,再识别第二视差图像中的目标特征,得到目标特征在第二视差图像中的第二目标角点。其中,第一目标角点和第二目标角点的数量相同,目标特征是图像中的标识物,因此,通过对标识物的识别,可以确定对应的角点。
随后,在得到两幅图像的角点后,本申请实施例中将第三视差图像和第二视差图像进行重叠,进行虚拟重合对比,并对比重叠后第一目标角点和第二目标角点的坐标位置,通过计算第一目标角点和第二目标角点之间的位移,可以得到角点之间的重合度,从而最终得到表征图像之间重合度的比对结果。
示例性的,本申请实施例中通过确定第一目标角点和第二目标角点,也可以作为图像校准的依据,根据第一目标角点和第二目标角点之间的位移,可以对图像进行水平、垂直,通过软件调整保证两个图像的一致性。
示例性的,终端的摄像头在连接拍摄镜头时,需要使得拍摄镜头中棱镜的第一棱镜面位于摄像头中线上方,这样拍摄到的第一视差图像和第二视差图像才能分布在初始图像的左右两侧,且大小相同。但是,不可避免的是,摄像头在连接拍摄镜头时,第一棱镜面的位置会有误差,导致第一棱镜面不一定位于摄像头的中线上,因此所成的第一视差图像和第二视差图像之间的大小不同。基于此,本申请实施例中还可以对图像进行裁剪,以使得裁剪后的第一帧画面图像和第二帧画面图像之间大小基本一致。
以图19和图20为例子,在一实施例中,第一目标角点是标记拍摄目标的预设位置在第三视差图像中的位置,第二目标角点是标记拍摄目标的预设位置在第一视差图像中的位置。参照图19,图中拍摄目标的预设位置设定为人物额头中央位置,将第三视差图像中人物额头中央位置定位第一目标角点,将第一视差图像中人物额头中央位置定位第二目标角点。可以理解的是,第一目标角点和第二目标角点的设定可以预先设定,例如拍摄目标为人物时,可以选择人物较为明显的特征点,如眼睛、额头、鼻子或嘴巴等;拍摄目标为风景时,可以选择特定风景内容,例如房子、车辆、树木、道路、山川或河流等。也可以在第一视差图像中随机选择第二目标角点,然后根据第二目标角点对应的像素点在第三视差图像中计算与其最为相似的像素点。本实施例对此不做具体限定。
在一实施例中,参照图20,将图19中第一视差图像和第三视差图像进行重叠,重叠过程中,判断第一目标角点与第二目标角点之间的距离,根据距离得到角点之间的重合度,由于重合度可以用来表征第一视差图像和第三视差图像的重合关系,从而根据角点之间的重合度得到表征图像之间重合度的比对结果。可以理解的是,两个角点之间的距离和重合度之间的对应关系,可以预先根据实际需求将其作为图表形式存储,在使用时通过查表得到距离对应的重合度。
请参阅图21,在一些实施例中,步骤S103中得到第一帧画面图像的过程还可以包括步骤S801至步骤S802:
步骤S801,确定第三视差图像中与第二视差图像多余的部分,得到第一多余部分;
步骤S802,将第一多余部分从第三视差图像中裁剪掉,并将剩余的第三视差图像处理成3D格式下的第一帧画面图像。
示例性的,当第一视差图像的尺寸大于第二视差图像,转换后的第三视差图像的尺寸也大于第二视差图像,本申请实施例中将第三视差图像中与第二视差图像多余的部分,得到第一多余部分。
得到第一多余部分的方式有很多种。例如,第一多余部分可以是通过上述图像校准过程中得到的。在图像的点位校准过程中,可以根据第一目标角点和第二目标角点进行图像校准后,经过拉伸的第三视差图像会比第二视差图像多出一部分,这些部分就是第一多余部分;此外,若图像之间没有畸变,可以将第三视差图像和第二视差图像进行重叠后,将第三视差图像中不重叠的部分确定为第一多余部分;此外,终端还可以获取预设的裁剪参数,根据裁剪参数去调整第三视差图像,从而确定多余的部分为第一多余部分。
在得到第一多余部分后,本申请实施例中将第一多余部分从第三视差图像中裁剪掉,并将剩余的第三视差图像处理成3D格式下的第一帧画面图像,从而使得第一帧画面图像可以与第二帧画面图像的大小基本一致,从而提高了最终形成的3D帧画面图像的图像质量。
同样的,请参阅图22,在一些实施例中,步骤S103中得到第二帧画面图像的过程还可以包括步骤S901至步骤S902:
步骤S901,确定第二视差图像中与第三视差图像多余的部分,得到第二多余部分;
步骤S902,将第二多余部分从第二视差图像中裁剪掉,并将剩余的第二视差图像处理成3D格式下的第二帧画面图像。
示例性的,当第二视差图像的尺寸大于第一视差图像,如图13所示,第二视差图像包含了桌子的几个角,而第一视差图像中则存在一个角拍摄不到。因此,转换后的第三视差图像的尺寸也小于第二视差图像,本申请实施例中将第二视差图像中与第三视差图像多余的部分,得到第二多余部分。
得到第二多余部分的方式有很多种。例如,第二多余部分可以是通过上述图像校准过程中得到的。在图像的点位校准过程中,可以根据第一目标角点和第二目标角点进行图像校准后,经过收缩的第三视差图像会比第二视差图像小一部分,这些部分在第二视差图像上就是第二多余部分;此外,若图像之间没有畸变,可以将第三视差图像和第二视差图像进行重叠后,将第二视差图像中不重叠的部分确定为第二多余部分;此外,终端还可以获取预设的裁剪参数,根据裁剪参数去调整第二视差图像,从而确定多余的部分为第二多余部分。
在得到第二多余部分后,本申请实施例中将第二多余部分从第二视差图像中裁剪掉,并将剩余的第二视差图像处理成3D格式下的第二帧画面图像,从而使得第二帧画面图像可以与第一帧画面图像的大小基本一致,从而提高了最终形成的3D帧画面图像的图像质量。
请参阅图23,在一些实施例中,实时裸眼3D的图像处理方法还可以包括步骤S1001至步骤S1002:
步骤S1001,获取历史上安装拍摄镜头的目标安装误差;
步骤S1002,根据目标安装误差的大小确定裁剪参数,其中,裁剪参数用于对第三视差图像或第二视差图像中的多余部分进行裁剪。
示例性的,本申请实施例中可以通过确定预设的裁剪参数,以实现对第三视差图像或第二视差图像的裁剪,具体的,本申请实施例中可以通过安装拍摄镜头过程中的安装误差来得到裁剪参数。
示例性的,本申请实施例中可以获取历史上安装拍摄镜头的目标安装误差。目标安装误差是对应的摄像头在安装拍摄镜头的误差,如某一个目标摄像头在连接拍摄镜头时的安装误差。可以理解的是,安装误差可以是一个具体的参数,如位移差,表明拍摄镜头在安装后会偏移摄像头多远。
示例性的,在得到目标安装误差后,本申请实施例中可以根据目标安装误差的大小确定裁剪参数,不同的目标安装误差可以得到对应的裁剪参数。其中,裁剪参数用于对第三视差图像或第二视差图像中的多余部分进行裁剪,裁剪参数有多种。例如裁剪参数可以包含水平裁剪参数,可以表征水平方向上需要裁剪多少图像,裁剪参数还可以包含垂直裁剪参数,可以表征垂直方向上需要裁剪多少图像。
请参阅图24,在一些实施例中,步骤S1001可以包括步骤S1101至步骤S1105:
步骤S1101,获取终端的设备型号信息;
步骤S1102,获取多个样本安装误差,其中,样本安装误差为设备型号信息下多个样本设备安装拍摄镜头时的安装误差;
步骤S1103,计算多个样本安装误差的方差;
步骤S1104,若方差大于预设的方差阈值,则从多个样本安装误差中选择最大误差值,将最大误差值作为安装拍摄镜头的目标安装误差;
步骤S1105,若方差小于或等于预设的方差阈值,则计算多个样本安装误差的平均误差值,将平均误差值作为安装拍摄镜头的目标安装误差。
示例性的,本申请实施例中可以根据不同终端的设备型号,实现目标安装误差的确定。首选,可以先获取终端的设备型号信息,该设备型号信息表征当前终端的设备型号,若终端为手机,则设备型号信息为具体的手机型号信息,也可以表征该设备型号所属的品牌。
实际应用过程中,申请人发现安装误差的稳定性和设备型号有关。由于拍摄镜头一般是与设备可拆卸连接,且由用户操作,安装误差难以控制。以设备为手机为例,对于某一A型号的手机,由于针对该型号设计的拍摄镜头与手机摄像头的贴合性和稳定性比较好,用户安装拍摄镜头后,安装误差一般比较稳定;对于另一B型号的手机,由于针对该型号设计的拍摄镜头与手机摄像头的贴合性和稳定性比较差,用户安装拍摄镜头后,安装误差一般比较不稳定。为此,本申请实施例针对上述情况设计了自适应算法实现根据不同设备型号匹配不同的裁剪参数,以实现在保障成像质量的同时,尽可能地减少图像裁剪范围,从而尽量提高3D成像效果。
本申请实施例中可以预先存储有多个样本安装误差。样本安装误差为同一设备型号信息下多个样本设备安装拍摄镜头时的安装误差,可以理解的是,本申请实施例中可以通过建立样本数据库,为得到目标安装误差提供数据支撑。在样本数据库中,存放有多个不同设备型号的终端设备在连接拍摄镜头时的安装误差,且同一设备型号的终端设备连接拍摄镜头时的安装误差也有多个。因此,本申请实施例中在得到当前终端的设备型号信息后,会与样本数据库进行匹配,从而找到多个该设备型号洗的样本安装误差。
示例性的,本申请实施例中会对当前设备型号下的终端设备的误差进行处理,具体的,包括进行方差处理,通过计算多个样本安装误差的方差,可以得到该设备型号下误差的离散程度。本申请实施例中会设定预设的方差阈值,通过方差阈值来判断误差离散程度是不是超过预设的范围。
具体的,若方差大于预设的方差阈值,说明该设备型号下的终端在连接拍摄镜头时,安装不稳定,因此误差变化大,为此,本申请实施例则从多个样本安装误差中选择最大误差值,将最大误差值作为安装拍摄镜头的目标安装误差。需要理解的是,通过设定最大误差值作为目标安装误差,确保了在安装误差变化大的情况下,都可以通过裁剪,使得裁剪后的第三视差图像和第一视差图像基本保持一致,从而提高了3D帧画面图像的图像质量。
具体的,若方差小于或等于预设的方差阈值,说明该设备型号下的终端在连接拍摄镜头时,安装较为稳定,因此误差变化小,为此,本申请实施例则计算多个样本安装误差的平均误差值,将平均误差值作为安装拍摄镜头的目标安装误差。需要理解的是,通过设定平均误差值作为目标安装误差,确保了在安装较为稳定、误差变化小的情况下,可以通过裁剪保证更大的3D画面,裁剪后的第三视差图像也和第一视差图像基本保持一致,从而提高了3D帧画面图像的图像质量和图像画面。
请参阅图25,本申请实施例还提供一种实时裸眼3D的图像处理系统,可以实现上述实时裸眼3D的图像处理方法,实时裸眼3D的图像处理系统包括:
图像获取模块2501,用于获取2D格式下的初始图像,其中,初始图像中包括位于初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,第一光路和第二光路不同,以使第一视差图像和第二视差图像具有视差;
图像处理模块2502,用于对第一视差图像进行处理,得到与第二视差图像相匹配的第三视差图像;
3D格式处理模块2503,用于将第三视差图像处理成3D格式下的第一帧画面图像,将第二视差图像处理成3D格式下的第二帧画面图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像;
图像融合模块2504,用于将第一帧画面图像与第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
示例性的,本申请实施例中的实时裸眼3D的图像处理系统可以执行上述实施例中的实时裸眼3D的图像处理方法,该实时裸眼3D的图像处理系统为一终端设备(不含拍摄镜头);或者,该实时裸眼3D的图像处理系统为上述实施例中所描述的系统(含拍摄镜头),在此不再赘述。
在执行实时裸眼3D的图像处理方法时,会首先获取2D格式下的初始图像。获取2D格式下的初始图像的方式有多种,例如,终端可以接收其他设备实时拍摄到的图像作为初始图像,此时的图像来源可以是其他设备上传到远端的,再由终端从云端获取得到,也可以是其他设备通过其他无线或有线传输方式发送给终端的;或者,终端设置有摄像头,通过摄像头可以实时获取终端本身拍摄到的初始图像。
为了实现实时的图像处理,终端在处理图像时,需要限制获取的图像类型。本申请实施例中为了进行3D图像的显示处理,所获取的初始图像是包含有位于初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,其中,第一图像区域为初始图像上的一侧,第二图像区域为初始图像上的另一侧,示例性的,第一图像区域是上述实施例中第一区域摄像头拍摄的图像,第二图像区域是上述实施例中第二区域摄像头拍摄的图像。
可以理解的是,由于人的双眼之间有间距,各个眼睛获取到的图像之间是有视差的,也就是,左眼跟右眼看到的画面是不一样的,基于上述实施例所知,第一视差图像和第二视差图像之间具有视差,通过有视差的图像形成的3D图像,能够提高3D显示的效果。
示例性的,以初始图像为图1中的终端拍摄得到的为例子,将图1中的终端(手机)横向放置后(摄像头位于上方),进行拍摄时,摄像头左边对应棱镜的区域,摄像头右边无棱镜遮挡,此时形成的图像中,如图10所示,第一图像区域为初始图像左侧的区域,第二图像区域为初始图像右侧的区域,因此初始图像的左侧为第一视差图像,初始图像的右侧为第二视差图像。
示例性的,本申请实施例中获取的初始图像可以是一开始就包含第一视差图像和第二视差图像,也可以是分别获取第一视差图像和第二视差图像后,进行图像融合后形成的,在此不做具体限制。
示例性的,本申请实施例中在得到第一视差图像和第二视差图像后,需要先对第一视差图像进行处理,示例性的,本申请实施例中的第一视差图像为与第二视差图像之间存在图像变换关系的图像。具体的,第一视差图像和第二视差图像为同一个摄像头获取的图像,为了实现同一个摄像头下获取到视差图像,需要给摄像头假装拍摄镜头,通过拍摄镜头上的棱镜实现视差图像的获取。而通过拍摄镜头获取到的第一视差图像需要进行图像变化,以变换到同第二视差图像相匹配的视角。
示例性的,第一视差图像可以是第二视差图像的镜像、倒立、镜像倒立、缩小或放大图像,因此,需要对将第一视差图像处理成与第二视差图像相匹配的第三视差图像,其中,匹配指的是图像的观察角度相同,或者图像大小相同等,在此不做具体限制。
示例性的,本申请实施例将第三视差图像处理成3D格式下的第一帧画面图像,第一帧画面图像为左眼图像或右眼图像,此外,还将第二视差图像处理成3D格式下的第二帧画面图像,第二帧画面图像为右眼图像或左右图像,其中,第一帧画面图像和第二帧画面图像之间互为左右格式图像。本申请实施例中以第一帧画面图像为左眼图像为例子,以第二帧画面图像为右眼图像为例子。
示例性的,本申请实施例中最终将第一帧画面图像与第二帧画面图像进行融合拼接,如图11所示,得到3D格式下的3D帧画面图像。需要说明的是,在融合得到3D帧画面图像后,用户的左眼可以看到左眼图像,也就是第一帧画面图像,右眼可以看到右眼图像,也就是第二帧画面图像,实现3D观看效果。
需要说明的是,本发明实施例中的3D格式包括裸眼3D格式、红蓝3D格式和偏振3D格式。
当3D格式包括裸眼3D格式,第一帧画面图像为用于指向用户左眼的图像,第二帧画面图像为用于指向用户右眼的图像,用户直接裸眼可以观看到出射到左眼方向的第一帧画面图像,直接裸眼可以观看到出射到右眼方向的第二帧画面图像。
以通过在终端上的显示屏幕设置光栅贴膜为例子,需要说明的是,在进行图像融合拼接的过程中,本申请实施例将其间隔设置,这样在每个图像的像素被分成几个子像素。这样光栅贴膜就能以不同的方向折射每个子像素发出的光,双眼从不同的角度观看显示屏幕,就看到不同的子像素,实现3D观看效果,本发明实施例可以调整第一帧画面图像和第二帧画面图像的排列间隔,以使得排列间隔调整后的第一帧画面图像从第一方向出射、第二帧画面图像从第二方向出射,使得用户能够清晰观看到3D帧画面图像。
此外,当3D格式包括红蓝3D格式,第一帧画面图像为红色3D图像,第二帧画面图像为蓝色3D图像,用户通过佩戴红蓝3D眼镜可以观看到红色的第一帧画面图像,佩戴红蓝3D眼镜可以观看到蓝色的第二帧画面图像。
此外,当3D格式包括偏振3D格式,第一帧画面图像为用于指向第一偏振方向的图像,第二帧画面图像为用于指向第二偏振方向的图像,用户通过佩戴偏振光眼镜可以观看到第一偏振方向的第一帧画面图像,佩戴偏振光眼镜可以观看到第二偏振方向的第二帧画面图像。
可以理解的是,本申请实施例中的图像可以是帧图像,当存在多帧图像时,通过上述实施例中的方法,可以将帧图像都处理成3D格式下的图像,也即,可以将2D的视频处理成3D视频。
本申请实施例无需专门的3D设备,只要接收到的图像满足要求,常规的终端设备也能实现将二维的图像实时转换成3D显示效果的图像,或者,通过任意具有拍摄能力的终端,在加装好拍摄镜头后,即可实现满足要求的2D图像的获取并进行3D图像的制作。
该实时裸眼3D的图像处理系统的具体实施方式与上述实时裸眼3D的图像处理方法的具体实施例基本相同,在此不再赘述。在满足本申请实施例要求的前提下,实时裸眼3D的图像处理系统还可以设置其他功能模块,以实现上述实施例中的实时裸眼3D的图像处理方法。
本申请实施例还提供一种实时裸眼3D的图像处理系统,实时裸眼3D的图像处理系统包括:
终端,终端设置有摄像头,终端用于执行如上述实施例中实时裸眼3D的图像处理方法;
拍摄镜头,拍摄镜头设置有棱镜;
其中,棱镜设置于摄像头的上方的一侧以形成第一光路,并且拍摄镜头在摄像头的上方的另一侧形成作为第二光路的空腔,以使得目标拍摄对象的第一初始光信号可通过第一光路进入摄像头,目标拍摄对象的第二初始光信号可经过第二光路后进入摄像头;棱镜包括第一棱镜面,以及沿第二初始光信号光路依次设置的入光面和出光面,第一棱镜面垂直于摄像头平面,第一棱镜面的延展面将摄像头的镜头表面分为第一区域和第二区域,第一区域用于接收第一初始光信号,第二区域用于接收出光面出射的光信号,以使得目标拍摄对象在第一区域形成第一视差图像,在第二区域形成与第一视差图像相对应的第二视差图像。
示例性的,本申请实施例中的实时裸眼3D的图像处理系统不仅包含有终端,还设置有拍摄镜头,终端中还设置有处理器,处理器可以执行如上述实施例中实时裸眼3D的图像处理方法。
该实施例中系统的结构可以参照上述实施例中的描述,在此不再赘述。
该实时裸眼3D的图像处理系统的具体实施方式与上述实时裸眼3D的图像处理方法的具体实施例基本相同,在此不再赘述。在满足本申请实施例要求的前提下,实时裸眼3D的图像处理系统还可以设置其他功能模块,以实现上述实施例中的实时裸眼3D的图像处理方法。
本申请实施例还提供了一种电子设备,电子设备包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述实时裸眼3D的图像处理方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图26,图26示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器2601,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器2602,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器2602可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器2602中,并由处理器2601来调用执行本申请实施例的实时裸眼3D的图像处理方法;
输入/输出接口2603,用于实现信息输入及输出;
通信接口2604,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线2605,在设备的各个组件(例如处理器2601、存储器2602、输入/输出接口2603和通信接口2604)之间传输信息;
其中处理器2601、存储器2602、输入/输出接口2603和通信接口2604通过总线2605实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述实时裸眼3D的图像处理方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。
Claims (14)
1.一种实时裸眼3D的图像处理方法,其特征在于,所述方法包括:
获取2D格式下的初始图像,其中,所述初始图像中包括位于所述初始图像第一图像区域的第一视差图像和位于所述初始图像的第二图像区域的第二视差图像,所述第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,所述第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,所述第一光路和所述第二光路不同,以使所述第一视差图像和所述第二视差图像具有视差;
对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像;
将所述第三视差图像处理成3D格式下的第一帧画面图像,将所述第二视差图像处理成3D格式下的第二帧画面图像,其中,所述第一帧画面图像和所述第二帧画面图像之间互为左右格式图像;
将所述第一帧画面图像与所述第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
2.根据权利要求1所述的实时裸眼3D的图像处理方法,其特征在于,所述实时裸眼3D的图像处理方法应用在终端上,所述终端设置有摄像头,所述摄像头连接有拍摄镜头;其中,所述拍摄镜头设置有棱镜,所述棱镜设置于所述摄像头的上方的一侧以形成所述第一光路,并且所述拍摄镜头在所述摄像头的上方的另一侧形成作为所述第二光路的空腔,以使得目标拍摄对象的第一初始光信号可通过所述第一光路进入所述摄像头,所述目标拍摄对象的第二初始光信号可经过所述第二光路后进入所述摄像头;所述棱镜包括第一棱镜面,以及沿所述第二初始光信号光路依次设置的入光面和出光面,所述第一棱镜面垂直于所述摄像头平面,所述第一棱镜面的延展面将所述摄像头的镜头表面分为第一区域和第二区域,所述第一区域用于接收所述第一初始光信号,所述第二区域用于接收所述出光面出射的光信号,以使得所述目标拍摄对象在所述第一区域形成所述第一视差图像,在所述第二区域形成与所述第一视差图像相对应的所述第二视差图像;
所述获取2D格式下的初始图像,包括:
确定所述终端上的一个所述摄像头为目标摄像头,并打开所述目标摄像头;
实时获取所述目标摄像头拍摄的2D格式下的初始图像。
3.根据权利要求2所述的实时裸眼3D的图像处理方法,其特征在于,所述终端上的所述摄像头有多个;
所述确定所述终端上的一个所述摄像头为目标摄像头,并打开所述目标摄像头,包括:
获取摄像头选择信息,其中,所述摄像头选择信息响应于用户选择指令得到,或者通过对各个所述摄像头拍摄的图像进行识别得到;
基于所述摄像头选择信息,从多个所述摄像头中选择一个作为目标摄像头,并打开所述目标摄像头。
4.根据权利要求2或3所述的实时裸眼3D的图像处理方法,其特征在于,所述打开所述目标摄像头,包括:
获取所述目标摄像头的第一参数信息和所述拍摄镜头的第二参数信息;
根据所述第一参数信息和所述第二参数信息确定当前所述目标摄像头所能拍摄的目标焦距范围;
根据所述目标焦距范围设置所述目标摄像头的拍摄参数,以使所述目标摄像头在所述目标焦距范围内拍摄图像,所述拍摄参数包括所述目标摄像头的拍摄焦距或所述拍摄焦距的可调范围。
5.根据权利要求1所述的实时裸眼3D的图像处理方法,其特征在于,所述对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像,包括:
若所述第一视差图像为所述第二视差图像的镜像图像,对所述第一视差图像进行镜像恢复处理,得到与所述第二视差图像相匹配的第三视差图像;
或者,若所述第一视差图像为所述第二视差图像的倒立图像,对所述第一视差图像进行正立恢复处理,得到与所述第二视差图像相匹配的第三视差图像;
或者,若所述第一视差图像为所述第二视差图像的镜像倒立图像,对所述第一视差图像进行镜像正立恢复处理,得到与所述第二视差图像相匹配的第三视差图像;
或者,若所述第一视差图像为所述第二视差图像的缩小图像,对所述第一视差图像进行镜像放大处理,得到与所述第二视差图像相匹配的第三视差图像;
或者,若所述第一视差图像为所述第二视差图像的放大图像,对所述第一视差图像进行镜像缩小处理,得到与所述第二视差图像相匹配的第三视差图像。
6.根据权利要求1或5所述的实时裸眼3D的图像处理方法,其特征在于,所述将所述第三视差图像处理成3D格式下的第一帧画面图像,包括:
对所述第三视差图像与所述第二视差图像进行图像比对,得到表征图像之间重合度的比对结果;
根据所述比对结果对所述第三视差图像进行图像校准,得到校准后的第四视差图像,以使校准后的所述第四视差图像与所述第二视差图像之间的重合度满足预设要求;
将校准后的所述第四视差图像处理成3D格式下的第一帧画面图像。
7.根据权利要求6所述的实时裸眼3D的图像处理方法,其特征在于,所述对所述第三视差图像与所述第二视差图像进行图像比对,得到表征图像之间重合度的比对结果,包括:
识别所述第三视差图像中的目标特征,得到所述目标特征在所述第三视差图像中的第一目标角点;
识别所述第二视差图像中的所述目标特征,得到所述目标特征在所述第二视差图像中的第二目标角点;
将所述第三视差图像和所述第二视差图像进行重叠,并对所述第一目标角点和所述第二目标角点进行虚拟重合对比,根据角点之间的重合度得到表征图像之间重合度的比对结果。
8.根据权利要求1所述的实时裸眼3D的图像处理方法,其特征在于,所述将所述第三视差图像处理成3D格式下的第一帧画面图像,包括:
确定所述第三视差图像中与所述第二视差图像多余的部分,得到第一多余部分;
将所述第一多余部分从所述第三视差图像中裁剪掉,并将剩余的所述第三视差图像处理成3D格式下的第一帧画面图像;
或者,所述将所述第二视差图像处理成3D格式下的第二帧画面图像,包括:
确定所述第二视差图像中与所述第三视差图像多余的部分,得到第二多余部分;
将所述第二多余部分从所述第二视差图像中裁剪掉,并将剩余的所述第二视差图像处理成3D格式下的第二帧画面图像。
9.根据权利要求8所述的实时裸眼3D的图像处理方法,其特征在于,所述实时裸眼3D的图像处理方法应用在终端上,所述终端设置有摄像头,所述摄像头连接有拍摄镜头;
所述方法还包括:
获取历史上安装所述拍摄镜头的目标安装误差;
根据所述目标安装误差的大小确定裁剪参数,其中,所述裁剪参数用于对所述第三视差图像或所述第二视差图像中的多余部分进行裁剪。
10.根据权利要求9所述的实时裸眼3D的图像处理方法,其特征在于,所述获取历史上安装所述拍摄镜头的目标安装误差,包括:
获取所述终端的设备型号信息;
获取多个样本安装误差,其中,所述样本安装误差为所述设备型号信息下多个样本设备安装所述拍摄镜头时的安装误差;
计算多个所述样本安装误差的方差;
若所述方差大于预设的方差阈值,则从多个所述样本安装误差中选择最大误差值,将所述最大误差值作为安装所述拍摄镜头的目标安装误差;
若所述方法小于或等于预设的所述方差阈值,则计算多个所述样本安装误差的平均误差值,将所述平均误差值作为安装所述拍摄镜头的目标安装误差。
11.一种实时裸眼3D的图像处理系统,其特征在于,所述系统包括:
图像获取模块,用于获取2D格式下的初始图像,其中,所述初始图像中包括位于所述初始图像第一图像区域的第一视差图像和位于初始图像的第二图像区域的第二视差图像,所述第一视差图像为通过第一光路拍摄目标拍摄对象得到的图像,所述第二视差图像为通过第二光路拍摄目标拍摄对象得到的图像,所述第一光路和所述第二光路不同,以使所述第一视差图像和所述第二视差图像具有视差;
图像处理模块,用于对所述第一视差图像进行处理,得到与所述第二视差图像相匹配的第三视差图像;
3D格式处理模块,用于将所述第三视差图像处理成3D格式下的第一帧画面图像,将所述第二视差图像处理成3D格式下的第二帧画面图像,其中,所述第一帧画面图像和所述第二帧画面图像之间互为左右格式图像;
图像融合模块,用于将所述第一帧画面图像与所述第二帧画面图像进行融合拼接,得到3D格式下的3D帧画面图像。
12.一种实时裸眼3D的图像处理系统,其特征在于,所述系统包括:
终端,所述终端设置有摄像头,所述终端用于执行如权利要求1至10中任意一项所述的实时裸眼3D的图像处理方法;
拍摄镜头,所述拍摄镜头设置有棱镜;
其中,所述棱镜设置于所述摄像头的上方的一侧以形成所述第一光路,并且所述拍摄镜头在所述摄像头的上方的另一侧形成作为所述第二光路的空腔,以使得目标拍摄对象的第一初始光信号可通过所述第一光路进入所述摄像头,所述目标拍摄对象的第二初始光信号可经过所述第二光路后进入所述摄像头;所述棱镜包括第一棱镜面,以及沿所述第二初始光信号光路依次设置的入光面和出光面,所述第一棱镜面垂直于所述摄像头平面,所述第一棱镜面的延展面将所述摄像头的镜头表面分为第一区域和第二区域,所述第一区域用于接收所述第一初始光信号,所述第二区域用于接收所述出光面出射的光信号,以使得所述目标拍摄对象在所述第一区域形成第一视差图像,在所述第二区域形成与所述第一视差图像相对应的第二视差图像。
13.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至10任一项所述的实时裸眼3D的图像处理方法。
14.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至10任一项所述的实时裸眼3D的图像处理方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310322652.6A CN116405653A (zh) | 2023-03-22 | 2023-03-22 | 实时裸眼3d的图像处理方法、系统、设备及介质 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202310322652.6A CN116405653A (zh) | 2023-03-22 | 2023-03-22 | 实时裸眼3d的图像处理方法、系统、设备及介质 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN116405653A true CN116405653A (zh) | 2023-07-07 |
Family
ID=87009673
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202310322652.6A Pending CN116405653A (zh) | 2023-03-22 | 2023-03-22 | 实时裸眼3d的图像处理方法、系统、设备及介质 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN116405653A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117490986A (zh) * | 2024-01-02 | 2024-02-02 | 深圳市立体通技术有限公司 | 立体显示效果的评判方法、装置、设备及介质 |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07152097A (ja) * | 1993-11-30 | 1995-06-16 | Sony Corp | 立体映像用カメラアダプタ |
| JPH09298760A (ja) * | 1996-04-30 | 1997-11-18 | Katsu Tashiro | 立体撮影アダプタ |
| JPH10145656A (ja) * | 1996-11-15 | 1998-05-29 | Canon Inc | 複眼撮像装置 |
| US20030133707A1 (en) * | 2002-01-17 | 2003-07-17 | Zoran Perisic | Apparatus for three dimensional photography |
| JP2004129186A (ja) * | 2002-07-31 | 2004-04-22 | Sharp Corp | 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体 |
| JP2005045328A (ja) * | 2003-07-22 | 2005-02-17 | Sharp Corp | 3次元画像撮像装置 |
| JP2009232278A (ja) * | 2008-03-24 | 2009-10-08 | Funai Electric Co Ltd | パノラマ撮像装置 |
| DE102009016818A1 (de) * | 2009-04-09 | 2010-10-14 | Carl Zeiss Optronics Gmbh | Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
| CN104834102A (zh) * | 2015-05-22 | 2015-08-12 | 郭少军 | 一种可将单摄像机变为立体摄像机的光学系统及其方法 |
| US20150235427A1 (en) * | 2013-06-19 | 2015-08-20 | Panasonic Intellectual Property Management Co., Ltd. | Image display device and image display method |
| CN105791805A (zh) * | 2016-04-14 | 2016-07-20 | 北京科睿科技有限公司 | 一种拍摄左右眼格式立体视频的装置 |
| CN107318011A (zh) * | 2017-08-21 | 2017-11-03 | 苏胜强 | 一种单镜头横幅立体拍摄系统 |
| US20220245760A1 (en) * | 2021-02-01 | 2022-08-04 | Axis Ab | Method and image-processing device for evaluating an alignment of stitched images |
-
2023
- 2023-03-22 CN CN202310322652.6A patent/CN116405653A/zh active Pending
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07152097A (ja) * | 1993-11-30 | 1995-06-16 | Sony Corp | 立体映像用カメラアダプタ |
| JPH09298760A (ja) * | 1996-04-30 | 1997-11-18 | Katsu Tashiro | 立体撮影アダプタ |
| JPH10145656A (ja) * | 1996-11-15 | 1998-05-29 | Canon Inc | 複眼撮像装置 |
| US20030133707A1 (en) * | 2002-01-17 | 2003-07-17 | Zoran Perisic | Apparatus for three dimensional photography |
| JP2004129186A (ja) * | 2002-07-31 | 2004-04-22 | Sharp Corp | 立体画像データ処理装置ならびに立体画像データ処理用プログラムおよび記録媒体 |
| JP2005045328A (ja) * | 2003-07-22 | 2005-02-17 | Sharp Corp | 3次元画像撮像装置 |
| JP2009232278A (ja) * | 2008-03-24 | 2009-10-08 | Funai Electric Co Ltd | パノラマ撮像装置 |
| DE102009016818A1 (de) * | 2009-04-09 | 2010-10-14 | Carl Zeiss Optronics Gmbh | Stereokameraeinrichtungen, Verfahren zur fortlaufenden automatischen Kalibrierung einer Stereokameraeinrichtung, Computerprogramm, Computerprogrammprodukt und Überwachungsvorrichtung für Windkraftanlagen, Gebäude mit transparenten Bereichen, Start- und Landebahnen und/oder Flugkorridore von Flughäfen |
| US20150235427A1 (en) * | 2013-06-19 | 2015-08-20 | Panasonic Intellectual Property Management Co., Ltd. | Image display device and image display method |
| CN104834102A (zh) * | 2015-05-22 | 2015-08-12 | 郭少军 | 一种可将单摄像机变为立体摄像机的光学系统及其方法 |
| CN105791805A (zh) * | 2016-04-14 | 2016-07-20 | 北京科睿科技有限公司 | 一种拍摄左右眼格式立体视频的装置 |
| CN107318011A (zh) * | 2017-08-21 | 2017-11-03 | 苏胜强 | 一种单镜头横幅立体拍摄系统 |
| US20220245760A1 (en) * | 2021-02-01 | 2022-08-04 | Axis Ab | Method and image-processing device for evaluating an alignment of stitched images |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN117490986A (zh) * | 2024-01-02 | 2024-02-02 | 深圳市立体通技术有限公司 | 立体显示效果的评判方法、装置、设备及介质 |
| CN117490986B (zh) * | 2024-01-02 | 2024-03-12 | 深圳市立体通技术有限公司 | 立体显示效果的评判方法、装置、设备及介质 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9544574B2 (en) | Selecting camera pairs for stereoscopic imaging | |
| JP6023801B2 (ja) | シミュレーション装置 | |
| CN111010560B (zh) | 一种头戴显示设备的反畸变调节方法、装置和虚拟现实系统 | |
| US8937644B2 (en) | Stereoscopic image capture | |
| CN114910052B (zh) | 一种基于摄像头的测距方法、控制方法、装置和电子设备 | |
| US9237338B1 (en) | Apparatus for image display with multi-focal length progressive lens or multiple discrete lenses each having different fixed focal lengths or a variable focal length | |
| US20230033956A1 (en) | Estimating depth based on iris size | |
| KR20200041981A (ko) | 이미지 처리 방법, 기기, 및 장치 | |
| EP2950520A1 (en) | Method and apparatus for outputting picture | |
| US9813693B1 (en) | Accounting for perspective effects in images | |
| CN106228530B (zh) | 一种立体摄影方法、装置及立体摄影设备 | |
| CN101577795A (zh) | 一种实现全景图像的实时预览的方法和装置 | |
| US20140085422A1 (en) | Image processing method and device | |
| KR20200101230A (ko) | 구도를 추천하기 위한 전자 장치 및 그의 동작 방법 | |
| KR20190085787A (ko) | 전자 장치 및 그의 영상 처리 방법 | |
| CN105306921A (zh) | 一种基于移动终端的三维照片拍摄方法及移动终端 | |
| CN107529052A (zh) | 一种辅助拍摄装置和立体拍摄方法 | |
| CN108156437A (zh) | 一种立体图像处理方法、装置和电子设备 | |
| CN108156442A (zh) | 一种立体成像处理方法、装置和电子设备 | |
| CN103324022A (zh) | 三维照相模块与手持装置 | |
| CN107517369B (zh) | 立体图像产生方法及使用此方法的电子装置 | |
| CN108282650B (zh) | 一种裸眼立体显示方法、装置、系统及存储介质 | |
| CN116917791A (zh) | 用于增强现实设备和虚拟现实设备的反向透视眼镜 | |
| US10154249B2 (en) | System and method for capturing horizontal disparity stereo panorama | |
| CN116405653A (zh) | 实时裸眼3d的图像处理方法、系统、设备及介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |