CN120876699A - 任何世界视图生成 - Google Patents
任何世界视图生成Info
- Publication number
- CN120876699A CN120876699A CN202511114410.3A CN202511114410A CN120876699A CN 120876699 A CN120876699 A CN 120876699A CN 202511114410 A CN202511114410 A CN 202511114410A CN 120876699 A CN120876699 A CN 120876699A
- Authority
- CN
- China
- Prior art keywords
- image
- output image
- view
- input images
- location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Diaphragms For Electromechanical Transducers (AREA)
Abstract
本发明公开涉及任何世界视图生成。用于从多个输入图像渲染输出图像的方法和系统。接收多个输入图像,并且从不同的第一位置拍摄每个输入图像。接收用于渲染输出图像的视图规范,并且视图规范至少包括第二位置。第二位置不同于每个第一位置。至少部分地基于多个输入图像和视图规范来渲染输出图像,并且输出图像包括如从第二位置看到的区域的图像。输出图像被显示在显示器上。
Description
本申请是申请日是2019年9月25日、申请号是201980055215.4、发明名称为“任何世界视图生成”的发明专利申请的分案申请。
技术领域
本发明的领域一般而言涉及透视图生成和图像渲染。
背景技术
许多类型的车辆利用一个或多个相机来捕获、显示和/或记录车辆周围的图像和/或视频,以辅助驾驶、导航或其它任务。此外,除了其它可能性之外,相机还广泛地用于监视、安全或娱乐的各种其它实际应用中,以记录特定环境的图像和/或视频。但是,出于实际原因,将相机安装在期望从其记录图像或视频的特定位置可能是困难的或成本高昂的。因此,期望在该领域进行改进。
发明内容
描述了用于从多个输入图像渲染输出图像的任何世界视图(Any World View)系统和方法的各种实施例,其中输出图像是来自与位置对应的角度,该位置与从中拍摄输入图像的多个位置中的每个位置不同。
在一些实施例中,接收多个输入图像,并且从不同的第一位置拍摄每个输入图像。可以接收用于渲染输出图像的视图规范,并且该视图规范包括至少第二位置。在一些实施例中,第一位置和第二位置可以各自由全局坐标系中的三个空间坐标(例如,(x,y,z))指定。视图规范还可以包括姿势规范中的一个或多个,姿势规范包括方位角和/或极角、视场(例如,缩放或放大)、投影表面深度、一个或多个投影表面参数、像素分辨率和混合宽度。
第二位置可以与第一位置中的每个第一位置不同。可以至少部分地基于多个输入图像和视图规范来渲染输出图像,并且输出图像可以包括如从第二位置看到的区域的图像。例如,第二位置可以是用于渲染输出图像的“虚拟位置”,即使该位置处可能没有相机。
在一些实施例中,确定投影表面,并且至少部分地基于多个输入图像渲染输出图像包括:将多个输入图像的像素映射到投影表面上,以及将投影表面上的位置映射到输出图像的像素。可以确定投影表面以近似用于获取多个输入图像的相机的周围环境。
在一些实施例中,至少部分地基于多个输入图像和视图规范渲染输出图像包括:对于输出图像的多个像素块中的每个像素块,确定沿着相应像素块的周边的多个像素与所述输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射。例如,沿着相应像素块的周边的多个像素可以是正方形像素块的四个角像素。对于一个或多个输入图像中的每个输入图像以及对于输出图像的多个像素块中的每个像素块,可以对位于输入图像的对应像素的周边内的像素执行到输出图像中的相应像素的投影映射,并且,所述投影映射可以至少部分地基于沿着相应像素块的周边的多个像素与一个或多个输入图像的多个对应像素之间的映射。
输出图像可以显示在显示器上。在一些实施例中,基于一系列相应的多个输入图像重复地渲染一系列输出图像,并且该系列输出图像被实时地显示在显示器上以产生实时视频。输出图像和/或输出视频可以用作另一个应用的输入(例如,用于进一步处理),和/或输出可以存储在存储介质上。
本方面内容旨在提供对本文档中描述的一些主题的简要概述。因此,将认识到,上述特征仅是示例,并且不应被解释为以任何方式缩小本文描述主题的范围或精神。根据以下具体实施方式和附图说明,本文描述的主题的其它特征、方面和优点将变得显而易见。
附图说明
当结合以下附图考虑优选实施例的以下详细描述时,可以更好地理解本发明,其中:
图1是根据一些实施例的高级驾驶员辅助系统(ADAS)平台的示意图;
图2A是根据一些实施例的从附接到车辆的四个相机获取的原始相机数据的图示;
图2B是根据一些实施例的从图2A所示的原始相机数据产生的双视图输出图像的图示;
图2C是根据一些实施例的从车辆上方和后面的视点看从图2A所示的原始相机数据产生的输出图像的图示;
图3是图示根据一些实施例的用于从多个输入图像渲染输出图像的方法的流程图;
图4是图示根据一些实施例的用于确定投影表面的方法的流程图;
图5是图示根据一些实施例的用于执行逐块输出图像渲染的方法的流程图;
图6是图示根据一些实施例的用于从多个输入图像校准和渲染输出图像的高级数据流的示意图;
图7是根据一些实施例的等角和针孔相机投影模型的图示;
图8是根据一些实施例的使用针孔相机模型的原始等角(鱼眼)镜头图像和重投影图像的图示;
图9是根据一些实施例的世界坐标系中的对象点到图像点的重投影的图示;
图10是根据一些实施例的视图图像点到源图像的重投影的图示;
图11是根据一些实施例的在地平面上的对象点的深度的图示;
图12是根据一些实施例的汽车周围的圆柱形投影表面模型的图示;
图13图示了根据一些实施例的映射到两个鱼眼源图像的视图图像块的网格;
图14是根据一些实施例的以JavaScriptTM对象通知(JSON)文件格式的用于Blocklnfo的代码结构的伪代码;
图15是图示根据一些实施例的作为C/C++结构的用于Blocklnfo的代码结构的伪代码;
图16是图示根据一些实施例的以JSON文件格式的用于CamData的代码结构的伪代码;
图17是根据一些实施例的世界坐标系的标称朝向的俯视图;
图18是图示根据一些实施例的以JSON文件格式的用于ViewSpec的代码结构的伪代码;
图19是根据一些实施例的相对于汽车上的相机的方位角和高度角的图示;
图20图示了根据一些实施例的来自相机校准处理的第一验证图像;
图21图示了根据一些实施例的来自相机校准处理的第二验证图像;
图22是根据一些实施例的从三个源相机渲染的后视输出图像;
图23是图示根据一些实施例的用于两芯片设计的资源分配的并行处理硬件图;
图24是图示根据一些实施例的用于芯片三的资源分配的并行处理硬件图;
图25是根据一些实施例的用于三芯片设计的示意性数据流程图;
图26是根据一些实施例的用于芯片1和芯片2的示意性数据流程图;
图27是根据一些实施例的去马赛克组单元格(cell)的内部结构的示意图;
图28是根据一些实施例的用于芯片3的示意性数据流程图;
图29是根据一些实施例的用于光度对准的示意性数据流程图;
图30是图示根据一些实施例的多处理器系统(MPS)的一个实施例的框图;
图31是图示根据一些实施例的MPS连接方案的一个实施例的框图;
图32是根据一些实施例的MPS架构的一个实施例的更详细的图;以及
图33图示了根据一些实施例的根据图32的体系架构示例的由均匀地散布有DMR(圆形)的PE(正方形)组成的示例MPS。
虽然本发明易于进行各种修改和替代形式,但是在附图中以示例的方式示出了本发明的具体实施例,并且在本文对其进行了详细描述。但是,应该理解的是,附图及其详细描述并非旨在将本发明限制为所公开的特定形式,相反,其意图是涵盖落入如由所附权利要求书定义的本发明的精神和范围内的所有修改、等同形式和替代形式。
具体实施方式
通过引用并入
以下参考文献通过引用整体并入本文,如同在本文完全和完整阐述一样:
术语
以下是在本申请中使用的术语的词汇表:
存储器介质-各种类型的存储器设备或存储设备中的任何一种。术语“存储器介质”旨在包括安装介质,例如,CD-ROM、软盘或带设备;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM、Rambus RAM等;或非易失性存储器,诸如磁性介质,例如,硬盘驱动器、光学存储装置或ROM、EPROM、FLASH等。存储器介质也可以包括其它类型的存储器,或其组合。另外,存储器介质可以位于其中执行程序的第一计算机中,和/或可以位于通过诸如互联网之类的网络连接到第一计算机的第二不同计算机中。在后一种情况下,第二计算机可以向第一计算机提供程序指令以供执行。术语“存储器介质”可以包括两个或更多个存储器介质,其可以驻留在不同的位置,例如,在通过网络连接的不同的计算机中。
载体介质-如上所述的存储器介质,以及物理传输介质,诸如总线、网络和/或其它传递诸如电信号或光信号之类的信号的物理传输介质。
可编程硬件元件-包括各种硬件设备,该硬件设备包括经由可编程或硬连线互连连接的多个可编程功能块。示例包括FPGA(现场可编程门阵列)、PLD(可编程逻辑设备)、FPOA(现场可编程对象阵列)和CPLD(复杂PLD)。可编程功能块的范围可以从细粒度(组合逻辑或查找表)到粗粒度(算术逻辑单元或处理器核心)。可编程硬件元件也可以被称为“可重新配置逻辑”。
专用集成电路(ASIC)-该术语旨在具有其普通含义的全部广度。术语ASIC旨在包括为特定应用定制的集成电路,而不是通用的可编程设备,但是ASIC可以包含可编程处理器核心作为构建块。蜂窝电话处理器、MP3播放器芯片和许多其它单功能IC是ASIC的示例。通常以诸如Verilog或VHDL之类的硬件描述语言描述ASIC。
程序-术语“程序”旨在具有其普通含义的全部广度。术语“程序”包括1)可以存储在存储器中并且可由处理器执行的软件程序,或者2)可用于配置可编程硬件元件或ASIC的硬件配置程序。
软件程序-术语“软件程序”旨在具有其普通含义的全部广度,并且包括可以存储在存储器介质中并由处理器执行的任何类型的程序指令、代码、脚本和/或数据或其组合。示例性软件程序包括用基于文本的编程语言,例如,命令式或过程式语言,诸如C、C++、PASCAL、FORTRAN、COBOL、JAVA、汇编语言等;图形程序(用图形编程语言编写的程序);汇编语言程序;已编译成机器语言的程序;脚本;以及其它类型的可执行软件编写的程序。软件程序可以包括两个或更多个以某种方式互操作的软件程序。
硬件配置程序–例如网表或位文件的程序,其可以用于对可编程硬件元件或ASIC进行编程或配置。
计算机系统-各种类型的计算或处理系统中的任何一种,包括个人计算机系统(PC)、大型计算机系统、工作站、网络电器、互联网电器、个人数字助理(PDA)、网格计算系统或其它设备或设备的组合。一般而言,术语“计算机系统”可以广义地定义为包括具有至少一个执行存储器介质中的指令的处理器的任何设备(或设备的组合)。
自动-指由计算机系统(例如,由计算机系统执行的软件)或设备(例如,电路系统、可编程硬件元件、ASIC等)执行的动作或操作,而无需用户直接指定或执行动作或操作。因此,术语“自动地”与其中用户提供输入以直接执行操作的由用户手动执行或指定的操作相反。自动过程可以通过用户提供的输入来发起,但是“自动”执行的后续动作不是用户指定的,即,不是其中用户指定要执行的每个动作来“手动”执行的。例如,通过选择每个字段并提供指定信息的输入(例如,通过键入信息、选择复选框、单选按钮等)来填写电子表单的用户是在手动填写表单,即使计算机系统可以响应于用户动作来更新表单。表单可以由计算机系统自动填写,其中计算机系统(例如,在计算机系统上执行的软件)分析表单的字段并填写表单,而无需指定字段的答案的任何用户输入。如上所述,用户可以调用表单的自动填写,但不参与表单的实际填写(例如,用户不是手动指定字段的答案,而是这些字段被自动完成)。本说明书提供了响应于用户已采取的动作而自动执行的操作的各种示例。
缩略语的定义
| ADAS | 高级驾驶员辅助系统 |
| hxISDE | HyperXTM集成软件开发环境 |
| hxHADS | HyperXTM应用开发系统 |
| FOV | 视场 |
| DVI | 数字视频接口 |
| API | 应用编程接口 |
详细说明
介绍
本文的实施例提出了用于产生任何世界视图渲染的输出图像和/或视频的系统和方法,该图像和/或视频利用来自多个相机的图像和/或视频的帧的多视图几何变换来合成环境的虚拟渲染视频,就像由浮动虚拟相机捕获一样。在一些实施例中,该虚拟相机可以具有六个自由度,包括:x、y、z位置;方位角和仰角姿势,以及视场角。有利的是,虚拟相机可以位于与多个相机的每个位置不同的位置。另外,用于渲染输出图像/视频的投影表面可以是动态的,并且可以链接到虚拟相机周围对象的距离估计。可以使用诸如超声波或mmWave测距传感器、雷达、激光雷达的测距传感器,或使用应用于视频帧的计算机视觉技术来获得距离估计。本文的实施例可以用于各种应用中,诸如用于车辆高级驾驶员辅助系统(ADAS)、无人机视频捕获、办公室或家庭环境,或具有多个相机的其它平台。
在一些实施例中,多个相机视图被组合成单个透视图,该单个透视图为操作员提供了对虚拟视点的控制,该虚拟视点是由围绕车辆或其它对象的周边定位的多个相机合成的。该合成视图可以在无缝混合来自每个相机的失真和照明经校正图像时将多个单独的相机流整合在一起。另外,用户可以指定透视图或虚拟视点以显示例如从车辆上方的俯视图。
在一些实施例中,可以利用诸如HyperXTM技术之类的并行处理体系架构来适应执行摄取多模式传感器数据并向驾驶员和汽车系统提供信息的算法的高计算成本。有利的是,可以渲染虚拟的任何世界视图,从而提供具有动态虚拟相机位置和动态投影表面的360°环绕视图。根据一些实施例,图1中示出了任何世界视图系统的组件之间的功能关系的概念图。有利的是,本文的一些实施例创建了一种系统,该系统在车辆周围的视线受到车辆本身的结构或受到物理可视化驾驶员周围所有方向的能力的限制时以安全的方式帮助驾驶员操作车辆。本文描述了用于将从多个数字视频相机捕获的视频数据转换成表示车辆或其它对象周围的虚拟视点的渲染视频显示的方法和系统。在一些实施例中,渲染的(一个或多个)输出图像可以用作另一个应用的输入(例如,用于进一步处理),和/或可以存储在存储器中或另一种类型的存储介质上。
图3-渲染输出图像流程图
图3是图示根据一些实施例的用于从多个输入图像渲染输出图像的方法的流程图。在一些实施例中,所描述的方法可以由包括耦合到多相机系统的处理器的计算机系统执行。处理器可以耦合到一个或多个非暂态计算机可读存储器介质,该存储器介质可以具有存储在其上用于执行所描述的方法的程序指令。在一些实施例中,并且如在第5节中更详细描述的,处理器可以是并行处理硬件系统,其可以用于减少计算步骤的时延。在各种实施例中,所示出的方法的一些元素可以以与所示出的顺序不同的顺序同时执行、可以被其它方法元素替代、或者可以被省略。还可以根据需要执行附加的方法元素。如图所示,该方法可以如下操作。
在302处,接收多个输入图像,其中多个输入图像中的每个输入图像是从不同的第一位置拍摄的。换句话说,每个输入图像可以由位于不同的第一位置的相机或另一类型的图像获取设备拍摄,使得多个输入图像对应于多个相应的第一位置。相机可以安装在诸如汽车、卡车、飞机或船;无人机;家具或任何其它类型的对象之类的车辆的各种位置。多个相机每个可以具有其自己的位置、朝向和/或视场,并且多个相机中的各个相机的视场可以部分重叠。
在304处,接收视图规范以渲染输出图像。可以响应于用户输入来接收视图规范。例如,用户可以呈现输入以确定视图规范的一个或多个参数,该参数可以提供给计算系统以用于渲染输出图像。视图规范可以包括用于渲染输出图像的第二位置,并且第二位置可以与每个第一位置不同。作为一个示例,如果多个输入图像包括从车辆上的四个不同的第一位置拍摄的四个输入图像(例如,如图2A中所示),那么第二位置可以位于车辆上方或位于车辆外部的另一个位置。视图规范还可以指定用于渲染输出图像的一个或多个附加参数,包括但不限于方位角、极角、视场、投影表面深度、一个或多个投影表面参数、像素分辨率和/或混合宽度。注意的是,打算在以原点为第二位置的球坐标系中测量方位角和极角。方位角和极角由此可以从第二位置的角度指定用于渲染输出图像的视图朝向。视场可以指定输出图像的立体角和/或放大程度。此外,视图规范可以指定输出图像的像素分辨率(例如,1280x720、1920x1080或其它分辨率)和/或用于混合来自不同输入图像重叠部分对输出图像的贡献的混合宽度。投影表面深度可以指定用于渲染输出图像的投影表面的一个或多个深度参数。例如,对于投影表面是椭圆圆柱的实施例,视图规范可以指定椭圆圆柱的长轴和短轴中的一个或两个。一个或多个投影表面参数还可以指定投影表面的不同尺寸、形状或预设。可替代地,并且如下面更详细描述的,投影表面可以由计算系统自动确定。
对于其中基于一系列相应多个输入图像来渲染一系列输出图像以产生输出视频的实施例,用户可以动态地更改视图规范以实时地改变输出视频的一个或多个参数。例如,用户可以调整视图规范的一个或多个参数,诸如第二位置和/或视点方向,以实时地平滑地更改输出视频的视点。作为一个示例,这在停车场景中可以是有利的,其中用户可以通过在停车过程中改变视图规范的一个或多个参数来更改输出视频的视角。
在一些实施例中,接收指定一个或多个第二视图规范的进一步的用户输入,并且至少部分地基于一个或多个第二视图规范和多个输入图像来渲染一个或多个第二输出图像。换句话说,可以使用单组输入图像数据来从由第一视图规范和第二视图规范描述的不同视点渲染多个不同的输出图像。一个或多个第二输出图像可以显示在与第一输出图像(即,从第一视图规范产生的输出图像)相同的显示器上,或者它们可以被显示在一个或多个不同的显示器上。
在306处,至少部分地基于多个输入图像和视图规范来渲染输出图像。输出图像是从第二位置看并根据视图规范的一个或多个其它参数的区域的图像。在一些实施例中,如下面参考图4更详细描述的,输出图像进一步基于投影表面被渲染。附加地或可替代地,可以逐块地渲染输出图像,如下面参考图5更详细描述的。有利的是,可以从与多个输入图像中的任何一个的视点不同的视点(即,位置、方位角和/或极角,以及视图规范的其它潜在特性)来渲染输出图像。
在一些实施例中,输出图像的至少一部分源自多个输入图像中的两个或更多个输入图像,并且渲染输出图像的至少一部分包括混合来自该多个输入图像中的这两个或更多个输入图像的贡献。例如,输入图像中的两个可以在其视场中部分重叠,使得重叠区域内来自这两个输入图像的像素可以对输出图像的对应部分有所贡献。
在一些实施例中,至少部分地基于两个或更多个输入图像的第一位置与输出图像的至少一个部分的投影位置的接近度来对混合进行加权。例如,当输入图像中的两个在其各自的视场的一部分内重叠时,可以确定重叠区域的投影位置距从中拍摄两个输入图像中的每一个的第一位置有多远。在这个示例中,可以对两个输入图像对输出图像的对应部分的贡献进行加权,使得从比投影位置更近的第一位置拍摄的输入图像被赋予比从更远的第一位置拍摄的另一个输入图像更大的权重。附加地或可替代地,混合可以校正两个或更多个输入图像之间的照明差异。
在308处,输出图像被显示在显示器上。显示器可以与渲染输出图像的计算设备并置,或者它们可以彼此远离并通过无线网络连接。在一些实施例中,显示器可以安装在车辆内以向车辆的驾驶员或操作员提供ADAS服务。可替代地,显示器可以位于远离车辆并且可以被包括在被配置为远程驾驶或操作车辆的设备内。
在一些实施例中,可以基于一系列相应的多个输入图像重复地渲染一系列输出图像,并且该系列输出图像被实时地显示在显示器上以产生实时视频。换句话说,虽然参考图3描述的方法列举了从多个输入图像渲染的单个输出图像,但是从多个输入视频产生输出视频在一些实施例的范围内,其中本文描述的方法步骤对于视频的每个帧进行重复。
图4-投影表面流程图
图4是图示根据一些实施例的用于确定投影表面以帮助渲染输出图像的方法的流程图。可以结合参考图3和/或图5描述的方法步骤来执行图4中描述的方法步骤,作为从多个输入图像渲染输出图像的方法的一部分。在一些实施例中,所描述的方法可以由包括耦合到多相机系统的处理器的计算机系统执行。处理器可以耦合到一个或多个非暂态计算机可读存储器介质,该存储器介质可以具有存储在其上用于执行所描述的方法的程序指令。在一些实施例中,并且如在第5节中更详细描述的,处理器可以是并行处理硬件系统,其可以用于减少计算步骤的时延。在各种实施例中,所示出的方法的一些元素可以以与所示出的顺序不同的顺序同时执行、可以被其它方法元素替代、或者可以被省略。还可以根据需要执行附加的方法元素。如图所示,该方法可以如下操作。
在402处,确定环境的几何布局。例如,可以确定围绕与多个输入图像相关联的第一位置的环境的几何布局。几何布局可以被理解为表示第一位置的周围环境的近似,其可以用来确定用于渲染输出图像的有效投影表面。注意的是,步骤302是可选的,并且可以基于一个或多个其它因素来确定投影表面,而无需确定环境的几何布局。例如,如下所述,投影表面默认情况下可以是椭圆圆柱,并且椭圆圆柱的尺寸(例如,长轴和/或短轴的长度)可以基于车辆的速度或其它因素(诸如例如到附近对象的距离)来确定。
在一些实施例中,确定环境的几何布局包括确定与围绕第一位置的区域相关的测距信息,并且所述确定投影表面是至少部分地基于测距信息来执行的。例如,一个或多个测距装置可以与用于获取多个输入图像的多个相机中的一个或多个相机并置。(一个或多个)测距装置可以利用雷达、声纳、激光雷达、计算机视觉处理算法、机器学习和/或其它技术来估计从相应的第一位置到相应的输入图像的各个部分的距离。例如,如果特定输入图像显示道路、另一个车辆和/或树木或其它对象,那么测距装置可以估计从特定输入图像的第一位置到该道路、车辆、树木或其它对象的距离。
在404处,确定投影表面。投影表面可以包括基本样条表面,该基本样条表面近似围绕与多个输入图像相关联的第一位置的环境。在一些实施例中,由一个或多个测距装置产生的估计距离可以用于确定投影表面。例如,可以确定从由(一个或多个)测距装置获得的距离得出的投影表面。换句话说,可以确定近似其上安装多个相机的车辆或其它对象的周围环境的投影表面,并且测距信息可以用于通知该近似。
在一些实施例中,投影表面可以是基于车辆的环境或其它因素确定的逐段和/或不连续表面。换句话说,可以将投影表面确定为任何期望的特异性或细节水平,直至并包括对于围绕原点的任何期望立体角(例如,直至并包括4π球面度)投影表面相对于原点的位置的逐像素深度规范。
在一些实施例中,第一位置是车辆上的位置,并且投影表面包括围绕车辆的水平部分和包围水平部分的垂直部分。在一些实施例中,投影表面的水平部分是围绕车辆的椭圆盘,投影表面的垂直部分是包围椭圆盘的椭圆圆柱,并且投影表面还包括平滑地结合椭圆盘和椭圆圆柱的中间区域。在ADAS实施例中,在用于拍摄输入图像的相机安装在第一车辆上的情况下,椭圆盘的长轴可以从车辆的前部延伸到车辆的后部,并且椭圆盘的短轴可以从车辆的左侧延伸到车辆的右侧。在一些实施例中,投影表面的椭圆圆柱形状可以被修改以容纳被确定为紧邻第一车辆的一个或多个对象(例如,在本上下文中“紧邻”可以理解为是指在椭圆圆柱的垂直部分内)。换句话说,如果通过测距程序或其它机制确定诸如第二车辆的对象紧邻第一车辆,那么可以修改椭圆形圆柱投影表面以包括该位置的近似和第二车辆的形状。
在一些实施例中,水平部分的尺寸至少部分地基于车辆的当前速度来确定,其中车辆的较高当前速度比车辆的较低当前速度确定更大的水平部分。在一些实施例中,至少部分地基于到附近对象的最短距离来确定水平部分的尺寸。例如,可以基于另一个车辆或其它对象与多个相机的接近度来缩放水平部分的尺寸。换句话说,并且作为一个示例,随着车辆接近其上已经安装有产生输入图像的多个相机的车辆,水平部分的尺寸可以减小以匹配到接近车辆的距离。
在一些实施例中,步骤402和404之一或两者可以作为校准处理的一部分被执行。换句话说,步骤402和404可以在被设计为渲染输出图像的计算系统的设计或生产期间执行。
在406处,至少部分地基于投影表面来渲染输出图像。在一些实施例中,渲染输出图像包括将多个输入图像的像素映射到投影表面上,以及将投影表面上的位置映射到输出图像的像素。例如,多个输入图像中的每个输入图像可以被投影到投影表面上以产生渲染的环境,并且可以通过确定如果从视图规范所描述的角度看,投影表面上渲染的环境将如何出现来渲染输出图像。
图5-特定于块的渲染流程图
图5是图示根据一些实施例的用于将输出图像划分成多个像素块以辅助渲染输出图像的方法的流程图。可以结合参考图3和/或图4描述的方法步骤来执行图5中描述的方法步骤,作为从多个输入图像渲染输出图像的方法的一部分。在一些实施例中,所描述的方法可以由包括耦合到多相机系统的处理器的计算机系统执行。处理器可以耦合到一个或多个非暂态计算机可读存储介质,该存储介质可以具有存储在其上用于执行所描述的方法的程序指令。在一些实施例中,并且如在第5节中更详细描述的,处理器可以是并行处理硬件系统,其可以用于减少计算步骤的时延。在各种实施例中,所示出的方法的一些元素可以以与所示出的顺序不同的顺序同时执行、可以被其它方法元素替代、或者可以被省略。还可以根据需要执行附加的方法元素。如图所示,该方法可以如下操作。
在502处,在一些实施例中,渲染输出图像包括针对输出图像的多个像素块中的每个像素块分别执行所述渲染。例如,可以将输出图像划分为任意期望的尺寸和/或形状的多个像素块,并且可以逐块地执行渲染输出图像。在一些实施例中,可以使用广角鱼眼镜头或引入失真的另一种类型的镜头拍摄输入图像。通过单独渲染小块(例如,16x16块或其它尺寸),相对于将整个输出图像渲染为一个大块,可以减少在执行从输入图像到输出图像的投影映射时引入的失真程度。在一些实施例中,可以选择块的尺寸以在阈值可接受的失真水平和处理更大数量的块所需的处理资源量之间保持平衡,同时维持期望水平的吞吐量和时延。例如,较小的块尺寸会导致整个输出图像的块数更多,从而可能需要更多数量的并行处理资源来以期望的时延渲染输出图像,并且处理资源和输出图像的失真之间期望的平衡可以取决于处理器系统的计算能力和输出图像的用例(即,期望的吞吐量、分辨率和/或时延,以及其它可能性)来选择。例如,对于其中输出图像序列被渲染以实时地以每秒30帧的速度产生输出视频的实施例,可以针对特定的块尺寸选择一定程度的并行处理资源,使得渲染输出图像的时延小于1/30秒。换句话说,在一些实施例中,可以选择多个像素块中的每个像素块的尺寸,以平衡由投影映射引入的图像失真的程度和用于针对特定用例以可接受的时延渲染输出图像的处理资源的数量。
在504处,对于输出图像的多个像素块中的每个像素块,确定沿着相应像素块的周边的多个像素与输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射。
在一些实施例中,沿着相应像素块的周边的多个像素是相应像素块的四个角像素。例如,像素块可以是4x4、16x16或另一个尺寸的矩形像素块,并且沿着相应像素块的周边的多个像素与输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射可以针对输出图像的正方形像素块的四个角来执行。可替代地,在其它实施例中,可以使用其它形状的像素块,并且周边像素可以是相应形状的角。例如,输出图像可以被划分为平铺的三角形块,并且外围像素可以是每个三角形像素块的三个角。根据期望,也可以使用其它平铺形状,诸如五边形、六边形等。可以基于以上参考图4描述的投影表面来执行映射。例如,投影表面可以用于确定输出图像的像素块的四个角像素与一个或多个输入图像中的四个对应像素之间的映射。
在506处,对于一个或多个输入图像中的每个输入图像,对位于输入图像的对应像素的周边内的像素到输出图像中的相应像素执行投影映射。投影映射可以至少部分地基于沿着相应像素块的周边的多个像素与一个或多个输入图像的多个对应像素之间的映射。例如,一旦将输出图像的像素块的四个角像素映射到一个或多个输入像素的四个对应像素,位于输出图像的四个角内的像素(例如,位于周边像素内的这些像素可以被称为输出图像的像素块的“内部像素”)与一个或多个输入图像的像素之间的映射可以通过将角像素映射到像素块输出图像的内部像素的线性外推来执行。
输出图像的周边像素到一个或多个输入图像的映射可能比内部像素的像素的投影映射在计算上更加密集。有利的是,仅对相对较少数量的像素(例如,这里描述的具体示例中为四个)执行周边像素的映射,而对较大数量的像素(例如,对于16x16像素块为256-4=252个像素)执行快得多的内部像素的投影映射,从而减少了渲染过程的总体处理负荷。
附加说明
以下编号的段落提供了关于本文描述的实施例的附加细节和解释。为了便于参考,以下段落的各节和小节按照分层编号系统进行编号。具体而言,节标题用单个数字(例如,“2”)进行标记,小节用两个数字(例如,2.3)进行标记,并且小节的小节用三个数字(例如,2.3.1)进行标记。
1.概述
以下各节提供了与车辆ADAS实施例相关的附加细节(第2节);图像处理算法(第3节),包括校准和视图生成功能(第3.1小节)和渲染功能(第3.2小节);软件(第4节),包括参数和配置文件(第4.1小节)和软件组件(第4.2小节);并行处理硬件系统设计(第5节);以及芯片设计(第6节)。
2.车辆ADAS应用
在一些实施例中,包括多个相机的系统可以安装在车辆上以生成车辆周围的任何世界视图。在一些实施例中,可以将具有广角视场(FOV)光学器件的四个相机定位在车辆的每一侧上并联网到计算平台中。计算平台可以从相机捕获图像并合成单个显示图像,该单个显示图像是从指定视口(例如,从车辆周围的位置,诸如上方,向下看车辆)的组合视图。在已对四个图像校正镜头失真并将这些图像缝合在一起之后,基于数字视觉接口(DVI)的显示器或其它类型的显示器可以呈现合成视图。可以应用最终的透视变换来指定要在显示器中呈现的虚拟视口和/或透视图。
可以使用静态校准处理来生成预处理各个相机图像所需的各种空间和强度校正。
操作员可以能够使用平板计算机或具有简单用户界面的其它设备来控制对视口的选择。可以从(例如,有线或无线)连接到计算平台的监视器直接显示任何世界视图图像。
3.图像处理算法
在一些实施例中,任何世界视图系统包括具有鱼眼镜头(~180度FOV)的四个相机,以捕获汽车周围的图像样本。在水平平面中,它们可以按每隔90度定向,并且每个相机可以具有180度的视场,从而在相邻相机之间提供很多图像重叠。沿着垂直轴,相机可以按向下45度角定向,以提供对汽车周围地面的完全覆盖和全方位的视图。
图像处理算法可以将来自这些多个相机源的图像样本组合成表示特定视图视角的单个输出视图。以下各节更详细地描述了渲染输出视图的功能步骤。
图像处理步骤可以被划分为两组。第一组步骤在将相机安装在汽车上之后仅执行一次。使用具有已知位置的校准目标,可以利用第一组步骤来校准每个相机相对于公共世界坐标系的位置和朝向。然后,可以基于四个相机生成每个视图的逐块描述。该第一组功能用于任何世界视图的校准和视图生成。
第二组操作包括实时系统,以使用在校准期间计算的逐块视图描述以视频速率渲染视图透视图。从相机接收图像样本,可以应用去马赛克功能来恢复全分辨率颜色,然后可以执行扭曲(warping)以将样本投影到表示透视图的虚拟直线相机的焦平面上。如果视图透视图的部分用来自不止一个相机的样本填充,那么可以混合来自两个最好相机的样本。还可以实时应用光度对准算法以补偿相机之间的曝光差异,该差异可能随着车辆或其它对象移动通过或经历可变的照明条件而变化。
在两种类别中应用这些功能的一般方法是使用多视图几何的基本原理来实现期望的功能。在一些实施例中,模型可以使用诸如OpenCV之类的开源库来实现许多用于发现和应用图像的投影变换的功能。
图6图示了根据一些实施例的模型中包括的两组处理的数据流程图。该图的上部是可以对于每个校准集和视图规范离线执行一次的第一组步骤。可以为每个期望的视图规范生成渲染块参数的数组,并将其提供给第二组操作,该第二组操作可以对来自相机的每个输入图像集执行。
3.1校准和视图生成功能
校准功能可以在汽车上安装相机之后执行一次。可以针对每个视图规范执行一次视图生成功能,每个视图规范可以包括虚拟相机相对于汽车的位置和朝向。这些功能的输出可以是参数集合,从中可以使用来自一个或四个(或更多个)相机的图像样本重复生成定义的视图以形成视频输出。校准和视图生成功能可以是在标准计算机上运行的离线处理。
3.1.1鱼眼失真校正
图像的投影变换的概念可以基于诸如基本针孔相机模型之类的底层投影相机模型。在该模型中,射线从中心点延伸,通过直线图像平面到达世界中的对象。对象在世界中的位置可以用射线与图像平面相交处的点来表示。
投影相机模型提供了通过绘制射线以穿过直线图像平面和弯曲鱼眼图像表面两者来理解鱼眼镜头图像和对应直线表示之间的映射的基础,如图7中所示。(在本文档的图中,图像平面是在一个维度中以线绘制的,表示图像的2D欧几里得区域)。中央投影相机的射线是在二个维度中绘制的,表示齐次图像坐标和世界对象的3D空间)。
有许多不同种类的鱼眼镜头。假定在一些实施例中使用的镜头遵循等角投影模型,也称为等距模型,并由以下方程表示:
rF=fFθ (1)
其中,rF是鱼眼图像表面中从主轴到图像点的距离,θ是射线与主轴之间的角度,并且fF类似于焦距。
针孔相机模型的对应方程为:
rP=fPtanθ, (2)
其提供了从鱼眼源图像到其直线表示通过θ的映射。每当源图像涉及投影几何变换时,模型就可以使用该映射。等角鱼眼失真校正的示例如图8中所示。图8的顶部示出了具有等角(鱼眼)失真的源图像(180°视场),并且底部示出了使用针孔相机模型的重投影(120°视场)。如本文所使用的,“源图像”可以被理解为与参考图3-5描述的输入图像同义。
3.1.2相机校准
相机校准函数可以找到相对于世界坐标系的相机位置和朝向。该处理的输入可以是如图13中所示的棋盘图案的图像。可以执行以下步骤。
1.识别未失真(直线)输入图像中棋盘角的像素位置。这可以使用cv::findChessboardComers()函数来完成。
2.用户提供告诉世界坐标中对应棋盘角位置的数组。
3.对旋转矩阵Rsource和平移向量Tsource进行数值求解,使得世界坐标可以被重投影到未失真的源图像中。这可以使用cv::solvePnP()函数来完成。
4.报告以像素为单位的均值重投影误差,衡量相机校准处理是否成功。
重投影方程可以被描述为:
Xsource=RsourceXworld+Tsource (3)
xsource=KXsource (4)
其中:
是世界坐标系中的棋盘角位置,
Xsource是源相机坐标系中的同一点,
K是描述源图像平面的焦距和主要点参数的固有相机矩阵,并且
xsource=s(u,v,1)T是源图像像素位置。
重投影方程在图9中以图形方式示出。旋转矩阵Rsource将世界坐标系旋转到相机坐标系的朝向,而平移向量Tsource将世界坐标原点移动到相机中心,该相机中心可以是针孔相机的光学中心。Rsource和Tsource足以描述相机在世界中的位置和朝向。
注意的是,像素位置x和固有相机校准矩阵K可以与源图像的直线表示相关。然后,可以使用鱼眼镜头映射函数确定鱼眼源图像中与棋盘角对应的实际像素位置。
相机校准函数提供旋转矩阵Rsource和平移向量Tsource,它们是相机的外部校准参数。使用这些参数,可以将世界坐标系中的任意点Xworld=(x,y,z)T投影到源图像中。如下面更详细描述的,这可以提供基于任何虚拟视点来创建新图像的基础。
一旦相机被附接到汽车上,这些外部校准参数就可以被固定。相机校准处理可以执行一次,以找到每个相机的旋转矩阵Rsource和平移向量Tsource。只要相机的相对位置和朝向不变,这些参数就可以用于使用同一源相机集合生成汽车周围的任意数量的视图。
3.1.3保护性变换
在一些实施例中,如第3.1.2节中所述,在重投影方程中的世界坐标和校准图像之间利用投影变换。世界对象的位置在世界坐标系中是已知的,其z-轴定向垂直于地面。投影变换可以包括将坐标系旋转到相机坐标系的朝向,然后添加平移以将原点移动到相机中心。然后,可以将世界对象的变换后的3D坐标解释为图像投影平面中的齐次坐标,以得出世界对象的像素位置。
使用来自源图像的图像样本为某个虚拟相机位置创建新视图可能涉及两个投影变换,如图10中所示。首先,可以将视图图像中的每个像素位置投影到对象在世界坐标系中的位置。如本文所使用的,“视图图像(viewimage)”可以被理解为与参考图3-5描述的“输出图像”同义。其次,该世界点可以重投影回源图像中的像素位置。
可以通过以下步骤序列来描述从视图图像到源图像的映射:
1.令是视图图像坐标系中某个像素位置的齐次表示。可以选择特定点值,使得z为在该像素处提供图像的世界对象的实际深度。
2.将轴从视图坐标系旋转到世界坐标系。
3.通过添加Pview(视图相机在世界坐标系中的位置),将原点从视图相机中心移位到世界原点:
4.将轴从世界坐标系旋转到图像坐标系。
5.将原点从世界原点转移到图像相机中心:
Xsource=RsourceXworld+Tsource (6)
组合方程示出了从源图像中获取视图图像中像素的样本值的位置:
在投影几何中,Xview表示从相机中心延伸并在Xview处撞击在世界对象上的射线。该射线穿过图像平面的像素位置处的图像颜色是Xview处世界对象的颜色。对象的深度可以被定义为Xview的z-分量。可能期望从添加了Tsource和Pview的后续步骤中将Xview缩放为世界坐标单位,因为这些值是以世界坐标单位。注意的是,旋转矩阵Rsource和是正交矩阵。它们是无单位的,并且不会更改由它们变换的向量的长度。
3.1.4世界对象的表面模型
在一些实施例中,从任意视角相机中心确定对象的深度可能是不平凡的。可以利用世界中对象的三维模型来获得投影表面,这可能不能实际上或容易地从(一个或多个)源图像获得。
视图生成算法可以利用具有两个相交表面的混合表面模型。可以假定世界对象在该表面上。用于计算深度的函数可以涉及计算Xview作为表示具有表面模型的图像像素的射线之间的交点。
作为从像素位置开始的数学方程,我们可以首先以齐次表示法表示该位置,
然后应用逆固有相机矩阵K:
可以找到缩放因子s,使得Xview的z-分量是对象距视图相机的深度,使得针对后续操作正确缩放Xview。实际上,针孔相机模型的固有相机矩阵K可以使得s等于对象距视图相机的深度。
对于其中汽车周围的世界被假定为z=0的地平面的实施例,深度的计算在11中示出。在这些实施例中,视图相机规范包括在地面上方和海拔θ+φ的某个高度Pview|z处的相机位置Pview,其中θ是视图主轴和+z轴之间的角度,并且φ是视图主轴和图像射线之间的角度。
到Xview的射线的长度为:
并且深度是该长度沿着视图相机原理轴的分量
depth=‖Xview‖cosφ (11)
地平面模型对于从上方观看汽车周围的视图工作良好,但是对于包括位于地平线上方的对象点的视图而言,可能不是理想的。前景中的垂直对象在假定水平地平面表面模型的渲染视图中也可能会失真。随着视图的海拔升高以接近水平,视图中更多的对象可以表示垂直表面,诸如建筑物、植被、其它车辆和/或人,以及其它可能性。
在一些实施例中,引入了圆柱投影表面模型以为具有非垂直原理轴的视图提供更逼真的渲染。该模型假定对象点在垂直表面上,该垂直表面在一定距离包裹汽车,如图12中所示。圆柱的主轴可以在z-方向上穿过汽车的中心。
任何世界视图系统可以假定圆柱表面距汽车有多远,但是在许多情况下,渲染的视图可能并不完全取决于该距离与距世界对象的实际距离的匹配程度。在一些实施例中,圆柱的尺寸可以与汽车正在移动的速度相关。固定的汽车可以使用较小的距离来更准确地渲染相邻的障碍物,而假定较大的圆柱维度,那么在移动的汽车中渲染的视图可能更逼真。
一些实施例通过找到在(x,y)平面中射线从虚拟相机中心向相机的主轴延伸的交点进行操作。然后可以增加射线长度以考虑任何垂直分量,从而在圆柱表面上产生假定的对象点Xview。
在(x,y)平面中圆柱边界的形状可以是椭圆形的,其中长轴沿着汽车的长度定向并且短轴沿着宽度定向。作为视图规范的部分,用户可以指定单个表面深度值,该值表示从汽车的边缘到圆柱表面的距离。
在混合实现中,视图生成功能可以采用地平面模型和圆柱表面模型两者。可以使用这两个模型来计算来自视图相机中心的给定射线的深度,并且可以选择较小的值。如果两个模型提供几乎相等的深度值,那么半径函数可以计算减小的值。结果可能是假定的世界对象表面,其形状为底部平坦的碗、围绕汽车的垂直侧面,以及它们之间的平滑圆角界面。
如果假定的圆柱维度小于到实际世界对象的距离,那么混合模型可能在渲染的图像中引起有趣的效果。例如,可以用预期的透视图渲染汽车附近的对象,而较远的点可能表现出鱼眼镜头效果。半径函数可以提供在渲染图像中这些区域之间的过渡是平滑的。
3.1.5从源图像到视图图像的逐段线性变换
前面的各节概述了针对任意视点将源图像(即,输入图像)像素映射到视图图像(即,输出图像)的投影变换,其可以被总结为如下的映射函数:
Xsource=RmapXviem+Tmap (12)
x=KXsource (13)
根据针孔相机模型,这可能导致源图像中的像素位置x=s(u,v,1)T。作为最后一步,可以应用第3.1.1节中描述的非线性映射来获得原始鱼眼源图像中的像素位置。
虽然可以为视图图像的每个像素评估映射函数,但是这可能导致每个视图有大量的映射信息。为了解决这个问题并减少渲染时间和计算负荷,在一些实施例中,可以将输出视图图像划分为像素块的网格(例如,16x16像素块或其它尺寸或形状的像素块),并且映射函数可以仅针对每个块的角进行评估。图13示出了两个鱼眼源图像中的块集合,该图像对应于视图图像中的16x16网格。如图所示,白色块被映射到视图图像,灰色块与来自另一个源图像的块混合并映射到视图图像,并且在视图图像中不使用黑色块,因为可以可替代地使用更好的源图像。红色轨迹指示两个源图像之间的混合区域的中心线。混合表面模型可以是可见的,其中接近汽车的点被假定为在地面上,并且更远的点被假定为在围绕汽车的圆柱的表面上。
可以针对每个输出块计算仿射变换的系数,以将源图像样本扭曲到视图图像中。虽然一般的投影变换可以被实现为3x3矩阵乘法运算,但仿射变换可能是自由度较小的特殊情况;可能不需要使用变换矩阵的最后一行。因此,每个输出块中像素的映射可以减少为:
仅利用六个值来描述每个输出块的仿射变换,并且每个视图图像块的四个角的源图像位置提供了足够的信息来求解值a11...a23。
当将视图图像位置映射到源图像的函数包括对鱼眼镜头失真的校正时,它们可能是非线性的。虽然仿射变换可以是线性的并且可以比一般的投影变换更具限制性,但渲染输出视图可能就足够,因为可以将其单独应用于每个16x16输出块。换句话说,镜头失真的程度可以随着输出图像被划分成的像素块的尺寸而增加。16x16像素块尺寸可能会在引入足够小的失真程度和处理资源之间呈现理想的平衡,因为较小的像素块尺寸会转化为较大的计算负荷。这形成了对底层非线性映射的逐段近似。一些实施例可以平衡实时渲染系统中用于块映射信息的渲染和存储需求的计算。
3.1.6混合比计算
源相机上的鱼眼镜头可以提供180°的视场。在一些实施例中,存在朝四个基本方向定向的四个相机,使得相邻相机捕获的图像之间可能存在明显的重叠。
在一些实施例中,混合比率计算可以用于确定哪些源相机对视图图像中的每个块有贡献。对于视图图像中的给定块位置,可以基于距对应源图像块和鱼眼图像中心的距离来计算距离度量。如果为两个源计算的距离度量比相邻块的距离度量更相等,那么可以将视图图像块识别为位于两个源之间的中心线上。该标准可能具有有利于最接近具有最高分辨率的每个图像中心的源样本的效果。
在一些实施例中,每个源图像可以包括排除边界以使不应出现在渲染的视图图像中的源样本不合格。如果源图像块接近排除边界,那么可以调整其距离度量以将中心线移离排除边界。
在已经识别视图图像中的中心线块之后,可以基于相邻块距中心线的距离为其分配混合比率值。当视图块由来自两个源图像的贡献块组成时,可以为最接近其自身图像中心的源块分配0.5和1.0之间的混合比率,而为另一个源块分配较小的互补值(例如,可以为另一个源块分配一减去分配给更接近的块的值的权重值)。
混合比计算可以是相机校准和视图生成功能的最后一步。在一些实施例中,用于重叠视图图像块的比率可以被包括在为渲染功能定义每个视图的参数集合中。
3.2渲染功能
在一些实施例中,可以重复执行任何世界视图演示系统的渲染功能,以产生用于给定视图规范的视频输出。在一些实施例中,它们可以通过诸如HyperXTM应用的并行处理系统来实现,该系统可以在视觉集成显示系统(VIDS)平台上实时运行。
在一些实施例中,还可以利用渲染功能的模型实现。模型实现可以在标准计算机上运行,并且可以在单个框架上操作,以提供评估任何世界视图算法的平台。该模型的功能与实时HyperXTM设计紧密相关,因此该模型还可以提供测试向量以支持HyperXTM应用的开发。
渲染功能的输入可以包括针对给定视点的输出图像的每个16x16块的参数集合。来自四个相机的源图像也可以用作渲染功能的输入。
3.2.1去马赛克
在一些实施例中,可以通过拜耳(Bayer)滤镜捕获来自单CCD数码相机的彩色图像,该滤镜可以是形成红色、绿色和蓝色样本的马赛克(mosaic)的滤色器阵列。去马赛克功能可以将每个像素一个采样值转换成表示完整的红色、绿色和蓝色平面的每个像素的三个值。
在实时任何世界视图HyperXTM系统中,去马赛克功能可以应用于与视图图像中每个16x16像素块对应的源图像块。源图像块可以具有矩形形状,其尺寸可以小于或大于应用仿射变换之后产生的视图图像块的尺寸。矩形输入块可以被称为“边界框”,因为它完全包含用于每个视图图像块的源图像样本。参考图11中所示的块的网格,边界框可以是完全包含每个源图像块的正交矩形。
在各种实施例中,可以选择不同的去马赛克方法。如果边界框为1000个像素或更小,那么可以应用常规的去马赛克算法。在一些实施例中,可以在每个像素位置处内插两个缺失的颜色样本。
对于介于1000和4000个单词之间的边界框,可以使用下采样去马赛克算法。可以将每个像素样本计算为对应颜色的相邻样本的加权平均值,以在过滤操作中完成过滤、下采样和内插。相对于输入边界框,输出边界框可以在垂直和水平方向上缩小两倍。仿射变换系数可以被预先补偿以考虑缩小的边界框。
下采样去马赛克方法扩展了可以由实时任何世界视图处理的输入块尺寸的范围。去马赛克操作的输出可以是足够大以渲染对应的16x16视图图像块的源图像样本块。
3.2.2扭曲和块平均
在一些实施例中,采用扭曲函数来应用仿射变换。输入可以是具有来自去马赛克功能的每个像素3个样本的源图像块,并且输出可以是16x16视图图像块。
对于每个块像素位置,可以将边界框内的对应像素位置计算为:
其中系数a11...a23可以是由视图生成函数计算的参数集的一部分。位置可以是实值位置,不限于u和v的整数值,使得可以对该位置的红色、绿色和蓝色样本值进行插值。可以使用双线性插值。
除了将输入块扭曲为视图图像块之外,还可以跨视图图像块计算平均红色、绿色和蓝色样本值。块平均值可以由下面的3.2.3小节中描述的光度对准函数使用。
3.2.3光度对准
可以利用光度对准系统来独立地补偿不同的相机,并且响应于从不同方向面向车辆的不同光照条件而自动调整曝光和光圈设置。当两个源图像为视图图像提供重叠的块时,如果它们的光度特性已经被调整以相互匹配,那么生成的混合区域可能显得更加自然。
图13A-13B演示了多个输入图像中的重叠。如图所示,具有中间灰色边界的源图像块位于视图图像的重叠混合区域中。光度对准可以帮助均衡源图像的颜色,以使接缝在渲染的视图图像中消失。
在一些实施例中,可以在两个源图像之间的重叠区域中比较块平均样本值。可以为每个源图像计算全局增益校正值,以最佳地均衡共置块中的采样值。可以针对每个红色、绿色和蓝色平面计算单独的增益值。使用在整个视图图像上收集的块平均值,可以为四个源图像计算多达12个增益值。
为先前的源图像集合计算的增益值可以应用于当前视图图像中的所有图像样本。每个样本值可以简单地乘以对应颜色和源图像的增益值。
3.2.4混合
在一些实施例中,渲染处理中的最后步骤被用来混合来自不同相机源的重叠视图图像块。大多数视图图像块仅包含来自单个源图像的样本,并且混合功能可能是这些块的传递功能。对于其余的视图图像块,红色、绿色和蓝色值可以逐像素组合,作为来自两个图像源的两个共置渲染块的加权平均值。
如第3.1.6节中所述,在视图生成处理中计算了用于混合的权重值。有助于单个视图图像块的两个权重值之和可以为1。
混合功能的输出可以是对于其源图像样本存在于源相机集合中的那些块位置的16x16视图图像块集合。视图图像中的一些块位置可能不会映射到任何源相机,并且这些块可能不会被渲染。
输出块可以在外部存储器中被合成为帧图像。单独的任务可以负责逐行从外部存储器读取视图图像,以通过VIDS平台的DVI输出进行呈现。
4.软件
在一些实施例中,可以以四个软件程序的形式提供任何世界视图系统,该四个软件程序基于来自一到四个源图像的图像样本一起工作以针对给定的视点渲染单个图像。每个程序都可以独立构建和运行,但是它们可以共享使它们能够一起工作的公共配置和参数文件集合。
4.1参数和配置文件
模型软件应用套件中的程序可以利用许多参数来描述关于源相机、期望视图以及渲染视图图像中每个16x16块或图块的信息。所有程序都可以从参数文件中获取这些参数;在一些实施例中,通常不使用命令行选项。
4.1.1BlockInfo
块级别参数被称为BlockInfo,并且是第3.1节中描述的视图生成操作和第3.2节中描述的渲染操作之间的桥梁。这些参数可以被包含在JavaScriptTM对象通知(JSON)格式文件中。JSON可以是从公共web应用编程实践中借用的轻量级数据交换格式,其可以被人类阅读,但也可以容易地被软件摄取。
示例BlockInfo结构在图14中示出,并且参数在下面的表1中说明。
表1.BlockInfo参数
BlockInfo结构可以在文件中使用,该文件包含描述给定视图规范的视图图像中的每个块的所有块参数集。
去马赛克模型和实时任何世界视图HyperXTM系统可以使用如图15中所示格式化为C或C++构造的BlockInfo参数。这可以是二进制格式,该二进制格式可能不是人类可读的,但是可以在软件中高效地处理。
4.1.2CamData
在一些实施例中,可以以JSON格式利用CamData配置文件。它可以被视图生成功能使用,并且可能不需要进行渲染。camera_calibrate程序可以使用CamData文件作为输入和输出,而view_generate程序可以使用它作为输入。示例CamData文件在图16中示出,并且包括三个部分,如表2中所示。如图所示,第一部分包含相机校准所需的最小参数集合。第二部分添加了视图生成所需的参数,这些参数是相机校准处理的结果。第三部分可以是仅供人类读者阅读的信息,并且可能不被任何程序使用。注意的是,由软件用于读取CamData文件的功能可以读取大多数存在的文件,因此第二部分和第三部分中的任何未知参数都可以简单地从文件中省略。
表2.CamData文件的参数
在一些实施例中,targetPosition参数可以基于图17中所示的世界坐标系。汽车的中心不一定是x-y轴的原点,但是相机校准操作可以假定轴方向如图所示。具体而言,在一些实施例中,-y轴方向可以从汽车的前方向前延伸。
4.1.3ViewSpec
ViewSpec描述了虚拟相机的期望视点。“生成”该视图可能涉及产生用于渲染ViewSpec中指定的视图的BlockInfo结构的文件。在一些实施例中,ViewSpec文件可以仅在视图生成处理中使用,并且可能不需要被实时渲染系统使用。
图18中示出了示例ViewSpec文件,并且该文件包括表1中描述的参数。描述视图朝向的角度参数参考汽车的前轴,如图19中所示。
表3.ViewSpec文件的参数
4.2软件组件
用于任何世界视图系统的模型软件可以包括两个库和许多命令行应用。这些库可以实现视图生成和渲染算法的许多功能。应用可以调用库的函数并添加代码来处理高级操作序列和文件I/O。
4.2.1OpenCYTM库
OpenCVTM是支持计算机视觉应用的开源库函数。它以打包形式提供给所有标准平台,并提供核心原始数据类型和函数集合。例如,所有涉及射影几何的运算都用C++表达为简单的数学运算,即使它们表示涉及向量和矩阵的线性代数方程。一些函数,诸如用于找到每个视图块的仿射变换的奇异值分解(SVD)算法,非常复杂,OpenCVTM的使用可能对模型的高效实现是有利的。在一些实施例中,任何世界视图模型使用OpenCVTM的C++API版本2.4。
4.2.2 ArthroCV库
在一些实施例中,ArthroCV库包含模型算法的许多函数。它给出了C++应用编程接口(API),使应用可以访问比OpenCVTM中更原始的函数更特定于任何世界视图应用的公共函数。例如,等角(鱼眼)相机模型和针孔相机模型(第3.1.1节)之间的源图像样本的映射可以是可以作为ArthroCVTM API的一部分的C++类。
ArthroCVTM库可以作为单个共享对象库、用于WindowsTM的arthrocv.dll或用于LinuxTM的libarthrocv.so提供。
4.2.3去马赛克
在一些实施例中,去马赛克程序可以是独立程序,以转换由单CCD相机捕获的图像。该函数的输入可以是具有颜色样本的拜耳马赛克的原始二进制图像。作为一个示例,如果原始二进制图像每个像素包含10位,那么输出可以是每个像素文件32位,每个像素位置具有10位红色、绿色和蓝色样本。
在一些实施例中,为了转换原始图像文件,可以通过以下方式调用去马赛克程序:
demosaic-image blockinfo_image_alignment.bin bayerInputFile.rawoutfile.raw
其中,“blockinfo_image_alignment.bin”包含单个二进制BlockInfo参数集,该参数集描述了包括拜耳图案对准的源图像。
可以提供shell脚本,该shell脚本用附加的开源实用程序包装去马赛克程序,以与其它标准图像格式(诸如,便携式灰度图(.pgm)和便携式图形格式(.png))相互转换。
4.2.4相机校准
根据一些实施例,以上在第3.1.2节中描述了相机校准函数。相机校准的结果可能是旋转矩阵和平移向量,它们告诉相机在世界坐标系中的位置和朝向。
相机校准可以在将每个相机安装在汽车上之后对每个相机执行一次。包含棋盘校准目标的相机可以捕获图像。相机和目标的参数可以在CamData配置文件的第1节中指定,如第4.1.2节和表2中所述。
随后,可以通过以下方式调用相机校准:
camera_calibrate cam0.json
根据一些实施例,程序可以在第2节和第3节中用更新的参数重写相机配置文件。在一些实施例中,它还可以显示两个图像以验证正确的操作。第一图像的示例在图20中示出,并且可以是原始源图像,具有鱼眼镜头视场的圆形边界的标识。软件可以自动发现圆形图像的中心和半径,其可以用来在等角(鱼眼)相机模型和图像数据的理想针孔相机模型表示之间创建准确的映射。第一验证图像还可以显示在CamData配置文件中指定的排除边界。
第二验证图像的示例在图21中图示,并且示出了在已校正鱼眼镜头失真之后的校准目标。如图所示,棋盘图像的角在图像中被自动检测到。校准程序将这些角用于求解相机的位置和朝向。
camera_calibrate程序可以报告重投影误差,该重投影误差是被重投影回源图像的世界坐标系中的棋盘角位置的平均误差。重投影误差的单位可以是源图像的针孔相机表示中的像素。在一些实施例中,可能期望大约1个像素或更小的重投影误差。
多个相机可以用于形成用于任意视图的混合视图图像。视图生成算法可以取决于相机在校准之后彼此维持固定的相对位置和朝向。因此,可能期望在汽车停放在地面上的一个位置时捕获所有相机的校准图像。
4.2.5视图生成
在一些实施例中,单个程序包含在第3.1.3-3.1.6节中描述的所有视图生成操作。输入可以是ViewSpec配置文件(例如,参见4.1.3),该文件提供了虚拟相机的位置、朝向、尺寸和视场。输出可以是包含为渲染图像中的每个16x16图块设置的BlockInfo参数的文件。该文件可以是实时视图渲染系统的输入。
BlockInfo参数集可以参考来自命令行上提供的那么多相机(例如,多达四个)的源图像数据。例如,为了为给定视图创建BlockInfo参数的文件,可以使用以下命令:
view_generate top_down_view.json cam1_front.json cam2_rear.json cam3_left.json cam4_right.json
其中,view0.json是ViewSpec配置文件,并且命令行上的其它文件是CamData配置文件。可以指定任意数量的CamData配置文件(在这个实施例中,多达四个),并且它们在命令行上的顺序可以是任意的。
在一些实施例中,当view_generate运行时,它示出了与每个CamData配置文件对应的源图像,其具有输出视图图像中使用的块的覆盖。图13A-B示出了这些带注释的源图像的示例。如图所示,浅色块被映射到视图图像,灰色块与来自另一个源图像的块混合并映射到视图图像,并且褪色的黑色块不用于视图图像,因为可以使用更好的源图像代替。一系列标记指示图13A和图13B的两个源图像之间的混合区域。
4.2.6视图渲染
在一些实施例中,view_render程序被用作在第3.2节中描述的整个渲染处理的模型实现。
由view_generate产生的BlockInfo参数文件可以是如何从多个相机源渲染给定视图的完整的逐块描述。命令行上利用的唯一附加数据可以是源图像本身的文件名及其cameraId值。
示例命令行是:
view_render blockinfo.json 1front_c.png 2rear_c.png 3left_c.png4right_c.png
其中第一自变量可以是由view_generate产生的BlockInfo参数文件。接下来的自变量是在该生成的视图中使用的所有相机的{camerald,sourceImage}对。
图像文件名可能不需要与提供用于校准的文件相同,因为该功能模型可能用于通过从以视频速率运行的相机实时捕获来提供多达四个源图像的系统。但是,可能期望每个图像文件与与由相同相机捕获的校准图像相同的camerald相关联。
图22是渲染视图的示例。图像中心中的缺失块是由于汽车本身挡住了来自四个相机的地面视线所致。图像的其余部分可以由来自三个相机的数据组成,它们之间具有混合过渡。即使可能已在命令行上指定了第四个相机,但如果它们的图像样本不在ViewSpec配置描述的视场内,那么可能无法在渲染图像中使用这些图像样本。
5.并行处理器系统设计
根据一些实施例,以下各节概述了任何世界视图系统和方法的视图渲染部分的设计。该设计可以基于包括四个GigE Vision相机输入和用于DVI显示器的直接输出的HyperXTM开发系统中的HyperXTM hx3100处理器,或者它可以基于另一种类型的并行处理硬件系统。
5.1功能分析
功能分析可以考虑视图渲染算法的计算操作,如上面第3.2节所述。可以针对每个功能估计基本操作的数量,然后可以提供关于可以利用多少处理器周期来执行该功能的估计。通过了解用于处理视图图像的一个块的每个功能的周期计数,可以知道系统可以利用多少个处理器元素实时运行以产生以特定帧速率(例如,每秒30或60帧)的特定分辨率(例如,1440x900或其它分辨率)的视图图像。
根据一些实施例,在以下各节中描述了任何世界视图渲染功能的主要计算步骤。根据以下示例规范集,该处理中每个步骤的块吞吐量要求可以基于目标视图图像尺寸和帧速率。
5.1.1去马赛克
在一些实施例中,可以将两个函数核心用于去马赛克算法(例如,如第3.2.1节所述):一个用于在拜耳马赛克图案中的绿色位置插值红色和蓝色像素,并且第二个用于在蓝色/红色位置插值绿色和红色/蓝色像素。
接下来,可以假定去马赛克处理的块尺寸。这可以是用于渲染单个输出16x16块的源图像数据的边界框。该分析假定每个块的最坏情况尺寸为1000个样本。回想一下,如果边界框的尺寸在1000到4000个样本之间,那么可以使用替代的下采样去马赛克算法。
5.1.2扭曲器
如第3.2.2节中所述,扭曲函数可以从源图像样本的矩形块中计算16x16视图块的256个像素。该函数的两个部分可以包括应用仿射变换以获得输入样本块中的(非整数)位置,以及基于该位置对输入样本进行插值。还可以在扭曲器中计算块平均红色、绿色和蓝色值,以供光度对准算法使用。
5.1.3光度对准
光度对准算法(第3.2.3节)可以在两个单元格中实现,一个用于增益估计,另一个可以是增益校正,其可以应用增益值来调整颜色样本值。增益估计单元格计算平方差之和,并应用阈值函数使匹配不良的块不合格。
在每一帧的末尾,增益估计单元格还求解方程组,该方程组涉及所存储的差值平方和。
5.1.4混合
混合视图块可以是具有两个贡献样本值的源图像的视图块。在该示例实施例中,假定20%的视图图像块被混合,并且其余的80%未被混合。混合计算只能应用于混合视图块。其它块可以简单地从单个输入复制到输出。
5.2体系架构考虑
本节列出了可以对系统设计施加限制的各种体系架构考虑,包括硬件平台的详细信息和高级功能规范。在一些实施例中,任何世界视图系统可以执行其功能并满足这些考虑所描述的要求。这些考虑以及上一节中的功能分析可能是决定系统设计性能的重要因素。
5.2.1高级功能规范
作为体系架构考虑的高级功能规范可以是那些确定系统的目标输入/输出和计算吞吐量的规范。在一些实施例中,可以在任何世界视图系统要求文档中建立以下规范。
演示系统可以提供显示用户选择的车辆视图的视频监视器。该显示器的标称分辨率为1440x900,并且可以使用DVI信号接口。
演示系统可以以至少30fps的速率从相机捕获图像,并以相同的速率将帧处理到显示器。显示器的实际刷新速率可能更高,但是系统处理的内容的更新速率可以至少为30fps。
5.2.2硬件平台
在一些实施例中,用于任何世界视图应用的计算平台可以是配备有三个标记为芯片1、芯片2和芯片3的HyperXTM处理器的HyperXTM开发系统。芯片1和2可以各自在具有千兆位以太网接口的板上提供,包括HyperXTM单元格形式的软件驱动程序,以发送和接收UDP/IP数据包,如图23中所示。软件I/O驱动程序单元格可以支持GigE Vision图片传输协议,并且每个芯片可以同时从两个相机接收视频。
图19.芯片1和2资源
在一些实施例中,芯片1和2可以各自具有这些附加能力和资源:
1.四个外部存储器,每个外部存储器至少为128MB大小
2.到左邻居的两个LVDS I/O接口,原始带宽为125MW/s
3.到右邻居的两个LVDS I/O接口,原始带宽为125MW/s
4.核心时钟设置为500MHz
5.100个处理器元件和121个数据存储器路由器,少于用于千兆位以太网驱动程序单元格的处理器元件和数据存储器路由器。
图24中所示的第三芯片被提供在具有用于视频输出的DVI接口的板上。可以提供软件视频输出驱动程序单元格,以允许从运行在芯片3上的HyperXTM应用通过板上的硬件线路驱动程序直接连接到标准DVI计算机监视器。
在一些实施例中,芯片3可以具有以下附加能力和资源:
1.三个可用的外部存储器,每个外部存储器至少为128MB大小
2.到右邻居的两个LVDSI/O接口,原始带宽为125MW/s
3.核心时钟设置为425MHz(该速率用于1440x900x60fps DVI输出)
4.100个处理器元件和121个数据存储器路由器,少于用于DVI输出驱动程序单元格的处理器元件和数据存储器路由器
6.芯片设计
先前的各节描述了用于以视频速率实时渲染视图图像的任何世界视图系统的系统设计。第3.2节描述了渲染系统可以执行的算法,并且第4.2.6节为其提供了软件模型。第5.2.1节描述了高级性能规范,并且在5.2.2节中描述了目标平台。
在各种实施例中,针对该应用的系统设计可以有不止一种解决方案,并且不同的解决方案的实现细节可以不同。本节中描述的特定解决方案旨在满足规范要求,并支持单元格复用和设计可维护性的一般工程化目标。
6.1三芯片设计
在一些实施例中,由开发平台施加的体系架构约束可能是从两个不同芯片中的每个芯片上的两个相机接收视频。这可以使在两个芯片之间平均划分渲染处理的主要计算工作变得很方便。在一些实施例中,这可以通过高级工作负载分区来实现,如图25中所示。如图所示,从右到左,可以在标记为HX1和HX2的芯片1和芯片2中接收和处理视频。每个芯片上的处理可以利用对所有四个相机的视频样本的访问,因此两个芯片可以交换它们未直接接收的视频数据。
标记为HX3的第三芯片可以从前两个芯片接收部分处理的视图块,并且可以完成渲染过程并将视频帧发送到DVI显示器。
在以下各节中将更详细地描述三个芯片的内部设计。
6.2芯片1和2设计
图26图示了根据一些实施例的芯片1和2的数据流设计。如图所示,相机数据的GigE Vision输入位于图的右上方。处理网络可以包括以下元素中的一个或多个元素:
1.两条并行路径用于解包并将输入图像写入到DDR外部存储器
2.MemSvr3和MemSvrExt3单元格允许将四个相机流存储在外部存储器中,其中两个来自本地以太网接口,另外两个来自另一个芯片
3.BlockInfo参数存储在不同的DDR外部存储器中并由生成单元格读取
4.InputReader读取如在每个块的每个BlockInfo参数中指定的边界框
5.去马赛克组包括许多去马赛克单元格
6.扭曲器组包括多个扭曲器单元格
7.在一些通信信道上包括FIFO,以吸收由于不同尺寸的BlockInfo而引起的块处理速率的变化。
8.来自芯片1和芯片2的输出可以是发送到芯片3的视图图像块的流。
6.2.1去马赛克组
demosaic_group单元格可以是具有两个输入和一个输出的单个单元格。在去马赛克组内,有许多去马赛克单元格和其它专用于工作负载分配的PE。根据一些实施例,demosaic_group单元格的内部结构在图27中示出。扭曲器组除了只有单个输入外可以具有类似的结构。
6.3芯片3设计
芯片3从芯片1和芯片2接收视图块的流,如图28中所示。它们可以被合并为单个流,使得可以将输出图像中的所有视图块一起考虑用于光度对准。对芯片3上的单元格的功能分析表明,每个功能可能不需要多于一个或两个PE(参见第5.1.3和5.1.4节)。
光度对准复合单元格的输出可以是其最终形式的视图块的流。可以将这些块写入到外部存储器中的帧缓冲器。然后可以从外部存储器逐行读取完成的渲染帧,以通过DVI输出单元格进行显示。
6.3.1光度对准复合单元格
在一些实施例中,芯片3中的所有图像处理功能可以被光度对准复合单元格包围,如图29中所示。功能可以包括第3.2.3、3.2.4、5.1.3和5.1.4节中所述的增益估计、增益校正和混合。
6.4系统设计目标
可能存在不止一个系统设计,该系统设计可以为任何世界视图系统产生渲染的视图图像。选择前面的图和段落中描述的特定设计以满足许多常规设计目标,这些目标对于基于HyperXTM技术的大多数高度并行的实现而言是公共的。但是,这些特定设计参数仅旨在说明,并且应理解为利用其它设计参数和系统来实现本文描述的实施例是在本公开的范围内。
6.4.1本地化
在前面的各节中执行的不同功能可以被划分为不同的单元格。一些单元格,诸如外部存储器接口单元格,可以主要用于数据移动,而非计算。本地化可以是所选择的设计分解(例如,算法在许多单元格之间的划分)的重要目标。本地化可以被认为是指每个单元格可以在不知道设计中其它单元格正在执行的功能的情况下执行其功能。可以在其输入上接收单元格可以用来执行其任务的唯一信息,并且单元格可以仅发送要用于下游单元格执行其任务的工作产品。
可以观察到任何世界视图系统中的本地化示例,因为设计中的许多单元格在处理视图块时不知道其工作负载属于哪个帧。每个块的功能可能相同。其它单元格可能负责跟踪帧边界并根据需要更新外部存储器中的帧指针。
系统中单元格的界面可以证明设计中是否存在良好的本地化。如果每个单元格的接口尽可能简单,那么本地化可能良好。与其它一些设计分解相比,简单的接口可能具有少量的输入和输出端口,并且每个工作负载的输入和输出数据尺寸最小。
着重于本地化的设计可以使得简单的单元格往往在设计和其它设计中重用。根据各种实施例,去马赛克和扭曲器组是设计内单元格重用的示例,并且外部存储器接口是可以在许多设计中重用的单元格的示例。
6.4.2前馈
在一些实施例中,可以利用前馈设计,其可以被理解为是指设计中的每个单元格从上游单元格接收数据、对数据执行其功能,然后将结果发送到下游单元格。该设计可能没有显式反馈通信,诸如将数据发送回设计中的上游单元格的单元格。
纯粹前馈的设计可以具有用于流程控制和性能的简单模型。任何世界视图系统的期望吞吐量可以是每秒30帧,这可以转换成特定的块处理速率。如果设计中的每个单元格都能够以期望的速率执行其功能,那么只要设计中没有反馈路径,整个设计也可以达到性能目标。流程控制模型可以定位在每个单独的单元格内;每个单元格可以简单地依靠其上游邻居以期望的速率向其提供工作负载,并依靠下游邻居以期望的速率接受其产品。
6.4.3分布式控制
在一些实施例中,分布式控制的原理对于基于HyperXTM技术的并行处理应用以扩展到任意规模的计算可能是有利的。分布式控制可以被认为是指单元格仅从上游邻居接收其指令,并且仅向下游邻居发送指令。在一些实施例中,这可能是本地化的一个方面。
分布式控制的反面是全局控制,其中一侧上可能存在控制器单元格,该控制器单元格正在通过星形或其它类型的通信拓扑向设计中的各种其它单元格发送指令。分布式控制的问题可能是同步。例如,全局控制单元格应何时发送指令?设计的一部分可能正在处理视频帧中与另一个部分所处理的不同的位置,这是因为它们之间的处理流水线所致。使用分布式控制,设计内的时间偏移可能不那么重要,并且可能不需要加以考虑。
在任何世界视图系统中的分布式控制的示例可以在两组帧缓冲器中看到,一组用于源图像,并且另一组用于显示图像。从一帧前进到下一帧的决定可以在写入器和读取器单元格中本地处理。有利的是,在一些实施例中,这可以在不协调源图像缓冲器和显示图像缓冲器之间的帧同步的情况下实现。
MPS系统概述
根据一些实施例,以下段落提供了关于用于多处理器系统(MPS)的硬件配置的附加细节,该多处理器系统诸如HyperXTM体系架构或另一种类型的MPS。
描述了多处理器系统(MPS)和相关联方法的各种实施例。多处理器系统(MPS)可以被定义为包括多个处理元件(PE)的系统。MPS可以具有散布在PE之间的多个存储器,或者可替代地可以具有单个共享存储器。如本文所使用的,术语“处理元件”是指处理器或CPU(中央处理单元)、微处理器或处理器核心。虽然MPS可以包括两个或更多个PE中的任何一个,但要注意的是,一些MPS可以包括比传统的计算机系统多得多的PE,传统的计算机系统通常仅包含一个通用处理器(GPP)或几个GPP。例如,一些MPS可以包括4、8、16、32或64个PE(其它示例包括例如数十个、数百个甚至数千个PE)。在一些实施例中,适用于大型MPS的PE可能比传统计算机系统使用的通用处理器具有更高的能源效率,这是因为它们具有用于低功耗的特殊构造。
MPS还可以包括将PE和/或存储器互连的互连网络(IN)。PE和存储器可以以一维、两维、三维或更多维互连,包括圆形维度(例如,环路(loop)或环(ring))。可以将维度更高的MPS映射到维度更小的制造介质上。例如,可以将具有四维(4D)超立方体形状的MPS映射到硅集成电路(IC)芯片的3D堆栈上,或映射到单个2D芯片上,甚至映射到计算单元的1D线上。同样,低维MPS可以映射到更高维介质。例如,计算单元的1D线可以呈蛇形布置在IC芯片的2D平面上,或盘绕成3D芯片堆叠。MPS可以包括多种类型的计算单元以及处理器和存储器的穿插布置。从广义上讲,MPS还包括MPS的层次结构或嵌套布置,尤其是由互连的IC芯片组成的MPS,其中IC芯片包含一个或多个MPS,它们也可能具有更深的层次结构。
如本文所使用,术语MPS既涵盖相对同质的处理器集合,也涵盖通用的异构集合以及集成在所谓的“平台IC”芯片上的专用处理器。平台IC芯片可以包含从几个到很多的处理器,通常与共享存储器以及可能片上网络互连。MPS和“平台IC”芯片之间可能有差异,也可能没有差异。但是,可以销售“平台IC”芯片以解决特定垂直市场中的特定技术要求。
一般而言,用于MPS的存储器可以按层次结构进行组织,其中快速存储器位于顶部,速度较慢但容量较高的存储器在层次结构向下的每一步中。在MPS中,位于层次结构顶部的支持存储器(SM)可以位于每个PE附近。每个支持存储器可以专用于仅保持指令或仅保持数据。特定PE的支持存储器可以是该PE专用的,或者与其它PE共享。
在存储器层次结构的更下方,可以有更大的共享存储器,诸如半导体同步动态随机存取存储器(SDRAM),其比特容量比与每个PE相邻的支持存储器的容量大很多倍。SDRAM可以位于与PE和支持存储器分开的一个或多个IC芯片上,以专门其制造。在存储器层次结构的更下方,可能还有其它类型的存储器,诸如闪存、磁盘和光盘。
MPS可以用软件程序来编程以完成特定功能。每个功能可以由MPS中的一个或多个PE执行。通常,多个程序可以在MPS上彼此并发执行。通过采用并行处理技术,程序可以一起执行并彼此通信以执行更复杂的功能或更快地执行更简单的功能。PE之间的这种协调在本文中称为协作处理。
MPS可以足够快地执行应用或程序,以使其可以比相关联的数据源更快地接受输入数据和命令,并且命令可以提供它们并且可以提供具有足够低以致可以被忽略的时延的结果。这样的应用被称为实时没有延迟的操作,或者被称为“实时应用”。相关联的输入数据(或命令)可以被称为“实时数据”(或“实时”命令)。例如,MPS可以经由输入信号接收实时数据。应用、程序或功能中的一个或多个可以处理输入信号,并可能基于一个或多个程序产生具有经修改或附加的实时数据的输出信号。
图30-MPS框图和概述
图30是图示多处理器系统(MPS)的一个实施例的框图。在所示的实施例中,MPS 10包括多个处理器元件(PE)和多个数据存储器路由器(DMR),它们也可以被称为动态可配置的通信器或动态可配置的通信元件,其耦合以彼此传送数据和指令。如本文所使用的,PE也可以被称为PE节点,并且DMR也可以被称为DMR节点。
处理系统(MPS)10可以用于当前使用GPMC、DSP、FPGA或ASIC的各种系统和应用中的任何一种。因此,例如,处理系统10可以用在各种类型的计算机系统或需要计算的其它设备中的任何一种中。在一个预期的实施例中,处理系统10用作数字视频显示系统中的信号处理设备。
在一个实施例中,PE可以包括被配置用于操纵数据的一个或多个算术逻辑单元(ALU)、被配置用于控制ALU的一个或多个指令处理单元(IPU)、被配置用于保持指令或数据的一个或多个存储器,以及各种复用器和解码器。这样的实施例可以包括多个端口(“处理器端口”),其中一些可以被配置用于连接到DMR,而其它可以被配置用于连接到其它PE。
在一个实施例中,DMR可以包括被配置为保持数据和指令的一个或多个随机存取存储器(RAM)、可配置控制器、诸如交叉开关之类的网络交换机、寄存器和多路复用器。这样的实施例可以包括多个端口,其中一些端口可以被配置用于连接到PE(本文称为PE型端口),并且其它端口可以被配置用于连接到DMR(本文称为DMR型端口)。注意的是,对于任何给定的端口,无论是配置用于连接到DMR或PE还是从DMR或PE连接,在特定的时钟周期内可通过该给定端口传输的数据量在各种实施例中可能不同。例如,在一个实施例中,给定端口可以被配置为每个时钟周期传输一个数据字,而在另一个实施例中,给定端口可以被配置为每个时钟周期传输多个数据字。在又一个实施例中,给定端口可以采用诸如时分多路复用的技术来在多个时钟周期上传输一个数据字,从而减少包括该端口的物理连接的数量。
在MPS 10的一个实施例中,每个PE可以包括为指令保留的小的本地存储器,并且可以包括非常少的本地数据存储。在这样的实施例中,邻近每个PE的DMR可以被配置为向给定的PE提供操作数。在特定实施例中,对于许多PE指令,给定的PE可以在一个时钟周期中从相邻的DMR读取操作数、执行ALU操作,并将ALU结果存储到给定的相邻的DMR。因此,在紧接着执行之后的一个时钟周期内,来自一个PE的ALU结果可以用于其它几个PE。以这种方式产生结果可以使相邻PE的执行紧密协调或“紧密耦合”。
如本文所使用的,从给定的DMR或PE的角度来看,相邻的DMR或PE是指可以在特定的时延内从给定的DMR或PE访问的DMR或PE。在一些实施例中,定义相邻关系的程度的时延可以例如取决于诸如时钟速度的因素而变化。此外,在一些实施例中,可以定义多个相邻度,该多个相邻度可以对应于不同的访问时延。例如,在一个实施例中,“最近邻居”可以被定义为可以在数据被请求的相同时钟周期期间提供数据的设备,“最近邻居”可以被定义为可以在数据被请求之后的一个时钟周期内提供数据的设备,依此类推。在其它实施例中,可以预期,可以使用其它度量来量化相邻关系。
在给定的MPS实施例中,一些DMR和PE在逻辑上可以与其它DMR和PE相邻。如本文所使用的,“在逻辑上相邻”是指两个设备之间的关系,诸如一个DMR和另一个DMR,或一个DMR和一个PE,使得一个设备的一个或多个端口直接连接到其它设备的相应端口,而无需通过中间的DMR或PE。此外,在给定的MPS实施例中,一些DMR和PE可以在物理上与其它DMR和PE相邻。如本文所使用的,“物理上相邻”是指两个设备(诸如一个DMR和另一个DMR,或者一个DMR和一个PE)之间的关系,使得没有其它DMR或PE物理上位于该两个设备之间。
在一些MPS实施例中,逻辑上和/或物理上相邻的诸如DMR和PE之类的设备也是相邻或邻居设备。但是,应该注意的是,在一些实施例中,给定的设备之间的逻辑和/或物理相邻并不意味着需要给定设备之间的相邻关系或特定程度的相邻关系。例如,在一个实施例中,一个DMR可以直接连接到相距相当远的另一个DMR。这样的一对可能在逻辑上相邻但在物理上不相邻,并且从一个DMR到另一个DMR的信号传播时间可能太大而无法满足邻居的时延要求。类似地,在一个实施例中,一个DMR可以在物理上与另一个DMR相邻,但是不直接与其连接,因此在逻辑上不与其相邻。从一个DMR到另一个DMR的访问可能会遍历一个或多个中间节点,并且所产生的传输延迟可能太大而无法满足邻居的时延要求。
取决于MPS 10的给定实施例的技术和实现,可以将特定数量的DMR的多个端口以及DMR存储器的尺寸与DMR的总体期望执行速度和尺寸进行平衡。例如,一个DMR实施例可以包括4个PE型端口、4个DMR型端口和4K字的存储器。这样的DMR实施例可以被配置为提供直接存储器访问(DMA)机制。DMA机制可以允许给定的DMR在PE正在计算结果的同时向其它DMR或从其它DMR或向MPS 10外部的位置或从MPS 10外部的位置高效地复制数据。
在MPS 10的一个实施例中,可以以几种不同方式之一在DMR之间传输数据和指令。可以将串行总线提供给MPS 10中的所有存储器;这样的总线可以用于从外部存储器初始化MPS 10或支持对MPS数据结构的测试。对于短距离传输,可以对给定的PE进行编程,以直接将数据移入或移出其邻居DMR。为了在更长的距离上传输数据或指令,可以在DMR的网络中动态创建和销毁通信通路。
为了这种更长距离的数据传输,MPS 10内的互连DMR网络可以构成用于通信通路的交换路由架构(SRF)。在这样的实施例中,可能存在至少两种用于管理SRF中的通信通路的方法。第一种方法是通过全局编程,其中可以通过软件控制(例如,由人类程序员或具有路由能力的编译器)选择路径,并且可以将指令编码到DMR配置控制器中以对交叉开关进行适当编程。为了创建通路,可以使用特定的路由功能对沿着通路的每个DMR进行显式编程。在频繁创建和销毁通路的动态环境中,可能需要大量的交叉开关配置代码,其存储可能进而消耗潜在有限的DMR RAM资源。
用于管理通信通路的第二种方法被称为“虫洞路由”。为了实现虫孔路由,每个DMR可以包括导向功能集合和通过SRF停止和重启字(被称为消息)序列的进展的机制。因为导向功能可能会被所有通信通路共同使用和重复使用,因此可能占用DMR RAM的配置代码量可能比上述全局编程方法小得多。对于虫洞路由方法,软件控制仍可以用于选择要由通路使用的特定链接,但是通路创建(本文也称为建立)和破坏/链接释放(本文也称为“拆除”)的处理可以用最少的软件干预在硬件中实现。
为了防止通路上的数据字的潜在丢失,MPS 10的实施例可以实现沿着通路在接收器和发送器之间的流程控制。流程控制是指可以在发送器的对应接收器不再接收数据时停止发送器,并在发送器的对应接收器准备好接收数据时重启发送器的机制。由于停止和重启通路上的数据流程与在虫洞路由中停止和重启消息的进度有许多相似之处,因此可以将两者组合为集成方案。
在一个实施例中,MPS 10可以包括以均匀阵列连接在一起的多个PE和DMR,这些PE可以是相同的,并且这些DMR可以是相同的。在均匀阵列中,大多数PE可以是相同的,并且大多数PE中的每一个可以具有与DMR相同数量的连接。而且,在均匀阵列中,大多数DMR可以是相同的,并且大多数DMR中的每一个可以具有与其它DMR和PE相同数量的连接。在一个MPS实施例中,PE和DMR可以以基本上同质的方式散布。如本文所使用的,基本上同质的散布是指其中PE与DMR的比率在阵列的大部分子区域上一致的布置。
以基本同质的方式布置的均匀阵列可以具有某些有利的特性,诸如提供可预测的互连模式并使软件模块能够在整个阵列上重复使用。在一个实施例中,均匀的阵列可以使得能够设计和测试PE和DMR的少量实例。然后,可以通过制造包括DMR和PE的单元,然后多次重复或“平铺(tiling)”这种单元来组装系统。这种方法可以通过重复使用公共系统元素来降低设计和测试成本。
还应该注意的是,PE和DMR的可配置性质可以允许将各种各样的非均匀行为编程为在物理均匀的阵列上发生。但是,在替代实施例中,MPS 10也可以形成有非均匀的DMR和PE单元,其可以以规则或不规则的阵列或者甚至以随机的方式连接。在一个实施例中,PE和DMR互连可以被实现为例如集成电路(IC)、陶瓷基板或印刷电路板(PCB)上的电路迹线。但是,在替代实施例中,此类互连可以是各种微型通信链路中的任何一种,诸如例如用于电磁能(即,无线电或光能)的波导、无线(即,非引导)能量、粒子(诸如电子束),或分子上的势能。
MPS 10可以在单个集成电路上实现。在一个实施例中,多个MPS集成电路可以组合以产生更大的系统。MPS 10的给定实施例可以使用硅集成电路(Si-IC)技术来实现,并且可以采用各种特征来考虑这种技术的特定特性。例如,可以将Si-IC芯片上的电路限制在薄平面上。相应地,MPS 10的给定实施例可以采用PE和DMR的二维阵列,诸如图30中所示。但是,可以预期包括PE和DMR的不同布置的替代MPS实施例。
此外,Si-IC芯片上的可用布线密度可能远高于此类芯片之间的布线密度,并且每个芯片可能具有专用输入/输出(I/O)电路的周边以对接片上信号和片外信号。相应地,MPS10的给定实施例可以采用稍微不均匀的阵列,该阵列由芯片核心中的PE和DMR的均匀阵列以及沿着芯片周边的经修改的PE/DMR单元组成。但是,可以预期包括均匀和经修改的PE/DMR单元的不同布置和组合的替代MPS实施例。
此外,由Si-IC电路执行的计算操作可能产生热量,该热量可以通过IC封装被去除。增加的IC封装可能需要附加的空间,并且通过IC封装及其周围的互连可能会导致与路径长度成比例的延迟。因此,如上所述,可以通过互连多个芯片来构造非常大的MPS。这样的多芯片MPS实施例的编程可以考虑芯片间信号延迟比芯片内延迟长得多。
在给定的Si-IC MPS 10实施例中,可以在单个芯片上实现的PE和DMR的最大数量可以通过可能用给定的Si-IC技术实现的小型化以及每个PE和DMR的复杂性来确定。在这样的MPS实施例中,可以在达到计算吞吐量的目标水平的情况下使PE和DMR的电路复杂度最小化。这种最小化的PE和DMR在本文中可以被称为被简化(streamlined)。在一个MPS 10实施例中,PE的吞吐量的目标水平可以与以相同Si-IC技术制造的最佳数字信号处理器(DSP)的算术执行单元的目标水平相当。但是,可以预期可以其中使用用于目标PE吞吐量的替代参考的其它MPS实施例。
在一些实施例中,MPS 10可以采用DSP和FPGA体系架构的最佳特征。像DSP一样,MPS 10可以是具有多个处理单元和片上存储器的可编程芯片。但是,相对于DSP,MPS处理单元可以被简化、可以有更多的处理单元,并且它们可以以新颖的方式互连,以使它们之间的数据移动以及芯片上和芯片外的数据移动的带宽最大化。具有比DSP多的处理单元可以允许MPS 10每单位时间进行更多的乘法运算,并且简化的处理单元可以使能耗最小化。许多具有内部并行性的DSP可能是面向总线的体系架构。在一些实施例中,MPS 10可以不包括总线,而是可以包括嵌入在SRF中诸如在DMR中的相邻共享本地存储器,其可以提供比面向总线的体系架构高得多的总带宽。
与FPGA方法相比,一些MPS实施例可能粒度更粗糙。例如,在一个MPS实施例中,如果操作使用自然字长的倍数的数据来执行,那么操作可以具有自然字长(例如,16位)并且计算可以是最高效的。在一些MPS实施例中,PE和DMR可能比FPGA中实现的等效结构更密集,这可能导致平均布线长度更短、布线电容更低以及能耗更少。与FPGA实现相比,在一些MPS实施例中,MPS中的每个ALU可以是处理器(即,PE)的一部分,这可以促进操作数的获取以及将结果写回到DMR中的周围快速存储器。针对ALU、取回和写回操作的时序和时钟偏斜问题可以在IC芯片设计期间解决一次,而不必像在典型的FPGA实现那样在每个新应用中都需要重新解决。
MPS拓扑和通信
图30中所示的MPS 10通过在PE之间散布DMR可以为PE提供到快速存储器的充足连接,如图所示。相对于分离的(即,非散布的)布置,这样的布置可以减少给定的PE访问DMR中的存储器所需的时间,并且在本文中可以被称为散布的网格布置。在图3的实施例中,PE与DMR的比率大约为1:1。但是,预期了可以包括PE与DMR的不同比率的其它MPS实施例。
在图3中未明确示出DMR与PE之间的连接,因为使用不同类型和数量的连接可以存在许多可能的连接方案。
图31-MPS连接方案
图31是图示MPS连接方案的一个实施例的框图。MPS连接方案20包括多个DMR和PE,并且可以说明图30的MPS的一部分。在MPS连接方案20中,每个PE连接到四个邻居DMR,而每个DMR连接到四个邻居PE以及四个邻居DMR。因此,MPS连接方案20可以说明上面讨论的PlanarA连接方案。
为了在MPS连接方案20中支持高带宽端口,端口之间的连接(PE到DMR或DMR到DMR)可以是短的(即,限于邻居)和字宽的,这意味着连接的数据部分中的电导体(线)的数量可以与ALU操作数中使用的位数相同。PE到DMR连接可以包括地址线。DMR到DMR连接可以不一定具有地址线,但可以具有用于流程控制的线。
通过保持PE节点简单,可以以适度的成本在单个VLSIIC上放置大的阵列(例如,在一个MPS实施例中,16行乘以16列=256PE)。合适的VLSI技术可以包括但不限于互补金属氧化物半导体(CMOS)场效应晶体管,在硅或其它半导体中带有或不带有双极晶体管。
在一些MPS实施例中,节点之间的通信可以在程序员的控制下。在MPS中,每个PE可以与相邻的DMR传送数据/指令,并且可选地通过那些DMR与其它DMR和PE通信。这对于短距离传输少量数据非常有效。但是,对于更大的数据块或更长的距离,使用DMA引擎移动数据更高效,从而释放PE来执行ALU操作。
对于更长距离的块移动,一些MPS实施例可以提供用于在不涉及PE的情况下在DMR之间进行存储器到存储器的传输的部件。PE可以通过与此类端口相关联的特殊SM地址间接访问邻居DMR中的DMR类型的端口。这可以允许PE创建用于发送消息的新通路,并且随后将这种通路拆除,或者可替代地接收消息。PE还可以将要传输的数据块保存在邻居DMR中的SM缓冲器中,然后通过与此类操作相关联的特殊SM地址指示邻居DMR开始DMA操作。这可以允许PE在邻居DMR协调数据的DMA传输时继续其它任务。
MPS的各种实施例可以提供用于执行有用算法的有利环境。关注的算法(例如,用于分析图像数据)可以分解成ALU的流程图。每个流程图可以作为树、晶格或任何任意网络(包括多个反馈/前馈路径)映射到MPS阵列上。通过组合几个PE和DMR,可以扩展一个ALU的有限精度,以获得多字的精确结果。当将流程图映射到MPS时,与节点之间的距离成比例的PE/DMR节点之间的通信延迟可能会升高。另外,如果通信队列很大或者如果重新配置频繁,那么映射可能需要在每个节点处有更多的存储器。这些因素可以通过仔细编程来补偿,这些编程可以考虑通信延迟、排队和重新配置。
收缩(systolic)算法表示可以特别高效地映射到MPS的各种实施例的一类算法。收缩算法已被开发用于矩阵算术、图像处理和信号处理中的各种应用。在收缩算法中,许多处理器可以以同步方式协作以执行困难的计算。在理想的算法实现中,只要需要算法,每个处理器就可以反复执行相同的操作(或小的操作循环),并且数据可以通过相邻连接流经处理器的网络,平衡生产和数据字的消耗。如果然后产生的每个中间结果数据字立即被后续计算消耗,那么所需的存储器量可以被最小化。收缩算法的优势可以包括使用简化的处理器、最小化存储器需求以及使用标准的低成本VLSI技术实现高算术运算速率的能力。
MPS实施例每个芯片可以具有许多处理器和整个MIMD体系架构,其可以被配置为模拟其它类系统(诸如SIMD系统和分布式MIMD系统)的操作。在一些实施例中,MPS可以同时在芯片的不同区域中运行不同的算法。而且,为了节省功率,在一些实施例中,程序员可以选择性地启用和禁用至少一些PE和DMR的时钟。因此,未使用的PE和DMR可以被禁用。
PE/DMR架构
图32是图示MPS架构的一个实施例的更详细的图。在图32中,每个PE都被四个DMR围绕,可以与它们传送存储器请求和消息。每个DMR被四个其它DMR围绕,不同之处在于它靠近其可能与芯片I/O端口相邻的架构边缘。每个DMR可以与相邻的DMR或芯片I/O端口通信以建立通信通路并在所述通路上发送/接收消息。
MPS操作
图33图示了根据图32的体系架构示例的示例MPS,该示例MPS由均匀地散布有9X9阵列的DMR(圆圈)的8X8阵列的PE(正方形)组成。程序可以被编译成分配给PE的任务。第一个示例程序已使用taskID=62进行编译,并已分配给数组左上角的特定PE。变量(u,v,w)在程序源代码中声明为通信变量,并分配给相邻DMR中的特定存储器地址;u和v是用于I/O端口的缓冲器,并且w是与其相关联的DMR进行片上网络通信的缓冲器。第二个示例程序已使用taskID=71进行编译,并已分配给阵列内部的特定PE。变量x是声明的通信变量,并分配给所示的DMR。与变量x相关联的通信通路从其分配的DMR经由其它DMR到达最上一行的I/O端口。如图所示,这两个示例程序彼此不通信,但是可以通过向任务71添加另一个通信变量以及在其DMR和与任务62相邻的DMR中的变量w之间的通路来使它们容易地通信。
***
本公开的实施例可以以各种形式中的任何形式来实现。例如,在一些实施例中,本发明可以被实现为计算机实现的方法、计算机可读存储器介质或计算机系统。在其它实施例中,可以使用一个或多个定制设计的硬件设备(诸如ASIC)来实现本发明。在其它实施例中,可以使用一个或多个可编程硬件元件(诸如FPGA)来实现本发明。
在一些实施例中,非暂态计算机可读存储器介质可以被配置为使得其存储程序指令和/或数据,其中如果程序指令由计算机系统执行,那么该程序指令使计算机系统执行方法,例如,本文描述的方法实施例中的任何一种、或本文描述的方法实施例的任何组合、或本文描述的方法实施例中的任何一种的任何子集、或此类子集的任何组合。
在一些实施例中,计算设备可以被配置为包括处理器(或处理器集合)和存储器介质,其中存储器介质存储程序指令,其中处理器被配置为从存储器介质中读取和执行程序指令,其中程序指令是可执行的,以实现本文描述的各种方法实施例中的任何一种(或本文描述的方法实施例的任何组合、或本文描述的方法实施例中的任何一种的任何子集、或此类子集的任何组合)。设备可以以各种形式中的任何一种来实现。
虽然以上已经描述了具体实施例,但是即使在关于特定特征仅描述单个实施例的情况下,这些实施例也不旨在限制本公开的范围。除非另有说明,否则本公开中提供的特征的示例旨在是说明性的而非限制性的。上面的描述旨在涵盖对于受益于本公开的本领域技术人员将显而易见的这样的替代、修改和等同形式。
本公开的范围包括本文(明确地或隐含地)公开的任何特征或特征的组合或其任何概括,无论其是否减轻了本文所解决的任何或所有问题。因此,可以在本申请(或要求其优先权的申请)的过程期间针对特征的任何这种组合制定新的权利要求。特别地,参考所附权利要求,可以将从属权利要求中的特征与独立权利要求中的特征进行组合,并且可以以任何适当的方式而不是仅以所附权利要求中列举的具体组合来组合相应独立权利要求中的特征。
Claims (18)
1.一种用于渲染输出图像的方法,所述方法包括:
接收多个输入图像,其中所述多个输入图像中的每个输入图像是从不同的第一位置拍摄的;
接收用于渲染所述输出图像的视图规范,其中所述视图规范包括第二位置;
至少部分地基于所述多个输入图像和所述视图规范来渲染所述输出图像,其中所述输出图像包括如从第二位置看到的区域的图像,其中所述第二位置与每个所述第一位置不同,其中至少部分地基于所述多个输入图像和所述视图规范来渲染所述输出图像包括:
确定所述输出图像的多个像素块的块尺寸,其中确定第一块尺寸,使得计算设备的并行计算能力将以目标帧速率或高于目标帧速率渲染包括所述输出图像的输出视频;
对于所述输出图像的多个像素块中的每个像素块:
确定沿着相应像素块的周边的多个像素与所述输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射;以及
对于所述一个或多个输入图像中的每个输入图像:
执行位于所述输入图像的对应像素的周边内的像素到所述输出图像中的相应像素的投影映射,其中所述投影映射包括在沿着相应像素块的周边的所述多个像素与所述输入图像的所述多个对应像素之间的映射的线性外推;以及
在显示器上显示所述输出图像。
2.如权利要求1所述的方法,所述方法还包括:
基于一系列相应的多个输入图像,重复地渲染一系列输出图像,其中所述一系列输出图像被实时地显示在显示器上以产生实时视频。
3.如权利要求1所述的方法,所述方法还包括:
确定投影表面;
其中至少部分地基于所述多个输入图像来渲染所述输出图像包括:将所述多个输入图像的像素映射到所述投影表面上,以及
将所述投影表面上的位置映射到所述输出图像的像素。
4.如权利要求3所述的方法,所述方法还包括:
确定与围绕第一位置的区域相关的测距信息,
其中所述确定投影表面是至少部分地基于测距信息来执行的。
5.如权利要求3所述的方法,其中所述第一位置是车辆上的位置,以及
其中所述投影表面包括围绕车辆的水平部分和包围所述水平部分的垂直部分。
6.如权利要求5所述的方法,所述方法还包括:
至少部分地基于车辆的当前速度来确定水平部分的尺寸,
其中较高的车辆当前速度比较低的车辆当前速度确定更大的水平部分。
7.如权利要求5所述的方法,其中所述投影表面的水平部分包括围绕车辆的椭圆盘,
其中所述投影表面的垂直部分包括包围椭圆盘的椭圆圆柱体,以及
其中所述投影表面还包括中间区域,所述中间区域平滑地联接椭圆盘和椭圆圆柱体。
8.如权利要求7所述的方法,其中所述椭圆盘的主轴从车辆的前部延伸到车辆的后部,以及
其中所述椭圆盘的短轴从车辆的左侧延伸到车辆的右侧。
9.如权利要求3所述的方法,所述方法还包括:
确定围绕第一位置的环境的几何布局,
其中所述投影表面包括近似围绕第一位置的环境的基本样条表面。
10.如权利要求1所述的方法,其中沿着相应像素块的周边的所述多个像素包括相应像素块的四个角像素。
11.如权利要求1所述的方法,所述方法还包括:
接收指定一个或多个第二视图规范的用户输入;
至少部分地基于所述一个或多个第二视图规范和所述多个输入图像来渲染一个或多个第二输出图像;以及
在所述显示器上显示所述一个或多个第二输出图像。
12.如权利要求1所述的方法,其中所述输出图像的至少一部分源自所述多个输入图像中的两个或更多个输入图像;以及
其中渲染所述输出图像的至少一部分包括混合来自所述多个输入图像的所述两个或更多个输入图像的贡献。
13.如权利要求12所述的方法,其中至少部分地基于所述两个或更多个输入图像的第一位置与所述输出图像的所述至少一个部分的投影位置的接近度来对所述混合进行加权。
14.如权利要求12所述的方法,其中所述混合校正所述两个或更多个输入图像之间的照明差异。
15.如权利要求1所述的方法,其中所述视图规范还包括以下各项中的一项或多项:
从第二位置处的原点测得的方位角;
从第二位置处的原点测得的极角;
视场;
投影表面深度;
一个或多个投影表面参数;
像素分辨率;以及
混合宽度。
16.一种包括程序指令的非暂态计算机可读存储器介质,所述程序指令在由多个并行处理器执行时使计算系统:
接收多个输入图像,其中所述多个输入图像中的每个输入图像是从不同的第一位置拍摄的;
接收用于渲染输出图像的视图规范,其中所述视图规范包括第二位置;
确定投影表面;
至少部分地基于所述多个输入图像、所述视图规范和所述投影表面来渲染输出图像,其中所述输出图像包括如从第二位置看到的区域的图像,其中第二位置与每个所述第一位置不同,其中至少部分地基于所述多个输入图像和所述视图规范来渲染所述输出图像包括:
确定所述输出图像的多个像素块的块尺寸,其中确定第一块尺寸,使得计算系统的并行计算能力将以目标帧速率或高于目标帧速率渲染包括所述输出图像的输出视频;
对于所述输出图像的多个像素块中的每个像素块:
确定沿着相应像素块的周边的多个像素与所述输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射;以及
对于所述一个或多个输入图像中的每个输入图像:
执行位于所述输入图像的对应像素的周边内的像素到所述输出图像中的相应像素的投影映射,其中所述投影映射包括在沿着相应像素块的周边的所述多个像素与所述输入图像的所述多个对应像素之间的映射的线性外推。
17.如权利要求16所述的非暂态计算机可读存储器介质,其中所述程序指令还可由所述一个或多个处理器执行以使所述计算系统:
确定围绕第一位置的环境的几何布局,
其中所述投影表面包括近似围绕第一位置的环境的基本样条表面。
18.一种计算系统,包括:
多个存储器;以及
散布所述多个存储器中并且与所述多个存储器耦合的多个处理器,
其中所述多个存储器存储程序指令,所述程序指令在由所述多个处理器执行时,使所述计算系统:
接收多个输入图像,其中所述多个输入图像中的每个输入图像是从不同的第一位置拍摄的;
接收用于渲染输出图像的视图规范,其中所述视图规范包括第二位置;
至少部分地基于所述多个输入图像和所述视图规范来渲染输出图像,其中所述输出图像包括如从第二位置看到的区域的图像,
其中第二位置与每个所述第一位置不同,
其中,为了渲染所述输出图像,所述计算系统被配置为:对于所述输出图像的多个像素块中的每个像素块:
确定所述输出图像的多个像素块的块尺寸,其中确定第一块尺寸,使得所述计算系统的并行计算能力将以目标帧速率或高于目标帧速率渲染包括所述输出图像的输出视频;
确定沿着相应像素块的周边的多个像素与所述输入图像中的一个或多个输入图像中的每个输入图像的多个对应像素之间的映射;
对于所述一个或多个输入图像中的每个输入图像:
执行位于所述输入图像的对应像素的周边内的像素到所述输出图像中的相应像素的投影映射,其中所述投影映射包括沿着相应像素块的周边的所述多个像素与所述一个或多个输入图像的所述多个对应像素之间的映射的线性外推。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862737050P | 2018-09-26 | 2018-09-26 | |
| US62/737,050 | 2018-09-26 | ||
| CN201980055215.4A CN112930557B (zh) | 2018-09-26 | 2019-09-25 | 任何世界视图生成 |
| PCT/US2019/052926 WO2020068960A1 (en) | 2018-09-26 | 2019-09-25 | Any world view generation |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980055215.4A Division CN112930557B (zh) | 2018-09-26 | 2019-09-25 | 任何世界视图生成 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN120876699A true CN120876699A (zh) | 2025-10-31 |
Family
ID=68172275
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980055215.4A Active CN112930557B (zh) | 2018-09-26 | 2019-09-25 | 任何世界视图生成 |
| CN202511114410.3A Pending CN120876699A (zh) | 2018-09-26 | 2019-09-25 | 任何世界视图生成 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201980055215.4A Active CN112930557B (zh) | 2018-09-26 | 2019-09-25 | 任何世界视图生成 |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US11544895B2 (zh) |
| EP (1) | EP3776485B1 (zh) |
| JP (1) | JP7208356B2 (zh) |
| CN (2) | CN112930557B (zh) |
| TW (1) | TWI805848B (zh) |
| WO (1) | WO2020068960A1 (zh) |
Families Citing this family (25)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7159057B2 (ja) * | 2017-02-10 | 2022-10-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
| DE102018102047A1 (de) * | 2018-01-30 | 2019-08-01 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Darstellen eines Umgebungsbereichs eines Kraftfahrzeugs mit virtuellen, länglichen Abstandsmarkierungen in einem Bild, Computerprogrammprodukt, sowie Anzeigesystem |
| US11288842B2 (en) * | 2019-02-15 | 2022-03-29 | Interaptix Inc. | Method and system for re-projecting and combining sensor data for visualization |
| KR102653252B1 (ko) * | 2019-02-21 | 2024-04-01 | 삼성전자 주식회사 | 외부 객체의 정보에 기반하여 시각화된 인공 지능 서비스를 제공하는 전자 장치 및 전자 장치의 동작 방법 |
| US11341607B2 (en) * | 2019-06-07 | 2022-05-24 | Texas Instruments Incorporated | Enhanced rendering of surround view images |
| JP7311036B2 (ja) * | 2020-03-31 | 2023-07-19 | 富士通株式会社 | 画像処理制御装置、画像処理制御プログラム、及び画像処理制御方法 |
| US11263729B2 (en) * | 2020-05-26 | 2022-03-01 | Microsoft Technology Licensing, Llc | Reprojection and wobulation at head-mounted display device |
| JP7514125B2 (ja) * | 2020-07-06 | 2024-07-10 | 日本放送協会 | 画像処理装置およびそのプログラム |
| TWI740623B (zh) * | 2020-08-26 | 2021-09-21 | 財團法人資訊工業策進會 | 視訊整合裝置、方法及其電腦程式產品 |
| TWI772968B (zh) * | 2020-11-17 | 2022-08-01 | 佐臻股份有限公司 | 具深度或影像監視系統的架設方法 |
| US11593996B2 (en) | 2021-02-09 | 2023-02-28 | Waymo Llc | Synthesizing three-dimensional visualizations from perspectives of onboard sensors of autonomous vehicles |
| US20220320042A1 (en) * | 2021-03-30 | 2022-10-06 | Advanced Micro Devices, Inc. | Die stacking for modular parallel processors |
| DE102021112646A1 (de) | 2021-05-17 | 2022-11-17 | Connaught Electronics Ltd. | Erzeugen eines zusammengefügten bildes aus kameradaten |
| TWI762353B (zh) * | 2021-06-09 | 2022-04-21 | 信驊科技股份有限公司 | 以縮放調整及接縫拼接來產生投影影像的方法 |
| CN113115037B (zh) * | 2021-06-15 | 2021-09-14 | 深圳市中鹏教育科技股份有限公司 | 一种在线教育方法、系统、设备及存储介质 |
| FR3128530B1 (fr) * | 2021-10-21 | 2024-02-23 | Continental Automotive Gmbh | Procédé de calibrage géométrique extrinsèque pour un système d’acquisition de données tridimensionnelles |
| US11812153B2 (en) * | 2022-03-07 | 2023-11-07 | Volvo Car Corporation | Systems and methods for fisheye camera calibration and bird's-eye-view image generation in a simulation environment |
| FR3135810B1 (fr) * | 2022-05-19 | 2024-10-11 | Thales Sa | Procédé de génération d’une image périphérique d’un aéronef, dispositif électronique de génération et produit programme d’ordinateur associés |
| DE102022206782A1 (de) * | 2022-07-04 | 2024-01-04 | Continental Autonomous Mobility Germany GmbH | Verfahren zum Erzeugen einer Ansicht mit einem Kamerasystem sowie Kamerasystem |
| WO2024150982A1 (ko) * | 2023-01-11 | 2024-07-18 | 주식회사 아비커스 | 선박용 svm 영상 생성 방법 및 장치 |
| TWI814680B (zh) * | 2023-02-14 | 2023-09-01 | 國立中正大學 | 三維影像處理之校正方法 |
| CN119729234A (zh) | 2023-09-27 | 2025-03-28 | 神基科技股份有限公司 | 多模块影像系统与影像同步方法 |
| US20250111487A1 (en) * | 2023-09-29 | 2025-04-03 | Konica Minolta Business Solutions U.S.A., Inc. | Automatic and adaptive region configuration for dewarping a fisheye video stream |
| GB2635658A (en) * | 2023-11-09 | 2025-05-28 | Continental Automotive Tech Gmbh | Method and device for generating an outsider perspective image |
| DE102024101247A1 (de) | 2024-01-17 | 2025-07-17 | Cariad Se | Verfahren zum Detektieren eines Objekts sowie Kraftfahrzeug |
Family Cites Families (232)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO1994018799A1 (en) * | 1993-02-03 | 1994-08-18 | Qualcomm Incorporated | Interframe video encoding and decoding system |
| US6498620B2 (en) * | 1993-02-26 | 2002-12-24 | Donnelly Corporation | Vision system for a vehicle including an image capture device and a display system having a long focal length |
| DE19855885A1 (de) * | 1997-12-04 | 1999-08-05 | Fuji Photo Film Co Ltd | Bildverarbeitungsverfahren und -vorrichtung |
| US6266442B1 (en) * | 1998-10-23 | 2001-07-24 | Facet Technology Corp. | Method and apparatus for identifying objects depicted in a videostream |
| US7259760B1 (en) * | 2000-02-16 | 2007-08-21 | Be Here Corporation | Polygonal curvature mapping to increase texture efficiency |
| US6559853B1 (en) * | 2000-02-16 | 2003-05-06 | Enroute, Inc. | Environment map creation using texture projections with polygonal curved surfaces |
| US6756990B2 (en) * | 2001-04-03 | 2004-06-29 | Be Here Corporation | Image filtering on 3D objects using 2D manifolds |
| KR100866450B1 (ko) * | 2001-10-15 | 2008-10-31 | 파나소닉 주식회사 | 차량 주위 감시 장치 및 그 조정 방법 |
| JP3871614B2 (ja) * | 2002-06-12 | 2007-01-24 | 松下電器産業株式会社 | 運転支援装置 |
| JP2005149409A (ja) * | 2003-11-19 | 2005-06-09 | Canon Inc | 画像再生方法及び装置 |
| US7561966B2 (en) * | 2003-12-17 | 2009-07-14 | Denso Corporation | Vehicle information display system |
| US7561751B2 (en) * | 2004-11-02 | 2009-07-14 | Panasonic Corporation | Image processing method |
| US7751641B2 (en) * | 2005-04-28 | 2010-07-06 | Imagenomic, Llc | Method and system for digital image enhancement |
| US20070030452A1 (en) * | 2005-08-08 | 2007-02-08 | N-Lighten Technologies | Image adaptation system and method |
| JP4859652B2 (ja) * | 2006-12-15 | 2012-01-25 | アルパイン株式会社 | 画像表示装置 |
| US20090087115A1 (en) * | 2007-10-02 | 2009-04-02 | Ping Wah Wong | Correction for geometric distortion in images in pipelined hardware |
| JP2009100342A (ja) * | 2007-10-18 | 2009-05-07 | Sanyo Electric Co Ltd | カメラ校正装置及び方法、並びに、車両 |
| JP4919978B2 (ja) * | 2008-01-26 | 2012-04-18 | 三洋電機株式会社 | 歪補正装置 |
| US8063918B2 (en) * | 2008-05-28 | 2011-11-22 | Adobe Systems Incorporated | Method and apparatus for rendering images with and without radially symmetric distortions |
| WO2009144994A1 (ja) * | 2008-05-29 | 2009-12-03 | 富士通株式会社 | 車両用画像処理装置、車両用画像処理方法 |
| JP5182042B2 (ja) * | 2008-11-28 | 2013-04-10 | 富士通株式会社 | 画像処理装置、画像処理方法及びコンピュータプログラム |
| US8265422B1 (en) * | 2009-02-20 | 2012-09-11 | Adobe Systems Incorporated | Method and apparatus for removing general lens distortion from images |
| US8446433B1 (en) * | 2009-06-12 | 2013-05-21 | Lucasfilm Entertainment Company Ltd. | Interactive visual distortion processing |
| US8502860B2 (en) * | 2009-09-29 | 2013-08-06 | Toyota Motor Engineering & Manufacturing North America (Tema) | Electronic control system, electronic control unit and associated methodology of adapting 3D panoramic views of vehicle surroundings by predicting driver intent |
| JP5593060B2 (ja) * | 2009-11-26 | 2014-09-17 | 株式会社メガチップス | 画像処理装置、および画像処理装置の動作方法 |
| JP2011131678A (ja) * | 2009-12-24 | 2011-07-07 | Fujitsu Ten Ltd | 画像処理装置、画像処理システム、および、画像処理方法 |
| TWI417639B (zh) * | 2009-12-30 | 2013-12-01 | Ind Tech Res Inst | 全周鳥瞰影像無縫接合方法與系統 |
| TWI392366B (zh) * | 2009-12-31 | 2013-04-01 | Ind Tech Res Inst | 全周鳥瞰影像距離介面產生方法與系統 |
| JP5479956B2 (ja) * | 2010-03-10 | 2014-04-23 | クラリオン株式会社 | 車両用周囲監視装置 |
| JP5604146B2 (ja) * | 2010-03-25 | 2014-10-08 | 富士通テン株式会社 | 車載照明装置、画像処理装置、画像表示システム及び照明方法 |
| JP5135380B2 (ja) * | 2010-04-12 | 2013-02-06 | 住友重機械工業株式会社 | 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム |
| JP5550970B2 (ja) * | 2010-04-12 | 2014-07-16 | 住友重機械工業株式会社 | 画像生成装置及び操作支援システム |
| TWI423659B (zh) * | 2010-11-09 | 2014-01-11 | Avisonic Technology Corp | 影像校正方法與相關影像校正系統 |
| WO2012075250A1 (en) * | 2010-12-01 | 2012-06-07 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
| US8447134B1 (en) * | 2010-12-20 | 2013-05-21 | Ambarella, Inc. | Image warp caching |
| US8723959B2 (en) * | 2011-03-31 | 2014-05-13 | DigitalOptics Corporation Europe Limited | Face and other object tracking in off-center peripheral regions for nonlinear lens geometries |
| EP2511137B1 (en) | 2011-04-14 | 2019-03-27 | Harman Becker Automotive Systems GmbH | Vehicle Surround View System |
| WO2012145818A1 (en) * | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
| US9834153B2 (en) * | 2011-04-25 | 2017-12-05 | Magna Electronics Inc. | Method and system for dynamically calibrating vehicular cameras |
| EP2530647A1 (en) * | 2011-06-01 | 2012-12-05 | Harman Becker Automotive Systems GmbH | Method of calibrating a vehicle vision system and vehicle vision system |
| CN103609100B (zh) * | 2011-06-09 | 2017-09-29 | 爱信精机株式会社 | 图像生成装置 |
| KR101265667B1 (ko) * | 2011-06-21 | 2013-05-22 | ㈜베이다스 | 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법 |
| WO2013016409A1 (en) * | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
| JP5668857B2 (ja) * | 2011-07-29 | 2015-02-12 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
| EP2554434B1 (en) * | 2011-08-05 | 2014-05-21 | Harman Becker Automotive Systems GmbH | Vehicle surround view system |
| TWI478833B (zh) * | 2011-08-31 | 2015-04-01 | Autoequips Tech Co Ltd | 調校車用影像裝置之方法及其系統 |
| DE102011084554A1 (de) * | 2011-10-14 | 2013-04-18 | Robert Bosch Gmbh | Verfahren zur Darstellung eines Fahrzeugumfeldes |
| WO2013074604A2 (en) * | 2011-11-15 | 2013-05-23 | Magna Electronics, Inc. | Calibration system and method for vehicular surround vision system |
| KR101265711B1 (ko) * | 2011-11-30 | 2013-05-20 | 주식회사 이미지넥스트 | 3d 차량 주변 영상 생성 방법 및 장치 |
| WO2013086249A2 (en) * | 2011-12-09 | 2013-06-13 | Magna Electronics, Inc. | Vehicle vision system with customized display |
| GB2499635B (en) * | 2012-02-23 | 2014-05-14 | Canon Kk | Image processing for projection on a projection screen |
| JP5893445B2 (ja) * | 2012-03-07 | 2016-03-23 | 株式会社メガチップス | 画像処理装置、および画像処理装置の動作方法 |
| JP6029306B2 (ja) * | 2012-03-29 | 2016-11-24 | 住友建機株式会社 | 作業機械用周辺監視装置 |
| US9256961B2 (en) * | 2012-06-28 | 2016-02-09 | Here Global B.V. | Alternate viewpoint image enhancement |
| JP5911775B2 (ja) * | 2012-08-21 | 2016-04-27 | 富士通テン株式会社 | 画像生成装置、画像表示システム及び画像生成方法 |
| US20140067333A1 (en) * | 2012-09-04 | 2014-03-06 | Belcan Corporation | CAD-Based System for Product Definition, Inspection and Validation |
| JP6014442B2 (ja) * | 2012-09-27 | 2016-10-25 | 富士通テン株式会社 | 画像生成装置、画像表示システム、および、画像生成方法 |
| US20140114534A1 (en) * | 2012-10-19 | 2014-04-24 | GM Global Technology Operations LLC | Dynamic rearview mirror display features |
| US9445011B2 (en) * | 2012-10-22 | 2016-09-13 | GM Global Technology Operations LLC | Dynamic rearview mirror adaptive dimming overlay through scene brightness estimation |
| JP6136190B2 (ja) * | 2012-10-23 | 2017-05-31 | 株式会社ソシオネクスト | 画像処理装置、撮像装置 |
| JP6079131B2 (ja) * | 2012-10-25 | 2017-02-15 | 富士通株式会社 | 画像処理装置、方法、及びプログラム |
| US10075634B2 (en) * | 2012-12-26 | 2018-09-11 | Harman International Industries, Incorporated | Method and system for generating a surround view |
| TWI517094B (zh) * | 2013-01-10 | 2016-01-11 | 瑞昱半導體股份有限公司 | 影像校正方法及影像校正電路 |
| US9922356B1 (en) * | 2013-01-22 | 2018-03-20 | Carvana, LLC | Methods and systems for online transactions |
| US10179543B2 (en) * | 2013-02-27 | 2019-01-15 | Magna Electronics Inc. | Multi-camera dynamic top view vision system |
| US8892358B2 (en) | 2013-03-14 | 2014-11-18 | Robert Bosch Gmbh | System and method for distortion correction in three-dimensional environment visualization |
| JP6302624B2 (ja) * | 2013-04-24 | 2018-03-28 | 住友重機械工業株式会社 | 画像生成装置 |
| TWI552897B (zh) * | 2013-05-17 | 2016-10-11 | 財團法人工業技術研究院 | 影像動態融合方法與裝置 |
| TWI530157B (zh) * | 2013-06-18 | 2016-04-11 | 財團法人資訊工業策進會 | 多視角影像之顯示系統、方法及其非揮發性電腦可讀取紀錄媒體 |
| KR102068992B1 (ko) * | 2013-06-20 | 2020-01-22 | 삼성전자 주식회사 | 렌즈 캘리브레이션 방법 및 영상 복원 방법 |
| JP6036601B2 (ja) * | 2013-08-09 | 2016-11-30 | 株式会社デンソー | 画像処理装置及び画像処理方法 |
| EP2851870B1 (en) * | 2013-09-20 | 2019-01-23 | Application Solutions (Electronics and Vision) Limited | Method for estimating ego motion of an object |
| JP6347934B2 (ja) * | 2013-10-11 | 2018-06-27 | 株式会社デンソーテン | 画像表示装置、画像表示システム、画像表示方法、及び、プログラム |
| US20150104757A1 (en) * | 2013-10-15 | 2015-04-16 | Mbfarr, Llc | Driving assessment and training method and apparatus |
| US20150187224A1 (en) * | 2013-10-15 | 2015-07-02 | Mbfarr, Llc | Driving assessment and training method and apparatus |
| TWI528325B (zh) * | 2013-10-18 | 2016-04-01 | 財團法人資訊工業策進會 | 影像處理方法及應用影像處理方法之系統 |
| US20150131924A1 (en) * | 2013-11-13 | 2015-05-14 | Microsoft Corporation | Creation of Rectangular Images from Input Images |
| CN105765966B (zh) * | 2013-12-19 | 2020-07-10 | 英特尔公司 | 碗形成像系统 |
| JP6010870B2 (ja) * | 2013-12-24 | 2016-10-19 | カシオ計算機株式会社 | 画像補正装置、及び画像補正方法、プログラム |
| EP3100234B1 (en) * | 2014-01-27 | 2021-04-07 | XYLON d.o.o. | Data-processing system and method for calibration of a vehicle surround view system |
| DE102014204303A1 (de) * | 2014-03-10 | 2015-09-10 | Robert Bosch Gmbh | Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild |
| JP6330383B2 (ja) * | 2014-03-12 | 2018-05-30 | 株式会社デンソー | 合成画像生成装置、および合成画像生成プログラム |
| DE102014208664A1 (de) * | 2014-05-08 | 2015-11-12 | Conti Temic Microelectronic Gmbh | Verfahren und vorrichtung zum verzerrungsfreien anzeigen einer fahrzeugumgebung eines fahrzeuges |
| US9619894B2 (en) * | 2014-05-16 | 2017-04-11 | GM Global Technology Operations LLC | System and method for estimating vehicle dynamics using feature points in images from multiple cameras |
| US9672593B2 (en) * | 2014-06-25 | 2017-06-06 | International Business Machines Corporation | Lens distortion correction using a neurosynaptic system |
| US20180182261A1 (en) * | 2014-07-02 | 2018-06-28 | Iotmotive Ltd. | Real Time Car Driving Simulator |
| US10442355B2 (en) * | 2014-09-17 | 2019-10-15 | Intel Corporation | Object visualization in bowl-shaped imaging systems |
| US9437001B2 (en) * | 2014-09-18 | 2016-09-06 | Intel Corporation | Tracking objects in bowl-shaped imaging systems |
| US10008027B1 (en) * | 2014-10-20 | 2018-06-26 | Henry Harlyn Baker | Techniques for determining a three-dimensional representation of a surface of an object from a set of images |
| US10127463B2 (en) * | 2014-11-21 | 2018-11-13 | Magna Electronics Inc. | Vehicle vision system with multiple cameras |
| DE102014117888A1 (de) * | 2014-12-04 | 2016-10-13 | Connaught Electronics Ltd. | Online-Kalibrierung eines Kraftfahrzeug-Kamerasystems |
| US10255665B2 (en) * | 2014-12-04 | 2019-04-09 | Mitsubishi Electric Corporation | Image processing device and method, image capturing device, program, and record medium |
| US9818201B2 (en) * | 2014-12-22 | 2017-11-14 | Lucasfilm Entertainment Company Ltd. | Efficient lens re-distortion |
| US10284794B1 (en) * | 2015-01-07 | 2019-05-07 | Car360 Inc. | Three-dimensional stabilized 360-degree composite image capture |
| JP6548900B2 (ja) * | 2015-01-20 | 2019-07-24 | 株式会社デンソーテン | 画像生成装置、画像生成方法及びプログラム |
| US10652466B2 (en) * | 2015-02-16 | 2020-05-12 | Applications Solutions (Electronic and Vision) Ltd | Method and device for stabilization of a surround view image |
| EP3057061B1 (en) * | 2015-02-16 | 2017-08-30 | Application Solutions (Electronics and Vision) Limited | Method and device for the estimation of car egomotion from surround view images |
| US9582881B2 (en) * | 2015-03-18 | 2017-02-28 | Intel Corporation | Machine vision image sensor calibration |
| US10013761B2 (en) * | 2015-03-24 | 2018-07-03 | Intel Corporation | Automatic orientation estimation of camera system relative to vehicle |
| DE102015205507B3 (de) * | 2015-03-26 | 2016-09-29 | Zf Friedrichshafen Ag | Rundsichtsystem für ein Fahrzeug |
| US20160301864A1 (en) * | 2015-04-10 | 2016-10-13 | Caterpillar Inc. | Imaging processing system for generating a surround-view image |
| US10089538B2 (en) * | 2015-04-10 | 2018-10-02 | Bendix Commercial Vehicle Systems Llc | Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof |
| US20160301863A1 (en) * | 2015-04-10 | 2016-10-13 | Caterpillar Inc. | Image processing system for generating a surround-view image |
| EP3086284A1 (en) * | 2015-04-23 | 2016-10-26 | Application Solutions (Electronics and Vision) Limited | Camera extrinsic parameters estimation from image lines |
| US20160321940A1 (en) * | 2015-04-29 | 2016-11-03 | Ivan Banga | Driver Education and Training System and Method for Training Drivers in Simulated Emergencies |
| KR101750876B1 (ko) * | 2015-05-28 | 2017-06-26 | 엘지전자 주식회사 | 차량용 디스플레이 장치 및 차량 |
| US9866752B2 (en) * | 2015-06-02 | 2018-01-09 | Qualcomm Incorporated | Systems and methods for producing a combined view from fisheye cameras |
| JP6975642B2 (ja) * | 2015-06-11 | 2021-12-01 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | 車両周辺部のバーチャル画像を作成するための方法 |
| US10040394B2 (en) * | 2015-06-17 | 2018-08-07 | Geo Semiconductor Inc. | Vehicle vision system |
| US20160379381A1 (en) * | 2015-06-23 | 2016-12-29 | Freescale Semiconductor, Inc. | Apparatus and method for verifying the origin of texture map in graphics pipeline processing |
| DE102015112289A1 (de) * | 2015-07-28 | 2017-02-02 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Identifizieren eines Objekts in einem Umgebungsbereich eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug |
| US10015499B1 (en) * | 2015-07-30 | 2018-07-03 | Teradici Corporation | Method and apparatus for layered wavelet image compression |
| EP3142066B1 (en) * | 2015-09-10 | 2024-06-12 | KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH | Image synthesizer for a surround monitoring system |
| JP6575445B2 (ja) * | 2015-09-30 | 2019-09-18 | アイシン精機株式会社 | 車両用画像処理装置 |
| US10262466B2 (en) * | 2015-10-14 | 2019-04-16 | Qualcomm Incorporated | Systems and methods for adjusting a combined image visualization based on depth information |
| US11332061B2 (en) * | 2015-10-26 | 2022-05-17 | Atnomity Ltd. | Unmanned carrier for carrying urban manned vehicles |
| TWI607901B (zh) * | 2015-11-06 | 2017-12-11 | 財團法人工業技術研究院 | 影像修補系統及其方法 |
| US20170132476A1 (en) * | 2015-11-08 | 2017-05-11 | Otobrite Electronics Inc. | Vehicle Imaging System |
| US10523865B2 (en) * | 2016-01-06 | 2019-12-31 | Texas Instruments Incorporated | Three dimensional rendering for surround view using predetermined viewpoint lookup tables |
| US9955186B2 (en) * | 2016-01-11 | 2018-04-24 | Qualcomm Incorporated | Block size decision for video coding |
| JP6780661B2 (ja) * | 2016-01-15 | 2020-11-04 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに画像処理システム |
| WO2017138297A1 (ja) * | 2016-02-08 | 2017-08-17 | 株式会社リコー | 画像表示装置及び画像表示方法 |
| DE102016104732A1 (de) * | 2016-03-15 | 2017-09-21 | Connaught Electronics Ltd. | Verfahren zur Bewegungsabschätzung zwischen zwei Bildern eines Umgebungsbereichs eines Kraftfahrzeugs, Rechenvorrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug |
| US10922559B2 (en) * | 2016-03-25 | 2021-02-16 | Bendix Commercial Vehicle Systems Llc | Automatic surround view homography matrix adjustment, and system and method for calibration thereof |
| US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
| US10434877B2 (en) * | 2016-05-05 | 2019-10-08 | Via Technologies, Inc. | Driver-assistance method and a driver-assistance apparatus |
| JP6723820B2 (ja) * | 2016-05-18 | 2020-07-15 | 株式会社デンソーテン | 画像生成装置、画像表示システムおよび画像表示方法 |
| US10699389B2 (en) * | 2016-05-24 | 2020-06-30 | Qualcomm Incorporated | Fisheye rendering with lens distortion correction for 360-degree video |
| JP6868805B2 (ja) * | 2016-06-07 | 2021-05-12 | パナソニックIpマネジメント株式会社 | 画像生成装置、画像生成方法、およびプログラム |
| US10375371B2 (en) * | 2016-07-15 | 2019-08-06 | Mediatek Inc. | Method and apparatus for filtering 360-degree video boundaries |
| JP2018050119A (ja) * | 2016-09-20 | 2018-03-29 | 国立大学法人 東京大学 | 作業車両の表示システム |
| US10643391B2 (en) * | 2016-09-23 | 2020-05-05 | Apple Inc. | Immersive virtual display |
| US10037598B2 (en) * | 2016-11-29 | 2018-07-31 | Intel Corporation | Multi-block memory reads for image de-warping |
| JP6900609B2 (ja) | 2016-12-06 | 2021-07-07 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 広角画像を修正するシステム及び方法 |
| CN106767706B (zh) * | 2016-12-09 | 2019-05-14 | 中山大学 | 一种无人机勘查交通事故现场的航拍图像采集方法及系统 |
| DE102016225066A1 (de) * | 2016-12-15 | 2018-06-21 | Conti Temic Microelectronic Gmbh | Rundumsichtsystem für ein Fahrzeug |
| KR102412955B1 (ko) * | 2016-12-28 | 2022-06-24 | 소니그룹주식회사 | 생성 장치, 식별 정보 생성 방법, 재생 장치 및 화상 생성 방법 |
| US10911745B2 (en) * | 2016-12-28 | 2021-02-02 | Texas Instruments Incorporated | Calibration of a surround view camera system |
| US10194097B2 (en) * | 2017-01-13 | 2019-01-29 | Gopro, Inc. | Apparatus and methods for the storage of overlapping regions of imaging data for the generation of optimized stitched images |
| US20180210442A1 (en) * | 2017-01-23 | 2018-07-26 | Qualcomm Incorporated | Systems and methods for controlling a vehicle using a mobile device |
| US11298062B2 (en) * | 2017-02-01 | 2022-04-12 | Conflu3Nce Ltd | Multi-purpose interactive cognitive platform |
| CN110114711B (zh) * | 2017-02-10 | 2022-03-29 | 金泰克斯公司 | 包括投影系统的车辆显示器 |
| GB2559760B (en) * | 2017-02-16 | 2019-08-28 | Jaguar Land Rover Ltd | Apparatus and method for displaying information |
| GB2559759B (en) * | 2017-02-16 | 2020-07-29 | Jaguar Land Rover Ltd | Apparatus and method for displaying information |
| GB2559758B (en) * | 2017-02-16 | 2021-10-27 | Jaguar Land Rover Ltd | Apparatus and method for displaying information |
| KR102755365B1 (ko) * | 2017-03-28 | 2025-01-17 | 삼성전자주식회사 | 사용자 움직임 정보에 기초하여 영상을 표시하기 위한 방법 및 장치 |
| US10223766B2 (en) * | 2017-03-31 | 2019-03-05 | Apical Ltd. | Image processing including geometric distortion adjustment |
| EP3392801A1 (en) * | 2017-04-21 | 2018-10-24 | Harman International Industries, Incorporated | Systems and methods for driver assistance |
| US10740972B2 (en) * | 2017-04-28 | 2020-08-11 | Harman International Industries, Incorporated | System and method for presentation and control of augmented vehicle surround views |
| US11615566B2 (en) * | 2017-05-10 | 2023-03-28 | Fotonation Limited | Multi-camera vehicle vision system and method |
| US10417816B2 (en) * | 2017-06-16 | 2019-09-17 | Nauto, Inc. | System and method for digital environment reconstruction |
| JP7065383B2 (ja) * | 2017-06-30 | 2022-05-12 | パナソニックIpマネジメント株式会社 | 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体 |
| US10523913B2 (en) * | 2017-06-30 | 2019-12-31 | Apple Inc. | Packed image format for multi-directional video |
| US10357715B2 (en) * | 2017-07-07 | 2019-07-23 | Buxton Global Enterprises, Inc. | Racing simulation |
| JP7039879B2 (ja) * | 2017-08-03 | 2022-03-23 | 株式会社アイシン | 表示制御装置 |
| US10599161B2 (en) * | 2017-08-08 | 2020-03-24 | Skydio, Inc. | Image space motion planning of an autonomous vehicle |
| GB201713052D0 (en) * | 2017-08-15 | 2017-09-27 | Imagination Tech Ltd | Single pass rendering for head mounted displays |
| JP7091624B2 (ja) * | 2017-09-15 | 2022-06-28 | 株式会社アイシン | 画像処理装置 |
| JP7080613B2 (ja) * | 2017-09-27 | 2022-06-06 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
| US10621753B2 (en) * | 2017-09-29 | 2020-04-14 | Intel IP Corporation | Extrinsic calibration of camera systems |
| US20190100147A1 (en) * | 2017-10-02 | 2019-04-04 | Hua-Chuang Automobile Information Technical Center Co., Ltd. | Parking assistant panoramic image system |
| US10572982B2 (en) * | 2017-10-04 | 2020-02-25 | Intel Corporation | Method and system of image distortion correction for images captured by using a wide-angle lens |
| DE102017123452A1 (de) * | 2017-10-10 | 2019-04-11 | Connaught Electronics Ltd. | Verfahren zum Erzeugen eines ein Kraftfahrzeug und einen Umgebungsbereich des Kraftfahrzeugs in einer vorbestimmten Zielansicht zeigenden Ausgangsbildes, Kamerasystem sowie Kraftfahrzeug |
| US10560628B2 (en) * | 2017-10-30 | 2020-02-11 | Visual Supply Company | Elimination of distortion in 360-degree video playback |
| JP6946963B2 (ja) * | 2017-11-17 | 2021-10-13 | 株式会社アイシン | 重畳画像表示装置及びコンピュータプログラム |
| JP7106846B2 (ja) * | 2017-11-24 | 2022-07-27 | 株式会社アイシン | 周辺監視装置 |
| DE102017222708A1 (de) * | 2017-12-14 | 2019-06-19 | Conti Temic Microelectronic Gmbh | 3D-Umfelderfassung mittels Projektor und Kameramodulen |
| US10175697B1 (en) * | 2017-12-21 | 2019-01-08 | Luminar Technologies, Inc. | Object identification and labeling tool for training autonomous vehicle controllers |
| CN107948547B (zh) * | 2017-12-29 | 2020-11-24 | 北京奇艺世纪科技有限公司 | 全景视频拼接的处理方法、装置及电子设备 |
| JP2019125193A (ja) * | 2018-01-17 | 2019-07-25 | アイシン精機株式会社 | 周辺監視装置 |
| CN111587572A (zh) * | 2018-01-19 | 2020-08-25 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
| US10726522B2 (en) * | 2018-01-24 | 2020-07-28 | Fotonation Limited | Method and system for correcting a distorted input image |
| US10863154B2 (en) * | 2018-02-20 | 2020-12-08 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
| US10935878B2 (en) * | 2018-02-20 | 2021-03-02 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and program |
| US20190281273A1 (en) * | 2018-03-08 | 2019-09-12 | Mediatek Inc. | Adaptive loop filtering method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection |
| WO2019170154A1 (en) * | 2018-03-09 | 2019-09-12 | Mediatek Inc. | De-blocking method for reconstructed projection-based frame that employs projection layout of 360-degree virtual reality projection |
| JP6857147B2 (ja) * | 2018-03-15 | 2021-04-14 | 株式会社日立製作所 | 三次元画像処理装置、及び三次元画像処理方法 |
| JP2019156298A (ja) * | 2018-03-15 | 2019-09-19 | 株式会社デンソーテン | 車両遠隔操作装置及び車両遠隔操作方法 |
| DE102019106738B4 (de) * | 2018-03-27 | 2021-11-04 | Panasonic Intellectual Property Management Co., Ltd. | Anzeigesystem, elektronisches Spiegelsystem, fahrendes Fahrzeug und Anzeigeverfahren |
| CN108761777B (zh) * | 2018-03-30 | 2021-04-20 | 京东方科技集团股份有限公司 | 一种确定光学装置畸变量、畸变校正的方法及设备 |
| US10854011B2 (en) * | 2018-04-09 | 2020-12-01 | Direct Current Capital LLC | Method for rendering 2D and 3D data within a 3D virtual environment |
| DE102018108751B4 (de) * | 2018-04-12 | 2023-05-04 | Motherson Innovations Company Limited | Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten |
| EP3564917B1 (en) * | 2018-05-04 | 2020-07-01 | Axis AB | A method for detecting motion in a video sequence |
| US20190349571A1 (en) * | 2018-05-11 | 2019-11-14 | Ford Global Technologies, Llc | Distortion correction for vehicle surround view camera projections |
| GB2573792B (en) * | 2018-05-17 | 2022-11-09 | Denso Corp | Surround monitoring system for vehicles |
| US10683596B2 (en) * | 2018-06-07 | 2020-06-16 | Zeng Hsing Industrial Co., Ltd. | Method of generating an image that shows an embroidery area in an embroidery frame for computerized machine embroidery |
| US20190378251A1 (en) * | 2018-06-07 | 2019-12-12 | Zeng Hsing Industrial Co., Ltd. | Image processing method |
| JP7026325B2 (ja) * | 2018-06-21 | 2022-02-28 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び移動体 |
| JP6987707B2 (ja) * | 2018-06-28 | 2022-01-05 | ルネサスエレクトロニクス株式会社 | 半導体装置、画像認識システム |
| US10298910B1 (en) * | 2018-06-29 | 2019-05-21 | Zoox, Inc. | Infrastructure free intrinsic calibration |
| US10829045B2 (en) * | 2018-07-11 | 2020-11-10 | Continental Automotive Systems, Inc. | System and method for calibrating a motion estimation algorithm using a vehicle camera |
| JP7140580B2 (ja) * | 2018-07-13 | 2022-09-21 | マクセル株式会社 | ステレオ撮像装置 |
| EP3599569A1 (en) * | 2018-07-24 | 2020-01-29 | Continental Automotive GmbH | Method and system for representation of vehicle surroundings with reduced artefacts |
| DE102018214602B3 (de) * | 2018-08-29 | 2019-11-28 | Robert Bosch Gmbh | Verfahren zur Anzeige eines Modells einer Umgebung, Steuergerät und Fahrzeug |
| US10901417B2 (en) * | 2018-08-31 | 2021-01-26 | Nissan North America, Inc. | Autonomous vehicle operational management with visual saliency perception control |
| JP2020042417A (ja) * | 2018-09-07 | 2020-03-19 | アイシン精機株式会社 | 表示制御装置 |
| JP7119798B2 (ja) * | 2018-09-07 | 2022-08-17 | 株式会社アイシン | 表示制御装置 |
| JP7200572B2 (ja) * | 2018-09-27 | 2023-01-10 | 株式会社アイシン | 付着物検出装置 |
| US20200153885A1 (en) * | 2018-10-01 | 2020-05-14 | Lg Electronics Inc. | Apparatus for transmitting point cloud data, a method for transmitting point cloud data, an apparatus for receiving point cloud data and/or a method for receiving point cloud data |
| US11055541B2 (en) * | 2018-10-12 | 2021-07-06 | Volvo Car Corporation | Vehicle lane marking and other object detection using side fisheye cameras and three-fold de-warping |
| JP7263731B2 (ja) * | 2018-10-26 | 2023-04-25 | 株式会社デンソー | 画像処理装置 |
| EP3873285A1 (en) * | 2018-10-29 | 2021-09-08 | Robotarmy Corp. | Racing helmet with visual and audible information exchange |
| JP7308227B2 (ja) * | 2018-11-20 | 2023-07-13 | ソニーセミコンダクタソリューションズ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
| JP7283059B2 (ja) * | 2018-11-28 | 2023-05-30 | 株式会社アイシン | 周辺監視装置 |
| US10969595B2 (en) * | 2018-11-30 | 2021-04-06 | International Business Machines Corporation | In-vehicle content display apparatus |
| KR102559686B1 (ko) * | 2018-12-17 | 2023-07-27 | 현대자동차주식회사 | 차량 및 차량 영상 제어방법 |
| US11080822B2 (en) * | 2018-12-21 | 2021-08-03 | Htc Corporation | Method, system and recording medium for building environment map |
| US10896335B2 (en) * | 2019-01-07 | 2021-01-19 | Ford Global Technologies, Llc | Adaptive transparency of virtual vehicle in simulated imaging system |
| BR102019000922A2 (pt) * | 2019-01-16 | 2020-10-13 | Samsung Eletrônica da Amazônia Ltda. | Método para comprimir dados de campo de luz usando transformadas de quatro dimensões de tamanho de bloco variável e decomposição por planos de bits |
| JP7202903B2 (ja) * | 2019-01-23 | 2023-01-12 | 本田技研工業株式会社 | 表示システム、走行制御装置、表示制御方法およびプログラム |
| US20200294194A1 (en) * | 2019-03-11 | 2020-09-17 | Nvidia Corporation | View synthesis using neural networks |
| JP7261642B2 (ja) * | 2019-03-29 | 2023-04-20 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理方法、画像処理装置、およびヘッドマウントディスプレイ |
| US11126001B2 (en) * | 2019-03-29 | 2021-09-21 | Sony Interactive Entertainment Inc. | Image generating apparatus, head-mounted display, content processing system and image displaying method |
| US11059493B2 (en) * | 2019-04-10 | 2021-07-13 | Honda Motor Co., Ltd. | Systems and methods for estimating velocity of an autonomous vehicle and state information of a surrounding vehicle |
| US10926715B1 (en) * | 2019-06-13 | 2021-02-23 | Vidal M. Soler | Vehicle camera system |
| CN110264520B (zh) * | 2019-06-14 | 2021-06-08 | 北京百度网讯科技有限公司 | 车载传感器与车辆位姿关系标定方法、装置、设备和介质 |
| US11104350B2 (en) * | 2019-06-28 | 2021-08-31 | GM Cruise Holdings, LLC | Wireless vehicle control of vehicle sensor calibration environment |
| US11676307B2 (en) * | 2019-07-05 | 2023-06-13 | Nvidia Corporation | Online sensor calibration for autonomous vehicles |
| US11380046B2 (en) * | 2019-07-23 | 2022-07-05 | Texas Instruments Incorporated | Surround view |
| US10909668B1 (en) * | 2019-07-31 | 2021-02-02 | Nxp Usa, Inc. | Adaptive sub-tiles for distortion correction in vision-based assistance systems and methods |
| US20210042890A1 (en) * | 2019-08-05 | 2021-02-11 | Nxp Usa, Inc. | Adaptive Tiles for Geometric Correction |
| US10897600B1 (en) * | 2019-09-09 | 2021-01-19 | Texas Instruments Incorporated | Sensor fusion based perceptually enhanced surround view |
| US11669942B2 (en) * | 2019-09-20 | 2023-06-06 | Synaptics Incorporated | Image de-warping system |
| US11244431B2 (en) * | 2019-10-18 | 2022-02-08 | Apical Limited | Image processing |
| US11034298B2 (en) * | 2019-11-18 | 2021-06-15 | Continental Automotive Systems, Inc. | Vehicle surround view system for identifying unobservable regions while reversing a trailer |
| US20210158493A1 (en) * | 2019-11-21 | 2021-05-27 | GM Global Technology Operations LLC | Generation of composite images using intermediate image surfaces |
| US11856205B2 (en) * | 2019-11-22 | 2023-12-26 | Intel Corporation | Subjective visual quality enhancement for high spatial and temporal complexity video encode |
| US11295540B2 (en) * | 2020-03-30 | 2022-04-05 | GM Cruise Holdings, LLC | Combined sensor calibration target for calibrating multiple types of sensors, including infrared cameras and visible light cameras |
| US11453348B2 (en) * | 2020-04-14 | 2022-09-27 | Gm Cruise Holdings Llc | Polyhedral sensor calibration target for calibrating multiple types of sensors |
| US11257231B2 (en) * | 2020-06-17 | 2022-02-22 | Toyota Research Institute, Inc. | Camera agnostic depth network |
| US11443411B2 (en) * | 2020-07-08 | 2022-09-13 | Nxp Usa, Inc. | Method and system for image distortion correction using quarter and tangential lookup tables |
| CN112634414B (zh) * | 2020-12-24 | 2023-09-05 | 北京百度网讯科技有限公司 | 地图显示方法及装置 |
-
2019
- 2019-09-25 CN CN201980055215.4A patent/CN112930557B/zh active Active
- 2019-09-25 EP EP19784182.8A patent/EP3776485B1/en active Active
- 2019-09-25 CN CN202511114410.3A patent/CN120876699A/zh active Pending
- 2019-09-25 US US16/582,325 patent/US11544895B2/en active Active
- 2019-09-25 JP JP2021506937A patent/JP7208356B2/ja active Active
- 2019-09-25 WO PCT/US2019/052926 patent/WO2020068960A1/en not_active Ceased
- 2019-09-26 TW TW108134959A patent/TWI805848B/zh active
Also Published As
| Publication number | Publication date |
|---|---|
| TWI805848B (zh) | 2023-06-21 |
| US11544895B2 (en) | 2023-01-03 |
| TW202025716A (zh) | 2020-07-01 |
| CN112930557B (zh) | 2025-09-02 |
| CN112930557A (zh) | 2021-06-08 |
| JP2021535464A (ja) | 2021-12-16 |
| JP7208356B2 (ja) | 2023-01-18 |
| US20200098164A1 (en) | 2020-03-26 |
| EP3776485A1 (en) | 2021-02-17 |
| WO2020068960A1 (en) | 2020-04-02 |
| EP3776485B1 (en) | 2022-01-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN112930557B (zh) | 任何世界视图生成 | |
| CN110383340B (zh) | 使用稀疏体积数据进行路径规划 | |
| EP3625756B1 (en) | Configurable and programmable image processor unit | |
| US10326981B2 (en) | Generating 3D images using multi-resolution camera set | |
| EP3709256A1 (en) | View synthesis using neural networks | |
| US9232123B2 (en) | Systems and methods for acquiring and processing image data produced by camera arrays | |
| JP2024174956A (ja) | 深層学習システム | |
| US11341607B2 (en) | Enhanced rendering of surround view images | |
| Cłapa et al. | A fisheye distortion correction algorithm optimized for hardware implementations | |
| CN112184662B (zh) | 应用于无人机图像拼接中的相机外参数初始方法及系统 | |
| Jeon et al. | A memory-efficient architecture of full HD around view monitor systems | |
| Jiang et al. | A configurable local-expansion-move accelerator for accurate stereo matching | |
| CN111726566B (zh) | 一种实时校正拼接防抖的实现方法 | |
| US10621782B1 (en) | Sub-patch techniques for graphics tessellation | |
| CN111191309A (zh) | 适用于bim轻量化的实时遮挡剔除方法、装置和设备 | |
| CN113225491B (zh) | 一种嵌入式多镜头全景视频成像方法及装置 | |
| CN115587935A (zh) | 一种全景环视图像拼接方法、装置和电子设备、存储介质 | |
| Ahlberg et al. | GIMME2-An embedded system for stereo vision and processing of megapixel images with FPGA-acceleration | |
| Peng et al. | A low-cost implementation of a 360° vision distributed aperture system | |
| CN118646833B (zh) | 全景拼接方法和装置、电子设备和存储介质 | |
| Claus et al. | AutoVision—Reconfigurable Hardware Acceleration for Video-Based Driver Assistance | |
| Ramirez | Accelerated Image Stitching via Parallel Computing in Unmanned Aerial Vehicle Applications | |
| Yifan et al. | Panoramic Stitching of 4-Channel Dynamic Video Platform Based on Pinhole Lens | |
| CN120088391A (zh) | 一种基于二维高斯泼溅实现物体重光照的方法及系统 | |
| CN118485738A (zh) | Ipm图像生成方法、装置、设备及计算机可读存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |