[go: up one dir, main page]

CN111434120A - 高效的沉浸式流传输 - Google Patents

高效的沉浸式流传输 Download PDF

Info

Publication number
CN111434120A
CN111434120A CN201880077929.0A CN201880077929A CN111434120A CN 111434120 A CN111434120 A CN 111434120A CN 201880077929 A CN201880077929 A CN 201880077929A CN 111434120 A CN111434120 A CN 111434120A
Authority
CN
China
Prior art keywords
regions
video
scene
mapping
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880077929.0A
Other languages
English (en)
Inventor
罗伯特·斯库宾
科内柳斯·海尔奇
亚戈·桑切斯德拉富恩特
托马斯·斯切尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Foerderung der Angewandten Forschung eV
Publication of CN111434120A publication Critical patent/CN111434120A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/65Network streaming protocols, e.g. real-time transport protocol [RTP] or real-time control protocol [RTCP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26258Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

通过将切换点和/或部分随机访问点或传达指示帧到场景映射相对于第一组一个或多个区域保持恒定同时对另一组一个或多个区域变化的映射信息元数据的点的概念引入到沉浸式视频环境中,可以使沉浸式视频流传输更高效。特别地,为沉浸式视频流传输所涉及的实体提供了利用沉浸式视频材料经常相对于帧中的第一组一个或多个区域示出恒定的帧到场景映射,但是在仅相对于另一组一个或多个区域的帧到场景映射方面有所不同的情况的能力。

Description

高效的沉浸式流传输
技术领域
本申请涉及用于或适合于沉浸式视频流传输的概念。
背景技术
近年来,从许多行业的参与可以看到,围绕虚拟现实(VR)的活动已非常活跃。动态HTTP自适应流传输(DASH)有望成为360视频的主要服务之一。
有将360°视频发送到客户端的多种流传输方法。一种简单的方法是与视口无关的解决方案。通过这种方法,整个360°视频都以视口不可知的方式传输,即不考虑当前用户的观看方向或视口。这种方法的问题在于,在用户视口之外而最终没有呈现给用户的像素占用了带宽和解码器资源。
通过使用视口相关的解决方案,可以提供更高效的解决方案。在这种情况下,发送给用户的比特流将针对呈现给用户的图片范围(即,视口)包含更高的像素密度和比特率。
当前,有两种典型方法用于视口相关的解决方案。从流传输的角度来看,例如在基于DASH的系统中,用户在两种视口相关方法中都基于当前观看方向选择适配集。
两种视口相关的方法在视频内容准备方面有所不同。一种方法是通过使用将焦点放在给定方向上的投影(例如,图1的左侧,摄像机中心/投影表面已移动的ERP)或通过在视口不可知投影上使按某种区域打包(RWP)并且(例如,基于常规ERP的图1的右侧)从而定义比其他非优选视口具有更高分辨率的投影或优选视口的图片区域,来对不同视口的不同流进行编码。
视口相关的另一种方法是以多个比特流的形式提供内容,这是将整个内容拆分为多个图块的结果。然后,客户端可以下载与完整的360度视频内容相对应的一组图块,其中每个图块的保真度(例如,在质量或分辨率方面)都不同。这种基于图块的方法可产生图片区域的质量高于其他区域的优选视口视频。
为了简单起见,下面的描述假定非图块的解决方案适用,但是下面进一步描述的问题、效果和实施例也适用于图块的流传输解决方案。
对于任何一个视口,我们都可以得到一个流,其解码后的图片如图2所示。图2在左侧显示了全景视频,并在其中描绘有两个不同的视口VP1和VP2作为不同视口的示例。对于两个视口位置,准备了相应的流。如图2的上半部分所示,视口VP1的流的已解码图片包括将VP1编码到其中的一个较大的部分,而在图片范围左侧显示的另一部分则包含了在这里是经过旋转和缩小的整个全景视频内容。视口VP2的其他流具有以基本相同的方式组成的已解码的图片,即,相对较大的右侧部分已将VP2编码到其中,而其余部分在其中编码了全景视频的旋转和缩小版本。
图片是如何由原始完整内容组成的,通常由元数据定义,例如按区域打包的详细信息,它们以视频基本流中的SEI消息的形式或以ISO基本媒体文件格式的框的形式存在。以OMAF环境为例,图3示出了通常在客户端侧的沉浸式视频流环境中进行协作的实体的示例。图3示出了沉浸式视频流客户端装置,在此示例性地描绘为与OMAF-DASH客户端模型相对应。DASH检索到的媒体段和清单文件或媒体呈现描述进入由虚拟现实应用程序形成的客户端基本组件,该虚拟现实应用程序经由元数据从传感器接收传感器数据(该传感器数据涉及头部和/或用户的眼睛移动以移动视口),并控制媒体相关组件并与之交互,媒体相关组件包括负责获取媒体段的DASH访问引擎、负责对作为由DASH访问引擎转发的检索到的媒体段的串联产生的结果的文件格式流中包含的编码视频流进行解包和碎片整理的DASH媒体引擎、以及最终经由例如平视显示器等将视频渲染给用户的渲染器。
如上所述,图3展示了全方位MediA格式(OMAF)标准中设想的DASH流服务的高级客户端模型。OMAF(及其他)描述了360视频和传输相关的元数据,以及如何将其封装到ISO基本媒体文件格式(ISOBMFF)或视频比特流(例如HEVC比特流)中。在这种流传输方案中,通常使用DASH,然后在那里将下载的基本流封装到初始化片段和媒体段中的ISOBMFF中。每个表示(对应于优选观看方向比特流和给定的比特率)由初始化片段和一个或多个媒体段(即由一个或多个ISOBMFF媒体片段组成,其中封装了给定时间间隔的NAL单元)组成。通常,客户端下载给定的初始化片段并解析每个头部(电影框,也称为“moov”框)。当图3中的ISOBMFF解析器解析“moov”框时,它将提取有关比特流和解码器功能的相关信息,并初始化解码器。它与渲染相关信息相同,并初始化渲染器。这意味着ISOBMFF解析器(或其至少负责解析“moov”框的模块)具有API(应用程序编程接口),能够在流播放开始时使用给定的配置来初始化解码器和渲染器。
在OMAF标准中,将按区域打包框('rwpk')封装在样本条目中(也在'moov'框中),以描述整个基本流的比特流属性。这种形式的信令向客户端(FF多路分解器+解码器+渲染器)保证媒体流将坚持给定的RWP配置,例如图2中的VP1或VP2。
但是,在上述视口相关的解决方案中,通常,对于任何潜在的视口,整个内容的分辨率都较低,如图2中的浅蓝色阴影框所示。使用这种方法更改视口(从VP1到VP2)意味着DASH客户端需要下载另一个带有新的相应“rwpk”框的初始化片段。因此,在解析新的“moov”框时,由于文件格式轨道已切换,因此ISOBMFF会对解码器和渲染器进行重新初始化。这导致以下事实情况:视口切换需要使用全图片RAP,这对编码效率是有害的。实际上,没有RAP的解码器的重新初始化将导致不可解码的比特流。视口切换如图4所示。
即,图4在VP2的流的顶部示出了VP1的流。时间访问范围从左到右。图4示出,周期性地,两个流中都存在RAP(随机访问点),它们在时间上彼此相互调整,使得客户端可以在流传输期间从一个流切换到另一流。图4在第三RAP中示出了这种切换。如图4所示,由于上述事实情况,在这种切换时需要文件格式多路分解和解码器重新初始化。
如果可以更高效地渲染沉浸式视频流,则将是优选的。
发明内容
因此,本发明的目的是提供实现这种更高效的沉浸式视频流的概念。
该任务通过本申请的独立权利要求的主题来解决。
本发明所基于的思想是,通过将切换点和/或部分随机访问点或传达指示帧到场景映射相对于第一组一个或多个区域保持恒定同时对另一组一个或多个区域变化的映射信息元数据的点概念引入到沉浸式视频环境中,可以使沉浸式视频流更加高效。特别地,本申请的思想是向沉浸式视频流中涉及的实体提供利用沉浸式视频材料经常相对于帧中的第一组一个或多个区域示出恒定的帧到场景映射,但是在仅相对于另一组一个或多个区域的帧到场景映射方面有所不同的情况的能力。事先被告知这种情况的实体可能会压制它们通常会采取的某些措施,而这将变得更加麻烦,好像这些措施被完全放弃或仅限于帧到场景映射是可能会有所变化的一个或多个区域。例如,通常与随机访问点相关联的压缩效率损失,例如不允许在随机访问点之前或之后的任何帧使用随机访问点之前的帧,可能会限于帧到场景的映射变化的一个或多个区域。同样地,渲染器可以在执行再现时利用对于特定组一个或多个区域的帧到场景映射的恒定性质的知识。
附图说明
现在,本申请的这些和其他方面是所附权利要求的主题。下面结合附图描述本申请的优选实施例,其中:
图1示出了说明视口相关的360视频方案的示意图,其中,在左侧示出可以移动摄像机中心以改变场景中的区域,例如,通过使用帧到场景的映射将帧的样本投影到场景上所生成的样本密度大于其他区域,而右侧则说明了使用按区域打包(RWP)来生成全景视频素材的不同表示,每个表示专用于某个优选的观看方向,其中本申请随后解释的实施例涉及的是后一种个性化表示;
图2示出了说明关于两个示例性示出的优选视口和对应表示的视口相关或按区域打包流方法的示意图;图2按区域定义分别与视口位置VP1和视口位置VP2相关联的表示的帧,其中两个帧,或更确切地说,两个表示的帧都具有位于同一位置的包含缩减的完整内容区域(以阴影线示出)的区域,其中,图2仅用作示例,以更容易理解随后说明的实施例;
图3示出了可以实现本申请的实施例的客户端装置的框图,其中,图3示出了客户端装置对应于OMAF-DASH流客户端模型的特定示例,并且示出了其中所包含的各个实体之间的对应接口;
图4示出了仅使用静态RWP的两种表示的示意图,客户端出于视口切换目的在RAP处从VP1切换到VP2;
图5示出了根据本发明的使用动态RWP的实施例,客户端出于视口切换目的在切换点处从VP1切换到VP2而在其间切换的两种表示的示意图;
图6示出了用于分别映射区分静态和动态区域的信息的语法示例;
图7示出了说明沉浸式视频流中所涉及的实体的示意框图,这些实体可以被实施为根据本申请的实施例进行操作;
图8示出了说明根据本申请的实施例的在服务器处提供的数据的示意图;
图9示出了根据本申请的实施例的切换点附近的下载流从一个视口(VP)到另一视口的部分的示意图;
图10示出了根据本发明实施例的清单文件的内容和结构的示意图;以及
图11示出了说明根据图10的清单文件将表示可能分组为适配集的示意图。
具体实施方式
在描述本申请的某些实施例之前,应重新开始本申请说明书的介绍部分中的描述。特别地,描述止于图4,描述了与从一个表示切换到另一表示的相关联的低效率,但是表示的性质针对一个或多个帧区域的特定集合而言(此处是图2中描绘的左手),实际上在表示之间是一致的。
特别地,由于某些图片部分,例如低分辨率的整个内容(图2中的阴影部分)可能在所有比特流中都可用,对该范围进行解码将不需要重新初始化解码器,并且允许非RAP解码开始(对于此阴影线图片范围),这对提高编码效率将是有利的。根据下面描述的一些实施例,允许关于RWP配置的动态性的图片区域特定保证,这可以在编码预测链的重置中得到促进。这种情况在图5中用完整和部分RAP进行了说明,其中完整RAP对应于图4中的RAP(示出为完整高度的块),而部分RAP(示出为半高的块)对应于以下事实:仅图片的一部分,即非静态和VP特定范围被编码(例如,图2中的帧区域的右侧),而不依赖于按比特流顺序在部分RAP之前的图像,而图片的静态部分(即整个360度视频内容的低分辨率变型例(在图2中以阴影线示出))则使用按比特流顺序在部分RAP之前的图片以预测方式进行编码。
随着RWP信息的扩展(其中提供了RWP的动态性指示及其区域描述),ISOBMFF解析器可以在初始化片段以动态模式初始化渲染器。ISOBMFF解析器(或用于解析“moov”框的相应模块)将初始化解码器并初始化渲染器。这次,渲染器将以静态模式、完全动态模式或部分动态模式初始化,如下所述。渲染器的API将允许以不同的方式初始化,并且如果以动态模式和/或部分动态模式进行配置,则将允许对RWP中描述的区域进行比特流内重新配置。
实施例可以如图6所示。这里,如果对于基本流内的所有图片,按区域打包是恒定/静态的,则regions_type等于0。如果为1,则允许每个图片的按区域打包都可以改变。如果等于2,按区域打包将定义对于整个基本流是静态的一组区域,以及允许改变的一些区域。如果使用模式2,则在初始化片段中解析“rwpk”框。可以通过以下方式来初始化渲染器:为整个服务映射部分解码后的图片的一部分,以将其映射到360视频的一部分或全部;而解码图片的其他部分则是动态配置的,并且可以使用渲染器API进行更新。
因此,可以约束内容以静态方式针对整个视频流包含整个360视频的低分辨率版本。
由于在DASH场景中,下载通常发生在(子)段边界(对应于一个或多个ISOBMFF片段),因此在非引导视图中,对于DASH客户端确保按动态区域方式不在比(子)段更细的粒度上变化是有益的。因此,客户端知道在下载(子)段时,该(子)段中的所有图片都具有相同的按区域打包的描述。因此,另一实施例是限制按区域打包的动态性来仅以片段为基础进行变化(如果区域类型等于2)。即,再次描述动态区域或强制在片段开始处存在SEI。然后,将比特流中的所有SEI被约束为在ISOBMFF片段处具有按区域打包描述的相同值。
另一个实施例基于以上任何一个,但是具有以下约束:样本条目中的RegionWisePackingStruct中指示的动态区域的数量以及它们的尺寸保持恒定。唯一可以改变的是被打包的区域和/或被投影的区域的位置。显然,在静态或动态区域上的多个区域中可能具有很大的灵活性,并且只要覆盖相同的内容(例如,相同的覆盖范围),就可以灵活选择,以实现每个时刻和每个视口最高效的传输。但是,这将需要能够处理变化很大的渲染器,这通常会导致复杂性。渲染器初始化完成后,如果可以承诺保持静态的区域数量和动态区域的数量;以及尺寸如何;这样的渲染器的实现和操作就可以简单得多,并且可以容易地执行。从而促进了ISOBMFF解析器(或对应模块)中的API的运行和配置。
尽管如此,在这样的服务中;如果没有设置特定的约束并承诺给用户,则可能是无法提供有效的流服务。例如,想象一下,有N个视口的服务:VP1,VP2...VPN。如果VP1至VP4具有相同的静态区域,并且VP5至VPN也具有相同的静态区域;但是这两个集合的静态区域不同,由于只能在完整的RAP处执行从视口VP1...VP4之一切换到视口VP5...VPN之一,客户端操作会变得更加复杂,这将需要具有更复杂操作的DASH客户端来检查完整RAP的可用性,并可能导致等待完整RAP可用性的某些延迟。因此,另一个实施例基于以上任何一个,但是受到以下约束:以例如在清单(例如媒体演示说明-MPD)中用信号发送的媒体/表示简档,强制要求所有具有相同覆盖范围和/或视点的适配集具有相同的静态区域的静态配置。
在当前的DASH标准中,有两种类型的信令可用于切换。一种是RandomAccess@interval,它描述表示中随机访问点(RAP)的间隔。显然,由于RAP可以用于开始解码并呈现表示的内容,因此可以使用这样的点从一个表示切换到另一种表示。DASH中定义的另一个属性是SwitchingPoint@interval。此属性可用于定位给定表示的切换点。这些切换点与RAP的不同之处在于,它们不能用于从此点开始解码,但是可以用于从此点开始继续处理和解码该表示的比特流(如果已经对同一适配集的另一个表示进行了解码的话)。但是,客户端无法知道在切换点处从一个适配集中的一个表示切换到另一个适配集的另一个表示是否可以得到正确解码和呈现。另一个实施例是作为MPD的新元素或描述符的新信令,例如CrossAdaptationSwitchingPoints是一个表示可以跨适配集使用切换点的真(true)或假(false)的元素。或者甚至CrossAdaptationSwitchingPoints在适配集内被用新号通知并且是整数,这意味着具有相同整数值的适配集属于一组适配集,对于这些适配集,跨不同的适配集进行切换会导致可以得到正确处理和解码的有效比特流。具有相同覆盖范围和/或视点的所有适配集具有静态区域的相同静态配置的先前实施例也可以扩展为,当在MPD中指示给定的媒体/表示简档时,CrossAdaptationSwitchingPoints被解释为真或具有相同覆盖范围和/或视点的所有适配集具有相同的整数值。或者仅仅是满足了相应的约束,而没有除了简档指示之外的其他必要指示。
另一个实施例处理参考先前片段的图片的ISOBMFF片段中的编码图片。其中参考图片只能在当前图片的静态部分和以前图片的静态部分使用参考。来自动态部分的样本和/或任何其他元素(例如,运动矢量)不能用于解码。对于动态部分,强制使用RAP或切换点信令。
因此,综上所述,作为上述实施例的基础的思想之一是可以以诸如在带宽消耗方面或者在相等带宽消耗下的视频质量方面以改善的特性来建立沉浸式视频流。如图7所示,沉浸式视频流环境可以包括:服务器10,其中存储了在其中编码有场景的数据12;以及客户端装置14,其经由诸如互联网和/或移动网络等的网络16连接到服务器10。客户端装置14包括几个组件,其中有文件片段检索器18(例如仪表盘客户端引擎)、媒体文件到视频比特流转换器20、解码器22、渲染器24和控制器26,例如,在指示当前用户的观看方向的入站传感器数据28的基础上控制检索器18和渲染器24。客户端装置14可以根据图3构造。
上述实施例所基于的思想之一是,如果以特殊方式设计表示场景的数据12,则可以实现更高效的沉浸式视频流,即在所有表示中,视频帧在第一组一个或多个区域中相对于视频帧和场景之间的映射一致,但是它们还包括第二组一个或多个区域,其中映射在各个表示之间有所不同,从而使它们成为视口特定的。下文描述细节。如图所示,贡献者400可能已经生成或准备了数据12,然后将其提供给服务器10处的客户端14。它形成了一种用于生成对场景进行编码以进行沉浸式视频流传输的数据12的装置。在每个表示中,第一组区域和第二组区域之间是清晰区分的,使得通过在各种表示之间切换来从数据12导出的最终下载的连接片段保持该特性,即相对于第一组区域的连续性,而相对于第二组区域是动态的。但是,在不进行切换的情况下,映射将是恒定的。然而,由于视口位置的改变,客户端装置试图从一种表示切换到另一种表示。每次更改表示时,都不需要重新初始化或重新打开新的媒体文件,因为基本配置保持不变,即,相对于第一组区域的映射保持恒定,而相对于第二组区域映射是动态的。
为此,数据12包括如图8所示的一组40表示42,其中每个表示包括视频44,其视频帧被细分为多个区域46。特别地,存在第一组一个或多个区域46a是所有表示42所共有的,即所有表示42的视频44的视频帧48的空间细分相对于其一致。尽管在本申请中示出了空间上一致的情况,但是所有表示42的视频44的视频帧48的其余部分可以以表示42之间不同的方式细分为一个或多个区域46b。类型46a和46b的区域之间的差异如下:一方面视频帧48和另一方面场景52之间的映射50对于所有表示42保持恒定或相同。为此,例如,以全景球表示的场景52以表示42之间一致的方式映射或部分映射到视频帧44的区域46a上。然而,在表示42之间,就区域46b而言,映射50是不同的。映射50中的一致例如涉及视频帧的范围内的各个区域的位置和大小,场景52内该区域的映射图像的(例如图8的中间表示42的图片48的区域46b的图像49)的位置和大小,以及该区域与其图像之间的投影或变换类型或样本映射。映射的差异又涉及这些参数中的任何一个的偏差。对于区域46a,所有这些特征在表示24之间是相同的,即,区域46a具有相同的大小并且位于所有表示的视频帧48内的相同位置。例如,在具有区域46b的所有表示42之间,视频帧48具有相同的大小,但是,例如,尽管它们在视频帧的范围内位于同一位置并且具有相同的大小,但是通过映射50与场景52中不同的图像相关。因此,与另一表示的视频帧48的区域46b相比,一种表示的视频帧48的区域56b例如示出了场景52的另一部分。换句话说,在区域46a内,各个表示的视频帧与场景之间的映射50保持恒定,而在区域46b内的各个表示之间,视频帧与场景之间的映射50可以在以下方面有所不同:1)根据映射50,场景中视频帧的区域46b的图像的位置,和/或2)一组动态区域(例如区域46b)的周边,和/或3)场景52中动态区域及其图像之间的样本映射。上面参考图2中的VP1和VP2的示例描述了详细示例。如后一示例所示,与将场景或其一部分编码为静态区域46a的分辨率相比,将场景的一部分编码为区域46b的空间分辨率可以提高。同样,场景52内区域46b的映射图像可能比区域46a的图像更大。
如图5所示,每个表示42被分成片段54,片段54分别覆盖场景52的相应视频44的时间上连续的时间间隔56。每个片段54包括关于映射50的映射信息58,该映射信息至少关于片段54所属的相应表示42内的视频帧48的第二组一个或多个区域46b。如上所述,该映射信息58可以例如包含在媒体文件头部中。它可以附加地包括关于涉及相应片段54内的视频帧48的第一组一个或多个区域46a的映射50的信息,尽管这与视频帧的恒定部分有关。附加地或可替代地,映射信息58例如通过SEI消息被包含在每个片段54所包括的视频比特流中。这意味着以下含义:每个表示42实际上可以是由一系列片段54组成的媒体文件,每个片段54可以包括媒体文件头部60和一个或多个有效载荷部分62,或者换句话说-媒体文件片段,形成一系列此类媒体文件片段。有效载荷部分62承载视频比特流的片段,具有在其内编码的时间间隔56内的视频帧48,片段54属于该视频帧。该视频比特流片段64在例如SEI消息内包含映射信息58′。片段54是文件片段检索器18能够以其为单位从服务器10检索表示42的那些片段。为此,例如,文件片段检索器18基于清单文件或从服务器10获得的媒体表示描述计算相应的地址,例如HTTP地址。图10中说明了此类文件的示例。映射信息58可以根据以下一项或多项来定义预定区域46a/b的映射50:
-预定区域的视频帧内位置,例如在图8的示例中所做的,对任何区域46a,经由在202语法部分RectRegionPacking处调用的静态类型i;以及对任何区域46b,经由在206语法部分RectRegionPacking处在204处分别调用的动态类型i;在204处的语法通过定义拐角之一的位置以及宽度和高度来定义区域的准周长;或者,可以为每个区域定义两个对角相对的拐角;
-预定区域的场景位置,例如在图8的示例中所做的,对任何区域46a,经由在202语法部分RectRegionPacking调用的静态类型i;以及对任何区域46b,经由在206语法部分RectRegionPacking处在208处分别调用的动态类型i;在204处的语法通过定义拐角之一的位置(或两个相交的边,例如由纬度和经度定义)以及图像的宽度和高度(例如由经纬度偏移量定义)来根据映射50定义场景中每个区域的图像49的准位置;或者,可以为每个区域定义两个对角相对的拐角(例如由两个纬度和两个经度定义);
-预定区域的视频帧到场景的投影,即在内部将相应区域46a/b映射到球体52的确切方式的指示;例如在图8的示例中所做的,对任何区域46a,经由在202语法部分RectRegionPacking处调用的静态类型i;以及对任何区域46b,经由在206语法部分RectRegionPacking处在210处分别调用的动态类型i,即在此通过索引一些预定义的变换/映射类型来示例;换句话说,此处定义了第二组一个或多个区域与其在场景中的图像之间的样本映射。
此外,表示42具有以某种方式编码的视频帧48,即,它们包括随机访问点66和切换点68。随机访问点可以在表示之间对准。可以相对于两种类型的区域46a和46b都独立于相应表示的先前片段来编码某个随机访问点的片段。例如,因为该片段544与随机访问点66相关联或在时间上对准该随机访问点66,所以区域544被编码为与两个区域类型46a和46b内的任何先前的片段541至543无关。与切换点68相关联或在时间上对准的片段仅相对于第二类型的区域(即区域46b),独立于相应表示42的先前片段而被编码(如122所示),但是可预测地依赖于区域46a内的先前片段(如124所示)。例如,区域545是就区域46a而言,对任何先前片段541至544具有预测依赖性的片段,从而与RAP片段相比,降低了这些片段的必要比特率。
由于以上述方式设计了数据10,因此由客户端装置14下载的媒体流保持有效,因为关于该数据10的表示42中的每个,恒定特性保持相同。为了对此进行说明,假定上述情况是从表示421切换到422的情况。数据12例如包括每个表示42的初始化片段70,该初始化片段包括相应表示42的文件头部。初始化片段70或片段70内的头部(有时会将附图标记重复用于其中的头部)包括映射信息58,或换句话说,包括其另一实例,至少就恒定区域46a而言。然而,它可替代地包括相对于完整映射50(即相对于区域46a和46b对两者不加区分,即指示一个区域为恒定(即区域46a)并另一个为动态(即区域46b))的映射信息58。有趣的是,当将表示42视为单独地驻留在服务器10上时,这种区分还没有意义。然而,当观看最终由客户端装置14下载的媒体文件时,其含义和意义变得清楚。还要注意,映射信息的附图标记58现在已经在语义上用于其在不同的位置处的实际不同的实例:在片段和初始化片段。重复附图标记的原因是信息的语义一致。
特别地,在下载时,文件片段检索器18开始于检索首次下载的表示的初始化片段70以及该表示的首次检索的片段。在上面的示例中,第一个表示是421。然后,在某个切换点68处,文件片段检索器18从表示421切换到表示422。图9示出了围绕这样的切换120从一个表示到另一表示检索的片段的这种下载流19中的各个部分。但是,文件片段检索器18不需要检索表示422的初始化片段。不需要开始新文件。而是,文件片段检索器18直接继续检索与切换点68相关联或时间上对准的表示422的片段543,如上所述,在其片段头部60中具有映射信息58。客户端装置14或更准确地说,客户端装置14所包括的文件片段检索器18形成了一种用于通过沉浸式视频流从服务器10流传输场景内容的装置,并且被配置为在另一种表示的切换点之一处从一种表示切换到另一种表示。
媒体文件到比特流转换器20从文件片段检索器18接收下载的片段的序列,即表示421的片段541和542,其后是表示422的片段543,依此类推,并且看不到要重新初始化解码器22的任何冲突或动机:媒体文件头部仅已被媒体文件到比特流转换器20接收一次,即在开始时,即在表示421的片段541之前。此外,常量参数保持恒定,即相对于区域46a的映射信息。变化的信息不会丢失,并且仍然留在其接收者(即渲染器24)中。
首先,媒体文件到比特流转换器20接收下载的媒体比特流,该媒体比特流是由来自不同表示文件42的一系列片段组成的媒体文件,剥离片段头部60,并通过连接片段64转发片段视频比特流的包。解码器22将由比特流片段64的序列形成的视频比特流内的映射信息58′转换为元数据,解码器22将元数据转发给渲染器24,以伴随解码器22从视频比特流解码的视频。渲染器24又能够渲染来自解码器22已经从入站下载视频比特流中解码的视频的输出帧。输出帧示出当前视口。
因此,解码器从转换器20接收视频比特流,视频帧的视频被编码到视频比特流中。视频比特流本身可以包括诸如SEI消息形式的映射信息50。可替代地,解码器以元数据的形式接收该信息。映射信息将视频帧和场景之间的映射50通知解码器,其中视频比特流包含相对于第二组一个或多个区域的映射信息的更新。
解码器22可以利用以下事实情况:存在不同类型的区域46a和46b,即恒定区域和动态区域。
举例来说,视频解码器22可仅一次将映射50通知渲染器24,或者以相对于区域46a的第一更新速率且以相对于区域46b的第二更新速率将映射50通知渲染器24,其中第二更新速率高于第一更新速率,从而与在每次相对于动态区域46b改变映射50的情况下更新完整映射50的情况相比,减少了从解码器22到渲染器24的元数据量。解码器可以通过伴随解码器输出的视频的映射信息元数据,将视频帧与场景之间的映射通知渲染器,其中,映射信息元数据可以指示一次视频帧与场景之间的映射,即针对该时刻,然后通过相应的元数据更新进行更新。映射信息元数据可以具有与到目前为止讨论的映射信息实例相似或甚至相同的语法。
附加地或可替代地,视频解码器可以将视频帧的细分解释为恒定区域和动态区域,以保证视频比特流使用运动补偿预测来对视频帧进行编码,从完全驻留于参考视频帧的第一组一个或多个区域中的参考视频帧内的参考部分预测区域46a内的视频帧。换句话说,可以将区域46a的运动补偿保持在相应区域的边界内,以便仅从参考图片内的相同位置的区域46a预测一幅图片内的区域46a,即,不涉及运动预测,或者运动预测不会超出该区域的边界延伸到任何其他区域,或者至少没有动态类型的区域(例如区域46b)。解码器可以使用该承诺来将静态区域46a分配给与动态区域的解码并行的解码,而不必在时间上将区域46a的解码与相同图片中的区域46b的解码的当前进度对准。解码器甚至可以利用承诺,以便在解码运动补偿参考视频帧的任何动态区域46b的相邻部分之前开始解码当前视频帧的静态区域46a的边缘部分。
此外,附加地或可替代地,视频解码器可以利用以下事实情况:切换点是一种部分随机访问点,即为了相对于切换点之前的片段的视频帧的不再需要的区域46b在其解码图像缓冲器(DPB)中重新分配当前消耗的存储空间。换句话说,解码器可以调查由信息58在检索到的片段中传递的映射信息更新,其更新了视频比特流中第二组一个或多个区域的映射50,以便识别发生映射50相对于一第二组个或多个区域的变化的场合,例如在片段120处。然后,这种情况可由解码器22解释为部分随机访问点,即相对于区域46b的部分RAP,结果,对于参考图片的区域46b执行刚刚概述的DPB存储容量的取消分配,保证不再使用。如图6的示例中所示,可以以如下方式设计映射信息58:解码器可以通过语法顺序将静态区域与动态区域区分开,在该语法顺序下,映射信息依次与一个或多个静态区域以及一个或多个动态区域相关。例如,解码器读取第一数量的静态区域,即static_num_regions,以及第二数量的动态区域,即dynamic_num_regions(参见图6),然后从区域上的映射信息中读取区域特定信息(例如204、210和208)的频率与两个数量的总和相同,并将第一数量解释为静态区域,将第二数量解释为动态区域。静态和动态区域之间的顺序自然可以切换。可替代地,可以对应于静态和动态区域的总数读取多次这样的区域特定信息的实例,其中每个区域特定信息包括指示或标志,即关联语法元素,指示相应区域特定信息所涉及的相应区域是静态的还是动态的。
进而,渲染器24还可利用以下知识,即一些区域(即区域46a)具有恒定的性质:对于这些区域,渲染器24可以使用从入站解码视频到输出视频的恒定映射,同时对动态区域(例如区域46b)使用更复杂的逐步转换。
可由检索器18用来顺序检索片段的上述清单文件或MPD可以是数据10的一部分。这里也以图10中的附图标记100示出了其示例。文件100可以例如是XML文件。作为示例,对于先前示出的每个表示42,它可以具有定义了语法的语法部分102。在此,每个语法部分都定义了一适配集表示。参见图11所示的示例。因此,每个适配集分别收集具有分别不同质量Q#和比特率的表示42。质量差异可以涉及SNR和/或空间分辨率等。就映射50而言,一个适配集43内的表示42可以彼此对应。也就是说,映射50甚至对于区域46a和46b是相等的,并且视频帧大小一致,或者映射50对于区域46a和46b除尺寸外相等,并且视频帧的大小根据一个适配集43中的表示之间的空间分辨率差异相对于彼此缩放。
语法部分102可以针对每个适配集指示相应适配集合内的表示的高分辨率区域(例如,46b)的映射50或视口方向104。此外,每个语法部分102可以为由相应语法部分102定义的适配集合内的每个表示,指示用于获取相应表示的片段64的获取地址106,例如经由计算规则的指示。除此之外,每个语法部分102可以包括在相应表示内的RAP 66的位置的指示108和SP 68的位置的指示110。RAP可以在适配集之间一致。SP可以在适配集合之间一致。另外,清单文件100可以可选地包括关于SP是否另外可用于从适配集的任何表示切换到其他适配应集的任何表示的信息112。信息112可以以许多不同的形式体现。信息可以针对所有适配集全局地发信令,SP可以被用来在相等质量等级(对于其映射50是相同的)但具有不同适配集的表示之间进行切换。在图11中的300处通过虚线示出了该切换限制,该虚线互连了可以允许进行切换的不同适配集的相等质量等级Q#的表示。可替代地,如在304处所描绘的,信息112可以由为每个适配集43的每个表示42所分配的索引302来体现,其约定是在SP处允许在相等索引的表示之间进行切换。因此,在允许的情况下,检索器18不需要检索其切换到的表现形式的初始化片段70,并且有效地避免了解码器的重新初始化。甚至可替代地,可以为每个适配分配集ID,即,全局地用于每个适配集内的所有表示,从而指示可以将具有相同ID的适配集的所有表示的SP用于不同的适配集之间的切换。甚至可替代地,可以通过能够将清单文件与不同简档相关联的简档指示符来共同标记(即指示)信息112。一个可能是OMAF简档,它暗示某些约束适用,例如a)允许在一适配集的所有表示之间,在质量水平上一致的不同适配集的表示之间或在质量水平等方面的差异小于一定量的不同适配集的表示之间进行切换。后者的一定量也可以作为信息112的一部分发出信令。简档指示符可以是,例如,m元语法元素,通过假设一个特定状态,该语法元素强制转换OMAF简档。它将由信息112组成。检索器在确定不同视口方向的表示(即,属于不同适配集的表示)之间可能的切换点时做出相应的动作,或者换句话说,在搜索属于与所需的视口方向相关联的适配集的表示的SP中做出相应的动作。
可以注意到,以上概念还可以在面向实时通信的场景(例如,经由RTP或WebRTC的低延迟流传输)中的会话协商的上下文中体现出来。在这种场景下,拥有所需媒体的服务器充当会话系统中的一个通信端点,而需要所需媒体数据的客户端充当另一通信端点。通常,在建立通信会话(即流传输会话)期间,交换或协商某些媒体特性和需求,这与基于HTTP的媒体流传输中的媒体表示描述的目标非常相似,其告知一个端点所提供的媒体特性和需求,例如编解码器级别或RWP详细信息。
在这种场景下,其例如可以是会话描述协议(SDP)交换的一部分,用于交换或协商关于媒体数据的RWP的特性,例如服务器通知客户端有关以下内容的可用性:a)没有RWP(按比特率低效率)的媒体数据,b)经典RWP(全图片RAP,比a)更有效),或c)根据上述描述的动态RWP(具有最高比特率效率的部分图片RAP)。结果所得的场景将对应于图7的描述,并进行以下修改:
服务器10和客户端14将表示要从端点10(可能仍称为服务器)到14(可能仍称为客户端)建立视频流传输之间的通信端点或通信设备。客户端可以包括组件20和22以及可选地包括组件24和26,并且检索器将由执行谈判的谈判器代替。服务器不必访问如上所述视频的各种表示。将要流传输的视频可以在运行中或通过准备进行渲染,并且在相应的提议消息中提供彼此区分的版本,在某种程度上对应于到目前为止针对图7所述的流传输环境中的清单,并且从服务器10发送到客户端14,区别仅在于:a)不使用按区域打包,b)仅对静态区域使用按区域打包,以及c)使用包括至少一个动态区域的按区域打包。选项a是可选的,可以省略。客户端将应答消息发送到服务器,该应答消息选择提供的媒体版本之一。选项c导致从服务器10发送到客户端14的视频比特流可能符合上述描述,即,选项c中可能包含RWP消息58。如果解码器22和/或媒体转换器20能够处理动态区域,则该选项可以仅由客户端14选择或允许由客户端14选择。在使用选项b的情况下,每次映射50随着一个动态区域改变时,服务器10可以发送初始化头部。即,服务器10将以至少两种版本向客户端提供视频:一种版本是将视频编码为连续的视频比特流,然后从服务器发送到客户端,其方式是将视频的视频帧细分为第一组一个或多个区域和第二组一个或多个区域,其中视频帧和场景之间的映射在第一组一个或多个区域内保持恒定,而在第二组一个或多个区域内是动态的或变化的;另一版本是将视频编码为覆盖视频的时间连续间隔的视频比特流的连接,然后从服务器发送到客户端,其方式是在连接的每个视频比特流中,将视频的视频帧细分为一组区域,其中视频帧与场景之间的映射在该组区域内保持恒定,而在所有视频比特流的连接中,该组区域包括第一组一个或多个区域和第二组一个或多个区域,其中视频帧和场景之间的映射相对于连接在第一组一个或多个区域内保持恒定,同时在第二组一个或多个区域中是动态的或变化的。如所讨论的,服务器可以在第二选项中在视频比特流的连接之间插入初始化头部。这些初始化头部可能具有与其相关(以及分别在其之前)的相应视频比特流的映射信息。在第一种选项中,视频比特流可以如上所述被解释。片段化成片段可以适用也可以不适用。因此,服务器将被配置为在实际将视频流传输到客户端之前的协商阶段,将提供两种版本的视频的提议消息发送给客户端,并从客户端接收选择一个或多个所提供选项的相应应答消息。取决于所提供的选项,服务器将以讨论的方式提供视频。客户端将被配置为接收提议消息并通过选择所提供版本之一的相应应答消息来应答。如果选择第一选项,则客户端内的解码器和/或媒体转换器将以上述方式操作以处理动态RWP。
在另一种场景下,客户端使用以上概念来向服务器通知他期望的动态RWP配置,例如期望静态区域、静态概览图片部分的分辨率为多少,或者覆盖视口的动态图片部分、动态区域应包含哪些视野。经过这样的协商交流和确认,客户端将只需要在要包含在动态区域中的当前查看方向上更新另一个端点(即服务器),而相应的端点(即服务器)将知道如何更新动态部分,从而正确示出了新的观看方向。即,在此,服务器10可能不提供刚刚提到的选项b和c的版本,而仅提供选项c。另一方面,虽然在上一段中,映射的变化可能起源于服务器侧,但此处,映射改变是在客户端侧发起的,例如经由图7中讨论的传感器信号,由客户端14向服务器10发送相应的控制消息。结果所得的场景将与上段中描述的图7的变型例相对应,但提议消息和应答消息是可选的。客户端14期望根据选项c从服务器14接收视频比特流。为了控制关于动态区域的映射,客户端向服务器发送指示映射50的变化的控制信号。这样流传输的视频比特流可以对应于上述结果,即,其中包含映射信息58。片段化成片段可以适用也可以不适用。这里,可以将指示对动态区域的映射改变的中间控制消息与从客户端发送到服务器的协商控制消息区分开,该协商控制消息指示关于静态区域的映射,以及可选地,关于动态区域的映射的第一设置。因此,服务器将被配置为按照以上根据选项c所讨论的方式提供视频,并且响应于来自客户端的中间控制消息以改变对视频比特流的后续帧的动态区域的映射50。可选地,服务器将响应协商控制消息以最初建立到静态区域的映射50。结合上述选项b和c之间的协商,在选择了选项b的情况下,服务器可以通过如当前中间控制消息所示停止流传输当前静态RWP的当前视频比特流并开始流传输不同的静态RWP的后续视频比特流来响应中间控制消息。客户端将被配置为通过选择所提供版本之一的相应应答消息来接收提议消息并应答。如果选择选项c,则客户端内部的解码器和/或媒体转换器将以上述方式操作以处理动态RWP。
尽管已经在装置的上下文中描述了一些方面,但是很明显,这些方面也代表了对相应方法的描述,其中框或设备对应于方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中描述的方面也表示对相应装置的相应框或项目或特征的描述。方法步骤中的一些或全部可以由(或使用)硬件装置(例如,微处理器、可编程计算机或电子电路)执行。在一些实施例中,最重要的方法步骤中的一个或多个可以由这样的装置执行。
上面讨论的本发明的信令,例如媒体文件、视频比特流、日期集合和清单文件,可以存储在数字存储介质上,或者可以在诸如无线传输介质的传输介质或诸如互联网的有线传输介质上传输。
取决于某些实现方式要求,本发明的实施例可以以硬件或软件来实施。可以使用数字存储介质来执行该实现方式,例如,软盘、DVD、蓝光、CD、ROM、PROM、EPROM、EEPROM或FLASH存储器,其中存储了电子可读控制信号,与可编程计算机系统协作(或能够协作),从而执行相应的方法。因此,数字存储介质可以是计算机可读的。
根据本发明的一些实施例包括具有电子可读控制信号的数据载体,该电子可读控制信号能够与可编程计算机系统协作,从而执行本文描述的方法之一。
通常,本发明的实施例可以被实现为具有程序代码的计算机程序产品,当计算机程序产品在计算机上运行时,该程序代码可用于执行上述方法之一。程序代码可以例如被存储在机器可读载体上。
其他实施例包括存储在机器可读载体上的,用于执行本文描述的方法之一的计算机程序。
换句话说,因此,本发明方法的实施例是一种计算机程序,所述计算机程序具有当计算机程序在计算机上运行时用于执行本文描述的方法之一的程序代码。
因此,本发明方法的另一实施例是一种数据载体(或数字存储介质,或计算机可读介质),包括记录在其上的、用于执行本文描述的方法之一的程序代码的计算机程序。数据载体、数字存储介质或记录介质通常是有形的和/或非暂态的。
因此,本发明方法的另一实施例是表示用于执行本文描述的方法之一的计算机程序的数据流或信号序列。数据流或信号序列可以例如被配置为经由数据通信连接,例如经由互联网来传输。
另一实施例包括处理装置,例如计算机或可编程逻辑器件,其被配置为或适于执行本文描述的方法之一。
另一实施例包括一种计算机,所述计算机上安装了用于执行本文描述的方法之一的计算机程序。
根据本发明的另一实施例包括一种装置或系统,所述装置或系统被配置为(例如,以电子方式或光学方式)将用于执行本文描述的方法之一的计算机程序传输给接收器。接收器可以是例如计算机、移动设备、存储设备等。所述装置或系统可以例如包括用于将计算机程序传输到接收器的文件服务器。
在一些实施例中,可编程逻辑器件(例如现场可编程门阵列)可以用于执行本文描述的方法的一些或全部功能。在一些实施例中,现场可编程门阵列可以与微处理器协作以便执行本文描述的方法之一。通常,所述方法优选地由任何硬件装置执行。
可以使用硬件装置,或使用计算机、或使用硬件装置和计算机的组合来实现本文描述的装置。
本文描述的装置或本文描述的装置的任何组件可以至少部分地以硬件和/或软件来实现。
可以使用硬件装置,或使用计算机,或使用硬件装置和计算机的组合来执行本文描述的方法。
本文描述的方法或本文描述的装置的任何组件可以至少部分地由硬件和/或软件执行。
上述实施例仅用于说明本发明的原理。应当理解,本文描述的布置和细节的修改和变化对于本领域的其他技术人员将是清楚的。因此,本发明的意图仅由待审的专利权利要求的范围限制,而不受通过本文的实施例的描述和解释而给出的具体细节的限制。

Claims (74)

1.将场景(52)编码到其中以进行沉浸式视频流传输的数据,包括:
一组(40)表示(42),每个表示包括视频(44),所述视频的视频帧(48)被细分为区域(46a、46b),
其中,视频帧的区域相对于第一组一个或多个区域(46a)在表示之间在空间上一致,其中,视频帧和场景之间的映射(50)对于第一组一个或多个区域中的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域(46b)中的表示之间不同,
其中每个表示被分成覆盖场景的时间上连续的时间间隔(56)的片段(54),每个表示的每个片段包括映射信息(58),所述映射信息关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点(66),其中在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域(46a、46b)中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点(68),其中在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域(46b)中独立于(122)相应表示的先前片段进行编码,但在第一组一个或多个区域(46a)中预测性地依赖于(124)先前片段。
2.根据权利要求1所述的数据,其中,由每个表示的每个片段所包括的映射信息(58)还包括关于相对于相应片段中的视频帧的第一组一个或多个区域(46a)的视频帧和场景之间映射的信息。
3.根据权利要求1或2所述的数据,其中,每个表示包括视频比特流形式的视频,并且所述映射信息(58)包含在所述视频流的补充增强信息消息中。
4.根据权利要求1至3中任一项所述的数据,其中,每个表示包括媒体文件格式的视频,并且所述映射信息(58)包含在所述片段的媒体文件格式头部中。
5.根据权利要求4所述的数据,其中,每个表示包括初始化头部(70),所述初始化头部(70)包括关于相对于相应表示的片段内的视频帧的第一组一个或多个区域(46a)的视频帧和场景之间映射的信息。
6.根据权利要求1至5中任一项所述的数据,其中,所述映射信息(58)区分一方面的视频帧的第一组一个或多个区域与另一方面的视频帧的第二组一个或多个区域。
7.根据权利要求1至6中任一项所述的数据,其中,所述映射信息根据以下一项或多项来定义用于预定区域的映射:
预定区域的视频帧内位置(204),
预定区域的球形场景位置(208),以及
预定区域的视频帧到球形场景的投影(210)。
8.根据权利要求1至7中任一项所述的数据,其中,每个表示包括媒体文件格式的视频,并且所述表示的片段是媒体文件片段。
9.根据权利要求1至7中任一项所述的数据,其中,每个表示包括媒体文件格式的视频,并且所述表示的片段是一系列一个或多个媒体文件片段。
10.根据权利要求1至9中任一项所述的数据,还包括清单文件(100),所述清单文件(100)描述用于沉浸式视频流传输的表示,其中,所述清单文件指示用于以片段或一系列一个或多个片段为单位检索每个表示的访问地址(106)。
11.根据权利要求1至10中任一项所述的数据,还包括清单文件(100),所述清单文件(100)描述用于所述沉浸式视频流传输的表示,其中,所述清单文件指示(108;110)所述一组随机访问点和所述一组切换点。
12.根据权利要求11所述的数据,其中,所述清单文件分别指示对于每个表示的所述一组随机访问点。
13.根据权利要求11或12所述的数据,其中,所述清单文件分别指示对于每个表示的所述一组切换点。
14.根据权利要求1至13中任一项所述的数据,所述一组随机访问点在所述表示之间一致。
15.根据权利要求1至14中任一项所述的数据,所述一组切换点在所述表示之间一致。
16.根据权利要求1至15中任一项所述的数据,还包括清单文件(100),所述清单文件描述用于沉浸式视频流传输的表示,其中,所述清单文件指示所述一组切换点,并且包括设置为m元语法元素的m个状态之一的m元语法元素,所述m元语法元素指示不需要将切换到任何切换点处的表示的初始化头部(70)与所述表示在所述切换点处的片段一起检索。
17.根据权利要求1至16中任一项所述的数据,其中,视频帧将场景的第二部分编码为第二组一个或多个区域,使得所述第二部分在所述表示之间不同,并且所述第二组一个或多个区域在所述表示之间在数量上一致或对所有表示是共同的。
18.根据权利要求1至17中任一项所述的数据,其中,视频帧将场景的第二部分编码为第二组一个或多个区域,使得所述第二部分在所述表示之间在大小上一致,而在所述表示之间在场景位置上不同,并且所述第二组一个或多个区域对所有表示是共同的。
19.根据权利要求1至18中任一项所述的数据,其中,每个表示包括视频比特流形式的视频,其中,对于每个表示,使用运动补偿预测来对视频帧进行编码,使得根据完全驻留于第一组一个或多个区域中的参考视频帧内的参考部分,在第一组一个或多个区域中预测视频帧。
20.根据权利要求1至19中任一项所述的数据,其中,对于每个表示,在第一组一个或多个区域内,相应表示的视频帧和场景之间的映射保持恒定,并且在第二组一个或多个区域内,视频帧和场景之间的映射在所述表示之间在以下方面不同:
根据视频帧与场景之间的映射,场景中的视频帧的第二组一个或多个区域的图像(49)的位置,和/或
第二组一个或多个区域的周长,和/或
第二组一个或多个区域与其在场景中的图像之间的样本映射。
21.根据权利要求1至20中任一项所述的数据,其中,第二组一个或多个区域以比第一组一个或多个区域更高的空间分辨率对场景进行采样。
22.根据权利要求1至21中任一项所述的数据,其中,根据视频帧与场景之间的映射,第一组一个或多个区域在所述场景中第一组一个或多个区域的第一图像中对所述场景进行采样,根据视频帧与场景之间的映射,第二组一个或多个区域在第二组一个或多个区域的第二图像中对所述场景进行采样,所述第一图像大于所述第二图像。
23.根据权利要求1至22中任一项所述的数据,其中,所述数据在服务器处被提供给客户端以供下载。
24.清单文件,包括:
第一语法部分(102),定义第一表示的第一适配集、用于随机访问第一表示中的每个第一表示的第一RAP以及用于从第一表示中的一个第一表示切换到另一个第一表示的第一SP,
第二语法部分(102),定义第二表示的第二适配集、用于随机访问第二表示中的每个第二表示的第二RAP以及用于从第二表示中的一个第二表示切换到另一个第二表示的第二SP,以及
关于第一SP和第二SP是否能够另外用于分别从第一表示中的一个第一表示切换到第二表示中的一个第二表示以及从第二表示中的一个第二表示切换到第一表示中的一个第一表示的信息(112)。
25.根据权利要求24所述的清单文件,其中,所述信息包括每个表示的ID,从而指示具有相等ID的表示的SP对于在不同适配集的表示之间进行切换的可用性。
26.根据权利要求24或25所述的清单文件,其中,所述第一语法部分为所述第一表示指示第一视口方向(104),并且所述第二语法部分为所述第二表示指示第二视口方向。
27.根据权利要求24至26中任一项所述的清单文件,其中,所述第一语法部分指示用于检索所述第一表示中的每个第一表示的片段的访问地址,并且所述第二语法部分指示用于检索所述第二表示中的每个第二表示的片段的访问地址。
28.根据权利要求24至27中任一项所述的清单文件,其中,所述第一表示和所述第二表示的所述第一随机访问点和所述第二随机访问点是一致的。
29.根据权利要求24至28中任一项所述的清单文件,其中,所述第一表示和所述第二表示的所述第一切换点和所述第二切换点是一致的。
30.根据权利要求24至29中任一项所述的清单文件,其中,所述信息(112)是m元语法元素,如果将其设置为m元语法元素的m个状态之一,所述m元语法元素指示第一SP和第二SP能够另外分别用于从第一表示中的一个第一个表示切换到第二表示中的一个第二个表示以及从第二表示中的一个第二个表示切换到第一表示中的一个第一个表示,使得不需要将切换到任何切换点处的表示的初始化头部与所述表示在所述切换点处的片段一起检索。
31.根据权利要求24至30中任一项所述的清单文件,其中,所述信息包括分别针对所述第一表示和所述第二表示中的每个表示的ID,从而指示在所述信息的ID相等的第一表示和第二表示之间,所述表示的第一SP和第二SP能够用于在第一适配集和第二适配集之间进行切换,使得不需要将切换到任何切换点处的表示的初始化头部与所述表示在所述切换点处的片段一起检索。
32.根据权利要求24至31中任一项所述的清单文件,其中,所述信息包括分别针对所述第一适配集和所述第二适配集中的每个适配集的ID,从而指示如果ID相等,则所述第一适配集和第二适配集的所有表示的第一SP和第二SP能够用于在第一适配集和第二适配集之间进行切换,使得不需要将切换到任何切换点处的表示的初始化头部与所述表示在所述切换点处的片段一起检索。
33.根据权利要求24至32中任一项所述的清单文件,其中,所述信息包括简档标识符,所述简档标识符区分第一适配集和第二适配集所遵循的不同简档。
34.根据权利要求33所述的清单文件,其中,所述不同简档中的一个简档指示OMAF简档,其中,第一SP和第二SP能够另外分别用于从第一表示中的一个第一个表示切换到第二表示中的一个第二个表示以及从第二表示中的一个第二个表示切换到第一表示中的一个第一个表示。
35.一种包括视频的媒体文件(19),包括:
片段序列(54),将场景(52)的连续时间间隔编码到所述片段序列(54)中;
其中,由媒体文件包含的视频的视频帧(48)被细分为区域(46a,46b),其中,相对于第一组一个或多个区域,视频帧的区域在不同媒体文件片段中的视频帧之间在空间上一致,
其中视频帧具有编码到其中的场景,其中视频帧和场景之间的映射(50)在第一组一个或多个区域中的所有片段之间是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域中的片段之间不同,
其中每个片段包括关于相对于相应片段内视频帧的第二组一个或多个区域的在视频帧和场景之间的映射的映射信息(58),
其中视频帧被编码为使得片段包括:
预定片段(120),在预定片段(120)中视频帧在第二组一个或多个区域中独立于(122)先前片段进行编码,但在第一组一个或多个区域中,与预定片段相比,与在第二组一个或多个区域中的映射不同,预测性地依赖于(124)先前片段。
36.根据权利要求35所述的媒体文件,其中,由每个表示的每个片段所包括的映射信息还包括关于相对于相应片段内的视频帧的第一组一个或多个区域的视频帧和场景之间的映射的信息。
37.根据权利要求35或36所述的媒体文件,其中,所述片段序列包括视频比特流形式的视频,并且所述映射信息包含在视频流的补充增强信息消息中。
38.根据权利要求35至37中任一项所述的媒体文件,其中,所述映射信息包含在所述片段的媒体文件格式头部中。
39.根据权利要求38所述的媒体文件,其中,还包括媒体文件头部,即,初始化头部,所述媒体文件头部包括关于相对于相应表示的片段内的视频帧的第一组一个或多个区域的视频帧和场景之间的映射的信息。
40.根据权利要求35至39中任一项所述的媒体文件,其中,所述映射信息区分一方面的视频帧的第一组一个或多个区域与另一方面的视频帧的第二组一个或多个区域。
41.根据权利要求35至40中任一项所述的媒体文件,其中,所述映射信息根据以下一项或多项来定义用于预定区域的映射:
预定区域的视频帧内位置,
预定区域的球形场景位置,
预定区域的视频帧到球形场景的投影。
42.根据权利要求35至41中任一项所述的媒体文件,其中,所述片段是媒体文件片段。
43.根据权利要求35至41中任一项所述的媒体文件,其中,所述片段是一系列一个或多个媒体文件片段。
44.根据权利要求35至42中任一项所述的媒体文件,其中,使用运动补偿预测来对所述视频帧进行编码,使得根据完全驻留于第一组一个或多个区域中的参考视频帧内的参考部分,在第一组一个或多个区域中预测视频帧。
45.根据权利要求35至44中任一项所述的媒体文件,其中,在第二组一个或多个区域内的片段之间,视频帧和场景之间的映射在以下方面不同:
根据视频帧与场景之间的映射,场景中的视频帧的第二组一个或多个区域的图像的位置,和/或
第二组一个或多个区域的周长,和/或
第二组一个或多个区域与场景的图像之间的样本映射。
46.根据权利要求35至45中任一项所述的媒体文件,其中,第二组一个或多个区域以比第一组一个或多个区域更高的空间分辨率对场景进行采样。
47.根据权利要求35至46中任一项所述的媒体文件,其中,根据视频帧与场景之间的映射,第一组一个或多个区域在第一组一个或多个区域的第一图像中对所述场景进行采样,根据视频帧与场景之间的映射,第二组一个或多个区域在第二组一个或多个区域的第二图像中对所述场景进行采样,所述第一图像大于所述第二图像。
48.一种用于生成对场景编码以进行沉浸式视频流传输的数据的装置,包括:
生成一组表示,每个表示包括视频,所述视频的视频帧被细分为区域,使得
视频帧的区域相对于第一组一个或多个区域在表示之间在空间上一致,其中视频帧和场景之间的映射对于第一组一个或多个区域中的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域内的表示之间不同,
每个表示被分为覆盖场景的时间上连续的时间间隔的片段,
其中所述装置被配置为:
向每个表示的每个片段提供关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射的映射信息,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点,其中在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点,其中在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域中独立于相应表示的先前片段进行编码,但在第一组一个或多个区域中预测性地依赖于先前片段。
49.一种通过沉浸式视频流从服务器流传输场景内容的装置,所述服务器通过以下方式提供场景:
一组表示,每个表示包括视频,所述视频的视频帧被细分为区域,
其中,视频帧的区域相对于第一组一个或多个区域在表示之间在空间上一致,其中视频帧和场景之间的映射对于第一组一个或多个区域中的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域中的表示之间不同,
其中每个表示被分成覆盖场景的时间上连续的时间间隔的片段,每个表示的每个片段包括映射信息,所述映射信息关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点,其中在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点,其中在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域中独立于相应表示的先前片段进行编码,但在第一组一个或多个区域中预测性地依赖于先前片段,
其中,所述装置被配置为在另一表示的切换点中的一个切换点处从一个表示切换到所述另一表示。
50.一种提供沉浸式视频流传输场景的服务器,所述服务器通过以下方式提供场景:
一组表示,每个表示包括视频,所述视频的视频帧被细分为区域,
其中,视频帧的区域相对于第一组一个或多个区域在表示之间在空间上一致,其中视频帧和场景之间的映射对于第一组一个或多个区域中的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域中的表示之间不同,
其中每个表示被分成覆盖场景的时间上连续的时间间隔的片段,每个表示的每个片段包括映射信息,所述映射信息关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点,在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点,在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域中独立于相应的表示的先前片段进行编码,但在第一组一个或多个区域中预测性地依赖于先前片段。
51.一种视频解码器,被配置为从视频比特流解码视频,所述视频解码器被配置为:
从视频比特流中得到视频的视频帧的细分,所述视频帧细分为第一组一个或多个区域和第二组一个或多个区域,其中视频帧与场景之间的映射在第一组一个或多个区域内保持恒定,
其中,所述视频解码器被配置为:
检查映射信息更新,所述映射信息更新对所述视频比特流中的第二组一个或多个区域的映射进行更新,并且响应于相对于第二组一个或多个区域的映射的变化,识别相对于第二组一个或多个区域的部分随机访问点,和/或
将视频帧的细分解释为一种承诺,即视频比特流用于对视频帧进行编码的运动补偿预测根据完全驻留于第一组一个或多个区域中的参考视频帧中的参考部分来在第一组一个或多个区域中预测视频帧,和/或
通过伴随视频的映射信息元数据,向用于从视频中渲染场景的输出视频的渲染器(24)通知视频帧和场景之间的映射,其中,所述映射信息元数据指示视频帧和场景之间的映射一次,或者相对于第一组一个或多个区域以第一更新速率指示视频帧和场景之间的映射,并相对于第二组一个或多个区域以第二更新率指示视频帧和场景之间的映射,其中所述第二更新速率高于所述第一更新速率。
52.根据权利要求51所述的解码器,其中,所述视频比特流包含相对于第一组一个或多个区域的所述映射信息的更新,并且所述解码器被配置为通过所述映射信息顺序地与所述第一组和所述第二组相关的语法顺序和/或通过与所述第一组和所述第二组相关联的关联语法元素将所述第一组与所述第二组区分开。
53.根据权利要求51或52所述的解码器,被配置为从所述视频比特流的补充增强信息消息中读取所述映射信息。
54.根据权利要求51至53中任一项所述的解码器,其中,所述映射信息根据以下一项或多项来定义用于预定区域的映射:
预定区域的视频帧内位置,
预定区域的球形场景位置,
预定区域的视频帧到球形场景的投影。
55.根据权利要求51至54中任一项所述的解码器,其中,视频帧和场景之间的映射在第一组一个或多个区域中保持恒定,并且在第二组一个或多个区域中在以下方面变化:
根据视频帧与场景之间的映射,场景中的视频帧的第二组一个或多个区域的图像的位置,和/或
第二组一个或多个区域的周长,和/或
在第二组一个或多个区域与场景的图像之间的样本映射。
56.根据权利要求51至55中任一项所述的解码器,被配置为:
检查映射信息更新,所述映射信息更新对所述视频比特流中的第二组一个或多个区域的映射进行更新,并且响应于相对于第二组一个或多个区域的映射的变化,识别相对于第二组一个或多个区域的部分随机访问点,并且如果识别出部分访问点,则在部分随机访问点之前的视频帧的第二组一个或多个区域所消耗的解码器的解码图片缓冲区中,取消分配缓冲区空间。
57.根据权利要求51至56中任一项所述的解码器,被配置为:
将视频帧的细分解译为一种承诺,即视频比特流用于对视频帧进行编码的运动补偿预测根据完全驻留于第一组一个或多个区域中的参考视频帧中的参考部分来在第一组一个或多个区域中预测视频帧,并且使用所述承诺以便在解码当前视频帧的运动补偿参考视频帧的第二组一个或多个区域的相邻部分之前,开始解码当前视频帧的第一组一个或多个区域的边缘部分。
58.根据权利要求51至57中任一项所述的解码器,被配置为:
通过伴随视频的映射信息元数据,向用于从视频中渲染场景的输出视频的渲染器通知视频帧和场景之间的映射,其中,所述映射信息元数据指示视频帧与场景之间的映射一次。
59.一种用于从视频中渲染场景的输出视频以及指示视频的视频帧与场景之间的映射的映射信息元数据的渲染器,被配置为:
基于映射信息元数据,区分视频帧和场景之间的映射保持恒定的视频帧的第一组一个或多个区域以及其中视频帧和场景之间的映射根据映射信息元数据的更新而变化的第二组一个或多个区域。
60.一种视频比特流,所述视频比特流的视频帧已将视频编码在其中,所述视频比特流包括:
关于视频帧细分为区域的信息,其中所述信息区分其中视频帧和场景之间的映射保持恒定的第一组一个或多个区域和第一组一个或多个区域之外的第二组一个或多个区域,以及
关于视频帧和场景之间的映射的映射信息,其中所述视频比特流包含相对于第二组一个或多个区域的映射信息的更新。
61.根据权利要求60所述的视频比特流,其中,所述视频帧与场景之间的映射在第二组一个或多个区域内变化。
62.根据权利要求60所述的视频比特流,其中所述视频比特流包含相对于第一组一个或多个区域的所述映射信息的更新。
63.根据权利要求60或61所述的视频比特流,其中,所述映射信息包含在所述视频比特流的补充增强信息消息中。
64.根据权利要求60至63中任一项所述的视频比特流,其中,所述映射信息根据以下一项或多项来定义用于预定区域的映射:
预定区域的视频帧内位置,
预定区域的球形场景位置,以及
预定区域的视频帧到球形场景的投影。
65.根据权利要求60至64中任一项所述的视频比特流,其中,视频帧与场景之间的映射在第一组一个或多个区域中保持恒定,并且在第二组一个或多个区域中在以下方面变化:
根据视频帧与场景之间的映射,场景中的视频帧的第二组一个或多个区域的图像中的位置,和/或
第二组一个或多个区域的周长,和/或
在第二组一个或多个区域与场景的图像之间的样本映射。
66.根据权利要求60至65中任一项所述的视频比特流,其中,第二组一个或多个区域以比第一组一个或多个区域更高的空间分辨率对场景进行采样。
67.根据权利要求60至66中任一项所述的视频比特流,其中,根据视频帧与场景之间的映射,第一组一个或多个区域在所述场景中的第一组一个或多个区域的第一图像中对所述场景进行采样,根据视频帧与场景之间的映射,第二组一个或多个区域在第二组一个或多个区域的第二图像中对所述场景进行采样,所述第一图像大于所述第二图像。
68.根据权利要求60至67中任一项所述的视频比特流,其中,使用运动补偿预测来对视频帧进行编码,使得根据完全驻留于第一组一个或多个区域中的参考视频帧内的参考部分,在第一组一个或多个区域中预测视频帧。
69.根据权利要求60至68中任一项所述的视频比特流,其中,使用运动补偿预测来对视频帧进行编码,使得所述视频帧在第二组一个或多个区域内不具有对在一个或多个区域内的视频帧与场景之间的映射方面不同的参考视频帧内的参考部分的预测依赖性。
70.一种用于生成对场景编码以进行沉浸式视频流传输的数据的方法,包括:
生成一组表示,每个表示包括视频,其视频帧被细分为区域,使得
视频帧的区域相对于第一组一个或多个区域在表示之间在空间上一致,其中视频帧和场景之间的映射对于第一组一个或多个区域内的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域内的表示之间不同,
每个表示被分为覆盖场景的时间上连续的时间间隔的片段,
其中所述方法被配置为
向每个表示的每个片段提供关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射的映射信息,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点,在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点,在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域中独立于相应表示的先前片段进行编码,但在第二组一个或多个区域中预测性地依赖于先前片段。
71.一种通过沉浸式视频流从服务器流传输场景内容的方法,所述服务器通过以下方式提供场景:
一组表示,每个表示包括视频,其视频帧被细分为区域,
其中,视频帧的区域相对于第一组一个或多个区域在表示之间在空间上一致,其中视频帧和场景之间的映射对于第一组一个或多个区域中的所有表示是共同的,并且在第一组一个或多个区域之外的第二组一个或多个区域内的表示之间不同,
其中每个表示被分成覆盖场景的时间上连续的时间间隔的片段,每个表示的每个片段包括关于相对于相应片段内视频帧的第二组一个或多个区域的视频帧和场景之间的映射的映射信息,
其中,对视频帧进行编码,使得所述一组表示包括:
对于每个表示的一组随机访问点,在时间上与所述一组随机访问点中的任何一个对准的相应表示的片段内的视频帧在第一组一个或多个区域和第二组一个或多个区域中独立于相应表示的先前片段进行编码,以及
对于每个表示的一组切换点,在时间上与所述一组切换点中的任何一个对准的相应表示的片段内的视频帧在第二组一个或多个区域中独立于相应表示的先前片段进行编码,但在第二组一个或多个区域中预测性地依赖于先前片段,
其中,所述方法被配置为在另一表示的切换点中的一个切换点处从一个表示切换到所述另一表示。
72.一种用于从视频比特流解码视频的方法,被配置为
从视频比特流中获得视频的视频帧的细分,视频帧被细分为第一组一个或多个区域和第二组一个或多个区域,其中视频帧与场景之间的映射在第一组一个或多个区域内保持恒定,
其中,所述用于解码的方法被配置为:
检查映射信息更新,其更新对所述视频比特流中的第二组一个或多个区域的映射,并且响应于相对于第二组一个或多个区域的映射的变化,识别相对于第二组一个或多个区域的部分随机访问点,和/或
将视频帧的细分解释为一种承诺,即视频比特流用于对视频帧进行编码的运动补偿预测根据完全驻留于第一组一个或多个区域中的参考视频帧中的参考部分来在第一组一个或多个区域中预测视频帧,和/或
通过伴随视频的映射信息元数据,向用于从视频中渲染场景的输出视频的渲染器(24)通知视频帧和场景之间的映射,其中,所述映射信息元数据指示视频帧和场景之间的映射一次,或者相对于第一组一个或多个区域以第一更新速率指示视频帧和场景之间的映射,并相对于第二组一个或多个区域以第二更新率指示视频帧和场景之间的映射,所述第二更新速率高于所述第一更新速率。
73.一种用于从视频中渲染出场景的输出视频以及指示视频的视频帧与场景之间的映射的映射信息元数据的的方法,所述方法被配置为:
基于映射信息元数据,区分视频帧和场景之间的映射保持恒定的第一组一个或多个区域以及其中视频帧和场景之间的映射根据映射信息元数据的更新而变化的第二组一个或多个区域。
74.一种具有程序代码的计算机程序,当在计算机或微处理器上运行时,所述程序代码用于执行根据权利要求70至73中任一项所述的方法。
CN201880077929.0A 2017-10-02 2018-10-02 高效的沉浸式流传输 Pending CN111434120A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17194475 2017-10-02
EP17194475.4 2017-10-02
PCT/EP2018/076882 WO2019068745A1 (en) 2017-10-02 2018-10-02 EFFECTIVE IMMERSIVE CONTINUOUS DIFFUSION

Publications (1)

Publication Number Publication Date
CN111434120A true CN111434120A (zh) 2020-07-17

Family

ID=60153057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880077929.0A Pending CN111434120A (zh) 2017-10-02 2018-10-02 高效的沉浸式流传输

Country Status (4)

Country Link
US (1) US20200228586A1 (zh)
EP (1) EP3692722A1 (zh)
CN (1) CN111434120A (zh)
WO (1) WO2019068745A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11184665B2 (en) * 2018-10-03 2021-11-23 Qualcomm Incorporated Initialization set for network streaming of media data
US12238353B2 (en) 2018-10-03 2025-02-25 Qualcomm Incorporated Service description for streaming media data
EP3782366B1 (en) * 2019-07-03 2025-05-21 Beijing Xiaomi Mobile Software Co., Ltd. Video coding method and video decoding method
EP4032311A1 (en) * 2019-09-19 2022-07-27 InterDigital CE Patent Holdings Devices and methods for generating and rendering immersive video
KR102724495B1 (ko) * 2020-07-20 2024-11-01 삼성전자 주식회사 3d(ar) 미디어 랜덤 액세스를 위한 방법 및 장치
WO2022031633A1 (en) 2020-08-03 2022-02-10 Dolby Laboratories Licensing Corporation Supporting view direction based random access of bitstream

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101616310A (zh) * 2009-07-17 2009-12-30 清华大学 可变视角及分辨率的双目视觉系统目标图像稳定化方法
CN102474659A (zh) * 2009-07-16 2012-05-23 株式会社Gnzo 发送装置、接收装置、发送方法、接收方法以及传输系统
US20140219346A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
US20150010074A1 (en) * 2012-01-19 2015-01-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding multi-view video prediction capable of view switching, and method and apparatus for decoding multi-view video prediction capable of view switching
CN104838651A (zh) * 2012-12-07 2015-08-12 高通股份有限公司 可缩放及多视角视频译码中的高级残差预测
CN105532002A (zh) * 2013-07-15 2016-04-27 Ge视频压缩有限责任公司 网络装置和差错处理
CN106657972A (zh) * 2016-12-30 2017-05-10 深圳超多维科技有限公司 一种视频播放的控制方法及装置
US20170237965A1 (en) * 2016-02-17 2017-08-17 Qualcomm Incorporated Storage of virtual reality video in media files
CN107147942A (zh) * 2013-10-02 2017-09-08 杜比实验室特许公司 通过hdmi传输显示管理元数据

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102474659A (zh) * 2009-07-16 2012-05-23 株式会社Gnzo 发送装置、接收装置、发送方法、接收方法以及传输系统
CN101616310A (zh) * 2009-07-17 2009-12-30 清华大学 可变视角及分辨率的双目视觉系统目标图像稳定化方法
US20150010074A1 (en) * 2012-01-19 2015-01-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding multi-view video prediction capable of view switching, and method and apparatus for decoding multi-view video prediction capable of view switching
CN104838651A (zh) * 2012-12-07 2015-08-12 高通股份有限公司 可缩放及多视角视频译码中的高级残差预测
US20140219346A1 (en) * 2013-01-07 2014-08-07 Nokia Corporation Method and apparatus for video coding and decoding
CN105532002A (zh) * 2013-07-15 2016-04-27 Ge视频压缩有限责任公司 网络装置和差错处理
CN107147942A (zh) * 2013-10-02 2017-09-08 杜比实验室特许公司 通过hdmi传输显示管理元数据
US20170237965A1 (en) * 2016-02-17 2017-08-17 Qualcomm Incorporated Storage of virtual reality video in media files
CN106657972A (zh) * 2016-12-30 2017-05-10 深圳超多维科技有限公司 一种视频播放的控制方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
RAMIN GHAZNAVI-YOUVALARI ET AL: "Viewport-dependent delivery schemes for stereoscopic panoramic video", 《THE TRUE VISION - CAPTURE, TRANSMISSION AND DISPLAY OF 3D VIDEO (3DTV-CON)》 *
刘晓静: "基于H.264的交互式全景数字城市系统VCR功能的实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Also Published As

Publication number Publication date
WO2019068745A1 (en) 2019-04-11
US20200228586A1 (en) 2020-07-16
EP3692722A1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
CN114009053B (zh) 用于视频编码和解码的装置、方法
JP7506077B2 (ja) 映像の符号化および復号のための装置、方法、およびコンピュータプログラム
CN111434120A (zh) 高效的沉浸式流传输
US9699465B2 (en) Method and device for partitioning an image
US10320867B2 (en) Method, device, and computer program for encoding inter-layer dependencies in encapsulating multi-layer partitioned timed media data
EP3906699A1 (en) An apparatus, a method and a computer program for video coding and decoding
US20190253734A1 (en) Method for transmitting 360 video, method for receiving 360 video, 360 video transmitting device, and 360 video receiving device
CN113574903B (zh) 针对媒体内容中的后期绑定的方法和装置
EP3777185A1 (en) An apparatus, a method and a computer program for volumetric video
CN104685886A (zh) 用于视频处理的装置及其方法
KR102334628B1 (ko) 360도 비디오의 영역 정보 전달 방법 및 장치
US12489904B2 (en) Video coding in relation to subpictures
KR20200008637A (ko) 360도 비디오의 영역 기반 처리 방법 및 장치
US11910054B2 (en) Method and apparatus for decoding a 3D video
EP3821606A1 (en) Video based point cloud codec bitstream specification
KR101944601B1 (ko) 기간들에 걸쳐 오브젝트들을 식별하기 위한 방법 및 이에 대응하는 디바이스
CN116724555A (zh) 媒体文件处理方法及其装置
HK40089839A (zh) 媒体数据的数据处理方法及相关设备
HK40068430B (zh) 用於视频编码和解码的装置、方法
HK40068430A (zh) 用於视频编码和解码的装置、方法
HK40061734A (zh) 用於视频编码和解码的装置、方法和计算机程序
HK40064165A (zh) 针对媒体内容中的後期绑定的方法和装置
HK40061734B (zh) 用於视频编码和解码的装置、方法和计算机程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200717

WD01 Invention patent application deemed withdrawn after publication