[go: up one dir, main page]

CN103002297A - 动态深度值产生方法及其装置 - Google Patents

动态深度值产生方法及其装置 Download PDF

Info

Publication number
CN103002297A
CN103002297A CN2011102743471A CN201110274347A CN103002297A CN 103002297 A CN103002297 A CN 103002297A CN 2011102743471 A CN2011102743471 A CN 2011102743471A CN 201110274347 A CN201110274347 A CN 201110274347A CN 103002297 A CN103002297 A CN 103002297A
Authority
CN
China
Prior art keywords
vector
motion
universe
subregion
depth value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2011102743471A
Other languages
English (en)
Inventor
刘广智
汪淳
姜建德
王星睿
吴勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Novatek Microelectronics Corp
Original Assignee
Novatek Microelectronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Novatek Microelectronics Corp filed Critical Novatek Microelectronics Corp
Priority to CN2011102743471A priority Critical patent/CN103002297A/zh
Priority to US13/298,309 priority patent/US8718402B2/en
Publication of CN103002297A publication Critical patent/CN103002297A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • H04N13/264Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种动态深度值产生方法及其装置。该动态深度值产生方法,适于一二维转三维的影像转换装置。所述动态深度值产生方法包括如下步骤。藉由动态估计,取得一影像画面中多个狭域移动向量。取得影像画面的一全域移动向量。计算各该狭域移动向量与全域移动向量的移动差值。根据移动差值,取得各区块的动态深度值。另外,一种使用上述方法的动态深度值产生装置亦被提出。

Description

动态深度值产生方法及其装置
技术领域
本发明涉及一种影像处理方法及其装置,特别是涉及一种影像画面的动态深度值产生方法及其装置。
背景技术
随着显示技术的进步,可提供3D影像画面的显示器如雨后春笋般地涌现。此种立体显示器所需的影像信息包括2D影像画面及其深度信息。藉由2D影像画面及其深度信息,立体显示器可重建对应的3D影像画面。因此,如何取得2D影像画面的深度信息便成为一个重要的课题。
一般而言,取得影像画面的深度信息的方法可利用计算影像画面中移动物体的变化来取得。在现有技术中,若仅藉由摆动镜头来拍摄影像全景(panning scene)时,有利用不同延迟帧(delayed frames)进入人眼的时间不同来产生深度信息的。在其他情形下,亦有将影像画面中移动物体区分为多个种类,再据此利用不同延迟帧进入人眼的时间不同来产生深度信息的。除此之外,亦有直接将移动物体的移动动量映射为深度信息的。
然而,在上述方法中,皆会产生诸多问题而无法正确地产生深度信息。例如,当前景为静止而背景在移动时(when foreground is static whilebackground is moving,FSBM),现有技术即会产生「深度相反」(reverse depth)的问题,亦即真实影像的深度值较大者却相反地对应于较小的所产生的深度值。另外,利用上述延迟帧原理来产生深度信息的,若其延迟周期较长亦会过度地增加记忆体的负担。
发明内容
本发明提供一种动态深度值产生方法及其装置,可有效产生影像画面的深度信息。
本发明提供一种动态深度值产生方法,适于一二维转三维(2D-to-3D)的影像转换装置。所述动态深度值产生方法包括如下步骤。藉由动态估计(motion estimation),取得一影像画面中多个狭域移动向量(local motionvector)。取得影像画面的一全域移动向量(global motion vector)。计算各狭域移动向量与全域移动向量的移动差值(motion difference)。根据移动差值,取得各区块的动态深度值(depth from motion)。
在本发明一实施例中,上述的影像画面包括一黑边区域(black rim)、一周围显示区域与一中心显示区域。取得影像画面的全域移动向量的步骤包括根据周围显示区域的多个狭域移动向量来计算全域移动向量。
在本发明一实施例中,上述的中心显示区域是涵盖影像画面的一中心。
在本发明一实施例中,上述的周围显示区域是介于黑边区域与中心显示区域两者之间。
在本发明一实施例中,上述的周围显示区域包括多个子区域。取得影像画面的全域移动向量的步骤包括如下步骤。计算各子区域中所述狭域移动向量的统计数目分布。根据各子区域的统计数目分布,取得各子区域中具有一最大总数的一狭域移动向量。根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量。
在本发明一实施例中,上述的多个子区域当中至少两者相重迭。
在本发明一实施例中,上述的根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量的步骤包括如下步骤。根据各子区域的最大总数,决定各子区域的一区域内全域移动可靠度(intra-regionglobal motion belief)。根据各子区域中的最大总数所对应的狭域移动向量,决定每两子区域之间的一区域间全域移动可靠度(inter-region global motionbelief)。根据区域内的全域移动可靠度及区域间的全域移动可靠度,决定影像画面的全域移动向量。
在本发明一实施例中,上述的取得影像画面的全域移动向量的步骤包括如下步骤。根据区域内全域移动可靠度及区域间全域移动可靠度,计算各子区域的一全域移动可靠度。根据子区域的全域移动可靠度当中最大者,决定影像画面的全域移动向量。
在本发明一实施例中,上述的各子区域其中之一的全域移动可靠度,是根据其中之一的子区域的区域内全域移动可靠度、其中之一的子区域的与其他子区域的区域间全域移动可靠度、以及其他子区域的区域内全域移动可靠度来计算而得。
在本发明一实施例中,上述的决定各子区域之间所对应的区域间全域移动可靠度的步骤包括如下步骤。计算各子区域中最大总数所对应的狭域移动向量之间的向量差(vector difference)。根据各最大总数的狭域移动向量之间的向量差的大小,决定各子区域之间所对应的区域间全域移动可靠度。
本发明提供一种动态深度值产生装置,适于一二维转三维的影像转换装置。所述动态深度值装置包括一移动向量计算模块、一差值计算模块以及一深度值计算模块。移动向量计算模块藉由动态估计,而以区块或像素为基础,取得一影像画面中多个狭域移动向量,以及取得影像画面的一全域移动向量。差值计算模块计算各狭域移动向量与全域移动向量的移动差值。深度值计算模块再根据移动差值,取得各区块的动态深度值。
在本发明一实施例中,上述的影像画面包括一黑边区域、一周围显示区域与一中心显示区域。移动向量计算模块根据周围显示区域的多个狭域移动向量来计算全域移动向量。
在本发明一实施例中,上述的中心显示区域是涵盖影像画面的一中心。
在本发明一实施例中,上述的周围显示区域是介于黑边区域与中心显示区域两者之间。
在本发明一实施例中,上述的周围显示区域包括多个子区域。移动向量计算模块计算各子区域中所述狭域移动向量的统计数目分布,并取得各子区域中的一最大总数。移动向量计算模块并根据各子区域的统计数目分布,取得各子区域中具有最大总数的一狭域移动向量,以及根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量。
在本发明一实施例中,上述的多个子区域当中至少两者相重迭。
在本发明一实施例中,上述的移动向量计算模块根据各子区域的最大总数,决定各子区域的一区域内全域移动可靠度,根据各子区域中的最大总数所对应的狭域移动向量,决定每两子区域之间的一区域间全域移动可靠度,以及根据区域内的全域移动可靠度及区域间的全域移动可靠度,决定影像画面的全域移动向量。
在本发明一实施例中,上述的移动向量计算模块根据区域内全域移动可靠度及区域间全域移动可靠度,计算各子区域的一全域移动可靠度,以及根据子区域的全域移动可靠度当中最大者,决定影像画面的全域移动向量。
在本发明一实施例中,上述的各子区域其中之一的全域移动可靠度,是根据其中之一的子区域的区域内全域移动可靠度、其中之一的子区域的与其他子区域的区域间全域移动可靠度、以及其他子区域的区域内全域移动可靠度来计算而得。
在本发明一实施例中,上述的移动向量计算模块计算各子区域中最大总数所对应的狭域移动向量之间的向量差,以及根据各最大总数的狭域移动向量之间的向量差的大小,决定各子区域之间所对应的区域间全域移动可靠度。
基于上述,在本发明的范例实施例中,动态深度值产生方法至少根据狭域移动向量与全域移动向量的移动差值来取得各区块的动态深度值,以有效产生影像画面的深度信息。此外,是根据周围显示区域而忽略中心显示区域中的狭域移动向量来计算全域移动向量,因此可排除前景物体移动所造成的影响,而得到正确的全域移动向量,进而提升动态深度值的准确度。
为使本发明的上述特征和优点能更明显易懂,下文特举实施例,并结合附图详细说明如下。
附图说明
图1示出了本发明一实施例的动态深度值产生装置的方块示意图。
图2示出了图1的动态深度值产生装置所接收的影像画面示意图。
图3示出了图1示出了本发明一实施例的动态深度值产生方法的流程示意图。
图4示出了本发明一实施例的移动差值与动态深度值的曲线映射关系。
图5示出了本发明一实施例的根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量的步骤流程图。
图6示出了本发明一实施例的最大总数与区域内全域移动可靠度的曲线映射关系。
图7示出了本发明一实施例的最大总数所对应的狭域移动向量的差值与区域内全域移动可靠度的曲线映射关系。
附图符号说明
100:动态深度值产生装置
110:移动向量计算模块
120:差值计算模块
130:深度计算模块
B:黑边区域
C:中心显示区域
R:周围显示区域
R0、R1、R2、R3:周围显示区域的子区域
||MV-MV_cam||:移动差值
||MV_i-MV_j||:向量差值
MN_i:最大总数
Dm:动态深度值
A(i):区域内全域移动可靠度
B(i,j):区域间全域移动可靠度
S300、S302、S304、S306、S308、S310:动态深度值产生方法的步骤
S500、S502、S504、S506:决定全域移动向量方法的步骤
具体实施方式
一般而言,影像画面的移动信息除了包括移动物体以外,还包括镜头本身为撷取影像所造成的背景值移动(background motion),而该背景值的移动例如可用全域移动向量(global motion vector)来衡量。
在本发明的范例实施例中,动态深度值产生方法是藉由动态估计,而以区块或像素为基础,来计算狭域移动向量(local motion vectors)。此外,本方法还计算影像画面的全域移动向量,以计算出各狭域移动向量与全域移动向量的差值。进而,根据各该狭域移动向量与全域移动向量的向量差值来产生动态深度值。此外,由于在计算全域移动向量的过程中,忽略中心显示区域中的狭域移动向量,因此可排除前景物体移动所造成的影响,而得到正确的全域移动向量,进而提升动态深度值的准确度。为更清楚地了解本发明,以下将结合附图,以至少一范例实施例来作详细说明。
图1示出了本发明一实施例的动态深度值产生装置的方块示意图。本实施例的动态深度值产生装置100用以执行动态深度值产生方法,适用于一二维转三维(2D-to-3D)的影像转换装置中。影像转换装置,譬如可应用于一立体显示器中,用以根据2D影像画面及其深度信息,重建对应的3D影像画面。
在本实施例中,动态深度值产生装置100包括一移动向量计算模块110、一差值计算模块120以及一深度值计算模块130。移动向量计算模块110藉由动态估计,而以区块或像素为基础,来取得一影像画面中多个狭域移动向量,以及取得影像画面的一全域移动向量。在取得各狭域移动向量与全域移动向量之后,差值计算模块120计算两者的移动差值。继之,深度值计算模块130再以区块或像素为基础,根据该移动差值来取得各区块的动态深度值Dm。
图2示出了图1的动态深度值产生装置100所接收的影像画面示意图。如图所示,动态深度值产生装置100所接收的影像画面包括一黑边区域B、一周围显示区域R与一中心显示区域C。中心显示区域C较佳为涵盖影像画面的一中心。周围显示区域R是介于黑边区域B与中心显示区域C两者之间。
一般而言,由于在影像画面的中心显示区域C容易出现前景物体(foreground object),且该前景物体的移动信息会影响移动向量计算模块110对全域移动向量的检测。因此,为了得到正确的背景值移动,避免其错误,本实施例的移动向量计算模块110是根据周围显示区域R的多个狭域移动向量来计算全域移动向量。
在本实施例中,周围显示区域R包括多个子区域R0、R1、R2、R3。因此,移动向量计算模块110,于计算全域移动向量的过程中所使用的狭域移动向量,是将影像画面的黑边区域B与中心显示区域C两者予以排除,而仅使用到周围显示区域R中子区域R0、R1、R2、R3的狭域移动向量而已。应注意的是,周围显示区域R的子区域R0、R1、R2、R3在影像画面中的配置关系仅用以例示说明,本发明并不限于此。
详细而言,图3示出了图1示出了本发明一实施例的动态深度值产生方法的流程示意图。请参考图1至图3,在步骤S300中,移动向量计算模块110可以区块或像素为基础,藉由动态估计来计算中心显示区域C与周围显示区域R中的狭域移动向量。譬如,可进行桢率(frame rate)转换操作,以获得狭域移动向量。
接着,在步骤S302中,移动向量计算模块110计算周围显示区域R中各子区域的狭域移动向量的统计数目分布。其统计方式例如是以柱形统计图(histogram)来表现各狭域移动向量的统计数目分布。应注意的是,在此步骤中,黑边区域B的狭域移动向量并未列入计算。之后,在步骤S304中,移动向量计算模块110根据各子区域的统计数目分布,取得各子区域中具有一最大总数的狭域移动向量。继之,在步骤S306中,移动向量计算模块110根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量。
接着,在步骤S308中,差值计算模块120计算中心显示区域C与周围显示区域R中各狭域移动向量与全域移动向量的移动差值。
之后,在步骤S310中,深度值计算模块130再根据对应的移动差值,取得中心显示区域C与周围显示区域R中各区块的动态深度值Dm。深度值计算模块130取得动态深度值的方式例如包括利用一查询表或一曲线映射关系来产生对应各区块的动态深度值,但本发明并不限于此。
图4示出了本发明一实施例的移动差值与动态深度值的曲线映射关系。在步骤S310中,深度值计算模块130取得动态深度值的方式例如是利用图4的曲线映射关系来产生对应各区块的动态深度值,但本发明并不限于此。在另一实施例中,动态深度值也可利用一查询表来对应产生。
在图4中,其横座标所示的是移动差值||MV-MV_cam||,其中MV代表各狭域移动向量;MV_cam代表全域移动向量;而两者的差值冠以绝对值符号是强调该移动差值为向量差的大小。其纵座标所示的为动态深度值Dm。在本实施例中,譬如以区块为基础来计算狭域移动向量,则一区块的移动差值愈大者,该区块对应的动态深度值愈大。因此,在本实施例中,移动向量计算模块110是根据各狭域移动向量与全域移动向量的向量差值,以有效产生正确的动态深度值。
图5示出了本发明一实施例的根据各子区域的最大总数及其所对应的狭域移动向量,决定影像画面的全域移动向量的步骤流程图。图6示出了本发明一实施例的最大总数与区域内全域移动可靠度的曲线映射关系。图7示出了本发明一实施例的最大总数所对应的狭域移动向量的差值与区域内全域移动可靠度的曲线映射关系。
请参考图5至图7,在步骤S500中,移动向量计算模块110根据各子区域的最大总数,决定各子区域的一区域内全域移动可靠度(intra-regionglobal motion belief)。其决定方式例如是利用图6的曲线映射关系来产生区域内全域移动可靠度。在图6中,其横座标及纵座标所示的分别代表最大总数MN_i及区域内全域移动可靠度A(i),其中i等于0至3,以分别代表子区域R0至R3的最大总数及区域内全域移动可靠度。举例而言,MN_0及A(0)分别代表子区域R0的最大总数及区域内全域移动可靠度,以此类推。
由图6可知,当各子区域的最大总数MN_i大于一特定临界值后,其区域内全域移动可靠度会随着最大总数MN_i变大而上升,直到最大总数MN_i大于另一特定临界值后,其区域内全域移动可靠度即等于1。其中,区域内全域移动可靠度值愈高者代表其愈可信。
接着,在步骤S502中,移动向量计算模块110根据各子区域中的最大总数所对应的狭域移动向量的向量差(vector difference)的大小,决定每两子区域之间的一区域间全域移动可靠度(inter-region global motion belief)。详细而言,在步骤S502中,移动向量计算模块110首先计算各子区域中最大总数所对应的狭域移动向量之间的向量差,进而根据各最大总数的狭域移动向量之间的向量差的大小,决定各子区域之间所对应的区域间全域移动可靠度。
移动向量计算模块110例如可利用图7的曲线映射关系来产生区域间全域移动可靠度。在图7中,其横座标及纵座标所示的分别代表各最大总数的狭域移动向量之间的向量差值||MV_i-MV_j||及区域间全域移动可靠度B(i,j),其中i等于0至3的整数,j等于0至3的整数,以分别代表各子区域中最大总数所对应的狭域移动向量及区域间全域移动可靠度。举例而言,MV_0及MV_1分别代表子区域R0及R1的最大总数的狭域移动向量,而||MV_0-MV_1||即代表两者的向量差值,反之亦然。B(0,1)代表子区域R0及R1的区域间全域移动可靠度,以此类推。在周围显示区域R包括4个子区域的情况下,存在有6个区域间全域移动可靠度B(i,j),即整数i与整数j有6种组合(次序不论)。
由图7可知,当向量差值||MV_i-MV_j||小于一特定临界值时,其区域间全域移动可靠度等于1。当向量差值||MV_i-MV_j||大于该特定临界值时,区域间全域移动可靠度会随着向量差值||MV_i-MV_j||变大而下降,直到向量差值||MV_i-MV_j||大于另一特定临界值后,其区域间全域移动可靠度下降至0。其中,区域间全域移动可靠度值愈高者代表两个子区域之间的全域移动信息的愈可信。
继之,在步骤S504中,移动向量计算模块110根据区域内全域移动可靠度A(i)及区域间全域移动可靠度B(i,j),计算各子区域的一全域移动可靠度Belief(i)。其计算方式例如是根据底下的各计算式来决定:
Belief(0)=A(0)+A(1)*B(0,1)+A(2)*B(0,2)+A(3)*B(0,3)
Belief(1)=A(0)*B(0,1)+A(1)+A(2)*B(1,2)+A(3)*B(1,3)
Belief(2)=A(0)*B(0,2)+A(1)*B(1,2)+A(2)+A(3)*B(2,3)
Belief(3)=A(0)*B(0,3)+A(1)*B(1,3)+A(2)*B(2,3)+A(3)
其中,Belief(0)、Belief(1)、Belief(2)、Belief(3)分别代表子区域R0、R1、R2、R3的全域移动可靠度。以Belief(0)为例,项次A(1)*B(0,1)代表子区域R1的区域内全域移动可靠度A(1)与子区域R0、R1的区域间全域移动可靠度B(0,1),其余项次则可以此类推。
换句话说,本实施例的各子区域其中之一的全域移动可靠度,是根据该其中之一的子区域的区域内全域移动可靠度、该其中之一的子区域的与其他子区域的区域间全域移动可靠度、以及其他子区域的区域内全域移动可靠度来计算而得。以Belief(0)为例,其是根据子区域R0的区域内全域移动可靠度A(0)、子区域R0的与其他子区域R1、R2、R3的区域间全域移动可靠度B(0,1)、B(0,2)、B(0,3)、以及其他子区域R1、R2、R3的区域内全域移动可靠度A(1)、A(2)、A(3)来计算而得。
之后,在步骤S506中,移动向量计算模块110再根据子区域R0、R1、R2、R3的全域移动可靠度当中最大者,决定影像画面的全域移动向量MV_cam。
因此,在全域移动向量MV_cam决定之后,即可运用于图3所示的动态深度值产生方法,继续进行步骤S308及S310,以分别计算移动差值||MV-MV_cam||,并据此取得动态深度值Dm。
综上所述,在本发明的范例实施例中,动态深度值产生方法计算影像画面的全域移动向量,以及各狭域移动向量与全域移动向量的向量差值,进而根据该向量差值来产生正确的动态深度值。此外,由于在计算全域移动向量的过程中,仅根据周围显示区域而忽略中心显示区域中的狭域移动向量来进行计算,因此可排除前景物体移动所造成的影响,而得到准确的全域移动向量,并进而使得动态深度值的准确性有所提升。
虽然本发明已以实施例揭示如上,然其并非用以限定本发明,本领域的技术人员,在不脱离本发明的精神和范围的前提下,可作若干的更动与润饰,故本发明的保护范围是以本发明的权利要求为准。

Claims (20)

1.一种动态深度值产生方法,适于一二维转三维的影像转换装置,该动态深度值产生方法包括:
藉由动态估计,取得一影像画面中多个狭域移动向量;
取得该影像画面的一全域移动向量;
计算各该狭域移动向量与该全域移动向量的移动差值;以及
根据这些移动差值,取得各该区块的动态深度值。
2.如权利要求1所述的动态深度值产生方法,其中该影像画面包括一黑边区域、一周围显示区域与一中心显示区域,以及取得该影像画面的全域移动向量的步骤包括:
根据该周围显示区域的多个狭域移动向量来计算该全域移动向量。
3.如权利要求2所述的动态深度值产生方法,其中该中心显示区域是涵盖该影像画面的一中心。
4.如权利要求2所述的动态深度值产生方法,其中该周围显示区域是介于该黑边区域与该中心显示区域两者之间。
5.如权利要求2所述的动态深度值产生方法,其中
该周围显示区域包括多个子区域,以及
取得该影像画面的该全域移动向量的步骤包括:
计算各该子区域中这些狭域移动向量的统计数目分布;
根据各该子区域的该统计数目分布,取得各该子区域中具有一最大总数的一狭域移动向量;以及
根据各该子区域的该最大总数及其所对应的该狭域移动向量,决定该影像画面的全域移动向量。
6.如权利要求5所述的动态深度值产生方法,其中该多个子区域当中至少两者相重迭。
7.如权利要求5所述的动态深度值产生方法,其中根据各该子区域的该最大总数及其所对应的该狭域移动向量,决定该影像画面的全域移动向量的步骤包括:
根据各该子区域的该最大总数,决定各该子区域的一区域内全域移动可靠度;
根据各该子区域中的该最大总数所对应的该狭域移动向量,决定每两子区域之间的一区域间全域移动可靠度;以及
根据这些区域内的全域移动可靠度及这些区域间的全域移动可靠度,决定该影像画面的全域移动向量。
8.如权利要求7所述的动态深度值产生方法,其中取得该影像画面的全域移动向量的步骤包括:
根据这些区域内全域移动可靠度及这些区域间全域移动可靠度,计算各该子区域的一全域移动可靠度;以及
根据这些子区域的这些全域移动可靠度当中最大者,决定该影像画面的全域移动向量。
9.如权利要求8所述的动态深度值产生方法,其中各该子区域其中之一的全域移动可靠度,是根据该其中之一的子区域的区域内全域移动可靠度、该其中之一的子区域的与其他这些子区域的区域间全域移动可靠度、以及其他这些子区域的区域内全域移动可靠度来计算而得。
10.如权利要求7所述的动态深度值产生方法,其中决定各该子区域之间所对应的区域间全域移动可靠度的该步骤包括:
计算各该子区域中最大总数所对应的狭域移动向量之间的向量差;以及
根据各该最大总数的狭域移动向量之间的向量差的大小,决定各该子区域之间所对应的区域间全域移动可靠度。
11.一种动态深度值产生装置,适用于一二维转三维的影像转换装置,该动态深度值装置包括:
一移动向量计算模块,藉由动态估计,取得一影像画面中多个狭域移动向量,以及取得该影像画面的一全域移动向量;以及
一差值计算模块,计算各该狭域移动向量与该全域移动向量的移动差值;以及
一深度值计算模块,根据这些移动差值,取得各该区块的动态深度值。
12.如权利要求11所述的动态深度值产生装置,其中该影像画面包括一黑边区域、一周围显示区域与一中心显示区域,该移动向量计算模块根据该周围显示区域的多个狭域移动向量来计算该全域移动向量。
13.如权利要求12所述的动态深度值产生装置,其中该中心显示区域是涵盖该影像画面的一中心。
14.如权利要求12所述的动态深度值产生装置,其中该周围显示区域是介于该黑边区域与该中心显示区域两者之间。
15.如权利要求12所述的动态深度值产生装置,其中该周围显示区域包括多个子区域,该移动向量计算模块执行下述步骤:
计算各该子区域中这些狭域移动向量的统计数目分布,并取得各该子区域中的一最大总数;以及
根据各该子区域的该统计数目分布,取得各该子区域中具有该最大总数的一狭域移动向量,以及根据各该子区域的该最大总数及其所对应的该狭域移动向量,决定该影像画面的全域移动向量。
16.如权利要求15所述的动态深度值产生装置,其中该多个子区域当中至少两者相重迭。
17.如权利要求15所述的动态深度值产生装置,其中该移动向量计算模块根据各该子区域的该最大总数,决定各该子区域的一区域内全域移动可靠度,根据各该子区域中的该最大总数所对应的该狭域移动向量,决定每两子区域之间的一区域间全域移动可靠度,以及根据这些区域内的全域移动可靠度及这些区域间的全域移动可靠度,决定该影像画面的全域移动向量。
18.如权利要求17所述的动态深度值产生装置,其中该移动向量计算模块根据这些区域内全域移动可靠度及这些区域间全域移动可靠度,计算各该子区域的一全域移动可靠度,以及根据这些子区域的这些全域移动可靠度当中最大者,决定该影像画面的全域移动向量。
19.如权利要求18所述的动态深度值产生装置,其中针对各该子区域其中之一的全域移动可靠度,该移动向量计算模块是根据该其中之一的子区域的区域内全域移动可靠度、该其中之一的子区域的与其他这些子区域的区域间全域移动可靠度、以及其他这些子区域的区域内全域移动可靠度来计算而得。
20.如权利要求17所述的动态深度值产生装置,其中该移动向量计算模块是计算各该子区域中最大总数所对应的狭域移动向量之间的向量差,以及根据各该最大总数的狭域移动向量之间的向量差的大小,决定各该子区域之间所对应的区域间全域移动可靠度。
CN2011102743471A 2011-09-16 2011-09-16 动态深度值产生方法及其装置 Pending CN103002297A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2011102743471A CN103002297A (zh) 2011-09-16 2011-09-16 动态深度值产生方法及其装置
US13/298,309 US8718402B2 (en) 2011-09-16 2011-11-17 Depth generation method and apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2011102743471A CN103002297A (zh) 2011-09-16 2011-09-16 动态深度值产生方法及其装置

Publications (1)

Publication Number Publication Date
CN103002297A true CN103002297A (zh) 2013-03-27

Family

ID=47880225

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2011102743471A Pending CN103002297A (zh) 2011-09-16 2011-09-16 动态深度值产生方法及其装置

Country Status (2)

Country Link
US (1) US8718402B2 (zh)
CN (1) CN103002297A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104185008A (zh) * 2014-07-22 2014-12-03 上海聚力传媒技术有限公司 一种生成3d媒体数据的方法和装置
CN108765480A (zh) * 2017-04-10 2018-11-06 钰立微电子股份有限公司 深度处理设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012174090A2 (en) * 2011-06-13 2012-12-20 University Of Florida Research Foundation, Inc. Systems and methods for estimating the structure and motion of an object
KR101939628B1 (ko) * 2012-05-30 2019-01-17 삼성전자주식회사 모션 검출 방법 및 모션 검출기
CN104519239A (zh) * 2013-09-29 2015-04-15 诺基亚公司 用于视频防抖的方法和装置
US9727967B2 (en) * 2014-06-23 2017-08-08 Samsung Electronics Co., Ltd. Methods for determining estimated depth in an image and systems thereof
US11527005B2 (en) * 2019-07-22 2022-12-13 Samsung Electronics Co., Ltd. Video depth estimation based on temporal attention
CN113066001B (zh) * 2021-02-26 2024-10-22 华为技术有限公司 一种图像处理方法及相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101593349A (zh) * 2009-06-26 2009-12-02 福州华映视讯有限公司 将二维影像转换为三维影像的方法
CN101631256A (zh) * 2009-08-13 2010-01-20 浙江大学 用于三维电视系统中2d视频到3d视频的转换方法
US20100014781A1 (en) * 2008-07-18 2010-01-21 Industrial Technology Research Institute Example-Based Two-Dimensional to Three-Dimensional Image Conversion Method, Computer Readable Medium Therefor, and System
CN102075777A (zh) * 2011-01-26 2011-05-25 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227896B2 (en) * 2001-10-04 2007-06-05 Sharp Laboratories Of America, Inc. Method and apparatus for global motion estimation
KR101539935B1 (ko) * 2008-06-24 2015-07-28 삼성전자주식회사 3차원 비디오 영상 처리 방법 및 장치
TWI365662B (en) * 2008-12-03 2012-06-01 Inst Information Industry Method and system for digital image stabilization and computer program product using the method thereof
US9123115B2 (en) * 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100014781A1 (en) * 2008-07-18 2010-01-21 Industrial Technology Research Institute Example-Based Two-Dimensional to Three-Dimensional Image Conversion Method, Computer Readable Medium Therefor, and System
CN101593349A (zh) * 2009-06-26 2009-12-02 福州华映视讯有限公司 将二维影像转换为三维影像的方法
CN101631256A (zh) * 2009-08-13 2010-01-20 浙江大学 用于三维电视系统中2d视频到3d视频的转换方法
CN102075777A (zh) * 2011-01-26 2011-05-25 Tcl集团股份有限公司 一种基于运动对象的视频图像平面转立体处理方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104185008A (zh) * 2014-07-22 2014-12-03 上海聚力传媒技术有限公司 一种生成3d媒体数据的方法和装置
CN104185008B (zh) * 2014-07-22 2017-07-25 上海聚力传媒技术有限公司 一种生成3d媒体数据的方法和装置
CN108765480A (zh) * 2017-04-10 2018-11-06 钰立微电子股份有限公司 深度处理设备
CN108765480B (zh) * 2017-04-10 2022-03-15 钰立微电子股份有限公司 深度处理设备

Also Published As

Publication number Publication date
US8718402B2 (en) 2014-05-06
US20130069935A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
CN103002297A (zh) 动态深度值产生方法及其装置
CN101516040B (zh) 视频匹配方法、装置及系统
US9948911B2 (en) Method and apparatus for efficient depth image transformation
JP5561781B2 (ja) 2d画像データを立体画像データに変換する方法およびシステム
US20120069009A1 (en) Image processing apparatus
US20150198439A1 (en) Generation of depth data based on spatial light pattern
US9626595B2 (en) Method and apparatus for tracking superpixels between related images
CN103440664A (zh) 一种生成高分辨率深度图的方法、系统及计算设备
US20170064279A1 (en) Multi-view 3d video method and system
CN101557534B (zh) 一种从视频相近帧中生成视差图的方法
CN103037226A (zh) 深度融合方法及其装置
CN102326394B (zh) 图像处理方法以及装置
CN104980726B (zh) 一种联合运动向量的双目视频立体匹配方法
KR20210038659A (ko) 2차원 이미지를 외삽하기 위해 깊이 정보를 사용하는 시스템 및 방법
CN102750694B (zh) 基于局部最优置信传播算法的双目视频深度图求取方法
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
KR20140074201A (ko) 추적 장치
CN104504912A (zh) 一种基于三维水平逆投影面的车速检测方法
KR101804157B1 (ko) 개선된 sgm 기반한 시차 맵 생성 방법
Berdnikov et al. Real-time depth map occlusion filling and scene background restoration for projected-pattern-based depth cameras
CN103945206B (zh) 一种基于相似帧比较的立体图像合成系统
CN102088544A (zh) 具有前景目标的动态场景视频快速稳像方法
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
CN102857772B (zh) 影像处理方法以及影像处理装置
CN102469322B (zh) 一种平面转立体的图像处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130327