CN106502376A - 一种3d触控操作方法、电子设备及3d眼镜 - Google Patents
一种3d触控操作方法、电子设备及3d眼镜 Download PDFInfo
- Publication number
- CN106502376A CN106502376A CN201510570539.5A CN201510570539A CN106502376A CN 106502376 A CN106502376 A CN 106502376A CN 201510570539 A CN201510570539 A CN 201510570539A CN 106502376 A CN106502376 A CN 106502376A
- Authority
- CN
- China
- Prior art keywords
- coordinates
- display
- display object
- axis coordinate
- operating body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明公开了一种3D触控操作方法,应用于电子设备中,包括:通过显示单元输出3D图像,3D图像中包含M个显示对象,用户通过佩戴3D眼镜能够观看到具有3D效果的M个显示对象;实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标;基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。同时,本发明还公开了一种电子设备和3D眼镜。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种3D触控操作方法、电子设备及3D眼镜。
背景技术
3D(Three DimeMsioMa,三维)成像是靠人两眼的视觉差产生的,人的两眼(瞳孔)之间一般会有8厘米左右的距离,要让人看到3D图像,就必须让左眼和右眼看到不同的图像,也就是模拟双眼实际观看的情况,使两副图像存在一定视觉差,最终在人脑呈现一幅3D的立体的图像。
目前,很多电子设备(例如:智能手机、平板电脑、智能电视等)都提供有3D显示功能,可以使用户看到具有3D效果的图像,3D图像中的很多显示景物都具有景深(例如:正景深),使得用户可以看到景物位于屏幕前方一定距离,画面更真实,用户体验度更好。
但本申请发明人在实现本申请实施例中发明技术方案的过程中,发现上述技术至少存在如下技术问题:
目前,在3D显示环境下,在用户通过屏幕(例如:电阻式触摸屏、或电容式触摸屏)进行人机交互时,依然需要用手实际触摸屏幕,但是在3D显示环境下,所有3D景物都具有景深,屏幕位置与人眼看到的3D图像的视觉位置不一致,用户看到的3D景物都是位于屏幕前方一定距离的,用户仍然用手触摸屏幕进行人机交互则显得不自然,用户体验性不佳。
发明内容
本申请实施例通过提供一种3D触控操作方法、电子设备及3D眼镜,解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。
第一方面,本申请通过本申请的一实施例,提供如下技术方案:
一种3D触控操作方法,应用于电子设备中,所述电子设备包括显示单元,所述方法包括:
通过所述显示单元输出3D图像,其中,所述3D图像中包含M个显示对象,M为正整数,用户通过佩戴与所述电子设备对应的3D眼镜,能够观看到具有3D效果的所述M个显示对象;
实时接收所述3D眼镜发送的操作体的3D坐标、以及所述M个显示对象的3D坐标;
基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
优选地,所述通过所述显示单元输出3D图像之前,还包括:
获取所述3D图像对应的2D图像;
对所述2D图像进行3D建模并添加景深,获得所述3D图像。
优选地,所述基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制,包括:
基于所述操作体在第一时间段内的第一组3D坐标,检测所述操作体是否正在执行选中操作,其中,所述选中操作用于从M个显示对象中选中所述指定显示对象;
在检测到所述选中操作时,确定所述选中操作所选中的第一位置的3D坐标;
基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象。
优选地,所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象,包括:
从所述第一位置的3D坐标中,提取所述第一位置的X轴坐标、Y轴坐标和Z轴坐标;
从所述M个显示对象的3D坐标中,提取所述M个显示对象中每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标;
基于所述第一位置的X轴坐标、Y坐标和Z轴坐标、以及所述M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从所述M个显示对象中确定所述指定显示对象,其中,所述第一位置的Z轴坐标与所述指定显示对象的Z轴坐标相同,所述第一位置的X轴坐标位于所述指定显示对象的X轴坐标区间内,所述第一位置的Y轴坐标位于所述指定显示对象的Y轴坐标区间内。
优选地,所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象之后,还包括:
基于所述操作体在第二时间段内的第二组3D坐标,检测所述操作体是否正在执行拖动操作,其中,所述第二时间段位于所述第一时间段之后,所述拖动操作用于将所述指定显示对象拖动到第二位置进行显示;
在检测到所述拖动操作时,基于所述第二组3D坐标,确定所述第二位置的3D坐标;
基于所述第二位置的3D坐标,调整所述指定显示对象当前显示位置的3D坐标,以将所述指定显示对象在所述第二位置进行显示。
优选地,所述第一位置的3D坐标中的Z轴坐标与所述第二位置的3D坐标中的Z轴坐标不同。
第二方面,基于同一发明构思,本申请通过本申请的一实施例,提供如下技术方案:
一种3D触控操作方法,应用于3D眼镜中,所述3D眼镜与电子设备配合使用,所述3D眼镜包括两个图像采集单元,所述两个图像采集单元分别位于所述3D眼镜左右两端,所述方法包括:
在所述电子设备输出包含M个显示对象的3D图像时,通过所述两个图像采集单元分别实时获取包含操作体、以及所述M个显示对象的两幅2D图像,其中,M为正整数,佩戴所述3D眼镜的用户能够通过所述两幅2D图像观看到具有3D效果的所述M个显示对象;
基于所述两幅2D图像,确定所述操作体的3D坐标、以及所述M个显示对象的3D坐标;
将所述操作体的3D坐标、以及所述M个显示对象的3D坐标发送给所述电子设备,以使所述电子设备能够基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
第三方面,基于同一发明构思,本申请通过本申请的一实施例,提供如下技术方案:
一种电子设备,所述电子设备包括显示单元,所述电子设备还包括:
输出单元,用于通过所述显示单元输出3D图像,其中,所述3D图像中包含M个显示对象,M为正整数,用户通过佩戴与所述电子设备对应的3D眼镜,能够观看到具有3D效果的所述M个显示对象;
接收单元,用于实时接收所述3D眼镜发送的操作体的3D坐标、以及所述M个显示对象的3D坐标;
控制单元,用于基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
优选地,所述电子设备,还包括:
第一获取单元,用于所述通过所述显示单元输出3D图像之前,获取所述3D图像对应的2D图像;
3D建模单元,用于对所述2D图像进行3D建模并添加景深,获得所述3D图像。
优选地,所述控制单元,具体用于:
基于所述操作体在第一时间段内的第一组3D坐标,检测所述操作体是否正在执行选中操作,其中,所述选中操作用于从M个显示对象中选中所述指定显示对象;在检测到所述选中操作时,确定所述选中操作所选中的第一位置的3D坐标;基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象。
优选地,所述控制单元,具体用于:
从所述第一位置的3D坐标中,提取所述第一位置的X轴坐标、Y轴坐标和Z轴坐标;从所述M个显示对象的3D坐标中,提取所述M个显示对象中每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标;基于所述第一位置的X轴坐标、Y坐标和Z轴坐标、以及所述M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从所述M个显示对象中确定所述指定显示对象,其中,所述第一位置的Z轴坐标与所述指定显示对象的Z轴坐标相同,所述第一位置的X轴坐标位于所述指定显示对象的X轴坐标区间内,所述第一位置的Y轴坐标位于所述指定显示对象的Y轴坐标区间内。
优选地,所述控制单元,还用于:
在所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象之后,基于所述操作体在第二时间段内的第二组3D坐标,检测所述操作体是否正在执行拖动操作,其中,所述第二时间段位于所述第一时间段之后,所述拖动操作用于将所述指定显示对象拖动到第二位置进行显示;在检测到所述拖动操作时,基于所述第二组3D坐标,确定所述第二位置的3D坐标;基于所述第二位置的3D坐标,调整所述指定显示对象当前显示位置的3D坐标,以将所述指定显示对象在所述第二位置进行显示。
优选地,所述第一位置的3D坐标中的Z轴坐标与所述第二位置的3D坐标中的Z轴坐标不同。
第四方面,基于同一发明构思,本申请通过本申请的一实施例,提供如下技术方案:
一种3D眼镜,所述3D眼镜与权利要求8~13任一所述的电子设备配合使用,所述3D眼镜包括两个图像采集单元,所述两个图像采集单元分别位于所述3D眼镜左右两端,所述3D眼镜还包括:
第二获取单元,用于在所述电子设备输出包含M个显示对象的3D图像时,通过所述两个图像采集单元分别实时获取包含操作体、以及所述M个显示对象的两幅2D图像,其中,M为正整数,佩戴所述3D眼镜的用户能够通过所述两幅2D图像观看到具有3D效果的所述M个显示对象;
确定单元,用于基于所述两幅2D图像,确定所述操作体的3D坐标、以及所述M个显示对象的3D坐标;
发送单元,用于将所述操作体的3D坐标、以及所述M个显示对象的3D坐标发送给所述电子设备,以使所述电子设备能够基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
1、在本申请实施例中,在电子设备侧,由于采用了实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标,并基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制,使得在3D显示环境下进行人机交互时,用户可以对人眼看到的3D图像的视觉位置处的显示对象进行触控操作,无需触摸屏幕。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示的环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
2、在本申请实施例中,在3D眼镜侧,由于采用了基于两幅2D图像,确定操作体的3D坐标、以及M个显示对象的3D坐标,将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,以使电子设备能够基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例中(电子设备侧)的3D触控操作方法的流程图;
图2为本申请实施例中3D显示环境下电子设备输出3D图像的示意图;
图3为本申请实施例中快门式3D眼镜的示意图;
图4为本申请实施例中2D显示环境下电子设备输出2D图像的示意图;
图5为本申请实施例中3D眼镜采集操作体的2D图形并进行3D合成的示意图;
图6为本申请实施例中操作体和显示对象Z坐标叠加的示意图;
图7为本申请实施例中确定操作体执行选中操作选中的指定显示对象的示意图;
图8为本申请实施例中操作体执行拖动操作的示意图;
图9为本申请实施例中(3D眼镜侧)的3D触控操作方法的流程图;
图10为本申请实施例中电子设备的结构示意图;
图11为本申请实施例中3D眼镜的结构示意图。
具体实施方式
本申请实施例通过提供一种3D触控操作方法、电子设备及3D眼镜,解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。
本申请实施例的技术方案为解决上述技术问题,总体思路如下:
一种3D触控操作方法,应用于电子设备中,电子设备包括显示单元,该方法包括:通过显示单元输出3D图像,其中,3D图像中包含M个显示对象,M为正整数,用户通过佩戴与电子设备对应的3D眼镜,能够观看到具有3D效果的M个显示对象;实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标;基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
首先说明,本文中出现的术语“景深”,均指“正景深”,即:图像位于屏幕前方的3D显示效果。
实施例一
站在电子设备侧,本实施提供了一种3D触控操作方法,应用于电子设备中,该电子设备可以是:智能手机、平板电脑、或智能电视等等,对于该电子设备具体是何种电子设备,本实施例不做具体限制。且该电子设备包括一显示单元,该显示单元可以是:液晶屏幕、或LED(Light-EmittiMg Diode,发光二极管)屏幕等等,该显示单元可以具有触控功能,也可以不具有触控功能。
如图1所示,所述3D触控操作方法,包括:
步骤S101:通过显示单元输出3D图像,其中,3D图像中包含M个显示对象,M为正整数,用户通过佩戴与电子设备对应的3D眼镜,能够观看到具有3D效果的M个显示对象。
举例来讲,如图2所示,电子设备通过显示单元输出一3D图像,在该3D图象中包含有9个显示对象,这些显示对象具体可以为:9个应用图标(即:APP1、APP2、APP3、APP4、APP5、APP6、APP7、APP8、APP9),所述显示对象还可以是图片、文件夹、菜单、按钮等任何可触控对象。且在输出3D图像之前,电子设备需要先获取(如图2所示的)3D图像对应的(如图4所示的)2D(TwoDimeMsioMa,二维)图像,再对该2D图像进行3D建模并添加景深,获得(如图2所示的)3D图像。
在本申请实施例中,采用快门式3D技术实现3D图像显示。具体而言,电子设备采用一定的频率交替输出两组2D图像,这两组2D图像模拟人的左右眼视觉差存在一定的差异,用户需要佩戴(如图3所示的)快门式3D眼镜,该3D眼镜设置有两片快门式镜片501,这两片快门式镜片501采用与电子设备相同的频率交替导通,使得两组2D图像中的左眼对应的那组2D图像穿过左眼侧的快门式镜片501到达用户的左眼,右眼对应的那组2D图像穿过右眼侧的快门式镜片501到达用户的右眼,由于两组2D图像存在视觉差,最终在用户大脑中呈现一幅3D图像,使得用户在通过该3D眼镜在观看3D图象时,能够观看到(如图2所示的)具有3D效果的M个显示对象。
步骤S102:实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标。
在具体实施过程中,用户可以通过操作体(例如:手指的指尖、或触控笔的笔尖)对M个显示对象中的任一显示对象进行触控操作(例如:选中操作、拖动操作等等)。
在具体实施过程中,用户佩戴3D眼镜看到的是(如图2所示的)一幅3D图像,其中,M个显示对象(例如:图2中的9个应用图标)都为立体图像,都具有一定的景深,每个显示对象的显示位置都位于屏幕前方一定距离处。
在具体实施过程中,用户在对指定显示对象(即:用户想要进行触控操作的任一显示对象)进行触控操作时,操作体(例如:手指的指尖、或触控笔的笔尖)无需触摸到屏幕,而是根据眼睛看到的指定显示对象的视觉位置,直接对指定显示对象进行触控操作即可,这需要电子设备与3D眼镜协同配合完成。具体来讲,3D眼镜需要实时向电子设备发送操作体的3D坐标、以及M个显示对象的3D坐标,这些3D坐标可以是以3D眼镜两个快门式镜片501连线的中点(模拟佩戴3D眼镜用户的两眼连线的中心)为原点建立的3D坐标系,电子设备实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标,从而确定操作体与每个显示对象之间的相对位置。
具体来讲,如图3所示,在3D眼镜的左右两端设置有两个图像采集单元(即:双目摄像头),如图5所示,3D眼镜先通过两个图像采集单元分别实时获取包含操作体、以及M个显示对象的两幅2D图像(即:图5中的左眼2D图像和右眼2D图像),并基于两幅2D图像进行3D建模,合成出3D图像,再计算出操作体的3D坐标、以及M个显示对象的3D坐标,最后将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,其中,所述3D坐标包括在X轴、Y轴、Z轴三个方向上的坐标,Z轴上的坐标用于表示景深。
步骤S103:基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制(例如:选中、打开、拖动等等)。
在具体实施过程中,步骤S103,具体包括:
第一步,基于操作体在第一时间段内的第一组3D坐标,检测操作体是否正在执行选中操作,其中,选中操作用于从M个显示对象中选中指定显示对象;具体来讲,在操作体执行选中操作过程中,3D眼镜会将整个选中过程中操作体的3D坐标(即:第一组3D坐标)实时发送给电子设备,电子设备可以基于第一组3D坐标,通过3D坐标轨迹与时间的关系,进行触控操作识别,检测操作体是否正在执行选中操作。一般来讲,选中操作包括长按操作和点击操作,长按操作用于选中某一显示对象并进行拖动,点击操作用于选中某一显示对象(例如:应用图标)并打开对应的应用程序。
第二步,在检测到选中操作时,确定操作在执行选中操作时选中的第一位置的3D坐标。
第三步,基于第一位置的3D坐标、以及M个显示对象的3D坐标,从M个显示对象中确定指定显示对象。具体来讲,可以先从第一位置的3D坐标中提取第一位置的X轴坐标、Y轴坐标和Z轴坐标,再从M个显示对象的3D坐标中提取每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标,最后基于第一位置的X轴坐标、Y坐标和Z轴坐标、以及M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从M个显示对象中确定指定显示对象(指定显示对象为用户执行选中操作选中的显示对象),其中,第一位置的Z轴坐标与指定显示对象的Z轴坐标相同(也可以有一定的误差,例如:相差几毫米或几厘米,具体误差可以由显示单元的尺寸和显示对象的尺寸确定,此时不做具体限制),第一位置的X轴坐标位于指定显示对象的X轴坐标区间内,第一位置的Y轴坐标位于指定显示对象的Y轴坐标区间内。
举例来讲,如图6所示,电子设备从操作体(例如:手指的指尖、或触控笔的笔尖)的3D坐标中提取到操作体在Z轴坐标为Z,3D图像中每个显示对象(例如:应用图像APP1~APP9)在Z轴坐标为Z’,当Z=Z’时,则可以确定目前操作体与这些显示对象在空间上处于同一高度;当然,可以取一定的误差区间(Z1~Z2),Z1<Z’<Z2,若Z位于误差区间(Z1~Z2)之间,也可以认为目前操作体与这些显示对象在空间上处于同一高度。如图7所示,在识别到操作体正在执行选中操作时,可以确定选中操作选中的第一位置的3D坐标,若第一位置的3D坐标在(X1~X2,Y1~Y2,Z1~Z2)范围内,由于(X1~X2,Y1~Y2,Z1~Z2)是APP8对应的3D坐标,则可以确定操作体选中的指定显示对象为APP8。
若识别到操作体执行的选中操作具体为点击操作,则可以直接打开指定显示对象对应的应用程序,例如:打开APP8。
若识别到操作体执行的选中操作具体为长按操作,在所述基于第一位置的3D坐标、以及M个显示对象的3D坐标,从M个显示对象中确定指定显示对象之后,还包括:
第四步,基于操作体的在第二时间内的第二组3D坐标,检测操作体是否正在执行拖动操作,其中,第二时间段位于第一时间段之后,拖动操作用于将指定显示对象拖动到第二位置进行显示;
第五步,在检测到拖动操作时,基于第二组3D坐标,确定第二位置的3D坐标;
第六步,基于第二位置的3D坐标,调整指定显示对象当前显示位置的3D坐标,以将指定显示对象在第二位置进行显示。
举例来讲,在操作体执行拖动操作移动到第二位置时,3D眼镜会将整个拖动过程中操作体的3D坐标(即:第二组3D坐标)实时发送给电子设备。电子设备可以先基于第二组3D坐标,通过3D坐标轨迹与时间的关系,进行触控操作识别,检测操作体是否正在执行拖动操作,若确定操作体正在进行拖动操作,再基于第二组3D坐标确定第二位置的3D坐标,最后基于第二位置的3D坐标调整指定显示对象当前显示位置的3D坐标(包括X轴、Y轴、Z轴上的坐标分别进行调整),以将指定显示对象在第二位置进行显示(如图8所示),其中,第一位置的3D坐标中的Z轴坐标可以与第二位置的3D坐标中的Z轴坐标不同,即:用户可以将指定显示对象拖动到不同的景深处(即:屏幕前不同距离处)显示。
在本申请实施例中,在3D显示环境下,用户无需触摸屏幕,而只需直接接触3D图像中的显示对象(该显示对象含Z坐标景深,视觉位置位于屏幕前方),即可完成与之的互动,达到触摸位置与视觉位置在3D空间中完全一致,极大增强用户体验。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
在本申请实施例中,由于采用了实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标,并基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制,使得在3D显示环境下进行人机交互时,用户可以对人眼看到的3D图像的视觉位置处的显示对象进行触控操作,无需触摸屏幕。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
实施例二
基于同一发明构思,如图9所示,站在3D眼镜侧,本实施例提供了一种3D触控操作方法,应用于3D眼镜中,3D眼镜与实施例一中的电子设备配合使用,3D眼镜包括两个图像采集单元,两个图像采集单元(即:双目摄像头)分别位于3D眼镜左右两端,该方法包括:
步骤S201:在电子设备输出包含M个显示对象的3D图像时,通过两个图像采集单元分别实时获取包含操作体(手指的指尖、或触控笔的笔尖)、以及M个显示对象(例如:如图4所示的9个应用图标APP1~APP9)的两幅2D图像,其中,M为正整数,佩戴3D眼镜的用户能够通过两幅2D图像观看到具有3D效果的M个显示对象;
步骤S202:基于两幅2D图像,确定操作体的3D坐标、以及M个显示对象的3D坐标;
步骤S203:将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,以使电子设备能够基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。
在本申请实施例中,采用快门式3D技术实现3D图像显示。具体而言,电子设备采用一定的频率交替输出两组2D图像,这两组2D图像模拟人的左右眼视觉差存在一定的差异,用户需要佩戴(如图3所示的)快门式3D眼镜,该3D眼镜设置有两片快门式镜片501,这两片快门式镜片501采用与电子设备相同的频率交替导通,使得两组2D图像中的左眼对应的那组2D图像穿过左眼侧的快门式镜片501到达用户的左眼,右眼对应的那组2D图像穿过右眼侧的快门式镜片501到达用户的右眼,由于两侧2D图像存在视觉差,最终在用户大脑中呈现一幅3D图像,使得用户在通过该3D眼镜在观看3D图象时,能够观看到(如图2所示的)具有3D效果的M个显示对象。
在本申请实施例中,如图3所示,在3D眼镜的左右两端设置有两个图像采集单元(即:双目摄像头),如图5所示,3D眼镜先通过两个图像采集单元分别实时获取包含操作体、以及M个显示对象的两幅2D图像(即:图5中的左眼2D图像和右眼2D图像),并基于两幅2D图像进行3D建模,合成出3D图像,再计算出操作体的3D坐标、以及M个显示对象的3D坐标,最后将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,其中,所述3D坐标包括在X轴、Y轴、Z轴三个方向上的坐标,Z轴上的坐标用于表示景深。
在本申请实施例中,在电子设备收到3D眼镜实时发送的操作体的3D坐标、以及M个显示对象的3D坐标后,可以获知操作体和每个显示对象在空间中的位置,并对操作体执行的触控操作进行识别,使得用户在3D显示环境下进行人机交互时,用户无需触摸屏幕,而是根据眼睛看到的指定显示对象的视觉位置,直接对指定显示对象进行触控操作即可,用户的触摸位置与用户看到的显示对象的视觉位置一致,使得操作更加真实自然。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
在本申请实施例中,由于采用了基于两幅2D图像,确定操作体的3D坐标、以及M个显示对象的3D坐标,将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,以使电子设备能够基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示的环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
实施例三
基于同一发明构思,如图10所示,本实施例提供一种实施实施例一中3D触控操作方法的电子设备。
一种电子设备,包括显示单元,还包括:
输出单元301,用于通过显示单元输出3D图像,其中,3D图像中包含M个显示对象,M为正整数,用户通过佩戴与电子设备对应的3D眼镜,能够观看到具有3D效果的M个显示对象;
接收单元302,用于实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标;
控制单元303,用于基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。
进一步,该电子设备,还包括:
第一获取单元,用于通过显示单元输出3D图像之前,获取3D图像对应的2D图像;
3D建模单元,用于对2D图像进行3D建模并添加景深,获得3D图像。
进一步,控制单元303,具体用于:
基于操作体在第一时间段内的第一组3D坐标,检测操作体是否正在执行选中操作,其中,选中操作用于从M个显示对象中选中指定显示对象;在检测到选中操作时,确定选中操作所选中的第一位置的3D坐标;基于第一位置的3D坐标、以及M个显示对象的3D坐标,从M个显示对象中确定指定显示对象。
进一步,控制单元303,具体用于:
从第一位置的3D坐标中,提取第一位置的X轴坐标、Y轴坐标和Z轴坐标;从M个显示对象的3D坐标中,提取M个显示对象中每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标;基于第一位置的X轴坐标、Y坐标和Z轴坐标、以及M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从M个显示对象中确定指定显示对象,其中,第一位置的Z轴坐标与指定显示对象的Z轴坐标相同,第一位置的X轴坐标位于指定显示对象的X轴坐标区间内,第一位置的Y轴坐标位于指定显示对象的Y轴坐标区间内。
进一步,控制单元303,还用于:
在基于第一位置的3D坐标、以及M个显示对象的3D坐标,从M个显示对象中确定指定显示对象之后,基于操作体在第二时间段内的第二组3D坐标,检测操作体是否正在执行拖动操作,其中,第二时间段位于第一时间段之后,拖动操作用于将指定显示对象拖动到第二位置进行显示;在检测到拖动操作时,基于第二组3D坐标,确定第二位置的3D坐标;基于第二位置的3D坐标,调整指定显示对象当前显示位置的3D坐标,以将指定显示对象在第二位置进行显示。
进一步,第一位置的3D坐标中的Z轴坐标与第二位置的3D坐标中的Z轴坐标不同。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
在本申请实施例中,由于采用了实时接收3D眼镜发送的操作体的3D坐标、以及M个显示对象的3D坐标,并基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制,使得在3D显示环境下进行人机交互时,用户可以对人眼看到的3D图像的视觉位置处的显示对象进行触控操作,无需触摸屏幕。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示的环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
实施例四
基于同一发明构思,如图11所示,本实施例提供一种实施实施例二中3D触控操作方法的3D眼镜。
一种3D眼镜,该3D眼镜与实施例三中的电子设备配合使用,该3D眼镜包括两个图像采集单元(即:双目摄像头),两个图像采集单元分别位于3D眼镜左右两端,该3D眼镜还包括:
第二获取单元401,用于在电子设备输出包含M个显示对象的3D图像时,通过两个图像采集单元分别实时获取包含操作体、以及M个显示对象的两幅2D图像,其中,M为正整数,佩戴3D眼镜的用户能够通过两幅2D图像观看到具有3D效果的M个显示对象;
确定单元402,用于基于两幅2D图像,确定操作体的3D坐标、以及M个显示对象的3D坐标;
发送单元403,用于将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,以使电子设备能够基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。
由于本实施例所介绍的3D眼镜为实施本申请实施例二中3D触控操作方法所采用的电子设备,故而基于本申请实施例二中所介绍的3D触控操作方法,本领域所属技术人员能够了解本实施例的3D眼镜的具体实施方式以及其各种变化形式,所以在此对于该3D眼镜如何实现本申请实施例中的方法不再详细介绍。只要本领域所属技术人员实施本申请实施例中3D触控操作方法所采用的电子设备,都属于本申请所欲保护的范围。
上述本申请实施例中的技术方案,至少具有如下的技术效果或优点:
在本申请实施例中,由于采用了基于两幅2D图像,确定操作体的3D坐标、以及M个显示对象的3D坐标,将操作体的3D坐标、以及M个显示对象的3D坐标发送给电子设备,以使电子设备能够基于操作体的3D坐标、以及M个显示对象的3D坐标,对M个显示对象中的指定显示对象进行控制。所以,有效解决了现有技术中用户在3D显示环境下进行人机交互时,需要用手触摸屏幕,存在触摸位置与视觉位置不对应,造成触摸操作不自然的技术问题。进而实现了用户在3D显示的环境下行人机交互时,用户的触摸位置与用户看到的显示对象的视觉位置一致,操作更加真实自然,提高了用户体验度的技术效果。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种3D触控操作方法,应用于电子设备中,所述电子设备包括显示单元,其特征在于,所述方法包括:
通过所述显示单元输出3D图像,其中,所述3D图像中包含M个显示对象,M为正整数,用户通过佩戴与所述电子设备对应的3D眼镜,能够观看到具有3D效果的所述M个显示对象;
实时接收所述3D眼镜发送的操作体的3D坐标、以及所述M个显示对象的3D坐标;
基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
2.如权利要求1所述的方法,其特征在于,所述通过所述显示单元输出3D图像之前,还包括:
获取所述3D图像对应的2D图像;
对所述2D图像进行3D建模并添加景深,获得所述3D图像。
3.如权利要求1所述的方法,其特征在于,所述基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制,包括:
基于所述操作体在第一时间段内的第一组3D坐标,检测所述操作体是否正在执行选中操作,其中,所述选中操作用于从M个显示对象中选中所述指定显示对象;
在检测到所述选中操作时,确定所述选中操作所选中的第一位置的3D坐标;
基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象。
4.如权利要求3所述的方法,其特征在于,所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象,包括:
从所述第一位置的3D坐标中,提取所述第一位置的X轴坐标、Y轴坐标和Z轴坐标;
从所述M个显示对象的3D坐标中,提取所述M个显示对象中每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标;
基于所述第一位置的X轴坐标、Y坐标和Z轴坐标、以及所述M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从所述M个显示对象中确定所述指定显示对象,其中,所述第一位置的Z轴坐标与所述指定显示对象的Z轴坐标相同,所述第一位置的X轴坐标位于所述指定显示对象的X轴坐标区间内,所述第一位置的Y轴坐标位于所述指定显示对象的Y轴坐标区间内。
5.如权利要求3所述的方法,其特征在于,所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象之后,还包括:
基于所述操作体在第二时间段内的第二组3D坐标,检测所述操作体是否正在执行拖动操作,其中,所述第二时间段位于所述第一时间段之后,所述拖动操作用于将所述指定显示对象拖动到第二位置进行显示;
在检测到所述拖动操作时,基于所述第二组3D坐标,确定所述第二位置的3D坐标;
基于所述第二位置的3D坐标,调整所述指定显示对象当前显示位置的3D坐标,以将所述指定显示对象在所述第二位置进行显示。
6.如权利要求5所述的方法,其特征在于,所述第一位置的3D坐标中的Z轴坐标与所述第二位置的3D坐标中的Z轴坐标不同。
7.一种3D触控操作方法,应用于3D眼镜中,所述3D眼镜与电子设备配合使用,所述3D眼镜包括两个图像采集单元,所述两个图像采集单元分别位于所述3D眼镜左右两端,其特征在于,所述方法包括:
在所述电子设备输出包含M个显示对象的3D图像时,通过所述两个图像采集单元分别实时获取包含操作体、以及所述M个显示对象的两幅2D图像,其中,M为正整数,佩戴所述3D眼镜的用户能够通过所述两幅2D图像观看到具有3D效果的所述M个显示对象;
基于所述两幅2D图像,确定所述操作体的3D坐标、以及所述M个显示对象的3D坐标;
将所述操作体的3D坐标、以及所述M个显示对象的3D坐标发送给所述电子设备,以使所述电子设备能够基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
8.一种电子设备,所述电子设备包括显示单元,其特征在于,所述电子设备还包括:
输出单元,用于通过所述显示单元输出3D图像,其中,所述3D图像中包含M个显示对象,M为正整数,用户通过佩戴与所述电子设备对应的3D眼镜,能够观看到具有3D效果的所述M个显示对象;
接收单元,用于实时接收所述3D眼镜发送的操作体的3D坐标、以及所述M个显示对象的3D坐标;
控制单元,用于基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
9.如权利要求8所述的电子设备,其特征在于,所述电子设备,还包括:
第一获取单元,用于所述通过所述显示单元输出3D图像之前,获取所述3D图像对应的2D图像;
3D建模单元,用于对所述2D图像进行3D建模并添加景深,获得所述3D图像。
10.如权利要求8所述的电子设备,其特征在于,所述控制单元,具体用于:
基于所述操作体在第一时间段内的第一组3D坐标,检测所述操作体是否正在执行选中操作,其中,所述选中操作用于从M个显示对象中选中所述指定显示对象;在检测到所述选中操作时,确定所述选中操作所选中的第一位置的3D坐标;基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象。
11.如权利要求10所述的电子设备,其特征在于,所述控制单元,具体用于:
从所述第一位置的3D坐标中,提取所述第一位置的X轴坐标、Y轴坐标和Z轴坐标;从所述M个显示对象的3D坐标中,提取所述M个显示对象中每个显示对象的X轴坐标区间、Y轴坐标区间和Z轴坐标;基于所述第一位置的X轴坐标、Y坐标和Z轴坐标、以及所述M个显示对象的X轴坐标区间、Y坐标区间和Z轴坐标,从所述M个显示对象中确定所述指定显示对象,其中,所述第一位置的Z轴坐标与所述指定显示对象的Z轴坐标相同,所述第一位置的X轴坐标位于所述指定显示对象的X轴坐标区间内,所述第一位置的Y轴坐标位于所述指定显示对象的Y轴坐标区间内。
12.如权利要求10所述的电子设备,其特征在于,所述控制单元,还用于:
在所述基于所述第一位置的3D坐标、以及所述M个显示对象的3D坐标,从所述M个显示对象中确定所述指定显示对象之后,基于所述操作体在第二时间段内的第二组3D坐标,检测所述操作体是否正在执行拖动操作,其中,所述第二时间段位于所述第一时间段之后,所述拖动操作用于将所述指定显示对象拖动到第二位置进行显示;在检测到所述拖动操作时,基于所述第二组3D坐标,确定所述第二位置的3D坐标;基于所述第二位置的3D坐标,调整所述指定显示对象当前显示位置的3D坐标,以将所述指定显示对象在所述第二位置进行显示。
13.如权利要求12所述的电子设备,其特征在于,所述第一位置的3D坐标中的Z轴坐标与所述第二位置的3D坐标中的Z轴坐标不同。
14.一种3D眼镜,所述3D眼镜与权利要求8~13任一所述的电子设备配合使用,所述3D眼镜包括两个图像采集单元,所述两个图像采集单元分别位于所述3D眼镜左右两端,其特征在于,所述3D眼镜还包括:
第二获取单元,用于在所述电子设备输出包含M个显示对象的3D图像时,通过所述两个图像采集单元分别实时获取包含操作体、以及所述M个显示对象的两幅2D图像,其中,M为正整数,佩戴所述3D眼镜的用户能够通过所述两幅2D图像观看到具有3D效果的所述M个显示对象;
确定单元,用于基于所述两幅2D图像,确定所述操作体的3D坐标、以及所述M个显示对象的3D坐标;
发送单元,用于将所述操作体的3D坐标、以及所述M个显示对象的3D坐标发送给所述电子设备,以使所述电子设备能够基于所述操作体的3D坐标、以及所述M个显示对象的3D坐标,对所述M个显示对象中的指定显示对象进行控制。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201510570539.5A CN106502376A (zh) | 2015-09-08 | 2015-09-08 | 一种3d触控操作方法、电子设备及3d眼镜 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201510570539.5A CN106502376A (zh) | 2015-09-08 | 2015-09-08 | 一种3d触控操作方法、电子设备及3d眼镜 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN106502376A true CN106502376A (zh) | 2017-03-15 |
Family
ID=58287014
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201510570539.5A Pending CN106502376A (zh) | 2015-09-08 | 2015-09-08 | 一种3d触控操作方法、电子设备及3d眼镜 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN106502376A (zh) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112925430A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110083106A1 (en) * | 2009-10-05 | 2011-04-07 | Seiko Epson Corporation | Image input system |
| CN102378033A (zh) * | 2010-08-11 | 2012-03-14 | Lg电子株式会社 | 操作图像显示设备的方法 |
| CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
| CN103530060A (zh) * | 2013-10-31 | 2014-01-22 | 京东方科技集团股份有限公司 | 显示装置及其控制方法、手势识别方法 |
| US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
-
2015
- 2015-09-08 CN CN201510570539.5A patent/CN106502376A/zh active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20110083106A1 (en) * | 2009-10-05 | 2011-04-07 | Seiko Epson Corporation | Image input system |
| CN102378033A (zh) * | 2010-08-11 | 2012-03-14 | Lg电子株式会社 | 操作图像显示设备的方法 |
| US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
| CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
| CN103530060A (zh) * | 2013-10-31 | 2014-01-22 | 京东方科技集团股份有限公司 | 显示装置及其控制方法、手势识别方法 |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112925430A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 实现悬浮触控的方法、3d显示设备和3d终端 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230092282A1 (en) | Methods for moving objects in a three-dimensional environment | |
| US9886102B2 (en) | Three dimensional display system and use | |
| EP2638461B1 (en) | Apparatus and method for user input for controlling displayed information | |
| US9829989B2 (en) | Three-dimensional user input | |
| US9619105B1 (en) | Systems and methods for gesture based interaction with viewpoint dependent user interfaces | |
| US8643569B2 (en) | Tools for use within a three dimensional scene | |
| CN110968187B (zh) | 由外围设备启用的远程触摸检测 | |
| KR102147430B1 (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
| TW201214266A (en) | Three dimensional user interface effects on a display by using properties of motion | |
| EP3286601B1 (en) | A method and apparatus for displaying a virtual object in three-dimensional (3d) space | |
| EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
| CN103440677A (zh) | 一种基于Kinect体感设备的多视点自由立体交互系统 | |
| CN102779000A (zh) | 一种用户交互系统和方法 | |
| US20150033157A1 (en) | 3d displaying apparatus and the method thereof | |
| JP2013168120A (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
| CN106066689B (zh) | 基于ar或vr系统的人机交互方法和装置 | |
| CN106502376A (zh) | 一种3d触控操作方法、电子设备及3d眼镜 | |
| Arslan et al. | E-Pad: Large display pointing in a continuous interaction space around a mobile device | |
| KR20170074161A (ko) | 사용자의 손 제스처를 이용하는 다시점 3d 콘텐츠 제공 시스템 및 그 방법 | |
| CN206892844U (zh) | 一种三维成像的led显示屏 | |
| Betancur | Remote Touch Interaction with Stereoscopic Visualizations | |
| CN106125940A (zh) | 虚拟现实交互界面管理方法和装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| C06 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170315 |
|
| RJ01 | Rejection of invention patent application after publication |