CN107995477A - 图像展示方法、客户端及系统、图像发送方法及服务器 - Google Patents
图像展示方法、客户端及系统、图像发送方法及服务器 Download PDFInfo
- Publication number
- CN107995477A CN107995477A CN201610946987.5A CN201610946987A CN107995477A CN 107995477 A CN107995477 A CN 107995477A CN 201610946987 A CN201610946987 A CN 201610946987A CN 107995477 A CN107995477 A CN 107995477A
- Authority
- CN
- China
- Prior art keywords
- observation
- seat
- projected image
- perspective plane
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/02—Reservations, e.g. for tickets, services or events
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Tourism & Hospitality (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Geometry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施方式公开了一种图像展示方法、客户端及系统、图像发送方法及服务器。所述图像展示方法包括:提供输入界面;接收用户在所述输入界面的输入信息;其中,所述输入信息用于确定观测点;展示观测对象和/或观测区域的投影图像;其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。本申请实施方式可以展示观测点所对应的观看效果。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种图像展示方法、客户端及系统、图像发送方法及服务器。
背景技术
在日常生活中,人们经常会遇到各种需要提前选取并预定座位的休闲娱乐活动,例如,去影院观看电影,去剧院观看歌剧或话剧,去体育场观看比赛等。在进行此类娱乐活动时,人们通常可以通过智能手机等终端设备选取并预定座位。
现有技术中,终端设备可以向用户提供在线选座功能。具体地,所述终端设备通常以平面布局图的形式展示场馆的图像,所述场馆为影院影厅或剧院剧厅等。用户可以从所述平面布局图上选取自己所需的座位,并可以预定选取的座位。例如,终端设备提供的影院影厅的平面布局图可以如图1所示。在图1中,已被选取座位的颜色为灰色,可选取座位的颜色为白色。用户可以从图1所示的平面布局图中,选取自己所需的座位,并可以预定选取的座位。
在实现本申请过程中,发明人发现现有技术中至少存在如下问题:
现有终端设备提供的在线选座功能,大多仅提供了场馆中座位的平面布局示意图。这样,用户通过所述终端设备选取座位后,大多在进入实际场馆后,才能体验到选取座位的具体视角。例如,用户通过终端设备在线选取影院影厅的座位后,大多在进入实际的影院影厅后,才能体验到选取座位的视角,即,选取座位所观察到的屏幕状态。在一些情况下,用户进行座位选取时,对座位的视角不了解。在进入实际场馆之后,发现选取座位的视角较差,但又无法更换座位。
发明内容
本申请实施方式的目的是提供一种图像展示方法、客户端及系统、图像发送方法及服务器,以展示观测点所对应的观察效果。
为解决上述技术问题,本申请实施方式提供一种图像展示方法、客户端及系统、图像发送方法及服务器是这样实现的。
本申请实施方式提供一种图像展示方法,包括:提供虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位;接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位;展示所述至少一个座位对应的投影图像,座位对应的投影图像为观测对象和/或观测区域在该座位对应的投影面上的投影形成的图像。
本申请实施方式提供一种图像展示方法,包括:提供输入界面;接收用户在所述输入界面的输入信息,其中,所述输入信息用于确定观测点;展示观测对象和/或观测区域的投影图像,其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
本申请实施方式还提供一种客户端,包括:显示组件,用于显示输入界面;输入组件,用于接收用户在所述输入界面的输入信息;处理器,耦合到所述显示组件和所述输入组件;用于基于所述输入信息来确定观测点,控制所述显示组件展示观测对象和/或观测区域的投影图像,其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
本申请实施方式还提供一种图像发送方法,包括:建立投影图像和观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点;接收获取投影图像的请求,所述请求中附带有指定观测点标识;基于所述投影图像与观测点标识的对象关系,获取所述指定观测点标识所对应的投影图像,向客户端发送获取的投影图像。
本申请实施方式还提供一种服务器,包括:对应关系建立单元,用于建立投影图像和观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点;请求接收单元,用于接收获取投影图像的请求,所述请求中附带有指定观测点标识;投影图像获取单元,用于基于所述投影图像与观测点标识的对象关系,获取所述指定观测点标识所对应的投影图像;投影图像发送单元,用于向客户端发送获取的投影图像。
本申请实施方式还提供一种图像展示系统,包括客户端;所述客户端用于展示投影图像;其中,所述投影图像为场景模型中的观测对象和/或观测区域在投影面上的投影形成的图像。
本申请实施方式还提供一种图像展示方法,包括:提供放映厅的虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位;接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位;展示购票界面,所述购票界面中包括所述至少一个座位对应的投影图像,其中,座位对应的投影图像为所述放映厅的屏幕在该座位对应的投影面上的投影形成的图像。
本申请实施方式的技术方案,通过确定观测点,可以提供模拟人在观测点的视角,使得用户无需真正到现场,便可以获知在观测点所观察到的观测对象和/或观测区域的状态,从而给用户带来了便利。
附图说明
为了更清楚地说明本申请实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为现有技术中电影院影厅的平面布局示意图;
图2为本申请实施方式一种图像展示系统的功能结构图;
图3为本申请实施方式一种二维虚拟场景图像示意图;
图4为本申请实施方式一种三维虚拟场景图像示意图;
图5为本申请实施方式一个座位所对应的屏幕投影图像示意图;
图6为本申请实施方式另一个座位所对应的屏幕投影图像示意图;
图7为本申请实施方式一种图像展示方法的流程图;
图8为本申请实施方式一种投影面示意图;
图9为本申请实施方式一种投影过程示意图;
图10为本申请实施方式一种虚拟场景图像界面示意图;
图11为本申请实施方式一种选取座位示意图;
图12为本申请实施方式一个座位所对应的屏幕投影图像示意图;
图13为本申请实施方式另一种图像展示方法的流程图;
图14为本申请实施方式一种图像发送方法的流程图;
图15为本申请实施方式另一种图像展示方法的流程图;
图16为本申请实施方式另一种图像展示方法的流程图;
图17为本申请实施方式一种座位选取方法的流程图;
图18为本申请实施方式一种购票界面示意图;
图19为本申请实施方式一种服务器的功能结构图;
图20为本申请实施方式一种客户端的功能结构图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施方式中的附图,对本申请实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本申请一部分实施方式,而不是全部的实施方式。基于本申请中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施方式,都应当属于本申请保护的范围。
请参阅图2。以下介绍本申请图像展示系统的一个实施方式。该实施方式可以包括客户端100。
在本实施方式中,所述客户端100可以为具有显示器的设备。所述显示器包括但不限于液晶(Liquid Crystal Display,LCD)显示器、阴极射线管(Cathode Ray Tube,CRT)显示器、和发光二极管(Light Emitting Diode,LED)显示器等。
所述客户端100可以为可移动设备。例如,所述客户端100可以为智能手机、平板电子设备、便携式计算机、个人数字助理(PDA)、车载设备、或智能穿戴设备等。所述客户端100还可以为桌面设备。例如,所述客户端100可以为服务器、工控机(工业控制计算机)、个人计算机(PC机)、一体机、或智能自助终端(kiosk)等。
所述客户端100可以利用显示器展示投影图像。所述投影图像可以为场景模型中的观测对象和/或观测区域在投影面上的投影形成的图像。所述场景模型可以为使用模型建立算法,通过对场景数据进行建模所形成的模型。所述模型建立算法包括但不限于网格算法、数据拟合算法、和模拟退火算法等。所述场景模型可以为包含一个或多个物体的模拟空间环境。所述观测对象可以为场景模型中的待投影物体。所述观测区域可以用于模拟人在场景模型中,以人的视角所观察到的区域。所述观测对象可以位于所述观测区域内部,还可以位于所述观测区域外部。
所述投影面可以基于场景模型中观测对象或观测区域,与该场景模型中观测点之间的位置关系来确定。其中,所述观测点可以用于模拟场景模型中人的观察位置。具体地,可以在观测对象或观测区域,与观测点之间构建一个投影面;可以获取观测对象和/或观测区域在所述投影面上的投影图像,以实现模拟人在观测点所观察到的观测对象和/或观测区域的状态。所述投影面可以为平面或曲面。所述曲面包括但不限于球面、圆柱面、和圆锥面等。
请参阅表1。表1示出了常用的场景模型、以及场景模型中的观测对象和观测区域。
表1
表1中的场景模型、以及场景模型中的观测对象和观测区域仅是列举,在实际应用中并不局限于表1中所列出的场景模型、以及场景模型中的观测对象和观测区域。并且,场景模型中观测对象的数量可以为一个或多个。例如,场景模型足球场的观测对象可以为比赛场地和/或座位。另外,在实际应用中并不局限于表1中所列出的场景模型和观测对象的组合方式、以及场景模型和观测区域的组合方式,本领域技术人员根据实际需要,可以对表1中的场景模型、观测对象、以及观测区域进行任意组合。例如,场景模型会议室可以与主持台组合,还可以与屏幕组合。即,场景模型会议室的观测对象可以为主持台,还可以为屏幕。
在一个实施方式中,所述客户端100可以为具有存储功能的设备。所述客户端100可以存储有投影面集,所述投影面集中包括至少一个投影面。所述客户端100可以建立观测点标识与投影面的对应关系,所述观测点标识用于唯一标识一个观测点。所述客户端100可以获取指定观测点标识;可以基于观测点标识与投影面的对应关系,从所述投影面集中获取指定观测点标识所对应的投影面;可以将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。其中,所述指定观测点标识可以用于唯一标识指定观测点,所述指定观测点可以为所述客户端100通过与用户进行交互所确定的观测点。例如,用户通过与所述客户端100进行交互,可以从影院影厅的座位中选取目标座位。所述指定观测点可以为所述目标座位,所述指定观测点标识可以用于唯一标识所述目标座位。具体地,所述指定观测点标识可以为所述目标座位的座位编号。
在一个实施方式中,所述客户端100可以存储有投影图像集,所述投影图像集中包括至少一个投影图像,所述投影图像可以为观测对象和/或观测区域在投影面上的投影形成的图像。所述客户端100可以建立投影图像与观测点标识的对应关系。所述客户端100可以获取指定观测点标识;可以基于投影图像与观测点标识的对应关系,从所述投影图像集中获取指定观测点标识所对应的投影图像,可以展示所述投影图像。
在一个实施方式中,所述客户端100可以确定观测点;可以基于所述观测点确定投影面;可以将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像;可以展示所述投影图像。
在一个实施方式中,所述客户端100可以利用显示器展示虚拟场景图像界面;可以接收用户在所述虚拟场景图像界面的触发操作指令;可以确定指定观测点;基于所述指定观测点,可以获取投影图像。所述虚拟场景图像界面可以为客户端100的显示器显示出的全部内容。所述虚拟场景图像界面中可以包含虚拟场景图像。具体地,所述虚拟场景图像可以为所述虚拟场景图像界面中的一部分,或者,还可以充满所述虚拟场景图像界面。所述虚拟场景图像可以在场景模型中根据基准观测点生成。所述场景模型可以为使用模型建立算法,通过对场景数据进行建模所形成的模型。所述模型建立算法包括但不限于网格算法、数据拟合算法、和模拟退火算法等。
在获取投影图像的过程中,所述客户端100可以基于观测点标识与投影面的对应关系,从存储的投影面集中获取与指定观测点标识所对应的投影面;可以将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。或者,所述客户端100还可以基于观测点标识与投影图像的对应关系,从存储的投影图像集中获取与指定观测点的标识所对应的投影图像。或者,所述客户端100还可以基于所述指定观测点确定投影面;可以将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。
在一个实施方式中,所述场景模型的空间维度可以为二维或三维,所述虚拟场景图像的空间维度也可以为二维或三维。具体地,当场景模型的空间维度为二维时,可以将二维场景模型投影到投影面上,得到二维虚拟场景图像;或者,还可以通过本领域常用的二维图像-三维图像转换算法,将所述二维虚拟场景图像进一步转换为三维虚拟场景图像。当场景模型的空间维度为三维时,可以将三维场景模型投影到投影面上,得到三维虚拟场景图像;或者,还可以通过本领域常用的三维图像-二维图像转换算法,将所述三维虚拟场景图像进一步转换为二维虚拟场景图像。例如,场景影院影厅的二维虚拟场景图像可以如图3所示,场景影院影厅的三维虚拟场景图像可以如图4所示。
在一个实施方式中,所述系统还可以包括服务器200。所述服务器200可以与所述客户端100相耦合。所述服务器200可以为一个单独的服务器,还可以为包括多个服务器的服务器集群。
在一个实施方式中,所述客户端100可以利用显示器展示虚拟场景图像界面;可以接收用户在所述虚拟场景图像界面的触发操作指令;可以获取指定观测点标识;可以基于所述指定观测点标识,通过与所述服务器200进行交互,获取投影图像。
在一个实施方式中,所述服务器200可以为具有存储功能的设备。所述服务器200可以存储有投影面集,所述投影面集中包括至少一个投影面。所述服务器200可以建立观测点标识与投影面的对应关系。所述客户端100可以向所述服务器200发送获取投影面的请求,所述请求中附带有指定观测点标识。所述服务器200可以接收发来的请求;可以基于观测点标识与投影面的对应关系,从所述投影面集中获取指定观测点标识所对应的投影面;可以向所述客户端100发送获取的投影面。所述客户端100可以接收发来的投影面,可以将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。
在一个实施方式中,所述服务器200可以存储有投影图像集,所述投影图像集中包括至少一个投影图像。所述服务器200可以建立投影图像与观测点标识的对应关系。所述客户端100可以向所述服务器200发送获取投影图像的请求,所述请求中附带有指定观测点标识。所述服务器200可以接收发来的请求,可以基于观测点标识与投影图像的对应关系,从所述投影图像集中获取指定观测点标识所对应的投影图像;可以向所述客户端100发送获取的投影图像。所述客户端100可以接收发来的投影图像。
在一个具体的应用场景中,所述客户端100可以为智能手机,所述智能手机上安装有用于购买电影票的应用。所述服务器200可以为所述应用对应的服务器。可以将所述服务器200作为中间服务器,所述智能手机、所述中间服务器、以及至少一个院线服务器可以构成在线选座系统。例如,所述应用可以为“猫眼电影”应用,所述中间服务器可以为“猫眼电影”应用对应的服务器,所述院线服务器可以为“金逸院线”服务器、“万达院线”服务器、或“中影星美院线”服务器。所述智能手机可以与所述中间服务器进行通讯,所述中间服务器可以与每个院线服务器进行通讯。所述中间服务器可以存储有每个院线可供用户选取的影院、影院的电影场次、电影场次所对应的影厅、影厅的场景模型、以及影厅的售票状态数据,其中,所述售票状态数据可以用于描述影厅中已被选取的座位以及未被选取的座位。并且,所述中间服务器还可以每间隔预设时间与每个院线服务器进行通信,以对存储的影院的电影场次、电影场次所对应的影厅、以及影厅的售票状态数据进行同步。
在本应用场景中,用户可以通过智能手机打开所述应用。所述应用可以向用户提供可供选取的影院。当用户选取影院“金逸院线XXX店”后,所述智能手机可以向所述中间服务器发送获取“金逸院线XXX店”电影场次的请求。所述中间服务器可以接收发来的请求;可以基于存储的“金逸院线”可供用户选取的影院、以及影院的电影场次,获取并向所述智能手机发送“金逸院线XXX店”的电影场次。所述智能手机可以接收并展示发来的电影场次。当用户选取电影“赏金猎人”、场次“下午2点半”后,所述智能手机可以进一步向所述中间服务器发送获取电影“赏金猎人”、场次“下午2点半”所对应的影厅、该影厅的场景模型、以及该影厅的售票状态数据的请求。所述中间服务器可以接收发来的请求;可以基于存储的“金逸院线”电影场次所对应的影厅、影厅的场景模型、以及影厅的售票状态数据,获取并向所述智能手机发送“6号”影厅的场景模型、以及“6号”影厅的售票状态数据,所述“6号”影厅为“金逸院线XXX店”、电影“赏金猎人”、场次“下午2点半”所对应的影厅。所述智能手机可以接收发来的“6号”影厅的场景模型;可以通过“6号”影厅的场景模型,展示“6号”影厅的虚拟场景图像界面。在所述虚拟场景图像界面中,所述智能手机可以基于“6号”影厅的售票状态数据、对“6号”影厅已被选取的座位以及未被选取的座位进行区分。例如,可以对已被选取的座位采用红色进行显示,可以对未被选取的座位采用蓝色进行显示。又如,图10为“6号”影厅的虚拟场景图像界面示意图。
在本应用场景中,基于展示的“6号”影厅的虚拟场景图像界面,用户可以从“6号”影厅中选取目标座位。例如,图11为用户通过展示的虚拟场景图像界面,选取目标座位的示意图。所述智能手机可以将所述目标座位作为观测点,向用户提供模拟人在目标座位所观察到的屏幕状态。例如,图12为“6号”影厅第6座位行的中间座位,所对应的屏幕投影图像示意图。在图12中,展示了第6座位行的中间座位所对应的屏幕状态。由此,所述智能手机可以向用户展示,基于选取的座位所观察到的屏幕状态,从而为用户选取座位提供了良好的操作体验。
在另一个具体的应用场景中,所述客户端100可以为智能手机,所述智能手机上安装有用于浏览景区风景的应用。所述服务器200可以为所述应用对应的服务器。所述智能手机、以及所述服务器200可以构成景区浏览系统。所述服务器200可以存储有景区的场景模型。例如,所述服务器200可以存储有景区“苏州园林”的场景模型、以及景区“北京故宫”的场景模型等。
在本应用场景中,用户可以通过智能手机打开所述应用。所述应用可以向用户提供可供浏览的景区。当用户选取景区“苏州园林”后,所述智能手机可以向所述服务器200发送获取景区“苏州园林”场景模型的请求。所述服务器200可以接收发来的请求,可以基于存储的景区的场景模型,向所述智能手机发送景区“苏州园林”的场景模型。所述智能手机可以接收发来的景区“苏州园林”的场景模型,并可以通过景区“苏州园林”的场景模型,展示景区“苏州园林”的虚拟场景图像界面。
在本应用场景中,用户可以对所述虚拟场景图像界面进行点击操作。在接收到用户在所述虚拟场景图像界面的点击操作后,所述智能手机可以获取所述虚拟场景图像界面中发生点击操作的触发点,可以获取所述触发点对应在景区“苏州园林”场景模型中的对应点,可以将所述对应点作为观测点。所述智能手机可以根据所述观测点、以及预设的指定距离,构建投影面,所述指定距离为所述观测点与投影面之间的距离,其中,所述观测点在所述投影面中的投影,可以趋于所述投影面的中心区域。所述智能手机可以根据所述投影面,确定观测区域。具体地,所述智能手机可以基于预设观测区域生成规则,生成观测区域。所述观测区域生成规则,可以包括:设置预设数量个点,其中,观测点与所述预设数量个点中每个点的连线,可以经过所述投影面。所述生成观测区域的过程,可以包括:基于所述预设数量个点,生成观测区域。例如,可以设置预设数量个边界点,以使观测点与每个边界点的连线,经过所述投影面的边界;基于所述预设数量个边界点,可以生成观测区域。可以理解的是,观测点与投影面边界的连线,可以形成一个以观测点为顶点的锥形体;以投影面为参考标准,所述观测区域可以为位于观测点对侧,且位于所述锥形体内的区域。所述智能手机可以将所述观测区域投影到所述投影面上,得到所述观测区域的投影图像;可以展示所述观测区域的投影图像。如此,可以实现模拟人在观测点,以人的视角所观察到的区域。用户无需真正到景区“苏州园林”内进行游览,便可以通过所述智能手机,欣赏景区“苏州园林”的风景。
在本应用场景中,用户还可以在投影图像上进行划动操作。在接收到用户在投影图像的划动操作后,所述智能手机可以以观测点为球心,对所述投影面进行旋转,其中,旋转的角度可以根据用户在智能手机显示器上的划动距离得到,旋转的方向可以根据用户在智能手机显示器上的划动方向得到。在旋转所述投影面后,所述观测区域的位置可以相应发生改变,展示的投影图像也可以相应发生改变。如此,用户可以通过对投影面进行划动操作,改变所观察到的区域,从而可以欣赏同一观测点不同观测区域的风景。例如,用户可以在投影图像上向左滑动500像素。所述智能手机可以将所述投影面向左旋转60°。
在本应用场景中,用户还可以在投影图像上进行双击操作。在接收到用户在投影图像的双击操作后,所述智能手机可以获取发生双击操作的触发点;可以获取所述触发点对应在景区“苏州园林”场景模型中的对应点;可以以当前观测点为参考标准,获取所述对应点相对于当前观测点的距离和方向;可以将所述距离作为所述投影面的移动距离,可以将所述方向作为所述投影面的移动方向;可以根据所述移动距离和所述移动方向,移动所述投影面。在移动所述投影面后,所述观测区域的位置可以相应发生改变,展示的投影图像也可以相应发生改变。如此,用户可以通过对投影面进行双击操作,改变所观察到的区域,从而欣赏不同观测点所对应的风景。
当然,在接收到用户在投影图像的双击操作后,所述智能手机还可以获取发生双击操作的触发点;可以获取所述触发点对应在景区“苏州园林”场景模型中的对应点;可以将所述对应点作为新的观测点;可以根据所述新的观测点,构建新的投影面;可以根据所述新的投影面,确定新的观测区域;可以将所述新的观测区域投影到所述新的投影面上,得到所述新的观测区域的投影图像。如此,用户通过对投影面进行双击操作,同样可以改变所观察到的区域,从而欣赏不同观测点所对应的风景。
在另一个具体的应用场景中,用户可以使用智能自助终端在线选取座位。此时,所述智能自助终端可以被用作为客户端100。所述智能自助终端可以向用户提供场景的虚拟场景图像界面,所述场景包括但不限于影院影厅、剧院剧厅、会议室、会场、教室、演播厅、足球场、篮球场、和田径场等。用户可以通过所述虚拟场景图像界面选取目标座位。智能自助终端可以向用户提供该目标座位所对应的观测对象投影图像。如此,用户便可以获知目标座位所对应的视角。结合前文介绍的实施方式。具体的,智能自助终端内可以针对每个座位,对应存储一个投影图像。如此,用户在点击座位后,智能自助终端便可以显示对应的投影图像。或者,智能终端也可以将目标座位作为观测点;可以根据所述观测点确定投影面;可以将所述场景中的观测对象投影到所述投影面上,得到所述观测对象的投影图像。
例如,用户可以使用智能自助终端购买电影票。所述智能自助终端可以向用户提供影厅的平面布局图像界面。用户可以通过所述平面布局图像界面选取目标座位。所述智能自助终端可以将所述目标座位作为观测点;可以根据所述观测点确定投影面;可以将影厅的屏幕到所述投影面上,得到所述屏幕的投影图像;可以展示所述屏幕的投影图像。具体地,例如,图5为图3所对应的影厅中,第4座位行中间座位所对应的屏幕投影图像。又如,图6为图3所对应的影厅中,第1座位行最右边座位所对应的屏幕投影图像。相类似地,用户还可以使用智能自助终端购买话剧票、足球比赛票、篮球比赛票、或田径比赛票等。
在另一个具体的应用场景中,用户可以使用智能手机浏览场景中的观测对象。所述场景包括但不限于博物馆、陈列馆、动物园、植物园、景区、和广场等。所述观测对象包括但不限于藏品、陈列品、金虎、凉亭、和雕塑等。此时,所述智能手机可以被用作为客户端100。具体地,所述智能手机可以向用户提供场景的虚拟场景图像界面。用户可以通过所述虚拟场景图像界面确定观测点。所述智能手机可以获取用户确定的观测点,可以根据所述观测点确定投影面;可以将所述场景中的观测对象投影到所述投影面上,得到所述观测对象的投影图像;可以展示所述观测对象的投影图像。这样,所述智能手机可以向用户展示场景中的观测对象。用户不需要置身于具体的场景中,却可以得到与置身场景中相同的观察效果。
在另一个具体的应用场景中,用户可以利用智能手机在太空中进行虚拟游览。此时,所述智能手机可以被用作为客户端100。所述智能手机可以向用户提供太空的虚拟场景图像界面。用户可以通过所述虚拟场景图像界面确定观测点。所述智能手机可以获取用户确定的观测点,可以根据所述观测点确定投影面;可以将观测天体和/或观测太空区域投影到所述投影面上,得到所述观测天体和/或观测太空区域的投影图像;可以展示所述观测天体和/或观测太空区域的投影图像。这样,所述智能手机可以向用户提供,观测点所对应的观测天体和/或观测太空区域的投影图像,即,可以向用户提供,观测点所对应的观察效果。相类似地,用户还可以使用智能手机在海洋中进行虚拟游览。
以下介绍本申请图像展示方法的一个实施方式。请参阅图7,该实施方式以客户端为主体,可以包括如下步骤。
步骤S71:提供输入界面。
在本实施方式中,所述输入界面可以为客户端展示的虚拟场景图像界面。如此,用户可以比较直观的指定观测点。该虚拟场景图像界面中可以包括二维或者三维的虚拟场景图像。关于虚拟场景图像界面的描述可以参阅前述实施方式。当然,该输入界面也可以为提供了输入框,该输入框用于接收用户输入的位置信息。具体的,例如,在选择座位的场景下,输入框可以用于输入座位号。进一步的,输入框的数量可以为二个或多个。如此,便可以输入更多维度信息,比如座位的排号和座位号。
步骤S72:接收用户在所述输入界面的输入信息;其中,所述输入信息用于确定观测点。
在本实施方式中,所述输入信息可以为虚拟场景图像界面中,发生的触发操作指令。具体的,触发操作指令可以为点击操作事件。输入信息还可以为用户在输入框中输入的观测点位置信息。例如,在客户端中提供博物馆的虚拟场景图像。用户在该虚拟场景图像中点击屏幕中一个位置,此时为发生了点击操作事件。该点击操作事件可以指向博物馆的虚拟场景图像中的某个位置。则该点击操作事件指向的位置便可以作为观测点。又如,输入界面中提供三个输入框,分别用于输入相对于体育场中区域编号、排号、座位号,其指定的座位便可以作为观测点。
在本实施方式中,所述观测点可以用于生成投影图像。所述投影图像可以为场景模型中的观测对象和/或观测区域在投影面上的投影形成的图像。所述场景模型可以为包含一个或多个物体的模拟空间环境。具体地,所述场景模型可以为使用模型建立算法,通过对场景数据进行建模所形成的模型。所述模型建立算法包括但不限于网格算法、数据拟合算法、和模拟退火算法等。所述观测对象可以为场景模型中的待投影物体。所述观测区域可以用于模拟人在场景模型中,以人的视角所观察到的区域。所述观测对象可以位于所述观测区域内部,也可以位于所述观测区域外部。
所述观测点可以用于模拟场景模型中人的观察位置。所述投影图像可以用于模拟人在所述观测点,所观察到的观测对象和/或观测区域的状态。例如,所述观测点可以为座位,所述观测对象可以为影院影厅的屏幕;所述观测对象的投影图像,可以用于模拟人在座位位置所观察到的屏幕的状态。又如,所述观测点还可以为场景模型中的一点,所述观测对象还可以为自然景观,具体地,所述观测对象可以为景区的凉亭或广场的雕塑;所述观测对象的投影图像,可以用于模拟人在观测点位置所观察到的自然景观的状态。
在一个实施方式中,确定观测点的过程,可以包括:接收用户输入的观测点位置信息;基于所述观测点位置信息,确定观测点。所述观测点位置信息可以用于描述观测点的位置。例如,所述观测点可以为座位,所述观测点位置信息可以为座位号。所述客户端可以提供座位号的输入界面;可以接收用户通过所述输入界面输入的座位号;可以将所述座位号所对应的座位作为观测点。
在一个实施方式中,客户端可以提供虚拟场景图像界面。相应地,确定观测点的过程,还可以包括:接收在虚拟场景图像界面的触发操作指令;获取观测点。
在本实施方式中,所述虚拟场景图像界面中可以包括虚拟场景图像。具体地,所述虚拟场景图像可以为所述虚拟场景图像界面中的一部分,或者,也可以充满所述虚拟场景图像界面。所述虚拟场景图像可以根据场景模型得到。所述客户端可以具有场景模型。所述场景模型在客户端显示器当前显示的部分,可以构成所述虚拟场景图像。
在本实施方式中,所述触发操作指令可以是在虚拟场景图像界面中检测到点击操作时产生的。所述点击操作具体可以包括单击操作和双击操作等。例如,用户可以在虚拟场景图像界面上进行单击操作,所述触发操作指令可以是在虚拟场景图像界面中检测到单击触发操作时产生的。其中,所述单击触发操作可以为鼠标的单击操作。或者,对于具有触摸显示器的客户端,所述单击触发操作还可以为用户触摸显示器的触摸单击操作。
在本实施方式中,所述获取观测点的过程,可以包括:获取所述虚拟场景图像界面中发生触发操作的触发点;获取所述触发点对应在场景模型中的对应点,将所述对应点作为观测点,所述场景模型用于生成所述虚拟场景图像界面中的虚拟场景图像。例如,所述客户端可以为具有显示器的设备。所述客户端可以获取用户在虚拟场景图像界面中发生触发操作的触发点;获取触发点在设备坐标系中的二维坐标值,所述设备坐标系可以为基于所述显示器建立的二维直角坐标系;可以基于预设的坐标转换算法,将触发点的二维坐标值转换为三维坐标值;可以在世界坐标系中获取所述三维坐标值的对应点,将所述对应点作为观测点,所述世界坐标系可以为基于场景模型建立的三维直角坐标系,所述场景模型用于生成所述虚拟场景图像界面中的虚拟场景图像。
在一个实施方式中,所述虚拟场景图像可以在场景模型中根据基准观测点生成。在从场景模型中生成所述虚拟场景图像时,可以将所述基准观测点作为基准。该基准观测点可以预先设置,使得在最初提供给用户虚拟场景图像时,可以具有比较明确的观测点。当然,用户也可以指定基准观测点,以变更虚拟场景图像中的内容。例如,用户打开应用时,可以提供一个基于基准观测点生成的虚拟场景图像。此时,用户还可以指定所述虚拟场景图像中的某一个位置,该应用所在的客户端可以将该位置作为当前的基准观测点。如此,应用所在的客户端可以根据当前的基准观测点重新生成虚拟场景图像,并提供给用户。此时,因基准观测点发生变化,相应的虚拟场景图像也可以发生变化,从而便于用户更加全面的了解场景模型内的情况。
在本实施方式中,所述获取观测点的过程,还可以包括:获取虚拟场景图像界面中触发操作指令对应的触发点;获取所述触发点对应在场景模型中的对应点,所述场景模型用于生成所述虚拟场景图像界面中的虚拟场景图像;基于所述对应点和所述基准观测点,构建直线;分析所述场景模型中的物体与所述直线之间的距离;从所述场景模型选取与所述直线间的距离最小的物体,将选取的物体作为观测点。所述物体可以为座位、桌子等。当然,在分析物体与直线之间的距离时,可以分析该物体的代表点与直线之间的距离,所述代表点可以为该物体的中心或者重心。或者,还可以对场景模型中的每个物体预先设置一个点,以代表该物体所在的位置。这样,所述代表点还可以为该物体的预先设置的点。
步骤S73:展示观测对象和/或观测区域的投影图像;其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
在本实施方式中,所述观测点对应的投影面,可以解释为根据所述观测点确定的投影面。所述投影面可以为平面或曲面,所述曲面包括但不限于球面、圆柱面等。所述投影面可以基于场景模型中观测对象或观测区域,与该场景模型中观测点之间的位置关系来确定。具体地,可以在观测对象或观测区域,与观测点之间构建一个投影面;可以获取观测对象和/或观测区域在所述投影面上的投影图像,以实现模拟人在观测点所观察到的观测对象和/或观测区域的状态。
在一个实施方式中,所述观测点在所述投影面中的投影,可以趋于所述投影面的中心区域。例如,所述投影面可以为矩形平面。所述观测点在所述矩形平面的投影,可以趋于所述矩形平面的中心区域。
在一个实施方式中,所述投影面与所述观测点之间可以具有指定距离。如此,在明确观测点之后,便可以通过指定距离,确定投影面。所述指定距离可以根据具体场景模型的情况进行预先设置。当然,还可以通过预设的距离指定算法,进行运算得到指定距离。所述距离指定算法可以将观测点与观测对象的距离,或者观测点与观测区域的距离作为输入参数。其中,观测点与观测对象的距离,可以为观测对象的几何中心点与观测点的距离;或者,也可以为观测对象的重心与观测点的距离;或者,还可以为针对观测对象的预先指定的基准点与观测点的距离。所述观测对象的基准点,可以为该观测对象的中心点,当然,还可以为其它的点。观测点与观测区域的距离,可以为观测区域作为整体形成图形的几何中心点与观测点的距离;或者,也可以为针对观测区域的预先指定的基准点与观测点之间的距离。所述观测区域的基准点,可以为该观测区域的中心点,当然,还可以为其它的点。所述距离指定算法可以将输入参数进行减小,将减小后的数据作为观测点与投影面之间的距离。例如,可以将输入参数减小指定的数字。具体地,例如,可以减小1、2、3、5、或者10……等等。或者,还可以将输入参数与指定的数字进行除法运算。具体地,例如,可以将输入参数除以2、3、10、或者20……等等。
在本实施方式中,客户端中可以预先设置有固定尺寸的投影面。如此,在明确观测点之后,客户端便可以根据投影面和观测点之间的指定距离,确定投影面的位置。
在一个实施方式中,客户端可以按照预设投影面限位规则,根据观测点动态生成投影面。所述预设投影面限位规则可以包括:设置基准点;基于所述基准点和所述观测点确定投影面,所述投影面与通过所述观测点和所述基准点的直线相交。所述投影面与通过所述观测点和所述基准点的直线的夹角可以为任意非零角度。例如,可以为30°、40°、55°、60°、或者90°。
所述投影面的指定点可以位于所述基准点和所述观测点的连线上。例如,图8为按照预设投影面限位规则,对投影面的位置进行限定的示意图。在图8中,可以设置观测对象或观测区域的小黑点为基准点;可以设置投影面的中心区域的小黑点为指定点;可以使投影面的小黑点位于基准点和观测点的连线上,以对该投影面的位置进行限定。又如,场景模型可以影院影厅,可以设置影院影厅屏幕的中心点为基准点;可以设置投影面的中心点为指定点;可以使投影面的中心点位于基准点和观测点的连线上,以对该投影面的位置进行限定。当然,基准点的设置,并不限于观测对象或者观测区域的中心点,其还可以为其它的点。相应地,可以在客户端中预先设置投影面的指定点。例如,可以在客户端中预先设置投影面的中心点为该投影面的指定点。类似地,指定点的设置,并不限于投影面的中心点,其还可以为投影面上其它的点。
在一个实施方式中,客户端中可以预先设置有固定尺寸的投影面。如此,减少了客户端的工作负荷,使运算逻辑较为简单。当然,客户端还可以按照预设投影面生成规则,根据观测点生成投影面。具体地,按照预设投影面生成规则生成的投影面,可以符合如下要求:所述观测点与所述投影面边界的连线,经过场景模型中指定物体。例如,场景模型为足球场,观测点为某一个座位,足球场中的指定物体为比赛场地。观测点与投影面边界的连线,可以经过比赛场地的边界。可以理解的是,观测点与比赛场地的边界做多个连线,可形成一个以观测点为顶点的棱锥体。投影面可以位于观测点和比赛场地之间,且投影面的边界分别位于棱锥体围绕比赛场地的各侧面上。
可以理解的是,本申请并不限于以上列举的一些确定投影面的实施方式。本领域技术人员在本申请技术精髓的启示下,还可能做出其它变更,例如,还可以有其它的预设投影面生成规则或预设投影面限位规则等。只要其实现的功能和效果,与本申请相同或相似,均应涵盖于本申请保护范围内。
在本实施方式中,所述观测对象可以为预先指定的场景模型中的物体,也可以为接收用户指定的场景模型中的物体。例如,场景模型为剧院,可以默认将舞台整体作为观测对象;或者,场景模型为影院影厅,可以将影厅中用户指定的座位作为观测对象;场景模型为展览馆,可以接收用户指定的某一个展览品作为观测对象。
在本实施方式中,所述观测区域可以为预先指定的场景模型中的区域。例如,可以预先指定场景模型影院影厅中屏幕所在区域作为观测区域。所述观测区域中可以包括一个或多个物体。例如,场景模型影院影厅中屏幕所在区域可以为观测区域,其可以包括屏幕和座位。
或者,所述观测区域还可以根据投影面来确定。具体地,所述智能手机可以基于预设观测区域生成规则,生成观测区域。所述预设观测区域生成规则,可以包括:设置预设数量个点,其中,观测点与所述预设数量个点中每个点的连线,可以经过所述投影面。所述生成观测区域的过程,可以包括:基于所述预设数量个点,生成观测区域。例如,可以设置预设数量个边界点,以使观测点与每个边界点的连线,经过所述投影面的边界;基于所述预设数量个边界点,可以生成观测区域。可以理解的是,观测点与投影面边界的连线,可以形成一个以观测点为顶点的锥形体;以投影面为参考标准,所述观测区域可以为位于观测点对侧、且位于所述锥形体内的区域。本领域技术人员还可以对所述观测区域生长规则做出其它变更。例如,还可以预先设置一个四楞台模型;可以设置预设数量个点,以使观测点与每个点的连线,经过所述投影面;可以将所述预设数量个点作为四楞台的边界点;基于所述边界点和预先设置的四楞台模型,可以生成一个四楞台;可以将所述四楞台围成的区域作为观测区域。
在本实施方式中,可以使用预设的投影算法,将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。所述投影算法包括但不限于透视投影算法、中心投影算法、和墨卡托投影算法等。例如,可以使用OpenGL中的gluPerspective函数或者glFrustum函数,将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。
在对所述观测对象和/或观测区域进行投影的过程中,所述观测点可以为投影中心点。所述投影中心点可以为投影线的交汇点。所述投影线可以为通过所述观测点和所述观测对象上点的线段,或者,通过所述观测点和所述观测区域内点的线段。例如,图9为投影示意图。在图9中,观测点为S,投影面为SW,观测对象为线段AA’,线段AA’在投影面SW上的投影图像为线段BB’;观测点S可以为投影中心点,投影线S A’和S A可以在观测点S交汇。
所述观测区域内可以包含一个或多个物体。所述将观测区域投影到所述投影面上,得到所述观测区域的投影图像的过程,可以包括:将所述观测区域以及所述观测区域内的物体投影到所述投影面上,得到所述观测区域的投影图像。
在将所述观测区域内的物体投影到所述投影面的过程中,当所述观测区域内的至少两个物体在投影面上的投影图像发生交叠时,可以在投影交叠的部分显示所述至少两个对象中与所述投影面距离最近的物体的投影图像。
在一个具体的应用场景中,客户端可以为具有显示器的设备。所述客户端可以获取投影面的尺寸和所述显示器的尺寸。可以基于所述投影面的尺寸和所述显示器的尺寸,对所述投影面上观测对象和/或观测区域的投影图像,进行放大或缩小。可以通过所述显示器展示放大或缩小后的,观测对象和/或观测区域的投影图像。
在另一个具体的应用场景中,客户端可以为具有显示器的设备。所述客户端可以获取所述观测对象和/或观测区域的投影图像。在投影面坐标系中的投影坐标值,所述投影面坐标系可以为基于所述投影面建立的二维直角坐标系。可以基于预设的坐标转换算法,将所述投影坐标值转换为设备坐标系中的设备坐标值,可以基于所述设备坐标值,展示所述观测对象和/或观测区域的投影图像。所述设备坐标系可以为基于所述显示器建立的二维直角坐标系。
在一个实施方式中,所述方法还可以包括:接收来自用户的显示调整操作指令,移动投影面;基于移动后的投影面确定观测区域;将确定的观测区域投影到移动后的投影面上,得到观测区域的投影图像;展示观测区域的投影图像。如此,用户通过对所述投影面进行操作,可以改变所观察到的区域。
在本实施方式中,所述显示调整操作指令可以是在检测到所述投影图像区域被点击、或划过时产生的。其中,点击操作具体可以包括单击操作或双击操作等。
在本实施方式中,客户端可以接收来自用户的显示调整操作指令;可以根据所述显示调整操作指令建立移动向量;可以基于所述移动向量移动投影面。所述移动向量可以包括移动距离、移动角度、或者移动方向等信息中的至少一个。
所述移动距离可以为一个预先指定的距离。如此,当发生一次显示调整操作时,便可以将投影面移动所述预先指定的距离。当然,还可以根据所述显示调整操作指令,生成移动距离。例如,显示调整操作可以为点击操作。这样,可以获取发生点击操作的触发点;可以获取所述触发点对应在场景模型中的对应点,所述场景模型可以用于生成虚拟场景图像界面中的虚拟场景图像;可以获取所述对应点与当前观测点的距离;可以将所述距离作为投影面的移动距离。
所述移动角度可以为投影面的旋转角度。所述旋转角度可以为一个预先指定的角度。这样,当发生一次显示调整操作时,便可以将投影面旋转所述预先指定的角度。当然,还可以根据所述显示调整操作指令,生成旋转角度。例如,客户端的显示器可以为触摸显示器,显示调整操作可以为划动操作。这样,可以预先建立接收到的用户在所述显示器上的划动距离,与旋转角度的映射关系。当用户在显示器上划动操作时,可以根据用户在所述显示器上的划动距离,基于所述映射关系,计算得到旋转角度。在旋转投影面时,可以以观测点为球心,进行旋转;或者,也可以以投影面中的某一个直线为中心,进行旋转;或者,还可以预先指定一个投影面外的旋转基准,进行旋转。
所述移动方向可以根据所述显示调整操作指令得到。具体地,所述移动方向可以为接收到的显示调整操作指令所指向的方向。例如,客户端的显示器可以为触摸显示器,显示调整操作可以为划动操作。这样,接收到的用户在所述显示器上的划动方向可以作为移动方向。又如,显示调整操作还可以为双击操作。这样,可以获取发生双击操作的触发点;可以获取所述触发点对应在场景模型中的对应点,所述场景模型可以用于生成虚拟场景图像界面中的虚拟场景图像;可以以当前观测点为参考标准,获取所述对应点相对于当前观测点的方向;可以将所述方向作为所述投影面的移动方向。
在本实施方式中,基于移动后的投影面确定观测区域的过程,可以包括:基于建立的移动向量移动观测区域。如此,在移动投影面后,观测区域的位置可以相应发生改变。当然,本实施方式对投影面和观测区域的移动先后顺序并不做限定。例如,在建立移动向量后,可以根据所述移动向量先移动投影面,后移动观测区域;或者,还可以根据所述移动向量,同时移动投影面和观测区域。另外,在基于移动后的投影面确定观测区域的过程中,还可以采用步骤S73中相类似的方法,根据观测区域生成规则以及移动后的投影面,重新生成观测区域。
在本实施方式中,将确定的观测区域投影到移动后的投影面上,得到观测区域的投影图像;展示观测区域的投影图像。如此,在移动投影面后,展示的投影图像可以相应发生变化,可以向用户提供不同观测区域的状态,从而可以改变用户所观察到的区域。
在一个实施方式中,所述客户端可以为移动智能终端,所述移动智能终端中可以集成有角速度传感器(又称为陀螺仪),所述角速度传感器可以用于测量偏转或倾斜时的角速度。当用户改变客户端的倾斜状态时,角速度传感器可以检测用户的偏转或倾斜操作,使得客户端可以将角速度传感器产生的输入信号作为显示调整操作指令。客户端可以基于所述输入信号生成移动向量,所述移动向量可以包括移动距离、移动角度、以及移动方向中的至少一个;可以基于所述移动向量移动投影面。具体地,客户端中可以预先设置与角速度传感器输入信号所对应的移动向量。其中,输入信号表示客户端沿着水平轴发生旋转时,可以对应移动方向;输入信号表示客户端沿着竖直轴发生旋转时,可以对应移动角度;输入信号本身的强度,可以对应移动距离。如此,用户便可以通过旋转或摇晃客户端,来改变所观察到的区域,从而给用户操作带来了便利。
或者,所述移动智能终端中还可以集成有加速度传感器。所述加速度传感器可以用于测量移动方向和移动速度变化。当用户改变客户端的状态时,加速度传感器可以检测用户的移动加速度变化,所述移动加速度变化可以用于描述用户的移动方向和移动速度变化。如此,客户端可以将加速度传感器产生的输入信号作为显示调整操作指令;在接收到所述显示调整操作指令后,可以基于所述输入信号生成移动距离和移动方向;可以基于所述移动距离和移动方向,移动投影面。例如,输入信号本身的强度可以用于表示客户端移动速度变化,其可以对应移动距离;输入信号的正负用于表示客户端在直线上的移动方向,其可以对应前后移动方向,或者,还可以对应左右移动方向。如此,用户便可以通过摇晃或甩动客户端,来前后移动或左右移动所观察到的区域,从而给用户操作带来了便利。
在一个实施方式中,所述投影图像可以位于投影图像界面。所述投影图像界面中可以设置有至少一个触发控件。用户通过点击操作或划动操作所述至少一个触发控件,可以移动所述投影面。例如,所述投影图像界面中可以设置有第一触发控件和第二触发控件;所述第一触发控件左侧区域可以对应向左的移动方向,所述第一触发控件右侧区域可以对应向右的移动方向;所述第一触发控件顶部区域可以对应向前的移动方向,所述第一触发控件底部区域可以对应向后的移动方向,所述第一触发控件的触发持续时间可以对应移动距离;所述第二触发控件的左侧区域可以对应向左的旋转方向,所述第二触发控件的右侧区域可以对应向右的旋转方向,所述第二触发控件的顶部区域可以对应向上的旋转方向,所述第二触发控件的底部区域可以对应向下的旋转方向,所述第二触发控件的触发持续时间可以对应旋转角度。又如,所述投影图像界面中还可以设置有语音控件。用户可以点击所述语音控件,以输入语音信息。客户端可以接收用户输入的语音信息,可以根据所述语音信息建立移动向量,从而移动所述投影面。
在本实施方式中,客户端可以将得到的投影图像,在显示器中进行显示。如此,用户可以通过显示器获知,在观测点位置所观察到的观测对象和/或观测区域的状态。例如,用户在通过客户端购买电影票时,通过选取座位,可以获知将选取的座位作为观测点时,所观察到的屏幕状态,从而为用户选取座位时提供了良好的操作体验。
在本实施方式中,客户端通过确定观测点,可以提供模拟人在观测点的视角,使得用户无需真正到现场,便可以获知在观测点所观察到的观测对象和/或观测区域的状态,从而给用户带来了便利。
以下介绍本申请图像展示方法的另一个实施方式。请参阅图13,该实施方式可以包括如下的步骤。
步骤S131:服务器建立投影图像与观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点。
在本实施方式中,所述投影图像可以是服务器预先生成的。关于生成投影图像过程的描述,请参阅前文介绍。
在本实施方式中,所述观测点标识可以用于唯一标识一个观测点。例如,所述观测点可以为座位,所述观测点标识可以用于唯一标识一个座位,具体地,所述观测点标识可以为座位编号。
在本实施方式中,所述服务器存储有投影图像集,所述投影图像集中可以包括至少一个投影图像。所述服务器可以建立所述投影图像集中的投影图像与观测点标识的一一对应关系。
步骤S132:客户端向所述服务器发送获取投影图像的请求,所述请求中附带有指定观测点标识。
在本实施方式中,所述指定观测点标识可以用于唯一标识指定观测点,所述指定观测点可以为客户端通过与用户进行交互所确定的观测点。例如,用户通过与所述客户端进行交互,可以从影院影厅中选取座位。所述指定观测点可以为用户选取的座位,所述指定观测点标识可以用于唯一标识用户选取座位。具体地,所述指定观测点标识可以为用户选取座位的座位编号。
步骤S133:服务器接收所述客户端发来的请求。
步骤S134:服务器基于所述投影图像与观测点标识的对应关系,获取所述指定观测点标识所对应的投影图像。
步骤S135:服务器向所述客户端发送所述投影图像。
步骤S136:客户端接收发来的投影图像,展示所述投影图像。
在一个具体的应用场景中,所述观测点可以为影院影厅内的座位,所述观测点标识可以为座位编号。服务器可以存储有影厅内每个座位所对应的屏幕投影图像。所述屏幕投影图像可以是预先生成的。所述服务器可以建立屏幕投影图像与座位编号的一一对应关系。用户通过与客户端进行交互,可以从影院影厅的中选取座位。所述客户端可以向服务器发送获取屏幕投影图像的请求,所述请求中可以附带有用户选取座位的座位编号。所述服务器可以接收发来的用户选取座位的座位编号,可以根据屏幕投影图像与座位编号的一一对应关系,获取用户选取座位的座位编号所对应的屏幕投影图像,可以向所述客户端发送所述屏幕投影图像。所述客户端可以接收并展示所述屏幕投影图像。
在本实施方式中,服务器可以建立投影图像与观测点标识的对应关系。客户端通过向所述服务器发送请求,可以获取投影图像。如此,客户端可以不需要进行投影,从而可以减少功耗,并可以加快处理速度。
在本实施方式中,服务器可以响应客户端发出的获取投影图像的请求,可以将请求中附带的指定观测点标识所对应的投影图像发送给客户端。如此,客户端中便可以具有较小的数据量。另外,服务器中的投影图像还可以提供给多个不同的客户端。从而提高了投影图像的利用率。
以下介绍本申请图像发送方法的一个实施方式。请参阅图14,该实施方式以服务器为主体,可以包括如下的步骤。
步骤S141:建立投影图像和观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点。
步骤S142:接收获取投影图像的请求,所述请求中附带有指定观测点标识。
步骤S143:基于所述投影图像与观测点标识的对应关系,获取所述指定观测点标识所对应的投影图像。
步骤S144:向客户端发送所述投影图像。
以下介绍本申请图像展示方法的另一个实施方式。请参阅图15,该实施方式可以包括如下的步骤。
步骤S151:服务器建立投影面与观测点标识的对象关系。
在本实施方式中,关于所述投影面的描述,请参阅前文介绍。
在本实施方式中,所述观测点标识可以用于唯一标识一个观测点。例如,所述观测点可以为座位,所述观测点标识可以用于唯一标识一个座位,具体地,所述观测点标识可以为座位编号。
在本实施方式中,所述服务器存储有投影面集,所述投影面集中可以包括至少一个投影面。所述服务器可以建立所述投影面集中的投影面与观测点标识的对应关系。
步骤S152:客户端向所述服务器发送获取投影面的请求,所述请求中附带有指定观测点标识。
在本实施方式中,所述指定观测点标识可以用于唯一标识指定观测点,所述指定观测点可以为所述客户端通过与用户进行交互所确定的观测点。例如,用户通过与所述客户端进行交互,可以从影院影厅中选取座位。所述指定观测点可以为用户选取的座位,所述指定观测点标识可以用于唯一标识用户选取座位。具体地,所述指定观测点标识可以为用户选取座位的座位编号。
步骤S153:服务器接收所述客户端发来的请求。
步骤S154:服务器基于所述投影面与观测点标识的对象关系,获取所述指定观测点标识所对应的投影面。
步骤S155:服务器向所述客户端发送所述投影面。
步骤S156:客户端接收发来的投影面,将观测对象和/或观测区域投影到所述投影面上,得到观测对象和/或观测区域的投影图像,展示所述观测对象和/或观测区域的投影图像。
在本实施方式中,关于所述观测对象的描述、所述观测区域的描述、以及投影过程的描述,请参阅前文介绍。
在一个具体的应用场景中,所述观测点可以为影院影厅内的座位,所述观测点标识可以为座位编号。服务器可以存储有影厅内每个座位所对应的投影面。所述投影面可以是预先生成的。所述服务器可以建立投影面与座位编号的一一对应关系。用户通过与客户端进行交互,可以从影院影厅中选取座位。所述客户端可以向服务器发送获取投影面的请求,所述请求中可以附带有用户选取座位的座位编号。所述服务器可以接收发来的用户选取座位的座位编号,可以根据投影面与座位编号的一一对应关系,获取用户选取座位的座位编号所对应的投影面,可以向所述客户端发送所述投影面。所述客户端可以接收发来的投影面;可以将影院影厅的屏幕投影到所述投影面上,得到屏幕投影图像;可以展示所述屏幕投影图像。
在本实施方式中,服务器可以建立投影面与观测点标识的对象关系。客户端通过向所述服务器发送请求,可以获取投影面,并可以基于所述投影面得到投影图像。这样,客户端可以不需要确定投影面,从而可以减少功耗,并可以加快处理速度。
请参阅图16。以下介绍本申请图像展示方法的一个实施方式。该实施方式以客户端为主体,可以包括以下步骤。
步骤S161:提供虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位。
在本实施方式中,客户端能够为用户提供在线选座功能。所述客户端可以适用的场景包括但不限于:影院影厅、剧院剧厅、体育场、演播厅、茶馆、餐馆等等。用户通过所述客户端,可以观察到观测对象或观测区域的状态。
在本实施方式中,所述虚拟场景图像界面中可以包括虚拟场景图像。所述多个座位可以位于所述虚拟场景图像内。所述虚拟场景图像可以为所述虚拟场景图像界面中的一部分,或者,还可以充满所述虚拟场景图像界面。例如,图10为提供的影院影厅虚拟场景图像界面示意图。
在一个实施方式中,所述虚拟场景图像界面中还可以包括观测对象和/或观测区域。具体地,所述虚拟场景图像界面中可以包括虚拟场景图像,所述观测对象和/或观测区域可以位于所述虚拟场景图像内。关于所述观测对象的描述、以及所述观测区域的描述,请参阅前文介绍。
步骤S162:接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位。
在本实施方式中,所述触发操作指令可以是在检测到所述虚拟场景图像界面被按下、单击、或双击时产生的。
在本实施方式中,所述触发操作指令指向至少一个座位,可以表示为:客户端通过触发操作指令,从所述多个座位中选取至少一个座位。具体地,客户端可以获取所述虚拟场景图像界面中发生触发操作的触发点;可以获取所述触发点对应在场景模型中的对应点,所述场景模型可以用于生成所述虚拟场景图像界面中的虚拟场景图像;基于所述对应点和基准观测点,可以构建直线;可以分析所述场景模型中的多个座位与所述直线间的距离;可以基于所述多个座位中的每个座位与所述直线间的距离,从所述多个座位中选取至少一个座位。
所述从所述多个座位中选取至少一个座位的过程,可以包括:从所述多个座位中选取与所述直线间的距离最小的座位,或者,从所述多个座位中选取与所述直线间的距离小于预设距离的座位。所述预设距离可以为预先设定的用于选取座位的距离,其具体大小可以根据实际需要灵活设定。所述从所述多个座位中选取至少一个座位的过程,可以与确定观测点的过程,进行对照解释。例如,图11为选取座位的示意图。
步骤S163:展示所述至少一个座位对应的投影图像,其中,座位对应的投影图像为观测对象和/或观测区域在该座位对应的投影面上的投影形成的图像。
在本实施方式中,当所述触发操作指令指向座位的数量为两个或两个以上时,可以同时展示两个或两个以上座位对应的投影图像。或者,还可以先展示一个座位对应的投影图像,在检测到用户输入的切换指令后,再展示下一个座位对应的投影图像。例如,所述切换指令,可以是在检测到用户的滑动触发操作时产生的,还可以是在检测到角速度传感器的信号输入时产生的。例如,图12为影院影厅第6座位行的中间座位,所对应的投影图像示意图。在图12中,展示了第6座位行的中间座位所对应的屏幕状态。
在一个实施方式中,在接收到在所述虚拟场景图像界面的触发操作指令后,所述方法还可以包括:分别确定所述至少一个座位中每个座位对应的投影面;分别将所述观测对象和/或观测区域投影到每个座位对应的投影面上,得到该座位对应的投影图像。其中,所述每个座位对应的投影面,可以位于该座位和所述观测对象之间,或者,可以位于该座位和所述观测区域之间。
所述分别确定所述至少一个座位中每个座位对应的投影面的过程,可以包括:基于指定距离,分别确定所述至少一个座位中每个座位对应的投影面,所述指定距离为座位和该座位对应投影面间的距离。或者,可以设置基准点。所述基准点可以为观测对象或者观测区域的中心点,还可以为其它的点。相应地,所述分别确定所述至少一个座位中每个座位对应的投影面的过程,还可以包括:基于所述基准点,分别确定所述至少一个座位中每个座位对应的投影面,其中,座位对应的投影面与通过该座位和所述基准点的直线相交。
在一个实施方式中,可以将投影图像对应的座位作为基准座位。所述方法还可以包括:接收来自用户的显示调整操作指令,所述显示调整操作指令用于生成所述基准座位的变更向量,其中,所述变更向量包括移动距离和移动方向中的至少一个;根据所述变更向量变更基准座位;展示变更后的基准座位对应的投影图像。关于生成变更向量的过程,可以与建立移动向量的过程,进行对照解释。并且,关于根据变更向量变更基准座位的过程,也可以与根据移动向量移动投影面的过程,进行对照解释。
例如,请参阅图12。所述投影图像可以位于投影图像界面,所述投影图像界面可以设置有触发控件121。所述触发控件121左侧区域可以对应向左的移动方向,所述触发控件121右侧区域可以对应向右的移动方向;所述触发控件121顶部区域可以对应向前的移动方向,所述触发控件121底部区域可以对应向后的移动方向,所述触发控件121的触发持续时间可以对应移动距离。具体地,例如,用户可以单击所述触发控件121左侧区域,所述移动方向可以为向左的方向,所述移动距离可以为一个座位。如此,可以将与当前基准座位相邻且位于当前基准座位左侧的座位,作为变更后的基准座位。又如,客户端还可以设置有预设参考时间,用户按下所述触发控件121左侧区域的持续时间为预设参考时间的二倍时,所述移动方向可以为向左的方向,所述移动距离可以为二个座位。如此,可以将位于当前基准座位左侧且相隔一个座位的座位,作为变更后的基准座位。
请参阅图17。以下介绍本申请图像展示方法的一个实施方式。该实施方式以客户端为主体,可以包括以下步骤。
步骤S171:提供放映厅的虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位。
在本实施方式中,所述放映厅包括但不限于影院影厅、剧院剧厅、演播厅等等。
在本实施方式中,所述虚拟场景图像界面中可以包括虚拟场景图像。所述多个座位可以位于所述虚拟场景图像内。所述虚拟场景图像可以为所述虚拟场景图像界面中的一部分,或者,还可以充满所述虚拟场景图像界面。例如,图10为提供的影院影厅虚拟场景图像界面示意图。
步骤S172:接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位。
在本实施方式中,所述触发操作指令可以是在检测到所述虚拟场景图像界面被按下、单击、或双击时产生的。
在本实施方式中,所述触发操作指令指向至少一个座位,可以表示为:客户端通过触发操作指令,从所述多个座位中选取至少一个座位。具体地,客户端可以获取所述虚拟场景图像界面中发生触发操作的触发点;可以获取所述触发点对应在场景模型中的对应点,所述场景模型可以用于生成所述虚拟场景图像界面中的虚拟场景图像;基于所述对应点和基准观测点,可以构建直线;可以分析所述场景模型中的多个座位与所述直线间的距离;可以基于所述多个座位中的每个座位与所述直线间的距离,从所述多个座位中选取至少一个座位。
所述从所述多个座位中选取至少一个座位的过程,可以包括:从所述多个座位中选取与所述直线间的距离最小的座位,或者,从所述多个座位中选取与所述直线间的距离小于预设距离的座位。所述预设距离可以为预先设定的用于选取座位的距离,其具体大小可以根据实际需要灵活设定。所述从所述多个座位中选取至少一个座位的过程,可以与确定观测点的过程,进行对照解释。例如,图11为选取座位的示意图。
步骤S173:展示购票界面,所述购票界面中包括所述至少一个座位对应的投影图像,其中,座位对应的投影图像为所述放映厅的屏幕在该座位对应的投影面上的投影形成的图像。
在本实施方式中,所述购票界面中可以包括所述至少一个座位对应的投影图像。另外,所述购票界面中还可以包括购票控件。用户通过所述购票控件,可以进行购票操作。例如,用户通过单击所述购票控件,可以购买电影票、话剧票、或体育比赛门票等。当然,所述购票界面中还可以包括价格显示控件,以对购票的价格进行显示。例如,图18为提供的购票界面示意图。
在一个实施方式中,在接收到用户在所述虚拟场景图像界面的触发操作指令后,所述方法还可以包括:分别确定所述至少一个座位中每个座位对应的投影面;分别将放映厅的屏幕投影到每个座位对应的投影面上,得到该座位对应的投影图像。其中,所述每个座位对应的投影面,可以位于该座位和放映厅的屏幕之间。
所述分别确定所述至少一个座位中每个座位对应的投影面的过程,可以包括:基于指定距离,分别确定所述至少一个座位中每个座位对应的投影面,所述指定距离为座位和该座位对应投影面间的距离。或者,可以设置基准点。所述基准点可以为观测对象或者观测区域的中心点,还可以为其它的点。相应地,所述分别确定所述至少一个座位中每个座位对应的投影面的过程,还可以包括:基于所述基准点,分别确定所述至少一个座位中每个座位对应的投影面,其中,座位对应的投影面与通过该座位和所述基准点的直线相交。
在一个实施方式中,可以将投影图像对应的座位作为基准座位。所述方法还可以包括:接收来自用户的显示调整操作指令,所述显示调整操作指令用于生成所述基准座位的变更向量,其中,所述变更向量包括移动距离和移动方向中的至少一个;展示变更后的购票界面,其中,所述变更后的购票界面中包括变更后的基准座位对应的投影图像。关于生成变更向量的过程,可以与建立移动向量的过程,进行对照解释。并且,关于根据变更向量变更基准座位的过程,也可以与根据移动向量移动投影面的过程,进行对照解释。
以下介绍本申请服务器的一个实施方式。请参阅图19,该实施方式可以包括以下单元。
对应关系建立单元191,用于建立投影图像和观测点标识的对应关系,所述投影图像为观测对象在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点;
请求接收单元192,用于接收获取投影图像的请求,所述请求中附带有指定观测点标识。
投影图像获取单元193,用于基于所述投影图像与观测点标识的对象关系,获取所述指定观测点标识所对应的投影图像。
投影图像发送单元194,用于向客户端发送所述投影图像。
以下介绍本申请客户端的另一个实施方式。请参阅图20。该实施方式可以包括显示组件、输入组件和处理器。
在本实施方式中,所述显示组件包括但不限于液晶(Liquid Crystal Display,LCD)显示器、阴极射线管(Cathode Ray Tube,CRT)显示器、和发光二极管(Light EmittingDiode,LED)显示器等。
在本实施方式中,所述显示组件可以用于显示输入界面。所述输入界面可以为虚拟场景图像界面。如此,用户可以比较直观的指定观测点。当然,所述输入界面也可以为提供了输入框,该输入框用于接收用户输入的位置信息。
在本实施方式中,所述输入组件可以为触摸感应式组件。例如,所述客户端可以为移动智能终端,所述输入组件可以为移动智能终端的触摸感应屏。所述输入组件也可以为实体按键式组件。例如,所述客户端可以为智能自助终端,所述输入组件可以为智能自助终端的键盘。
在本实施方式中,所述输入组件可以用于接收用户在所述输入界面的输入信息。所述输入信息可以为虚拟场景图像界面中,发生的触发操作指令,也可以为用户在输入框中输入的观测点位置信息。
在本实施方式中,所述处理器可以按任何适当的方式实现。例如,处理器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式等等。
在本实施方式中,所述处理器,可以耦合到所述显示组件和所述输入组件;可以用于基于所述输入信息来确定观测点,控制所述显示组件展示观测对象和/或观测区域的投影图像,其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
在本实施方式中,所述处理器可以接收用户输入的观测点位置信息;可以基于所述观测点位置信息,确定观测点。或者,所述处理器还可以控制所述显示组件显示虚拟场景图像界面,并在接收到用户在所述虚拟场景图像界面的触发操作指令后,可以获取观测点。
在本实施方式中,所述处理器可以通过观测点和指定距离,确定投影面,所述指定距离为所述观测点和所述投影面间的距离。或者,所述处理器还可以设置基准点。相应地,所述处理器还可以基于所述基准点和所述观测点,确定投影面,所述投影面与通过所述观测点和所述基准点的直线相交。
在本实施方式中,所述处理器可以使用预设的投影算法,将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。所述投影算法包括但不限于透视投影算法、中心投影算法、和墨卡托投影算法等。例如,可以使用OpenGL中的gluPerspective函数或者glFrustum函数,将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。
在一个实施方式中,所述处理器在接收到用户在所述投影图像的触发操作指令后,可以移动所述投影面;可以基于移动后的投影面确定观测区域;可以将确定的观测区域投影到移动后的投影面上,得到观测区域的投影图像;可以控制所述显示组件显示观测区域的投影图像。
上述实施方式公开的客户端,其显示组件、输入组件和处理器实现的具体功能,可以与本申请中前述实施方式相对照解释。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片2。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog2。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。
上述实施方式阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施方式的某些部分所述的方法。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
虽然通过实施方式描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。
Claims (48)
1.一种图像展示方法,其特征在于,包括:
提供虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位;
接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位;
展示所述至少一个座位对应的投影图像,其中,座位对应的投影图像为观测对象和/或观测区域在该座位对应的投影面上的投影形成的图像。
2.如权利要求1所述的方法,其特征在于,所述虚拟场景图像界面中还包括观测对象和/或观测区域。
3.如权利要求1所述的方法,其特征在于,所述接收在所述虚拟场景图像界面的触发操作指令,包括:
检测到所述虚拟场景图像界面中的区域发生点击操作事件。
4.如权利要求1所述的方法,其特征在于,在接收到在所述虚拟场景图像界面的触发操作指令后,所述方法还包括:
分别确定所述至少一个座位中每个座位对应的投影面;
分别将所述观测对象和/或观测区域投影到每个座位对应的投影面上,得到该座位对应的投影图像。
5.如权利要求4所述的方法,其特征在于,所述每个座位对应的投影面,位于该座位和所述观测对象之间,或者,位于该座位和所述观测区域之间。
6.如权利要求4所述的方法,其特征在于,所述分别确定所述至少一个座位中每个座位对应的投影面,包括:
基于指定距离,分别确定所述至少一个座位中每个座位对应的投影面,所述指定距离为座位和该座位对应投影面间的距离。
7.如权利要求4所述的方法,其特征在于,所述方法还包括:
设置基准点;
相应地,所述分别确定所述至少一个座位中每个座位对应的投影面,包括:
基于所述基准点,分别确定所述至少一个座位中每个座位对应的投影面,其中,座位对应的投影面与通过该座位和所述基准点的直线相交。
8.如权利要求1所述的方法,其特征在于,所述投影图像对应的座位为基准座位;
相应地,所述方法还包括:
接收来自用户的显示调整操作指令,所述显示调整操作指令用于生成所述基准座位的变更向量,其中,所述变更向量包括移动距离和移动方向中的至少一个;
展示变更后的基准座位对应的投影图像。
9.如权利要求8所述的方法,其特征在于,所述接收来自用户的显示调整操作指令,包括:
检测到所述投影图像中的区域发生点击操作事件或者划动操作事件。
10.如权利要求8所述的方法,其特征在于,所述方法应用于移动智能终端;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述移动智能终端发生倾斜或者移动加速度变化。
11.如权利要求8所述的方法,其特征在于,所述投影图像位于投影图像界面,所述投影图像界面具有触发控件;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述触发控件发生点击操作事件或者划动操作事件。
12.如权利要求1所述的方法,其特征在于,所述观测对象为屏幕、舞台、或比赛场地。
13.一种图像展示方法,其特征在于,包括:
提供输入界面;
接收用户在所述输入界面的输入信息;其中,所述输入信息用于确定观测点;
展示观测对象和/或观测区域的投影图像;其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
14.如权利要求13所述的方法,其特征在于,所述输入信息为观测点位置信息。
15.如权利要求13所述的方法,其特征在于,所述输入界面为虚拟场景图像界面,所述输入信息为在所述虚拟场景图像界面的触发指令。
16.如权利要求15所述的方法,其特征在于,所述接收用户在所述输入界面的输入信息,包括:
检测到用户在所述虚拟场景图像界面中的区域发生点击操作事件。
17.如权利要求15所述的方法,其特征在于,所述虚拟场景图像界面中包括虚拟场景图像;
相应地,所述方法还包括:
获取所述虚拟场景图像界面中所述触发指令对应的触发点;
获取所述触发点对应在场景模型中的对应点,将所述对应点作为观测点,其中,所述场景模型用于生成所述虚拟场景图像。
18.如权利要求15所述的方法,其特征在于,所述虚拟场景图像界面中包括虚拟场景图像,所述虚拟场景图像基于基准观测点生成;
相应地,所述方法还包括:
获取所述虚拟场景图像界面中所述触发指令对应的触发点;
获取所述触发点对应在场景模型中的对应点;
基于所述对应点和所述基准观测点,构建直线;
从场景模型中选取与所述直线间的距离最小的物体,将选取的物体作为观测点,其中,所述场景模型用于生成所述虚拟场景图像。
19.如权利要求13所述的方法,其特征在于,所述方法还包括:
基于所述观测点和指定距离,确定投影面,所述指定距离为所述观测点和所述投影面间的距离。
20.如权利要求13所述的方法,其特征在于,所述方法还包括:
设置基准点;
基于所述基准点和所述观测点,确定投影面,所述投影面与通过所述观测点和所述基准点的直线相交。
21.如权利要求13所述的方法,其特征在于,所述方法还包括:
接收来自用户的显示调整操作指令;所述显示调整操作指令用于生成所述投影面的移动向量,其中,所述移动向量包括移动距离、移动角度、以及移动方向中的至少一个;
展示移动后的投影面对应的投影图像,其中,所述移动后的投影面对应的投影图像为所述观测对象和/或观测区域在移动后的投影面上的投影形成的图像。
22.如权利要求21所述的方法,其特征在于,所述接收来自用户的显示调整操作指令,包括:
检测到所述投影图像中的区域发生点击操作事件或者划动操作事件。
23.如权利要求21所述的方法,其特征在于,所述方法应用于移动智能终端;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述移动智能终端发生倾斜或者移动加速度变化。
24.如权利要求21所述的方法,其特征在于,所述投影图像位于投影图像界面,所述投影图像界面具有触发控件;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述触发控件发生点击操作事件或者划动操作事件。
25.如权利要求13所述的方法,其特征在于,所述观测点为座位,所述观测对象为屏幕、舞台、或比赛场地。
26.如权利要求13所述的方法,其特征在于,所述观测点为所述观测对象所在场景模型中的一点,所述观测对象为所述场景模型中的自然景观。
27.一种客户端,其特征在于,包括:
显示组件,用于显示输入界面;
输入组件,用于接收用户在所述输入界面的输入信息;
处理器,耦合到所述显示组件和所述输入组件;用于基于所述输入信息来确定观测点,控制所述显示组件展示观测对象和/或观测区域的投影图像,其中,所述投影图像为所述观测对象和/或观测区域在所述观测点对应的投影面上的投影形成的图像。
28.如权利要求27所述的客户端,其特征在于,所述观测点为座位,所述观测对象为屏幕、舞台、或比赛场地。
29.如权利要求27所述的客户端,其特征在于,所述观测点为所述观测对象所在场景模型中的一点,所述观测对象为所述场景模型中的自然景观。
30.一种图像发送方法,其特征在于,包括:
建立投影图像和观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点;
接收获取投影图像的请求,所述请求中附带有指定观测点标识;
基于所述投影图像与观测点标识的对象关系,获取所述指定观测点标识所对应的投影图像;
向客户端发送获取的投影图像。
31.如权利要求30所述的方法,其特征在于,所述观测点为座位,所述观测点标识用于唯一标识一个座位,所述指定观测点标识用于唯一标识用户选取的座位。
32.如权利要求30所述的方法,其特征在于,所述投影图像采用下述方法得到:
确定观测点;
基于所述观测点,确定投影面;
将观测对象和/或观测区域投影到所述投影面上,得到所述观测对象和/或观测区域的投影图像。
33.如权利要求32所述的方法,其特征在于,所述投影面位于所述观测点和所述观测对象之间,或者,位于所述观测点和所述观测区域之间。
34.如权利要求32所述的方法,其特征在于,所述确定投影面,包括:
基于所述观测点和指定距离,确定投影面,所述指定距离为所述观测点和所述投影面间的距离。
35.如权利要求32所述的方法,其特征在于,所述方法还包括:
设置基准点;
相应地,所述确定投影面,包括:
基于所述基准点和所述观测点,确定投影面,所述投影面与通过所述观测点和所述基准点的直线相交。
36.一种服务器,其特征在于,包括:
对应关系建立单元,用于建立投影图像和观测点标识的对应关系,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像,所述观测点标识用于唯一标识一个观测点;
请求接收单元,用于接收获取投影图像的请求,所述请求中附带有指定观测点标识;
投影图像获取单元,用于基于所述投影图像与观测点标识的对象关系,获取所述指定观测点标识所对应的投影图像;
投影图像发送单元,用于向客户端发送获取的投影图像。
37.一种图像展示系统,其特征在于,包括客户端;
所述客户端用于展示投影图像;其中,所述投影图像为场景模型中的观测对象和/或观测区域在投影面上的投影形成的图像。
38.如权利要求37所述的系统,其特征在于,所述系统还包括服务器;所述服务器用于存储投影图像集;其中,所述投影图像集包括至少一个投影图像,所述投影图像为观测对象和/或观测区域在投影面上的投影形成的图像。
39.如权利要求37所述的系统,其特征在于,
所述服务器还用于建立所述投影图像集中的投影图像与观测点标识的对应关系,所述观测点标识用于唯一标识一个观测点;
所述客户端还用于向服务器发送获取投影图像的请求,所述请求中附带有指定观测点标识;接收并展示发来的投影图像;
所述服务器还用于接收所述客户端发来的请求;根据所述投影图像与观测点标识的对应关系,从所述投影图像集中获取所述指定观测点标识所对应的投影图像;向客户端发送获取的投影图像。
40.如权利要求37所述的系统,其特征在于,所述系统还包括服务器;所述服务器用于存储投影图面集;其中,所述投影面集包括至少一个投影面。
41.如权利要求40所述的系统,其特征在于,
所述服务器还用于建立所述投影面集中的投影面与观测点标识的对应关系,所述观测点标识用于唯一标识一个观测点;
所述客户端还用于向服务器发送获取投影图像的请求,所述请求中附带有指定观测点标识;接收发来的投影面;将观测对象和/或观测区域投影到所述投影面上,得到观测对象和/或观测区域的投影图像;展示所述测对象和/或观测区域的投影图像;
所述服务器还用于接收所述客户端发来的请求;根据所述投影面与观测点标识的对应关系,从所述投影面集中获取所述指定观测点标识所对应的投影面;向客户端发送获取的投影面。
42.一种图像展示方法,其特征在于,包括:
提供放映厅的虚拟场景图像界面,所述虚拟场景图像界面中包括多个座位;
接收在所述虚拟场景图像界面的触发操作指令,所述触发操作指令用于指向所述多个座位中的至少一个座位;
展示购票界面,所述购票界面中包括所述至少一个座位对应的投影图像,其中,座位对应的投影图像为所述放映厅的屏幕在该座位对应的投影面上的投影形成的图像。
43.如权利要求42所述的方法,其特征在于,所述接收在所述虚拟场景图像界面的触发操作指令,包括:
检测到所述虚拟场景图像界面中的区域发生点击操作事件。
44.如权利要求42所述的方法,其特征在于,在接收到在所述虚拟场景图像界面的触发操作指令后,所述方法还包括:
分别确定所述至少一个座位中每个座位对应的投影面;
分别将放映厅的屏幕投影到每个座位对应的投影面上,得到该座位对应的投影图像。
45.如权利要求42所述的方法,其特征在于,所述投影图像对应的座位为基准座位;
相应地,所述方法还包括:
接收来自用户的显示调整操作指令,所述显示调整操作指令用于生成所述基准座位的变更向量,其中,所述变更向量包括移动距离和移动方向中的至少一个;
展示变更后的购票界面,其中,所述变更后的购票界面中包括变更后的基准座位对应的投影图像。
46.如权利要求45所述的方法,其特征在于,所述接收来自用户的显示调整操作指令,包括:
检测到所述购票界面中的区域发生点击操作事件或者划动操作事件。
47.如权利要求45所述的方法,其特征在于,所述方法应用于移动智能终端;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述移动智能终端发生倾斜或者移动加速度变化。
48.如权利要求45所述的方法,其特征在于,所述购票界面具有触发控件;
相应地,所述接收来自用户的显示调整操作指令,包括:
检测到所述触发控件发生点击操作事件或者划动操作事件。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610946987.5A CN107995477A (zh) | 2016-10-26 | 2016-10-26 | 图像展示方法、客户端及系统、图像发送方法及服务器 |
| PCT/IB2017/001447 WO2018078444A1 (en) | 2016-10-26 | 2017-10-26 | Image display method, client terminal and system, and image sending method and server |
| US15/795,139 US10672144B2 (en) | 2016-10-26 | 2017-10-26 | Image display method, client terminal and system, and image sending method and server |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201610946987.5A CN107995477A (zh) | 2016-10-26 | 2016-10-26 | 图像展示方法、客户端及系统、图像发送方法及服务器 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN107995477A true CN107995477A (zh) | 2018-05-04 |
Family
ID=61969744
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201610946987.5A Pending CN107995477A (zh) | 2016-10-26 | 2016-10-26 | 图像展示方法、客户端及系统、图像发送方法及服务器 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10672144B2 (zh) |
| CN (1) | CN107995477A (zh) |
| WO (1) | WO2018078444A1 (zh) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109213320A (zh) * | 2018-08-06 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 选座预览的方法、装置和存储介质 |
| CN112130938A (zh) * | 2019-06-24 | 2020-12-25 | 阿里巴巴集团控股有限公司 | 界面的生成方法、计算设备及存储介质 |
| CN115857702A (zh) * | 2023-02-28 | 2023-03-28 | 北京国星创图科技有限公司 | 一种在太空场景下的场景漫游及视角转化方法 |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019073661A1 (ja) * | 2017-10-13 | 2019-04-18 | ソニー株式会社 | 情報処理装置、情報処理方法、情報処理システム、表示装置及び予約システム |
| US10360713B1 (en) * | 2018-07-17 | 2019-07-23 | Disney Enterprises, Inc. | Event enhancement using augmented reality effects |
| CN111182278B (zh) * | 2018-11-09 | 2022-06-14 | 上海云绅智能科技有限公司 | 一种投影展示管理方法及系统 |
| CN114127751B (zh) * | 2019-05-17 | 2023-05-30 | 好莱坞网络有限责任公司 | 聚合自适应购票系统和购票方法 |
| CN112150223A (zh) * | 2019-06-27 | 2020-12-29 | 贝壳技术有限公司 | Vr模型内物品信息及物品标签的查看方法、系统及终端 |
| WO2020259694A1 (zh) | 2019-06-27 | 2020-12-30 | 贝壳找房(北京)科技有限公司 | 当前空间内物品信息的显示方法、装置及介质 |
| CN114601564B (zh) * | 2020-10-08 | 2023-08-22 | 深圳市精锋医疗科技股份有限公司 | 手术机器人及其图形化控制装置、图形化显示方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102609867A (zh) * | 2012-01-11 | 2012-07-25 | 北京华宏天下信息技术有限公司 | 手机自助选座购买电影票的系统和方法 |
| CN104598656A (zh) * | 2013-10-30 | 2015-05-06 | 西安景行数创信息科技有限公司 | 一种基于三维场景仿真的电影院售票系统 |
| CN105657406A (zh) * | 2015-12-31 | 2016-06-08 | 北京小鸟看看科技有限公司 | 三维观察视角选定方法和装置 |
| CN106022899A (zh) * | 2016-06-24 | 2016-10-12 | 张睿卿 | 虚拟现实影院系统 |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4868236B2 (ja) * | 2004-12-21 | 2012-02-01 | ソニー株式会社 | 画像処理装置と画像処理方法および画像処理プログラム |
| WO2011025727A1 (en) | 2009-08-25 | 2011-03-03 | Dolby Laboratories Licensing Corporation | 3d display system |
| JP5494284B2 (ja) * | 2010-06-24 | 2014-05-14 | ソニー株式会社 | 立体表示装置及び立体表示装置の制御方法 |
| KR101723235B1 (ko) * | 2010-10-04 | 2017-04-04 | 삼성전자주식회사 | 입체 영상의 입체감을 감쇠하기 위한 장치 및 방법 |
| EP2554434B1 (en) | 2011-08-05 | 2014-05-21 | Harman Becker Automotive Systems GmbH | Vehicle surround view system |
| US9292184B2 (en) | 2011-11-18 | 2016-03-22 | Zspace, Inc. | Indirect 3D scene positioning control |
| CN105095973B (zh) * | 2014-05-13 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 影剧院坐席选择方法和装置 |
| US9171195B1 (en) * | 2014-06-16 | 2015-10-27 | Amazon Technologies, Inc. | Recognizing three-dimensional objects |
| JP2016019194A (ja) | 2014-07-09 | 2016-02-01 | 株式会社東芝 | 画像処理装置、画像処理方法、および画像投影装置 |
| GB2528699B (en) * | 2014-07-29 | 2017-05-03 | Sony Computer Entertainment Europe Ltd | Image processing |
| KR20160058519A (ko) * | 2014-11-17 | 2016-05-25 | 삼성전자주식회사 | 복수의 영상들에 대한 영상 처리 |
| KR101835434B1 (ko) | 2015-07-08 | 2018-03-09 | 고려대학교 산학협력단 | 투영 이미지 생성 방법 및 그 장치, 이미지 픽셀과 깊이값간의 매핑 방법 |
| CN106251403B (zh) | 2016-06-12 | 2018-02-16 | 深圳超多维光电子有限公司 | 一种虚拟立体场景实现的方法、装置和系统 |
-
2016
- 2016-10-26 CN CN201610946987.5A patent/CN107995477A/zh active Pending
-
2017
- 2017-10-26 WO PCT/IB2017/001447 patent/WO2018078444A1/en not_active Ceased
- 2017-10-26 US US15/795,139 patent/US10672144B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102609867A (zh) * | 2012-01-11 | 2012-07-25 | 北京华宏天下信息技术有限公司 | 手机自助选座购买电影票的系统和方法 |
| CN104598656A (zh) * | 2013-10-30 | 2015-05-06 | 西安景行数创信息科技有限公司 | 一种基于三维场景仿真的电影院售票系统 |
| CN105657406A (zh) * | 2015-12-31 | 2016-06-08 | 北京小鸟看看科技有限公司 | 三维观察视角选定方法和装置 |
| CN106022899A (zh) * | 2016-06-24 | 2016-10-12 | 张睿卿 | 虚拟现实影院系统 |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109213320A (zh) * | 2018-08-06 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 选座预览的方法、装置和存储介质 |
| CN112130938A (zh) * | 2019-06-24 | 2020-12-25 | 阿里巴巴集团控股有限公司 | 界面的生成方法、计算设备及存储介质 |
| CN115857702A (zh) * | 2023-02-28 | 2023-03-28 | 北京国星创图科技有限公司 | 一种在太空场景下的场景漫游及视角转化方法 |
| CN115857702B (zh) * | 2023-02-28 | 2024-02-02 | 北京国星创图科技有限公司 | 一种在太空场景下的场景漫游及视角转化方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180114341A1 (en) | 2018-04-26 |
| WO2018078444A1 (en) | 2018-05-03 |
| US10672144B2 (en) | 2020-06-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN107995477A (zh) | 图像展示方法、客户端及系统、图像发送方法及服务器 | |
| CA3229420C (en) | AUTOMATED IMAGE ACQUISITION CONTROL USING ACQUISITION DEVICE SENSORS | |
| Veas et al. | Extended overview techniques for outdoor augmented reality | |
| US10845942B2 (en) | Information processing device and information processing method | |
| US20210327156A1 (en) | Performing operations using a mirror in an artificial reality environment | |
| CN106484115B (zh) | 用于增强和虚拟现实的系统和方法 | |
| CN104104862B (zh) | 图像处理装置和图像处理方法 | |
| US20120192088A1 (en) | Method and system for physical mapping in a virtual world | |
| Winkler et al. | Pervasive information through constant personal projection: the ambient mobile pervasive display (AMP-D) | |
| US20180225880A1 (en) | Method and Apparatus for Providing Hybrid Reality Environment | |
| CN107656615A (zh) | 大量同时远程数字呈现世界 | |
| US20150185825A1 (en) | Assigning a virtual user interface to a physical object | |
| KR20190124766A (ko) | 혼합 현실 뷰어 시스템 및 방법 | |
| CN108389249B (zh) | 一种多兼容性的vr/ar空间教室及其构建方法 | |
| US12277655B2 (en) | Traveling in time and space continuum | |
| CN111179436A (zh) | 一种基于高精度定位技术的混合现实交互系统 | |
| US12109494B1 (en) | Flexible vantage positioning using multiple data sources | |
| Rasmussen et al. | SceneCam: Improving multi-camera remote collaboration using augmented reality | |
| Chu et al. | Mobile navigation services with augmented reality | |
| Piérard et al. | I-see-3D! An interactive and immersive system that dynamically adapts 2D projections to the location of a user's eyes | |
| CN117075771A (zh) | 基于虚拟现实空间的画面显示方法、装置、设备及介质 | |
| Clergeaud et al. | Pano: Design and evaluation of a 360 through-the-lens technique | |
| Hew et al. | Markerless Augmented Reality for iOS Platform: A University Navigational System | |
| US20240241618A1 (en) | Interaction method, apparatus, device and medium | |
| Mutalib et al. | PRO-VAS: utilizing AR and VSLAM for mobile apps development in visualizing objects |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| RJ01 | Rejection of invention patent application after publication | ||
| RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180504 |