CN108292168B - 针对虚拟空间内对象的动作指示方法及介质 - Google Patents
针对虚拟空间内对象的动作指示方法及介质 Download PDFInfo
- Publication number
- CN108292168B CN108292168B CN201680068792.3A CN201680068792A CN108292168B CN 108292168 B CN108292168 B CN 108292168B CN 201680068792 A CN201680068792 A CN 201680068792A CN 108292168 B CN108292168 B CN 108292168B
- Authority
- CN
- China
- Prior art keywords
- character
- user
- action
- instruction
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0308—Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及对虚拟空间内的对象执行基于身体手势的各种各样的动作指示的方法,包括:检测用户的双手握持的控制器的动作的步骤;根据控制器的动作,决定第1动作指示的步骤;以及根据第1动作指示,使用户的视点所注视的第1角色执行第1动作,使视点未注视的第2角色执行第2动作的步骤。从而对虚拟空间内的角色赋予指示。
Description
技术领域
本发明涉及针对虚拟空间内的对象的动作指示方法及程序,更详细地说,涉及用户通过手势来控制在采用头戴显示器(Head-Mounted Display:HMD)而沉浸的虚拟空间所显示的对象的方法及程序。
背景技术
现有技术文献
专利文献
专利文献1:特开2012-221498号公报
发明内容
发明要解决的技术问题
专利文献1公开的系统中,是通过手势对显示器所显示的对象赋予动作指示,不能对虚拟空间内的对象赋予动作指示。
解决技术问题的手段
为了解决上述的技术问题,根据本发明,提供一种向头戴显示器显示的虚拟空间内的角色赋予指示的方法,包括:
检测控制器的动作的步骤;
根据上述控制器的动作,确定第1动作指示的步骤;以及
根据上述第1动作指示,使上述用户的视点注视的第1角色执行第1动作,使视点未注视的第2角色执行第2动作的步骤。
而且,根据本发明,提供一种向头戴显示器显示的虚拟空间内的角色赋予指示的方法,包括:
取得控制器的动作的步骤;
根据上述控制器的动作,确定第1动作指示的步骤;以及
根据上述第1动作指示,使上述用户的视野区域内存在的角色执行第1 动作,使用户的视野区域外存在的第3角色执行第3动作的步骤。
发明的效果
根据本发明,能够通过手势对虚拟空间中的对象赋予各种各样的动作指示。
附图说明
图1是表示本发明的实施例所涉及的HMD系统的图。
图2是表示控制电路部的硬件结构的图。
图3是表示控制器的外观图的图。
图4是表示虚拟空间的一例的XYZ空间图。
图5是表示用于实现HMD系统的功能的控制电路部的功能的方框图。
图6是表示用于实现HMD系统的功能的处理的流程图。
图7是表示用于实现HMD系统的功能的处理的流程图。
图8是表示用户的手势的图。
图9是表示位于虚拟空间内的角色和角色的分类的图。
具体实施方式
首先,列出本发明的实施例的内容进行说明。本发明一实施例的控制 HMD的方法及程序具备以下的结构。
(项目1)
一种使头戴显示器所显示的虚拟空间内的角色动作的方法,包括:
检测控制器的动作的步骤;
根据上述控制器的动作,决定第1动作指示的步骤;以及
根据上述第1动作指示,使上述用户的视点所注视的第1角色执行第1 动作,使视点未注视的第2角色执行第2动作的步骤。
(项目2)
一种使头戴显示器所显示的虚拟空间内的角色动作的方法,包括:
取得控制器的动作的步骤;
根据上述控制器的动作,决定第1动作指示的步骤;以及
根据上述第1动作指示,使上述用户的视野区域内存在的角色执行第1 动作,使用户的视野区域外存在的第3角色执行第3动作的步骤。
(项目3)
项目2所述的方法,其中,
上述用户的视野区域内存在的角色包含用户的视点所注视的第1角色和用户的视点未注视的第2角色,
还包括根据上述第1动作指示,使上述第1角色执行第1动作,使上述第 2角色执行上述第2动作的步骤。
(项目4)
项目3所述的方法,还包括:
根据上述控制器的动作,决定不同于上述第1动作指示的第2动作指示的步骤;
根据上述第2动作指示,使用户的视野区域内存在的第4角色执行第4 动作,使用户的视野区域外存在的第5角色执行第5动作的步骤。
(项目5)
项目4所述的方法,其中,
上述第1角色、上述第2角色、上述第3角色具有第1属性,上述第4角色、上述第5角色具有第2属性,第1属性和第2属性不同。
(项目6)
项目3所述的方法,还包括:
根据上述第1动作指示的种类,使上述第1动作、上述第2动作、上述第 3动作互不相同的步骤。
(项目7)
项目4所述的方法,还包括:
根据上述第2动作指示的种类,使上述第4动作和上述第5动作互不相同的步骤。
(项目8)
项目1或3所述的方法,其中,
上述第2动作包括从接受上述第1动作指示起经过预定期间后执行的上述第1动作。
(项目9)
项目2所述的方法,其中,
上述第3动作包括从接受上述第1动作指示起经过预定期间后以预定的概率执行的上述第1动作。
(项目10)
项目4所述的方法,其中,
上述第5动作包括从接受上述第2动作指示起经过预定期间后执行的上述第4动作。
(项目11)
项目1、2所述的方法,其中,
上述控制器的动作是分别由用户的右手、左手保持的2个上述控制器的动作。
(项目12)
一种程序,用于使计算机执行项目1~11的任一项所述的方法。
(项目13)
项目12所述的程序,其中,
上述程序是关于足球游戏的程序。
[本发明一实施例的详细情况]
以下参照图面说明本发明一实施例所涉及的控制头戴显示器系统的程序的具体例。另外,本发明不限于这些示例,其由权利要求的范围说明,包含与权利要求的范围均等的意味及范围内的全部的变更。以下的说明中,与图面的说明中相同的要素附上相同的符号,省略重复的说明。
图1表示本实施例所涉及的具备HMD110的HMD系统100。HMD系统 100具备佩戴于用户150的头部的HMD110、控制电路部120、跟踪传感器132 和控制器140。以下,参照图1~图3,对构成HMD系统100的构成要素HMD110、控制电路部120、跟踪传感器132和控制器140分别进行详细说明。
〔HMD系统100的概要〕
〔HMD110〕
HMD110包含非透过型的显示装置即显示器112、传感器部114和注视传感器116。通过显示器112所显示的右眼用图像和左眼用图像,提供利用了两眼视差的3维图像来作为虚拟空间。通过在用户的眼前配置显示器112,能够使用户沉浸在虚拟空间。虚拟空间包含背景、用户可操作的各种对象、菜单图像等。
显示器112也可以包含提供右眼用图像的右眼用副显示器和提供左眼用图像的左眼用副显示器。另外,只要能够提供右眼用图像和左眼用图像,也可以由一个显示装置构成。例如,通过高速切换仅能使一只眼识别到显示图像的快门,能够独立提供右眼用图像和左眼用图像。
另外,HMD110也可以具备用于检测佩戴了HMD的用户150的头朝向哪个方向的传感器114部(例如,磁传感器、角速度传感器或加速度传感器的任一者或它们的组合)。所检测的用户150的头的朝向,也可以用于在用户150移动头时,追随其动作而使显示器112的显示图像变化。从而,能够进一步提高用户150对体感的虚拟现实空间的沉浸感。另外,传感器部114也可以包含多个光源。光源是发出例如红外线的LED。来自光源的红外线由跟踪传感器132检测而作为HMD110的检测点。
另外,HMD110还可以具备注视传感器116,其具有检测用户的右眼及左眼的视线所朝向的方向的眼球跟踪功能。注视传感器116优选具备右眼用传感器和左眼用传感器,通过分别检测右眼和左眼的视线所朝向的方向,来检测用户注视的视线方向。注视传感器116可以采用具有眼球跟踪功能的公知的传感器,例如也可以通过向右眼及左眼照射红外光并取得来自角膜、虹膜的反射光,求出眼球的转动角。
注视传感器116检测用户的右眼及左眼的视线方向,确定两者的交点即注视点。在用户近看时所确定的注视点,比用户远看时所确定的注视点更靠近用户。当注视点被确定时,用户的视线方向即被确定。视线方向是用户通过两眼使视线实际朝向的方向。视线方向定义为例如通过用户的右眼及左眼的中心与注视点的直线的延伸方向。
〔控制电路部120〕
控制电路部120是与HMD110连接的计算机。如图2所示,控制电路部 120包含由作为数据传送路径的总线相互连接的处理电路202、存储器204、输入输出接口206和通信接口208。
处理电路202包含CPU(Central Processing Unit)、MPU(Micro-processingunit)、GPU(Graphics Processing Unit)这样的各种处理电路等,具有对控制电路部120及HMD系统100全体进行控制的功能。
存储器204包含ROM(Read Only Memory)、RAM(Random Access Memory) 等,暂时存储处理电路使用的程序、运算参数等的控制用数据。存储器204 也可以包含闪速存储器、HDD(Hard Disc Drive)等的非易失性存储装置。在该情况下,存储器204存储与各种图像、对象相关的数据、模拟程序、用户的认证程序,而且,也可以构筑包含用于管理各种数据的表的数据库。
输入输出接口208包含USB(Universal Serial Bus)端子、DVI(Digital VisualInterface)端子、HDMI(注册商标)(High-Definition Multimedia Interface)端子等的各种有线连接端子、用于无线连接的各种处理电路,将HMD110、跟踪传感器132、控制器140连接。
通信接口206包含用于经由网络NW与外部装置通信的各种有线连接端子、用于无线连接的各种处理电路,构成为适于经由LAN(Local Area Network)、因特网而通信的各种通信规格、协议。
控制电路部120通过执行存储器存储的预定的应用程序,向显示器112 提示虚拟空间。另外,存储器存储用于操作该虚拟空间内所显示的各种对象或者用于显示、控制各种菜单图像等的程序。控制电路部120也可以不搭载于HMD110,而构成为其他硬件(例如公知的个人电脑、与网络连通的服务器、计算机)。另外,控制电路部120也可以仅将一部分功能安装于HMD110,将剩余的功能安装于其他硬件。
〔控制器140〕
控制器140是用户150对计算机游戏内的对象的动作进行控制所用的装置。图3是表示控制器140的外形的一例的图,以下的说明中参照图3。控制器140包括用户150右手握持使用的右手用控制器142和用户150左手握持使用的左手用控制器144。右手用控制器142和左手用控制器144构成为相互独立的装置。因此,用户150能够使握持右手用控制器142的右手和握持左手用控制器144的左手彼此自由地活动。右手用控制器142和左手用控制器144 分别具备操作按钮302、红外线LED(Light Emitting Diode)304、传感器306、收发器308。如后述,也可以选择性地仅仅设置红外线LED304和传感器306 的任一方。
右手用控制器142和左手用控制器144分别具备从手柄(324及334)的两侧面向顶面(322及332)的相反侧的方向延伸而形成为半圆状环的框326、336。在各框326及336的外表面,埋入多个红外线LED304。例如,多个(例如10 个左右)红外线LED304沿框326、336的圆周方向排成一列。也可以沿框326、 336的圆周方向排列多列(例如2列)红外线LED304。用户150握持控制器300 时,用户150的拇指以外的手指处于手柄(324或334)和框(326或336)之间。从而,在各框326、336的外表面配置的红外线LED304不会被用户150的手、指覆盖遮蔽。除了框326、336的外表面,还可以在手柄324及334的表面中未被用户150的指遮蔽的部分埋入红外线LED304。这些红外线LED304在玩计算机游戏的期间发出红外线。从红外线LED304发出的红外光可用于检测右手用控制器142和左手用控制器144各自的位置、姿势(倾斜度、朝向)、速度、加速度。
为了能够检测各控制器142、144的位置及姿势,右手用控制器142和左手用控制器144可以代替红外线LED304或除了红外线LED304之外还内置传感器306。传感器306例如可以是磁传感器、角速度传感器或加速度传感器的任一者,或者它们的组合。传感器306在用户150分别用右手和左手握持各控制器142,144而进行活动时,输出与各控制器142、144的朝向、动作相应的值(磁、角速度或加速度的值)。通过用适宜的方法加工来自传感器306的输出值,能够检测右手用控制器142和左手用控制器144的各自位置及姿势、速度、加速度。
这样,本实施例中,控制器140检测用户150的身体的一部分的动作。具体地说,右手用控制器142检测用户的右手的动作,左手用控制器144检测用户的左手的动作。从而,能够检测用户的头部以外的身体的一部分的动作,能够根据后述的用户的手势,控制计算机游戏内的对象的动作。另外,用于检测用户头部以外的身体的一部分的动作的方法不限于包含佩戴于该身体的一部分的传感器的控制器140,也可以应用图像识别等其他任意的物理、光学的手法等。例如,通过采用外部摄像机来确定用户的身体的一部分,并持续地确定用户的身体的一部分的位置,能够检测用户头部以外的身体的一部分的动作。以下的说明中,针对采用了控制器140的用户头部以外的身体的一部分的动作的检测进行详细说明。
〔跟踪传感器132〕
跟踪传感器132例如是红外线传感器,通过将来自传感器部114的光源的红外线检测为HMD110的检测点,追踪HMD110的动作。另外,跟踪传感器132通过将右手用控制器142和左手用控制器144的各自光源304发出的红外线检测为检测点,追踪各控制器的动作。例如,跟踪传感器132构成为在红外波长域拍摄图像的红外线摄像机,将拍摄的图像的数据向控制电路部 120发送。然后,根据由跟踪传感器132检测的信息随时间的变化,能够决定HMD110、控制器140的位置、角度的时间变化,检测与HMD110、控制器140的动作相关的信息。作为一例,多个光源304在各控制器的框326、336 上排列为一列。通过识别红外摄像机的拍摄图像中该一列的光源304对应的亮点的排列,能够检测各控制器的位置和姿势。
〔一实施例的说明〕
本实施例所涉及的HMD系统100是向虚拟空间内存在的计算机控制的对象赋予基于身体手势的各种动作指示的系统。身体手势根据2个控制器 142、144的动作(例如,位置的变化)来决定。计算机控制的对象例如是指在虚拟空间内进行足球游戏的角色。
而且,本实施例所涉及的HMD系统100根据虚拟空间内的对象的位置与用户150的位置的关系和/或对象的属性,决定使对象执行的实际的动作。例如,可以使用户150的视野区域内/外的对象、用户150的视点注视的/视点未注视的对象执行不同的动作。基于2个控制器142、144的位置、姿势的变化的动作指示的赋予方法、根据动作指示而决定的对象的实际动作的方法将后述。
图4是表示本发明一实施例所涉及的虚拟空间的一例的XYZ空间图。图 4中,XZ平面表示地表面,Y轴沿着高度方向延伸。虚拟空间6以中心3为中心形成为天球状。在虚拟空间6内配置虚拟摄像机1和计算机控制的一个或多个对象(未图示)。虚拟摄像机1具有用户的第一人称视点或与用户的化身对应的视点。动作传感器130检测与HMD110的位置、倾斜度相关的信息。动作传感器130包含传感器部114和跟踪传感器132。采用动作传感器130检测与HMD110的位置、倾斜度相关的信息的功能称为位置跟踪(ポジション·トラッキング)。
参照图4,说明基于动作传感器130实现的位置跟踪与虚拟空间6内配置的虚拟摄像机1的关系。为了说明虚拟摄像机1与动作传感器130的位置关系,以下,动作传感器130的位置在具有跟踪传感器132时设为跟踪传感器132的位置,不具有跟踪传感器132时设为传感器部114的位置。
本实施例中,在XZ面中,天球的中心3优选调节为总是配置在连结虚拟摄像机1和动作传感器130的线上。例如,虚拟摄像机1可以总是配置在中心3。另外,在佩戴着HMD110的用户移动而虚拟摄像机1的位置在X方向上移动时,也可以变更虚拟空间6的区域,使得中心3位于虚拟摄像机1和动作传感器130的延长线上。在这些情况下,虚拟空间6中的虚拟摄像机1的位置固定,仅仅倾斜度变化。另一方面,若与动作传感器130在XYZ方向的移动连动地使虚拟摄像机1的位置移动,则虚拟空间6中的虚拟摄像机1的位置可设定成可变。
图5是表示本发明的一实施例所涉及的HMD系统100中的,用于执行显示处理及基于身体手势对角色(例如,对象)给予动作指示等的控制电路部 120的功能结构的方框图。控制电路部120具有显示控制部400、对象控制部 500、存储部600。显示控制部400进一步包含HMD动作检测部410、视线检测部420、基准视线确定部430、视野区域决定部440、视野图像生成部450。对象控制部500包含控制器检测部510、指示决定部520、对象动作控制部530。存储部600与图2所示存储器204对应。存储部600包含空间信息存储部610和表存储部620。显示控制部400和对象控制部500由图2所示的处理电路202读出并执行存储器204内的计算机程序而实现。计算机程序包含游戏程序(例如,足球游戏程序)。存储部600包含空间信息存储部610和表存储部620。存储部600还包含如下的运算所需的各种数据,所述运算是用于向显示器112 提供与来自传感器部114、注视传感器116、跟踪传感器132、控制器140的输入相对应的输出信息的运算。
首先,参照图4~图6,说明用于决定虚拟摄像机1对应的视野区域5的各功能部(410~440)的处理流程。虚拟空间6可通过HMD110(注视传感器116、动作传感器130)及控制电路部120的相互作用而提供。
首先,HMD动作检测部410取得由动作传感器130检测到的HMD110的位置信息、倾斜度信息,根据该HMD110的位置信息、倾斜度信息,确定用户的视野方向(步骤S1)。另外,HMD110的位置信息、倾斜度信息能够采用在显示器112的附近固定的传感器部114、跟踪传感器132的两方或一方来取得。例如,角速度传感器能够根据HMD110的动作,随时间变化而检测 HMD110绕3轴旋转的角速度,决定绕各轴旋转的角度的时间变化。该情况下,也可以不需要跟踪传感器132。另外,跟踪传感器132也可以构成为包含光学摄像机。该情况下,能够根据图像信息来检测与HMD110的动作相关的信息,也可以不需要传感器部114。
接着,视线检测部420取得由注视传感器116检测到的用户左右眼的眼球的动作相关的信息,根据该用户的眼球的动作相关的信息,确定用户的视线方向(步骤S2)。
接着,基准视线确定部430根据由HMD110的倾斜度所确定的视野方向和/或用户的视线方向,确定基准视线4(步骤S3)。例如,将连接用户150的右眼及左眼的中心与位于视野方向的显示器112的中心的直线确定为基准视线4。另外,例如,将由注视传感器140所确定的用户的视线方向确定为基准视线4。
接着,视野区域决定部440根据基准视线4,决定虚拟空间6中的虚拟摄像机1的视野区域5(步骤S4)。虚拟摄像机1的视野区域5与HMD110的倾斜度和/或用户的视线方向等关联。如图4所示,视野区域5是虚拟空间6中构成用户的视野的部分。基准视线4根据虚拟摄像机1的位置及倾斜度而定。视野区域5具有由基准视线4和虚拟空间6的YZ截面定义的第1区域和由基准视线4和虚拟空间6的XZ截面定义的第2区域。第1区域设定为以基准视线4 为中心而包含预定的极角的范围,第2区域设定为以基准视线4为中心而包含预定的方位角的范围。
接着,参照图5、图7到图9,说明用于对角色(对象的一例)赋予动作指示而使角色动作的各功能部(510~530)的处理流程等。
〔步骤S5〕
控制器检测部510检测右手用控制器142和左手用控制器144的各自位置,根据所检测的位置来检测各自控制器的动作(位置的变化)(步骤S5)。首先,例如,在计算机游戏开始时等的初始状态下,右手用控制器142和左手用控制器144保持在位于用户的腰间的起始(home)位置,各自的顶面322、 332朝向水平。当计算机游戏开始时,用户150为了对计算机游戏内的角色进行基于手势的动作指示,使右手用控制器142和左手用控制器144向各种各样的位置移动。作为一例,计算机游戏是足球游戏。
然后,控制器检测部510通过识别从跟踪传感器132(红外摄像机130)取得的拍摄图像内的亮点(红外线LED304),检测用户160握持的右手用控制器 142和左手用控制器144分别位于何处。作为一例,控制器检测部510可以在从拍摄图像识别出的2个亮点的集合中,将构成左侧的集合的多个亮点的重心位置判别为右手用控制器142的位置,将构成右侧的集合的多个亮点的重心位置判别为左手用控制器144的位置。
另外或者是,控制器检测部510也可以采用各控制器142、144的传感器 306(例如加速度传感器)的检测数据,检测各控制器142、144的位置。
另外或者是,控制器检测部510也可以通过各控制器142、144的传感器 306(例如角速度传感器)来检测右手用控制器142和左手用控制器144各自的 3轴方向的角度的变化,根据检测的角度的变化,检测各自控制器的动作(位置的变化)。
〔步骤S6〕
接着,指示决定部520根据控制器的动作,决定动作指示(步骤S6)。首先,指示决定部520根据由控制器检测部510检测的各控制器142和144的位置的变化,求出控制器的位置的轨迹。然后,指示决定部520根据求出的控制器142和144的位置的轨迹,判定控制器的动作。然后,指示决定部520参照表存储部620所存储的手势表,判定由控制器检测部510检测的右手用控制器142和左手用控制器144各自的动作所对应的手势是否存在于手势表内。手势存在时,决定与该手势对应的动作指示。手势表的一例如表1所示。手势表示出身体手势和与该身体手势对应的动作指示。未在手势表示出的控制器的动作不判定为手势。
例如,指示决定部520检测右手用控制器142和左手用控制器144的动作,在判定为该动作是右手用控制器142和左手用控制器144都从前方向后方移动的手势(手势1)时,决定与该手势对应的第1动作指示。第1动作指示是指通过用户150的手势向我方角色赋予的指示。图8表示了用户150从原始位置 a移动保持控制器的手而执行各种身体手势1~3的情形。
而且,指示决定部520可以根据手势和角色的属性(例如,敌方/我方) 使动作指示不同。例如,指示决定部520也可以根据手势来决定给敌方角色赋予的动作指示(第2动作指示)。第2动作指示不同于第1动作指示。例如,与手势3对应的第1动作指示对我方角色为“向用户150传球”时,第2动作指示对敌方角色则成为“对用户150进行盯人”的指示。与用户150的手势对应的第1动作指示、第2动作指示由手势表预先规定。
如表1所示,也可以使多个身体手势与相同动作指示关联。例如,手势 3及手势4与一个第1动作指示关联。而且,对于不同手势,也可以仅仅使第 2动作指示不同。例如,手势3及手势4与相同内容的第1动作指示关联,但是第2动作指示的内容不同。
另外,也可以对一个身体手势关联多个动作指示。例如根据用户是防守方还是攻击方,变更与一个身体手势关联的动作指示。用户为攻击方时,能够使与手势1对应的第1动作指示、第2动作指示分别不同于用户为防守方时的动作指示。
[表1]
手势表
〔步骤S7〕
接着,对象动作控制部530根据动作指示,使角色执行预定的动作(步骤S7)。更详细地说,对象动作控制部530根据步骤S6决定的动作指示,参照表存储部620存储的动作表,决定使角色执行的动作。然后,对象动作控制部530使角色执行所决定的该动作。动作表是表示由步骤S6决定的动作指示和根据该动作指示而实际使角色执行的动作的关系的表。动作表按每个手势生成。作为动作表的一例,例如表2、表3所示。表2示出的是表示与手势1对应的我方角色的动作的动作表的一例,表3示出的是表示与手势1对应的敌方角色的动作的动作表的一例。如表2、表3所示,各手势对应的角色的动作根据虚拟空间内的角色的位置和角色的属性来规定。
这里,参照图9,根据虚拟空间内的角色的位置和角色的属性对角色进行分类。角色1~3是用户角色的我方角色,角色4、5是用户角色的敌方角色。角色1、2位于视野区域5内,其中角色1是用户150的视点所注视的(用户150所聚焦的)角色。在用户150能够识别角色1的视线时,角色1也可以是与用户150的视线对视(合わせている)的角色。角色3是位于视野区域5 外的角色。角色4位于用户150的视野区域5内,角色5是位于视野区域5外的角色。
对象动作控制部530根据角色的位置和角色的属性,决定使角色执行的动作。作为一例,对象动作控制部530使存在于用户的视野区域5内且用户的视点所注视的我方角色1执行第1动作,使用户的视点所未注视但存在于视野区域内的我方角色2执行第2动作,使存在于用户的视野区域外的我方角色3执行第3动作。第1动作是接受第1动作指示(或判定手势)后即时开始与第1动作指示相对应之动作的动作,第2动作例如是从接受第1动作指示起经过第1预定期间后(例如,2秒后)执行的第1动作。第3动作例如是从接受第1 动作指示起经过第2预定期间后(例如,3秒后)以第1预定概率(例如,50%的概率)执行的第1动作。用户的视点所注视的我方角色根据动作指示而迅速反应进行动作,而存在于视野区域内但未受用户的视点所注视的我方角色2、存在于视野区域外的我方角色3不对动作指示即时反应。另外,存在视野区域5外的多个我方角色3,有根据动作指示而动作的情况和不动作的情况。另外,对象动作控制部530也可以根据第1动作指示使全部我方角色1~3执行相同动作。
另外,作为另一例,对象动作控制部530使存在于用户的视野区域5内的敌方角色4执行第4动作,使存在于用户的视野区域5外的敌方角色5执行第5动作。第4动作例如是接受第2动作指示(或判定手势)后即时开始与第2 动作指示相对应之动作的动作,第5动作例如是从接受第2动作指示起经过第3预定期间后(例如,2秒后)执行的第4动作。视野区域5内存在的敌方角色 4根据第2动作指示而迅速反应进行动作,而存在于视野区域5外的敌方角色5不对第2动作指示即时反应。另外,视野区域5内外的敌方角色4、5也可以根据动作指示,以第2预定概率(例如,40%的概率)执行第4动作、第5动作。而且,对象动作控制部530也可以根据第2动作指示使全部敌方角色4、5执行相同动作。这样,本发明中,能够根据一个手势使多个角色分别执行不同的动作。另外,本发明中,根据角色的属性、角色的位置,由程序自动地设定使各角色执行的动作。从而,能够以简单的手势操作展开复杂的游戏。而且,向对象赋予指示所采用的手势可以与现实的游戏(例如,足球) 采用的手势对应。从而,如果是习惯于现实的游戏的用户,则无需学习用于向对象赋予指示的特别的手势。根据本发明,根据现实的游戏所采用的直观的手势操作就能够向角色赋予指示,因此,能够展开趣味性更高的游戏。
[表2]
动作表(我方角色)
[表3]
动作表(敌方角色)
〔步骤S8〕
视野图像生成部450,在虚拟空间6内配置由对象动作控制部530控制动作的角色,并参照空间信息存储部610,生成与视野区域5对应的视野图像 8(步骤S8)。从而,生成配置了存在于视野区域5内的角色的视野图像8。另外,空间信息存储部610存储构成虚拟空间6的三维虚拟空间图像。
〔步骤S9〕
接着,HMD110从控制电路部120接收与视野图像8相关的信息,向显示器112输出视野图像8并显示(步骤S9)。视野图像包含左眼用和右眼用的2 个二维图像,这些图像通过在显示器112重叠,向用户提供作为三维图像的虚拟空间6。
以上,说明了本发明的实施例,但是本发明不限于上述实施例。本领域技术人员应该理解可以在不脱离前述的技术方案所记载的本发明的思想及范围的情况下对实施例进行各种各样的变更。
符号的说明
100…头戴显示器(HMD)系统,110…HMD,112…显示器,114…传感器部,116…注视传感器,120…控制电路部,130…动作传感器,132…跟踪传感器,140…控制器,142…右手控制器,144…左手控制器,400…显示控制部,500…对象控制部,600…存储部,1…虚拟摄像机,4…基准视线,5…视野区域,6…虚拟空间。
Claims (26)
1.一种使用户佩戴的头戴显示器所显示的虚拟空间内的角色动作的方法,其特征在于,包括:
检测控制器的动作的步骤;
根据所述控制器的动作,决定第1动作指示的步骤;以及
根据所述第1动作指示,使所述用户的视点所注视的第1角色执行第1动作,使视点未注视的第2角色执行第2动作的步骤。
2.一种使用户佩戴的头戴显示器所显示的虚拟空间内的角色动作的方法,其特征在于,包括:
取得控制器的动作的步骤;
根据所述控制器的动作,决定第1动作指示的步骤;以及
根据所述第1动作指示,使所述用户的视野区域内存在的角色中的用户的视点所注视的第1角色执行第1动作,使用户的视野区域外存在的第3角色执行第3动作的步骤。
3.如权利要求2所述的方法,其特征在于,
所述用户的视野区域内存在的角色还包含用户的视点未注视的第2角色,
所述方法还包括根据所述第1动作指示,使所述第2角色执行第2动作的步骤。
4.如权利要求3所述的方法,其特征在于,还包括:
根据所述控制器的动作,决定不同于所述第1动作指示的第2动作指示的步骤;
根据所述第2动作指示,使用户的视野区域内存在的第4角色执行第4动作,使用户的视野区域外存在的第5角色执行第5动作的步骤。
5.如权利要求4所述的方法,其特征在于,
所述第1角色、所述第2角色、所述第3角色具有第1属性,所述第4角色、所述第5角色具有第2属性,第1属性和第2属性不同。
6.如权利要求3所述的方法,其特征在于,还包括:
根据所述第1动作指示的种类,使所述第1动作、所述第2动作、所述第3动作互不相同的步骤。
7.如权利要求4所述的方法,其特征在于,还包括:
根据所述第2动作指示的种类,使所述第4动作和所述第5动作互不相同的步骤。
8.如权利要求1或3所述的方法,其特征在于,
所述第2动作包括在接受所述第1动作指示起经过预定期间后执行的所述第1动作。
9.如权利要求2所述的方法,其特征在于,
所述第3动作包括在接受所述第1动作指示起经过预定期间后以预定的概率执行的所述第1动作。
10.如权利要求4所述的方法,其特征在于,
所述第5动作包括在接受所述第2动作指示后经过预定期间后执行的所述第4动作。
11.如权利要求1或者2所述的方法,其特征在于,
所述控制器的动作是分别由用户的右手、左手保持的2个所述控制器的动作。
12.一种计算机可读存储介质,包括计算机可读指令,当计算机读取并执行所述计算机可读指令时,使得计算机执行权利要求1~11的任一项所述的方法。
13.如权利要求12所述的计算机可读存储介质,其特征在于,所述计算机可读指令是关于足球游戏的程序。
14.一种使用户的头部佩戴的头戴显示器所显示的虚拟空间内的角色动作的方法,其特征在于,包括:
检测所述用户的所述头部以外的身体的一部分的动作的步骤;
根据所述动作,决定基于所述用户的手势的第1动作指示的步骤;以及
根据所述第1动作指示,使与用户视线对视的第1角色执行第1动作,使视线没有对视的第2角色执行第2动作的步骤。
15.一种使用户的头部佩戴的头戴显示器所显示的虚拟空间内的角色动作的方法,其特征在于,包括:
取得所述用户的所述头部以外的身体的一部分的动作的步骤;
根据所述动作,决定基于所述用户的手势的第1动作指示的步骤;以及
根据所述第1动作指示,使用户的视野区域内存在的角色中的与用户视线对视的第1角色执行第1动作,使用户的视野区域外存在的第3角色执行第3动作的步骤。
16.如权利要求15所述的方法,其特征在于,
所述用户的视野区域内存在的角色还包含没有与用户视线对视的第2角色,
所述方法还包括根据所述第1动作指示,使所述第2角色执行第2动作的步骤。
17.如权利要求16所述的方法,其特征在于,包括:
根据所述动作,决定不同于所述第1动作指示的第2动作指示的步骤;
根据所述第2动作指示,使用户的视野区域内存在的第4角色执行第4动作,使用户的视野区域外存在的第5角色执行第5动作的步骤。
18.如权利要求17所述的方法,其特征在于,
所述第1角色、所述第2角色、所述第3角色具有第1属性,所述第4角色、所述第5角色具有第2属性,第1属性和第2属性不同。
19.如权利要求16所述的方法,其特征在于,还包括:
根据所述第1动作指示的种类,使所述第1动作、所述第2动作、所述第3动作互不相同的步骤。
20.如权利要求17所述的方法,其特征在于,还包括:
根据所述第2动作指示的种类,使所述第4动作和所述第5动作互不相同的步骤。
21.如权利要求14或16所述的方法,其特征在于,
所述第2动作包括在接受所述第1动作指示起经过预定期间后执行的所述第1动作。
22.如权利要求15所述的方法,其特征在于,
所述第3动作包括在接受所述第1动作指示起经过预定期间后以预定的概率执行的所述第1动作。
23.如权利要求17所述的方法,其特征在于,
所述第5动作包括在接受所述第2动作指示起经过预定期间后执行的所述第4动作。
24.如权利要求14到18之一所述的方法,其特征在于,
所述角色由计算机控制。
25.如权利要求14或15所述的方法,其特征在于,
所述动作是分别由用户的右手、左手保持的2个控制器的动作。
26.一种计算机可读存储介质,包括计算机可读指令,当计算机读取并执行所述计算机可读指令时,使得计算机执行权利要求14~25的任一项所述的方法。
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015230526A JP5980404B1 (ja) | 2015-11-26 | 2015-11-26 | 仮想空間内オブジェクトへの動作指示方法、及びプログラム |
| JP2015-230526 | 2015-11-26 | ||
| JP2016-136802 | 2016-07-11 | ||
| JP2016136802A JP6209252B1 (ja) | 2016-07-11 | 2016-07-11 | 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置 |
| PCT/JP2016/076309 WO2017090298A1 (ja) | 2015-11-26 | 2016-09-07 | 仮想空間内オブジェクトへの動作指示方法、及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN108292168A CN108292168A (zh) | 2018-07-17 |
| CN108292168B true CN108292168B (zh) | 2021-04-06 |
Family
ID=58763093
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201680068792.3A Active CN108292168B (zh) | 2015-11-26 | 2016-09-07 | 针对虚拟空间内对象的动作指示方法及介质 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US9952679B2 (zh) |
| CN (1) | CN108292168B (zh) |
| WO (1) | WO2017090298A1 (zh) |
Families Citing this family (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10606457B2 (en) | 2016-10-11 | 2020-03-31 | Google Llc | Shake event detection system |
| US10817128B2 (en) * | 2017-07-11 | 2020-10-27 | Logitech Europe S.A. | Input device for VR/AR applications |
| US11184574B2 (en) | 2017-07-17 | 2021-11-23 | Facebook, Inc. | Representing real-world objects with a virtual reality environment |
| US11756259B2 (en) * | 2019-04-17 | 2023-09-12 | Rakuten Group, Inc. | Display controlling device, display controlling method, program, and non-transitory computer-readable information recording medium |
| KR102538399B1 (ko) * | 2020-06-23 | 2023-06-01 | 고려대학교 산학협력단 | 가상/증강 현실 인터페이스와 생체신호 측정 장치에 기반한 중력 인지 기능 검사 장치 |
| US12223104B2 (en) | 2020-12-22 | 2025-02-11 | Meta Platforms Technologies, Llc | Partial passthrough in virtual reality |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1192013A (zh) * | 1996-11-21 | 1998-09-02 | 科乐美股份有限公司 | 视频游戏系统和在视频游戏系统中存储程序的存储媒体 |
| CN102498455A (zh) * | 2009-09-17 | 2012-06-13 | 科乐美数码娱乐株式会社 | 信息处理装置、信息处理装置的控制方法、程序以及信息存储介质 |
| CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
| CN103079661A (zh) * | 2010-03-30 | 2013-05-01 | 索尼电脑娱乐美国公司 | 用于增强现实角色维持并体现观察者的认知的方法 |
| CN103249461A (zh) * | 2010-10-12 | 2013-08-14 | 索尼电脑娱乐公司 | 用于使得手持设备能够捕获交互应用的视频的系统 |
| CN103785169A (zh) * | 2013-12-18 | 2014-05-14 | 微软公司 | 混合现实的竞技场 |
| JP2015141686A (ja) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | ポインティングデバイス、情報処理装置、情報処理システムおよびポインティングデバイスの制御方法 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5089079B2 (ja) * | 2006-05-08 | 2012-12-05 | 任天堂株式会社 | プログラム、情報記憶媒体及び画像生成システム |
| JP4071265B2 (ja) * | 2006-08-29 | 2008-04-02 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法及びプログラム |
| JP4094647B2 (ja) * | 2006-09-13 | 2008-06-04 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム処理方法、ならびに、プログラム |
| US20090069096A1 (en) * | 2007-09-12 | 2009-03-12 | Namco Bandai Games Inc. | Program, information storage medium, game system, and input instruction device |
| US9878235B2 (en) * | 2013-06-07 | 2018-01-30 | Sony Interactive Entertainment Inc. | Transitioning gameplay on a head-mounted display |
| US10137361B2 (en) * | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
| US8988345B2 (en) * | 2013-06-25 | 2015-03-24 | Microsoft Technology Licensing, Llc | Adaptive event recognition |
| JP2015170175A (ja) * | 2014-03-07 | 2015-09-28 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
| JP2014166564A (ja) * | 2014-04-25 | 2014-09-11 | Konami Digital Entertainment Co Ltd | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
-
2016
- 2016-09-07 WO PCT/JP2016/076309 patent/WO2017090298A1/ja not_active Ceased
- 2016-09-07 CN CN201680068792.3A patent/CN108292168B/zh active Active
- 2016-10-11 US US15/289,970 patent/US9952679B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN1192013A (zh) * | 1996-11-21 | 1998-09-02 | 科乐美股份有限公司 | 视频游戏系统和在视频游戏系统中存储程序的存储媒体 |
| CN102498455A (zh) * | 2009-09-17 | 2012-06-13 | 科乐美数码娱乐株式会社 | 信息处理装置、信息处理装置的控制方法、程序以及信息存储介质 |
| CN103079661A (zh) * | 2010-03-30 | 2013-05-01 | 索尼电脑娱乐美国公司 | 用于增强现实角色维持并体现观察者的认知的方法 |
| CN103249461A (zh) * | 2010-10-12 | 2013-08-14 | 索尼电脑娱乐公司 | 用于使得手持设备能够捕获交互应用的视频的系统 |
| CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
| CN103785169A (zh) * | 2013-12-18 | 2014-05-14 | 微软公司 | 混合现实的竞技场 |
| JP2015141686A (ja) * | 2014-01-30 | 2015-08-03 | 株式会社リコー | ポインティングデバイス、情報処理装置、情報処理システムおよびポインティングデバイスの制御方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| US9952679B2 (en) | 2018-04-24 |
| WO2017090298A1 (ja) | 2017-06-01 |
| CN108292168A (zh) | 2018-07-17 |
| US20170153709A1 (en) | 2017-06-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11461955B2 (en) | Holographic palm raycasting for targeting virtual objects | |
| US10776991B2 (en) | Method of providing virtual space, method of providing virtual experience, system and medium for implementing the methods | |
| US10719911B2 (en) | Information processing method and system for executing the information processing method | |
| CN108292168B (zh) | 针对虚拟空间内对象的动作指示方法及介质 | |
| US10636212B2 (en) | Method for generating image to be displayed on head tracking type virtual reality head mounted display and image generation device | |
| JP5980404B1 (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
| US10573062B2 (en) | Method and system for providing a virtual space | |
| JP6097377B1 (ja) | 画像表示方法及びプログラム | |
| JP6470796B2 (ja) | 情報処理方法、プログラム及びコンピュータ | |
| JP2018200557A (ja) | 仮想空間を提供するためのプログラム、当該プログラムを実行するための情報処理装置、および仮想空間を提供するための方法 | |
| US20220405996A1 (en) | Program, information processing apparatus, and information processing method | |
| US20180059812A1 (en) | Method for providing virtual space, method for providing virtual experience, program and recording medium therefor | |
| JP2017138973A (ja) | 仮想空間の提供方法、およびプログラム | |
| JP6684746B2 (ja) | 情報処理方法、コンピュータ及びプログラム | |
| JP6368404B1 (ja) | 情報処理方法、プログラム及びコンピュータ | |
| JP6209252B1 (ja) | 仮想空間内のキャラクタを動作させる方法、当該方法をコンピュータに実行させるためのプログラム及びコンピュータ装置 | |
| JP2018010665A (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
| JP2021184272A (ja) | 情報処理方法、プログラム及びコンピュータ | |
| JP2017097835A (ja) | 仮想空間内オブジェクトへの動作指示方法、及びプログラム | |
| JP6122194B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
| JP2019207714A (ja) | 情報処理方法、コンピュータ及びプログラム | |
| JP6941130B2 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
| JP2017097918A (ja) | 画像表示方法及びプログラム | |
| JP2019016358A (ja) | 情報処理方法、プログラム及びコンピュータ | |
| KR20190056833A (ko) | 착용형 헤드셋 제어 장치 및 착용형 헤드셋 장치를 위한 제어 신호 생성 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |