WO2017188696A1 - Method, device, and recording medium for providing user interface in vr space - Google Patents
Method, device, and recording medium for providing user interface in vr space Download PDFInfo
- Publication number
- WO2017188696A1 WO2017188696A1 PCT/KR2017/004365 KR2017004365W WO2017188696A1 WO 2017188696 A1 WO2017188696 A1 WO 2017188696A1 KR 2017004365 W KR2017004365 W KR 2017004365W WO 2017188696 A1 WO2017188696 A1 WO 2017188696A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- image
- space
- information
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
Definitions
- the disclosed embodiment relates to a recording medium having recorded thereon a program for performing a method for providing a user interface in a VR space, a device for providing a user interface in a VR space, and a method for providing a user interface in a VR space.
- Such virtual reality experience technologies may be realized through a device such as a head mount display (HMD) that allows a user to experience virtual reality by distorting an image output according to the user's field of view through a lens. .
- HMD head mount display
- virtual reality is a space in which users can indirectly experience things that are difficult to experience in the real world, it is necessary to provide an environment that can be optimized for each user.
- a method, a device, and a recording medium for providing a user interface that implements various services required by the user more freely in a physical reality space are provided.
- a method of providing a user interface (UI) in a VR space by a device displaying a live image and a virtual image regarding a specific location is disclosed.
- FIG. 1 is a conceptual diagram illustrating a method of providing a user interface (UI) in a VR space by a device according to an exemplary embodiment.
- UI user interface
- FIG. 2 is a flowchart illustrating a method of providing a UI in a virtual space by a device according to an exemplary embodiment.
- FIG. 3 is a diagram for describing a UI of a user provided by a device, according to an exemplary embodiment.
- FIG. 4 is a diagram for describing a method of providing, by a device, sports training through a UI of a user, according to an exemplary embodiment
- FIG. 5 is a diagram for describing a method of providing, by a device, a medical service through a UI of a user, according to an exemplary embodiment.
- FIG. 6 is a diagram for describing a method of providing, by a device, a service to a plurality of users through a UI of a user, according to an exemplary embodiment.
- FIG. 7 is a diagram for describing a method of providing, by a device, history information of a user through a UI of the user in a VR space according to an embodiment.
- FIG. 8 is a diagram for describing a method of setting, by a device, a UI of a user through other external servers according to an exemplary embodiment.
- FIG. 9 is a diagram for describing a method of providing, by a device, a user interface (UI) in a VR space according to an embodiment.
- UI user interface
- FIG. 10 is a flowchart illustrating a method of providing a UI in a VR space by a device according to an exemplary embodiment.
- FIG. 11 is a diagram for describing a method of obtaining, by a device, a user's input and displaying a search box in a VR space, according to an exemplary embodiment.
- FIG. 12 is a diagram for describing in more detail a UI in a VR space provided by a device, according to an exemplary embodiment.
- FIG. 13 is a diagram for describing a method of providing, by a device, an advertisement by dividing a VR space in a mesh form.
- FIG. 14 is a diagram for describing a third virtual space in which a device provides an advertisement according to an exemplary embodiment.
- 15 is a flowchart illustrating a method of displaying, by a device, an advertisement and a search result in a UI on a VR space.
- 16 is a flowchart illustrating a method of providing content in a VR space by a device according to an exemplary embodiment.
- 17 is a diagram for describing in more detail a method of providing, by a device, a live action image and a virtual image of a place where a sporting event is performed.
- FIG. 18 is a diagram for describing a method of providing, by a device, a combination of a live image and a virtual image of a first location in a VR space;
- FIG. 19 is a diagram for describing a method of providing, by a device, a combination of a live image and a virtual image of a second position in a VR space, according to an exemplary embodiment
- FIG. 20 is a diagram for describing a method of providing, by a device, a service to a user at a third location in a VR space, according to an exemplary embodiment.
- 21 is a diagram for describing a supporter avatar provided by a device, according to an exemplary embodiment.
- FIG. 22 is a diagram for describing in detail a method of providing, by a device, content related to a sporting event according to an embodiment.
- FIG. 23 is a diagram for describing a method of providing, by a device, history information of content related to a sports game viewed by a user.
- 24 is a diagram for describing a method of providing an artificial intelligence guide of a sporting event in a device, according to an exemplary embodiment.
- FIG. 25 is a diagram illustrating a payment system using a device that provides a virtual reality (VR) space, according to an embodiment.
- VR virtual reality
- 26 is a flowchart illustrating a payment method of a device for providing a VR space according to an embodiment.
- FIG. 27 is a diagram for describing a method of paying, by a device, a right to use a service available through a user interface of a VR space.
- FIG. 28 is a diagram for describing a method of allowing a device to pay for a product that can be purchased through a user interface of a VR space, according to an embodiment.
- 29 is a flowchart for describing a method of performing, by a device, payment for a product or a service using an avatar in a VR space.
- FIG. 30 is a diagram for describing a method of performing, by a device, payment for a product or a service by using an avatar in a VR space.
- FIG. 31 is a flowchart illustrating a method of a service providing server paying at least one of a product and a service requested by a device.
- 32 and 33 are block diagrams of devices providing a UI in a VR space according to an embodiment.
- 34 is a block diagram of a service providing server according to an exemplary embodiment.
- a method of providing a user interface (UI) in a VR space includes: obtaining identification information from a user of the device; Allocating a preset template UI for the user in the VR space based on the obtained identification information; Receiving profile information and information on an object that the user intends to place in a preset template UI from a user; And arranging the virtual object generated based on the information about the avatar and the object of the user generated based on the profile information on the template UI to generate a UI for the user.
- a method of providing a user interface (UI) in a VR space includes displaying at least one category of an object that can be placed in a template UI; And displaying the plurality of objects included in the selected category as the user selects any one of the at least one category.
- UI user interface
- a device providing a user interface (UI) in a VR space may include displaying payment information necessary for purchasing an object as information about the object is received; And receiving an input regarding a payment means corresponding to the payment information from the user.
- UI user interface
- a method of providing a user interface (UI) in a VR space may include displaying at least one advertisement on one side of an allocated UI;
- a method of providing a user interface (UI) in a VR space includes: obtaining biometric information of a user wearing a device according to a preset period; And generating health information of the user based on the obtained biometric information.
- a method of providing a user interface (UI) in a VR space may include generating at least one of medical information and recommended sports information about a user based on the generated health information; And displaying the generated information on the assigned UI.
- UI user interface
- a method of providing a user interface (UI) in a VR space includes: detecting a change in a state of a user while displaying a UI in a VR space; And changing the avatar of the user according to the detected change.
- UI user interface
- a device for providing a user interface (UI) in a VR space may include: a sensing unit configured to obtain identification information from a user of a device; On the basis of the obtained identification information, a preset template UI for the user is allocated in the VR space, and profile information and information about an object that the user wants to place in the preset template UI are received from the user, and based on the profile information
- a processor for generating a UI for the user by disposing a generated virtual object on the template UI based on the generated information about the avatar and the object of the user; And an output unit for displaying a UI for the generated user.
- a method of providing a UI in a VR space by a device includes: displaying a search box on the VR space as a user input is obtained; Retrieving information about the object as a search request for the object is received through the displayed search box; Displaying at least one advertisement on the VR space while retrieving information about the object; And stopping the display of the at least one advertisement and displaying the information about the found object on the VR space as the search is completed.
- a method of providing a UI on a VR space by a device includes selecting at least one advertisement from among a plurality of advertisements based on a profile of a user and history information about at least one object previously requested to be searched. It further comprises the step.
- displaying includes moving an image constituting at least one advertisement in a preset direction, wherein a moving speed of the image is The closer the end time of the search for the object is, the faster it is.
- a method of providing a UI on a VR space by a device may include receiving information about a product of a selected advertisement when a selection input for selecting at least one advertisement displayed by a user is received while searching for information about an object. And displaying on the VR space.
- the displaying may include displaying the search result and information about a product of the selected advertisement together in the VR space when a search for an object is completed. do.
- a user input includes a user's gesture
- the search box determines a size, a position, and a shape of the search box according to the user's gesture.
- a device for providing a user interface (UI) in a VR space may include: a sensing unit configured to obtain a user input; An output unit configured to display a search box on the VR space as a user input is obtained; And as a search request for the object is received through the displayed search box, while searching for information about the object and displaying information about the object, displaying at least one advertisement in the VR space, and as the search is completed. And a processor to stop displaying the at least one advertisement, wherein the output unit displays the information about the retrieved object on the VR space.
- a method of providing a UI in a VR space by a device includes: receiving a content request regarding a sporting event from a user; Acquiring a photo-realistic image and a virtual image of a place at which a sporting event proceeds as the content request is received; And displaying, according to the user's gesture, a live action image and a virtual image of a specific location at a place where a sporting event is held.
- a method of providing a UI in a VR space includes: determining a location in a place where the sports event corresponding to a user's gesture is performed; And receiving a live image and a virtual image for the determined position.
- the live-action image includes an image photographed at each of a plurality of viewpoints of a sporting event, and the displaying of the UI is performed at a first viewpoint at a specific location.
- the photographed image is displayed by combining at least one image photographed at a different point in time from the first view point.
- a method of providing content in a VR space includes: transmitting purchase request and payment information about an object displayed on at least one of a live action image and a virtual image of a specific location; And when the purchase of the object is completed, displaying the virtual image of the object on the VR space.
- a method of providing a UI in a VR space including: generating history information of at least one content watched by a user before providing content related to a sporting event; If one of the at least one content is selected, displaying history information of the selected content on the VR space; And when the user selects a location included in the displayed history information, displaying a live image and a virtual image of the selected location on the VR space.
- a method of providing a UI in a VR space includes selecting a user who uses content related to a sporting event among a plurality of other users connected through a social network service (SNS) account of the user; Transmitting an invitation message to the VR space to a device of the selected user; And as the acceptance message for the invitation message is received, displaying a virtual image representing another user on the VR space.
- SNS social network service
- a method of providing a UI in a VR space by a device includes: receiving profile information of a user; And generating an avatar image representing the user based on the received profile information, and displaying the combined avatar image together with the live image and the virtual image to display the avatar image on the VR space.
- a device for providing a UI in a VR space includes: a sensing unit configured to receive a content request regarding a sports event from a user; A processor for determining a location at which a sporting event proceeds as a content request is received; A communication unit for obtaining a live-action image and a virtual image of the determined place; And an output unit for displaying a live action image and a virtual image of a specific position at a place where a sporting event is conducted according to a gesture of the user.
- a payment method using a device that provides a UI in a VR space receives a user input of selecting one of items related to at least one of goods and services displayed on a user interface of a VR space provided by the device. Doing; Transmitting payment information of the item and identification information associated with the payment means, as the payment means for paying for the selected item is selected; And when the settlement of the selected item is completed, displaying the settlement completion information on the user interface.
- the VR space is divided into a plurality of places according to at least one kind of goods and services provided in the VR space, Receiving, in the VR space, information about costs required to access at least one of the plurality of places.
- a payment method using a device that provides a UI in a VR space includes displaying payment information regarding a cost required to access a target location selected based on a user's request from among a plurality of locations; And if the payment of the cost required to access the target space is completed, displaying the avatar generated based on the user's profile in the target space.
- a payment method using a device that provides a UI in a VR space may include identification of a user corresponding to at least one payment means that can be provided by the device to attribute information of an avatar on a VR space created based on a user's profile.
- the method may further include inputting information, and the transmitting may include transmitting attribute information of the avatar and payment information of the item to a first server providing at least one of goods and services, and extracting the user from the avatar attribute information.
- the identification information and the payment information of the item are transmitted from the first server to the payment server that performs the payment of the item.
- the payment method using a device that provides a UI in a VR space may further include displaying a virtual image related to the selected item on a user interface of the VR space as the payment is completed.
- a payment method using a device that provides a UI in a VR space includes: receiving a user input of selecting one of a plurality of payment means that can be provided by the device; And acquiring preset identification information for the selected payment means.
- the identification information includes at least one of an iris signal, an EEG signal, and a pulse signal of the user.
- a device for providing a UI in a VR space includes: a sensing unit configured to receive a user input for selecting one of items related to at least one of a product and a service displayed on a user interface of the VR space; A processor for selecting a payment means for paying for the selected item; As the payment means is selected, the communication unit for transmitting the identification information associated with the payment means and payment information of the item; And an output unit for displaying the settlement completion information on the user interface when the settlement of the selected item is completed.
- any part of the specification is to “include” any component, this means that it may further include other components, except to exclude other components unless otherwise stated.
- the terms “... unit”, “module”, etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
- FIG. 1 is a conceptual diagram illustrating a method of providing a user interface (UI) in a VR space by a device 100 according to an exemplary embodiment.
- UI user interface
- the device 100 may implement a VR environment by outputting an image on a display through a pre-made lens in order to make the user feel as if the user is located in a new space different from the space in which the user is currently located.
- the device 100 may provide a UI for allowing a user to directly create a space so that the user may own a space unique to the user in the VR space.
- the device 100 may provide a preset template UI 100 to the user.
- the preset template UI 100 may include icons 110, 120, 130, 140, and 150 necessary for the user to create his or her space or control the VR space.
- Icons 110, 120, 130, 140, and 150 required to control the VR space include a toolbar icon 110, a home icon 120, a favorite icon 130, a settings icon 140, and a preview icon 150. ) May be included.
- the toolbar icon 110 may include icons required for placing, removing, and editing an object desired by the user on the template UI 100.
- the home icon 120 may move a user at another place to the home in the VR space.
- the home refers to a space that the user directly produces in the VR environment.
- a web server not shown
- the user may move to the home by touching the home icon 120.
- the favorite icon 130 may include location information on the web of a place that the user mainly visits, among various places located on the VR space. For example, the user stores the address information for the first place and the second place that the user frequently visits in the VR space in the favorite icon 130, and selects the favorite icon 130 in another place to record. It is easier to move to the place.
- the setting icon 140 may include profile information of the user, profile information of other users connectable to the device 100 of the user, and community information on the VR space including the user.
- the user may select the setting icon 140 to update previously stored user profile information, profile information of other users, community information on the VR space, and the like.
- the preview icon 150 is a window in which a search result of other places, objects, etc. in the VR space searched by the user is displayed in a preview format.
- the device 100 may identify and show the VR space where the user is located and the search result by displaying the search result searched by the user through the preview icon 150.
- the device 100 may generate a UI for the user by arranging a virtual object selected by the user on the preset template 100.
- the device 100 may generate not only the virtual object but also the user's avatar together on the template UI to generate a UI for the user.
- the device 100 may display the created UI of the user first, and may provide an environment in which the user may enjoy various entertainment activities in his / her own home in the VR space.
- the user-created UI by placing a variety of virtual objects that do not have in the real world on the user-created UI, it can be made to the user to feel the surrogate satisfaction.
- a detailed method of setting the UI of the user by arranging the virtual object on the preset template 100 by the user will be described later with reference to FIG. 3.
- the device 100 may be implemented in various forms.
- the device 100 described in the present specification may be a mobile phone, a smart phone, a laptop computer, a tablet PC, an electronic book terminal, a digital broadcasting terminal, a personal digital assistant (PDA), a PMP ( A portable multimedia player), a navigation device, a smart TV, a smart car, a consumer electronics (CE) device (eg, a refrigerator having a display panel, an air conditioner, etc.), a head mounted display (HMD), and the like may be used, but is not limited thereto.
- PDA personal digital assistant
- PMP A portable multimedia player
- CE consumer electronics
- HMD head mounted display
- FIG. 2 is a flowchart illustrating a method of providing a UI in a virtual space by a device according to an exemplary embodiment.
- step S210 the device obtains identification information from the user of the device.
- the device may display a message requesting identification information to the user before setting a home space which is a user's own space on the VR space.
- the user may input identification information of the user using at least one of a touch, a gesture, and a voice.
- the identification information of the user may include an ID and a password of the user, but this is only an example, and the identification information is not limited to the above-described example.
- the device allocates a preset template UI for the user in the VR space based on the obtained identification information.
- the device 100 may allocate a preset template UI to the user.
- the device 100 may exchange information in real time with a home management server that sets and manages a home space for each of a plurality of users.
- the device 100 may directly allocate a preset template UI or receive a template UI assigned by the home management server based on user identification information.
- the device 100 receives profile information and information about an object that the user intends to place in a preset template UI from the user.
- the profile information of the user may include information about a job, age, gender, body information, and a photograph of the user.
- the object may include objects such as furniture, transportation means, electronic devices, sports equipment, and clothing, plants such as flowers and trees, and animals such as dogs, cats, and birds.
- the device 100 may detect a voice, a gesture, a touch signal, or the like of a user, and receive information about an object to be placed by the user. For example, when the user speaks "A car", the device 100 may detect a voice signal "A car" and determine that the object that the user wants to place in the template UI is A car.
- the device 100 may provide images of various objects included in a category when a user inputs a category of an object through a search window on a VR space. For example, when the user inputs the term semi-medium car, the device 100 may display an image of cars included in the semi-medium car. The user may select one of the images of the cars displayed through the device 100 through a touch input or a gesture.
- the device 100 In operation S240, the device 100 generates a UI for the user by arranging the virtual object generated based on the information about the avatar and the object of the user generated based on the profile information on the template UI.
- the device 100 may generate an avatar of the user in the VR space based on the profile information. For example, the device 100 may generate an avatar having a similar body shape and appearance to the user based on the user's body information, age, and photo included in the profile information. According to another example, the device 100 may obtain information about the appearance desired by the user in addition to the profile information of the user and generate the avatar of the user based on the information.
- the device 100 may arrange the generated avatar on the template UI.
- the user may control the position, movement and posture of the avatar on the template UI through touch, gesture, and voice input.
- the device 100 may obtain a virtual object corresponding to an object that the user wants to place as information about an object that the user wants to place on the template UI is obtained.
- the virtual object represents a three-dimensional image of the object in the virtual space.
- the device 100 may request a user to pay for the virtual object in order to obtain the virtual object.
- the device 100 may request a virtual object from a server of a seller selling a virtual object corresponding to an object selected by a user.
- the server of the seller who has received the request requests the device 100 to pay a payment means for paying the amount set for the virtual object, and the device 100 pays the requested amount by using a predetermined payment means from the user. Can be.
- the device 100 may obtain a virtual object.
- the device 100 may set a session with a server of a seller and a predetermined payment server to pay a cost for obtaining a virtual object.
- the device 100 may store a template UI in which an avatar and a virtual object are disposed as a UI for a user.
- Information about the UI of the user stored by the device 100 may be transmitted to the home management server.
- the home management server may store the received information about the UI of the user by matching the identification information of the user. Accordingly, when the user later accesses the VR space and inputs identification information of the user, the user UI may be received from the home management server.
- FIG. 3 is a diagram for describing a UI 300 of a user provided by the device 100, according to an exemplary embodiment.
- the device 100 may load and display the UI 300 of the user in a VR space previously set by the user.
- the UI 300 of the user may be stored in the device 100 or may be stored in the home management server.
- the UI 300 of the user corresponds to the toolbar icon 110, the home icon 120, the favorite icon 130, the setting icon 140, and the preview icon 150 described above with reference to FIG. 1.
- Icons 310, 320, 330, 340, and 350 required to control the VR space may be included.
- the device 100 may display the advertisement 360 on the UI 300 of the user.
- the advertisement 360 may select the profile information of the user.
- the device 100 may not display the advertisement 360 on the UI 300 of the user according to the user's selection.
- the user may obtain a point for viewing the advertisement by displaying the advertisement 360 on the UI 300 of the user.
- the device 100 may obtain information regarding viewing of the advertisement 360 by recording the information about the type and the number of the displayed advertisement 360 and providing the recorded information to the point providing server.
- the device 100 may display a search box 370 on the UI 300 of the user.
- the search box 370 may be displayed when the user wants to search for information desired by the user through a pen, finger, keyboard, or the like.
- the user may display the search box 370 on the UI 300 of the user through signals such as voice, gesture, and touch.
- the device 100 may display at least one virtual object 380 and 390 on the UI 300 of the user.
- the device 100 may display the first virtual object 380, which is a 3D image of the boat, on the UI 300 of the user.
- the first virtual object 380 may be a live image of a boat of a kind desired by the user or may be a graphic image.
- the device 100 may display the second virtual object 390, which is a three-dimensional image of the dock, on the UI 300 of the user.
- the device 100 may provide an environment in which the user may feel intimacy with the VR space by setting the UI 300 of the user as a user's own space on the VR space.
- the above-described example is merely an example for describing the UI 300 of the user.
- various virtual objects may be disposed on the UI 300 of the user. For example, virtual objects for various objects such as vehicles, airplanes, pets, physical trainers, personal robots, and attending physicians may be placed on the user's UI 300.
- FIG. 4 is a diagram for describing a method of providing, by the device 100, sports training through the UI 400 of a user, according to an exemplary embodiment.
- the device 100 may provide training information 415 to the user through the UI 400 of the user.
- the training information 415 may include an image, text, a diet control table, and the like regarding the exercise motion. The user may enjoy the exercise regardless of the place through the training information 415 without visiting the gym.
- the device 100 may arrange the avatar 410 of the user on the UI 400 of the user.
- the device 100 may detect a user's motion while exchanging data sensed in real time with the exercise device 405 equipped with a motion sensor including an acceleration sensor, a gyroscope sensor, a barometric pressure sensor, and the like.
- the device 100 may control the movement of the user's avatar 410 disposed on the UI 400 of the user according to the detected user's motion.
- the device 100 may reflect the effect of the exercise performed by the user on the avatar 410 so that the user may feel a sense of achievement. For example, when the user performs the upper body exercise, the device 100 may change the existing avatar 410 into an avatar 420 having an increased muscle of the upper body.
- the device 100 may provide a place in a VR space in which a group exercise such as soccer or baseball may be performed through connection with at least one other user's device.
- the device 100 may set a space that can be jointly accessed with at least one other user's device.
- the method of setting a space that is commonly accessible may correspond to the method described above with reference to FIG. 1.
- the plurality of users may arrange virtual objects necessary for enjoying a group exercise such as soccer and basketball while communicating with each other in the provided template UI.
- FIG. 5 is a diagram for describing a method of providing, by the device 100, a medical service through a UI 500 of a user, according to an exemplary embodiment.
- the device 100 may provide a medical service to a user through the UI 500 of the user.
- the user may display the user's doctor's virtual object 530 on the user's UI 500 through the toolbar icon 110 described above with reference to FIG. 1.
- the device 100 may receive information regarding the health state of the user while transmitting and receiving data in real time with the device of the user's doctor or the server of the hospital where the doctor is located.
- the device 100 may transmit the biometric information of the user measured through the sensor worn by the user to the device of the user's doctor or the server of the hospital.
- the device of the doctor of the user or the server of the hospital may transmit the medical information 510 analyzing the current state of health of the user to the device 100 based on the received biometric information of the user.
- the device 100 may display the received medical information 510 on the UI 500 of the user.
- health care information 520 such as a prescription, a diet, or a method of taking a drug, which is determined based on the user's health state, may be displayed.
- the device 100 may receive medical treatment and psychological counseling while conducting a call in real time with a user's doctor through a communication session connected with a device of a doctor of a user.
- the device 100 may provide the medical service environment in which the user may feel more realistic by displaying the virtual object 530 of the user's doctor on the UI 500 of the user.
- FIG. 6 is a diagram for describing a method of providing, by a device 100, a service to a plurality of users through a UI 600 of a user, according to an exemplary embodiment.
- the device 100 may be connected to devices 20 and 30 of a plurality of different users.
- the plurality of other users represent users who are preset to share some information with each other in the VR space with the user.
- the plurality of other users may be searched through contact information previously stored in the device 100 or may be searched by the user directly inputting profile information on the VR space.
- the device 100 may enjoy the entertainment service with other users by displaying the virtual object selected by the user and the virtual objects selected by the other users on the UI 600 of the user.
- the virtual object 630 of the third vehicle selected by the user of the third device 30 may be displayed.
- the virtual object 610 of the first car, the virtual object 620 of the second car, and the virtual object 630 of the third car may be virtual objects provided by a Massive Multiplayer Online Role Playing Game (MMORPG) service. have.
- MMORPG Massive Multiplayer Online Role Playing Game
- the device 100 displays not only a user's virtual object but also another user's virtual object on the user's UI 600, and displays data in real time with another user's device (eg, 20). You can enjoy services such as games by using virtual objects while transmitting and receiving.
- FIG. 7 is a diagram for describing a method of providing, by the device 100, history information of a user through the UI 700 of the user in a VR space, according to an exemplary embodiment.
- the device 100 may reproduce a past situation based on an image, a video, or the like of a user stored in the device 100.
- the device 100 may reproduce the first history information.
- the first history information is a video in which the user cheers a soccer game with friends in the past
- the device 100 may edit the video as a 3D image and display the video on the UI 700 of the user.
- the device 100 may reproduce the second history information.
- the second history information is a video photographing a scene sent with a grandmother of a user who has passed in the past
- the device 100 reproduces the grandmother of the user who has passed in the past in a VR space, so that the user can remember past memories. It can help you remember.
- the device 100 allows a user to display a thumbnail image 730 for the third history information, a thumbnail image 750 for the fourth history information, a thumbnail image 750 for the fifth history information, and a sixth.
- the selected history information may be reproduced and displayed on the user interface 700.
- FIG. 8 is a diagram for describing a method of setting, by the device 100, a UI of a user through other external servers, according to an exemplary embodiment.
- the device 100 may transmit / receive information related to the UI 810 of the user in real time through the home management server 810.
- the home management server 810 is a server that manages identification information of a plurality of users and UIs of a plurality of users.
- the device 100 may load the UI of the pre-stored user by inputting the identification information of the user input from the user to the home management server 810.
- the UI of the user may be generated by allocating a preset UI template to the user based on the received identification information of the user as described above with reference to FIG. 1. have.
- the device 100 may search the web for an object to be placed on the UI of the user.
- the device 100 may select a desired object among the searched objects and request a virtual object for the selected object.
- the home management server 810 may provide an environment in which the device 100 may easily purchase a virtual object by providing information of the device 100 to the seller server 820 providing the requested virtual object.
- the device 100 may pay the virtual object through direct communication with the seller server 820, or may pay the virtual object through a connection with a payment means providing server (not shown) to which the seller server 820 is subscribed.
- FIG. 9 is a diagram for describing a method of providing, by a device, a user interface (UI) in a VR space 100 according to an embodiment.
- UI user interface
- the device 100 may provide a UI including a search box 910 for searching for information in the VR space 900.
- the device 100 may display the search box 910 on the UI in the VR space 900 as a user input for requesting the display of the search box 910 is obtained from the user.
- the device 100 may display the input information in the search window 910.
- the device 900 may display the name smart device A on the search window 910.
- the device 100 may search for information about the object from a web server connected to the device 100.
- the device 100 changes an image on the VR space 900 while searching for information about an object, thereby providing an environment in which the user may acquire new information on the UI while searching for information about the object.
- the device 100 may include an advertisement in an image displayed on the VR space 900.
- the advertisement may be selected based on the user's profile information such as the user's age, gender, occupation, or the like, or may be selected based on a search word previously searched by the user.
- a method of providing an advertisement while the device 100 searches for information about an object will be described below in detail with reference to FIGS. 12 to 14.
- the device 100 may move the plurality of advertisement images displayed in the VR space 900 in a predetermined direction so that the user may feel like moving to another space. have. Also, the speed at which the advertisement image is moved may be set faster as the end time of the search for the object gets closer.
- the device 100 may receive and display information about the selected advertisement image.
- the device 100 may continue the search requested by the user while the information about the advertisement image is displayed. For example, when a plurality of advertisement images are displayed while moving in a predetermined direction on the VR space 900 of the device 100, information about a product of the advertisement image touched by the user is displayed on the VR space 900. May be displayed.
- a method of selecting one of the plurality of advertisement images by the user is not limited to the touch method. According to another example, the user may select one of the plurality of advertisement images through voice input.
- the device 100 may stop displaying the plurality of advertisement images and display information on goods of the selected advertisement image on the VR space.
- the device 100 may display information about the searched object on the VR space 900.
- the device 100 may display the selected advertisement image and the information about the object together.
- the device 100 may display only information about the object on the VR space 900.
- the device 100 may provide a UI in which a plurality of advertisement images move in one direction on the VR space 900 while the user requests to retrieve information about an object in the VR space 900. It is possible to provide an environment in which a variety of information can be efficiently obtained during the time required for searching.
- FIG. 10 is a flowchart illustrating a method of providing a UI in a VR space by a device according to an exemplary embodiment.
- the device may display a search box on the VR space.
- the device may provide a VR space.
- the VR space may be implemented by projecting an image displayed on the display of the device through a lens having a predetermined angle of view.
- the lens having the preset angle of view may be included in the device, but this is only an example, and the lens having the preset angle of view may exist outside the device.
- the device may display the search box on the VR space when a user input for requesting the search box is obtained from the user.
- the device stops the service and displays the search box or displays the search box with the service. can do.
- the device may search for information about the object as a search request for the object is received through the displayed search window.
- the device may receive a search request for an object through the displayed search box.
- the user may specify an object to be searched by using an input means, a gesture, a voice signal, or the like, which can be touched.
- the device may display the specific object in the search box for the user to check.
- the device may receive the information about the specified object A and display the object A in the search box.
- the device may search for information about the object A as a search request for the object A is received.
- the device may connect with external servers, such as a web server, to retrieve information about the object.
- the device may display at least one advertisement on the VR space while searching for information about the object.
- the device may display an advertisement selected according to the user's profile on the VR space while searching for information about the object. For example, if the user is a male in his thirties, the device may display an advertisement regarding a product preferred by the male in his thirties.
- the device may move and display the advertisement image so that the user may feel as if moving from the current position to the other position in the VR space.
- the series of advertisement images may be moved in the first direction based on the position of the user.
- the device may divide the VR space into a mesh form so that more advertisements may be displayed in each divided area. Accordingly, the user may watch at least one advertisement until the search for the object is completed.
- the device may stop displaying the advertisement and additionally provide information on the selected advertisement. This will be described later in more detail with reference to FIGS. 14 and 15.
- the device may stop displaying the at least one advertisement and display information about the found object on the VR space.
- the device may stop displaying the at least one advertisement.
- the device may display at least one of an image, text, and a video included in the information about the searched object on the VR space.
- the device may display information on the searched object and information on the product of the selected advertisement together in the VR space.
- FIG. 11 is a diagram for describing a method of displaying, by a device, a search box 1120 on a VR space 1110 by obtaining a user input.
- the device may detect a gesture of a user.
- the device may detect a user's gesture of drawing a rectangle with a finger.
- the device may generate an image projected through a lens having a predetermined angle of view so that the search window 1120 may be displayed at a position where a user gesture is detected in the VR space 1110.
- the device may determine the size and shape of the search box displayed according to the type of the detected gesture of the user. For example, when a gesture for drawing a rectangle is obtained, the device may display a search box 1120 having a rectangular shape. According to another example, when a circular gesture is obtained, the device may display a circular search box. The device may determine the size of the search box displayed based on the user's gesture.
- the user may request information about the object from the device.
- the device may provide information about the object as text data.
- a user of the device may provide information about an object by dragging an image previously stored in the device to the search window 1120.
- a user of a device may provide information about an object as voice data.
- the device may search for the object as the object that the user wants to search through the search box 1120 is specified.
- FIG. 12 is a diagram for describing in more detail a UI in a VR space provided by the device 100, according to an exemplary embodiment.
- the device 100 may provide a first virtual space 1210, which is a space where a search window is displayed, and a second virtual space 1220, which is a space where a search result is displayed.
- the device 100 may provide a third virtual space 1230 in which an advertisement is displayed while the search for the object is in progress.
- the first virtual space 1210, the second virtual space 1220, and the third virtual space 1230 may be distinguished according to the type of information displayed in the VR space provided by the device 100.
- the device 100 may implement the first virtual space 1210, the second virtual space 1220, and the third virtual space 1230 on the VR space over time.
- the device 100 may display a search box in a VR space as a user input for requesting a search is received from the user.
- the space where the search box is displayed according to the user's input may be described as the first virtual space 1210.
- the device 100 may display at least one advertisement in the VR space until the search is completed.
- the space where the VR space is displayed may be described as the third virtual space 1230.
- the device 100 may implement the third virtual space 1230 by changing the UI of the VR space to at least one image, text, and video of the advertisement.
- the device 100 may display an advertisement image, text, and video constituting an advertisement while moving in a predetermined direction, thereby providing an environment in which the user may feel a movement of the virtual space.
- the device 100 may display the second virtual space 1220 provided with the search result. As the search is completed, the device 100 stops the advertisement displayed while moving on the VR space, thereby passing the user through the third virtual space 1230 and having the same effect as being located in the second virtual space 1220. Can provide.
- FIG. 13 is a diagram for describing a method of providing, by a device, an advertisement by dividing a VR space in a mesh form.
- the device may display a third virtual space for providing an advertisement.
- the device divides the VR space into a mesh form so that a user moves to a third virtual space providing an advertisement so that a plurality of advertisement images can be displayed.
- the plurality of advertisement images displayed in the divided area in the mesh form may move in a predetermined direction.
- the device may display information about the product of the selected advertisement in the VR space. Can be.
- the device may change images of an advertisement moving on the third virtual space according to a search time.
- the speeds of the advertisement image 1310 moving at the start of the search, the advertisement image 1320 moving at the middle of the search, and the advertisement image 1330 moving at the last of the search may be different from each other.
- the speed of the advertisement image 1330 moving in the last stage of the search close to the time when the search ends may be the fastest.
- FIG. 14 is a diagram for describing a third virtual space 1410 in which the device 100 provides an advertisement, according to an exemplary embodiment.
- the device 100 may provide a third virtual space 1410 in which a plurality of advertisements are displayed in the VR space. An image constituting each of the plurality of advertisements may be displayed in the third virtual space 1410.
- an image constituting each of the plurality of advertisements may move in a predetermined direction.
- the device 100 detects the gaze direction of the user and displays an image constituting each of the plurality of advertisements in a direction opposite to the gaze direction of the user. You can move it.
- the series of images constituting each of the plurality of advertisements may move in the second direction opposite to the first direction without disconnection until the device 100 completes the search requested by the user.
- the user of the device 100 may select any one of advertisement images moving by moving around the user.
- the device 100 may select one of the plurality of advertisements through a gesture of touching one of the advertisement images.
- the device 100 may detect a gesture of the user and select an advertisement corresponding to the gesture of the user from among advertisement images actually displayed on the display of the device 100. Since the user feels that the image displayed on the device 100 is at a distance through a lens having a preset angle of view, the advertisement selected by the user is matched by matching the user's gesture with the advertisement actually displayed on the device 100. It can determine what kind of advertisement.
- the device 100 may display the information 1420 of the vehicle A, which is a product of the advertisement A, on the VR space.
- the device 100 may stop displaying other advertisements as the advertisement A is selected, and display the information 620 of the vehicle A on the VR space.
- the device 100 may display the information 1420 of the car A until the search is completed, and when the search is completed, the device 100 may implement a second virtual space in which the search result is displayed on the VR space. have.
- the device 100 may preset the type of advertisement displayed on the third virtual space 1410 based on the profile of the user.
- 15 is a flowchart illustrating a method of displaying, by a device, an advertisement and a search result in a UI on a VR space.
- the device may search for information about the object as a search request for the object is received through the displayed search window.
- the device may select at least one advertisement from among the plurality of advertisements based on the user's profile and history information about the at least one object previously requested to be searched.
- the device may provide profile information of a user to an advertisement server that provides an advertisement, and may receive information about products that are preferred by other users having a profile similar to that of the user. Also, according to another exemplary embodiment, the device may be provided with an advertisement about a product determined to be of high interest by providing information of an object previously searched by the user to an advertisement server providing an advertisement.
- the device may display the selected advertisement while searching for information about the object.
- the device may display the selected advertisement on the VR space while searching for information about the object is in progress.
- the device may stop displaying the at least one advertisement and display information about the found object on the VR space.
- the device may stop displaying the at least one advertisement.
- the device may display at least one of an image, text, and a video included in the information about the searched object on the VR space.
- the device may display information on the searched object and information on the product of the selected advertisement together in the VR space.
- 16 is a flowchart illustrating a method of providing content in a VR space by a device according to an exemplary embodiment.
- the device may receive a content request regarding a sporting event from a user wearing the device.
- the device may receive a content request from the user that includes information regarding the type of sporting event.
- the information on the type of sports event may include information on at least one of a place, a date, and a type of team participating in a sporting event.
- the user may provide information regarding the type of sports event to the device through input signals such as voice and touch.
- the device may display a screen for inputting information regarding the type of sports event.
- the user may input information regarding the type of sporting event on the displayed screen.
- the device may recognize the user's voice to obtain information on the type of the sports event.
- the device may acquire a photorealistic image and a virtual image of a place where a sporting event is held.
- the device may request a live image and a virtual image from a server that generates a live image and a virtual image of a place where a sporting event is held.
- the device may request a live-action image and a virtual image of the entrance of the stadium A where the sporting event is held.
- the due diligence image may be an image photographing a situation when the server receives a request from the device.
- the virtual image may be a graphic image generated to allow a user to feel a sporting event more realistically in a VR space.
- the virtual image may include images of advertisements, virtual stores, and virtual museums provided by sponsors sponsoring a game performed in the stadium.
- the virtual image may include a supporter avatar representing the user.
- the device may display a live action image and a virtual image of a specific location at a place where a sporting event is conducted according to a gesture of the user.
- the device may acquire a photorealistic image and a virtual image of a specific location at a place where a sporting event is conducted.
- the place where the sporting event is conducted may be distinguished into a plurality of locations.
- a place where a sporting event is held may be divided into a central station, a central road, a square, and a stadium.
- the device may acquire and display a live image and a virtual image of the central road, which is the next location of the central station, from the server.
- the user may control a device to display a virtual image and a live image of a desired position by inputting a voice to the device at a position that the user wants to move.
- the device may communicate in real time with at least one server that generates a virtual image and a live image of a plurality of locations included in a place where a sporting event is held, thereby realizing a virtual image of a location corresponding to a user gesture.
- the request for the virtual image and the live image transmitted from the device to the server may include identification information regarding a location corresponding to the gesture of the user.
- 17 is a diagram for describing in more detail a method of providing, by a device, a live action image and a virtual image of a place where a sporting event is performed.
- the device when the device receives a content request for a sporting event from a user, the device may obtain a photorealistic image and a virtual image of A1, which is a place where a sporting event is conducted.
- A1 which is a place where a sports game is conducted, may be distinguished into a plurality of locations. Information about the plurality of locations may be displayed through the device as a map 1700 of the stadium.
- the device when the device receives a content request for a sporting event from a user, it is assumed that a real image and a virtual image regarding a location A 1710, which is an initial location, are acquired at a location A1.
- the device may display the due diligence image and the virtual image for location A 1710. Meanwhile, the virtual image may include a map of place A1, a supporter avatar, and an advertisement.
- the device may display the live image and the virtual image in combination according to the rendering information received from the server.
- the rendering information may include stitching information in which the live image and the virtual image are combined, location information on the live image in which the virtual image is disposed, and the like. An example in which the live image and the virtual image are combined will be described later with reference to FIGS. 18 to 20.
- the device may detect a gesture of a user and determine a location in A1 that the user wants to move.
- a location within A1 that a user can move may include location A (1710) which is a central station, location B (1720) which is a central road, location C (1730) which is a square, and location D (1740) of a stadium. have.
- location C (1730) which is a square a host city public hall (1731), a souvenir shop (1732), a soccer game museum (1733), a toto shop (1734), a local partner showroom (1735), a FIFA world game museum (1736)
- the global partner showroom 1735 and the opponent team square 1738 may be additionally included.
- the user may move to the position A2 1750 which is the opposing team position of the team selected by the user according to the selection.
- the device may generate an avatar representing the user or provide information about another user who uses content related to a sporting event.
- FIG. 18 is a diagram for describing a method of providing, by a device, a combination of a photorealistic image 1820 and a virtual image 1810 and 1830 for a first location in a VR space.
- the device may acquire a photorealistic image 1820 and a virtual image 1810 and 1830 of the first location.
- the device may receive the live image 1820 and the virtual image 1810, 1830 in real time from a server that generates the live image 1820 and the virtual images 1810, 1830 of the first location. Can be.
- the device may receive an image in which the photorealistic image 1820 and the virtual images 1810 and 1830 are combined, and the stitching information for combining the photorealistic image 1820 and the virtual images 1810 and 1830 together. You may.
- the virtual images 1810 and 1830 may include an advertisement image 1832 of a company sponsoring a sporting event or a host city of a sporting event.
- the user may select the first virtual image 1810 and move to another location connected to the first virtual image 1810.
- the user may move to the avatar selection and community invitation room 1705 described above with reference to FIG. 17 by selecting the first virtual image 1810.
- the user may move from the moved location to a location where the user can connect with another user to use the content related to the sporting event.
- the user may select the first virtual image 1810 to select an avatar representing the user.
- the device may acquire an image of the user.
- the image of the user may be obtained from a 3D scanning device or the like that scans the user, but this is only an example, and the image of the user may be stored in advance in the device.
- the device may generate a supporter avatar based on the obtained user image.
- the supporter avatar may be used to perform a process such as authentication when moving to another location later. For example, in a place offering a game, it is necessary to confirm whether a fee is paid to move to a location other than the current location. In this case, the device may recognize the supporter avatar representing the user to the server managing the other location, thereby providing information that the user paid the fee.
- the device may more realistically provide an environment required for a user to watch a sporting event in a VR space by displaying an image in which the photorealistic image 1820 and the virtual images 1810 and 1830 for the first location are combined.
- FIG. 19 is a diagram for describing a method of providing, by a device, a combination of a live image 1900 and a virtual image 1920, 1940 for a second location in a VR space.
- the device may acquire the photorealistic image 1900 and the virtual images 1920 and 1940 related to the second location.
- the due diligence image 1900 of the second position represents an image of the second position.
- the virtual images 1920 and 1940 related to the second location may include an advertisement image 1920 and a second virtual image 1940 for a service reflecting a user's taste.
- the user may select the type of the second virtual image 1940 to be viewed together with the live image 1900. For example, a performance image, an image of a tourist attraction of a game hosting city, and the like may be included in the second virtual image 1940.
- the device may display in advance a type of virtual image that the user may combine with the live image image 1900 to allow the user to select one of the displayed types of the virtual image.
- the device may display discount information, point information, etc., which the user can receive by selecting a specific virtual image.
- the device may display a supporter avatar 1910 representing a user on an image in which the photorealistic image 1900 and the virtual images 1920 and 1940 are combined.
- the device may display the supporter avatar 1910 to move according to the user's gesture, thereby giving the user an effect as if the user is in the actual second position.
- the device may display, along with the supporter avatar 1910 of the user, an avatar 1930 of another user who uses content related to a sporting event together with the user.
- the device may transmit and receive information with another user's device in real time. For example, the device may generate the state information of the user based on the voice of the user, the gesture of the user, and provide the same to the device of another user.
- the device receives other user's state information generated based on another user's voice, another user's gesture, etc., and displays the supporter avatar 1910 and the other user's avatar 1930 based on the received information. can do.
- the user may select another user who uses the content related to the sports event together with the user based on the social network service (SNS) service provided by the device.
- SNS social network service
- FIG. 20 is a diagram for describing a method of providing, by a device, a service to a user at a third location in a VR space, according to an exemplary embodiment.
- the device 100 may receive an image 2010 in which a live image and a virtual image of a third location are combined according to a gesture of a user.
- the information about the position which can move according to the gesture of the user is set in advance.
- the third position is assumed to be the souvenir shop 1732 described above with reference to FIG.
- an image obtained by combining a photorealistic image of a product (eg, 2012) that a user can purchase in the souvenir shop 1732 and a virtual image representing a background of the souvenir shop may be acquired in the device 100. have.
- the user of the device 100 may select a desired product (eg, 2012) while watching a product (eg, 2012) displayed on the third location.
- a desired product eg, 2012
- the device 100 may request the user to input authentication information for payment in order to execute a payment means for purchasing the product A 2012.
- the device 100 may apply the virtual image of the product A 2012 to the supporter avatar before the user purchases the product A 2012 so that the user may experience the product A 2012 in advance. have.
- the user may purchase product A 2012 directly or may purchase a virtual image for product A 2012.
- the device 100 stores the virtual image for the merchandise A 2012 in the information of the supporter avatar, so that the user may later select another content about the sporting event. In this case, the stored virtual image may be loaded and applied to the supporter avatar.
- FIG. 21 is a diagram for describing a supporter avatar 2110 provided by a device, according to an exemplary embodiment.
- the device may generate the supporter avatar 2110 based on user information.
- the user's information may include a profile including the user's gender, age, body information, occupation, and the like, and an image of the user.
- identification information regarding the user's payment means may be included in the user's information.
- the device may display the supporter avatar 2110 on an image in which the live image and the virtual image of the moved specific location are combined according to the gesture obtained from the user.
- the method of displaying the supporter avatar 2110 may correspond to the method described above with reference to FIG. 19.
- the device may apply the user's state in the VR space to the supporter avatar 2110.
- the state of the user may be determined according to product information purchased by the user in the VR space, information of a sports team, and the like that the user supports.
- the device may include a virtual image 2111 for a flag of a sports team that a user purchased in VR space, a virtual image 2113 for a trophy, virtual images 2115 and 2119 for a race suit, and a team scarf.
- the virtual image 2117 may be applied to the supporter avatar 2110.
- the virtual image represents a three-dimensional image of an object such as an actual product.
- the device may display an image of the supporter avatar 610 according to the user's request even when the user does not use the content related to the sporting event.
- the image of the supporter avatar 610 may be shared with other users through an application such as SNS.
- FIG. 22 is a diagram for describing in detail a method of providing, by a device, content related to a sporting event according to an embodiment.
- the device may acquire a gesture for requesting a change of location to the stadium 1740 described above with reference to FIG. 17. Accordingly, the device may display a combination of photorealistic images 2210, 2220, and 2240 and virtual images 2230 of the stadium 1740.
- the device may acquire a photorealistic image 2210 of the stadium at a time corresponding to the location information of the seat table, based on the position information of the seat table in the stadium purchased by the user in advance. Also, the device may use the photo-realistic image 2220 at the first time point and the photo-realistic image 2240 at the second time point to correspond to the user's location information so that the user may view the game from various angles. ) Can be provided with.
- the location of the user may be updated according to the changed location of the user.
- the device when the device acquires a gesture that moves to the right from the user, the device may obtain a photorealistic image at a position moved by a predetermined distance in the right direction from the current viewpoint.
- the device according to an embodiment may provide the game brokerage information regarding the position and the scoring situation of the player in the ongoing game as the virtual image 2230.
- the virtual image 2230 may display an advertisement image provided by a sponsor sponsoring a game.
- the device may display the live image and the virtual image of the other game together with the currently displayed image in a multi-screen form.
- FIG. 23 is a diagram for describing a method of providing, by a device, history information of content related to a sports game viewed by a user.
- the device may provide images 2320, 2330, 2340, 2350, 2360, and 2370 related to a sport game that the user has watched in the past to the user in the preset history space 2310.
- the images 2320, 2330, 2340, 2350, 2360, and 2370 may be provided in at least one form of a still image or a moving image.
- the device when a request for any one of images 2320, 2330, 2340, 2350, 2360, and 2370 related to a sports game that a user has watched is received, the device displays an image corresponding to the received request. can do.
- the images 2320, 2330, 2340, 2350, 2360, and 2370 related to the sporting event may be images in which the virtual image and the live action image described above with reference to FIGS. 18 to 22 are combined.
- the device may display the virtual image and the live image of the selected location. Accordingly, the user may move to a position where a game that the user has watched in the past is performed, and may be provided with an environment in which the user may experience the past memory again.
- 24 is a diagram for describing a method of providing an artificial intelligence guide of a sporting event in a device, according to an exemplary embodiment.
- the device may provide at least one guide 2410 or 2420 in the virtual space 2400 generated by combining a virtual image and a live image of a place where a sports game can be viewed.
- the device may set the profile information and the preference information of the user as input values of the neural network to generate at least one guide 2410 or 2420 for providing the user with information about a sporting event.
- the profile information of the user may include information about the nationality, race, age, gender, etc. of the user.
- the preference information may include information about characteristics of the person that the user prefers.
- the device may set a face, a body type, a key, a voice, etc. of the guide (eg, 2410) based on the user's profile and preference information.
- the device may receive payment information for use of a copyright or a portrait right of a sports star, a singer, an actor, a competition mascot, or an animation hero of the corresponding item from a server managing the copyright or the portrait right.
- the device provides the payment information to the user, and when the user's payment approval is completed, at least one guide 2410 or 2420 is generated based on the acquired characteristics such as a sports star, a singer, an actor, a competition mascot, and an animated character. can do.
- the guide (eg, 2410) generated may provide a user of the device with information about a place and a sporting event to watch a sporting event.
- FIG. 25 is a diagram for describing a payment system (hereinafter, referred to as a payment system) using a device 100 that provides a VR (Virtual Reality) space according to an embodiment.
- a payment system hereinafter, referred to as a payment system
- VR Virtual Reality
- a payment system may include a device 100, a service providing server 2510, and a payment server 2520.
- this is merely an example of a payment system, and the present invention is not limited through FIG. 25. That is, according to various embodiments of the present disclosure, the payment system may be configured differently from FIG. 25.
- Each component of the payment system of FIG. 25 is generally connected via a network.
- the device 100 may receive an image for providing a VR space from the service providing server 10.
- an image provided to the device 100 from another service providing server 10 may include an item regarding at least one of goods and services.
- the product may include various objects that can be traded through the goods, such as smart devices, cars, furniture, clothes and sports equipment.
- the service may include a sports relay service, a health care service, a game service, and a community service.
- the device 100 may receive a user input for selecting any one of at least one item displayed on the output image.
- the user input may be in the form of a gesture.
- the device 100 may detect a gesture of touching the exercise device A in a VR space that the user senses through the output image.
- the user input may be obtained from an input means such as a touch pen or a smart phone, or may be obtained through a user's voice.
- the device 100 may select one of at least one item displayed on the output image based on the received user input.
- the device 100 may display information on the amount of money necessary to purchase the selected item.
- the device 100 may transmit a purchase progress request to the service providing server 10.
- the service providing server 2510 may receive identification information related to the payment means selected by the user of the device 100 from the device 100 and provide it to the payment server 2520.
- the service providing server 2510 may connect the device 100 and the payment server 2520 so that the device 100 may provide identification information related to a payment method directly to the payment server 2520.
- the payment server directly provides the payment completion information or the service providing server 2510.
- the payment completion information may be provided to the device 100 through.
- the payment completion information may include delivery information of the product, information on using the service, payment information, and the like, but this is only an example and the payment completion information is not limited to the above-described example.
- FIG. 26 is a flowchart illustrating a payment method of a device 100 that provides a VR space, according to an exemplary embodiment.
- the device 100 may receive a user input of selecting one of items related to at least one of goods and services displayed on the user interface of the VR space provided by the device 100.
- the item may include identification information representing each of goods and services provided through the user interface of the VR space.
- an item may include a product name, a service name, a thumbnail image of the service, a catalog of the product, and the like.
- the item may be displayed in the form of any one of text, an image, and a video.
- a user wearing the device 100 may select any one of items related to at least one. For example, a user wearing the device 100 may select a specific item by touching an area in which the specific item is displayed on the sensed VR image or speaking the name of the specific item through voice. However, this is only an example, and a method of selecting one of at least one item by a user wearing the device 100 is not limited to the above-described example.
- the device 100 may transmit identification information related to the payment means and payment information of the item.
- the device 100 may display, on the user interface of the VR space, cost information to be paid for using the selected item.
- the cost information about the selected item may be received from one of the service providing server 2510 and the payment server 2520.
- the device 100 may display a window for selecting any one of a plurality of payment means capable of paying for the selected item.
- the user of the device 100 may select one of a plurality of payment means through the displayed window.
- the device 100 may transmit identification information related to the selected payment means and payment information of the item.
- the identification information related to the payment means may include a password, etc. preset by the user to approve the use of the payment means.
- the payment information may include a kind of a product or a service corresponding to the item, shipping address information required to receive the product or use the service.
- the device 100 may transmit identification information related to the payment means and payment information of the item to the payment server 2520 through the service providing server 2510 or directly to the payment server 2520.
- the device 100 may display payment completion information on the user interface.
- the device 100 when the identification information input by the user about the payment method matches the identification information of the pre-stored user, the device 100 may perform payment of the selected item. In addition, when the payment is completed, the device 100 may receive payment completion information from the payment server 2520. In this case, the payment completion information may be directly transmitted from the payment server 2520 to the device 100 or may be transmitted from the payment server 2520 to the device 100 through the service providing server 2510.
- the device 100 may acquire a right to use a service provided by the service providing server 2510 or obtain a product.
- the product may be an actual product and a virtual product provided in the VR space.
- the virtual product may include either a real image of the product or a graphic image of the product.
- FIG. 27 is a diagram for describing a method of paying, by the device 100, a user's right to use a service available through a user interface of a VR space.
- the device 100 may provide various types of services to a user through a VR space.
- the device 100 may implement at least one place in the VR space in order to provide a service to the user.
- the device 100 may change the VR space to a stadium where a sporting event is held.
- the device 100 may change the VR space to an art gallery, a performance hall, or the like in order to provide a user with an artwork viewing service or a musical viewing service.
- the device 100 may output a combined image of a live image and a graphic image of a place where a service is provided.
- the user may select one of the at least one service by selecting an item for each of the places where the at least one service displayed on the user interface of the VR space is provided.
- the user may display an item 2710 for a artwork viewing service, an item 2720 for a musical viewing service, and an item 2730 for viewing a sports event, which the device 100 displays on a user interface of a VR space.
- the device 100 may receive information necessary to implement a place where the selected service is provided from the service providing server 2510. Meanwhile, in order for the device 100 to obtain information necessary for implementing a place where a service is provided from the service providing server 2510, the device 100 may have to pay a cost designated by the service providing server 2510.
- the device 100 may display the cost information to be paid for using the selected service on the user interface.
- the user may select any one of a plurality of payment means that can be provided through the device 100.
- the device 100 may display a window on which the user's identification information for the selected payment means can be input on the user interface in the VR space.
- the device 100 may transmit the input identification information to the payment server 2520 through the service providing server 2510 or directly to the payment server 2520. As it is confirmed that the identification information of the user received from the payment server 2520 matches the identification information of the preset user, payment for the selected service may be completed.
- the device 100 may set the VR space as a place where the selected service may be provided. For example, when the user pays for a sports relay service, the device 100 may implement a VR space by outputting a combination of live image and graphic image of a stadium where a sporting event is held.
- FIG. 28 is a diagram for describing a method of paying, by the device 100, a product that can be purchased through a user interface of a VR space, according to an embodiment.
- the device 100 may display an item regarding at least one product that can be purchased through the VR space.
- the device 100 may implement the souvenir hall 2800 in the VR space in the stadium where the sports relay service is provided.
- the souvenir hall 2800 implemented in the VR space of the device 100 may display an item (eg, 2810) regarding at least one product that can be purchased by the user.
- the item (for example, 2810) relating to the at least one product may be a photorealistic image, a graphic image, or the like of the at least one product, but this is merely an example, and the item regarding the product is not limited thereto.
- the user of the device 100 may select any one of items (eg, 2810) related to the displayed at least one product. For example, a user of the device 100 may touch and select an item 2810 related to the first product.
- items eg, 2810
- the device 100 may transmit information about the item to the service providing server 2510.
- the service providing server 2510 includes information about a payment amount of the first product, a purchase option, and a payment method available to the user. Payment information may be provided to the device 100.
- the purchase option is information indicating whether the purchase of the virtual goods and the actual goods is about.
- the device 100 may display the received payment information on the user interface of the device 100.
- the user of the device 100 may determine whether to purchase a product based on the displayed payment information.
- one of a plurality of payment means may be selected, and identification information about the selected payment means may be input to the device 100.
- the device 100 may provide input identification information of the user to the payment server 2520 through the service providing server 2510 or directly to the payment server 2520.
- 29 is a flowchart illustrating a method for the device 100 to make a payment for a product or a service using an avatar in a VR space, according to an exemplary embodiment.
- the device 100 may input identification information of the user corresponding to at least one payment means that can be provided by the device, to attribute information of the avatar on the VR space created based on the user's profile.
- the device 100 may provide an avatar representing a user in a VR space.
- the avatar may be produced based on a profile of the user's age, gender, occupation, and the like.
- the avatar may be produced based on the image of the user.
- the device 100 may provide a profile of the user and an image of the user to the service providing server 10 to receive an avatar of the user generated by the service providing server 10.
- the device 100 may generate an avatar of the user based on the profile of the user and the image of the user through the avatar generating application provided from the service providing server 10.
- the device 100 may input identification information of a payment means for paying a cost of a product or a service to attribute information of an avatar for convenience of payment in a VR space. For example, when the payment means is selected as the xx pay, the device 100 may input identification information of the user for the xx pay to the attribute information of the avatar.
- the device 100 may receive a user input of selecting one of items related to at least one of goods and services displayed on the user interface of the VR space provided by the device 100.
- step S2920 may correspond to step S2610 described above with reference to FIG. 26.
- the device 100 may transmit attribute information of the avatar and payment information of the item to a first server that provides at least one of goods and services.
- the first server may be the service providing server 2510 or the payment server 2520 described above with reference to FIG. 1.
- the device 100 may access an item related to at least one of goods and services using an avatar created based on the user's profile in the VR space.
- step S2920 in order to receive the goods or services corresponding to the item selected by the user has to pay a corresponding cost.
- the device 100 may replace the payment process by transmitting attribute information of the avatar and payment information of the item to the first server without going through a separate payment process.
- the first server that receives the attribute information of the avatar including the information of the payment means and the identification information of the payment means from the device 100 determines that the user approves the payment, and thus the product corresponding to the selected item.
- the use authority of the service may be granted to the device 100.
- the device 100 may display settlement completion information on the user interface.
- step S2940 may correspond to step S2630 described above with reference to FIG. 26.
- FIG. 30 is a diagram for describing a method of performing, by a device, a payment for a product or a service using an avatar in a VR space, according to an exemplary embodiment.
- the attribute information of the avatar 3010 generated based on the profile of the user of the device 100 may include gender, age, occupation, and identification information of the payment means 1 of the user.
- the device 100 may display information about payment amount and quantity of the flag 3020 and the trophy 3030 selected by the user, and a request for purchase by the user.
- the payment information including the information indicating whether the virtual goods or the virtual goods may be transmitted to the first server along with the attribute information.
- the first server may be a service providing server 2510 or a payment server 2520.
- the device 100 transmits the payment information and the attribute information to the service providing server 2510, the transmitted payment information and the attribute information may be transmitted to the payment server 2520.
- a payment process for the selected flag 3020 and the trophy 3030 may be performed.
- the first server may determine that the purchase of the flag 3020 and the trophy 3030 has been approved by the user, and allow the device 100 to use the flag 3020 and the trophy 3030. In the present embodiment, it is assumed that the user of the device 100 requests the purchase of the virtual goods of the flag 3020 and the trophy 3030.
- an avatar displayed on the VR space provided by the device 100 includes a purchased flag 3020 and a trophy 3030. ) May be applied.
- 31 is a flowchart for describing a method of paying at least one of goods and services requested by the device 100 by the service providing server 2510, according to an exemplary embodiment.
- the service providing server 2510 may provide an item regarding at least one of goods and services on a user interface of a VR space provided by the device 100.
- the service providing server 2510 may transmit an item regarding at least one item representing information on a service available in a VR space and information on a product to be purchased, to the device 100.
- the device 100 may display an item regarding at least one received on the user interface of the VR space.
- the service providing server 2510 may receive a user input from the device 100 that selects any one of items provided on at least one of the provided items.
- the service providing server 2510 may provide the device 100 with information about a cost to be paid for using a product or a service corresponding to the item selected based on the user input.
- a predetermined cost should be paid for the goods or services. Accordingly, the service providing server 2510 may transmit information about the cost to be paid to the device 100.
- the service providing server 2510 may receive identification information related to a payment means and payment information of an item from the device 100.
- the service providing server 2510 may include payment information including identification information of a payment method selected by the user from the device 100 and information about at least one of a quantity and a use period of a product or service that the user wants to use. Can be received.
- the service providing server 2510 may transmit identification information and payment information to the payment server 2520 for payment of the selected product or service.
- the service providing server 2510 may approve the right to use the product or the service to the device 100 as the payment for the product or the service is completed.
- the service providing server 2510 may receive information indicating that payment of a product or service selected by a user is completed from the payment server 2520 when the payment is made by the payment server 2520. Accordingly, the service providing server 10 may authorize the user to use the goods or services.
- the user may approve the user's right to use the product or service.
- 32 and 33 are block diagrams of a device 100 providing a UI in a VR space according to an embodiment.
- the device 100 may include a sensing unit 110, a processor 120, an output unit 130, and a communication unit 160.
- a sensing unit 110 may include a processor 120, an output unit 130, and a communication unit 160.
- the device 100 may be implemented by more components than the illustrated components, and the device 100 may be implemented by fewer components.
- the device 100 may include A / A in addition to the sensing unit 110, the processor 120, the output unit 130, and the communication unit 160.
- the V input unit 140, the user input unit 150, and the memory 170 may be further included.
- the device 100 illustrated in FIGS. 32 and 33 may perform operations of the device described above with reference to FIGS. 1 to 31.
- the sensing unit 110 may detect at least one of a state of the device 100, a state around the device 100, and a state of a user wearing the device 100, and transmit the detected information to the processor 120. have.
- the sensing unit 110 may obtain identification information of a user wearing the device 100. In addition, the sensing unit 110 may track the movement of the user wearing the device 100.
- the sensing unit 110 may acquire biometric information of a user wearing the device 100 at a predetermined cycle. In addition, the sensing unit 110 may detect a state change of the user while displaying the UI in the VR space.
- the sensing unit 110 may obtain an input of a user wearing the device 100.
- the sensing unit 110 may detect a user's gesture and may obtain a user's input.
- the sensing unit 110 may receive a content request for a sports event from the user.
- the sensing unit 110 may receive a user input for selecting any one of items related to at least one of goods and services displayed on the user interface of the VR space.
- the sensing unit 110 may receive a user input for selecting any one of a plurality of payment means that can be provided by the device.
- the sensing unit 110 may include a geomagnetic sensor 111, an acceleration sensor 112, a temperature / humidity sensor 113, an infrared sensor 114, a gyroscope sensor 115, a position sensor. (Eg, GPS) 116, barometric pressure sensor 117, proximity sensor 118, and RGB sensor (illuminance sensor) 119, but is not limited thereto.
- the sensing unit 110 may further include a biosignal detection sensor capable of measuring a user's pulse, blood pressure, brain wave, and the like. Since functions of the respective sensors can be intuitively deduced by those skilled in the art from the names, detailed descriptions thereof will be omitted.
- the processor 120 typically controls the overall operation of the device 100.
- the processor 120 executes programs stored in the memory 170 to detect the sensing unit 110, the output unit 130, the A / V input unit 140, the user input unit 150, and the communication unit 160. ) Can be controlled overall.
- the processor 120 may allocate a preset template UI for the user in the VR space based on the identification information obtained through the sensing unit 110.
- the processor 120 may obtain, via the user input unit 150, profile information and information about an object that the user wants to place in the preset template UI from the user.
- the processor 120 may generate an avatar of the user based on the profile information.
- the processor 120 may generate a virtual object based on the information about the object and arrange the virtual object on the template UI.
- the processor 120 may generate a UI for the user by arranging the avatar and the virtual object on the template UI.
- the processor 120 may set the allocated UI such that at least one advertisement is displayed on one surface of the UI assigned to the user.
- the processor 120 may generate the user's health information based on the biometric information obtained through the sensing unit 110.
- the processor 120 may generate at least one of medical information and recommended sports information for the user based on the generated health information.
- the processor 120 may search for information about an object as a search request for the object is received through the displayed search box.
- the processor 120 may display at least one advertisement on the VR space through the output unit 130 while searching for information about the object.
- the processor 120 may stop displaying the at least one advertisement.
- the processor 120 may select at least one advertisement from among a plurality of advertisements based on a profile of the user and history information about at least one object previously requested to be searched.
- the processor 120 may move an image constituting at least one advertisement in a predetermined direction.
- the processor 120 changes the speed and the position at which the image projected through the lens having the preset angle of view is output through the output unit 130, thereby shifting the image constituting the at least one advertisement in the preset direction. You can move it.
- the moving speed of the image may be faster as the end time of the search for the object gets closer.
- the processor 120 may determine a place where a sporting event proceeds as a content request is received. In addition, the processor 120 may determine a location in a place where a sporting event corresponding to the user's gesture is performed.
- the processor 120 may generate history information of at least one content watched by a user before providing content related to a sporting event.
- the processor 120 may select a user who uses content related to a sporting event from among a plurality of other users connected through a user's SNS account.
- the processor 120 may generate an avatar image representing the user based on the profile information of the user.
- the processor 120 may select one of items related to at least one of goods and services based on a user input.
- the processor 120 may input identification information of the user corresponding to at least one payment means that can be provided by the device 100 to avatar attribute information on the VR space created based on the profile of the user.
- the output unit 130 is for outputting an audio signal, an image signal, or a vibration signal, and may include a display unit 131, a sound output unit 132, and the like.
- the display unit 131 displays and outputs information processed by the device 100.
- the display unit 131 may display a UI for the user generated by the processor 120.
- the display unit 131 may display at least one category of objects that can be arranged in the template UI, and may display a plurality of objects included in the selected category as the user selects any one of the at least one category. .
- the display unit 131 may display payment information necessary for purchasing the object.
- the display unit 131 may display information on a product of the selected advertisement in the VR space when a selection input for selecting at least one advertisement displayed by the user is received while searching for information about the object.
- the display unit 131 may display the search result and the information about the product of the selected advertisement together in the VR space.
- the display unit 131 may display a live action image and a virtual image of a specific location at a place where a sporting event is performed according to a gesture of a user.
- the display unit 131 may display a combination of at least one image photographed at a different point of time from the first viewpoint and the image photographed at the first viewpoint at a specific position.
- the display unit 131 may display a virtual image of the object in the VR space.
- the display unit 131 may display history information of the selected content on the VR space. .
- the display unit 131 may display a live image and a virtual image of the selected location on the VR space.
- the display unit 131 may display a virtual image representing another user on the VR space as the acceptance message for the invitation message transmitted to the device of the selected user is received. According to another example, the display unit 131 may combine the avatar image of the user together with the live image and the virtual image of the place where the sporting event is performed, and display the avatar image on the VR space.
- the display unit 131 may display the payment completion information on the user interface.
- the display unit 131 may display payment information about a cost required to access a target place selected based on a user's request among a plurality of places.
- the display unit 131 may display the avatar generated based on the user's profile in the target space when payment of the cost required to access the target space is completed.
- the display unit 131 may display a virtual image related to the selected item on the user interface of the VR space.
- the display unit 131 and the touch pad form a layered structure and constitute a touch screen
- the display unit 131 may be used as an input device in addition to the output device.
- the sound output unit 132 outputs audio data received from the communication unit 160 or stored in the memory 170. In addition, the sound output unit 132 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, and a notification sound) performed in the device 100.
- the sound output unit 132 may include a speaker, a buzzer, and the like.
- the A / V input unit 140 is for inputting an audio signal or a video signal, and may include a camera (not shown) and a microphone (not shown).
- the camera may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a shooting mode.
- the image captured by the image sensor may be processed by the processor 120 or a separate image processor (not shown).
- the image frame processed by the camera may be stored in the memory 170 or transmitted to the outside through the communication unit 160. Two or more cameras may be provided according to the configuration aspect of the device 100.
- the microphone receives an external sound signal and processes it into electrical voice data.
- the device 100 may further include a lens (not shown).
- the user of the device 100 may detect an image output from the display 931 through a lens.
- the user input unit 150 means a means for a user to input data for controlling the device 100.
- the user input unit 150 may receive a user input.
- the user input unit 150 may be linked with the UI module 171 to receive a user input for selecting at least one of items displayed on the sensing area of each of the plurality of sensors.
- this is only an example, and the type of the user input received by the user input unit 150 is not limited to the above-described example.
- the communication unit 160 may include one or more components that allow communication between the device 100 and an external device (eg, an HMD).
- the communicator 160 may include a short range communicator 161, a mobile communicator 162, and a broadcast receiver 163.
- the mobile communication unit 162 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
- the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
- the broadcast receiving unit 163 receives a broadcast signal and / or broadcast related information from the outside through a broadcast channel.
- the broadcast channel may include a satellite channel and a terrestrial channel. According to an implementation example, the device 100 may not include the broadcast receiver 163.
- the memory 170 may store a program for processing and controlling the processor 120, and may store input / output data.
- Programs stored in the memory 170 may be classified into a plurality of modules according to their functions. For example, the programs stored in the memory 170 may be classified into the UI module 171 and the touch screen module 172.
- the UI module 171 may provide a specialized UI, GUI, and the like, which are linked to the device 100 for each application.
- the touch screen module 172 may detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the processor 120.
- 34 is a block diagram of a service providing server 3400, according to an exemplary embodiment.
- the service providing server 3400 may include a communication unit 3410, a processor 3420, and a memory 3430. However, not all illustrated components are essential components.
- the service providing server 3400 may be implemented by more components than the illustrated component, and the service providing server 3400 may be implemented by fewer components.
- the service providing server 3400 may perform the above-described operations with reference to FIGS. 25 to 31.
- the communicator 3410 may provide an item regarding at least one of goods and services on a user interface of a VR space provided by the device 100.
- the communicator 3410 may transmit, to the device 100, an item regarding at least one indicating information on a service available in a VR space and a product to be purchased.
- the communicator 3410 may receive a user input from the device 100 that selects any one of items provided for at least one.
- the communication unit 3410 may provide the device 100 with information about a cost to be paid for using a product or a service corresponding to the item selected based on the user input.
- the communication unit 3410 may receive identification information related to a payment means and payment information of an item from the device 100. In addition, the communication unit 3410 may transmit identification information and payment information to the payment server 2520 that performs the payment of the selected product or service. However, this is only an example, and when the processor 3420 may make a payment, the payment process may be directly performed without having a separate payment server 2520.
- the processor 3420 typically controls the overall operation of the service providing server 3400.
- the processor 3420 may control a process related to payment of a service or a product provided through a VR space of the service providing server 3400 by executing programs stored in the memory 34230. have.
- the processor 3420 may authorize the device 100 to use the product or the service as the payment for the product or the service is completed.
- the memory 3430 may store a program for processing and controlling the processor 3420, and may store input / output data.
- the memory 3430 may store information about at least one of a service and a product for providing through a user interface in a VR space.
- the memory 3430 may store information about at least one item of a service and a product.
- the memory 3430 may store identification information and payment information of a user of the device 100.
- the device comprises a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, a button and the like.
- a user interface such as a touch panel, a key, a button and the like.
- Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor.
- the computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc).
- the computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- the medium is readable by the computer, stored in the memory, and can be executed by the processor.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
개시된 실시예는 VR 공간에서 사용자 인터페이스를 제공하는 방법, VR 공간에서 사용자 인터페이스를 제공하는 디바이스 및 VR 공간에서 사용자 인터페이스를 제공하는 방법을 수행하는 프로그램이 기록된 기록매체에 관한 것이다. The disclosed embodiment relates to a recording medium having recorded thereon a program for performing a method for providing a user interface in a VR space, a device for providing a user interface in a VR space, and a method for providing a user interface in a VR space.
최근 들어 사용자에게 가상 현실(Virtual Reality, 이하 VR)를 체험할 수 있도록 영상을 제공하는 다양한 기술들이 개발되고 있다. 이러한 가상 현실 체험 기술들은 예를 들어, 사용자의 시야에 따라 출력되는 영상을 렌즈를 통해 왜곡시킴으로써, 사용자가 가상 현실을 체험할 수 있도록 하는 HMD(Head Mount Display) 등의 디바이스를 통해 실현될 수 있다. Recently, various technologies for providing an image to a user to experience virtual reality (VR) have been developed. Such virtual reality experience technologies may be realized through a device such as a head mount display (HMD) that allows a user to experience virtual reality by distorting an image output according to the user's field of view through a lens. .
한편, 가상 현실을 체험할 수 있도록 하는 디바이스가 개발됨에 따라, 가상 현실 세계에서 사용자에게 제공할 수 있는 서비스에 대한 관심 또한 증가하고 있는 추세이다. 가상 현실은 사용자가 현실 세계에서 체험하기 어려운 것들을 간접적으로 체험할 수 있는 공간이라는 점에서, 보다 사용자들 개개인에게 최적화될 수 있는 환경을 제공하는 것이 필요하다. Meanwhile, with the development of devices that allow users to experience virtual reality, interest in services that can be provided to users in the virtual reality world is also increasing. Since virtual reality is a space in which users can indirectly experience things that are difficult to experience in the real world, it is necessary to provide an environment that can be optimized for each user.
사용자가 원하는 환경을 VR 공간 상에 구현함으로써, 물리적인 현실의 공간에서 보다 자유롭게 사용자가 요구하는 다양한 서비스가 구현되는 사용자 인터페이스를 제공하는 방법, 디바이스 및 기록 매체가 제공된다. By implementing the environment desired by the user in the VR space, a method, a device, and a recording medium for providing a user interface that implements various services required by the user more freely in a physical reality space are provided.
사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신하고, 컨텐트 요청이 수신됨에 따라, 스포츠 경기가 진행되는 장소에 관한 실사 이미지 및 가상 이미지를 획득하며, 사용자의 제스쳐에 따라, 스포츠 경기가 진행되는 장소에서의 특정 위치에 관한 실사 이미지 및 가상 이미지를 표시하는 디바이스가 VR 공간에서 UI(User Interface)를 제공하는 방법이 개시된다. Receives a content request for a sporting event from a user, and as the content request is received, obtains a photorealistic image and a virtual image of a place where a sporting event is held, and according to the user's gesture, A method of providing a user interface (UI) in a VR space by a device displaying a live image and a virtual image regarding a specific location is disclosed.
도 1은 일 실시예에 따른 디바이스가 VR 공간에서 UI(User Interface, 를 제공하는 방법을 설명하기 위한 개념도이다. 1 is a conceptual diagram illustrating a method of providing a user interface (UI) in a VR space by a device according to an exemplary embodiment.
도 2는 일 실시예에 따른 디바이스가 가상 공간에서 UI를 제공하는 방법을 설명하기 위한 흐름도이다. 2 is a flowchart illustrating a method of providing a UI in a virtual space by a device according to an exemplary embodiment.
도 3은 일 실시예에 따른 디바이스가 제공하는 사용자의 UI를 설명하기 위한 도면이다. 3 is a diagram for describing a UI of a user provided by a device, according to an exemplary embodiment.
도 4는 일 실시예에 따른 디바이스가 사용자의 UI를 통해 스포츠 트레이닝을 제공하는 방법을 설명하기 위한 도면이다. 4 is a diagram for describing a method of providing, by a device, sports training through a UI of a user, according to an exemplary embodiment;
도 5는 일 실시예에 따른 디바이스가 사용자의 UI를 통해 메디컬 서비스를 제공하는 방법을 설명하기 위한 도면이다.5 is a diagram for describing a method of providing, by a device, a medical service through a UI of a user, according to an exemplary embodiment.
도 6은 일 실시예에 따른 디바이스가 사용자의 UI를 통해 복수의 사용자들에게 서비스를 제공하는 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method of providing, by a device, a service to a plurality of users through a UI of a user, according to an exemplary embodiment.
도 7은 일 실시예에 따른 디바이스가 VR 공간에서 사용자의 UI를 통해 사용자의 히스토리 정보를 제공하는 방법을 설명하기 위한 도면이다. FIG. 7 is a diagram for describing a method of providing, by a device, history information of a user through a UI of the user in a VR space according to an embodiment.
도 8은 일 실시예에 따른 디바이스가 외부의 다른 서버들을 통해 사용자의 UI를 설정하는 방법을 설명하기 위한 도면이다.8 is a diagram for describing a method of setting, by a device, a UI of a user through other external servers according to an exemplary embodiment.
도 9는 일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법을 설명하기 위한 도면이다. 9 is a diagram for describing a method of providing, by a device, a user interface (UI) in a VR space according to an embodiment.
도 10은 일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법을 설명하기 위한 흐름도이다. 10 is a flowchart illustrating a method of providing a UI in a VR space by a device according to an exemplary embodiment.
도 11은 일 실시예에 따른 디바이스가 사용자의 입력을 획득하여 VR 공간 상에 검색창을 표시하는 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram for describing a method of obtaining, by a device, a user's input and displaying a search box in a VR space, according to an exemplary embodiment.
도 12는 일 실시예에 따른 디바이스가 제공하는 VR 공간에서의 UI를 보다 구체적으로 설명하기 위한 도면이다. 12 is a diagram for describing in more detail a UI in a VR space provided by a device, according to an exemplary embodiment.
도 13은 일 실시예에 따른 디바이스가 메쉬 형태로 VR 공간을 분할하여, 광고를 제공하는 방법을 설명하기 위한 도면이다. FIG. 13 is a diagram for describing a method of providing, by a device, an advertisement by dividing a VR space in a mesh form. FIG.
도 14는 일 실시예에 따른 디바이스가 광고를 제공하는 제 3 가상 공간을 설명하기 위한 도면이다. 14 is a diagram for describing a third virtual space in which a device provides an advertisement according to an exemplary embodiment.
도 15는 일 실시예에 따른 디바이스가 VR 공간 상의 UI에 광고 및 검색 결과를 표시하는 방법을 설명하기 위한 흐름도이다. 15 is a flowchart illustrating a method of displaying, by a device, an advertisement and a search result in a UI on a VR space.
도 16은 일 실시예에 따른 디바이스가 VR 공간에서 컨텐트를 제공하는 방법을 설명하기 위한 흐름도이다.16 is a flowchart illustrating a method of providing content in a VR space by a device according to an exemplary embodiment.
도 17은 일 실시예에 따른 디바이스가 스포츠 경기가 수행되는 장소의 실사 이미지 및 가상 이미지를 제공하는 방법을 보다 구체적으로 설명하기 위한 도면이다. 17 is a diagram for describing in more detail a method of providing, by a device, a live action image and a virtual image of a place where a sporting event is performed.
도 18은 일 실시예에 따른 디바이스가 VR 공간 상의 제 1 위치에 대한 실사 이미지 및 가상 이미지를 조합하여 제공하는 방법을 설명하기 위한 도면이다. FIG. 18 is a diagram for describing a method of providing, by a device, a combination of a live image and a virtual image of a first location in a VR space; FIG.
도 19는 일 실시예에 따른 디바이스가 VR 공간 상의 제 2 위치에 대한 실사 이미지 및 가상 이미지를 조합하여 제공하는 방법을 설명하기 위한 도면이다. FIG. 19 is a diagram for describing a method of providing, by a device, a combination of a live image and a virtual image of a second position in a VR space, according to an exemplary embodiment; FIG.
도 20은 일 실시예에 따른 디바이스가 VR 공간상의 제 3 위치에서 사용자에게 서비스를 제공하는 방법을 설명하기 위한 도면이다.20 is a diagram for describing a method of providing, by a device, a service to a user at a third location in a VR space, according to an exemplary embodiment.
도 21은 일 실시예에 따른 디바이스에서 제공하는 서포터 아바타를 설명하기 위한 도면이다. 21 is a diagram for describing a supporter avatar provided by a device, according to an exemplary embodiment.
도 22는 일 실시예에 따른 디바이스가 스포츠 경기에 관한 컨텐트를 제공하는 방법을 보다 구체적으로 설명하기 위한 도면이다.FIG. 22 is a diagram for describing in detail a method of providing, by a device, content related to a sporting event according to an embodiment.
도 23은 일 실시예에 따른 디바이스가 사용자가 시청한 스포츠 경기에 관한 컨텐트의 히스토리 정보를 제공하는 방법을 설명하기 위한 도면이다. FIG. 23 is a diagram for describing a method of providing, by a device, history information of content related to a sports game viewed by a user.
도 24는 일 실시예에 따른 디바이스에서 스포츠 경기의 인공 지능 가이드를 제공하는 방법을 설명하기 위한 도면이다. 24 is a diagram for describing a method of providing an artificial intelligence guide of a sporting event in a device, according to an exemplary embodiment.
도 25는 일 실시예에 따라 VR(Virtual Reality) 공간을 제공하는 디바이스를 이용한 결제 시스템을 설명하기 위한 도면이다. FIG. 25 is a diagram illustrating a payment system using a device that provides a virtual reality (VR) space, according to an embodiment.
도 26은 일 실시예에 따른 VR 공간을 제공하는 디바이스의 결제 방법을 설명하기 위한 흐름도이다. 26 is a flowchart illustrating a payment method of a device for providing a VR space according to an embodiment.
도 27은 일 실시예에 따른 디바이스가 VR 공간의 사용자 인터페이스를 통해 이용 가능한 서비스의 이용권한을 결제하는 방법을 설명하기 위한 도면이다. FIG. 27 is a diagram for describing a method of paying, by a device, a right to use a service available through a user interface of a VR space.
도 28은 일 실시예에 따른 디바이스가 VR 공간의 사용자 인터페이스를 통해 구매 가능한 상품을 결제하는 방법을 설명하기 위한 도면이다. FIG. 28 is a diagram for describing a method of allowing a device to pay for a product that can be purchased through a user interface of a VR space, according to an embodiment.
도 29는 일 실시예에 따른 디바이스가 VR 공간 내의 아바타를 이용하여 상품 또는 서비스에 대한 결제를 수행하는 방법을 설명하기 위한 흐름도이다. 29 is a flowchart for describing a method of performing, by a device, payment for a product or a service using an avatar in a VR space.
도 30은 일 실시예에 따른 디바이스가 VR 공간 내의 아바타를 이용하여 상품 또는 서비스에 대한 결제를 수행하는 방법을 설명하기 위한 도면이다. 30 is a diagram for describing a method of performing, by a device, payment for a product or a service by using an avatar in a VR space.
도 31은 일 실시예에 따른 서비스 제공 서버가 디바이스가 요청한 상품 및 서비스 중 적어도 하나를 결제하는 방법을 설명하기 위한 흐름도이다. FIG. 31 is a flowchart illustrating a method of a service providing server paying at least one of a product and a service requested by a device.
도 32 및 33는 일 실시예에 따라 VR공간에서 UI를 제공하는 디바이스의 블록도이다. 32 and 33 are block diagrams of devices providing a UI in a VR space according to an embodiment.
도 34는 일 실시예에 따른 서비스 제공 서버의 블록도이다. 34 is a block diagram of a service providing server according to an exemplary embodiment.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 디바이스의 사용자로부터 식별 정보를 획득하는 단계; 획득된 식별 정보를 기초로, VR 공간에서 사용자에 대한 기 설정된 탬플릿 UI를 할당하는 단계; 사용자로부터 프로파일 정보 및 사용자가 기 설정된 탬플릿 UI에 배치하고자 하는 객체에 관한 정보를 수신하는 단계; 및 프로파일 정보를 기초로 생성된 사용자의 아바타 및 객체에 관한 정보를 기초로 생성된 가상 객체를 탬플릿 UI 상에 배치하여, 사용자에 대한 UI를 생성하는 단계를 포함한다. According to an exemplary embodiment, a method of providing a user interface (UI) in a VR space includes: obtaining identification information from a user of the device; Allocating a preset template UI for the user in the VR space based on the obtained identification information; Receiving profile information and information on an object that the user intends to place in a preset template UI from a user; And arranging the virtual object generated based on the information about the avatar and the object of the user generated based on the profile information on the template UI to generate a UI for the user.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 탬플릿 UI에 배치 가능한 객체의 적어도 하나의 카테고리를 표시하는 단계; 사용자가 적어도 하나의 카테고리 중 어느 하나를 선택함에 따라, 선택된 카테고리에 포함된 복수의 객체를 표시하는 단계를 더 포함한다. According to an embodiment, a method of providing a user interface (UI) in a VR space includes displaying at least one category of an object that can be placed in a template UI; And displaying the plurality of objects included in the selected category as the user selects any one of the at least one category.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 객체에 관한 정보가 수신됨에 따라, 객체의 구매에 필요한 결제 정보를 표시하는 단계; 및 사용자로부터 결제 정보에 대응되는 결제 수단에 관한 입력을 수신하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a device providing a user interface (UI) in a VR space may include displaying payment information necessary for purchasing an object as information about the object is received; And receiving an input regarding a payment means corresponding to the payment information from the user.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 할당된 UI의 일면에 적어도 하나의 광고를 표시하는 단계; 및According to an embodiment, a method of providing a user interface (UI) in a VR space may include displaying at least one advertisement on one side of an allocated UI; And
표시된 적어도 하나의 광고 중 어느 하나가 선택되는 경우, 선택된 광고와 연결된 웹 페이지를 상기 할당된 UI 상에 표시하는 단계를 더 포함한다. If any one of the displayed at least one advertisement is selected, displaying the web page associated with the selected advertisement on the assigned UI.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 디바이스를 착용한 사용자의 생체 정보를 기 설정된 주기에 따라 획득하는 단계; 및 획득된 생체 정보를 기초로 사용자의 건강 정보를 생성하는 단계를 더 포함한다. According to an embodiment, a method of providing a user interface (UI) in a VR space includes: obtaining biometric information of a user wearing a device according to a preset period; And generating health information of the user based on the obtained biometric information.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, 생성된 건강 정보를 기초로, 사용자에 대한 의료 정보 및 추천 스포츠 정보 중 적어도 하나를 생성하는 단계; 및 생성된 정보를 할당된 UI 상에 표시하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a method of providing a user interface (UI) in a VR space may include generating at least one of medical information and recommended sports information about a user based on the generated health information; And displaying the generated information on the assigned UI.
일 실시예에 따른 디바이스가 VR 공간에서 UI(user interface)를 제공하는 방법은, VR 공간에서 UI를 표시하고 있는 동안 사용자의 상태 변화를 감지하는 단계; 및 감지된 변화에 따라, 사용자의 아바타를 변경하는 단계를 더 포함한다. According to an embodiment, a method of providing a user interface (UI) in a VR space includes: detecting a change in a state of a user while displaying a UI in a VR space; And changing the avatar of the user according to the detected change.
일 실시예에 따른 VR 공간에서 UI(user interface)를 제공하는 디바이스는, 디바이스의 사용자로부터 식별 정보를 획득하는 센싱부; 획득된 식별 정보를 기초로, VR 공간에서 사용자에 대한 기 설정된 탬플릿 UI를 할당하고, 사용자로부터 프로파일 정보 및 사용자가 기 설정된 탬플릿 UI에 배치하고자 하는 객체에 관한 정보를 수신하며, 프로파일 정보를 기초로 생성된 사용자의 아바타 및 객체에 관한 정보를 기초로 생성된 가상 객체를 상기 탬플릿 UI 상에 배치하여, 사용자에 대한 UI를 생성하는 프로세서; 및 생성된 사용자에 대한 UI를 표시하는 출력부를 포함한다. According to an embodiment, a device for providing a user interface (UI) in a VR space may include: a sensing unit configured to obtain identification information from a user of a device; On the basis of the obtained identification information, a preset template UI for the user is allocated in the VR space, and profile information and information about an object that the user wants to place in the preset template UI are received from the user, and based on the profile information A processor for generating a UI for the user by disposing a generated virtual object on the template UI based on the generated information about the avatar and the object of the user; And an output unit for displaying a UI for the generated user.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법은, 사용자의 입력이 획득됨에 따라, VR 공간 상에 검색창을 표시하는 단계; 표시된 검색창을 통해 객체에 대한 검색 요청이 수신됨에 따라, 객체에 관한 정보를 검색하는 단계; 객체에 관한 정보를 검색하는 동안, VR 공간 상에 적어도 하나의 광고를 표시하는 단계; 및 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단하고, 검색된 객체에 관한 정보를 VR 공간 상에 표시하는 단계를 포함한다. According to an embodiment, a method of providing a UI in a VR space by a device includes: displaying a search box on the VR space as a user input is obtained; Retrieving information about the object as a search request for the object is received through the displayed search box; Displaying at least one advertisement on the VR space while retrieving information about the object; And stopping the display of the at least one advertisement and displaying the information about the found object on the VR space as the search is completed.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법은, 사용자의 프로파일 및 이전에 검색 요청된 적어도 하나의 객체에 관한 히스토리 정보에 기초하여, 복수의 광고들 중 적어도 하나의 광고를 선택하는 단계를 더 포함한다. According to an embodiment, a method of providing a UI on a VR space by a device includes selecting at least one advertisement from among a plurality of advertisements based on a profile of a user and history information about at least one object previously requested to be searched. It further comprises the step.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법에 있어서, 표시하는 단계는, 적어도 하나의 광고를 구성하는 이미지를 기 설정된 방향으로 이동시키는 단계를 포함하고, 이미지의 이동 속도는, 객체에 대한 검색의 종료 시간이 가까워질수록 빨라진다. In a method of providing a UI on a VR space by a device according to an embodiment, displaying includes moving an image constituting at least one advertisement in a preset direction, wherein a moving speed of the image is The closer the end time of the search for the object is, the faster it is.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법은, 객체에 관한 정보 검색 중, 사용자로부터 표시된 적어도 하나의 광고를 선택하는 선택 입력이 수신되는 경우, 선택된 광고의 제품에 관한 정보를 VR 공간 상에 표시하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a method of providing a UI on a VR space by a device may include receiving information about a product of a selected advertisement when a selection input for selecting at least one advertisement displayed by a user is received while searching for information about an object. And displaying on the VR space.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법에 있어서, 표시하는 단계는, 객체에 대한 검색이 완료된 경우, 검색 결과와 선택된 광고의 제품에 관한 정보를 함께 상기 VR 공간 상에 표시한다. In the method of providing a UI in the VR space according to an embodiment of the present disclosure, the displaying may include displaying the search result and information about a product of the selected advertisement together in the VR space when a search for an object is completed. do.
일 실시예에 따른 디바이스가 VR 공간 상에 UI를 제공하는 방법에 있어서, 사용자 입력은, 사용자의 제스쳐를 포함하고, 검색창은, 사용자의 제스쳐에 따라, 검색창의 크기, 위치 및 형태가 결정된다. In a method of providing a UI in a VR space by a device according to an exemplary embodiment, a user input includes a user's gesture, and the search box determines a size, a position, and a shape of the search box according to the user's gesture. .
일 실시예에 따른 VR 공간에서 UI(user interface)를 제공하는 디바이스는, 사용자의 입력을 획득하는 센싱부; 사용자의 입력이 획득됨에 따라, VR 공간 상에 검색창을 표시하는 출력부; 및 표시된 검색창을 통해 객체에 대한 검색 요청이 수신됨에 따라, 객체에 관한 정보를 검색하고, 객체에 관한 정보를 검색하는 동안, VR 공간 상에 적어도 하나의 광고를 표시하며, 검색이 완료됨에 따라 적어도 하나의 광고의 표시를 중단하는 프로세서를 포함하고, 출력부는, 검색된 객체에 관한 정보를 VR 공간 상에 표시한다. According to an embodiment, a device for providing a user interface (UI) in a VR space may include: a sensing unit configured to obtain a user input; An output unit configured to display a search box on the VR space as a user input is obtained; And as a search request for the object is received through the displayed search box, while searching for information about the object and displaying information about the object, displaying at least one advertisement in the VR space, and as the search is completed. And a processor to stop displaying the at least one advertisement, wherein the output unit displays the information about the retrieved object on the VR space.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법은, 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신하는 단계; 컨텐트 요청이 수신됨에 따라, 스포츠 경기가 진행되는 장소에 관한 실사 이미지 및 가상 이미지를 획득하는 단계; 및 사용자의 제스쳐에 따라, 스포츠 경기가 진행되는 장소에서의 특정 위치에 관한 실사 이미지 및 가상 이미지를 표시하는 단계를 포함한다. According to an embodiment, a method of providing a UI in a VR space by a device includes: receiving a content request regarding a sporting event from a user; Acquiring a photo-realistic image and a virtual image of a place at which a sporting event proceeds as the content request is received; And displaying, according to the user's gesture, a live action image and a virtual image of a specific location at a place where a sporting event is held.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법은, 사용자의 제스쳐에 대응되는 상기 스포츠 경기가 진행되는 장소 내에서의 위치를 결정하는 단계; 및 결정된 위치에 대한 실사 이미지 및 가상 이미지를 수신하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a method of providing a UI in a VR space includes: determining a location in a place where the sports event corresponding to a user's gesture is performed; And receiving a live image and a virtual image for the determined position.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법에 있어서, 실사 이미지는, 스포츠 경기를 복수의 시점 각각에서 촬영한 이미지를 포함하고, 표시하는 단계는, 특정 위치에서의 제 1 시점에서 촬영된 이미지에 제 1 시점과 다른 시점에서 촬영된 적어도 하나의 이미지를 조합하여 표시한다. In a method of providing a UI in a VR space by a device according to an embodiment, the live-action image includes an image photographed at each of a plurality of viewpoints of a sporting event, and the displaying of the UI is performed at a first viewpoint at a specific location. The photographed image is displayed by combining at least one image photographed at a different point in time from the first view point.
일 실시예에 따른 디바이스가 VR 공간에서 컨텐트를 제공하는 방법은, 특정 위치의 실사 이미지 및 가상 이미지 중 적어도 하나에 표시된 객체에 관한 구매 요청 및 결제 정보를 전송하는 단계; 및 객체의 구매가 완료되는 경우, 객체의 가상 이미지를 VR 공간 상에 표시하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a method of providing content in a VR space includes: transmitting purchase request and payment information about an object displayed on at least one of a live action image and a virtual image of a specific location; And when the purchase of the object is completed, displaying the virtual image of the object on the VR space.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법은, 스포츠 경기에 관한 컨텐트의 제공 이전에 사용자가 시청한 적어도 하나의 컨텐트의 히스토리 정보를 생성하는 단계; 적어도 하나의 컨텐트 중 어느 하나가 선택되는 경우, 선택된 컨텐트의 히스토리 정보를 VR 공간 상에 표시하는 단계; 및 표시된 히스토리 정보에 포함된 위치를 사용자가 선택하는 경우, 선택된 위치에 관한 실사 이미지 및 가상 이미지를 VR 공간 상에 표시하는 단계를 더 포함한다. According to an embodiment, there is provided a method of providing a UI in a VR space, the method including: generating history information of at least one content watched by a user before providing content related to a sporting event; If one of the at least one content is selected, displaying history information of the selected content on the VR space; And when the user selects a location included in the displayed history information, displaying a live image and a virtual image of the selected location on the VR space.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법은, 사용자의 SNS(Social Network Service) 계정을 통해 연결된 복수의 다른 사용자 중 스포츠 경기에 관한 컨텐트를 이용하는 사용자를 선택하는 단계; 선택된 사용자의 디바이스에 VR 공간으로의 초대 메시지를 전송하는 단계; 및 초대 메시지에 대한 수락 메시지가 수신됨에 따라, VR 공간 상에 다른 사용자를 나타내는 가상 이미지를 표시하는 단계를 더 포함한다. According to an embodiment of the present disclosure, a method of providing a UI in a VR space includes selecting a user who uses content related to a sporting event among a plurality of other users connected through a social network service (SNS) account of the user; Transmitting an invitation message to the VR space to a device of the selected user; And as the acceptance message for the invitation message is received, displaying a virtual image representing another user on the VR space.
일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법은, 사용자의 프로파일 정보를 수신하는 단계; 및 수신된 프로파일 정보를 기초로 사용자를 나타내는 아바타 이미지를 생성하는 단계를 더 포함하고, 표시하는 단계는, 실사 이미지 및 가상 이미지와 함께 아바타 이미지를 조합하여 상기 VR 공간 상에 표시한다.According to an embodiment, a method of providing a UI in a VR space by a device includes: receiving profile information of a user; And generating an avatar image representing the user based on the received profile information, and displaying the combined avatar image together with the live image and the virtual image to display the avatar image on the VR space.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스는, 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신하는 센싱부; 컨텐트 요청이 수신됨에 따라, 스포츠 경기가 진행되는 장소를 결정하는 프로세서; 결정된 장소에 관한 실사 이미지 및 가상 이미지를 획득하는 통신부; 및 사용자의 제스쳐에 따라, 스포츠 경기가 진행되는 장소에서의 특정 위치에 관한 실사 이미지 및 가상 이미지를 표시하는 출력부를 포함한다. According to an embodiment, a device for providing a UI in a VR space includes: a sensing unit configured to receive a content request regarding a sports event from a user; A processor for determining a location at which a sporting event proceeds as a content request is received; A communication unit for obtaining a live-action image and a virtual image of the determined place; And an output unit for displaying a live action image and a virtual image of a specific position at a place where a sporting event is conducted according to a gesture of the user.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법은, 디바이스에서 제공되는 VR 공간의 사용자 인터페이스 상에 표시된 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 수신하는 단계; 선택된 아이템에 대한 비용을 지불하기 위한 결제 수단이 선택됨에 따라, 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 전송하는 단계; 및 선택된 아이템의 결제가 완료되는 경우, 결제 완료 정보를 사용자 인터페이스 상에 표시하는 단계를 포함한다. According to an embodiment, a payment method using a device that provides a UI in a VR space receives a user input of selecting one of items related to at least one of goods and services displayed on a user interface of a VR space provided by the device. Doing; Transmitting payment information of the item and identification information associated with the payment means, as the payment means for paying for the selected item is selected; And when the settlement of the selected item is completed, displaying the settlement completion information on the user interface.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법에 있어서, VR 공간은, VR 공간 내에서 제공하는 상품 및 서비스 중 적어도 하나의 종류에 따라 복수의 장소로 구별되고, 결제 방법은, VR 공간에서, 복수의 장소 중 적어도 하나의 장소에 접근하기 위해 필요한 비용에 관한 정보를 수신하는 단계를 더 포함한다. In the payment method using a device that provides a UI in the VR space according to an embodiment, the VR space is divided into a plurality of places according to at least one kind of goods and services provided in the VR space, Receiving, in the VR space, information about costs required to access at least one of the plurality of places.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법은, 복수의 장소 중 사용자의 요청을 기초로 선택된 타겟 장소에 접근하기 위해 필요한 비용에 관한 결제 정보를 표시하는 단계; 및 타겟 공간의 접근에 필요한 비용의 결제가 완료되는 경우, 타겟 공간에 사용자의 프로파일을 기초로 생성된 아바타를 표시하는 단계를 더 포함한다. According to an embodiment, a payment method using a device that provides a UI in a VR space includes displaying payment information regarding a cost required to access a target location selected based on a user's request from among a plurality of locations; And if the payment of the cost required to access the target space is completed, displaying the avatar generated based on the user's profile in the target space.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법은, 사용자의 프로파일을 기초로 제작된 VR 공간 상의 아바타의 속성 정보에 디바이스에서 제공 가능한 적어도 하나의 결제 수단에 대응되는 사용자의 식별 정보를 입력하는 단계를 더 포함하고, 전송하는 단계는, 상품 및 서비스 중 적어도 하나를 제공하는 제 1 서버에 아바타의 속성 정보 및 아이템의 결제 정보를 전송하고, 아바타의 속성 정보로부터 추출된 사용자의 식별 정보 및 아이템의 결제 정보는 제 1 서버로부터 아이템의 결제를 수행하는 결제 서버에 전송된다. According to an embodiment, a payment method using a device that provides a UI in a VR space may include identification of a user corresponding to at least one payment means that can be provided by the device to attribute information of an avatar on a VR space created based on a user's profile. The method may further include inputting information, and the transmitting may include transmitting attribute information of the avatar and payment information of the item to a first server providing at least one of goods and services, and extracting the user from the avatar attribute information. The identification information and the payment information of the item are transmitted from the first server to the payment server that performs the payment of the item.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법은, 결제가 완료됨에 따라, 선택된 아이템과 관련된 가상 이미지를 VR 공간의 사용자 인터페이스 상에 표시하는 단계를 더 포함한다. The payment method using a device that provides a UI in a VR space according to an embodiment may further include displaying a virtual image related to the selected item on a user interface of the VR space as the payment is completed.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법은, 디바이스에서 제공 가능한 복수의 결제 수단 중 어느 하나를 선택하는 사용자 입력을 수신하는 단계; 및 선택된 결제 수단에 대해 기 설정된 식별 정보를 획득하는 단계를 더 포함한다. According to an embodiment, a payment method using a device that provides a UI in a VR space includes: receiving a user input of selecting one of a plurality of payment means that can be provided by the device; And acquiring preset identification information for the selected payment means.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스를 이용한 결제 방법에 있어서, 식별 정보는, 사용자의 홍채 신호, 뇌파 신호 및 맥박 신호 중 적어도 하나를 포함한다. In a payment method using a device that provides a UI in a VR space according to an embodiment, the identification information includes at least one of an iris signal, an EEG signal, and a pulse signal of the user.
일 실시예에 따른 VR 공간에서 UI를 제공하는 디바이스는, VR 공간의 사용자 인터페이스 상에 표시된 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 수신하는 센싱부; 선택된 아이템에 대한 비용을 지불하기 위한 결제 수단을 선택하는 프로세서; 결제 수단이 선택됨에 따라, 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 전송하는 통신부; 및 선택된 아이템의 결제가 완료되는 경우, 결제 완료 정보를 사용자 인터페이스 상에 표시하는 출력부를 포함한다. According to an embodiment, a device for providing a UI in a VR space includes: a sensing unit configured to receive a user input for selecting one of items related to at least one of a product and a service displayed on a user interface of the VR space; A processor for selecting a payment means for paying for the selected item; As the payment means is selected, the communication unit for transmitting the identification information associated with the payment means and payment information of the item; And an output unit for displaying the settlement completion information on the user interface when the settlement of the selected item is completed.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
도 1은 일 실시예에 따른 디바이스(100)가 VR 공간에서 UI(User Interface, 를 제공하는 방법을 설명하기 위한 개념도이다. 1 is a conceptual diagram illustrating a method of providing a user interface (UI) in a VR space by a
디바이스(100)는 사용자가 현재 위치한 공간과는 다른 새로운 공간에 위치하는 것처럼 느끼게 하기 위해, 기 제작된 렌즈를 통해, 영상을 디스플레이에 상에 출력함으로써 VR 환경을 구현할 수 있다. The
일 실시예에 따른 디바이스(100)는 사용자가 VR 공간에서 사용자 고유의 공간을 소유할 수 있도록, 사용자가 공간을 직접 제작할 수 있는 UI를 제공할 수 있다. 예를 들어, 디바이스(100)는 사용자에게 기 설정된 템플릿 UI(100)를 제공할 수 있다. 여기에서, 기 설정된 템플릿 UI(100)에는 사용자가 자신의 공간을 제작하거나 VR 공간을 제어하는데 필요한 아이콘들(110, 120, 130, 140, 150)이 포함될 수 있다. VR 공간을 제어하는데 필요한 아이콘들(110, 120, 130, 140, 150)에는 도구 모음 아이콘(110), 홈 아이콘(120), 즐겨찾기 아이콘(130), 설정 아이콘(140) 및 프리뷰 아이콘(150)이 포함될 수 있다. The
도구 모음 아이콘(110)은 템플릿 UI(100) 상에 사용자가 원하는 객체를 배치, 제거 및 편집하는데 필요한 아이콘들을 포함할 수 있다. 홈 아이콘(120)은 VR 공간에서, 다른 장소에 있는 사용자를 홈으로 이동시킬 수 있다. 여기에서, 홈이란 VR 환경에서, 사용자가 직접 제작한 공간을 의미한다. VR 공간 상에는 디바이스(100)와 연결된 웹 서버(미도시) 또는 외부의 디바이스가 제공하는 다양한 장소들이 존재할 수 있다. 사용자는 특정 장소에 위치해 있다가 사용자가 제작한 VR 공간에서의 사용자 고유의 장소인 홈으로 이동하고 싶은 경우, 홈 아이콘(120)을 터치함으로써 홈으로 이동할 수 있다.The
즐겨찾기 아이콘(130)은 VR 공간 상에 위치한 다양한 장소들 중에서, 사용자가 주로 방문하는 장소의 웹 상에서의 위치 정보를 포함할 수 있다. 예를 들어, 사용자는 VR 공간 상에서 사용자가 자주 방문하는 제 1 장소 및 제 2 장소에 대한 주소 정보를 즐겨찾기 아이콘(130)에 저장하고, 다른 장소에서 즐겨찾기 아이콘(130)을 선택함으로써, 기록된 장소에 보다 용이하게 이동할 수 있다. The
설정 아이콘(140)은 사용자의 프로파일 정보, 사용자의 디바이스(100)와 연결 가능한 다른 사용자들의 프로파일 정보 및 사용자가 포함된 VR 공간 상의 커뮤니티 정보 등을 포함할 수 있다. 또한, 사용자는 설정 아이콘(140)을 선택하여, 이전에 저장한 사용자의 프로파일 정보, 다른 사용자들의 프로파일 정보 및 VR 공간 상의 커뮤니티 정보 등을 업데이트 할 수 있다. The
프리뷰 아이콘(150)은 사용자가 검색한 VR 공간 상의 다른 장소, 객체 등의 검색 결과를 미리 보기 형식으로 보여주는 창이다. 디바이스(100)는 프리뷰 아이콘(150)을 통해, 사용자가 검색한 검색 결과를 보여줌으로써, 사용자가 위치한 VR 공간과 검색 결과를 식별하여 보여줄 수 있다. The
일 실시예에 따른 디바이스(100)는 기 설정된 템플릿(100) 상에, 사용자가 선택한 가상 객체를 배치하여 사용자에 대한 UI를 생성할 수 있다. 또한, 디바이스(100)는 가상 객체 뿐만 아니라, 사용자의 아바타를 함께 템플릿 UI 상에 배치하여 사용자에 대한 UI를 생성할 수도 있다. According to an embodiment, the
디바이스(100)는 VR 공간 구현 시, 생성된 사용자의 UI를 가장 먼저 표시하여, 사용자가 VR 공간에서도 자신이 직접 제작한 홈에서 다양한 엔터테인먼트 활동을 즐길 수 있는 환경을 제공할 수 있다. 한편, 실세계에서는 가지고 있지 않은 다양한 가상 객체들을 사용자가 제작한 UI 상에 배치함으로써, 사용자가 이를 통해 대리만족을 느낄 수 있도록 할 수 있다. 사용자가 기 설정된 템플릿(100) 상에 가상 객체를 배치함으로써, 사용자의 UI를 설정하는 구체적인 방법에 대해서는 도 3을 참고하여 후술하도록 한다. When implementing the VR space, the
한편, 일 실시예에 따른 디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 디바이스(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 스마트 TV, 스마트 카, CE(Consumer Electronics) 기기(예컨대, 디스플레이 패널을 갖는 냉장고, 에어컨 등), HMD(Head Mounted Display) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.Meanwhile, the
도 2는 일 실시예에 따른 디바이스가 가상 공간에서 UI를 제공하는 방법을 설명하기 위한 흐름도이다. 2 is a flowchart illustrating a method of providing a UI in a virtual space by a device according to an exemplary embodiment.
단계 S210에서, 디바이스는 디바이스의 사용자로부터 식별 정보를 획득한다. In step S210, the device obtains identification information from the user of the device.
일 실시예에 따른 디바이스는 VR 공간 상에 사용자의 고유의 공간인 홈 공간을 설정하기에 앞서, 사용자에게 식별 정보를 요청하는 메시지를 표시할 수 있다. 사용자는 VR 공간 상에서, 식별 정보를 요청하는 메시지가 표시됨에 따라 터치, 제스쳐 및 음성 중 적어도 하나를 이용하여 사용자의 식별 정보를 입력할 수 있다. 여기에서, 사용자의 식별 정보에는 사용자의 아이디 및 비밀 번호 등이 포함될 수 있으나, 이는 일 실시예일 뿐 식별 정보가 전술한 예에 한정되는 것은 아니다. The device according to an embodiment may display a message requesting identification information to the user before setting a home space which is a user's own space on the VR space. As the message requesting identification information is displayed in the VR space, the user may input identification information of the user using at least one of a touch, a gesture, and a voice. Here, the identification information of the user may include an ID and a password of the user, but this is only an example, and the identification information is not limited to the above-described example.
단계 S220에서, 디바이스는 획득된 식별 정보를 기초로 VR 공간에서 사용자에 대한 기 설정된 템플릿 UI를 할당한다. In operation S220, the device allocates a preset template UI for the user in the VR space based on the obtained identification information.
일 실시예에 따른 디바이스(100)는 식별 정보가 획득됨에 따라, 사용자에게 기 설정된 템플릿 UI를 할당할 수 있다. 디바이스(100)는 복수의 사용자들 각각에 대해 홈 공간을 설정하고 관리하는 홈 관리 서버와 실시간으로 정보를 교환할 수 있다. 디바이스(100)는 기 설정된 템플릿 UI를 직접 할당할 수도 있고, 홈 관리 서버가 사용자의 식별 정보를 기초로 할당한 템플릿 UI를 수신할 수도 있다. According to an embodiment, as the identification information is obtained, the
단계 S230에서, 디바이스(100)는 사용자로부터 프로파일 정보 및 사용자가 기 설정된 템플릿 UI에 배치하고자 하는 객체에 관한 정보를 수신한다. In operation S230, the
여기에서, 사용자의 프로파일 정보에는 사용자의 직업, 나이, 성별, 신체 정보 및 사진 등에 관한 정보가 포함될 수 있다. 또한, 객체에는 가구, 운송 수단, 전자 장치, 운동 기구 및 의류 등의 사물과 꽃, 나무 등의 식물 및 개, 고양이, 새 등의 동물 등이 포함될 수 있다. Here, the profile information of the user may include information about a job, age, gender, body information, and a photograph of the user. In addition, the object may include objects such as furniture, transportation means, electronic devices, sports equipment, and clothing, plants such as flowers and trees, and animals such as dogs, cats, and birds.
일 실시예에 따른 디바이스(100)는 사용자의 음성, 제스처 및 터치 신호 등을 감지하여, 사용자가 배치하고자 하는 객체에 관한 정보를 수신할 수 있다. 예를 들어, 디바이스(100)는 사용자가 "A 자동차"라고 말하는 경우, "A 자동차" 라는 음성 신호를 감지하여, 사용자가 템플릿 UI에 배치하고자 하는 객체가 A 자동차인 것으로 결정할 수 있다. 다른 예에 따라, 디바이스(100)는 사용자가 VR 공간 상의 검색 창을 통해, 객체의 카테고리를 입력한 경우 카테고리에 포함되는 다양한 객체의 이미지를 제공할 수 있다. 예를 들어, 사용자가 준중형 자동차라는 단어를 입력한 경우, 디바이스(100)는 준중형 자동차에 포함되는 자동차들의 이미지를 표시할 수 있다. 사용자는 디바이스(100)를 통해 표시된 자동차들의 이미지 중 어느 하나를 터치 입력 또는 제스처를 통해 선택할 수 있다. According to an embodiment, the
단계 S240에서, 디바이스(100)는 프로파일 정보를 기초로 생성된 사용자의 아바타 및 객체에 관한 정보를 기초로 생성된 가상 객체를 템플릿 UI 상에 배치하여 사용자에 대한 UI를 생성한다. In operation S240, the
일 실시예에 따른 디바이스(100)는 프로파일 정보를 기초로 VR 공간에서의 사용자의 아바타를 생성할 수 있다. 예를 들어, 디바이스(100)는 프로파일 정보에 포함된 사용자의 신체 정보, 나이 및 사진 등을 기초로 사용자와 체형 및 외모가 유사한 아바타를 생성할 수 있다. 다른 예에 따라, 디바이스(100)는 사용자의 프로파일 정보 이외에 사용자가 원하는 외형에 관한 정보를 획득하여 이를 기초로 사용자의 아바타를 생성할 수도 있다. The
또한, 디바이스(100)는 생성된 아바타를 템플릿 UI 상에 배치할 수 있다. 사용자는 터치, 제스쳐 및 음성 입력 등을 통해 템플릿 UI 상에서의 아바타의 위치, 움직임 및 자세 등을 제어할 수 있다. In addition, the
일 실시예에 따른 디바이스(100)는 사용자가 템플릿 UI 상에 배치되기를 원하는 객체에 관한 정보가 획득됨에 따라, 사용자가 배치되기를 원하는 객체에 대응되는 가상 객체를 획득할 수 있다. 여기에서, 가상 객체란 가상 공간에서의 객체의 3차원 이미지를 나타낸다. According to an embodiment, the
한편, 디바이스(100)는 가상 객체를 획득하기 위해, 사용자에게 가상 객체에 대한 결제를 요청할 수도 있다. 예를 들어, 디바이스(100)는 사용자가 선택한 객체에 대응되는 가상 객체를 판매하는 판매자의 서버에 가상 객체를 요청할 수 있다. 요청을 받은 판매자의 서버에서는 가상 객체에 대해 책정된 금액을 지불할 수 있는 결제 수단을 디바이스(100)에게 요청하고, 디바이스(100)는 사용자로부터 기 설정된 결제 수단을 이용하여 요청된 금액을 지불할 수 있다. 금액이 지불됨에 따라 디바이스(100)는 가상 객체를 획득할 수 있다. Meanwhile, the
다만, 이는 일 실시예일 뿐, 디바이스(100)는 판매자의 서버와 기 설정된 결제 서버와 세션을 설정하여 가상 객체의 획득을 위한 비용을 지불할 수도 있다. However, this is only an example, and the
일 실시예에 따른 디바이스(100)는 아바타 및 가상 객체가 배치된 템플릿 UI를 사용자에 대한 UI로서 저장할 수 있다. 디바이스(100)가 저장한 사용자의 UI에 대한 정보는 홈 관리 서버에게 전송될 수 있다. 홈 관리 서버는 수신한 사용자의 UI에 대한 정보를 사용자의 식별 정보에 매칭시켜 저장할 수 있다. 이에 따라, 사용자가 추후에 VR 공간에 접속하여 사용자의 식별 정보를 입력하는 경우, 홈 관리 서버로부터 저장된 사용자의 UI를 수신할 수 있다.According to an embodiment, the
도 3은 일 실시예에 따른 디바이스(100)가 제공하는 사용자의 UI(300)를 설명하기 위한 도면이다. 3 is a diagram for describing a
도 3을 참고하면, 디바이스(100)는 사용자의 식별 정보가 입력됨에 따라, 사용자가 이전에 설정한 VR 공간에서의 사용자의 UI(300)를 로딩하여 표시할 수 있다. 여기에서, 사용자의 UI(300)는 디바이스(100)에 저장될 수도 있고, 홈 관리 서버에 저장될 수도 있다. Referring to FIG. 3, as the identification information of the user is input, the
한편, 사용자의 UI(300)에는 도 1을 참고하여 전술한 도구 모음 아이콘(110), 홈 아이콘(120), 즐겨찾기 아이콘(130), 설정 아이콘(140) 및 프리뷰 아이콘(150)과 대응되는 VR 공간을 제어하는데 필요한 아이콘들(310, 320, 330, 340, 350)이 포함될 수 있다.Meanwhile, the
일 실시예에 따른 디바이스(100)는 사용자의 UI(300) 상에 광고(360)를 표시할 수 있다. 여기에서, 광고(360)는 사용자의 프로파일 정보를 선택될 수 있다. 디바이스(100)는 사용자의 선택에 따라 사용자의 UI(300) 상에 광고(360)를 표시하지 않을 수도 있다. 한편, 사용자는 사용자의 UI(300) 상에 광고(360)를 표시함으로써, 광고를 시청함에 따른 포인트를 획득할 수 있다. 디바이스(100)는 표시된 광고(360)의 종류 및 개수에 관한 정보를 기록하여, 포인트 제공 서버에 기록된 정보를 제공함으로써, 광고(360) 시청에 따른 포인트를 획득할 수 있다. According to an embodiment, the
일 실시예에 따른 디바이스(100)는 사용자의 UI(300) 상에 검색창(370)을 표시할 수 있다. 검색창(370)은 사용자가 펜, 손가락, 키보드 등을 통해 사용자가 원하는 정보를 검색하고자 하는 경우 표시될 수 있다. 사용자는 음성, 제스쳐, 터치 등의 신호를 통해 검색창(370)을 사용자의 UI(300) 상에 표시할 수 있다. According to an embodiment, the
일 실시예에 따른 디바이스(100)는 적어도 하나의 가상 객체(380, 390)를 사용자의 UI(300) 상에 표시할 수 있다. 예를 들어, 디바이스(100)는 사용자가 선택한 객체가 보트인 경우, 보트에 대한 3차원 이미지인 제 1 가상 객체(380)를 사용자의 UI(300) 상에 표시할 수 있다. 여기에서, 제 1 가상 객체(380)는 사용자가 원하는 종류의 보트의 실사 이미지일 수도 있고, 그래픽 이미지일 수도 있다. 또한, 디바이스(100)는 선착장에 대한 3차원 이미지인 제 2 가상 객체(390)를 사용자의 UI(300)상에 표시할 수도 있다.According to an embodiment, the
일 실시예에 따른 디바이스(100)는 VR 공간 상에 사용자 고유의 공간으로서의 사용자의 UI(300)를 설정함으로써, 사용자가 VR 공간에 대한 친밀감을 느낄 수 있는 환경을 제공할 수 있다. 한편, 전술한 예는 사용자의 UI(300)를 설명하기 위한 일 예일 뿐, 전술한 가상 객체들 이외에 다양한 가상 객체들이 사용자의 UI(300) 상에 배치될 수 있다. 예를 들어, 차량, 비행기, 애완 동물, 피지컬 트레이너, 퍼스널 로봇 및 주치의 등 다양한 객체에 대한 가상 객체가 사용자의 UI(300)상에 배치될 수 있다. The
도 4는 일 실시예에 따른 디바이스(100)가 사용자의 UI(400)를 통해 스포츠 트레이닝을 제공하는 방법을 설명하기 위한 도면이다. 4 is a diagram for describing a method of providing, by the
도 4를 참고하면, 디바이스(100)는 사용자의 UI(400)를 통해 트레이닝 정보(415)를 사용자에게 제공할 수 있다. 트레이닝 정보(415)에는 운동 동작에 관한 이미지, 텍스트 및 식단 조절표 등이 포함될 수 있다. 사용자는 트레이닝 정보(415)를 통해 헬스장에 방문하지 않고도, 장소에 상관없이 운동을 즐길 수 있다. Referring to FIG. 4, the
한편, 일 실시예에 따른 디바이스(100)는 사용자의 UI(400) 상에 사용자의 아바타(410)를 배치할 수 있다. 또한, 디바이스(100)는 가속도 센서, 자이로스코프 센서, 기압 센서 등이 포함된 움직임 센서가 부착된 운동 기구(405)와 실시간으로 센싱된 데이터를 주고 받으면서, 사용자의 동작을 감지할 수 있다. 디바이스(100)는 감지된 사용자의 동작에 따라, 사용자의 UI(400) 상에 배치된 사용자의 아바타(410)의 움직임을 제어할 수 있다. Meanwhile, the
또한, 디바이스(100)는 사용자가 성취감을 느낄 수 있도록 사용자가 수행한 운동의 효과를 아바타(410)에 반영할 수 있다. 예를 들어, 사용자가 상체 운동을 수행한 경우, 디바이스(100)는 기존의 아바타(410)를 상체의 근육이 증가된 아바타(420)로 변경하여 표시할 수 있다. In addition, the
한편, 디바이스(100)는 적어도 하나의 다른 사용자의 디바이스와의 연결을 통해 축구, 야구 등의 단체 운동을 수행할 수 있는 VR 공간 상의 장소를 제공할 수도 있다. 예를 들어, 디바이스(100)는 적어도 하나의 다른 사용자의 디바이스와 공동으로 접근 가능한 공간을 설정할 수 있다. 여기에서, 공동으로 접근 가능한 공간을 설정하는 방법은 도 1을 참고하여 전술한 방법과 대응될 수 있다. 예를 들어, 복수의 사용자들은 제공되는 템플릿 UI에서 서로 통신을 수행하면서, 축구, 농구 등의 단체 운동을 즐기기 위해 필요한 가상 객체들을 배치할 수 있다. Meanwhile, the
도 5는 일 실시예에 따른 디바이스(100)가 사용자의 UI(500)를 통해 메디컬 서비스를 제공하는 방법을 설명하기 위한 도면이다.5 is a diagram for describing a method of providing, by the
도 5를 참고하면, 디바이스(100)는 사용자의 UI(500)를 통해 메디컬 서비스를 사용자에게 제공할 수 있다. 예를 들어, 사용자는 도 1을 참고하여 전술한 도구 모음 아이콘(110)을 통해, 사용자의 주치의의 가상 객체(530)를 사용자의 UI(500) 상에 표시할 수 있다. 또한, 디바이스(100)는 사용자의 주치의의 디바이스 또는 사용자의 주치의가 위치한 병원의 서버와 실시간으로 데이터를 송수신하면서 사용자의 건강 상태에 관한 정보를 제공받을 수 있다. 또한, 디바이스(100)는 사용자가 착용하고 있는 센서를 통해 측정된 사용자의 생체 정보를 사용자의 주치의의 디바이스 또는 병원의 서버에 전송할 수 있다. Referring to FIG. 5, the
사용자의 주치의의 디바이스 또는 병원의 서버에서는 수신한 사용자의 생체 정보를 기초로, 사용자의 현재 건강 상태를 분석한 의료 정보(510)를 디바이스(100)에 전송할 수 있다. 디바이스(100)는 수신한 의료 정보(510)를 사용자의 UI(500) 상에 표시할 수 있다. The device of the doctor of the user or the server of the hospital may transmit the
또한, 사용자의 UI(500) 상에는 사용자의 건강 상태를 기초로 결정된 처방전, 식단 또는 약물 복용 방법 등과 같은 건강 관리 정보(520)가 표시될 수도 있다. In addition, on the
일 실시예에 따른 디바이스(100)는 사용자의 주치의의 디바이스와 연결된 통신 세션을 통해, 사용자의 주치의와 실시간으로 통화를 진행하면서 진료, 심리 상담을 받을 수 있다. 또한, 디바이스(100)는 사용자의 주치의의 가상 객체(530)를 사용자의 UI(500) 상에 표시함으로써, 사용자가 보다 현실감을 느낄 수 있는 메디컬 서비스 환경을 제공할 수 있다. According to an embodiment, the
도 6은 일 실시예에 따른 디바이스(100)가 사용자의 UI(600)를 통해 복수의 사용자들에게 서비스를 제공하는 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method of providing, by a
도 6을 참고하면, 디바이스(100)는 복수의 다른 사용자의 디바이스들(20, 30)과 연결될 수 있다. 여기에서, 복수의 다른 사용자는 사용자와 VR 공간에서 서로의 정보를 일정 부분 공유하기로 미리 설정된 사용자들을 나타낸다. 복수의 다른 사용자는 디바이스(100)에 기 저장된 연락처 정보를 통해 검색될 수도 있고, 사용자가 직접 프로파일 정보를 VR 공간 상에 입력함으로써 검색될 수도 있다. Referring to FIG. 6, the
디바이스(100)는 사용자의 UI(600) 상에 사용자가 선택한 가상 객체 및 다른 사용자들이 선택한 가상 객체들을 표시함으로써, 다른 사용자들과 함께 엔터테인먼트 서비스를 즐길 수 있다. 예를 들어, 사용자의 UI(600) 상에는 디바이스(100)의 사용자가 선택한 제 1 자동차의 가상 객체(610), 제 2 디바이스(20)의 사용자가 선택한 제 2 자동차의 가상 객체(620) 및 제 3 디바이스(30)의 사용자가 선택한 제 3 자동차의 가상 객체(630)가 표시될 수 있다. 여기에서, 제 1 자동차의 가상 객체(610), 제 2 자동차의 가상 객체(620) 및 제 3 자동차의 가상 객체(630)는 MMORPG(Massive Multiplayer Online Role Playing Game) 서비스에서 제공되는 가상 객체일 수 있다. The
일 실시예에 따른 디바이스(100)는 사용자의 가상 객체 뿐만 아니라 다른 사용자의 가상 객체 또한 사용자의 UI(600) 상에 함께 표시하고, 다른 사용자의 디바이스(예를 들어, 20)와 실시간으로 데이터를 송수신하면서 가상 객체를 이용하여 게임 등의 서비스를 즐길 수 있다. According to an exemplary embodiment, the
도 7은 일 실시예에 따른 디바이스(100)가 VR 공간에서 사용자의 UI(700)를 통해 사용자의 히스토리 정보를 제공하는 방법을 설명하기 위한 도면이다. FIG. 7 is a diagram for describing a method of providing, by the
도 7을 참고하면, 디바이스(100)는 디바이스(100) 내에 저장된 사용자에 관한 이미지, 동영상 등을 기초로, 과거의 상황을 재현할 수 있다. Referring to FIG. 7, the
일 실시예에 따른 디바이스(100)는 사용자가 제1 히스토리 정보에 대한 썸네일 이미지(710)를 선택하는 경우, 디바이스(100)는 제 1 히스토리 정보를 재현할 수 있다. 예를 들어, 제 1 히스토리 정보가 사용자가 과거에 친구들과 축구 경기를 응원한 동영상인 경우, 디바이스(100)는 동영상을 3차원 이미지로 편집하여 사용자의 UI(700) 상에 표시할 수 있다. According to an embodiment, when the user selects the
다른 실시예에 따라, 디바이스(100)는 사용자가 제 2 히스토리 정보에 대한 썸네일 이미지(720)를 선택하는 경우, 디바이스(100)는 제 2 히스토리 정보를 재현할 수 있다. 예를 들어, 제 2 히스토리 정보가 과거에 돌아가신 사용자의 할머니와 보낸 장면을 촬영한 동영상인 경우, 디바이스(100)는 과거에 돌아가신 사용자의 할머니를 VR 공간 상에 재현함으로써, 사용자가 과거의 추억을 회상하는데 도움을 줄 수 있다. According to another embodiment, when the user selects the
전술한 예와 같이 디바이스(100)는 사용자가 제 3 히스토리 정보에 대한 썸네일 이미지(730), 제 4 히스토리 정보에 대한 썸네일 이미지(750), 제 5 히스토리 정보에 대한 썸네일 이미지(750) 및 제 6 히스토리 정보에 대한 썸네일 이미지(760) 중 어느 하나를 선택하는 경우, 선택된 히스토리 정보를 재현하여 사용자의 인터페이스(700) 상에 표시할 수 있다. As in the above-described example, the
도 8은 일 실시예에 따른 디바이스(100)가 외부의 다른 서버들을 통해 사용자의 UI를 설정하는 방법을 설명하기 위한 도면이다.8 is a diagram for describing a method of setting, by the
도 8을 참고하면, 디바이스(100)는 홈 관리 서버(810)를 통해 사용자의 UI(810)에 관련된 정보를 실시간으로 송수신할 수 있다. 홈 관리 서버(810)는 복수의 사용자의 식별 정보, 복수의 사용자의 UI를 관리하는 서버이다. 예를 들어, 디바이스(100)는 홈 관리 서버(810)에 사용자로부터 입력된 사용자의 식별 정보를 입력함으로써, 기 저장된 사용자의 UI를 로딩할 수 있다. 또한, 사용자에게 할당된 사용자의 UI가 존재하지 않는 경우, 도 1을 참고하여 전술한 바와 같이 수신한 사용자의 식별 정보를 기초로 사용자에게 기 설정된 UI 탬플릿을 할당함으로써, 사용자의 UI를 생성할 수 있다. Referring to FIG. 8, the
디바이스(100)는 사용자의 UI 상에 배치하고자 하는 객체를 웹 상에서 검색할 수 있다. 디바이스(100)는 검색된 객체들 중 자신이 원하는 객체를 선택하여, 선택된 객체에 대한 가상 객체를 요청할 수 있다. 홈 관리 서버(810)는 요청된 가상 객체를 제공하는 판매자 서버(820)에 디바이스(100)의 정보를 제공함으로써, 디바이스(100)가 용이하게 가상 객체를 구매할 수 있는 환경을 제공할 수 있다. 디바이스(100)는 판매자 서버(820)와의 직접 통신을 통해 가상 객체를 결제하거나, 판매자 서버(820)가 가입되어 있는 결제 수단 제공 서버(미도시)와의 연결을 통해 가상 객체를 결제할 수 있다. The
도 9는 일 실시예에 따른 디바이스(100)가 VR 공간(100)에서 UI(user interface)를 제공하는 방법을 설명하기 위한 도면이다. FIG. 9 is a diagram for describing a method of providing, by a device, a user interface (UI) in a
도 9를 참고하면, 일 실시예에 따른 디바이스(100)는 VR 공간(900)에서 정보를 검색할 수 있는 검색창(910)이 포함된 UI를 제공할 수 있다. 예를 들어, 디바이스(100)는 사용자로부터 검색창(910)의 표시를 요청하는 사용자의 입력이 획득됨에 따라, VR 공간(900) 내의 UI 상에 검색창(910)을 표시할 수 있다. Referring to FIG. 9, the
일 실시예에 따른 디바이스(100)는 사용자가 음성, 터치 및 제스쳐 등을 통해, 소정 객체에 관한 정보를 입력하는 경우, 입력된 정보를 검색창(910)에 표시할 수 있다. 예를 들어, 디바이스(900)는 사용자가 스마트 기기 A에 대한 정보를 요청하는 경우, 검색창(910)에 스마트 기기 A라는 명칭을 표시할 수 있다. According to an embodiment, when the user inputs information about a predetermined object through voice, touch, and gesture, the
또한, 디바이스(100)는 검색창(910)에 사용자가 정보를 원하는 객체가 표시됨에 따라, 디바이스(100)에 연결된 웹 서버 등으로부터 객체에 관한 정보를 검색할 수 있다. 디바이스(100)는 객체에 관한 정보를 검색하는 동안, VR 공간(900) 상의 이미지를 변경하여, 사용자가 객체에 관한 정보를 검색하는 중에, UI 상에서 새로운 정보를 획득할 수 있는 환경을 제공한다. 예를 들어, 디바이스(100)는 VR 공간(900) 상에 표시되는 이미지에는 광고가 포함될 수 있다. 여기에서, 광고는 사용자의 나이, 성별, 직업 등의 사용자의 프로파일 정보를 기초로 선택될 수도 있고, 사용자가 이전에 검색한 검색어를 기초로 선택될 수도 있다. 디바이스(100)가 객체에 관한 정보를 검색하는 중에 광고를 제공하는 방법에 대해서는 도 12 내지 도 14를 참고하여 보다 구체적으로 후술하도록 한다. In addition, as the object for which the user wants information is displayed in the
한편, 디바이스(100)는 객체에 관한 정보가 검색되는 동안, 사용자가 다른 공간으로 이동하는 것과 같은 느낌을 받을 수 있도록 VR 공간(900) 에 표시되는 복수의 광고 이미지를 기 설정된 방향으로 이동시킬 수 있다. 또한, 여기에서, 광고 이미지가 이동되는 속도는 객체에 대한 검색의 종료 시간이 가까워질수록 더 빨라지게 설정될 수 있다. Meanwhile, while the information about the object is retrieved, the
또한, 일 실시예에 따른 디바이스(100)는 VR 공간(900) 상에 표시되는 광고 이미지 중 어느 하나를 사용자가 선택하는 경우, 선택된 광고 이미지에 관한 정보를 수신하여 표시할 수 있다. 디바이스(100)는 광고 이미지에 관한 정보가 표시되는 중에도 사용자가 요청한 검색을 계속 진행할 수 있다. 예를 들어, 디바이스(100)의 VR 공간(900) 상에 복수의 광고 이미지들이 기 설정된 방향으로 이동하면서 표시되고 있는 경우, 사용자가 터치한 광고 이미지의 상품에 관한 정보가 VR 공간(900) 상에 표시될 수 있다. 한편, 사용자가 복수의 광고 이미지들 중 어느 하나를 선택하는 방법이 터치 방식에 국한되는 것은 아니다. 다른 예에 따라 사용자는 음성 입력을 통해 복수의 광고 이미지들 중 어느 하나를 선택할 수도 있다. In addition, when the user selects one of the advertisement images displayed on the
디바이스(100)는 사용자가 복수의 광고 이미지들 중 어느 하나를 선택한 경우에는 복수의 광고 이미지들에 대한 표시를 중단하고, 선택된 광고 이미지의 상품에 관한 정보를 VR 공간 상에 표시할 수 있다. When the user selects any one of the plurality of advertisement images, the
한편, 디바이스(100)는 검색이 완료된 경우, 검색된 객체에 관한 정보를 VR 공간(900) 상에 표시할 수 있다. 디바이스(100)는 객체에 관한 정보를 검색하는 중에 사용자가 특정 광고 이미지를 선택한 경우에는 선택된 광고 이미지와 객체에 관한 정보를 함께 표시할 수 있다. 또한, 다른 예에 따라, 사용자가 특정 광고 이미지를 선택하지 않은 경우, 디바이스(100)는 객체에 관한 정보 만을 VR 공간(900) 상에 표시할 수 있다.When the search is completed, the
일 실시예에 따른 디바이스(100)는 VR 공간(900) 상에서 사용자가 객체에 관한 정보 검색을 요청하는 동안, 복수의 광고 이미지들이 VR 공간(900) 상에 일방향으로 이동하는 UI를 제공함으로써, 정보 검색에 소요되는 시간 동안 보다 다양한 정보를 효율적으로 획득할 수 있는 환경을 제공할 수 있다.According to an embodiment, the
도 10은 일 실시예에 따른 디바이스가 VR 공간에서 UI를 제공하는 방법을 설명하기 위한 흐름도이다. 10 is a flowchart illustrating a method of providing a UI in a VR space by a device according to an exemplary embodiment.
단계 S1010에서, 디바이스는 사용자의 입력이 획득됨에 따라, VR 공간 상에 검색창을 표시할 수 있다. In operation S1010, as a user input is obtained, the device may display a search box on the VR space.
일 실시예에 따른 디바이스는 VR 공간을 제공할 수 있다. 여기에서, VR 공간은 기 설정된 화각을 갖는 렌즈를 통해 디바이스의 디스플레이 상에 표시되는 영상을 투사시킴으로써 구현할 수 있다. 기 설정된 화각을 갖는 렌즈는 디바이스에 포함될 수도 있으나 이는 일 실시예일 뿐, 기 설정된 화각을 갖는 렌즈는 디바이스의 외부에 존재할 수도 있다. The device according to one embodiment may provide a VR space. Here, the VR space may be implemented by projecting an image displayed on the display of the device through a lens having a predetermined angle of view. The lens having the preset angle of view may be included in the device, but this is only an example, and the lens having the preset angle of view may exist outside the device.
디바이스는 사용자로부터 검색창을 요청하는 사용자 입력이 획득되는 경우, VR 공간 상에 검색창을 표시할 수 있다. 한편, 디바이스가 디바이스에 설치된 애플리케이션을 통해 VR 공간 상에서 서비스를 제공하는 중에 검색창을 요청하는 사용자 입력이 획득되는 경우에도, 디바이스는 서비스를 중단하고 검색창을 표시하거나 혹은 서비스와 함께 검색창을 표시할 수 있다. The device may display the search box on the VR space when a user input for requesting the search box is obtained from the user. On the other hand, even if a user input for requesting a search box is obtained while the device is providing a service in a VR space through an application installed on the device, the device stops the service and displays the search box or displays the search box with the service. can do.
단계 S1020에서, 디바이스는 표시된 검색창을 통해 객체에 대한 검색 요청이 수신됨에 따라 객체에 관한 정보를 검색할 수 있다. In operation S1020, the device may search for information about the object as a search request for the object is received through the displayed search window.
일 실시예에 따른 디바이스는 표시된 검색창을 통해 객체에 대한 검색 요청을 수신할 수 있다. 예를 들어, 사용자는 터치 등이 가능한 입력 수단, 제스쳐 및 음성 신호 등을 이용하여, 검색하고자 하는 객체를 특정할 수 있다. 디바이스는 객체가 특정되는 경우, 사용자가 확인할 수 있도록 검색창에 특정된 객체를 표시할 수 있다. 예를 들어, 사용자가 스마트 폰 또는 웨어러블 디바이스를 통해, 객체 A를 특정하는 경우, 디바이스는 특정된 객체 A에 관한 정보를 수신하여 검색창에 객체 A를 표시할 수 있다. According to an embodiment, the device may receive a search request for an object through the displayed search box. For example, the user may specify an object to be searched by using an input means, a gesture, a voice signal, or the like, which can be touched. When the object is specified, the device may display the specific object in the search box for the user to check. For example, when the user specifies the object A through the smart phone or the wearable device, the device may receive the information about the specified object A and display the object A in the search box.
또한, 디바이스는 객체 A에 대한 검색 요청이 수신됨에 따라 객체 A에 관한 정보를 검색할 수 있다. 디바이스는 객체에 관한 정보를 검색하기 위해, 웹 서버 등과 같은 외부의 서버들과 연결을 수행할 수 있다. In addition, the device may search for information about the object A as a search request for the object A is received. The device may connect with external servers, such as a web server, to retrieve information about the object.
단계 S1030에서, 디바이스는 객체에 관한 정보를 검색하는 동안 VR 공간 상에 적어도 하나의 광고를 표시할 수 있다. In operation S1030, the device may display at least one advertisement on the VR space while searching for information about the object.
일 실시예에 따른 디바이스는 객체에 관한 정보를 검색하는 동안 VR 공간 상에 사용자의 프로파일에 따라 선택된 광고를 표시할 수 있다. 예를 들어, 사용자가 30대 남성인 경우, 디바이스는 30대 남성이 선호하는 상품에 관한 광고를 표시할 수 있다. According to an embodiment, the device may display an advertisement selected according to the user's profile on the VR space while searching for information about the object. For example, if the user is a male in his thirties, the device may display an advertisement regarding a product preferred by the male in his thirties.
또한, 디바이스는 사용자가 VR 공간 내의 현재 위치에서 다른 위치로 이동하는 것과 같은 느낌을 받을 수 있도록, 광고 이미지를 이동시켜 가면서 표시할 수 있다. 예를 들어, 사용자의 위치를 기준으로 제 1 방향으로 일련의 광고 이미지들을 이동시킬 수 있다. 또한, 디바이스는 VR 공간을 메쉬 형태로 분할하여 보다 다양한 광고가 각각의 분할된 영역에 표시될 수 있도록 설정할 수 있다. 이에 따라, 사용자는 객체에 대한 검색이 완료되기 전까지 적어도 하나의 광고를 시청할 수 있다. In addition, the device may move and display the advertisement image so that the user may feel as if moving from the current position to the other position in the VR space. For example, the series of advertisement images may be moved in the first direction based on the position of the user. In addition, the device may divide the VR space into a mesh form so that more advertisements may be displayed in each divided area. Accordingly, the user may watch at least one advertisement until the search for the object is completed.
한편, 디바이스는 사용자가 표시되는 적어도 하나의 광고 중 어느 하나를 선택하는 경우, 광고 표시를 중단하고 선택된 광고에 대한 정보를 추가적으로 제공할 수 있다. 이에 대해서는 도 14 및 도 15를 참고하여 보다 구체적으로 후술하도록 한다. Meanwhile, when the user selects one of the at least one advertisement displayed, the device may stop displaying the advertisement and additionally provide information on the selected advertisement. This will be described later in more detail with reference to FIGS. 14 and 15.
단계 S1040에서, 디바이스는 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단하고, 검색된 객체에 관한 정보를 VR 공간 상에 표시할 수 있다. In operation S1040, as the search is completed, the device may stop displaying the at least one advertisement and display information about the found object on the VR space.
일 실시예에 따른 디바이스는 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단할 수 있다. 디바이스는 검색된 객체에 관한 정보에 포함된 이미지, 텍스트 및 동영상 중 적어도 하나를 VR 공간 상에 표시할 수 있다. According to an embodiment, as the search is completed, the device may stop displaying the at least one advertisement. The device may display at least one of an image, text, and a video included in the information about the searched object on the VR space.
한편, 디바이스는 사용자가 검색이 진행되는 중에 선택한 광고가 존재하는 경우, 검색된 객체에 관한 정보와 선택된 광고의 상품에 관한 정보를 VR 공간 상에 함께 표시할 수 있다. Meanwhile, when the advertisement selected by the user while the search is in progress, the device may display information on the searched object and information on the product of the selected advertisement together in the VR space.
도 11은 일 실시예에 따른 디바이스가 사용자의 입력을 획득하여 VR 공간(1110) 상에 검색창(1120)을 표시하는 방법을 설명하기 위한 도면이다. FIG. 11 is a diagram for describing a method of displaying, by a device, a
도 11을 참고하면, 디바이스는 사용자의 제스처를 감지할 수 있다. 예를 들어, 디바이스는 손가락으로 사각형의 형태를 그리는 사용자의 제스처를 감지할 수 있다. 디바이스는 VR 공간(1110)에서 사용자의 제스쳐가 감지된 위치에 검색창(1120)이 표시될 수 있도록 기 설정된 화각을 갖는 렌즈를 통해 투사되는 이미지를 생성할 수 있다. Referring to FIG. 11, the device may detect a gesture of a user. For example, the device may detect a user's gesture of drawing a rectangle with a finger. The device may generate an image projected through a lens having a predetermined angle of view so that the
또한, 디바이스는 사용자의 감지된 제스처의 종류에 따라 표시되는 검색창의 크기 및 형태를 결정할 수 있다. 예를 들어, 사각형을 그리는 제스쳐가 획득되는 경우, 디바이스는 사각형 형태의 검색창(1120)을 표시할 수 있다. 다른 예에 따라 원형을 그리는 제스쳐가 획득되는 경우, 디바이스는 원형 형태의 검색창을 표시할 수 있다. 디바이스는 사용자의 제스쳐를 기초로 표시되는 검색창의 크기를 결정할 수도 있다. In addition, the device may determine the size and shape of the search box displayed according to the type of the detected gesture of the user. For example, when a gesture for drawing a rectangle is obtained, the device may display a
디바이스의 사용자는 검색창(1120)이 표시됨을 확인함에 따라, 객체에 관한 정보를 디바이스에 요청할 수 있다. 디바이스는 객체에 관한 정보를 텍스트 데이터로 제공할 수 있다. 다른 예에 따라, 디바이스의 사용자는 디바이스 내에 기 저장되어 있던 이미지를 검색창(1120)에 드래그하여 객체에 관한 정보를 제공할 수 있다. 또 다른 예에 따라, 디바이스의 사용자는 객체에 관한 정보를 음성 데이터로 제공할 수도 있다. As the user of the device confirms that the
디바이스는 검색창(1120)을 통해 사용자가 검색을 원하는 객체가 특정됨에 따라, 객체에 대한 검색을 수행할 수 있다. The device may search for the object as the object that the user wants to search through the
도 12는 일 실시예에 따른 디바이스(100)가 제공하는 VR 공간에서의 UI를 보다 구체적으로 설명하기 위한 도면이다. 12 is a diagram for describing in more detail a UI in a VR space provided by the
도 12를 참고하면, 디바이스(100)는 검색창이 표시된 공간인 제 1 가상 공간(1210)과 검색 결과가 표시되는 공간인 제 2 가상 공간(1220)을 제공할 수 있다. 또한, 디바이스(100)는 객체에 관한 검색이 진행되는 동안, 광고가 표시되는 제 3 가상 공간(1230)을 제공할 수 있다. Referring to FIG. 12, the
여기에서, 제 1 가상 공간(1210), 제 2 가상 공간(1220) 및 제 3 가상 공간(1230)은 디바이스(100)가 제공하는 VR 공간에서 표시되는 정보의 종류에 따라 구별될 수 있다. 또한, 디바이스(100)는 시간에 따라 제 1 가상 공간(1210), 제 2 가상 공간(1220) 및 제 3 가상 공간(1230)을 VR 공간 상에 구현할 수 있다. Here, the first
일 실시예에 따른 디바이스(100)는 사용자로부터 검색을 요청하는 사용자의 입력이 수신됨에 따라 VR 공간 상에 검색창을 표시할 수 있다. 여기에서, 사용자의 입력에 따라 검색창이 표시되는 공간을 제 1 가상 공간(1210)으로 설명할 수 있다. According to an embodiment, the
한편, 디바이스(100)는 검색이 완료되기까지 VR 공간에서 적어도 하나의 광고를 표시할 수 있다. 여기에서, VR 공간이 표시되는 공간을 제 3 가상 공간(1230)으로 설명할 수 있다. 디바이스(100)는 VR 공간의 UI를 적어도 하나의 광고의 이미지, 텍스트 및 동영상으로 변경함으로써 제 3 가상 공간(1230)을 구현할 수 있다. 또한, 디바이스(100)는 광고를 구성하는 광고 이미지, 텍스트 및 동영상이 기 설정된 방향으로 이동해가면서 표시하도록 함으로써, 사용자가 가상 공간을 이동하는 느낌을 받을 수 있는 환경을 제공할 수 있다. Meanwhile, the
디바이스(100)는 검색이 완료되는 경우 검색 결과가 제공되는 제 2 가상 공간(1220)을 표시할 수 있다. 디바이스(100)는 검색이 완료됨에 따라, VR 공간 상에 이동하면서 표시되는 광고를 중단함으로써, 사용자에게 제 3 가상 공간(1230)을 통과하여, 제 2 가상 공간(1220)에 위치한 것과 같은 효과를 제공할 수 있다. When the search is completed, the
도 13은 일 실시예에 따른 디바이스가 메쉬 형태로 VR 공간을 분할하여, 광고를 제공하는 방법을 설명하기 위한 도면이다. FIG. 13 is a diagram for describing a method of providing, by a device, an advertisement by dividing a VR space in a mesh form. FIG.
도 13을 참고하면, 디바이스는 사용자가 정보를 원하는 객체에 대한 검색이 시작됨에 따라, 광고를 제공하는 제 3 가상 공간을 표시할 수 있다. 디바이스는 광고를 제공하는 제 3 가상 공간으로 사용자가 이동하는 것과 같은 효과를 주기 위해, VR 공간을 메쉬 형태로 분할하여, 복수의 광고 이미지들이 표시될 수 있도록 한다. 또한, 메쉬 형태로 분할된 영역에 표시된 복수의 광고 이미지들은 기 설정된 방향으로 이동할 수 있다. Referring to FIG. 13, as a search for an object for which a user wants information starts, the device may display a third virtual space for providing an advertisement. The device divides the VR space into a mesh form so that a user moves to a third virtual space providing an advertisement so that a plurality of advertisement images can be displayed. In addition, the plurality of advertisement images displayed in the divided area in the mesh form may move in a predetermined direction.
한편, 디바이스는 사용자가 메쉬 형태로 분할된 영역에 표시된 복수의 광고 이미지들 중 적어도 하나를 선택하는 경우(예를 들어, 522, 524), 선택된 광고의 상품에 관한 정보를 VR 공간 상에 표시할 수 있다. On the other hand, when the user selects at least one of the plurality of advertisement images displayed in the area divided into a mesh form (for example, 522 and 524), the device may display information about the product of the selected advertisement in the VR space. Can be.
일 실시예에 따른 디바이스는 제 3 가상 공간 상에서 이동시키는 광고의 이미지들을 검색 시간에 따라 변화시킬 수 있다. 예를 들어, 검색 시작 단계에서 이동하는 광고 이미지(1310), 검색 중간 단계에서 이동하는 광고 이미지(1320) 및 검색 마지막 단계에서 이동하는 광고 이미지(1330)의 속도가 서로 상이할 수 있다. 구체적으로, 검색이 종료되는 시간에 가까운 검색 마지막 단계에서 이동하는 광고 이미지(1330)의 속도가 가장 빠를 수 있다. According to an exemplary embodiment, the device may change images of an advertisement moving on the third virtual space according to a search time. For example, the speeds of the
도 14는 일 실시예에 따른 디바이스(100)가 광고를 제공하는 제 3 가상 공간(1410)을 설명하기 위한 도면이다. 14 is a diagram for describing a third
도 14를 참고하면, 디바이스(100)는 VR 공간 상에서 복수의 광고가 표시되는 제 3 가상 공간(1410)을 제공할 수 있다. 제 3 가상 공간(1410)에는 복수의 광고들 각각을 구성하는 이미지가 표시될 수 있다. Referring to FIG. 14, the
또한, 복수의 광고들 각각을 구성하는 이미지는 기 설정된 방향으로 이동할 수 있다. 예를 들어, 디바이스(100)의 사용자가 제 1 방향을 향해 서있는 경우, 디바이스(100)는 사용자의 시선 방향을 감지하고, 사용자의 시선 방향과 반대 방향으로 복수의 광고들 각각을 구성하는 이미지를 이동시킬 수 있다. 여기에서, 복수의 광고들 각각을 구성하는 일련의 이미지들은 디바이스(100)가 사용자가 요청한 검색을 완료하기 까지 끊김 없이, 제 1 방향의 반대방향인 제 2 방향으로 이동할 수 있다. Also, an image constituting each of the plurality of advertisements may move in a predetermined direction. For example, when the user of the
한편, 디바이스(100)의 사용자는 사용자 주변을 이동하여 지나가는 광고 이미지들 중 어느 하나를 선택할 수 있다. 예를 들어, 디바이스(100)는 광고 이미지들 중 어느 하나를 터치하는 제스쳐를 통해 복수의 광고들 중 어느 하나를 선택할 수 있다. 여기에서, 디바이스(100)는 사용자의 제스쳐를 감지하여, 디바이스(100)의 디스플레이 상에 실제 표시되는 광고 이미지들 중 사용자의 제스쳐에 대응되는 광고를 선택할 수 있다. 사용자는 기 설정된 화각을 갖는 렌즈를 통해 디바이스(100)에 표시되는 이미지가 원거리에 있는 것처럼 느끼는 것이므로, 사용자의 제스쳐와 디바이스(100)에 실제 표시되는 광고와의 매칭을 통해, 사용자가 선택한 광고가 어떠한 광고인지 판별할 수 있다. Meanwhile, the user of the
또한, 디바이스(100)는 사용자가 광고 A를 선택한 경우, 광고 A의 제품인 자동차 A의 정보(1420)를 VR 공간 상에 표시할 수 있다. 디바이스(100)는 광고 A가 선택됨에 따라 다른 광고들의 표시를 중단하고, 자동차 A의 정보(620)를 VR 공간 상에 표시할 수 있다. 일 실시예에 따른, 디바이스(100)는 검색이 완료되기 전까지 자동차 A의 정보(1420)를 표시할 수 있고, 검색이 완료되는 경우 검색 결과가 표시되는 제 2 가상 공간을 VR 공간 상에 구현할 수 있다. In addition, when the user selects the advertisement A, the
한편, 디바이스(100)는 사용자의 프로파일을 기초로 제 3 가상 공간(1410) 상에 표시되는 광고의 종류를 미리 설정할 수 있다. The
도 15는 일 실시예에 따른 디바이스가 VR 공간 상의 UI에 광고 및 검색 결과를 표시하는 방법을 설명하기 위한 흐름도이다. 15 is a flowchart illustrating a method of displaying, by a device, an advertisement and a search result in a UI on a VR space.
단계 S1510에서, 디바이스는 표시된 검색창을 통해 객체에 대한 검색 요청이 수신됨에 따라 객체에 관한 정보를 검색할 수 있다. In operation S1510, the device may search for information about the object as a search request for the object is received through the displayed search window.
단계 S1520에서, 디바이스는 사용자의 프로파일 및 이전에 검색 요청된 적어도 하나의 객체에 관한 히스토리 정보에 기초하여 복수의 광고들 중 적어도 하나의 광고를 선택할 수 있다. In operation S1520, the device may select at least one advertisement from among the plurality of advertisements based on the user's profile and history information about the at least one object previously requested to be searched.
일 실시예에 따른 디바이스는 광고를 제공하는 광고 서버에 사용자의 프로파일 정보를 제공하고, 사용자와 유사한 프로파일을 가진 다른 사용자들이 선호하는 상품에 관한 정보를 제공받을 수 있다. 또한, 다른 실시예에 따라 디바이스는 사용자가 이전에 검색한 객체의 정보를 광고를 제공하는 광고 서버에 제공함으로써, 사용자의 관심도가 높을 것으로 판단되는 상품에 관한 광고를 제공받을 수 있다. According to an embodiment, the device may provide profile information of a user to an advertisement server that provides an advertisement, and may receive information about products that are preferred by other users having a profile similar to that of the user. Also, according to another exemplary embodiment, the device may be provided with an advertisement about a product determined to be of high interest by providing information of an object previously searched by the user to an advertisement server providing an advertisement.
단계 S1530에서, 디바이스는 객체에 관한 정보를 검색하는 동안 선택된 광고를 표시할 수 있다.In operation S1530, the device may display the selected advertisement while searching for information about the object.
일 실시예에 따른 디바이스는 객체에 관한 정보의 검색이 진행되는 동안, 선택된 광고를 VR 공간 상에 표시할 수 있다. According to an embodiment, the device may display the selected advertisement on the VR space while searching for information about the object is in progress.
단계 S1540에서, 디바이스는 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단하고 검색된 객체에 관한 정보를 VR 공간 상에 표시할 수 있다.In operation S1540, as the search is completed, the device may stop displaying the at least one advertisement and display information about the found object on the VR space.
일 실시예에 따른 디바이스는 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단할 수 있다. 디바이스는 검색된 객체에 관한 정보에 포함된 이미지, 텍스트 및 동영상 중 적어도 하나를 VR 공간 상에 표시할 수 있다. According to an embodiment, as the search is completed, the device may stop displaying the at least one advertisement. The device may display at least one of an image, text, and a video included in the information about the searched object on the VR space.
한편, 디바이스는 사용자가 검색이 진행되는 중에 선택한 광고가 존재하는 경우, 검색된 객체에 관한 정보와 선택된 광고의 상품에 관한 정보를 VR 공간 상에 함께 표시할 수 있다. Meanwhile, when the advertisement selected by the user while the search is in progress, the device may display information on the searched object and information on the product of the selected advertisement together in the VR space.
도 16은 일 실시예에 따른 디바이스가 VR 공간에서 컨텐트를 제공하는 방법을 설명하기 위한 흐름도이다.16 is a flowchart illustrating a method of providing content in a VR space by a device according to an exemplary embodiment.
단계 S1610에서, 디바이스는 디바이스를 착용한 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신할 수 있다. In operation S1610, the device may receive a content request regarding a sporting event from a user wearing the device.
예를 들어, 디바이스는 사용자로부터 스포츠 경기의 종류에 관한 정보를 포함하는 컨텐트 요청을 수신할 수 있다. 여기에서, 스포츠 경기의 종류에 관한 정보에는 스포츠 경기의 종목 스포츠 경기가 수행되는 장소, 날짜 및 스포츠 경기에 참여하는 팀의 종류 중 적어도 하나에 관한 정보가 포함될 수 있다. For example, the device may receive a content request from the user that includes information regarding the type of sporting event. Here, the information on the type of sports event may include information on at least one of a place, a date, and a type of team participating in a sporting event.
또한, 사용자는 스포츠 경기의 종류에 관한 정보를 음성, 터치 등의 입력 신호를 통해 디바이스에 제공할 수 있다. 예를 들어, 사용자가 디바이스의 일측면을 터치하는 경우, 디바이스는 스포츠 경기의 종류에 관한 정보를 입력할 수 있는 화면을 표시할 수 있다. 사용자는 표시된 화면에 스포츠 경기의 종류에 관한 정보를 입력할 수 있다. 다른 예에 따라, 사용자가 스포츠 경기의 종류에 관한 정보를 말하는 경우, 디바이스는 사용자의 음성을 인식하여 스포츠 경기의 종류에 관한 정보를 획득할 수 있다. In addition, the user may provide information regarding the type of sports event to the device through input signals such as voice and touch. For example, when the user touches one side of the device, the device may display a screen for inputting information regarding the type of sports event. The user may input information regarding the type of sporting event on the displayed screen. According to another example, when the user speaks information on the type of sports event, the device may recognize the user's voice to obtain information on the type of the sports event.
단계 S1620에서, 디바이스는 컨텐트 요청이 수신됨에 따라, 스포츠 경기가 진행되는 장소에 관한 실사 이미지 및 가상 이미지를 획득할 수 있다. In operation S1620, as the content request is received, the device may acquire a photorealistic image and a virtual image of a place where a sporting event is held.
일 실시예에 따른 디바이스는 사용자로부터 컨텐트 요청이 수신됨에 따라, 스포츠 경기가 진행되는 장소의 실사 이미지 및 가상 이미지를 생성하는 서버에 실사 이미지 및 가상 이미지를 요청할 수 있다. According to an embodiment of the present disclosure, when a content request is received from a user, the device may request a live image and a virtual image from a server that generates a live image and a virtual image of a place where a sporting event is held.
예를 들어, 디바이스는 스포츠 경기가 진행되는 A 경기장의 입구에 대한 실사 이미지 및 가상 이미지를 요청할 수 있다. 여기에서, 실사 이미지는 서버가 디바이스로부터 요청을 수신한 시점의 상황을 촬영한 이미지일 수 있다. 또한, 가상 이미지는 VR 공간에서 사용자가 스포츠 경기를 보다 실감나게 느낄 수 있도록 생성된 그래픽 이미지일 수 있다. 예를 들어, A 경기장에서 수행되는 경기를 후원하는 후원사들에서 제공하는 광고, 가상 상점 및 가상 박물관 등의 이미지가 가상 이미지에 포함될 수 있다. 다른 예에 따라, 가상 이미지는 사용자를 나타내는 서포터 아바타를 포함할 수 있다. For example, the device may request a live-action image and a virtual image of the entrance of the stadium A where the sporting event is held. Here, the due diligence image may be an image photographing a situation when the server receives a request from the device. In addition, the virtual image may be a graphic image generated to allow a user to feel a sporting event more realistically in a VR space. For example, the virtual image may include images of advertisements, virtual stores, and virtual museums provided by sponsors sponsoring a game performed in the stadium. According to another example, the virtual image may include a supporter avatar representing the user.
단게 S1630에서, 디바이스는 사용자의 제스쳐에 따라 스포츠 경기가 진행되는 장소에서의 특정 위치에 관한 실사 이미지 및 가상 이미지를 표시할 수 있다. In operation S1630, the device may display a live action image and a virtual image of a specific location at a place where a sporting event is conducted according to a gesture of the user.
일 실시예에 따른 디바이스는 사용자의 제스쳐가 감지됨에 따라, 스포츠 경기가 진행되는 장소에서 특정 위치에 관한 실사 이미지 및 가상 이미지를 획득할 수 있다. 여기에서, 스포츠 경기가 진행되는 장소는 복수의 위치로 구별될 수 있다. 예를 들어, 스포츠 경기가 진행되는 장소는 중앙역, 중앙로, 광장 및 스타디움으로 구별될 수 있다. According to an exemplary embodiment, as the user's gesture is detected, the device may acquire a photorealistic image and a virtual image of a specific location at a place where a sporting event is conducted. Here, the place where the sporting event is conducted may be distinguished into a plurality of locations. For example, a place where a sporting event is held may be divided into a central station, a central road, a square, and a stadium.
디바이스는 중앙역의 위치에 있는 사용자가 제 1 방향으로 서서, 걸어가는 제스쳐를 취하는 경우, 중앙역의 다음 위치인 중앙로의 실사 이미지 및 가상 이미지를 서버로부터 획득하여 표시할 수 있다. 다만, 이는 일 실시예일 뿐, 사용자는 사용자가 이동하길 원하는 위치를 음성으로 디바이스에 입력하여, 원하는 위치의 가상 이미지 및 실사 이미지를 표시하도록 디바이스를 제어할 수 있다. When the user at the location of the central station stands in the first direction and makes a walking gesture, the device may acquire and display a live image and a virtual image of the central road, which is the next location of the central station, from the server. However, this is only an example, and the user may control a device to display a virtual image and a live image of a desired position by inputting a voice to the device at a position that the user wants to move.
일 실시예에 따른 디바이스는 스포츠 경기가 진행되는 장소에 포함된 복수의 위치의 가상 이미지 및 실사 이미지를 생성하는 적어도 하나의 서버와 실시간으로 통신을 수행함으로써, 사용자의 제스쳐에 대응되는 위치의 가상 이미지 및 실사 이미지를 획득할 수 있다. 여기에서, 디바이스에서 서버로 전송되는 가상 이미지 및 실사 이미지의 요청에는 사용자의 제스쳐에 대응되는 위치에 관한 식별 정보가 포함될 수 있다. According to an embodiment, the device may communicate in real time with at least one server that generates a virtual image and a live image of a plurality of locations included in a place where a sporting event is held, thereby realizing a virtual image of a location corresponding to a user gesture. And live image. Here, the request for the virtual image and the live image transmitted from the device to the server may include identification information regarding a location corresponding to the gesture of the user.
도 17은 일 실시예에 따른 디바이스가 스포츠 경기가 수행되는 장소의 실사 이미지 및 가상 이미지를 제공하는 방법을 보다 구체적으로 설명하기 위한 도면이다. 17 is a diagram for describing in more detail a method of providing, by a device, a live action image and a virtual image of a place where a sporting event is performed.
도 17을 참고하면, 디바이스는 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신하는 경우, 스포츠 경기가 진행되는 장소인 A1에 관한 실사 이미지 및 가상 이미지를 획득할 수 있다. 한편, 스포츠 경기가 진행되는 장소인 A1은 복수의 위치들로 구별될 수 있다. 복수의 위치들에 관한 정보는 경기장의 지도(1700)로서 디바이스를 통해 표시될 수 있다. 본 실시예에서는 디바이스가 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신하는 경우, 장소인 A1에서, 초기 위치인 위치 A(1710)에 관한 실사 이미지 및 가상 이미지를 획득하는 것으로 가정한다. Referring to FIG. 17, when the device receives a content request for a sporting event from a user, the device may obtain a photorealistic image and a virtual image of A1, which is a place where a sporting event is conducted. On the other hand, A1, which is a place where a sports game is conducted, may be distinguished into a plurality of locations. Information about the plurality of locations may be displayed through the device as a
디바이스는 위치 A(1710)에 관한 실사 이미지 및 가상 이미지를 표시할 수 있다. 한편, 여기에서, 가상 이미지에는 장소 A1의 지도, 서포터 아바타 및 광고가 포함될 수 있다. 디바이스는 실사 이미지 및 가상 이미지를 서버로부터 수신한 렌더링 정보에 따라 조합하여 표시할 수 있다. 렌더링 정보에는 실사 이미지와 가상 이미지가 조합되는 스티칭(stitching) 정보 및 가상 이미지가 배치되는 실사 이미지 상의 위치 정보 등이 포함될 수 있다. 실사 이미지와 가상 이미지가 조합되는 예에 대해서는 도 18 내지 도 20을 참고하여 구체적으로 후술하도록 한다. The device may display the due diligence image and the virtual image for
일 실시예에 따른 디바이스는 사용자의 제스쳐를 감지하여, 사용자가 이동하기를 원하는 A1 내에서의 위치를 결정할 수 있다. 예를 들어, 사용자가 이동할 수 있는 A1 내에서의 위치는 중앙역인 위치 A(1710), 중앙로인 위치 B(1720), 광장인 위치 C(1730), 경기장의 위치 D(1740)를 포함할 수 있다. 또한, 광장인 위치 C(1730)의 경우, 개최 도시 홍보관(1731), 기념품 샵(1732), 축구 경기 박물관(1733), 토토샵(1734), 로컬 파트너 쇼룸(1735), 피파 세계 경기 박물관(1736), 글로벌 파트너 쇼룸(1737) 및 경기 상대팀 광장(1738)를 추가적으로 포함할 수 있다. 또한, 경기장의 위치 D(1740)에서도, 사용자는 선택에 따라, 사용자가 선택한 팀의 상대팀 위치인 위치 A2(1750)로 이동할 수도 있다. According to an embodiment, the device may detect a gesture of a user and determine a location in A1 that the user wants to move. For example, a location within A1 that a user can move may include location A (1710) which is a central station, location B (1720) which is a central road, location C (1730) which is a square, and location D (1740) of a stadium. have. In addition, in the case of the location C (1730) which is a square, a host city public hall (1731), a souvenir shop (1732), a soccer game museum (1733), a toto shop (1734), a local partner showroom (1735), a FIFA world game museum (1736) ), The
또한, 디바이스는 사용자가 아바타 선택 및 커뮤니티 초대 방(1705)을 선택하는 경우, 사용자를 나타내는 아바타를 생성하거나 스포츠 경기에 관한 컨텐트를 함께 이용하는 다른 사용자에 대한 정보를 제공할 수 있다. In addition, when the user selects the avatar selection and the
도 18은 일 실시예에 따른 디바이스가 VR 공간 상의 제 1 위치에 대한 실사 이미지(1820) 및 가상 이미지(1810, 1830)를 조합하여 제공하는 방법을 설명하기 위한 도면이다. FIG. 18 is a diagram for describing a method of providing, by a device, a combination of a
도 18을 참고하면, 일 실시예에 따른 디바이스는 사용자로부터 스포츠 경기에 관한 컨텐트 요청이 수신되는 경우, 제 1 위치에 관한 실사 이미지(1820) 및 가상 이미지(1810, 1830)를 획득할 수 있다. 예를 들어, 디바이스는 제 1 위치의 실사 이미지(1820) 및 가상 이미지(1810, 1830)를 생성하는 서버 또는 외부의 디바이스로부터 실사 이미지(1820) 및 가상 이미지(1810, 1830)를 실시간으로 수신할 수 있다.Referring to FIG. 18, when a content request for a sporting event is received from a user, the device may acquire a
한편, 디바이스는 실사 이미지(1820) 및 가상 이미지(1810, 1830)가 조합된 이미지를 수신할 수도 있고, 실사 이미지(1820) 및 가상 이미지(1810, 1830)와 이를 조합하기 위한 스티칭 정보를 함께 수신할 수도 있다. Meanwhile, the device may receive an image in which the
가상 이미지(1810, 1830)에는 스포츠 경기를 후원하는 기업 또는 스포츠 경기의 개최 도시의 광고 이미지(1832)가 포함될 수 있다. 또한, 다른 예에 따라, 사용자는 제 1 가상 이미지(1810)를 선택하여, 제 1 가상 이미지(1810)와 연결된 다른 위치로 이동할 수도 있다. 예를 들어, 사용자는 제 1 가상 이미지(1810)를 선택함으로써, 도 17을 참고하여 전술한 아바타 선택 및 커뮤니티 초대 방(1705)으로 이동할 수 있다. 사용자는 이동된 위치에서, 사용자와 함께 스포츠 경기에 관한 컨텐트를 이용하기 위한 다른 사용자와 연결을 수행할 수 있는 위치로 이동할 수 있다. The
또한, 사용자는 제 1 가상 이미지(1810)를 선택하여, 사용자를 나타내는 아바타를 선택할 수도 있다. 예를 들어, 디바이스는 사용자가 제 1 가상 이미지(1810)를 선택하여, 아바타 선택 및 커뮤니티 초대 방(1705)으로 이동하는 경우, 사용자의 이미지를 획득할 수 있다. 사용자의 이미지는 사용자를 스캐닝하는 3D 스캐닝 디바이스 등으로부터 획득될 수 있으나, 이는 일 실시예일 뿐, 디바이스 내에 사용자의 이미지가 미리 저장될 수도 있다. 디바이스는 획득된 사용자 이미지를 기초로 서포터 아바타를 생성할 수 있다. In addition, the user may select the first
서포터 아바타는 추후에 다른 위치로 이동 시, 인증 등의 프로세스를 수행하는데 이용될 수도 있다. 예를 들어, 경기를 제공하는 장소 내에서, 현재 위치 이외의 다른 위치로 이동하기 위해서는 요금 지불 여부를 확인해야 할 필요가 있다. 이러한 경우, 디바이스는 사용자를 나타내는 서포터 아바타를 다른 위치를 관리하는 서버에 인식시킴으로써, 사용자가 요금을 지불하였다는 정보를 제공할 수도 있다. The supporter avatar may be used to perform a process such as authentication when moving to another location later. For example, in a place offering a game, it is necessary to confirm whether a fee is paid to move to a location other than the current location. In this case, the device may recognize the supporter avatar representing the user to the server managing the other location, thereby providing information that the user paid the fee.
디바이스는 제 1 위치에 대한 실사 이미지(1820) 및 가상 이미지(1810, 1830)가 조합된 이미지를 표시함으로써 사용자가 VR 공간에서 스포츠 경기를 관람하기 위해 필요한 환경을 보다 현실적으로 제공할 수 있다. The device may more realistically provide an environment required for a user to watch a sporting event in a VR space by displaying an image in which the
도 19는 일 실시예에 따른 디바이스가 VR 공간 상의 제 2 위치에 대한 실사 이미지(1900) 및 가상 이미지(1920, 1940)를 조합하여 제공하는 방법을 설명하기 위한 도면이다. FIG. 19 is a diagram for describing a method of providing, by a device, a combination of a
도 19를 참고하면, 디바이스는 사용자로부터 제 2 위치로의 이동을 요청하는 제스쳐가 감지되는 경우, 제 2 위치에 관한 실사 이미지(1900) 및 가상 이미지(1920, 1940)를 획득할 수 있다. 제 2 위치에 관한 실사 이미지(1900)는 제 2 위치를 촬영한 이미지를 나타낸다. 한편, 제 2 위치에 관한 가상 이미지(1920, 1940)에는 광고 이미지(1920) 및 사용자의 취향을 반영한 서비스를 위한 제 2 가상 이미지(1940)를 포함할 수 있다. 사용자는 제 2 위치로 이동하기에 앞서, 실사 이미지(1900)와 함께 시청하고 싶은 제 2 가상 이미지(1940)의 종류를 선택할 수 있다. 예를 들어, 공연 영상, 경기 개최 도시의 관광 명소의 영상 등이 제 2 가상 이미지(1940)에 포함될 수 있다. Referring to FIG. 19, when a gesture for requesting a movement to a second location is detected from a user, the device may acquire the
여기에서, 디바이스는 사용자가 실사 이미지(1900)와 조합할 수 있는 가상 이미지의 종류를 미리 표시하여, 사용자가 표시된 가상 이미지의 종류 중 어느 하나를 선택하도록 할 수 있다. 또한, 디바이스는 특정 가상 이미지를 선택함으로써 사용자가 받을 수 있는 할인 정보, 포인트 정보 등을 함께 표시할 수도 있다. Here, the device may display in advance a type of virtual image that the user may combine with the
한편, 일 실시예에 따른 디바이스는 사용자를 나타내는 서포터 아바타(1910)를 실사 이미지(1900)와 가상 이미지(1920, 1940)가 조합된 이미지에 함께 표시할 수 있다. 디바이스는 서포터 아바타(1910)가 사용자의 제스쳐에 따라 이동하도록 표시함으로써, 사용자가 실제 제 2 위치에 있는 것과 같은 효과를 줄 수 있다. Meanwhile, according to an exemplary embodiment, the device may display a
또한, 디바이스는 사용자와 함께 스포츠 경기에 관한 컨텐트를 이용하는 다른 사용자의 아바타(1930)를 사용자의 서포터 아바타(1910)와 함께 표시할 수 있다. 이를 위해, 디바이스는 다른 사용자의 디바이스와 실시간으로 정보를 송수신할 수 있다. 예를 들어, 디바이스는 사용자의 음성, 사용자의 제스쳐 등을 기초로, 사용자의 상태 정보를 생성하여, 다른 사용자의 디바이스에게 제공할 수 있다. 또한, 디바이스는 다른 사용자로부터 다른 사용자의 음성, 다른 사용자의 제스쳐 등을 기초로 생성된 다른 사용자의 상태 정보를 수신하여, 이를 기초로 서포터 아바타(1910)와 다른 사용자의 아바타(1930)를 함께 표시할 수 있다. 한편, 사용자는 디바이스에서 제공되는 SNS(Social Network Service) 서비스를 기초로, 사용자와 스포츠 경기에 관한 컨텐트를 함께 이용하는 다른 사용자를 선택할 수 있다.In addition, the device may display, along with the
도 20은 일 실시예에 따른 디바이스(100)가 VR 공간상의 제 3 위치에서 사용자에게 서비스를 제공하는 방법을 설명하기 위한 도면이다.20 is a diagram for describing a method of providing, by a device, a service to a user at a third location in a VR space, according to an exemplary embodiment.
도 20을 참고하면, 디바이스(100)는 사용자의 제스쳐에 따라, 제 3 위치에 대한 실사 이미지 및 가상 이미지가 조합된 이미지(2010)를 수신할 수 있다. 여기에서, 사용자의 제스쳐에 따라 이동할 수 있는 위치에 관한 정보는 미리 설정되어 있는 것으로 가정한다. 또한, 본 실시예에서 제 3 위치는 도 17을 참고하여 전술한 기념품 샵(1732)으로 가정한다. 제 3 위치에서는 기념품 샵(1732)에서 사용자가 구매할 수 있는 상품(예를 들어, 2012)에 대한 실사 이미지와 기념품 샵의 배경 등을 나타내는 가상 이미지가 조합된 이미지가 디바이스(100)에 획득될 수 있다.Referring to FIG. 20, the
디바이스(100)의 사용자는 제 3 위치에 진열된 상품(예를 들어, 2012) 등을 시청하면서, 사용자가 원하는 상품(예를 들어, 2012)을 선택할 수 있다. 또한, 디바이스(100)는 사용자가 상품 A(2012)를 선택하는 경우, 상품 A(2012)를 구매하기 위한 지불 수단을 실행하기 위해, 사용자에게 결제를 위한 인증 정보 입력을 요청할 수도 있다. The user of the
또한, 디바이스(100)는 사용자가 상품 A(2012)를 구매하기에 앞서, 상품 A(2012)의 가상 이미지를 서포터 아바타에게 적용시킴으로써, 사용자가 상품 A(2012)를 미리 체험할 수 있도록 할 수 있다. 또한, 사용자는 상품 A(2012)를 직접 구매할 수도 있고, 상품 A(2012)에 대한 가상 이미지를 구매할 수도 있다. 디바이스(100)는 사용자가 상품 A(2012)에 대한 가상 이미지를 구매하는 경우, 서포터 아바타의 정보에 상품 A(2012)에 대한 가상 이미지를 함께 저장함으로써, 사용자가 추후에 스포츠 경기에 관한 다른 컨텐트를 이용하고자 하는 경우, 저장된 가상 이미지를 로딩하여 서포터 아바타에 적용할 수 있다. Also, the
도 21은 일 실시예에 따른 디바이스에서 제공하는 서포터 아바타(2110)를 설명하기 위한 도면이다. 21 is a diagram for describing a supporter avatar 2110 provided by a device, according to an exemplary embodiment.
도 21을 참고하면, 디바이스는 사용자의 정보를 기초로 서포터 아바타(2110)를 생성할 수 있다. 여기에서, 사용자의 정보는 사용자의 성별, 나이, 신체 정보, 직업 등을 포함하는 프로파일 및 사용자의 이미지를 포함할 수 있다. 또한, 서포터 아바타(2110)를 이용한 VR 공간 내에서의 결제를 위해, 사용자의 결제 수단에 관한 식별 정보가 사용자의 정보에 포함될 수도 있다. Referring to FIG. 21, the device may generate the supporter avatar 2110 based on user information. Here, the user's information may include a profile including the user's gender, age, body information, occupation, and the like, and an image of the user. In addition, for payment in the VR space using the supporter avatar 2110, identification information regarding the user's payment means may be included in the user's information.
디바이스는 사용자로부터 획득된 제스쳐에 따라, 사용자가 VR 공간 내의 특정 위치로 이동하는 경우, 이동된 특정 위치의 실사 이미지와 가상 이미지가 조합된 이미지 상에 서포터 아바타(2110)를 표시할 수 있다. 여기에서, 서포터 아바타(2110)가 표시되는 방법은 도 19를 참고하여 전술한 방법과 대응될 수 있다. When the user moves to a specific location in the VR space, the device may display the supporter avatar 2110 on an image in which the live image and the virtual image of the moved specific location are combined according to the gesture obtained from the user. Here, the method of displaying the supporter avatar 2110 may correspond to the method described above with reference to FIG. 19.
한편, 디바이스는 VR 공간에서의 사용자의 상태를 서포터 아바타(2110)에 적용할 수 있다. 여기에서, 사용자의 상태란 사용자가 VR 공간에서 구매한 상품 정보, 사용자가 응원하는 스포츠 팀의 정보 등에 따라 결정될 수 있다. 예를 들어, 디바이스는 사용자가 VR 공간 내에서 구매한 스포츠 팀의 깃발에 대한 가상 이미지(2111), 트로피에 대한 가상 이미지(2113), 경기복에 대한 가상 이미지(2115, 2119) 및 팀 스카프에 대한 가상 이미지(2117)를 서포터 아바타(2110)에 적용할 수 있다. 여기에서, 가상 이미지란 실제 상품 등의 객체에 관한 3차원 이미지를 나타낸다. Meanwhile, the device may apply the user's state in the VR space to the supporter avatar 2110. Here, the state of the user may be determined according to product information purchased by the user in the VR space, information of a sports team, and the like that the user supports. For example, the device may include a virtual image 2111 for a flag of a sports team that a user purchased in VR space, a virtual image 2113 for a trophy, virtual images 2115 and 2119 for a race suit, and a team scarf. The virtual image 2117 may be applied to the supporter avatar 2110. Here, the virtual image represents a three-dimensional image of an object such as an actual product.
디바이스는 사용자가 스포츠 경기에 관한 컨텐트를 이용하지 않을 때에도, 사용자의 요청에 따라 서포터 아바타(610)에 대한 이미지를 표시할 수 있다. 또한, 서포터 아바타(610)에 대한 이미지는 SNS와 같은 애플리케이션을 통해 다른 사용자와 공유될 수 있다. The device may display an image of the
도 22는 일 실시예에 따른 디바이스가 스포츠 경기에 관한 컨텐트를 제공하는 방법을 보다 구체적으로 설명하기 위한 도면이다.FIG. 22 is a diagram for describing in detail a method of providing, by a device, content related to a sporting event according to an embodiment.
도 22를 참고하면, 디바이스는 사용자로부터 도 17을 참고하여 전술한 경기장(1740)으로의 위치 변경을 요청하는 제스쳐를 획득할 수 있다. 이에 따라, 디바이스는 경기장(1740)의 실사 이미지(2210, 2220, 2240) 및 가상 이미지(2230)를 조합하여 표시할 수 있다. Referring to FIG. 22, the device may acquire a gesture for requesting a change of location to the
예를 들어, 디바이스는 사용자가 미리 구매한 경기장 내에서의 좌석표의 위치 정보를 기초로, 좌석표의 위치 정보에 대응되는 시점에서의 경기장의 실사 이미지(2210)를 획득할 수 있다. 또한, 디바이스는 사용자가 다양한 각도에서 경기를 관람할 수 있도록 제 1 시점에서의 실사 이미지(2220) 및 제 2 시점에서의 실사 이미지(2240)를 사용자의 위치 정보에 대응되는 시점에서의 실사 이미지(2210)와 함께 제공할 수 있다.For example, the device may acquire a
한편, 여기에서, 실사 이미지가 제공되는 시점은 사용자의 위치가 변경되는 경우, 변경된 사용자의 위치에 따라 업데이트 될 수 있다. 예를 들어, 디바이스는 사용자로부터 오른쪽으로 이동하는 제스쳐를 획득하는 경우, 현재 시점에서 오른쪽 방향으로 기 설정된 거리만큼 이동한 위치에서의 실사 이미지를 획득할 수 있다. On the other hand, in this case, when the live image is provided, the location of the user may be updated according to the changed location of the user. For example, when the device acquires a gesture that moves to the right from the user, the device may obtain a photorealistic image at a position moved by a predetermined distance in the right direction from the current viewpoint.
또한, 일 실시예에 따른 디바이스는 진행 중인 경기에서 선수의 위치 및 득점 상황에 관한 경기 중개 정보를 가상 이미지(2230)로서 제공할 수 있다. 다만, 이는 일 실시예일 뿐, 가상 이미지(2230)에는 경기를 후원하는 후원사에서 제공하는 광고 이미지가 표시될 수도 있다. In addition, the device according to an embodiment may provide the game brokerage information regarding the position and the scoring situation of the player in the ongoing game as the
다른 실시예에 따라, 디바이스는 사용자로부터 다른 경기의 시청을 요청하는 입력이 수신되는 경우, 다른 경기의 실사 이미지 및 가상 이미지를 현재 표시되고 있는 이미지와 함께 멀티 스크린 형태로 표시할 수도 있다. According to another embodiment, when an input for requesting watching another game is received from the user, the device may display the live image and the virtual image of the other game together with the currently displayed image in a multi-screen form.
도 23은 일 실시예에 따른 디바이스가 사용자가 시청한 스포츠 경기에 관한 컨텐트의 히스토리 정보를 제공하는 방법을 설명하기 위한 도면이다. FIG. 23 is a diagram for describing a method of providing, by a device, history information of content related to a sports game viewed by a user.
도 23을 참고하면, 디바이스는 기 설정된 히스토리 공간(2310)에서 사용자에게 과거에 사용자가 시청했던 스포츠 경기에 관한 이미지들(2320, 2330, 2340, 2350, 2360, 2370)을 제공할 수 있다. 여기에서, 이미지들(2320, 2330, 2340, 2350, 2360, 2370)은 정지 이미지 또는 동영상 이미지 중 적어도 하나의 형태로 제공될 수 있다. Referring to FIG. 23, the device may provide
일 실시예에 따른 디바이스는 사용자가 시청했던 스포츠 경기에 관한 이미지들(2320, 2330, 2340, 2350, 2360, 2370) 중 어느 하나에 대한 요청이 수신되는 경우, 수신된 요청에 대응되는 이미지를 표시할 수 있다. 여기에서, 스포츠 경기에 관한 이미지들(2320, 2330, 2340, 2350, 2360, 2370)은 도 18 내지 도 22를 참고하여 전술하였던 가상 이미지와 실사 이미지가 조합된 이미지일 수 있다. According to an embodiment of the present disclosure, when a request for any one of
또한, 디바이스는 사용자가 선택된 이미지를 시청하는 도중, 선택된 이미지에 표시된 위치를 선택하는 경우, 선택된 위치의 가상 이미지 및 실사 이미지를 표시할 수 있다. 이에 따라, 사용자는 과거에 사용자가 시청했던 경기가 수행되는 위치로 이동하여, 과거의 기억을 다시 체험해 볼 수 있는 환경을 제공받을 수 있다.In addition, when the user selects a location displayed on the selected image while viewing the selected image, the device may display the virtual image and the live image of the selected location. Accordingly, the user may move to a position where a game that the user has watched in the past is performed, and may be provided with an environment in which the user may experience the past memory again.
도 24는 일 실시예에 따른 디바이스에서 스포츠 경기의 인공 지능 가이드를 제공하는 방법을 설명하기 위한 도면이다. 24 is a diagram for describing a method of providing an artificial intelligence guide of a sporting event in a device, according to an exemplary embodiment.
일 실시예에 따른 디바이스는 스포츠 경기를 관람할 수 있는 장소에 대한 가상 이미지 및 실사 이미지가 조합되어 생성된 가상 공간(2400)에서 적어도 하나의 가이드(2410, 2420)를 제공할 수 있다. According to an embodiment, the device may provide at least one
디바이스는 사용자의 프로파일 정보 및 선호도 정보를 뉴럴 네트워크의 입력값으로 설정하여, 사용자에게 스포츠 경기에 관한 정보를 제공하는 적어도 하나의 가이드(2410, 2420)를 생성할 수 있다. 여기에서, 사용자의 프로파일 정보에는 사용자의 국적, 인종, 나이, 성별 등에 관한 정보가 포함될 수 있다. 또한, 선호도 정보는 사용자가 선호하는 인물의 특성에 관한 정보가 포함될 수 있다. 디바이스는 사용자의 프로파일 및 선호도 정보를 기초로 가이드(예를 들어, 2410)의 얼굴, 체형, 키, 목소리 등을 설정할 수 있다. The device may set the profile information and the preference information of the user as input values of the neural network to generate at least one
다른 실시예에 따라, 디바이스는 해당 종목의 스포츠 스타, 가수, 배우, 대회 마스코트, 애니메이션 주인공 의 저작권 또는 초상권의 이용을 위한 결제 정보를 해당 저작권 또는 초상권을 관리하는 서버로부터 수신할 수 있다. 디바이스는 결제 정보를 사용자에게 제공하고, 사용자의 결제 승인이 완료될 경우, 획득한 스포츠 스타, 가수, 배우, 대회 마스코트, 애니메이션 주인공 등의 특성을 기초로 적어도 하나의 가이드(2410, 2420)를 생성할 수 있다. According to another embodiment, the device may receive payment information for use of a copyright or a portrait right of a sports star, a singer, an actor, a competition mascot, or an animation hero of the corresponding item from a server managing the copyright or the portrait right. The device provides the payment information to the user, and when the user's payment approval is completed, at least one
일 실시예에 따라 생성된 가이드(예를 들어, 2410)는 스포츠 경기를 관람할 수 있는 장소 및 스포츠 경기에 관한 정보를 디바이스의 사용자에게 제공할 수 있다. According to an embodiment, the guide (eg, 2410) generated may provide a user of the device with information about a place and a sporting event to watch a sporting event.
도 25는 일 실시예에 따라 VR(Virtual Reality) 공간을 제공하는 디바이스(100)를 이용한 결제 시스템(이하, 결제 시스템)을 설명하기 위한 도면이다. FIG. 25 is a diagram for describing a payment system (hereinafter, referred to as a payment system) using a
도 25를 참고하면, 일 실시예에 따른 결제 시스템은 디바이스(100), 서비스 제공 서버(2510) 및 결제 서버(2520)를 포함할 수 있다. 다만, 이는 결제 시스템의 일 예일 뿐, 도 25를 통해 본 발명이 한정되는 것은 아니다. 즉, 본 발명의 다양한 실시예들에 따르면, 결제 시스템은 도 25와 다르게 구성될 수도 있다. Referring to FIG. 25, a payment system according to an embodiment may include a
도 25의 결제 시스템의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. Each component of the payment system of FIG. 25 is generally connected via a network.
한편, 디바이스(100)는 VR 공간을 제공하기 위한 영상을 서비스 제공 서버(10)로부터 수신할 수 있다. 일 실시예에 다른 서비스 제공 서버(10)로부터 디바이스(100)에 제공되는 영상에는 상품 및 서비스 중 적어도 하나에 관한 아이템이 포함될 수 있다. 여기에서, 상품에는 스마트 디바이스, 자동차, 가구, 옷 및 운동 기구 등, 재화를 통해 거래될 수 있는 다양한 객체들이 포함될 수 있다. 또한, 서비스에는 스포츠 중계 서비스, 건강 관리 서비스, 게임 서비스 및 커뮤니티 서비스 등이 포함될 수 있다. Meanwhile, the
디바이스(100)는 출력되는 영상에 표시된 적어도 하나의 아이템 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다. 여기에서, 사용자 입력은 제스쳐의 형태일 수 있다. 예를 들어, 디바이스(100)는 사용자가 출력되는 영상을 통해 감지하는 VR 공간에서, 운동 기구 A를 터치하는 제스쳐를 감지할 수 있다. 다만, 이는 일 실시예일 뿐, 사용자 입력은 터치펜, 스마트 폰 등의 입력 수단으로부터 획득되거나, 사용자의 음성을 통해 획득될 수도 있다. The
디바이스(100)는 수신된 사용자 입력을 기초로, 출력되는 영상에 표시된 적어도 하나의 아이템 중 어느 하나를 선택할 수 있다. 또한, 디바이스(100)는 선택된 아이템을 구매하기 위해 필요한 금액의 정보를 표시할 수 있다. 디바이스(100)는 사용자가 선택된 아이템의 구매를 승인하는 경우, 구매 진행 요청을 서비스 제공 서버(10)에 전송할 수 있다. 이에 따라, 서비스 제공 서버(2510)는 디바이스(100)의 사용자가 선택한 결제 수단과 관련된 식별 정보를 디바이스(100)로부터 수신하여, 결제 서버(2520)에 제공할 수 있다. 다른 예에 따라, 서비스 제공 서버(2510)는 디바이스(100)가 결제 서버(2520)로 직접 결제 수단과 관련된 식별 정보를 제공할 수 있도록 디바이스(100)와 결제 서버(2520)를 연결할 수도 있다. The
한편, 결제 서버(2520)에서 디바이스(100)의 식별 정보를 기초로 선택된 아이템에 대한 결제를 진행한 결과, 결제가 완료되면 디바이스(100)에게 직접 결제 완료 정보를 제공하거나, 서비스 제공 서버(2510)를 통해 디바이스(100)에게 결제 완료 정보를 제공할 수 있다. 여기에서, 결제 완료 정보는 상품의 배송 정보, 서비스의 이용 권한 제공 정보 및 비용 지불 정보 등이 포함될 수 있으나, 이는 일 실시예일 뿐 결제 완료 정보가 전술한 예에 한정되는 것은 아니다.Meanwhile, as a result of the payment of the selected item based on the identification information of the
도 26은 일 실시예에 따른 VR 공간을 제공하는 디바이스(100)의 결제 방법을 설명하기 위한 흐름도이다. FIG. 26 is a flowchart illustrating a payment method of a
단계 S2610에서, 디바이스(100)는 디바이스(100)에서 제공되는 VR 공간의 사용자 인터페이스 상에 표시된 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다. 여기에서, 아이템은 VR 공간의 사용자 인터페이스를 통해 제공되는 상품 및 서비스 각각을 나타내는 식별 정보를 포함할 수 있다. 예를 들어, 상품명, 서비스명, 서비스에 대한 썸네일 이미지, 상품의 카탈로그 등이 아이템에 포함될 수 있다. 아이템은 텍스트, 이미지 및 동영상 중 어느 하나의 형태로 표시될 수 있다. In operation S2610, the
디바이스(100)를 착용한 사용자는 적어도 하나에 관한 아이템 중 어느 하나를 선택할 수 있다. 예를 들어, 디바이스(100)를 착용한 사용자는 감지된 VR 영상에서 특정 아이템이 표시된 영역을 터치하거나 음성을 통해 특정 아이템의 명칭을 말함으로써, 특정 아이템을 선택할 수 있다. 다만, 이는 일 실시예일 뿐, 디바이스(100)를 착용한 사용자가 적어도 하나의 아이템 중 어느 하나를 선택하는 방법이 전술한 예에 한정되는 것은 아니다.A user wearing the
단계 S2620에서, 디바이스(100)는 선택된 아이템에 대한 비용을 지불하기 위한 결제 수단이 선택됨에 따라, 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 전송할 수 있다. In operation S2620, as the payment means for paying for the selected item is selected, the
일 실시예에 따른 디바이스(100)는 아이템이 선택됨에 따라, 선택된 아이템을 이용하기 위해 지불해야 하는 비용 정보를 VR 공간의 사용자 인터페이스 상에 표시할 수 있다. 여기에서, 선택된 아이템에 관한 비용 정보는 서비스 제공 서버(2510) 및 결제 서버(2520) 중 어느 하나로부터 수신될 수 있다. As the item is selected, the
또한, 디바이스(100)는 선택됨 아이템에 대한 비용을 지불할 수 있는 복수의 결제 수단 중 어느 하나를 선택할 수 있는 창을 표시할 수 있다. 디바이스(100)의 사용자는 표시된 창을 통해, 복수의 결제 수단 중 어느 하나를 선택할 수 있다. In addition, the
디바이스(100)는 선택된 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 전송할 수 있다. 여기에서, 결제 수단과 관련된 식별 정보는 결제 수단의 이용을 승인하기 위해 사용자가 기 설정한 비밀 번호 등이 포함될 수 있다. 또한, 결제 정보는 아이템에 대응되는 상품 또는 서비스의 종류, 상품을 배송받거나 서비스를 이용하기 위해 필요한 배송 주소 정보 등이 포함될 수 있다. The
한편, 디바이스(100)는 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 서비스 제공 서버(2510)를 통해 결제 서버(2520)에 전송하거나, 결제 서버(2520)에 직접 전송할 수 있다. Meanwhile, the
단계 S2630에서, 디바이스(100)는 선택된 아이템의 결제가 완료되는 경우, 결제 완료 정보를 사용자 인터페이스 상에 표시할 수 있다. In operation S2630, when payment of the selected item is completed, the
일 실시예에 따른 디바이스(100)는 결제 서버(2520)에서, 사용자가 결제 수단에 대해 입력한 식별 정보가 기 저장된 사용자의 식별 정보와 매칭되는 경우, 선택된 아이템의 결제를 진행할 수 있다. 또한, 디바이스(100)는 결제가 완료되는 경우, 결제 서버(2520)로부터 결제 완료 정보를 수신할 수 있다. 여기에서, 결제 완료 정보는 결제 서버(2520)로부터 디바이스(100)로 직접 전송되거나, 결제 서버(2520)로부터 서비스 제공 서버(2510)를 통해 디바이스(100)로 전송될 수 있다. In the
한편, 디바이스(100)는 선택된 아이템의 결제가 완료됨에 따라, 서비스 제공 서버(2510)에서 제공하는 서비스의 이용 권한을 획득하거나, 상품을 획득할 수 있다. 여기에서, 상품은 실제 존재하는 상품 및 VR 공간에서 제공되는 가상의 상품일 수도 있다. 가상의 상품은 상품의 실제 이미지 또는 상품의 그래픽 이미지 중 어느 하나를 포함할 수 있다. Meanwhile, as the payment of the selected item is completed, the
도 27은 일 실시예에 따른 디바이스(100)가 VR 공간의 사용자 인터페이스를 통해 이용 가능한 서비스의 이용권한을 결제하는 방법을 설명하기 위한 도면이다. FIG. 27 is a diagram for describing a method of paying, by the
도 27을 참고하면, 디바이스(100)는 VR 공간을 통해 다양한 종류의 서비스를 사용자에게 제공할 수 있다. 여기에서, 디바이스(100)는 사용자에게 서비스를 제공하기 위해, VR 공간에 적어도 하나의 장소를 구현할 수 있다. Referring to FIG. 27, the
예를 들어, 디바이스(100)가 스포츠 중계 서비스를 사용자에게 제공하는 경우, 디바이스(100)는 VR 공간을 스포츠 경기가 진행되는 경기장으로 변경할 수 있다. 다만, 이는 일 실시예일 뿐, 디바이스(100)는 미술 작품 관람 서비스, 뮤지컬 관람 서비스 등을 사용자에게 제공하기 위해, VR 공간을 미술관, 공연장 등으로 변경할 수 있다. 디바이스(100)는 VR 공간을 서비스가 제공되는 장소로 변경하기 위해, 서비스가 제공되는 장소의 실사 영상 및 그래픽 영상이 결합된 영상을 출력할 수 있다. For example, when the
한편, 사용자는 디바이스(100)가 VR 공간의 사용자 인터페이스 상에 표시하는 적어도 하나의 서비스가 제공되는 장소들 각각에 관한 아이템을 선택함으로써, 적어도 하나의 서비스 중 어느 하나를 선택할 수 있다. 예를 들어, 사용자는 디바이스(100)가 VR 공간의 사용자 인터페이스 상에 표시한 미술 작품 관람 서비스에 대한 아이템(2710), 뮤지컬 관람 서비스에 대한 아이템(2720) 및 스포츠 경기 관람에 대한 아이템(2730) 중 어느 하나를 선택함으로써, 전술한 서비스들 중 어느 하나를 선택할 수 있다. Meanwhile, the user may select one of the at least one service by selecting an item for each of the places where the at least one service displayed on the user interface of the VR space is provided. For example, the user may display an
일 실시예에 따른 디바이스(100)는 선택된 서비스가 제공되는 장소를 구현하기 위해 필요한 정보를 서비스 제공 서버(2510)로부터 수신할 수 있다. 한편, 디바이스(100)가 서비스 제공 서버(2510)로부터 서비스가 제공되는 장소를 구현하기 위해 필요한 정보를 획득하기 위해서는 서비스 제공 서버(2510)가 지정한 비용을 지불해야 할 수 있다. The
이에 따라, 디바이스(100)는 선택된 서비스를 이용하기 위해 지불해야 하는 비용 정보를 사용자 인터페이스 상에 표시할 수 있다. 사용자는 선택된 서비스를 이용하기 위한 비용을 지불하고자 하는 경우, 디바이스(100)를 통해 제공 가능한 복수의 결제 수단 중 어느 하나를 선택할 수 있다. 디바이스(100)는 사용자가 복수의 결제 수단 중 어느 하나를 선택하는 경우, 선택된 결제 수단에 대한 사용자의 식별 정보를 입력할 수 있는 창을 VR 공간 상의 사용자 인터페이스 상에 표시할 수 있다. Accordingly, the
한편, 디바이스(100)는 사용자가 식별 정보를 입력하는 경우, 입력된 식별 정보를 서비스 제공 서버(2510)를 통해 결제 서버(2520)에 전송하거나, 결제 서버(2520)에 직접 전송할 수 있다. 결제 서버(2520)에서 수신된 사용자의 식별 정보가 기 설정된 사용자의 식별 정보와 매칭되는 것이 확인됨에 따라, 선택된 서비스에 대한 결제가 완료될 수 있다. When the user inputs identification information, the
디바이스(100)는 선택된 서비스에 대한 결제가 완료됨에 따라, VR 공간을 선택된 서비스가 제공될 수 있는 장소로 설정할 수 있다. 예를 들어, 디바이스(100)는 사용자가 스포츠 중계 서비스에 대한 비용을 지불한 경우, VR 공간을 스포츠 경기가 진행되는 경기장의 실사 영상 및 그래픽 영상이 조합된 영상을 출력함으로써 구현할 수 있다.As the payment for the selected service is completed, the
도 28은 일 실시예에 따른 디바이스(100)가 VR 공간의 사용자 인터페이스를 통해 구매 가능한 상품을 결제하는 방법을 설명하기 위한 도면이다. FIG. 28 is a diagram for describing a method of paying, by the
일 실시예에 따른 디바이스(100)는 VR 공간을 통해 구매 가능한 적어도 하나의 상품에 관한 아이템을 표시할 수 있다. 예를 들어, 디바이스(100)는 도 3을 통해, 전술한 스포츠 중계 서비스가 VR 공간을 통해 제공되는 경우, 스포츠 중계 서비스가 제공되는 경기장 내에서 기념품관(2800)을 VR 공간 내에 구현할 수 있다. 디바이스(100)의 VR 공간 내에 구현된 기념품관(2800)에는 사용자가 구매 가능한 적어도 하나의 상품에 관한 아이템(예를 들어, 2810)이 표시될 수 있다. 여기에서, 적어도 하나의 상품에 관한 아이템(예를 들어, 2810)은 적어도 하나의 상품의 실사 이미지, 그래픽 이미지 등일 수 있으나 이는 일 예일 뿐, 상품에 관한 아이템이 이에 한정되는 것은 아니다. The
디바이스(100)의 사용자는 표시된 적어도 하나의 상품에 관한 아이템(예를 들어, 2810) 중 어느 하나를 선택할 수 있다. 예를 들어, 디바이스(100)의 사용자는 제 1 상품에 관한 아이템(2810)을 터치하여 선택할 수 있다. The user of the
디바이스(100)는 사용자가 제 1 상품에 관한 아이템(2810)을 선택함에 따라, 이에 대한 정보를 서비스 제공 서버(2510)에 전송할 수 있다. 서비스 제공 서버(2510)는 디바이스(100)의 사용자가 제 1 상품에 관한 아이템(2810)을 선택함에 따라 제 1 상품의 결제 금액, 구매 옵션 및 사용자가 이용할 수 있는 결제 수단에 관한 정보가 포함된 결제 정보를 디바이스(100)에 제공할 수 있다. 여기에서, 구매 옵션은 가상 상품 및 실제 상품 중 어떤 상품에 대한 구매인지 여부를 나타내는 정보이다. As the user selects the
한편, 디바이스(100)는 수신한 결제 정보를 디바이스(100)의 사용자 인터페이스 상에 표시할 수 있다. 디바이스(100)의 사용자는 표시된 결제 정보를 기초로, 상품 구매 여부를 결정할 수 있다. 디바이스(100)의 사용자가 상품을 구매하기로 결정한 경우, 복수의 결제 수단 중 어느 하나를 선택하고, 선택된 결제 수단에 대한 식별 정보를 디바이스(100)에 입력할 수 있다. 또한, 디바이스(100)는 입력된 사용자의 식별 정보를 서비스 제공 서버(2510)를 통해 결제 서버(2520)에 제공하거나, 직접 결제 서버(2520)에 제공할 수 있다. Meanwhile, the
도 29는 일 실시예에 따른 디바이스(100)가 VR 공간 내의 아바타를 이용하여 상품 또는 서비스에 대한 결제를 수행하는 방법을 설명하기 위한 흐름도이다. 29 is a flowchart illustrating a method for the
단계 S2910에서, 디바이스(100)는 사용자의 프로파일을 기초로 제작된 VR 공간 상의 아바타의 속성 정보에 디바이스에서 제공 가능한 적어도 하나의 결제 수단에 대응되는 사용자의 식별 정보를 입력할 수 있다. In operation S2910, the
일 실시예에 따른 디바이스(100)는 VR 공간 내에서, 사용자를 나타내는 아바타를 제공할 수 있다. 여기에서, 아바타는 사용자의 나이, 성별, 직업 등의 프로파일을 기초로 제작될 수 있다. 또한, 아바타는 사용자의 이미지를 기초로 제작될 수도 있다. 예를 들어, 디바이스(100)는 사용자의 프로파일 및 사용자의 이미지를 서비스 제공 서버(10)에 제공하여, 서비스 제공 서버(10)에서 생성된 사용자의 아바타를 수신할 수 있다. 다른 예에 따라, 디바이스(100)는 서비스 제공 서버(10)로부터 제공되는 아바타 생성 애플리케이션을 통해, 사용자의 프로파일 및 사용자의 이미지를 기초로 사용자의 아바타를 생성할 수도 있다. According to an embodiment, the
한편, 일 실시예에 따른 디바이스(100)는 VR 공간 내에서의 결제의 편의를 위해, 아바타의 속성 정보에 상품 또는 서비스의 비용을 지불하기 위한 결제수단의 식별 정보를 입력할 수 있다. 예를 들어, 디바이스(100)는 결제 수단이 xx 페이로 선택된 경우, xx 페이에 대한 사용자의 식별 정보를 아바타의 속성 정보에 입력할 수 있다. Meanwhile, the
단계 S2920에서, 디바이스(100)는 디바이스(100)에서 제공되는 VR 공간의 사용자 인터페이스 상에 표시된 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다.In operation S2920, the
한편, 단계 S2920은 도 26를 참고하여 전술한 단계 S2610과 대응될 수 있다. Meanwhile, step S2920 may correspond to step S2610 described above with reference to FIG. 26.
단계 S2930에서, 디바이스(100)는 상품 및 서비스 중 적어도 하나를 제공하는 제 1 서버에 아바타의 속성 정보 및 아이템의 결제 정보를 전송할 수 있다. In operation S2930, the
여기에서, 제 1 서버는 도 1을 참고하여 전술한 서비스 제공 서버(2510) 또는 결제 서버(2520)일 수 있다. 디바이스(100)는 VR 공간 상에서, 사용자의 프로파일을 기초로 제작된 아바타를 이용하여, 상품 및 서비스 중 적어도 하나에 관한 아이템에 접근할 수 있다. Here, the first server may be the
한편, 단계 S2920에서 전술한 바와 같이, 사용자가 선택한 아이템에 대응되는 상품 또는 서비스를 제공받기 위해서는 그에 대응되는 비용을 지불해야 한다. 일 실시예에 따른 디바이스(100)는 별도의 결제 프로세스를 거치지 않고, 제 1 서버에 아바타의 속성 정보 및 아이템의 결제 정보를 전송함으로써, 결제 프로세스를 대체할 수 있다. 예를 들어, 디바이스(100)로부터 결제 수단의 정보 및 결제 수단에 대한 식별 정보가 포함된 아바타의 속성 정보를 수신한 제 1 서버는 사용자가 결제를 승인한 것으로 결정하여, 선택된 아이템에 대응되는 상품 또는 서비스의 이용 권한을 디바이스(100)에 부여할 수 있다. On the other hand, as described above in step S2920, in order to receive the goods or services corresponding to the item selected by the user has to pay a corresponding cost. The
단계 S2940에서, 디바이스(100)는 선택된 아이템의 결제가 완료되는 경우 결제 완료 정보를 사용자 인터페이스 상에 표시할 수 있다. In operation S2940, when the settlement of the selected item is completed, the
한편, 단계 S2940은 도 26을 참고하여 전술한 단계 S2630과 대응될 수 있다. Meanwhile, step S2940 may correspond to step S2630 described above with reference to FIG. 26.
도 30은 일 실시예에 따른 디바이스(100)가 VR 공간 내의 아바타를 이용하여 상품 또는 서비스에 대한 결제를 수행하는 방법을 설명하기 위한 도면이다. 30 is a diagram for describing a method of performing, by a device, a payment for a product or a service using an avatar in a VR space, according to an exemplary embodiment.
도 30을 참고하면, 디바이스(100)의 사용자의 프로파일을 기초로 생성된 아바타(3010)의 속성 정보에는 사용자의 성별, 나이, 직업, 결제 수단 1의 식별 정보가 포함될 수 있다. Referring to FIG. 30, the attribute information of the
일 실시예에 따른 디바이스(100)는 사용자가 선택한 깃발(3020)과 트로피(3030)에 대한 결제 금액, 수량에 관한 정보와 사용자가 구매를 요청한 것이 깃발(3020) 및 트로피(3030)의 실제 상품인지 가상 상품인지를 나타내는 정보를 포함한 결제 정보를 속성 정보와 함께 제 1 서버에 전송할 수 있다. 제 1 서버는 도 29를 참고하여 전술한 바와 같이 서비스 제공 서버(2510) 또는 결제 서버(2520)일 수 있다. 여기에서, 디바이스(100)가 서비스 제공 서버(2510)에 결제 정보와 속성 정보를 전송한 경우에는, 전송된 결제 정보와 속성 정보가 결제 서버(2520)로 전송될 수 있다. According to an embodiment, the
한편, 디바이스(100)의 결제 정보와 속성 정보가 제 1 서버에 전송됨에 따라, 선택된 깃발(3020) 및 트로피(3030)에 관한 결제 프로세스가 수행될 수 있다. 제 1 서버는 깃발(3020) 및 트로피(3030)에 관한 구매가 사용자로부터 승인된 것으로 판단하고, 깃발(3020) 및 트로피(3030)의 이용 권한을 디바이스(100)에 허용할 수 있다. 본 실시예에서는 디바이스(100)의 사용자가 깃발(3020) 및 트로피(3030)의 가상 상품에 관한 구매를 요청한 것으로 가정한다. Meanwhile, as payment information and attribute information of the
디바이스(100)의 깃발(3020) 및 트로피(3030)에 관한 가상 상품의 결제가 완료됨에 따라, 디바이스(100)가 제공하는 VR 공간 상에 표시되는 아바타에는 구매한 깃발(3020) 및 트로피(3030)의 가상 이미지가 적용될 수 있다. As payment of the virtual goods related to the
도 31은 일 실시예에 따른 서비스 제공 서버(2510)가 디바이스(100)가 요청한 상품 및 서비스 중 적어도 하나를 결제하는 방법을 설명하기 위한 흐름도이다. 31 is a flowchart for describing a method of paying at least one of goods and services requested by the
단계 S3110에서, 서비스 제공 서버(2510)는 디바이스(100)가 제공하는 VR 공간의 사용자 인터페이스 상에 상품 및 서비스 중 적어도 하나에 관한 아이템을 제공할 수 있다. In operation S3110, the
일 실시예에 따른 서비스 제공 서버(2510)는 디바이스(100)에 VR 공간에서 이용할 수 있는 서비스 및 구매할 수 있는 상품에 관한 정보를 나타내는 적어도 하나에 관한 아이템을 전송할 수 있다. 디바이스(100)는 수신된 적어도 하나에 관한 아이템을 VR 공간의 사용자 인터페이스 상에 표시할 수 있다. The
단계 S3120에서, 서비스 제공 서버(2510)는 제공된 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 디바이스(100)로부터 수신할 수 있다. In operation S3120, the
단계 S3130에서, 서비스 제공 서버(2510)는 사용자 입력을 기초로 선택된 아이템에 대응되는 상품 또는 서비스를 이용하기 위해 지불되어야 하는 비용에 관한 정보를 디바이스(100)에 제공할 수 있다.In operation S3130, the
일 실시예에 따른 서비스 제공 서버(2510)에서 제공되는 상품 또는 서비스를 이용하기 위해서는, 상품 또는 서비스에 기 설정된 비용을 지불해야 한다. 이에 따라, 서비스 제공 서버(2510)는 지불되어야 하는 비용에 관한 정보를 디바이스(100)에 전송할 수 있다. In order to use the goods or services provided by the
단계 S3140에서, 서비스 제공 서버(2510)는 디바이스(100)로부터 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 수신할 수 있다. In operation S3140, the
일 실시예에 따른 서비스 제공 서버(2510)는 디바이스(100)로부터 사용자가 선택한 결제 수단의 식별 정보 및 사용자가 이용하고자 하는 상품 또는 서비스의 수량 및 이용 기간 중 적어도 하나에 관한 정보를 포함하는 결제 정보를 수신할 수 있다. According to an embodiment, the
또한, 서비스 제공 서버(2510)는 선택된 상품 또는 서비스의 결제를 진행하는 결제 서버(2520)에 식별 정보 및 결제 정보를 전송할 수 있다. 다만, 이는 일 실시예일 뿐, 서비스 제공 서버(2510)가 결제를 진행할 수 있는 경우에는, 별도의 결제 서버(2520)를 두지 않고, 직접 결제 프로세스를 진행할 수 있다. In addition, the
단계 S3150에서, 서비스 제공 서버(2510)는 상품 또는 서비스에 대한 결제가 완료됨에 따라 디바이스(100)에 상품 또는 서비스에 대한 이용 권한을 승인할 수 있다. In operation S3150, the
일 실시예에 따른 서비스 제공 서버(2510)는 결제 서버(2520)에서 결제가 진행되는 경우에는 결제 서버(2520)로부터 사용자가 선택한 상품 또는 서비스의 결제가 완료되었음을 나타내는 정보를 수신할 수 있다. 이에 따라, 서비스 제공 서버(10)는 사용자에게 상품 또는 서비스에 대한 이용 권한을 승인할 수 있다. The
다만, 이는 일 실시예일 뿐, 서비스 제공 서버(2510)에서 직접 결제 프로세스를 진행하는 경우에는 결제가 완료됨에 따라, 사용자에게 상품 또는 서비스에 대한 이용 권한을 승인할 수 있다. However, this is only an example. When the payment process is directly performed by the
도 32 및 33은 일 실시예에 따라 VR 공간에서 UI를 제공하는 디바이스(100)의 블록도이다. 32 and 33 are block diagrams of a
도 32에 도시된 바와 같이, 일 실시예에 따른 디바이스(100)는, 센싱부(110), 프로세서(120), 출력부(130) 및 통신부(160)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디바이스(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스(100)는 구현될 수 있다.As shown in FIG. 32, the
예를 들어, 도 32에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 센싱부(110), 프로세서(120), 출력부(130) 및 통신부(160) 이외에 A/V 입력부(140), 사용자 입력부(150) 및 메모리(170)를 더 포함할 수도 있다. For example, as shown in FIG. 32, the
한편, 도 32 및 도 33에 도시된 디바이스(100)는 도 1 내지 도 31을 참고하여 전술한 디바이스의 동작을 수행할 수 있다. Meanwhile, the
이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.
센싱부(110)는, 디바이스(100)의 상태, 디바이스(100) 주변의 상태 및 디바이스(100)를 착용한 사용자의 상태 중 적어도 하나를 감지하고, 감지된 정보를 프로세서(120)로 전달할 수 있다. The
일 실시예에 따른 센싱부(110)는 디바이스(100)를 착용한 사용자의 식별 정보를 획득할 수 있다. 또한, 센싱부(110)는 디바이스(100)를 착용한 사용자의 움직임을 추적할 수 있다. According to an embodiment, the
한편, 센싱부(110)는 디바이스(100)를 착용한 사용자의 생체 정보를 기 설정된 주기에 따라 획득할 수 있다. 또한, 센싱부(110)는 VR 공간에서 UI를 표시하고 있는 동안 사용자의 상태 변화를 감지할 수 있다. Meanwhile, the
일 실시예에 따른 센싱부(110)는 디바이스(100)를 착용한 사용자의 입력을 획득할 수 있다. 예를 들어, 센싱부(110)는 사용자의 제스쳐 등을 감지하여, 사용자의 입력을 획득할 수 있다. 다른 예에 따라, 센싱부(110)는 사용자로부터 스포츠 경기에 관한 컨텐트 요청을 수신할 수 있다.According to an embodiment, the
또 다른 예에 따라, 센싱부(110)는 VR 공간의 사용자 인터페이스 상에 표시된 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다. According to another example, the
또한, 센싱부(110)는 디바이스에서 제공 가능한 복수의 결제 수단 중 어느 하나를 선택하는 사용자 입력을 수신할 수 있다. In addition, the
센싱부(110)는, 지자기 센서(Magnetic sensor)(111), 가속도 센서(Acceleration sensor)(112), 온/습도 센서(113), 적외선 센서(114), 자이로스코프 센서(115), 위치 센서(예컨대, GPS)(116), 기압 센서(117), 근접 센서(118), 및 RGB 센서(illuminance sensor)(119) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 다른 예에 따라 센싱부(110)는 사용자의 맥박, 혈압 및 뇌파 등을 측정할 수 있는 생체 신호 감지 센서를 더 포함할 수도 있다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.The
프로세서(120)는, 통상적으로 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는, 메모리(170)에 저장된 프로그램들을 실행함으로써, 센싱부(110), 출력부(130), A/V 입력부(140), 사용자 입력부(150) 및 통신부(160) 등을 전반적으로 제어할 수 있다. The
일 실시예에 따른 프로세서(120)는 센싱부(110)를 통해 획득된 식별 정보를 기초로, VR 공간에서 사용자에 대한 기 설정된 템플릿 UI를 할당할 수 있다. 또한, 프로세서(120)는 사용자로부터 프로파일 정보 및 사용자가 기 설정된 템플릿 UI에 배치하고자 하는 객체에 관한 정보를 사용자 입력부(150)를 통해 획득할 수 있다. 프로세서(120)는 프로파일 정보를 기초로 사용자의 아바타를 생성할 수 있다. 또한, 프로세서(120)는 객체에 관한 정보를 기초로 가상 객체를 생성하여, 템플릿 UI 상에 배치할 수 있다. 프로세서(120)는 아바타 및 가상 객체를 템플릿 UI 상에 배치함으로써, 사용자에 대한 UI를 생성할 수 있다. The
일 실시예에 따른 프로세서(120)는 사용자에게 할당된 UI의 일면에 적어도 하나의 광고가 표시되도록 할당된 UI를 설정할 수 있다. The
일 실시예에 따른 프로세서(120)는 센싱부(110)를 통해 획득된 생체 정보를 기초로, 사용자의 건강 정보를 생성할 수 있다. 프로세서(120)는 생성된 건강 정보를 기초로, 사용자에 대한 의료 정보 및 추천 스포츠 정보 중 적어도 하나를 생성할 수 있다.The
일 실시예에 따른 프로세서(120)는 표시된 검색창을 통해 객체에 대한 검색 요청이 수신됨에 따라, 객체에 관한 정보를 검색할 수 있다. 프로세서(120)는 객체에 관한 정보를 검색하는 동안, 출력부(130)를 통해 VR 공간 상에 적어도 하나의 광고를 표시할 수 있다. 또한, 프로세서(120)는 검색이 완료됨에 따라, 적어도 하나의 광고의 표시를 중단할 수 있다. According to an embodiment, the
일 실시예에 따른 프로세서(120)는 사용자의 프로파일 및 이전에 검색 요청된 적어도 하나의 객체에 관한 히스토리 정보에 기초하여, 복수의 광고들 중 적어도 하나의 광고를 선택할 수 있다. The
일 실시예에 따른 프로세서(120)는 적어도 하나의 광고를 구성하는 이미지를 기 설정된 방향으로 이동시킬 수 있다. 예를 들어, 프로세서(120)는 기 설정된 화각을 갖는 렌즈를 통해 투사되는 이미지가 출력부(130)를 통해 출력되는 속도 및 위치를 변경함으로써, 적어도 하나의 광고를 구성하는 이미지를 기 설정된 방향으로 이동시킬 수 있다. 이미지의 이동 속도는, 객체에 대한 검색의 종료 시간이 가까워질수록 빨라질 수 있다. The
일 실시예에 따른 프로세서(120)는 컨텐트 요청이 수신됨에 따라 스포츠 경기가 진행되는 장소를 결정할 수 있다. 또한, 프로세서(120)는 사용자의 제스쳐에 대응되는 스포츠 경기가 진행되는 장소 내에서의 위치를 결정할 수 있다. According to an embodiment, the
일 실시예에 따른 프로세서(120)는 스포츠 경기에 관한 컨텐트의 제공 이전에 사용자가 시청하는 적어도 하나의 컨텐트의 히스토리 정보를 생성할 수 있다. The
일 실시예에 따른 프로세서(120)는 사용자의 SNS 계정을 통해 연결된 복수의 다른 사용자 중 스포츠 경기에 관한 컨텐트를 이용하는 사용자를 선택할 수 있다. The
일 실시예에 따른 프로세서(120)는 사용자의 프로파일 정보를 기초로 사용자를 나타내는 아바타 이미지를 생성할 수 있다. The
일 실시예에 따른 프로세서(120)는 사용자 입력에 기초하여, 상품 및 서비스 중 적어도 하나에 관한 아이템 중 어느 하나를 선택할 수 있다. 또한, 프로세서(120)는 사용자의 프로파일을 기초로 제작된 VR 공간 상의 아바타 속성 정보에 디바이스(100)에서 제공 가능한 적어도 하나의 결제 수단에 대응되는 사용자의 식별 정보를 입력할 수 있다. The
출력부(130)는, 오디오 신호 또는 영상 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(131)와 음향 출력부(132) 등이 포함될 수 있다. The
디스플레이부(131)는 디바이스(100)에서 처리되는 정보를 표시 출력한다. 예를 들어, 디스플레이부(131)는 프로세서(120)에서 생성된 사용자에 대한 UI를 표시할 수 있다. 또한, 디스플레이부(131)는 탬플릿 UI에 배치 가능한 객체의 적어도 하나의 카테고리를 표시하고, 사용자가 적어도 하나의 카테고리 중 어느 하나를 선택함에 따라, 선택된 카테고리에 포함된 복수의 객체를 표시할 수 있다. The
또한, 디스플레이부(131)는 객체에 관한 정보가 수신됨에 따라, 객체의 구매에 필요한 결제 정보를 표시할 수 있다. In addition, as the information about the object is received, the
디스플레이부(131)는 객체에 관한 정보 검색 중, 사용자로부터 표시된 적어도 하나의 광고를 선택하는 선택 입력이 수신되는 경우, 선택된 광고의 제품에 관한 정보를 VR 공간 상에 표시할 수 있다. The
또한, 디스플레이부(131)는 객체에 대한 검색이 완료된 경우, 검색 결과와 선택된 광고의 제품에 관한 정보를 함께 VR 공간 상에 표시할 수 있다. In addition, when the search for the object is completed, the
일 실시예에 따른 디스플레이부(131)는 사용자의 제스쳐에 따라, 스포츠 경기가 진행되는 장소에서의 특정 위치에 관한 실사 이미지 및 가상 이미지를 표시할 수 있다. The
또한, 디스플레이부(131)는 특정 위치에서의 제 1 시점에서 촬영된 이미지에 제 1 시점과 다른 시점에 촬영된 적어도 하나의 이미지를 조합하여 표시할 수 있다. In addition, the
일 실시예에 따른 디스플레이부(131)는 객체의 구매가 완료되는 경우, 객체의 가상 이미지를 VR 공간 상에 표시할 수 있다. When the purchase of the object is completed, the
일 실시예에 따른 디스플레이부(131)는 스포츠 경기에 관한 컨텐트의 제공 이전에 사용자가 시청한 적어도 하나의 컨텐트 중 어느 하나가 선택되는 경우, 선택된 컨텐트의 히스토리 정보를 VR 공간 상에 표시할 수 있다. 또한, 디스플레이부(131)는 표시된 히스토리 정보에 포함된 위치를 사용자가 선택하는 경우, 선택된 위치에 관한 실사 이미지 및 가상 이미지를 VR 공간 상에 표시할 수 있다. According to an exemplary embodiment, when any one of at least one content watched by a user is selected before provision of content related to a sporting event, the
일 실시예에 따른 디스플레이부(131)는 선택된 사용자의 디바이스에 전송된 초대 메시지에 대한 수락 메시지가 수신됨에 따라, VR 공간 상에 다른 사용자를 나타내는 가상 이미지를 표시할 수 있다. 다른 예에 따라, 디스플레이부(131)는 스포츠 경기가 수행되는 장소의 실사 이미지 및 가상 이미지와 함께 사용자의 아바타 이미지를 조합하여 VR 공간 상에 표시할 수 있다. The
다른 실시예에 따라, 디스플레이부(131)는 선택된 아이템의 결제가 완료되는 경우, 결제 완료 정보를 사용자 인터페이스 상에 표시할 수 있다. 디스플레이부(131)는 복수의 장소 중 사용자의 요청을 기초로 선택된 타겟 장소에 접근하기 위해 필요한 비용에 관한 결제 정보를 표시할 수 있다. 또한, 디스플레이부(131)는 타겟 공간의 접근에 필요한 비용의 결제가 완료되는 경우 타겟 공간에 사용자의 프로파일을 기초로 생성된 아바타를 표시할 수 있다. According to another embodiment, when the payment of the selected item is completed, the
디스플레이부(131)는 결제가 완료됨에 따라, 선택된 아이템과 관련된 가상 이미지를 VR 공간의 사용자 인터페이스 상에 표시할 수 있다. As the payment is completed, the
한편, 디스플레이부(131)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(131)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. Meanwhile, when the
음향 출력부(132)는 통신부(160)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(132)는 디바이스(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(132)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The
A/V(Audio/Video) 입력부(140)는 오디오 신호 또는 영상 신호 입력을 위한 것으로, 이에는 카메라(미도시)와 마이크로폰(미도시) 등이 포함될 수 있다. 카메라는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 프로세서(120) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A /
카메라에서 처리된 화상 프레임은 메모리(170)에 저장되거나 통신부(160)를 통하여 외부로 전송될 수 있다. 카메라는 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera may be stored in the
마이크로폰은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. The microphone receives an external sound signal and processes it into electrical voice data.
한편, 일 실시예에 따른 디바이스(100)는 렌즈(미도시)를 더 포함할 수도 있다. 디바이스(100)의 사용자는 렌즈를 통해 디스플레이부(931)에서 출력되는 영상을 감지할 수 있다. Meanwhile, the
사용자 입력부(150)는, 사용자가 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. The
사용자 입력부(150)는, 사용자 입력을 수신할 수 있다. 또한, 사용자 입력부(150)는 UI 모듈(171)과 연동되어, 복수의 센서들 각각의 감지 영역 상에 표시되는 아이템들 중 적어도 하나를 선택하는 사용자 입력을 수신할 수도 있다. 다만, 이는 일 실시예일 뿐, 사용자 입력부(150)에서 수신하는 사용자 입력의 종류가 전술한 예에 한정되는 것은 아니다. The
통신부(160)는, 디바이스(100)와 외부 디바이스(예를 들어, HMD) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(160)는, 근거리 통신부(161), 이동 통신부(162), 방송 수신부(163)를 포함할 수 있다. The
이동 통신부(162)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The
방송 수신부(163)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(100)가 방송 수신부(163)를 포함하지 않을 수도 있다.The
메모리(170)는, 프로세서(120)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The
메모리(170)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(171) 및 터치 스크린 모듈(172) 등으로 분류될 수 있다. Programs stored in the
UI 모듈(171)은, 애플리케이션 별로 디바이스(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(172)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 프로세서(120)로 전달할 수 있다. The
도 34는 일 실시예에 따른 서비스 제공 서버(3400)의 블록도이다. 34 is a block diagram of a
도 34에 도시된 바와 같이, 일 실시예에 따른 서비스 제공 서버(3400)는, 통신부(3410), 프로세서(3420) 및 메모리(3430)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 서비스 제공 서버(3400)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 서비스 제공 서버(3400)는 구현될 수 있다.As illustrated in FIG. 34, the
한편, 서비스 제공 서버(3400)는 도 25 내지 도 31을 참고하여 전술한 동작들을 수행할 수 있다. The
통신부(3410)는 디바이스(100)가 제공하는 VR 공간의 사용자 인터페이스 상에 상품 및 서비스 중 적어도 하나에 관한 아이템을 제공할 수 있다. 또한, 통신부(3410)는 디바이스(100)에 VR 공간에서 이용할 수 있는 서비스 및 구매할 수 있는 상품에 관한 정보를 나타내는 적어도 하나에 관한 아이템을 전송할 수 있다. The
통신부(3410)는 제공된 적어도 하나에 관한 아이템 중 어느 하나를 선택하는 사용자 입력을 디바이스(100)로부터 수신할 수 있다. 또한, 통신부(3410)는 사용자 입력을 기초로 선택된 아이템에 대응되는 상품 또는 서비스를 이용하기 위해 지불되어야 하는 비용에 관한 정보를 디바이스(100)에 제공할 수 있다.The
통신부(3410)는 디바이스(100)로부터 결제 수단과 관련된 식별 정보 및 아이템의 결제 정보를 수신할 수 있다. 또한, 통신부(3410)는 선택된 상품 또는 서비스의 결제를 진행하는 결제 서버(2520)에 식별 정보 및 결제 정보를 전송할 수 있다. 다만, 이는 일 실시예일 뿐, 프로세서(3420)가 결제를 진행할 수 있는 경우에는, 별도의 결제 서버(2520)를 두지 않고, 직접 결제 프로세스를 진행할 수 있다. The
프로세서(3420)는, 통상적으로 서비스 제공 서버(3400)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(3420)는, 메모리(34230)에 저장된 프로그램들을 실행함으로써, 서비스 제공 서버(3400)의 VR 공간을 통해 제공하는 서비스 또는 상품 등의 결제에 관한 프로세스 등을 전반적으로 제어할 수 있다. The
프로세서(3420)는 상품 또는 서비스에 대한 결제가 완료됨에 따라 디바이스(100)에 상품 또는 서비스에 대한 이용 권한을 승인할 수 있다. The
메모리(3430)는, 프로세서(3420)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The
일 실시예에 따른 메모리(3430)는 VR 공간 상의 사용자 인터페이스를 통해 제공하기 위한 서비스 및 상품 중 적어도 하나에 관한 정보를 저장할 수 있다. 예를 들어, 메모리(3430)는 서비스 및 상품 중 적어도 하나의 아이템에 관한 정보를 저장할 수 있다. The
또한, 메모리(3430)는 디바이스(100)의 사용자의 식별 정보 및 결제 정보 등을 저장할 수 있다. In addition, the
본 발명에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. The device according to the invention comprises a processor, a memory for storing and executing program data, a permanent storage such as a disk drive, a communication port for communicating with an external device, a user interface such as a touch panel, a key, a button and the like. Device and the like. Methods implemented by software modules or algorithms may be stored on a computer readable recording medium as computer readable codes or program instructions executable on the processor. The computer-readable recording medium may be a magnetic storage medium (eg, read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and an optical reading medium (eg, CD-ROM). ) And DVD (Digital Versatile Disc). The computer readable recording medium can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. The medium is readable by the computer, stored in the memory, and can be executed by the processor.
Claims (15)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2016-0050121 | 2016-04-25 | ||
| KR20160050121 | 2016-04-25 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2017188696A1 true WO2017188696A1 (en) | 2017-11-02 |
Family
ID=60159900
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2017/004365 Ceased WO2017188696A1 (en) | 2016-04-25 | 2017-04-25 | Method, device, and recording medium for providing user interface in vr space |
Country Status (2)
| Country | Link |
|---|---|
| KR (4) | KR101894022B1 (en) |
| WO (1) | WO2017188696A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108227927A (en) * | 2018-01-09 | 2018-06-29 | 北京小米移动软件有限公司 | Product introduction method, apparatus and electronic equipment based on VR |
| WO2024225745A1 (en) * | 2023-04-26 | 2024-10-31 | Samsung Electronics Co., Ltd. | Metaverse services with network slicing |
Families Citing this family (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102067493B1 (en) * | 2018-01-02 | 2020-01-17 | 주식회사 한글과컴퓨터 | Hmd device for displaying vr based presentation document and operating method thereof |
| KR20190104753A (en) * | 2018-03-02 | 2019-09-11 | 주식회사 브이알이지이노베이션 | Method and Apparatus for providing virtual reality cinema service |
| KR102084970B1 (en) * | 2018-05-02 | 2020-03-05 | (주)포트러시 | Virtual reality viewing method and virtual reality viewing system |
| KR102346681B1 (en) * | 2019-01-10 | 2022-01-03 | 제이에스씨(주) | System for health care service for realistic experience based on virtual reality and augmented reality |
| KR102389335B1 (en) * | 2019-04-01 | 2022-04-20 | 주식회사 케이티 | Apparatus and method for displaying videoes of a plurality of broadcast channels |
| KR102298101B1 (en) * | 2019-07-31 | 2021-09-02 | 박준영 | System of Selling Products for Adult and Driving Method Thereof |
| KR102272503B1 (en) * | 2020-09-18 | 2021-07-02 | 주식회사 메이크잇 | Method and system for trading financial product through head mounted display device |
| KR102272841B1 (en) * | 2020-11-27 | 2021-07-06 | 주식회사 비욘드테크 | System for providing broadcast video and billing settlement for providing 360-degree broadcast video content service and method thereof |
| JP7689332B2 (en) * | 2021-02-26 | 2025-06-06 | パナソニックIpマネジメント株式会社 | Bill settlement device, bill settlement system, and bill settlement method |
| TWI802909B (en) * | 2021-06-15 | 2023-05-21 | 兆豐國際商業銀行股份有限公司 | Financial transaction system and operation method thereof |
| KR102671635B1 (en) * | 2021-09-15 | 2024-06-05 | 사회복지법인 삼성생명공익재단 | Method, Computer Program And System For Biofeedback Using Video Content |
| KR102627728B1 (en) * | 2021-11-02 | 2024-01-23 | 주식회사 엘지유플러스 | Metaverse personalized content creation and authentication method and apparutus and system therefor |
| KR102859130B1 (en) * | 2022-02-11 | 2025-09-17 | 박혜진 | Jump map based virtual map tour system |
| KR102654350B1 (en) * | 2023-04-28 | 2024-04-03 | 주식회사 젭 | Method and system for controlling access to specific area in metaverse space based on blockchain-recorded data |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140035861A (en) * | 2013-11-06 | 2014-03-24 | 엘지전자 주식회사 | An apparatus and method of providing user interface on head mounted display and a head mounted display thereof |
| KR20140065180A (en) * | 2012-11-21 | 2014-05-29 | 한국전자통신연구원 | Apparatus and method for providing user experiential contents based on real time broadcast contents |
| KR20150106772A (en) * | 2014-03-12 | 2015-09-22 | 삼성전자주식회사 | System and method for displaying vertual image via head mounted device |
| KR20160002681A (en) * | 2013-01-16 | 2016-01-08 | 인썸(인스티튜트 내셔날 드 라 싼테 에 드 라 리셰르셰메디칼르) | A soluble fibroblast growth factor receptor 3 (fgr3) polypeptide for use in the prevention or treatment of skeletal growth retardation disorders |
| US20160026253A1 (en) * | 2014-03-11 | 2016-01-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
Family Cites Families (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20020074349A (en) * | 2001-03-20 | 2002-09-30 | 엘지전자주식회사 | service system for making of homepage and operation method of this system |
| KR20020076973A (en) * | 2001-03-31 | 2002-10-11 | 데이타박스(주) | A cookig and food analizing system for using a fuzzy-neural networe and a method thereof |
| KR100408989B1 (en) * | 2002-10-08 | 2003-12-11 | Robopia Co Ltd | Running machine and operating system and method thereof |
| KR20060134290A (en) * | 2005-06-22 | 2006-12-28 | 원용진 | Invocation Method of Web-based Information Retrieval Means and Initiation System of Web-based Information Retrieval Means |
| KR100953826B1 (en) * | 2007-08-14 | 2010-04-20 | 광주과학기술원 | Portable terminal having user health management function and user health management method using same |
| KR100952394B1 (en) * | 2007-12-26 | 2010-04-14 | 에스케이커뮤니케이션즈 주식회사 | Space Management Method for Virtual Reality Service |
| JP2011039860A (en) * | 2009-08-13 | 2011-02-24 | Nomura Research Institute Ltd | Conversation system, conversation method, and computer program using virtual space |
| KR20110131680A (en) * | 2010-05-31 | 2011-12-07 | 영남이공대학 산학협력단 | Virtual Internet Shopping Mall Service System Using 3D Virtual Reality Technology |
| KR101505060B1 (en) * | 2010-08-24 | 2015-03-26 | 한국전자통신연구원 | System and method for providing virtual reality linking service |
| KR20120075565A (en) * | 2010-12-15 | 2012-07-09 | 고스트리트(주) | Mobile sports guide system and method using augmented reality |
| KR20140135276A (en) * | 2013-05-07 | 2014-11-26 | (주)위메이드엔터테인먼트 | Method and Apparatus for processing a gesture input on a game screen |
| JP2015177403A (en) * | 2014-03-17 | 2015-10-05 | セイコーエプソン株式会社 | Head-mounted display device and method of controlling head-mounted display device |
| KR101569465B1 (en) * | 2013-07-05 | 2015-11-17 | 서용창 | Method for transmitting a message, method for selling a message box and computer readable recording medium storing program for the same |
| KR101517436B1 (en) * | 2013-08-30 | 2015-05-06 | 주식회사 지스푼 | Method and system for providing augmented reality |
-
2017
- 2017-04-25 KR KR1020170053232A patent/KR101894022B1/en not_active Expired - Fee Related
- 2017-04-25 WO PCT/KR2017/004365 patent/WO2017188696A1/en not_active Ceased
- 2017-04-25 KR KR1020170053231A patent/KR101894021B1/en not_active Expired - Fee Related
- 2017-04-25 KR KR1020170053230A patent/KR20170121719A/en not_active Ceased
- 2017-04-25 KR KR1020170053229A patent/KR101981774B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20140065180A (en) * | 2012-11-21 | 2014-05-29 | 한국전자통신연구원 | Apparatus and method for providing user experiential contents based on real time broadcast contents |
| KR20160002681A (en) * | 2013-01-16 | 2016-01-08 | 인썸(인스티튜트 내셔날 드 라 싼테 에 드 라 리셰르셰메디칼르) | A soluble fibroblast growth factor receptor 3 (fgr3) polypeptide for use in the prevention or treatment of skeletal growth retardation disorders |
| KR20140035861A (en) * | 2013-11-06 | 2014-03-24 | 엘지전자 주식회사 | An apparatus and method of providing user interface on head mounted display and a head mounted display thereof |
| US20160026253A1 (en) * | 2014-03-11 | 2016-01-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| KR20150106772A (en) * | 2014-03-12 | 2015-09-22 | 삼성전자주식회사 | System and method for displaying vertual image via head mounted device |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108227927A (en) * | 2018-01-09 | 2018-06-29 | 北京小米移动软件有限公司 | Product introduction method, apparatus and electronic equipment based on VR |
| CN108227927B (en) * | 2018-01-09 | 2021-07-23 | 北京小米移动软件有限公司 | VR-based product display method, device and electronic equipment |
| WO2024225745A1 (en) * | 2023-04-26 | 2024-10-31 | Samsung Electronics Co., Ltd. | Metaverse services with network slicing |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20170121719A (en) | 2017-11-02 |
| KR20170121720A (en) | 2017-11-02 |
| KR101981774B1 (en) | 2019-05-27 |
| KR20170121718A (en) | 2017-11-02 |
| KR20170121721A (en) | 2017-11-02 |
| KR101894022B1 (en) | 2018-08-31 |
| KR101894021B1 (en) | 2018-08-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2017188696A1 (en) | Method, device, and recording medium for providing user interface in vr space | |
| WO2016048102A1 (en) | Image display method performed by device including switchable mirror and the device | |
| WO2017111234A1 (en) | Method for electronic device to control object and electronic device | |
| WO2015137743A1 (en) | Content management method and cloud server therefor | |
| WO2014017759A1 (en) | Method and mobile terminal for displaying information, method and display device for providing information, and method and mobile terminal for generating control signal | |
| WO2014119884A1 (en) | Method and system for displaying object, and method and system for providing the object | |
| WO2016108660A1 (en) | Method and device for controlling home device | |
| WO2015016622A1 (en) | Method and electronic device for sharing image card | |
| WO2017069324A1 (en) | Mobile terminal and control method therefor | |
| WO2016195160A1 (en) | Mobile terminal | |
| WO2016089079A1 (en) | Device and method for outputting response | |
| WO2015160039A1 (en) | Method for operating image display device | |
| WO2016208845A1 (en) | Mobile terminal and method for controlling same | |
| WO2018074872A1 (en) | Electronic device and computer-readable recording medium for displaying images | |
| WO2016032113A1 (en) | Mobile terminal and method for controlling the same | |
| EP3132397A1 (en) | System for providing life log service and method of providing the service | |
| WO2022191542A1 (en) | Home training service providing method and display device performing same | |
| WO2017018602A1 (en) | Mobile terminal and method for controlling same | |
| WO2018074768A1 (en) | Image display method and electronic device therefor | |
| WO2015142136A1 (en) | Method for collecting multimedia information and device therefor | |
| WO2017164656A2 (en) | Display device and operating method thereof | |
| WO2019039632A1 (en) | Method and device for connecting user terminals as group and providing service including contents related to group | |
| AU2014213221B2 (en) | Method and system for displaying object, and method and system for providing the object | |
| WO2022225354A1 (en) | Electronic device for sharing information and operation method thereof | |
| WO2017018561A1 (en) | Exhibition space control system and exhibition space control method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17789880 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17789880 Country of ref document: EP Kind code of ref document: A1 |