[go: up one dir, main page]

WO2019224866A1 - 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 - Google Patents

表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 Download PDF

Info

Publication number
WO2019224866A1
WO2019224866A1 PCT/JP2018/019457 JP2018019457W WO2019224866A1 WO 2019224866 A1 WO2019224866 A1 WO 2019224866A1 JP 2018019457 W JP2018019457 W JP 2018019457W WO 2019224866 A1 WO2019224866 A1 WO 2019224866A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
sight
line
threshold time
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/019457
Other languages
English (en)
French (fr)
Inventor
将史 牟田
啓吾 松本
ケルビン カ シン チェング
宗 益子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Priority to JP2019524285A priority Critical patent/JP6581748B1/ja
Priority to US16/483,305 priority patent/US11334151B2/en
Priority to PCT/JP2018/019457 priority patent/WO2019224866A1/ja
Publication of WO2019224866A1 publication Critical patent/WO2019224866A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation

Definitions

  • the present invention relates to a display device, a display method, a program, and a non-transitory computer-readable information recording medium.
  • Non-Patent Document 1 As a method of selecting a target displayed on a head-mounted display, when a user's gaze direction is detected from the direction of the user's head and the target in the gaze direction exists for a predetermined time, that is, There is a technique for selecting a target when the target is stared (Non-Patent Document 1). However, when the target or the user is moving, it is difficult to select the target using this technique because the user needs to move his head according to the movement of the target and keep looking at the target for a predetermined time. . On the other hand, as a method for selecting a moving target on a 2D display, there is a technique in which a user temporarily stops a target by clicking a mouse button (Non-Patent Document 2).
  • MAJARANTA P., AHOLA U.-K., SPAKOV O . Fast gaze typing with an adjustable dwell time.
  • A360 pp.357 AL HAJRI A., FELS S., MILLER G., ILICH M .: Moving target selection in 2d graphical user interfaces.
  • Patent Document 2 the user stays, but when the user wears a head-mounted display in an augmented reality system, the user may be moving. Therefore, a technique for efficiently selecting a target when both the user and the target are moving is desired.
  • the object on the user's line of sight is selected from among a plurality of objects moving on the display as an object on which the user is paying attention, the object on the user's line of sight is intentionally selected by the user. It is necessary to distinguish whether the object is a focused object or an object that has accidentally passed on the user's line of sight.
  • the present invention is to solve the above-described problem, and appropriately determines whether an object on the user's line of sight is an object that the user is intentionally paying attention to or an object that has accidentally passed the line of sight. It is an object to provide a display device, a display method, a program, and a non-transitory computer-readable information recording medium that can be determined.
  • a display device provides: An estimator for estimating whether the object is on the user's line of sight; When it is estimated that the first object is continuously on the user's line of sight for the first threshold time set for the user, the second object representing the information related to the first object is A display for displaying in the user's field of view; If it is estimated that the second object is not on the line of sight of the user for a second threshold time set for the user, the second object is deleted from the view of the user.
  • An erasing section to be A correction unit that corrects the first threshold time set for the user according to a viewing time length estimated that the second object is on the line of sight of the user; It is characterized by providing.
  • the correction unit may correct the first threshold time longer as the browsing time length is shorter.
  • the correction unit may correct the first threshold time based on the browsing time length distribution.
  • the display unit It is estimated that the first object is on the line of sight of the user for a third threshold time set for the user, continuing for a third threshold time shorter than the first threshold time. Then, the third object associated with the first object is deleted from the view of the user, and the second object is displayed in the view of the user. When it is estimated that the third object is continuously on the user's line of sight for the first threshold time or longer, the third object is deleted from the user's field of view, and the second object is Display in the user's field of view; If it is estimated that the third object is not on the line of sight of the user for the first threshold time or longer, the third object may be deleted from the user's field of view.
  • the display unit may display the third object so as to appear at the same position as the first object.
  • the display unit may display the third object so that the position in the space where the first object is arranged is maintained as it is after the appearance of the third object.
  • the display unit moves after the appearance of the third object so as to follow the trajectory of the movement of the first object, and displays the third object so that the moving speed of the third object gradually decreases. May be.
  • the display unit After the appearance of the third object, the display unit follows the first object until the first object comes out of the user's field of view, and when the first object comes out of the user's field of view, the user The third object may be displayed so as to remain at the edge in the field of view.
  • the third threshold time may be calculated based on the first threshold time.
  • the correction unit displays the second object after the second object is displayed due to the third object being estimated to be on the line of sight of the user for the first threshold time or longer.
  • the third threshold time set for the user may be modified in accordance with the viewing time length estimated that two objects are on the line of sight of the user.
  • the correction unit may correct the third threshold time longer as the browsing time length is shorter.
  • the correction unit may correct the third threshold time based on the browsing time length distribution.
  • the display method is: A display method executed by a display device, An estimation step for estimating whether the object is on the user's line of sight; When it is estimated that the first object is continuously on the user's line of sight for the first threshold time set for the user, the second object representing the information related to the first object is A display step for displaying in the user's field of view; If it is estimated that the second object is not on the line of sight of the user for a second threshold time set for the user, the second object is deleted from the view of the user. An erasing step to A correction step of correcting the first threshold time set for the user according to a browsing time length estimated that the second object is on the line of sight of the user; It is characterized by providing.
  • the program according to the third aspect of the present invention is: Computer An estimator for estimating whether the object is on the user's line of sight; When it is estimated that the first object is continuously on the user's line of sight for the first threshold time set for the user, the second object representing the information related to the first object is A display for displaying in the user's field of view; If it is estimated that the second object is not on the line of sight of the user for a second threshold time set for the user, the second object is deleted from the view of the user.
  • a non-transitory computer-readable information recording medium is provided.
  • the above information recording medium can be distributed and sold independently of the computer.
  • the non-transitory information recording medium refers to a tangible information recording medium.
  • Non-temporary information recording media are, for example, compact disks, flexible disks, hard disks, magnetic disks, digital video disks, magnetic tapes, and semiconductor memories.
  • the transitory information recording medium refers to the transmission medium (propagation signal) itself.
  • the temporary recording medium is, for example, an electric signal, an optical signal, or an electromagnetic wave.
  • the temporary storage area is an area for temporarily storing data and programs, and is a volatile memory such as RAM (Random Access Memory), for example.
  • an object on the user's line of sight is an object that the user is intentionally paying attention to or an object that has accidentally passed the line of sight.
  • FIG. 2 is a schematic block diagram illustrating a hardware configuration of the display device according to the first embodiment.
  • FIG. It is a bird's-eye view which shows the mode which the user with which the display apparatus was mounted
  • It is a top view which shows the mode which the user with which the display apparatus was mounted
  • 2 is a schematic block diagram illustrating a functional configuration of a display device according to Embodiment 1.
  • FIG. 4 is a flowchart illustrating a flow of display processing executed by a control unit of the display device according to the first embodiment.
  • 6 is a flowchart illustrating a flow of second object display processing executed by the control unit of the display device according to the first embodiment.
  • FIG. 6 is a flowchart illustrating a flow of a second object erasing process executed by the control unit of the display device according to the first embodiment.
  • 6 is a schematic block diagram illustrating a functional configuration of a display device according to Embodiment 2.
  • FIG. It is a figure which shows the example of a display when a 3rd object appears. It is a figure which shows the example of a display when a 1st object moves after a 3rd object appears. It is a figure which shows the example of a display of a 2nd object.
  • 10 is a flowchart illustrating a flow of display processing executed by a control unit of the display device according to the second embodiment.
  • 10 is a flowchart showing a flow of third object display processing executed by the control unit of the display device according to the second embodiment.
  • 10 is a flowchart showing a flow of second object display processing executed by the control unit of the display device according to the second embodiment.
  • 10 is a flowchart illustrating a flow of third object erasing processing executed by the control unit of the display device according to the second embodiment. It is a figure for demonstrating the example which corrects 1st threshold time according to browsing time length. It is a figure for demonstrating the example which corrects 1st threshold time according to browsing time length. It is a figure for demonstrating the example which corrects 1st threshold time according to browsing time length. It is a figure for demonstrating the example which corrects 1st threshold time according to browsing time length.
  • FIG. 1 is a schematic block diagram illustrating a hardware configuration of the display device 100 according to the present embodiment.
  • the display device 100 is configured by, for example, a head mounted display including various sensors and a control device.
  • a head mounted display may be constructed by attaching a portable computer such as a smartphone, a tablet computer, or a fablet to the attachment.
  • the display device 100 is realized by causing the portable computer to execute a program for causing the portable computer to function as each unit described above.
  • the display device 100 includes a control unit 101, a ROM (Read Only Memory) 102, a RAM 103, a display 104, a sensor unit 105, an imaging unit 106, and an operation unit 107. These units are connected by a bus 108.
  • ROM Read Only Memory
  • the control unit 101 includes, for example, a CPU (Central Processing Unit) and controls the entire display device 100.
  • a CPU Central Processing Unit
  • the ROM 102 is a non-volatile memory that stores programs and various data for the control unit 101 to control the entire display device 100.
  • the RAM 103 is a volatile memory for temporarily storing information generated by the control unit 101 and data necessary for generating the information.
  • the display 104 includes an LCD (Liquid Crystal Display), a backlight, and the like, and displays an image output from the control unit 101 under the control of the control unit 101, for example.
  • LCD Liquid Crystal Display
  • the sensor unit 105 includes an attitude sensor and an acceleration sensor, and detects the orientation of the display device 100.
  • the imaging unit 106 includes an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide-semiconductor (CMOS), and photographs the state in front of the display device 100, that is, in the direction of the user's line of sight.
  • CCD charge coupled device
  • CMOS complementary metal-oxide-semiconductor
  • the operation unit 107 includes input devices such as buttons, a keyboard, and a touch panel.
  • the operation unit 107 receives an operation input from the user of the display device 100 and outputs a signal corresponding to the received operation input to the control unit 101.
  • the display device 100 is a head-mounted display configured so that the user can view the image displayed on the display 104 and the real space at the same time.
  • a configuration can be realized, for example, by adopting a transmissive display as the display 104.
  • the display 104 may be realized by image projection onto a permeable membrane or image projection onto a user's retina.
  • the display device 100 may include an opaque liquid crystal as the display 104, and may combine the real space image captured by the imaging unit 106 with the object image in the virtual space and display the resultant on the opaque liquid crystal.
  • FIG. 2A is an overhead view showing a state of the user 202 wearing the display device 100 in the real space 201 and the first objects 300a to 300c.
  • FIG. 2B is a top view showing the state of the user 202 wearing the display device 100 in the real space 201 and the first objects 300a to 300c.
  • the user 202 wears the display device 100 in front of the eyes.
  • the display direction 203 of the display device 100 is opposite to the line-of-sight direction 204 when the user 202 looks at the display device 100.
  • FIGS. 2A and 2B there are a plurality of observation subjects 301a to 301c that are stationary or moving in the real space 201.
  • the observation subjects 301a to 301c wear the first objects 300a to 300c, respectively.
  • the first objects 300a to 300c are AR markers including a predetermined pattern image associated with the observation subjects 301a to 301c.
  • the pattern images of the first objects 300a to 300c are stored in advance in the ROM 102, for example.
  • the user 202 displays information related to the observed observation subject on the display 104 as described later by paying attention to the first objects 300a to 300c of the interested observation subject among the observation subjects 301a to 301c. Can be made.
  • FIG. 3 is a schematic block diagram showing a functional configuration of the display device 100 according to the embodiment of the present invention.
  • the display device 100 includes an estimation unit 111, a display unit 112, an erasing unit 113, a correction unit 114, and a display 104.
  • the estimation unit 111 estimates whether or not the object is on the line of sight of the user 202. In the present embodiment, the estimation unit 111 estimates whether or not the first objects 300a to 300c and the second object 500 described later are on the line of sight of the user 202.
  • the estimation unit 111 estimates whether or not the first objects 300a to 300c are on the line of sight of the user 202.
  • the estimating unit 111 captures the line-of-sight direction 204 of the user 202 by the image capturing unit 106 and specifies a predetermined range of the captured image as a region of interest.
  • a predetermined range from the center is specified as the attention area with the center in the captured image as the line-of-sight direction.
  • the estimation unit 111 estimates that the first objects 300a to 300c are on the line of sight of the user 202 when the first objects 300a to 300c exist in the attention area in the captured image.
  • the estimation unit 111 identifies a predetermined range from the center as the attention area 401 in the captured image 400. Then, the estimation unit 111 compares the image in the attention area 401 with the pattern images of the first objects 300a to 300c stored in advance, and the first objects 300a to 300c are present in the attention area 401 by image recognition. It is determined whether or not. If the estimation unit 111 determines that there is a pattern image of the first object 300 b in the attention area 401 as illustrated in FIG. 4, the estimation unit 111 estimates that the first object 300 b is on the line of sight of the user 202.
  • the estimation unit 111 estimates whether or not the second object 500 is on the line of sight of the user 202 .
  • the estimation unit 111 identifies a predetermined range of the display 104 as a region of interest.
  • As the attention area for example, a predetermined area from the center of the display 104 is specified as the attention area. Then, the estimation unit 111 determines whether or not the second object 500 is displayed in the attention area of the display 104. If it is determined that the second object 500 is displayed in the attention area, it is estimated that the second object 500 is on the line of sight of the user 202.
  • the estimation unit 111 identifies a predetermined range from the center of the display 104 as the attention area 601. If the estimation unit 111 determines that the second object 500 is displayed in the attention area 601, the estimation unit 111 estimates that the second object 500 is on the line of sight of the user 202. The estimation unit 111 determines whether the position of the representative point (for example, the center point or the center of gravity) of the second object 500 is displayed in the attention area 601 as the position of the second object 500.
  • the representative point for example, the center point or the center of gravity
  • control unit 101 and the imaging unit 106 cooperate to function as the estimation unit 111.
  • the display unit 112 displays the first objects 300a to 300c on the first object 300a to 300c.
  • a second object 500 representing such information is displayed within the field of view of the user 202.
  • the first threshold time is a threshold time for estimating whether or not the user 202 is paying attention to the first objects 300a to 300c.
  • the first threshold time is set for each user and stored in the RAM 103, for example.
  • the second object 500 is an object representing information related to the first objects 300a to 300c.
  • the second object 500 includes information on the observation subjects 301a to 301c wearing the first objects 300a to 300c estimated to be on the line of sight of the user 202 continuously for the first threshold time or longer.
  • Information relating to the observation subjects 301a to 301c may be stored in advance in the ROM 102 in association with the marker images of the first objects 300a to 300c, for example, or may be stored in an external storage device.
  • the display unit 112 continues the time length (on the line of sight) of the first object 300b on the line of sight of the user 202. Count the time length).
  • the display unit 112 determines that the counted time length on the line of sight is equal to or longer than the first threshold time, the display unit 112 acquires information on the observation target person 301b associated with the first object 300b from the ROM 102, and the acquired information Is displayed in the field of view of the user 202.
  • the display unit 112 displays the second object 500 representing information related to the observation target person 301 b in the attention area 601 of the display 104. Further, the display unit 112 changes the display position of the second object according to the orientation of the display device 100 so that the second object 500 appears to be stationary in the real space 201. Specifically, when the display unit 112 determines that the time length on the line of sight is equal to or longer than the first threshold time, the second object 500 is within the attention area 601 as shown in FIG. In the real space 201, it is displayed on the display 104 so that it appears as if it appeared at a position Pb in front of the observation target 301b. In addition, as shown in FIG.
  • the display unit 112 causes the sensor unit 105 to change the orientation of the display device 100. Detect changes. Then, the display unit 112 moves the second object 500 to the right in the display 104 so that the second object 500 appears to remain at the position Pb in the real space 201, that is, as shown in FIG. indicate.
  • the display unit 112 starts counting the time during which the second object 500 is on the line of sight of the user 202, that is, the viewing time length of the second object 500.
  • control unit 101 and the sensor unit 105 cooperate to function as the display unit 112.
  • the erasure unit 113 displays the second object 500 as the field of view of the user 202. Erase from within.
  • the second threshold time is a threshold time for estimating whether or not the user 202 is paying attention to the second object 500.
  • the second threshold time is set for each user and stored in the RAM 103, for example.
  • the erasing unit 113 stops counting the viewing time length of the second object 500, and the second object 500 is on the line of sight of the user.
  • the counting of the length of time (outside of sight time) that is estimated to be not present is started.
  • the erasing unit 113 erases the second object 500 from the field of view of the user 202 when the out-of-line time length becomes equal to or longer than the second threshold time.
  • the erasure unit 113 erases the second object 500 from the display 104 by ending the display of the second object 500.
  • the erasure unit 113 estimates that the user 202 is not paying attention to the second object 500 when it is estimated that the second object 500 is not continuously on the line of sight of the user 202 for the second threshold time or longer. Then, the erasing unit 113 erases the second object 500 that is estimated not to be noticed by the user 202 in the field of view of the user 202, that is, from the display 104.
  • control unit 101 functions as the erasing unit 113.
  • the correction unit 114 corrects the first threshold time set for the user 202 according to the browse time length estimated that the second object 500 is on the line of sight of the user 202. Specifically, the correction unit 114 corrects the first threshold time longer by a predetermined time when the viewing time length is shorter than the predetermined threshold time.
  • the second object 500 adds the second threshold time and the browsing time length in detail immediately after the second threshold time has elapsed since the display. It will be erased after time.
  • the first objects 300a to 300c accidentally passed through the attention area 401 of the user 202 because the first threshold time is too short, that is, It is considered that there is a high possibility that the second object 500 representing the information related to the first objects 300a to 300c not noticed by the user is displayed. Therefore, the correction unit 114 corrects the first threshold time to be longer.
  • control unit 101 functions as the correction unit 114.
  • FIG. 10 is a flowchart showing the flow of display processing executed by the control unit 101 of the display device 100. This process is started, for example, when an instruction to start this process is received via the operation unit 107.
  • the display device 100 sets the orientation of the display device 100 in the real space 201 to a predetermined initial state (step S101).
  • the display device 100 detects the direction of the display device 100 and detects the direction of the line of sight (step S102).
  • the display device 100 captures the line-of-sight direction (step S103).
  • the display device 100 determines whether there are the first objects 300a to 300c on the line of sight of the user 202 based on the captured image captured in step S103 (step S104). When the display device 100 determines that there are no first objects 300a to 300c on the line of sight of the user 202 (step S104; No), the display device 100 returns to the process of step S103.
  • step S104 When the display device 100 determines that the first objects 300a to 300c are on the line of sight of the user 202 (step S104; Yes), the display device 100 executes a second object display process (step S105).
  • FIG. 11 is a flowchart showing the flow of the second object display process executed by the control unit 101 of the display device 100.
  • the display device 100 starts counting the on-line time length of the first objects 300a to 300c determined to be on the line of sight of the user 202 in step S104 of FIG. 10 (step S201). ).
  • Display device 100 captures the line-of-sight direction (step S202).
  • the display device 100 determines whether or not the first objects 300a to 300c are on the user's line of sight based on the captured image captured in step S202 (step S203). When the display apparatus 100 determines that there are no first objects 300a to 300c on the line of sight of the user 202 (step S203; No), the display apparatus 100 stops counting the on-line time length and returns to the process of step S103 in FIG.
  • step S203 determines whether the first objects 300a to 300c are present on the user's line of sight (step S203; Yes).
  • step S204 determines whether the time length on the line of sight is equal to or longer than the first threshold time (step S204).
  • step S204 determines that the on-line time length is not equal to or longer than the first threshold time (step S204; No)
  • step S204 determines that the on-line time length is not equal to or longer than the first threshold time.
  • step S204 When the display device 100 determines that the time length on the line of sight is equal to or longer than the first threshold time (step S204; Yes), the display device 100 is associated with the first objects 300a to 300c determined to be on the line of sight of the user 202. Information on the observation subjects 301a to 301c is acquired (step S205).
  • Display device 100 generates second object 500 representing the information acquired in step S205 (step S206).
  • the display device 100 displays the second object 500 generated in step S206 on the display 104 (step S207).
  • the display device 100 starts counting the browsing time length (step S208). Then, the display device 100 ends the second object display process and proceeds to step S106 in FIG.
  • the display device 100 captures the line-of-sight direction (step S ⁇ b> 106).
  • the display device 100 determines whether or not the second object 500 displayed by the second object display process in step S105 is on the line of sight of the user 202 (step S107).
  • the display device 100 determines that the second object 500 is on the line of sight of the user 202 (step S107; Yes)
  • the display device 100 returns to the process of step S106.
  • step S107 When the display device 100 determines that the second object 500 is not on the line of sight of the user 202 (step S107; No), the display device 100 executes a second object erasing process (step S108).
  • FIG. 12 is a flowchart showing the flow of the second object erasing process executed by the control unit 101 of the display device 100.
  • the display device 100 stops counting the viewing time length of the second object when the second object erasing process is started (step S301). Then, the display device 100 starts counting the out-of-line time length of the second object 500 (step S302).
  • Display device 100 captures the line-of-sight direction (step S303).
  • the display device 100 determines whether or not the second object 500 is on the line of sight of the user 202 based on the captured image captured in step S303 (step S304).
  • step S304 When it is determined that the second object 500 is on the line of sight of the user 202 (step S304; Yes), the display device 100 stops counting the length of time outside the line of sight (step S305). Then, the display device 100 starts counting the viewing time length (step S306), and returns to step S106 in FIG.
  • step S304 When it is determined that the second object 500 is not on the line of sight of the user 202 (step S304; No), the display device 100 determines whether or not the time length outside the line of sight is equal to or longer than the second threshold time (step S307). When the display device 100 determines that the out-of-line time length is not equal to or longer than the second threshold time (step S307; No), the display device 100 returns to the process of step S303.
  • step S307 When the display device 100 determines that the time length outside the line of sight is equal to or longer than the second threshold time (step S307; Yes), the display device 100 stops counting the time length outside the line of sight (step S308). Then, the display device 100 deletes the second object 500 from the field of view of the user 202 (step S309), and proceeds to the process of step S109 in FIG.
  • the display device 100 corrects the first threshold time according to the browsing time length until the counting of the browsing time length is stopped by the second object erasing process in step S108 (step S109). Then, the display device 100 returns to the process of step S103.
  • the display device 100 repeatedly executes the above-described process until an end instruction for this process is received via the operation unit 107, for example.
  • the display device 100 estimates whether the user 202 is paying attention to the first objects 300a to 300c according to the viewing time length of the second object 500.
  • the first threshold time of is corrected. Therefore, the display device 100 appropriately determines whether the first objects 300a to 300c on the line of sight of the user 202 are objects that the user 202 is intentionally paying attention to or objects that have accidentally passed the line of sight. be able to.
  • the display device 100 corrects the first threshold time to be longer by the predetermined time.
  • the viewing time length of the second object 500 is shorter than the predetermined threshold time, there is a high possibility that the second object 500 of the first objects 300a to 300c that has accidentally passed over the line of sight of the user 202 is displayed.
  • the first threshold time for estimating whether the user 202 is paying attention to the first objects 300a to 300c can be appropriately corrected according to the user 202. .
  • the time length on the line of sight of the first objects 300a to 300c themselves is compared with the first threshold time to determine whether or not the user 202 is paying attention to the first objects 300a to 300c.
  • the third object associated with the first objects 300a to 300c is displayed, and the user 202 compares the first object 300a to 300c with the first threshold time by comparing the time length of the third object on the line of sight. An example of determining whether or not attention is paid to will be described.
  • symbol is used and the detailed description is abbreviate
  • FIG. 13 is a schematic block diagram showing a functional configuration of the display device 100a according to the embodiment of the present invention.
  • the display device 100a includes an estimation unit 111a, a display unit 112a, an erasing unit 113, a correction unit 114a, and a display 104.
  • the estimation unit 111a further estimates whether or not the third object is on the line of sight of the user 202.
  • the estimation unit 111a can estimate whether or not the third object is on the line of sight of the user 202, like the second object 500 in the first embodiment.
  • the display unit 112a keeps the first objects 300a to 300c on the line of sight of the user 202 continuously for the third threshold time set for the user 202 and shorter than the first threshold time. If it is estimated that there is, the third object associated with the first objects 300a to 300c is further displayed in the field of view of the user 202. Then, when it is estimated that the third object is on the line of sight of the user 202 for the first threshold time or longer, the display unit 112a deletes the third object from the user 202's field of view, The object 500 is displayed in the field of view of the user 202. Further, when it is estimated that the third object is not on the line of sight of the user 202 for the first threshold time or longer, the display unit 112a deletes the third object from the view of the user 202.
  • the third threshold time is a threshold time for preliminarily determining whether or not attention is paid to the first objects 300a to 300c.
  • the third threshold time is set to be shorter than the first threshold time.
  • the third object is an object used for determining whether or not the first object 300a to 300c is attracting attention to the user 202, instead of the first object 300a to 300c.
  • the third object is, for example, a humanoid object.
  • the display unit 112a causes the third object to appear at the same position in the real space 201 as the first objects 300a to 300c. Then, the display unit 112a displays the third object so as to maintain the appearing position in the real space 201. For example, when the display unit 112a estimates that the first object 300b is on the line of sight of the user 202 for more than the third threshold time as shown in FIG. 4, as shown in FIG. The third object 700 is displayed on the display 104 so as to appear at the position of the real space 201 of the first object 300b. Then, like the second object 500 in the first embodiment, the display unit 112a displays the third object according to the orientation of the display device 100a so that the third object appears to be stationary in the real space 201. Change the position. Therefore, for example, when the user 202 does not change the line-of-sight direction and the observation target person 301b wearing the first object 300b is moving leftward, as shown in FIG. Is displayed at the position of the first object 300b.
  • the display unit 112a estimates that the third object 700 is continuously in the attention area 601 for the first threshold time or more, that is, on the line of sight of the user 202, FIG. 3, the third object 700 is erased from the view of the user 202, and the second object 500 is displayed in the view of the user 202. Further, when it is estimated that the third object 700 is not on the line of sight of the user 202 for the first threshold time or longer, the display unit 112a deletes the third object 700 from the field of view of the user 202.
  • the correcting unit 114a displays the second object 500 after the third object 700 is estimated to be on the line of sight of the user 202 for the first threshold time or longer.
  • the third threshold time set for the user is corrected according to the browsing time length estimated to be on the line of sight of 202.
  • the correction unit 114a may correct the third threshold time longer by a predetermined time when the viewing time length is shorter than the predetermined threshold time, similarly to the first threshold time in the first embodiment. That is, when the viewing time length of the second object 500 is shorter than the predetermined threshold time, the third objects are accidentally passed through the attention area 401 of the user 202 because the third threshold time is too short, that is, the user It is considered that there is a high possibility that the third object 700 associated with the first objects 300a to 300c not focused on is displayed. Therefore, the correction unit 114a corrects the third threshold time to be longer.
  • FIG. 16 is a flowchart showing the flow of display processing executed by the control unit 101 of the display device 100a. This process is started, for example, when an instruction to start this process is received via the operation unit 107.
  • the display device 100a executes steps S401 to S404 in the same manner as the steps S101 to S104 of the display process shown in FIG.
  • step S404 When the display device 100a determines that the first objects 300a to 300c are on the line of sight of the user 202 (step S404; Yes), the display device 100a executes a third object display process (step S405).
  • FIG. 17 is a flowchart showing the flow of the third object display process executed by the control unit 101 of the display device 100a.
  • the display device 100a starts counting the on-line time length of the first objects 300a to 300c determined to be on the line of sight of the user 202 in step S404 of FIG. 16 (step S501). ).
  • Display device 100a captures the line-of-sight direction (step S502).
  • the display device 100a determines whether or not the first objects 300a to 300c are on the line of sight of the user 202 based on the captured image captured in step S502 (step S503). When the display device 100a determines that there are no first objects 300a to 300c on the line of sight of the user 202 (step S503; No), the display device 100a stops counting the length of time on the line of sight and returns to the process of step S403 in FIG.
  • step S503 When it is determined that the first object is on the user's line of sight (step S503; Yes), the display device 100a determines whether or not the time length on the line of sight is equal to or longer than the third threshold time (step S504). When the display device 100a determines that the on-line time length is not equal to or longer than the third threshold time (step S504; No), the display device 100a returns to the process of step S502.
  • step S504 determines that the time length on the line of sight is equal to or longer than the third threshold time (step S504; Yes)
  • the display device 100a displays the third object 700 on the display (step S505). Then, the display device 100a proceeds to step S406 in FIG.
  • the display device 100a executes the second object display process (step S406).
  • FIG. 18 is a flowchart showing the flow of the second object display process executed by the control unit 101 of the display device 100a.
  • the display device 100a starts counting the time length on the line of sight of the third object 700 (step S601).
  • the display device 100a captures the line-of-sight direction (step S602).
  • the display device 100a determines whether there is the third object 700 on the line of sight of the user 202 based on the captured image captured in step S602 (step S603).
  • step S603 When it is determined that the third object 700 is on the line of sight of the user 202 (step S603; Yes), the display device 100a determines whether the time length on the line of sight has passed the first threshold time (step S604). . When the display device 100a determines that the on-line time length has not passed the first threshold time (step S604; No), the display device 100a returns to the process of step S602.
  • step S604 the display device 100a deletes the third object 700 (step S605).
  • the display device 100a acquires information related to the observation subjects 301a to 301c of the first objects 300a to 300c associated with the third object 700 (step S606).
  • the display device 100a generates a second object representing the information acquired in step S606 (step S607).
  • the display device 100a displays the second object generated in step S607 on the display 104 (step S608).
  • the display device 100a starts counting the browsing time length (step S609). Then, the display device 100a ends the second object display process, and proceeds to step S407 in FIG.
  • step S610 when the display device 100a determines that there is no third object on the user's line of sight (step S603; No), the display device 100a executes a third object erasing process (step S610).
  • FIG. 19 is a flowchart showing the flow of the third object erasing process executed by the control unit 101 of the display device 100a.
  • the display device 100a stops counting the time length on the line of sight of the third object (step S701). Then, the display device 100a starts counting the non-line-of-sight time length of the third object 700 (step S702).
  • the display device 100a captures the line-of-sight direction (step S703).
  • the display device 100a determines whether or not the third object 700 is on the line of sight of the user 202 based on the captured image captured in step S703 (step S704).
  • step S704 When it is determined that the third object 700 is on the line of sight of the user 202 (step S704; Yes), the display device 100a stops counting the time length outside the line of sight (step S705). Then, the display device 100a starts counting the time length on the line of sight of the third object 700 (step S706), and returns to step S602 in FIG.
  • step S704 determines whether or not the length of time outside the line of sight is equal to or longer than the first threshold time.
  • the display device 100a determines that the out-of-line time length is not equal to or longer than the first threshold time (step S707; No)
  • the display device 100a returns to the process of step S703.
  • step S707 When the display device 100a determines that the time length outside the line of sight is equal to or longer than the first threshold time (step S707; Yes), the display device 100a stops counting the time length outside the line of sight (step S708). Then, the display device 100a deletes the third object 700 from the field of view of the user 202 (step S709), and returns to the process of step S403 in FIG.
  • the display device 100a executes the same processes as steps S106 to S109 of the display process of FIG. 10 in steps S407 to S410.
  • the display device 100a corrects the third threshold time according to the browsing time length until the browsing time length is stopped by the second object erasing process in step S409 (step S411). Then, the display device 100a returns to the process of step S403.
  • the display device 100a repeatedly executes the above-described process until an end instruction for this process is received via the operation unit 107, for example.
  • the display device 100a displays the third object 700 when it is estimated that the first objects 300a to 300c are on the line of sight of the user 202 for the third threshold time or longer.
  • the third object 700 is deleted and the second object 500 is displayed. Therefore, even if the first objects 300a to 300c for which the second object 500 is to be displayed are moving, the user 202 pays attention to the first objects 300a to 300c for the third threshold time shorter than the first threshold time.
  • the second object can be displayed by displaying the third object 700 and paying attention to the third object 700 for the first threshold time. Therefore, the user 202 can display the second object 500 more easily than displaying the second object 500 by keeping the first objects 300a to 300c focused on the first threshold time.
  • the display device 100a displays the viewing time estimated to be on the line of sight of the user 202 due to the estimation that the third object 700 remains on the line of sight of the user 202 for the first threshold time or longer.
  • the third threshold time is corrected according to the length. Therefore, the display device 100a preliminarily determines whether the first objects 300a to 300c that are on the line of sight of the user 202 are objects that the user 202 is intentionally paying attention to or objects that have accidentally passed the line of sight. It is possible to appropriately correct the third threshold time for the user 202 according to the user 202.
  • the first objects 300a to 300c are AR markers representing a predetermined pattern image.
  • the first object may be an arbitrary object that exists in the real space 201.
  • the display devices 100 and 100a may store the shape pattern of the object in advance and recognize the object by image recognition from the captured image and the shape pattern.
  • the first object may be an object in a virtual space.
  • the display devices 100 and 100a detect the line-of-sight direction in the virtual space according to the orientation of the display devices 100 and 100a, and based on the known position and moving speed of the first object in the virtual space, The first object on the line may be estimated.
  • the display devices 100 and 100a estimate whether or not the first objects 300a to 300c are on the line of sight of the user 202 by image recognition, and according to the orientation of the display devices 100 and 100a.
  • the method by which the estimation unit 111 estimates whether the first objects 300a to 300c, the second object 500, and the third object 700 are on the line of sight of the user 202 is not limited to this.
  • the display devices 100 and 100a detect the gaze direction of the user 202 by eye tracking and estimate whether the first objects 300a to 300c, the second object 500, and the third object 700 are on the gaze of the user 202. May be.
  • the display devices 100 and 100a when the viewing time length of the second object 500 is shorter than the predetermined threshold time, the display devices 100 and 100a extend the first threshold time or the third threshold time by the predetermined time.
  • An example to be corrected has been described.
  • the method of correcting the first threshold time and the third threshold time according to the browsing time length is not limited to this.
  • the display devices 100 and 100a may obtain the distribution of the appearance frequency of the browsing time length of the second object 500 and correct the first threshold time and the third threshold time based on the distribution.
  • the display devices 100 and 100a record the viewing time length of the second object, and a distribution as illustrated in FIG. 20A is obtained.
  • the horizontal axis represents the viewing time length of the second object 500
  • the vertical axis represents the appearance frequency of the viewing time length.
  • the distribution of the appearance frequency of the browsing time length is considered to have two peaks, the peak on the side with the short browsing time length and the peak on the side with the long browsing time length. Therefore, for example, when the distribution of the browsing time length t of 0 ⁇ t ⁇ tc is obtained, the distribution is set to 0 ⁇ t ⁇ ta, ta ⁇ t ⁇ tb, tb ⁇ t ⁇ tc according to the length of the browsing time length.
  • the first threshold time T1 is multiplied by 1.05, and when the viewing time length t is ta ⁇ t ⁇ tb, the current first threshold time When T1 is maintained and the viewing time length t is tb ⁇ t ⁇ tc, the first threshold time T1 is corrected based on the distribution of the viewing time length t, such as 0.96 times the first threshold time T1. Also good.
  • the degree to which the first threshold time T1 increases or decreases when the viewing time length t is 0 ⁇ t ⁇ ta or when tb ⁇ t ⁇ tc is not limited to the above example, and the viewing time length t is 0.
  • the first threshold time T1 is C1 ⁇ T1 (C1 is a constant close to 1 with C1> 1), and when the viewing time length t is tb ⁇ t ⁇ tc, the first threshold time T1
  • the constants C1 and C2 can be appropriately determined as C2 ⁇ T1 (C2 is a constant close to 1 with C2 ⁇ 1).
  • the first threshold time may be increased or decreased by a predetermined time with the browsing time length td that is a valley between two peaks in the browsing time length distribution as a threshold value.
  • the first threshold time is increased by a predetermined time ⁇ ( ⁇ is a positive number), and the viewing time length t is long.
  • the first threshold time T1 may be decreased by a predetermined time ⁇ .
  • the browsing time length t becomes m / 3 peaks from the short browsing time length side.
  • the first threshold time T1 may be increased by a predetermined time ⁇ .
  • the example in which the first threshold time is corrected based on the distribution of the browsing time length has been described. However, the same method is used to calculate the first threshold time based on the distribution of the browsing time length. Three threshold times may be modified.
  • the aspect of the third object 700 is not limited to this.
  • the display device 100a moves so as to follow the trajectory of movement of the first objects 300a to 300c, and the third object so that the moving speed of the third object gradually decreases.
  • the object 700 may be displayed.
  • the display device 100a follows the first objects 300a to 300c until the first objects 300a to 300c come out of the field of view of the user 202, and the first objects 300a to 300c
  • the third object 700 may be displayed so as to remain at the edge within the field of view of the user 202.
  • FIG. 14A when the third object 700 appears at the position of the first object 300b, and the first object 300b is moving leftward, as shown in FIG. 700 is displayed to move following the first object 300b.
  • the third object 700 is displayed so as to remain at the left edge of the display 104.
  • the third object 700 associated with the first objects 300a to 300c is displayed so as to remain in the user's field of view, so that the first objects 300a to 300c to be noticed have moved, and the user's field of view Even if the third object 700 is out of the range, the third object 700 remains in the user's field of view, so that the third object 700 can be easily noticed and the second object 500 can be displayed.
  • the display device 100, 100a provided with a configuration for realizing the functions according to the present invention can be provided as well as existing personal computers, information terminal devices, etc. can be applied to the display device according to the present invention by applying the program. It can also function as 100, 100a. That is, an existing personal computer or information can be executed so that a program for realizing each functional configuration by the display devices 100 and 100a exemplified in the above embodiment can be executed by a CPU or the like that controls the existing personal computer or information terminal device. By applying to a terminal device, the personal computer and the information terminal device can function as the display devices 100 and 100a according to the present invention.
  • the display method according to the present invention can be implemented using the display devices 100 and 100a.
  • Such a program is not limited to the above, and can be applied by an arbitrary method.
  • the program can be stored and applied to a computer-readable recording medium [CD-ROM (Compact Disc Read-Only Memory), DVD (Digital Versatile Disc), MO (Magneto Optical Disc), etc.], the Internet, etc. It is also possible to apply the program by storing it in a storage on the network and downloading it.
  • the present invention can be used for a display device for displaying an image, a display method, a program, and a non-transitory computer-readable information recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

推定部(111)は、オブジェクトがユーザの視線上にあるか否かを推定する。表示部(112)は、第1オブジェクトが、ユーザに対して設定された第1閾時間以上継続してユーザの視線上にある、と推定されると、第1オブジェクトに係る情報を表す第2オブジェクトを、ユーザの視界内に表示する。消去部(113)は、第2オブジェクトが、ユーザに対して設定された第2閾時間以上継続してユーザの視線上にない、と推定されると、第2オブジェクトをユーザの視界内から消去する。修正部(114)は、第2オブジェクトがユーザの視線上にある、と推定された閲覧時間長に応じて、ユーザに対して設定される第1閾時間を修正する。

Description

表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
 本発明は、表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体に関する。
 従来から、ヘッドマウントディスプレイに表示されたターゲットを選択する方法として、ユーザの頭の向きからユーザの視線方向を検知し、視線方向にあるターゲットが所定時間存在した場合、すなわち、ユーザが所定時間そのターゲットを見つめていた場合に、そのターゲットを選択する技術がある(非特許文献1)。しかし、ターゲットまたはユーザが移動している場合、ユーザはターゲットの移動に合わせて頭を移動させてターゲットを所定時間見つめ続ける必要があるため、この技術を用いてターゲットを選択することは困難である。一方、2Dディスプレイにおいて移動しているターゲットを選択する方法として、ユーザがマウスのボタンをクリックすることにより一時的にターゲットを停止させる技術がある(非特許文献2)。
MAJARANTA P., AHOLA U.-K., SPAKOV O.: Fast gaze typing with an adjustable dwell time. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (2009), ACM, pp.357-360. AL HAJRI A., FELS S., MILLER G., ILICH M.: Moving target selection in 2d graphical user interfaces. In IFIP Conference on Human-Computer Interaction (2011), Springer, pp.141-161.
 特許文献2では、ユーザが留まっている状態であるが、拡張現実(Augmented Reality)システムにおいてユーザがヘッドマウントディスプレイを装着している場合、ユーザが動いている可能性もある。従って、ユーザ及びターゲットの両方が動いているときに、ターゲットを効率的に選択する技術が望まれる。特に、ディスプレイ上で動いている複数のオブジェクトのうちから、ユーザの視線上にあるオブジェクトを、ユーザが注目しているオブジェクトとして選択する場合、ユーザの視線上にあるオブジェクトが、ユーザが意図的に注目しているオブジェクトなのか、または偶然ユーザの視線上を通過したオブジェクトなのか、区別する必要がある。
 本発明は、上記の課題を解決するためのものであり、ユーザの視線上にあるオブジェクトが、ユーザが意図的に注目しているオブジェクトなのか、偶然視線上を通過したオブジェクトなのかを適切に判定することが可能な表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体を提供することを目的とする。
 本発明の第1の観点に係る表示装置は、
 オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
 第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
 前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
 前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
 を備えることを特徴とする。
 上記の観点に係る表示装置において、
 前記修正部は、前記閲覧時間長が短いほど、前記第1閾時間を長く修正してもよい。
 上記の観点に係る表示装置において、
 前記修正部は、前記閲覧時間長の分布に基づいて、前記第1閾時間を修正してもよい。
 上記の観点に係る表示装置において、
 前記表示部は、
 前記第1オブジェクトが、前記ユーザに対して設定された第3閾時間であって、前記第1閾時間より短い第3閾時間以上継続して、前記ユーザの前記視線上にある、と推定されると、前記第1オブジェクトに対応付けられる第3オブジェクトを、前記ユーザの視界内から消去して、前記第2オブジェクトを前記ユーザの視界内に表示し、
 前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にある、と推定されると、前記第3オブジェクトを前記ユーザの視界内から消去して、前記第2オブジェクトを前記ユーザの視界内に表示し、
 前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第3オブジェクトを前記ユーザの視界内から消去してもよい。
 上記の観点に係る表示装置において、
 前記表示部は、前記第3オブジェクトを、前記第1オブジェクトと同じ位置に出現するように表示してもよい。
 上記の観点に係る表示装置において、
 前記表示部は、前記第3オブジェクトの出現後、前記第3オブジェクトを第1オブジェクトが配置される空間内の位置をそのまま維持するように表示してもよい。
 上記の観点に係る表示装置において、
 前記表示部は、前記第3オブジェクトの出現後、前記第1オブジェクトの移動の軌跡を辿るように移動し、かつ、前記第3オブジェクトの移動速度が徐々に遅くなるように前記第3オブジェクトを表示してもよい。
 上記の観点に係る表示装置において、
 前記表示部は、前記第3オブジェクトの出現後、前記第1オブジェクトが前記ユーザの視界内から出るまで前記第1オブジェクトに追随し、前記第1オブジェクトが前記ユーザの視界内から出ると、前記ユーザの視界内の縁に留まるように前記第3オブジェクトを表示してもよい。
 上記の観点に係る表示装置において、
 前記第3閾時間は、前記第1閾時間に基づいて、計算されてもよい。
 上記の観点に係る表示装置において、
 前記修正部は、前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にある、と推定されることに起因して前記第2オブジェクトが表示された後、前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第3閾時間を修正してもよい。
 上記の観点に係る表示装置において、
 前記修正部は、前記閲覧時間長が短いほど、前記第3閾時間を長く修正してもよい。
 上記の観点に係る表示装置において、
 前記修正部は、前記閲覧時間長の分布に基づいて、前記第3閾時間を修正してもよい。
 本発明の第2の観点に係る表示方法は、
 表示装置が実行する表示方法であって、
 オブジェクトがユーザの視線上にあるか否かを推定する推定ステップと、
 第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示ステップと、
 前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去ステップと、
 前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正ステップと、
 を備えることを特徴とする。
 本発明の第3の観点に係るプログラムは、
 コンピュータを、
 オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
 第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
 前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
 前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
 として機能させることを特徴とする。
 本発明の第4の観点に係る非一時的なコンピュータ読取可能な情報記録媒体は、
 オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
 第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
 前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
 前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
 として機能させることを特徴とする。
 なお、上記情報記録媒体は、コンピュータとは独立して配布・販売することができる。ここで、非一時的な(non-transitory)情報記録媒体とは、有形な(tangible)情報記録媒体をいう。非一時的な情報記録媒体は、例えば、コンパクトディスク、フレキシブルディスク、ハードディスク、磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリである。また、一時的な(transitory)情報記録媒体とは、伝送媒体(伝搬信号)それ自体を示す。一時的な記録媒体は、例えば、電気信号、光信号、電磁波である。なお、一時的な(temporary)記憶領域とは、データやプログラムを一時的に記憶するための領域であり、例えばRAM(Random Access Memory)といった揮発性メモリである。
 本発明によれば、ユーザの視線上にあるオブジェクトが、ユーザが意図的に注目しているオブジェクトなのか、偶然視線上を通過したオブジェクトなのかを適切に判定することができる。
実施形態1に係る表示装置のハードウェア構成を示す概略ブロック図である。 現実空間において表示装置を装着したユーザと、第1オブジェクトとの様子を示す俯瞰図である。 現実空間において表示装置を装着したユーザと、第1オブジェクトとの様子を示す上面図である。 実施形態1に係る表示装置の機能構成を示す概略ブロック図である。 撮像部によりユーザの視線方向の様子が撮影された撮像画像を表す図である。 第2オブジェクトの表示態様を説明するための図である。 第2オブジェクトの表示例を示す図である。 現実空間における表示装置、ユーザ、及び第2オブジェクトの位置関係を示す上面図である。 視線方向が変化した後の第2オブジェクトの表示例を示す図である。 第2オブジェクトがディスプレイから消去されたときの表示例を示す図である。 実施形態1に係る表示装置の制御部により実行される表示処理の流れを表すフローチャートである。 実施形態1に係る表示装置の制御部により実行される第2オブジェクト表示処理の流れを表すフローチャートである。 実施形態1に係る表示装置の制御部により実行される第2オブジェクト消去処理の流れを表すフローチャートである。 実施形態2に係る表示装置の機能構成を示す概略ブロック図である。 第3オブジェクトが出現した時の表示例を示す図である。 第3オブジェクトが出現後、第1オブジェクトが移動した場合の表示例を示す図である。 第2オブジェクトの表示例を示す図である。 実施形態2に係る表示装置の制御部により実行される表示処理の流れを表すフローチャートである。 実施形態2に係る表示装置の制御部により実行される第3オブジェクト表示処理の流れを表すフローチャートである。 実施形態2に係る表示装置の制御部により実行される第2オブジェクト表示処理の流れを表すフローチャートである。 実施形態2に係る表示装置の制御部により実行される第3オブジェクト消去処理の流れを表すフローチャートである。 閲覧時間長に応じて第1閾時間を修正する例を説明するための図である。 閲覧時間長に応じて第1閾時間を修正する例を説明するための図である。 閲覧時間長に応じて第1閾時間を修正する例を説明するための図である。 第3オブジェクトが出現後、第1オブジェクトに追随するときの表示例を示す図である。 第3オブジェクトが出現後、第1オブジェクトがユーザの視界内から出たときの表示例を示す図である。
 以下に本発明の実施形態を説明する。なお、本実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。従って、当業者であればこれらの各要素若しくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。また、本願発明の実施形態を図面を参照して説明するにあたり、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
 図1は、本実施形態に係る表示装置100のハードウェア構成を示す概略ブロック図である。表示装置100は、例えば、各種のセンサや制御装置を備えたヘッドマウントディスプレイにより構成される。スマートフォンやタブレットコンピュータ、ファブレット等の携帯型コンピュータをアタッチメントに装着することにより、ヘッドマウントディスプレイが構築されてもよい。この場合には、携帯型コンピュータを上記各部として機能させるためのプログラムを、当該携帯型コンピュータにて実行させることにより、表示装置100が実現される。図1に示すように、表示装置100は、制御部101と、ROM(Read Only Memory)102と、RAM103と、ディスプレイ104と、センサ部105と、撮像部106と、操作部107とから構成され、各部は、バス108により接続されている。
 制御部101は、例えばCPU(Central Processing Unit)から構成され、表示装置100全体を制御する。
 ROM102は、制御部101が表示装置100全体を制御するためのプログラムや各種データを格納する不揮発性メモリである。
 RAM103は、制御部101が生成した情報や、その情報の生成に必要なデータを一時的に格納するための揮発性メモリである。
 ディスプレイ104は、LCD(Liquid Crystal Display)およびバックライト等を備え、制御部101による制御の下、例えば、制御部101から出力された画像を表示する。
 センサ部105は、姿勢センサや加速度センサを備え、表示装置100の向きを検知する。
 撮像部106は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)といったイメージセンサを備え、表示装置100の前方、すなわち、ユーザの視線方向の様子を撮影する。
 操作部107は、ボタン、キーボード、タッチパネル等の入力装置から構成される。操作部107は、表示装置100のユーザからの操作入力を受け付け、受け付けた操作入力に対応する信号を制御部101に出力する。
 次に、本実施形態での現実空間における表示装置100、ユーザ、及び第1オブジェクトの位置関係について説明する。なお、本実施形態では、表示装置100が、ディスプレイ104に表示される画像と、現実空間とをユーザが同時に視認できるように構成されるヘッドマウントディスプレイであるものとする。このような構成は、例えば、ディスプレイ104として透過型ディスプレイを採用することにより実現できる。さらに、ディスプレイ104は、透過膜への画像投影、またはユーザの網膜への画像投影により実現されてもよい。また、表示装置100は、ディスプレイ104として不透明液晶を備え、撮像部106で撮影した現実空間の画像と、仮想空間におけるオブジェクトの画像とを合成して不透明液晶に表示してもよい。
 図2Aは、現実空間201において表示装置100を装着したユーザ202と、第1オブジェクト300a~300cとの様子を示す俯瞰図である。図2Bは、現実空間201において表示装置100を装着したユーザ202と、第1オブジェクト300a~300cとの様子を示す上面図である。
 図2A及び図2Bに示すように、現実空間201において、ユーザ202は、表示装置100を眼前に装着している。ユーザ202が表示装置100を装着しているときには、表示装置100の表示方向203は、ユーザ202が表示装置100を見る視線方向204と逆向きになる。
 また、図2A及び図2Bに示すように、現実空間201において、静止もしくは移動する複数の観察対象者301a~301cが存在している。観察対象者301a~301cは、それぞれ第1オブジェクト300a~300cを装着している。本実施形態においては、第1オブジェクト300a~300cは、観察対象者301a~301cと対応付けられた所定のパターン画像を含むARマーカである。第1オブジェクト300a~300cのパターン画像は、例えば予めROM102に記憶されている。ユーザ202は、観察対象者301a~301cのうち、興味がある観察対象者の第1オブジェクト300a~300cに注目することにより、後述するように注目した観察対象者に関連する情報をディスプレイ104に表示させることができる。
 図3は、本発明の実施形態に係る表示装置100の機能構成を示す概略ブロック図である。図3に示すように、表示装置100は、推定部111と、表示部112と、消去部113と、修正部114と、ディスプレイ104とを備える。
 推定部111は、オブジェクトがユーザ202の視線上にあるか否かを推定する。本実施形態において、推定部111は、第1オブジェクト300a~300c、及び後述する第2オブジェクト500がユーザ202の視線上にあるか否かを推定する。
 まず、推定部111が、第1オブジェクト300a~300cがユーザ202の視線上にあるか否かを推定する方法の一例を説明する。例えば、推定部111は、撮像部106によりユーザ202の視線方向204を撮影し、その撮像画像の所定の範囲を注目領域として特定する。注目領域は、例えば、撮像画像中の中央を視線方向として、中央から所定の範囲が注目領域として特定される。そして、推定部111は、撮像画像中の注目領域内に第1オブジェクト300a~300cが存在するとき、その第1オブジェクト300a~300cがユーザ202の視線上にあると推定する。
 例えば、撮像部106が図4に示す撮像画像400を撮影したとき、推定部111は、撮像画像400のうち、中央から所定の範囲を注目領域401として特定する。そして、推定部111は、注目領域401内の画像と、予め記憶された第1オブジェクト300a~300cのパターン画像とを比較し、画像認識により、注目領域401内に第1オブジェクト300a~300cがあるか否かを判定する。推定部111は、図4に示すように注目領域401内に第1オブジェクト300bのパターン画像があると判定すると、第1オブジェクト300bがユーザ202の視線上にあると推定する。
 なお、推定部111が、第2オブジェクト500がユーザ202の視線上にあるか否かを推定する場合について説明する。推定部111は、ディスプレイ104の所定の範囲を注目領域として特定する。注目領域は、例えば、ディスプレイ104の中央から所定の領域が注目領域として特定される。そして、推定部111は、ディスプレイ104の注目領域内に第2オブジェクト500が表示されているか否かを判定する。注目領域内に第2オブジェクト500が表示されていると判定すると、その第2オブジェクト500がユーザ202の視線上にあると推定する。
 例えば、表示部112が図5に示すようにディスプレイ104に第2オブジェクト500を表示しているとき、推定部111は、ディスプレイ104の中央から所定の範囲を注目領域601として特定する。そして、推定部111は、注目領域601内に第2オブジェクト500が表示されていると判定すると、第2オブジェクト500がユーザ202の視線上にあると推定する。なお、推定部111は、第2オブジェクト500の代表点(例えば、中心点や重心点)の位置を、第2オブジェクト500の位置として、注目領域601内に表示されているか否かを判定する。
 本実施形態において、制御部101及び撮像部106が協働することにより、推定部111として機能する。
 表示部112は、第1オブジェクト300a~300cが、ユーザ202に対して設定された第1閾時間以上継続してユーザ202の視線上にある、と推定されると、第1オブジェクト300a~300cに係る情報を表す第2オブジェクト500を、ユーザ202の視界内に表示する。
 ここで、第1閾時間は、ユーザ202が第1オブジェクト300a~300cに注目しているか否かを推定するための閾時間である。第1閾時間は、ユーザ毎に設定され、例えばRAM103に記憶される。
 また、第2オブジェクト500は、第1オブジェクト300a~300cに係る情報を表すオブジェクトである。本実施形態において、第2オブジェクト500は、第1閾時間以上継続してユーザ202の視線上にあると推定された第1オブジェクト300a~300cを装着している観察対象者301a~301cに関する情報を表す。観察対象者301a~301cに関する情報は、例えば第1オブジェクト300a~300cのマーカ画像と対応付けて予めROM102に記憶されていてもよいし、外部の記憶装置に記憶されていてもよい。
 例えば、表示部112は、推定部111により第1オブジェクト300bがユーザ202の視線上にあると推定されると、継続してその第1オブジェクト300bがユーザ202の視線上にある時間長(視線上時間長)をカウントする。そして、表示部112は、カウントした視線上時間長が第1閾時間以上であると判定すると、第1オブジェクト300bと対応付けられた観察対象者301bに関する情報をROM102から取得し、取得された情報を表す第2オブジェクト500をユーザ202の視界内に表示する。
 例えば、表示部112は、図6に示すように、ディスプレイ104の注目領域601内に観察対象者301bに関する情報を表す第2オブジェクト500を表示する。さらに、表示部112は、第2オブジェクト500が現実空間201において静止しているように見えるように、表示装置100の向きに応じて第2オブジェクトの表示位置を変更する。具体的には、表示部112は、視線上時間長が第1閾時間以上であると判定すると、図6に示すように第2オブジェクト500を注目領域601内であって、図7に示すように現実空間201において観察対象者301bの手前の位置Pbに出現したように見えるように、ディスプレイ104に表示する。また、図7に示すように、ユーザ202が頭を破線の位置から実線の位置へ移動するように反時計回りにθ回転させると、表示部112は、センサ部105により表示装置100の向きの変化を検知する。そして、表示部112は、第2オブジェクト500が現実空間201において位置Pbに留まっているように見えるように、すなわち図8に示すようにディスプレイ104において右方向に移動させて、第2オブジェクト500を表示する。
 また、表示部112は、第2オブジェクト500の表示を開始すると、継続してその第2オブジェクト500がユーザ202の視線上にある時間、すなわち第2オブジェクト500の閲覧時間長のカウントを開始する。
 本実施形態において、制御部101及びセンサ部105が協働することにより、表示部112として機能する。
 消去部113は、第2オブジェクト500が、ユーザ202に対して設定された第2閾時間以上継続してユーザ202の視線上にない、と推定されると、第2オブジェクト500をユーザ202の視界内から消去する。
 ここで、第2閾時間は、ユーザ202が第2オブジェクト500に注目しているか否かを推定するための閾時間である。第2閾時間は、ユーザ毎に設定され、例えばRAM103に記憶される。
 消去部113は、推定部111により第2オブジェクト500がユーザ202の視線上にないと推定されると、第2オブジェクト500の閲覧時間長のカウントを停止し、第2オブジェクト500がユーザの視線上にないと推定される時間長(視線外時間長)のカウントを開始する。そして、消去部113は、視線外時間長が第2閾時間以上になると、その第2オブジェクト500をユーザ202の視界内から消去する。
 例えば、図8に示すように、第2オブジェクト500が注目領域601内に表示されず、推定部111によりユーザ202の視線上にないと推定される視線外時間長が第2閾時間以上になると、消去部113は、図9に示すように、第2オブジェクト500の表示を終了することにより、ディスプレイ104から第2オブジェクト500を消去する。
 すなわち、消去部113は、第2オブジェクト500が第2閾時間以上継続してユーザ202の視線上にないと推定されたとき、ユーザ202は第2オブジェクト500に注目していないと推定する。そして、消去部113は、ユーザ202が注目していないと推定された第2オブジェクト500をユーザ202の視界内、すなわちディスプレイ104から消去する。
 本実施形態において、制御部101が、消去部113として機能する。
 修正部114は、第2オブジェクト500がユーザ202の視線上にある、と推定された閲覧時間長に応じて、ユーザ202に対して設定される第1閾時間を修正する。具体的には、修正部114は、閲覧時間長が所定の閾時間よりも短いとき、第1閾時間を所定時間だけ長く修正する。
 すなわち、閲覧時間長が所定の閾時間よりも短いとき、第2オブジェクト500は、表示されてから第2閾時間経過後すぐに、詳細には第2閾時間と閲覧時間長とを足し合わせた時間が経過した後に、消去される。このように第2オブジェクト500の閲覧時間長が所定の閾時間よりも短いとき、第1閾時間が短すぎて、偶然ユーザ202の注目領域401内を通過した第1オブジェクト300a~300c、すなわち、ユーザが注目していない第1オブジェクト300a~300cに係る情報を表す第2オブジェクト500が表示された可能性が高いと考えられる。そのため、修正部114は、第1閾時間が長くなるように修正する。
 本実施形態において、制御部101が、修正部114として機能する。
 次に、本発明の実施形態にかかる表示装置100の動作について説明する。図10は、表示装置100の制御部101により実行される表示処理の流れを表すフローチャートである。本処理は、例えば、操作部107を介して本処理の開始指示を受け付けたことを契機として開始する。
 まず、表示装置100は、現実空間201内における表示装置100の向きを予め定められた初期状態に設定する(ステップS101)。
 次に、表示装置100は、表示装置100の向きを検知し、視線方向を検知する(ステップS102)。
 次に、表示装置100は、視線方向を撮像する(ステップS103)。
 そして、表示装置100は、ステップS103において撮像された撮像画像に基づいて、ユーザ202の視線上に第1オブジェクト300a~300cがあるか否かを判定する(ステップS104)。表示装置100は、ユーザ202の視線上に第1オブジェクト300a~300cがないと判定したとき(ステップS104;No)、ステップS103の処理に戻る。
 表示装置100は、ユーザ202の視線上に第1オブジェクト300a~300cがあると判定したとき(ステップS104;Yes)、第2オブジェクト表示処理を実行する(ステップS105)。
 図11は、表示装置100の制御部101により実行される第2オブジェクト表示処理の流れを表すフローチャートである。
 表示装置100は、第2オブジェクト表示処理を開始すると、図10のステップS104においてユーザ202の視線上にあると判定された第1オブジェクト300a~300cの視線上時間長のカウントを開始する(ステップS201)。
 表示装置100は、視線方向を撮像する(ステップS202)。
 表示装置100は、ステップS202において撮像された撮像画像に基づいて、ユーザの視線上に第1オブジェクト300a~300cがあるか否かを判定する(ステップS203)。表示装置100は、ユーザ202の視線上に第1オブジェクト300a~300cがないと判定したとき(ステップS203;No)、視線上時間長のカウントを停止して図10のステップS103の処理に戻る。
 表示装置100は、ユーザの視線上に第1オブジェクト300a~300cがあると判定したとき(ステップS203;Yes)、視線上時間長が第1閾時間以上か否かを判定する(ステップS204)。表示装置100は、視線上時間長が第1閾時間以上でないと判定したとき(ステップS204;No)、ステップS202の処理に戻る。
 表示装置100は、視線上時間長が第1閾時間以上であると判定したとき(ステップS204;Yes)、ユーザ202の視線上にあると判定された第1オブジェクト300a~300cと対応付けられた観察対象者301a~301cに関する情報を取得する(ステップS205)。
 表示装置100は、ステップS205において取得した情報を表す第2オブジェクト500を生成する(ステップS206)。
 表示装置100は、ステップS206において生成した第2オブジェクト500をディスプレイ104に表示する(ステップS207)。
 表示装置100は、閲覧時間長のカウントを開始する(ステップS208)。そして、表示装置100は、第2オブジェクト表示処理を終了し、図10のステップS106に進む。
 図10に戻って、表示装置100は、視線方向を撮像する(ステップS106)。
 そして、表示装置100は、ステップS105の第2オブジェクト表示処理により表示された第2オブジェクト500がユーザ202の視線上にあるか否かを判定する(ステップS107)。表示装置100は、第2オブジェクト500がユーザ202の視線上にあると判定したとき(ステップS107;Yes)、ステップS106の処理に戻る。
 そして、表示装置100は、第2オブジェクト500がユーザ202の視線上にないと判定したとき(ステップS107;No)、第2オブジェクト消去処理を実行する(ステップS108)。
 図12は、表示装置100の制御部101により実行される第2オブジェクト消去処理の流れを表すフローチャートである。
 表示装置100は、第2オブジェクト消去処理を開始すると、第2オブジェクトの閲覧時間長のカウントを停止する(ステップS301)。そして、表示装置100は、第2オブジェクト500の視線外時間長のカウントを開始する(ステップS302)。
 表示装置100は、視線方向を撮像する(ステップS303)。
 表示装置100は、ステップS303において撮像された撮像画像に基づいて、ユーザ202の視線上に第2オブジェクト500があるか否かを判定する(ステップS304)。
 表示装置100は、ユーザ202の視線上に第2オブジェクト500があると判定したとき(ステップS304;Yes)、視線外時間長のカウントを停止する(ステップS305)。そして、表示装置100は、閲覧時間長のカウントを開始し(ステップS306)、図10のステップS106に戻る。
 表示装置100は、ユーザ202の視線上に第2オブジェクト500がないと判定したとき(ステップS304;No)、視線外時間長が第2閾時間以上か否かを判定する(ステップS307)。表示装置100は、視線外時間長が第2閾時間以上でないと判定したとき(ステップS307;No)、ステップS303の処理に戻る。
 表示装置100は、視線外時間長が第2閾時間以上であると判定したとき(ステップS307;Yes)、視線外時間長のカウントを停止する(ステップS308)。そして、表示装置100は、第2オブジェクト500をユーザ202の視界内から消去し(ステップS309)、図10のステップS109の処理に進む。
 図10に戻って、表示装置100は、ステップS108の第2オブジェクト消去処理により閲覧時間長のカウントが停止されるまでの閲覧時間長に応じて、第1閾時間を修正する(ステップS109)。そして、表示装置100は、ステップS103の処理に戻る。
 そして、表示装置100は、例えば操作部107を介して本処理の終了指示を受け付けるまで、繰り返し上記の処理を実行する。
 以上説明したように、本発明の実施形態に係る表示装置100は、第2オブジェクト500の閲覧時間長に応じて、ユーザ202が第1オブジェクト300a~300cに注目しているか否かを推定するための第1閾時間を修正する。そのため、表示装置100は、ユーザ202の視線上にある第1オブジェクト300a~300cが、ユーザ202が意図的に注目しているオブジェクトなのか、偶然視線上を通過したオブジェクトなのかを適切に判定することができる。
 また、表示装置100は、第2オブジェクト500の閲覧時間長が所定の閾時間よりも短いとき、第1閾時間を所定時間だけ長くなるように修正する。第2オブジェクト500の閲覧時間長が所定の閾時間よりも短いとき、偶然ユーザ202の視線上を通った第1オブジェクト300a~300cの第2オブジェクト500が表示された可能性が高い。この場合、第1閾時間を長くすることにより、ユーザ202が第1オブジェクト300a~300cに注目しているのかを推定するための第1閾時間をユーザ202に応じて適切に修正することができる。
(第2実施形態)
 上記の第1実施形態では、第1オブジェクト300a~300c自体の視線上時間長と第1閾時間とを比較して、ユーザ202が第1オブジェクト300a~300cに注目しているか否かを判定する例について説明した。本実施形態では、第1オブジェクト300a~300cに対応付けられる第3オブジェクトを表示し、第3オブジェクトの視線上時間長を第1閾時間と比較することにより、ユーザ202が第1オブジェクト300a~300cに注目しているか否かを判定する例について説明する。なお、第1実施形態と同様の構成については、同様の符号を用い、その詳細な説明を省略する。
 図13は、本発明の実施形態に係る表示装置100aの機能構成を示す概略ブロック図である。図13に示すように、表示装置100aは、推定部111aと、表示部112aと、消去部113と、修正部114aと、ディスプレイ104とを備える。
 推定部111aは、さらに第3オブジェクトがユーザ202の視線上にあるか否かを推定する。推定部111aは、実施形態1における第2オブジェクト500と同様に、第3オブジェクトがユーザ202の視線上にあるか否かを推定することができる。
 表示部112aは、第1オブジェクト300a~300cが、ユーザ202に対して設定された第3閾時間であって、第1閾時間より短い第3閾時間以上継続して、ユーザ202の視線上にある、と推定されると、第1オブジェクト300a~300cに対応付けられる第3オブジェクトを、ユーザ202の視界内にさらに表示する。そして、表示部112aは、第3オブジェクトが、第1閾時間以上継続してユーザ202の視線上にある、と推定されると、第3オブジェクトをユーザ202の視界内から消去して、第2オブジェクト500をユーザ202の視界内に表示する。また、表示部112aは、第3オブジェクトが、第1閾時間以上継続してユーザ202の視線上にない、と推定すると、第3オブジェクトをユーザ202の視界内から消去する。
 ここで、第3閾時間は、第1オブジェクト300a~300cに注目しているか否かを予備的に判定するための閾時間である。第3閾時間は、第1閾時間よりも短く設定されており、例えば、第3閾時間=第1閾時間×k(0<k<1の定数)のように、第1閾時間に基づいて計算されてもよい。
 また、第3オブジェクトは、第1オブジェクト300a~300cの代わりとして、第1オブジェクト300a~300cがユーザ202に注目されているか否かの判定に用いられるオブジェクトである。第3オブジェクトは、例えば、人型のオブジェクトである。
 さらに、表示部112aは、第3オブジェクトを、第1オブジェクト300a~300cと同じ現実空間201の位置に出現させる。そして、表示部112aは、第3オブジェクトを、現実空間201における出現した位置を維持するように表示する。例えば、表示部112aは、図4に示すように、第1オブジェクト300bが第3閾時間以上継続して、ユーザ202の視線上にある、と推定すると、図14Aに示すように、その時点における第1オブジェクト300bの現実空間201の位置に出現するように、第3オブジェクト700をディスプレイ104に表示する。そして、実施形態1における第2オブジェクト500と同様に、表示部112aは、第3オブジェクトが現実空間201において静止しているように見えるように、表示装置100aの向きに応じて第3オブジェクトの表示位置を変更する。従って、例えば、ユーザ202が視線方向を変化させず、第1オブジェクト300bを装着した観察対象者301bが左方向に移動しているとき、図14Bに示すように、第3オブジェクト700は、出現時における第1オブジェクト300bの位置に留まって表示される。
 また、表示部112aは、図14Bに示すように、第3オブジェクト700が、第1閾時間以上継続して注目領域601内にある、すなわちユーザ202の視線上にある、と推定すると、図15に示すように、第3オブジェクト700をユーザ202の視界内から消去して、第2オブジェクト500をユーザ202の視界内に表示する。また、表示部112aは、第3オブジェクト700が、第1閾時間以上継続してユーザ202の視線上にない、と推定すると、第3オブジェクト700をユーザ202の視界内から消去する。
 修正部114aは、第3オブジェクト700が第1閾時間以上継続してユーザ202の視線上にあると推定されたことに起因して第2オブジェクト500が表示された後、第2オブジェクト500がユーザ202の視線上にある、と推定された閲覧時間長に応じて、ユーザに対して設定される第3閾時間を修正する。
 具体的には、修正部114aは、実施形態1における第1閾時間と同様に、閲覧時間長が所定の閾時間よりも短いとき、第3閾時間を所定時間だけ長く修正してもよい。すなわち、第2オブジェクト500の閲覧時間長が所定の閾時間よりも短いとき、第3閾時間が短すぎて、偶然ユーザ202の注目領域401内を通過した第1オブジェクト300a~300c、すなわち、ユーザが注目していない第1オブジェクト300a~300cに対応付けられる第3オブジェクト700が表示された可能性が高いと考えられる。そのため、修正部114aは、第3閾時間が長くなるように修正する。
 次に、本発明の実施形態にかかる表示装置100aの動作について説明する。図16は、表示装置100aの制御部101により実行される表示処理の流れを表すフローチャートである。本処理は、例えば、操作部107を介して本処理の開始指示を受け付けたことを契機として開始する。
 まず、表示装置100aは、図10に示す表示処理のステップS101~S104と同様にステップS401~S404の処理を実行する。
 表示装置100aは、ユーザ202の視線上に第1オブジェクト300a~300cがあると判定したとき(ステップS404;Yes)、第3オブジェクト表示処理を実行する(ステップS405)。
 図17は、表示装置100aの制御部101により実行される第3オブジェクト表示処理の流れを表すフローチャートである。
 表示装置100aは、第3オブジェクト表示処理を開始すると、図16のステップS404においてユーザ202の視線上にあると判定された第1オブジェクト300a~300cの視線上時間長のカウントを開始する(ステップS501)。
 表示装置100aは、視線方向を撮像する(ステップS502)。
 表示装置100aは、ステップS502において撮像された撮像画像に基づいて、ユーザ202の視線上に第1オブジェクト300a~300cがあるか否かを判定する(ステップS503)。表示装置100aは、ユーザ202の視線上に第1オブジェクト300a~300cがないと判定したとき(ステップS503;No)、視線上時間長のカウントを停止して図16のステップS403の処理に戻る。
 表示装置100aは、ユーザの視線上に第1オブジェクトがあると判定したとき(ステップS503;Yes)、視線上時間長が第3閾時間以上か否かを判定する(ステップS504)。表示装置100aは、視線上時間長が第3閾時間以上でないと判定したとき(ステップS504;No)、ステップS502の処理に戻る。
 表示装置100aは、視線上時間長が第3閾時間以上であると判定したとき(ステップS504;Yes)、第3オブジェクト700をディスプレイに表示する(ステップS505)。そして、表示装置100aは、図16のステップS406に進む。
 図16に戻って、表示装置100aは、第2オブジェクト表示処理を実行する(ステップS406)。
 図18は、表示装置100aの制御部101により実行される第2オブジェクト表示処理の流れを表すフローチャートである。
 表示装置100aは、第2オブジェクト表示処理を開始すると、第3オブジェクト700の視線上時間長のカウントを開始する(ステップS601)。
 表示装置100aは、視線方向を撮像する(ステップS602)。
 表示装置100aは、ステップS602において撮像された撮像画像に基づいて、ユーザ202の視線上に第3オブジェクト700があるか否かを判定する(ステップS603)。
 表示装置100aは、ユーザ202の視線上に第3オブジェクト700があると判定したとき(ステップS603;Yes)、視線上時間長が第1閾時間を経過したか否かを判定する(ステップS604)。表示装置100aは、視線上時間長が第1閾時間を経過していないと判定したとき(ステップS604;No)、ステップS602の処理に戻る。
 表示装置100aは、視線上時間長が第1閾時間を経過したと判定したとき(ステップS604;Yes)、第3オブジェクト700を消去する(ステップS605)。
 表示装置100aは、第3オブジェクト700と対応付けられた第1オブジェクト300a~300cの観察対象者301a~301cに関する情報を取得する(ステップS606)。
 表示装置100aは、ステップS606において取得した情報を表す第2オブジェクトを生成する(ステップS607)。
 表示装置100aは、ステップS607において生成した第2オブジェクトをディスプレイ104に表示する(ステップS608)。
 そして、表示装置100aは、閲覧時間長のカウントを開始する(ステップS609)。そして、表示装置100aは、第2オブジェクト表示処理を終了し、図16のステップS407に進む。
 また、表示装置100aは、ユーザの視線上に第3オブジェクトがないと判定したとき(ステップS603;No)、第3オブジェクト消去処理を実行する(ステップS610)。
 図19は、表示装置100aの制御部101により実行される第3オブジェクト消去処理の流れを表すフローチャートである。
 表示装置100aは、第3オブジェクト消去処理を開始すると、第3オブジェクトの視線上時間長のカウントを停止する(ステップS701)。そして、表示装置100aは、第3オブジェクト700の視線外時間長のカウントを開始する(ステップS702)。
 表示装置100aは、視線方向を撮像する(ステップS703)。
 表示装置100aは、ステップS703において撮像された撮像画像に基づいて、ユーザ202の視線上に第3オブジェクト700があるか否かを判定する(ステップS704)。
 表示装置100aは、ユーザ202の視線上に第3オブジェクト700があると判定したとき(ステップS704;Yes)、視線外時間長のカウントを停止する(ステップS705)。そして、表示装置100aは、第3オブジェクト700の視線上時間長のカウントを開始し(ステップS706)、図18のステップS602に戻る。
 表示装置100aは、ユーザ202の視線上に第3オブジェクト700がないと判定したとき(ステップS704;No)、視線外時間長が第1閾時間以上か否かを判定する(ステップS707)。表示装置100aは、視線外時間長が第1閾時間以上でないと判定したとき(ステップS707;No)、ステップS703の処理に戻る。
 表示装置100aは、視線外時間長が第1閾時間以上であると判定したとき(ステップS707;Yes)、視線外時間長のカウントを停止する(ステップS708)。そして、表示装置100aは、第3オブジェクト700をユーザ202の視界内から消去し(ステップS709)、図16のステップS403の処理に戻る。
 図16に戻って、表示装置100aは、図10の表示処理のステップS106~S109と同様の処理をステップS407~S410において実行する。
 表示装置100aは、ステップS409の第2オブジェクト消去処理により閲覧時間長のカウントが停止されるまでの閲覧時間長に応じて、第3閾時間を修正する(ステップS411)。そして、表示装置100aは、ステップS403の処理に戻る。
 そして、表示装置100aは、例えば操作部107を介して本処理の終了指示を受け付けるまで、繰り返し上記の処理を実行する。
 以上説明したように、本発明の実施形態に係る表示装置100aは、第1オブジェクト300a~300cが第3閾時間以上ユーザ202の視線上にあると推定されると、第3オブジェクト700が表示される。また、第3オブジェクト700が、第1閾時間以上継続してユーザ202の視線上にあると推定されると、第3オブジェクト700が消去され、第2オブジェクト500が表示される。そのため、ユーザ202は、第2オブジェクト500を表示させたい第1オブジェクト300a~300cが移動している場合であっても、第1オブジェクト300a~300cを第1閾時間よりも短い第3閾時間注目することにより、第3オブジェクト700を表示させ、その第3オブジェクト700を第1閾時間注目することにより、第2オブジェクトを表示させることができる。従って、ユーザ202は、第1オブジェクト300a~300cを第1閾時間注目しつづけることにより第2オブジェクト500を表示させる場合よりも、容易に第2オブジェクト500を表示させることができる。
 また、表示装置100aは、第3オブジェクト700が第1閾時間以上継続してユーザ202の視線上にある、と推定されることに起因してユーザ202の視線上にあると推定された閲覧時間長に応じて、第3閾時間を修正する。そのため、表示装置100aは、ユーザ202の視線上にある第1オブジェクト300a~300cが、ユーザ202が意図的に注目しているオブジェクトなのか、偶然視線上を通過したオブジェクトなのかを予備的に判定するための第3閾時間をユーザ202に応じて適切に修正することができる。
 以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。即ち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
 上記の実施形態1及び実施形態2において、第1オブジェクト300a~300cが、所定のパターン画像を表すARマーカである例について説明したが、第1オブジェクトとして適用可能なものはこれに限られない。例えば、第1オブジェクトは、現実空間201に存在する任意の物体であってもよい。この場合、表示装置100,100aは、予め物体の形状パターンを記憶し、撮像画像と形状パターンとから、画像認識により物体を認識してもよい。
 さらに、第1オブジェクトは、仮想空間におけるオブジェクトであってもよい。この場合、表示装置100,100aは、表示装置100,100aの向きに応じて仮想空間における視線方向を検知し、仮想空間における第1オブジェクトの既知の位置や移動速度に基づいて、ユーザ202の視線上にある第1オブジェクトを推定してもよい。
 また、上記の実施形態1及び2において表示装置100,100aは、画像認識により第1オブジェクト300a~300cがユーザ202の視線上にあるか否かを推定し、表示装置100,100aの向きに応じて視線方向及び注目領域601を移動させることにより第2オブジェクト500及び第3オブジェクト700がユーザ202の視線上にあるか否かを推定する例について説明した。しかし、推定部111が、第1オブジェクト300a~300c、第2オブジェクト500、及び第3オブジェクト700がユーザ202の視線上にあるか否かを推定する方法はこれに限られない。表示装置100,100aは、アイトラッキングによりユーザ202の視線方向を検知し、第1オブジェクト300a~300c、第2オブジェクト500、及び第3オブジェクト700がユーザ202の視線上にあるか否かを推定してもよい。
 また、上記の実施形態1及び2において、表示装置100,100aは、第2オブジェクト500の閲覧時間長が所定の閾時間よりも短いとき、第1閾時間または第3閾時間を所定時間だけ長く修正する例について説明した。しかし、閲覧時間長に応じて第1閾時間及び第3閾時間を修正する方法はこれに限られない。
 例えば、表示装置100,100aは、第2オブジェクト500の閲覧時間長の出現頻度の分布を求め、分布に基づいて第1閾時間及び第3閾時間を修正してもよい。例えば、表示装置100,100aは、第2オブジェクトの閲覧時間長を記録し、図20Aに示すような分布が得られたとする。図20Aにおいて、横軸は、第2オブジェクト500の閲覧時間長、縦軸は閲覧時間長の出現頻度を表す。ユーザ202にとって興味がある情報が第2オブジェクト500に表されている場合、閲覧時間長は長くなり、ユーザ202にとって興味がない情報が第2オブジェクト500に表されている場合、閲覧時間長は短くなる傾向にあると考えられる。従って、図20Aに示すように、閲覧時間長の出現頻度の分布は、閲覧時間長が短い側のピークと、閲覧時間長が長い側のピークとの2つのピークを持つと考えられる。そのため、例えば、0≦t≦tcの閲覧時間長tの分布が得られた場合、閲覧時間長の長さに応じて分布を0≦t<ta、ta≦t<tb、tb≦t≦tcのように3分割し、閲覧時間長tが0≦t<taのとき、第1閾時間T1を1.05倍、閲覧時間長tがta≦t<tbのとき、現在の第1閾時間T1を維持、閲覧時間長tがtb≦t≦tcのとき、第1閾時間T1を0.96倍、のように閲覧時間長tの分布に基づいて、第1閾時間T1を修正してもよい。なお、閲覧時間長tが0≦t<taのとき、またはtb≦t≦tcのときにおける第1閾時間T1が増加または減少する度合は、上記の例に限られず、閲覧時間長tが0≦t<taのとき、第1閾時間T1をC1×T1(C1はC1>1であって、1に近い定数)、閲覧時間長tがtb≦t≦tcのとき、第1閾時間T1をC2×T1(C2はC2<1であって、1に近い定数)のように定数C1,C2を適宜定めることが可能である。
 また、図20Bに示すように、閲覧時間長の分布における2つのピークの間の谷である閲覧時間長tdを閾値として、第1閾時間を所定時間だけ増減してもよい。例えば、閲覧時間長tが短い閲覧時間長のピーク側である0≦t<tdのとき、第1閾時間を所定時間α(αは正の数)だけ増加させ、閲覧時間長tが長い閲覧時間長のピーク側であるtd≦tのとき、第1閾時間T1を所定時間αだけ減少させてもよい。
 また、図20Cに示すように、閲覧時間長の分布において、m個(m≧3)のピークがある場合には、閲覧時間長tが、短い閲覧時間長側からm/3個のピークに属する0≦t<teのとき、第1閾時間T1を所定時間αだけ増加させてもよい。
 なお、上記の図20A~図20Cに示す例では、閲覧時間長の分布に基づいて、第1閾時間を修正する例について説明したが、同様の方法により、閲覧時間長の分布に基づいて第3閾時間を修正してもよい。
 また、実施形態2において、第3オブジェクト700は、出現後、第1オブジェクト300a~300cと同じ位置に留まる例について説明した。しかし、第3オブジェクト700の態様はこれに限られない。例えば、表示装置100aは、第3オブジェクト700の出現後、第1オブジェクト300a~300cの移動の軌跡を辿るように移動し、かつ、第3オブジェクトの移動速度が徐々に遅くなるように、第3オブジェクト700を表示してもよい。
 さらに、表示装置100aは、第3オブジェクト700の出現後、第1オブジェクト300a~300cがユーザ202の視界内から出るまで第1オブジェクト300a~300cに追随し、第1オブジェクト300a~300cがユーザ202の視界内から出ると、ユーザ202の視界内の縁に留まるように第3オブジェクト700を表示してもよい。例えば、図14Aに示すように、第3オブジェクト700が第1オブジェクト300bの位置に出現した場合、第1オブジェクト300bが左方向に移動しているとすると、図21Aに示すように、第3オブジェクト700は、第1オブジェクト300bに追随して移動するように表示される。そして、第1オブジェクト300bがユーザ202の視界内から出たことが検知されると、第3オブジェクト700は、ディスプレイ104の左縁に留まるように表示される。このように、第1オブジェクト300a~300cに対応付けられる第3オブジェクト700がユーザの視界内に留まるように表示されることにより、注目したい第1オブジェクト300a~300cが移動しており、ユーザの視界から外れた場合であっても、第3オブジェクト700はユーザの視界内に残るため、第3オブジェクト700に容易に注目することができ、第2オブジェクト500を表示させることができる。
 なお、本発明に係る機能を実現するための構成を予め備えた表示装置100,100aとして提供できることはもとより、プログラムの適用により、既存のパーソナルコンピュータや情報端末機器等を、本発明に係る表示装置100,100aとして機能させることもできる。即ち、上記実施形態で例示した表示装置100,100aによる各機能構成を実現させるためのプログラムを、既存のパーソナルコンピュータや情報端末機器を制御するCPU等が実行できるように、既存のパーソナルコンピュータや情報端末機器に適用することで、そのパーソナルコンピュータや情報端末機器を本発明に係る表示装置100,100aとして機能させることができる。また、本発明に係る表示方法は、表示装置100,100aを用いて実施できる。
 また、このようなプログラムは、上記に限られず、任意の方法で適用可能である。プログラムを、例えば、コンピュータが読取可能な記録媒体[CD-ROM(Compact Disc Read-Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto Optical disc)等]に格納して適用できる他、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより適用することもできる。
 なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。即ち、本発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 本発明は、画像を表示する表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体に利用することができる。
100,100a 表示装置
101 制御部
102 ROM
103 RAM
104 ディスプレイ
105 センサ部
106 撮像部
107 操作部
108 バス
111 推定部
112 表示部
113 消去部
114 修正部
201 現実空間
202 ユーザ
203 表示方向
300a~300c 第1オブジェクト
301a~301c 観察対象者
400 撮像画像
401,601 注目領域
500 第2オブジェクト

Claims (15)

  1.  オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
     第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
     前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
     前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
     を備える表示装置。
  2.  前記修正部は、前記閲覧時間長が短いほど、前記第1閾時間を長く修正する、
     請求項1に記載の表示装置。
  3.  前記修正部は、前記閲覧時間長の分布に基づいて、前記第1閾時間を修正する、
     請求項1に記載の表示装置。
  4.  前記表示部は、
     前記第1オブジェクトが、前記ユーザに対して設定された第3閾時間であって、前記第1閾時間より短い第3閾時間以上継続して、前記ユーザの前記視線上にある、と推定されると、前記第1オブジェクトに対応付けられる第3オブジェクトを、前記ユーザの視界内から消去して、前記第2オブジェクトを前記ユーザの視界内に表示し、
     前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にある、と推定されると、前記第3オブジェクトを前記ユーザの視界内から消去して、前記第2オブジェクトを前記ユーザの視界内に表示し、
     前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第3オブジェクトを前記ユーザの視界内から消去する、
     請求項1に記載の表示装置。
  5.  前記表示部は、前記第3オブジェクトを、前記第1オブジェクトと同じ位置に出現するように表示する、
     請求項4に記載の表示装置。
  6.  前記表示部は、前記第3オブジェクトの出現後、前記第3オブジェクトを第1オブジェクトが配置される空間内の位置をそのまま維持するように表示する、
     請求項5に記載の表示装置。
  7.  前記表示部は、前記第3オブジェクトの出現後、前記第1オブジェクトの移動の軌跡を辿るように移動し、かつ、前記第3オブジェクトの移動速度が徐々に遅くなるように前記第3オブジェクトを表示する、
     請求項5に記載の表示装置。
  8.  前記表示部は、前記第3オブジェクトの出現後、前記第1オブジェクトが前記ユーザの視界内から出るまで前記第1オブジェクトに追随し、前記第1オブジェクトが前記ユーザの視界内から出ると、前記ユーザの視界内の縁に留まるように前記第3オブジェクトを表示する、
     請求項5に記載の表示装置。
  9.  前記第3閾時間は、前記第1閾時間に基づいて、計算される、
     請求項4に記載の表示装置。
  10.  前記修正部は、前記第3オブジェクトが、前記第1閾時間以上継続して前記ユーザの前記視線上にある、と推定されることに起因して前記第2オブジェクトが表示された後、前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第3閾時間を修正する、
     請求項4に記載の表示装置。
  11.  前記修正部は、前記閲覧時間長が短いほど、前記第3閾時間を長く修正する、
     請求項10に記載の表示装置。
  12.  前記修正部は、前記閲覧時間長の分布に基づいて、前記第3閾時間を修正する、
     請求項10に記載の表示装置。
  13.  表示装置が実行する表示方法であって、
     オブジェクトがユーザの視線上にあるか否かを推定する推定ステップと、
     第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示ステップと、
     前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去ステップと、
     前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正ステップと、
     を備える表示方法。
  14.  コンピュータを、
     オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
     第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
     前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
     前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
     として機能させることを特徴とするプログラム。
  15.  オブジェクトがユーザの視線上にあるか否かを推定する推定部と、
     第1オブジェクトが、前記ユーザに対して設定された第1閾時間以上継続して前記ユーザの視線上にある、と推定されると、前記第1オブジェクトに係る情報を表す第2オブジェクトを、前記ユーザの視界内に表示する表示部と、
     前記第2オブジェクトが、前記ユーザに対して設定された第2閾時間以上継続して前記ユーザの前記視線上にない、と推定されると、前記第2オブジェクトを前記ユーザの前記視界内から消去する消去部と、
     前記第2オブジェクトが前記ユーザの前記視線上にある、と推定された閲覧時間長に応じて、前記ユーザに対して設定される前記第1閾時間を修正する修正部と、
     として機能させることを特徴とするプログラムを記録した非一時的なコンピュータ読取可能な情報記録媒体。
PCT/JP2018/019457 2018-05-21 2018-05-21 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体 Ceased WO2019224866A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019524285A JP6581748B1 (ja) 2018-05-21 2018-05-21 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US16/483,305 US11334151B2 (en) 2018-05-21 2018-05-21 Display apparatus, display method, program, and non-transitory computer-readable information recording medium
PCT/JP2018/019457 WO2019224866A1 (ja) 2018-05-21 2018-05-21 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019457 WO2019224866A1 (ja) 2018-05-21 2018-05-21 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Publications (1)

Publication Number Publication Date
WO2019224866A1 true WO2019224866A1 (ja) 2019-11-28

Family

ID=68053514

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019457 Ceased WO2019224866A1 (ja) 2018-05-21 2018-05-21 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Country Status (3)

Country Link
US (1) US11334151B2 (ja)
JP (1) JP6581748B1 (ja)
WO (1) WO2019224866A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4180918A4 (en) * 2020-07-28 2024-01-03 Huawei Technologies Co., Ltd. METHOD FOR MOVING AN CONTROL AND ELECTRONIC DEVICE

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490372B2 (ja) * 2020-01-21 2024-05-27 キヤノン株式会社 撮像制御装置及びその制御方法
JP7532045B2 (ja) * 2020-02-19 2024-08-13 キヤノン株式会社 電子機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122294A1 (ja) * 2014-02-13 2015-08-20 オムロン株式会社 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
JP2015232811A (ja) * 2014-06-10 2015-12-24 株式会社ニコン 表示装置及びデジタルカメラ
JP2016081339A (ja) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018178225A1 (en) * 2017-03-31 2018-10-04 Advrty Ab Dynamic objects in virtual reality environments
WO2019093278A1 (ja) * 2017-11-10 2019-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015122294A1 (ja) * 2014-02-13 2015-08-20 オムロン株式会社 プログラマブル表示器、携帯端末装置、データ処理方法、およびプログラム
JP2015232811A (ja) * 2014-06-10 2015-12-24 株式会社ニコン 表示装置及びデジタルカメラ
JP2016081339A (ja) * 2014-10-17 2016-05-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4180918A4 (en) * 2020-07-28 2024-01-03 Huawei Technologies Co., Ltd. METHOD FOR MOVING AN CONTROL AND ELECTRONIC DEVICE
US12164759B2 (en) 2020-07-28 2024-12-10 Huawei Technologies Co., Ltd. Control moving method and electronic device

Also Published As

Publication number Publication date
US20210357023A1 (en) 2021-11-18
JPWO2019224866A1 (ja) 2020-06-11
JP6581748B1 (ja) 2019-09-25
US11334151B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
US9948863B2 (en) Self-timer preview image presentation method and apparatus, and terminal
US11102413B2 (en) Camera area locking
EP3614660B1 (en) Video image processing method and device
US9727789B2 (en) Information processing apparatus and control method thereof
JP6525611B2 (ja) 画像処理装置およびその制御方法
JP6581748B1 (ja) 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
JP5602708B2 (ja) 注視位置推定システム、注視位置推定システムの制御方法、注視位置推定装置、注視位置推定装置の制御方法、プログラム、及び情報記憶媒体
JP2010068030A (ja) 画像処理装置、画像処理方法、画像処理プログラム、撮像装置
EP3779959B1 (en) Information processing device, information processing method, and program
CN108200477B (zh) 视频文件生成及播放的方法、装置及设备
JP6456551B1 (ja) 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム
EP4250065B1 (en) Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, program, and computer readable medium
JP7418104B2 (ja) 画像処理装置及び画像処理装置の制御方法
KR20200091669A (ko) 스마트폰 사용자의 시력 보호 방법 및 그 방법을 수행하기 위한 어플리케이션
JP2019022186A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN117274097A (zh) 图像处理方法、装置、电子设备及介质
FI3669749T3 (fi) Optisen koherenssitomografiakuvantamisen ohjaus
JP7020264B2 (ja) 動作判定プログラム、動作判定装置及び動作判定方法
JP2021040183A (ja) 画像処理装置及び画像処理方法
JP6611158B2 (ja) ウェアラブル端末、制御方法、およびプログラム
JP6214365B2 (ja) 画像再生装置、その制御方法、および制御プログラム
US11050923B2 (en) Imaging apparatus and control method
US11451705B2 (en) Imaging control apparatus, imaging control method, and storage medium
US20170161933A1 (en) Mobile virtual reality (vr) operation method, system and storage media

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019524285

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18919602

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18919602

Country of ref document: EP

Kind code of ref document: A1