[go: up one dir, main page]

WO2017115505A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
WO2017115505A1
WO2017115505A1 PCT/JP2016/077778 JP2016077778W WO2017115505A1 WO 2017115505 A1 WO2017115505 A1 WO 2017115505A1 JP 2016077778 W JP2016077778 W JP 2016077778W WO 2017115505 A1 WO2017115505 A1 WO 2017115505A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
display device
image
eye image
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/077778
Other languages
English (en)
French (fr)
Inventor
秀人 森
健 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to US16/060,216 priority Critical patent/US20180364488A1/en
Publication of WO2017115505A1 publication Critical patent/WO2017115505A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/38Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using electrochromic devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/12Adjusting pupillary distance of binocular pairs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Definitions

  • This disclosure relates to a display device.
  • Patent Document 1 describes a technique of tilting the right-eye optical system and the left-eye optical system that are arranged in front of the user's eyes to the outside for the purpose of widening the observation angle of view.
  • the present disclosure proposes a new and improved display device capable of making a stereoscopically viewable area wider.
  • the left eye optical that guides the image light to the left eye and the plane passing through the first straight line in the vertical direction in the virtual image for the right eye formed by the right eye optical system that guides the image light to the right eye and the right eye.
  • the right-eye optical system and the left-eye optical system so that a second straight line in the vertical direction corresponding to the first straight line in the virtual image for the left eye formed by the system intersects the plane passing through the left eye
  • a display device configured with the system is provided.
  • the stereoscopically viewable region can be made wider. Note that the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • HMD 10-1 according to the first embodiment and the HMD 10-2 according to the second embodiment may be collectively referred to as HMD10.
  • the information processing system includes an HMD 10, a server 20, and a communication network 22.
  • the HMD 10 is an example of a display device or an information processing device according to the present disclosure.
  • the HMD 10 is a device that controls display of content and applications. In the following, the description will be focused on the scene where the HMD 10 controls the display of content, but the display of the application can also be controlled in substantially the same manner.
  • the HMD 10 generates a left-eye image to be displayed on the left-eye display unit 126L described later on the basis of content received from the server 20 via the communication network 22, and the right-eye display unit 126R described later.
  • a right-eye image to be displayed is generated.
  • the content may be, for example, video data recorded on various recording media, may be video data provided from, for example, the server 20 via the communication network 22, or the like.
  • the content may be 2D content or 3D content (stereoscopic video).
  • the HMD 10 is basically a transmissive head-mounted display as shown in FIG. That is, the right-eye display unit 126R and the left-eye display unit 126L can be configured by a transmissive display. However, the present invention is not limited to this example, and the HMD 10 may be a non-transmissive head mounted display.
  • the server 20 is a device that stores a plurality of contents and applications. In addition, when a content acquisition request is received from another device such as the HMD 10, the server 20 can transmit the content to the other device based on the received acquisition request.
  • the server 20 When the server 20 does not store the requested content, the server 20 transmits the content acquisition request to another device connected to the communication network 22, and the other It is also possible to acquire content from the device.
  • the communication network 22 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 22.
  • the communication network 22 may include a public line network such as a telephone line network, the Internet, and a satellite communication network, various LANs including the Ethernet (registered trademark), a wide area network (WAN), and the like.
  • the communication network 22 may include a dedicated network such as an IP-VPN (Internet Protocol-Virtual Private Network).
  • the user perceives a virtual display such as a GUI (Graphical User Interface), for example, to be arranged at an appropriate position. For this reason, it is necessary to display the virtual display on the left eye and the right eye with an appropriate size and position according to the left and right parallax.
  • GUI Graphic User Interface
  • an image displayed by the right-eye optical system and an image displayed by the left-eye optical system in an area where binocular parallax is more effective than other recognitions that is, an area closer to the user
  • the overlapping image does not overlap or the overlapping area is small. That is, a binocular vision region (that is, a region where the right-eye image and the left-eye image overlap) can hardly be formed in the vicinity of the user.
  • FIG. 2 is a diagram (top view) showing the principle of the HMD 10-1.
  • the HMD 10-1 includes a right-eye optical system that guides image light to the right eye 2R and a left-eye optical system that guides image light to the left eye 2L.
  • a plane passing through, for example, the center line in the vertical direction in the virtual image 30R for the right eye formed by the right-eye optical system and the right eye 2R, and a center in the vertical direction in the virtual image 30L for the left eye formed by the optical system for the left eye are configured so that the line and the plane passing through the left eye 2L intersect.
  • the right-eye optical system may be configured integrally with a right-eye display unit 126R including a light-emitting element
  • the left-eye optical system may be configured integrally with a left-eye display unit 126L including a light-emitting element.
  • the plane passing through the vertical center line and the right eye 2R in the virtual image 30R for the right eye intersects with the plane passing through the vertical center line and the left eye 2L in the virtual image 30L for the left eye.
  • the right-eye display unit 126R and the left-eye display unit 126L can be tilted.
  • FIG. 3 is a schematic diagram (top view) showing the viewing angle and the binocular vision region 32 according to the configuration of the HMD 10-1 as described above.
  • 3A is a diagram illustrating a comparative example of the first embodiment
  • FIG. 3B is a diagram illustrating the HMD 10-1.
  • This comparative example is an example when the right-eye display unit 126R and the left-eye display unit 126L are not tilted (that is, set in parallel).
  • the binocular vision region 32 is formed from a distance closer to the user than in this comparative example.
  • FIG. 4 is a functional block diagram showing the configuration of the HMD 10-1.
  • the HMD 10-1 includes a control unit 100-1, a communication unit 120, a sensor unit 122, a storage unit 124, a left-eye display unit 126L, and a right-eye display unit 126R.
  • the control unit 100-1 generally controls the operation of the HMD 10-1 using hardware such as a CPU (Central Processing Unit) 150 and a RAM (Random Access Memory) 154, which will be described later, built in the HMD 10-1. To do. As illustrated in FIG. 4, the control unit 100-1 includes a content acquisition unit 102, a detection result acquisition unit 104, and an output control unit 106.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • the content acquisition unit 102 acquires content to be displayed. For example, the content acquisition unit 102 receives content to be displayed from the server 20. Alternatively, when content is stored in the storage unit 124, the content acquisition unit 102 can also acquire content to be displayed from the storage unit 124.
  • the content acquisition unit 102 can also acquire content information of the content along with the video signal of the content.
  • the content information is meta information indicating, for example, the type, genre, or title of the corresponding content.
  • the detection result acquisition unit 104 acquires the result sensed by the sensor unit 122.
  • the detection result acquisition unit 104 acquires detection results such as the speed, acceleration, tilt, and position information of the HMD 10-1, or detection results such as the brightness of the environment. Further, the detection result acquisition unit 104 acquires an image photographed by the sensor unit 122.
  • the output control unit 106 generates a right-eye image and a left-eye image based on the content video signal acquired by the content acquisition unit 102. For example, when the content is 2D content, the output control unit 106 generates a right-eye image and a left-eye image based on the (identical) video signal of the content. When the content is 3D content, the output control unit 106 generates a right-eye image based on the right-eye video signal included in the content, and the left-eye video signal included in the content. Based on the above, a left eye image is generated.
  • the output control unit 106 generates a right-eye image by cutting out a region corresponding to the right-eye image (to be generated) from the content video signal, and generates (generates) the content from the content video signal.
  • a left eye image is generated by cutting out a region corresponding to the left eye image.
  • FIG. 5 is an explanatory diagram showing an example in which a right-eye image 42R and a left-eye image 42L are generated based on the video signal 40 of 2D content.
  • the right-eye image 42R and the left-eye image 42L are generated so that the right-eye image 42R and the left-eye image 42L include the region of the section x2 to x3 in the horizontal direction (x direction) in the video signal 40.
  • An example is shown. As shown in FIG.
  • the output control unit 106 cuts out a region including the left end of the video signal 40 (specifically, a region in the section of x1 to x3) from the video signal 40, thereby generating the right-eye image 42R. Generate. Further, the output control unit 106 generates a left-eye image 42L by cutting out an area including the right end of the video signal 40 (specifically, an area in the section of x2 to x4) from the video signal 40. Note that the size of the right-eye image 42R and the left-eye image 42L can be set to a size within a range that can be displayed on the left-eye display unit 126L or the right-eye display unit 126R, for example.
  • FIG. 6 is an explanatory diagram showing the relationship between the left-eye image 42L and the right-eye image 42R according to the generation example described above.
  • the left-eye image 42L is observed with the left eye 2L
  • the right-eye image 42R is observed with the right eye 2R.
  • the left-eye image 42L and the right-eye image 42R are generated so as to include an overlapping area and an overlapping area. Therefore, it is possible to ensure both a wide viewing angle and a wide binocular viewing area.
  • FIG. 7 is an explanatory diagram showing an example in which a right-eye image 42R and a left-eye image 42L are generated based on 3D content.
  • the right-eye image 42R or the left-eye image 42L includes regions in the horizontal section x2 to x3 in the right-eye video signal 40R or the left-eye video signal 40L of the content, respectively.
  • An example is shown in which an image 42R and a left-eye image 42L are generated.
  • the output control unit 106 extracts the right-eye image 42R by cutting out an area including the left end of the video signal 40R for the right eye (specifically, an area in the section of x1 to x3) as it is. Generate. Further, the output control unit 106 generates the left-eye image 42L by cutting out the region including the right end of the left-eye video signal 40L (specifically, the region in the section from x2 to x4) as it is.
  • the output control unit 106 may generate a right-eye image or a left-eye image based on a partial region (for example, 80% region) of the content video signal.
  • a plurality of streams can be prepared in advance for one content.
  • one content includes a video signal for the left eye and a right eye for content that can be displayed on a display device such as a known transmissive head-mounted display (hereinafter may be referred to as a C-shaped display content).
  • 4 types of streams including a left-eye video signal and a right-eye video signal of content that can be displayed on the HMD 10-1 (hereinafter also referred to as content for the HMD 10-1) are prepared. obtain.
  • the output control unit 106 generates a left-eye image based on the left-eye video signal of the content for the HMD 10-1 among the four types of streams acquired by the content acquisition unit 102, A right-eye image is generated based on the right-eye video signal of the content.
  • the left-eye video signal for the HMD 10-1 content or the right-eye video signal for the HMD 10-1 or the right-eye video signal for the content is not prepared in advance. It is also assumed that the video signal for the right eye of the content is not acquired.
  • the output control unit 106 is based on the left-eye video signal and the right-eye video signal of the C-shaped display content acquired by the content acquisition unit 102 and the existing image processing technology. It is also possible to generate a substitute video for the content for the HMD 10-1. Then, the output control unit 106 can generate a left-eye image or a right-eye image based on the generated substitute video.
  • the output control unit 106 can generate a right-eye image and a left-eye image based on the content information acquired (with the content) by the content acquisition unit 102 . For example, the output control unit 106 cuts out a region corresponding to the right eye image (to be generated) and a region corresponding to the left eye image (to be generated) from the video signal of the content at the cutout position indicated by the content information. Thus, the right-eye image and the left-eye image may be generated. Alternatively, the output control unit 106 may generate the right-eye image and the left-eye image by enlarging or reducing the entire video signal of the content or a specific area based on the content information.
  • the output control unit 106 can also generate a right-eye image and a left-eye image based on an analysis of the acquired content video. For example, the output control unit 106 determines the cutout position according to the video analysis result of the content, and corresponds to the region corresponding to the right-eye image from the video signal of the content and the left-eye image at the determined cutout position. A right-eye image and a left-eye image may be generated by cutting out each region.
  • the output control unit 106 clips the video signal of the content according to the aspect of the video that can be displayed by the display unit 126L for the left eye or the display unit 126R for the right eye, or the video signal of the content Can be enlarged or reduced.
  • the output control unit 106 reduces the acquired content to a video signal of “4: 3”, and generates a right-eye image and a left-eye image based on the reduced video. It may be generated.
  • the output control unit 106 can correct the display position of the content based on the acquired content or content information. For example, the output control unit 106 applies the binocular vision region and the monocular vision region (that is, the region where the right-eye image and the left-eye image do not overlap) based on the acquired content or content information. Decide whether to place content (information contained in). For example, when the acquired content is 3D content, the output control unit 106 arranges the content in the binocular vision region. When the acquired content is 2D content, the output control unit 106 may arrange the content in the one-eye viewing area.
  • the binocular vision region and the monocular vision region that is, the region where the right-eye image and the left-eye image do not overlap
  • the output control unit 106 arranges the content in the binocular vision region.
  • the output control unit 106 may arrange the content in the one-eye viewing area.
  • the output control unit 106 determines the arrangement position of the object according to the distance between the initial position of the object included in the content and the user. For example, when the distance between the initial position of the object and the user is smaller than a predetermined threshold, the output control unit 106 arranges the object in the binocular vision region. When the distance between the initial position of the object and the user is greater than a predetermined threshold, the output control unit 106 may place the object in the one-eye viewing area. When the distance between the initial position of the object and the user is medium and all or part of the object is displayed in the monocular region, the output control unit 106 displays the monocular region. The displayed object may be thinned, blurred, or displayed in a wire frame. Thereby, it is possible to express the distance to the object in an ambiguous manner.
  • the output control unit 106 determines an arrangement position of the object included in the content according to the detected moving speed of the user. For example, when the moving speed of the user is equal to or higher than a predetermined threshold, the output control unit 106 arranges the object in the one-eye viewing region (and a far region). When the user's moving speed is less than the predetermined threshold, the output control unit 106 arranges the object in the binocular vision region.
  • the output control unit 106 may simply display the video (expression) that changes from 3D to 2D.
  • the output control unit 106 cross-fades and displays a 3D video (for example, generated in real time by a GPU (Graphics Processing Unit)) and a 2D video generated in advance for the video. Also good.
  • the output control unit 106 displays the video displayed in the peripheral visual field area of the corresponding video (while cross-fading) with a wire frame, gradually reduces the resolution, or blurs, shades, etc. You can also blur.
  • the output control unit 106 can perform a correction process for suppressing a change in luminance at the boundary between the monocular viewing area and the binocular viewing area for the right eye image clipping area or the left eye image clipping area. preferable.
  • the output control unit 106 can change the luminance of the pixel by a change amount corresponding to the luminance of the pixel in the right-eye image clipping region or the left-eye image clipping region in the content. For example, the output control unit 106 changes the luminance of the pixel based on the luminance of the pixel in the clipping region of the right-eye image or the clipping region of the left-eye image and a predetermined gamma curve.
  • FIG. 8 is an explanatory diagram showing an example of the cutout area 42R for the right eye image and the cutout area 42L for the left eye image.
  • FIG. 8 shows an example in which the entire cutout area 42R and the cutout area 42L are white (white screen) (for ease of explanation).
  • the cutout region 42 ⁇ / b> R and the cutout region 42 ⁇ / b> L have regions that overlap each other in the “O1” and “O2” sections in the x direction.
  • FIG. 9 is a graph showing an example of a correction function applied to the cutout region 42R and the cutout region 42L shown in FIG.
  • FIG. 9A is a graph showing an example of a correction function applied to the cutout region 42R, and FIG. 9B is applied to the cutout region 42L. It is the graph which showed the example of the function of correction
  • the output control unit 106 applies “O2” in FIG. 9A to the overlapping region 422R of the section “O2” in the cutout region 42R (that is, the overlap region including the right end of the cutout region 42R).
  • Luminance correction is performed using a gamma curve having the shape shown in the section.
  • the output control unit 106 applies an overlap region 420L of the section “O1” in the cut-out region 42L of the left-eye image (that is, an overlap region including the left end of the cut-out region 42L) in FIG.
  • the luminance is corrected using the gamma curve having the shape shown in the section “O1”.
  • the shape of the gamma curve can be determined according to the luminance of each pixel of the video signal of the content (all “255 (maximum value)” in the example shown in FIG. 9). Further, FIG. 9 shows an example in which the minimum value of luminance in the gamma curve is “0”, but the present invention is not limited to this example, and can be set to an arbitrary value.
  • the right-eye image cut-out area and the left-eye image cut-out area are appropriately blended at the boundary portion between the monocular viewing area and the binocular viewing area, so that the luminance change becomes gentle. Therefore, the boundary portion can be perceived naturally by the user.
  • the output control unit 106 can further perform distortion removal on the image for the right eye or the image for the left eye that has been cut out.
  • the output control unit 106 displays the generated right-eye image on the right-eye display unit 126R, and displays the generated left-eye image on the left-eye display unit 126L.
  • the communication unit 120 transmits and receives information to and from other devices that can communicate with the HMD 10-1. For example, the communication unit 120 transmits a specific content acquisition request to the server 20 according to the control of the content acquisition unit 102. In addition, the communication unit 120 receives content from the server 20.
  • the sensor unit 122 includes, for example, a triaxial acceleration sensor, a gyroscope, a magnetic sensor, an illuminance sensor, an image sensor, an infrared sensor, and the like.
  • the sensor unit 122 measures the speed, acceleration, inclination, or direction of the HMD 10-1.
  • the sensor unit 122 measures the brightness of the environment.
  • the sensor unit 122 can also record an external video as a digital image by detecting it using an image sensor or an infrared sensor.
  • the sensor unit 122 may include a positioning device that receives a positioning signal from a positioning satellite such as GPS (Global Positioning System) and measures the current position.
  • a positioning satellite such as GPS (Global Positioning System)
  • the storage unit 124 stores various data and various software.
  • the left-eye display unit 126L and the right-eye display unit 126R display images by light emission.
  • the left-eye display unit 126L and the right-eye display unit 126R have an image projection device, and at least a part of each of the left-eye lens (left-eye optical system) and the right-eye lens (right-eye optical system) is included.
  • An image is projected on the image projection device as a projection surface.
  • the left-eye lens and the right-eye lens can be formed of a transparent material such as resin or glass.
  • each of the left-eye display unit 126L and the right-eye display unit 126R may have a liquid crystal panel, and the transmittance of the liquid crystal panel may be controllable. Accordingly, the left-eye display unit 126L and the right-eye display unit 126R can be controlled to be transparent or translucent.
  • the left-eye display unit 126L and the right-eye display unit 126R are configured as non-transmissive display devices, and sequentially display images in the user's line-of-sight direction that are captured by the sensor unit 122. May be.
  • the left-eye display unit 126L and the right-eye display unit 126R may be configured with an LCD (Liquid Crystal Display), an OLED (Organic Light Emitting Diode), or the like.
  • FIG. 10 is a flowchart showing an example of the operation according to the first embodiment.
  • the content acquisition unit 102 of the HMD 10-1 acquires the content to be displayed from the server 20, for example.
  • the content acquisition unit 102 also acquires content information (S101).
  • the output control unit 106 determines whether or not the acquired content is a dedicated content (that is, a content dedicated to the HMD 10-1) (S103).
  • the output control unit 106 When the acquired content is dedicated content (S103: Yes), the output control unit 106 generates a left-eye image based on the left-eye video signal of the acquired content, and the right-eye of the content A right-eye image is generated based on the video signal for use (S105).
  • the left-eye display unit 126L displays the generated left-eye image under the control of the output control unit 106.
  • the right-eye display unit 126R displays the generated right-eye image according to the control of the output control unit 106 (S107).
  • the output control unit 106 Based on the acquired content and content information, a right-eye image and a left-eye image are generated (S111). Then, the HMD 10-1 performs the process of S107.
  • the output control unit 106 First, the video signal of the content is analyzed (S113). Then, the output control unit 106 generates a right-eye image and a left-eye image based on the content and the video analysis result (S115). Thereafter, the HMD 10-1 performs the process of S107.
  • the HMD 10-1 includes the plane passing through the vertical center line and the right eye 2R in the virtual image 30R for the right eye, and the vertical center line and the left eye in the virtual image 30L for the left eye.
  • the right-eye display unit 126R and the left-eye display unit 126L are tilted so that a plane passing through 2L intersects. For this reason, both a wide viewing angle and a wide binocular vision region can be secured simultaneously.
  • the binocular vision region can be secured from a distance closer to the user as compared with a known transmissive head-mounted display. Therefore, as compared with the known technology, video using binocular parallax expression is appropriately displayed in a wider area where binocular parallax is more effective than other cognitions (area closer to the user). Can do.
  • a region where motion parallax or relative object size is effective for object recognition a region far from the user
  • the first embodiment is not limited to the above description.
  • the example in which the HMD 10-1 includes the content acquisition unit 102 and the output control unit 106 has been described, but the present invention is not limited to such an example.
  • the server 20 may include a content acquisition unit 102 and an output control unit 106 (at least a part of each) instead of the HMD 10-1.
  • the server 20 generates the right-eye image and the left-eye image based on the display target content and device information received from another device such as the HMD 10-1, for example.
  • the generated right-eye image and left-eye image can be transmitted to the other device.
  • the server 20 first determines whether the display of the other apparatus is a C-shaped display or a display for the HMD 10-1 (that is, reverse C Character display).
  • the server 20 acquires the determined two types of streams for display (that is, the left-eye video signal and the right-eye video signal for the display) among the four types of streams of the content to be displayed.
  • a right-eye image and a left-eye image are generated based on the acquired stream.
  • the server 20 transmits the generated right-eye image and left-eye image to the other device.
  • Second Embodiment >> The first embodiment has been described above. In the above-described first embodiment, the example in which the positional relationship (for example, the angle) between the left-eye display unit 126L and the right-eye display unit 126R is fixed has been described.
  • the desirable positional relationship between the left-eye display unit 126L and the right-eye display unit 126R can change depending on the usage scene. For example, in a scene where importance is attached to the width of the binocular vision region, the left-eye display region 126 ⁇ / b> L and the image displayed on the right-eye display unit 126 ⁇ / b> R are overlapped with each other so that the overlapping region is large. It is desirable that the positional relationship between the display unit 126L and the right-eye display unit 126R be determined. In this case, for example, as shown in FIG. 11A, the angle formed between the left-eye display unit 126L and the right-eye display unit 126R is small, or as shown in FIG. 2, the left-eye display unit 126L It is desirable that the display unit 126R for the right eye is inclined in an inverted C shape.
  • the left-eye display unit so that the overlapping area between the image displayed on the left-eye display unit 126L and the image displayed on the right-eye display unit 126R becomes small. It is desirable that the positional relationship between 126L and the right-eye display unit 126R be determined. In this case, for example, as shown in FIG. 11B, it is desirable that the left-eye display unit 126L and the right-eye display unit 126R are inclined in a C shape and the angle formed by both is increased.
  • the HMD 10-2 according to the second embodiment can change the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R according to the use scene.
  • the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R may be manually changed or may be automatically changed.
  • the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R can be manually changed based on an operation on an operation unit (not shown) such as a dial installed in the HMD 10-2.
  • an operation unit not shown
  • the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R may be provided with a plurality of stages in advance.
  • FIG. 12 is a functional block diagram showing the configuration of the HMD 10-2.
  • the HMD 10-2 has a control unit 100-2 instead of the control unit 100-1 as compared with the HMD 10-1 shown in FIG.
  • the control unit 100-2 further includes a drive control unit 108.
  • the HMD 10-2 further includes an actuator 128L, an actuator 128R, a neutral density filter 130L, and a neutral density filter 130R.
  • the output control unit 106 (3-1-1-1. Determination of display area) -Information related to content
  • the output control unit 106 is configured to display an area in the content displayed on the left-eye display unit 126L (hereinafter referred to as a left-eye display area) based on information related to content to be displayed. And an area in the content displayed on the right-eye display unit 126R (hereinafter referred to as a right-eye display area).
  • the output control unit 106 changes the degree of overlap between the display area for the left eye and the display area for the right eye according to information related to the content to be displayed.
  • the output control unit 106 overlaps the display area for the left eye and the display area for the right eye so that the video of “16: 9” can be displayed. Make it smaller.
  • the output control unit 106 determines the left-eye display area and the right-eye display area according to the setting data.
  • the output control unit 106 makes the overlapping area between the left-eye display area and the right-eye display area smaller than a predetermined threshold (that is, the left-eye display area and the left-eye display area).
  • the display area for the left eye and the display area for the right eye may be determined so that the total area with the display area for the right eye becomes larger.
  • the output control unit 106 displays the left-eye display area and the right-eye display so that the overlapping area between the left-eye display area and the right-eye display area is larger than a predetermined threshold. The area may be determined.
  • the output control unit 106 uses the left-eye display area and the right-eye display area so that the overlapping area between the left-eye display area and the right-eye display area is larger than a predetermined threshold.
  • the display area may be determined.
  • the output control unit 106 can determine the left-eye display area and the right-eye display area based on the genre indicated by the content.
  • the content genre includes, for example, navigation, shopping, games, education, or a support application such as an instruction manual for assembling a plastic model.
  • the output control unit 106 determines the left-eye display area and the right-eye display area so that the overlapping area between the left-eye display area and the right-eye display area is larger than a predetermined threshold. May be.
  • the output control unit 106 can determine the display area for the left eye and the display area for the right eye for each chapter or scene included in the content based on the information related to the chapter or the scene.
  • the output control unit 106 determines a predetermined overlapping area between the left-eye display area and the right-eye display area in the application based on information notified by the application.
  • the left-eye display area and the right-eye display area may be determined so as to be larger than the threshold value.
  • the output control unit 106 is the user or the environment. Based on this state, it is possible to determine the left-eye display area and the right-eye display area.
  • the output control unit 106 can determine a display area for the left eye and a display area for the right eye based on information about the user or the environment.
  • the information regarding the user or the environment may include, for example, the user's age, the user's setting information, the user's moving speed, the user's behavior recognition result, or the user's position information.
  • the output control unit 106 overlaps the display area for the left eye and the display area for the right eye
  • the left-eye display area and the right-eye display area may be determined so that the area is smaller than or less than a predetermined threshold.
  • the output control unit 106 displays the left-eye display area so that the overlapping area of the left-eye display area and the right-eye display area is larger than a predetermined threshold.
  • the right-eye display area may be determined.
  • the output control unit 106 may determine the left-eye display area and the right-eye display area depending on whether or not the user desires to display at a wide angle. For example, when it is set that a display at a wide angle is desired, the output control unit 106 sets the left eye so that the overlapping area of the left eye display area and the right eye display area is smaller than a predetermined threshold. The display area for the display and the display area for the right eye may be determined. If it is set not to display at a wide angle, the output control unit 106 sets the left eye so that the overlap area between the left eye display area and the right eye display area is larger than a predetermined threshold. The display area for the display and the display area for the right eye may be determined.
  • the output control unit 106 can also determine the left-eye display area and the right-eye display area based on the detected moving speed of the user. For example, when the detected moving speed is higher than a predetermined speed, the output control unit 106 uses the left-eye display area so that the overlapping area between the left-eye display area and the right-eye display area is larger than a predetermined threshold. The display area and the right-eye display area may be determined. When the detected moving speed is equal to or lower than the predetermined speed, the output control unit 106 uses the left-eye display area so that the overlapping area between the left-eye display area and the right-eye display area is smaller than a predetermined threshold. The display area and the right-eye display area may be determined.
  • the output control unit 106 can also determine the left-eye display area and the right-eye display area based on the result of the user's action recognition by the detection result acquisition unit 104.
  • the user's action is, for example, walking, running, riding a bicycle, riding a train, riding a car, climbing stairs, riding an elevator or escalator Etc.
  • the output control unit 106 displays the left-eye display area so that the overlapping area between the left-eye display area and the right-eye display area is larger than a predetermined threshold. And the right-eye display area may be determined.
  • the output control unit 106 determines that the overlapping area of the left-eye display area and the right-eye display area is greater than a predetermined threshold. You may determine the display area for left eyes and the display area for right eyes so that it may become small.
  • the output control unit 106 displays a left-eye display area and a right-eye display area according to the detected moving speed of the train or car. You may decide. For example, when the detected moving speed of the train or car is higher than a predetermined speed, the output control unit 106 makes the overlapping area of the left-eye display area and the right-eye display area smaller than a predetermined threshold. Alternatively, the left-eye display area and the right-eye display area may be determined. Further, when the detected moving speed of the train or car is equal to or lower than the predetermined speed, the output control unit 106 causes the overlapping area between the left-eye display area and the right-eye display area to be larger than a predetermined threshold. Alternatively, the left-eye display area and the right-eye display area may be determined.
  • the output control unit 106 determines that the left eye display area and the right eye display area are smaller than a predetermined threshold value.
  • the display area for the display and the display area for the right eye may be determined.
  • the output control unit 106 can also determine a display area for the left eye and a display area for the right eye based on the detected information regarding the position of the user. For example, the output control unit 106 acquires, from the server 20, for example, information including designation related to the overlapping of the areas, which is associated with the detected position information of the user, and based on the acquired information, the display area for the left eye And the right-eye display area may be determined.
  • the output control unit 106 can determine the left-eye display region and the right-eye display region, which are specified by the detection result acquisition unit 104, according to the location where the user is located. For example, when it is specified that the user is in the attraction facility, the output control unit 106 acquires the information including the designation regarding the overlapping of the areas transmitted by the organizer of the attraction facility, and acquires the information. The display area for the left eye and the display area for the right eye may be determined based on the information. In addition, when it is specified that the user is in a store such as a department store, the output control unit 106 acquires information including designation regarding overlap of the areas transmitted by the store operator, and acquires the information. The left eye display area and the right eye display area may be determined based on the obtained information.
  • the output control unit 106 may determine the left-eye display area and the right-eye display area based on the detection result of whether or not the user is in the room.
  • the output control unit 106 can also determine the left-eye display area and the right-eye display area based on whether or not the setting for referring to the past user status is made. For example, when the setting for referring to the past user status is made, the output control unit 106 may determine the left-eye display area and the right-eye display area according to the user's action history. For example, the output control unit 106 determines whether the left-eye display area and the right-eye display area are set to overlap with each other when the same or similar content as the display target content is displayed in the past. A display area for the right eye and a display area for the right eye are determined. As an example, the output control unit 106 determines an overlapping area between the left-eye display area and the right-eye display area so as to be the same as the degree of overlap set most frequently in the past.
  • the action history may be an action history of the corresponding user himself / herself, or may be an action history of another user related to the corresponding user.
  • the other users are all or a part of users registered in a predetermined service used by the corresponding user.
  • the output control unit 106 determines the display area for the left eye and the display area for the right eye according to the current setting information regarding the overlap of the areas. Also good.
  • the output control unit 106 generates a left-eye image based on the determined left-eye display area, and generates a right-eye image based on the determined right-eye display area.
  • the output control unit 106 determines the object included in the left-eye display area or the right-eye display area determined as the binocular vision area according to the current positional relationship between the left-eye display part 126L and the right-eye display part 126R. It is also possible to determine which one-eye viewing area to place, and generate a left-eye image and a right-eye image based on the determined object placement.
  • the output control unit 106 determines whether the left-eye display region and the right-eye display region are determined. It controls the output of guide information that instructs the user to change the positional relationship.
  • the guide information may include not only the change contents of the positional relationship (for example, “turn the dial up to 3”) but also an instruction of the timing for changing the positional relationship.
  • the output control unit 106 causes the left-eye display unit 126L or the right-eye display unit 126R to display a UI that instructs the user to change the positional relationship according to the determined left-eye display region and right-eye display region.
  • the LED installed in the HMD 10-2 may be blinked in a blinking pattern corresponding to the guide information.
  • the output control part 106 may output the audio
  • the output control unit 106 displays the left-eye display unit 126L. And a display indicating that the positional relationship between the right-eye display unit 126R is being changed is displayed on the left-eye display unit 126L or the right-eye display unit 126R.
  • the output control unit 106 may cause the left-eye display unit 126L or the right-eye display unit 126R to display a character or an image indicating that the change is being performed.
  • the output control unit 106 temporarily darkens the video currently displayed on the left-eye display unit 126L or the right-eye display unit 126R, or causes the whole or part of the displayed video to be displayed unclearly. Or may be hidden.
  • the visibility decreases when the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R changes. Accordingly, it is possible to alleviate the uncomfortable appearance or to reduce motion sickness.
  • the drive control unit 108 automatically changes the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R based on the left-eye display region and the right-eye display region determined by the output control unit 106. Execute the control. For example, the drive control unit 108 causes the actuator 128L so that the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R becomes a positional relationship according to the determined left-eye display region and right-eye display region. Alternatively, the actuator 128R is driven.
  • the position of the user's eyes with respect to the left-eye display unit 126L or the right-eye display unit 126R when the HMD 10-2 is mounted may vary greatly depending on the user. For example, as shown in FIG. 13, the position 2-1L of a certain user's left eye relative to the display unit 126L for the left eye and the position 2-2L of the left eye of another user can be greatly different. Then, depending on the position of the user's eyes with respect to the left-eye display unit 126L or the right-eye display unit 126R, the user cannot visually recognize the content to be displayed, for example, according to the appearance (appearance) assumed by the content producer. There is.
  • the drive control unit 108 for example, based on the target appearance predetermined for each content and the detection result of the left eye position with respect to the left eye display unit 126L or the right eye position with respect to the right eye display unit 126R. It is preferable to execute control for changing the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R.
  • the actuator 128L and the actuator 128R change the angle or position of the left-eye display unit 126L or the right-eye display unit 126R according to the control of the drive control unit 108.
  • FIG. 14 and 15 are explanatory views (top views) showing an example of movement of the right-eye display unit 126R by the actuator 128R.
  • the actuator 128R can rotate the right-eye display unit 126R by, for example, ⁇ 90 ° around a predetermined position of the right-eye display unit 126R.
  • the actuator 128R displays the right-eye display while maintaining the angle of the right-eye display unit 126R along, for example, a rail (not shown) provided in the HMD 10-2.
  • the position of the portion 126R can be rotated.
  • FIG. 14C the actuator 128R can translate the right-eye display unit 126R along, for example, a rail.
  • the drive control unit 108 sets the position and angle of the right eye display unit 126R to the actuator 128R according to the detected movement of the right eye 2R. It is also possible to change it.
  • the left-eye display unit 126L can also be moved in the same manner. That is, the actuator 128L can move the left-eye display unit 126L by the same method.
  • Neutral density filter 130L, neutral density filter 130R The neutral density filter 130L and the neutral density filter 130R are formed by a transmitted light amount variable device such as electrochromic, for example.
  • the neutral density filter 130L and the neutral density filter 130R reduce the amount of transmitted light under the control of the control unit 100-2.
  • the configuration of the HMD 10-2 according to the second embodiment is not limited to the configuration described above.
  • the positional relationship between the left-eye display unit 126L and the right-eye display unit 126R may be changed only manually.
  • the drive control unit 108, the actuator 128L, and the actuator 128R may not be included in the HMD 10-2.
  • neutral density filter 130L and the neutral density filter 130R are not necessarily included in the HMD 10-2.
  • FIG. 16 is a flowchart showing an example of the operation according to the second embodiment. Note that S201 illustrated in FIG. 16 is the same as S101 according to the first embodiment.
  • the content acquisition unit 102 of the HMD 10-2 acquires information related to the content acquired in S201 from, for example, the server 20 (S203).
  • the detection result acquisition part 104 acquires the information regarding a user or an environment detected by the sensor part 122 (S205).
  • the output control unit 106 determines the degree of overlap between the display area for the left eye and the display area for the right eye based on the information related to the content acquired in S203 and the information regarding the user or the environment acquired in S205. To decide. Then, the output control unit 106 generates a right-eye image based on the determined right-eye display area, and generates a left-eye image based on the determined left-eye display area (S207).
  • the output control unit 106 performs S207.
  • the UI for instructing the user to change the positional relationship between the right-eye display unit 126R and the left-eye display unit 126L is displayed on the right-eye display unit 126R or the left-eye display unit 126L in accordance with the degree of overlap determined in (1).
  • the user changes the positional relationship between the right-eye display unit 126R and the left-eye display unit 126L, for example, by operating the operation unit of the HMD 10-2 along the displayed UI (S211). . Thereafter, the HMD 10-2 performs the process of S215 described later.
  • the drive control unit 108 displays the left-eye display unit 126L and the right-eye display unit 126R.
  • the actuator 128L or the actuator 128R is driven so as to change the positional relationship between the actuator 128L and the actuator 128R according to the degree of overlap determined in S207 (S213).
  • S215 shown in FIG. 16 is the same as S107 according to the first embodiment.
  • the HMD 10-2 according to the second embodiment can change the degree of overlap between the left-eye display area and the right-eye display area according to the usage scene.
  • the HMD 10-2 determines the left-eye display area and the right-eye display area so that the area where the left-eye display area and the left-eye display area overlap is larger. To do. Further, in a scene where importance is attached to the viewing angle, the HMD 10-2 determines the left-eye display area and the right-eye display area so that the area where the left-eye display area and the left-eye display area overlap is reduced. Thus, the HMD 10-2 can dynamically adjust the width of the viewing angle and the width of the binocular vision region, and can display an optimal video for each usage scene.
  • the second embodiment is not limited to the above description.
  • the output control unit 106 can output a display notifying an error, sound, or vibration.
  • the drive control unit 108 may drive the actuator 128L or the actuator 128R so that the angles of the left-eye display unit 126L and the right-eye display unit 126R are parallel to each other.
  • the output control unit 106 overlaps the left eye display area and the left eye display area.
  • the area may be made smaller. According to these modified examples, safety during use of the HMD 10-2 can be improved.
  • the HMD 10 includes a CPU 150, a ROM 152, a RAM 154, an internal bus 156, an interface 158, an input device 160, an output device 162, a storage device 164, and a communication device 166.
  • the CPU 150 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the HMD 10 according to various programs. Further, the CPU 150 implements the function of the control unit 100-1 or the control unit 100-2.
  • the CPU 150 is configured by a processor such as a microprocessor.
  • the ROM 152 stores programs used by the CPU 150 and control data such as calculation parameters.
  • the RAM 154 temporarily stores a program executed by the CPU 150, for example.
  • the internal bus 156 includes a CPU bus and the like.
  • the internal bus 156 connects the CPU 150, the ROM 152, and the RAM 154 to each other.
  • the interface 158 connects the input device 160, the output device 162, the storage device 164, and the communication device 166 with the internal bus 156.
  • the storage device 164 is a data storage device that functions as the storage unit 124.
  • the storage device 164 includes, for example, a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, or a deletion device that deletes data recorded on the storage medium.
  • the communication device 166 is a communication interface configured with a communication device or the like for connecting to the communication network 22.
  • the communication device 166 may be a wireless LAN compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication.
  • the communication device 166 functions as the communication unit 120.
  • the HMD 10 it is desirable for the HMD 10 to change the positional relationship between the left-eye display and the right-eye display (for example, the angle between the displays) according to the distortion of the left-eye display and the right-eye display.
  • the seam can be smoothly connected at the portion where the left-eye display area 44L and the right-eye display area 44R overlap. Therefore, the user can be made to perceive it naturally without giving a sense of incongruity.
  • the display device or the information processing device may be a projection device that draws an image on the retina using, for example, laser light.
  • control unit 100-1 or control unit 100-2) described above may be mounted on the server 20 instead of the HMD 10-1 (or HMD 10-2).
  • the display device or information processing device according to the present disclosure may be the server 20 instead of the HMD 10-1 (or HMD 10-2).
  • the display device or the information processing device may be another type of device that can be connected to the communication network 22, such as a PC (Personal Computer), a smartphone, a tablet terminal, or a game machine.
  • PC Personal Computer
  • smartphone a smartphone
  • tablet terminal a tablet terminal
  • game machine a game machine
  • a computer program for causing hardware such as the CPU 150, the ROM 152, and the RAM 154 to exhibit functions equivalent to the respective configurations of the HMD 10-1 or HMD 10-2 according to the above-described embodiments. can be provided.
  • a recording medium on which the computer program is recorded is also provided.
  • the right-eye optical system and the left-eye optical system are configured so that a second straight line in the vertical direction corresponding to the first straight line in the virtual image for use and a plane passing through the left eye intersect.
  • Display device causes the right-eye optical system to display a right-eye image corresponding to the right-eye virtual image, and causes the left-eye optical system to display a left-eye image corresponding to the left-eye virtual image.
  • the display device further including a unit.
  • (3) The output control unit displays the right-eye image and the left-eye image so that a first area included in the right-eye image and a second area included in the left-eye image overlap.
  • the display device (2).
  • (4) The optical system for the right eye so that the image corresponding to the first region included in the virtual image for the right eye and the image corresponding to the second region included in the virtual image for the right eye overlap at least partially.
  • the display device wherein the left-eye optical system is configured.
  • the content includes a first video signal and a second video signal corresponding to the first video signal,
  • the output control unit generates the right-eye image by cutting out a region corresponding to the right-eye image from the first video signal,
  • the display device according to (5), wherein the output control unit generates the left-eye image by cutting out a region corresponding to the left-eye image from the second video signal.
  • the distance between the horizontal end of the first video signal and the region corresponding to the right-eye image is the distance between the horizontal end of the second video signal and the region corresponding to the left-eye image.
  • the display device according to (6) which is smaller than a distance between them.
  • the first video signal and the second video signal have the same size
  • a third region that is a region other than the first region in the right-eye image is the same as a region corresponding to the third region in the first video signal
  • the first area is any one of (6) to (9), wherein a predetermined correction process is performed on an area corresponding to the first area in the first video signal.
  • the predetermined correction process is a process of changing the luminance of the pixel in accordance with the luminance of the pixel in the first video signal.
  • the predetermined correction process is a process of changing the brightness of another pixel adjacent to the pixel by a change amount according to the brightness of the pixel in the first video signal.
  • the predetermined correction process is a process of changing the luminance of the pixel based on the luminance of the pixel in the first video signal and a predetermined gamma curve.
  • the display device according to any one of (6) to (13), wherein the second area is the same as an area corresponding to the second area in the second video signal.
  • the output control unit further generates the right-eye image and the left-eye image based on information related to the content.
  • the output control unit changes an arrangement position of information included in the content in the right-eye image or the left-eye image based on information related to the content.
  • the output control unit further generates the right-eye image and the left-eye image based on the size of the right-eye optical system or the left-eye optical system, and any one of (5) to (16) The display device according to item.
  • the output control unit further generates the right-eye image and the left-eye image based on detection of information related to the state of the display device, according to any one of (5) to (17).
  • Display device The information regarding the state of the display device includes the speed of the display device, The display device according to (18), wherein the output control unit generates the right-eye image and the left-eye image based on the detected speed of the display device.
  • the output control unit further generates the right-eye image and the left-eye image based on detection of information related to an environment around the display device, according to any one of (5) to (19). The display device described.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】立体視可能な領域をより広くすることが可能な、表示装置を提案する。 【解決手段】右目に映像光を導く右眼用表示部(126R)の右目用光学系によって形成される右目用の虚像(30R)における垂直方向の第1の直線と前記右目(2R)とを通る平面と、左目に映像光を導く左目用表示部(126L)の左目用光学系によって形成される左目用の虚像(30L)における前記第1の直線に対応する、垂直方向の第2の直線と前記左目(2L)とを通る平面とが交差するように、前記右目用光学系と前記左目用光学系とを構成した、表示装置。

Description

表示装置
 本開示は、表示装置に関する。
 従来、ユーザの左右の目に対して視差のある画像を表示する技術が提案されている。この技術によれば、ユーザは、画像を立体視することができ、奥行き感を知覚し得る。
 また、下記特許文献1には、観察画角を広げることを目的として、ユーザの眼前に配備される右目用光学系と左目用光学系とをそれぞれ外側に傾ける技術が記載されている。
特開2013-25101号公報
 しかしながら、特許文献1に記載の技術では、右目用光学系によって投影される画像と左目用光学系によって投影される画像とが重なる領域が小さくなる。このため、立体視可能な領域が小さくなってしまう。
 そこで、本開示では、立体視可能な領域をより広くすることが可能な、新規かつ改良された表示装置を提案する。
 本開示によれば、右目に映像光を導く右目用光学系によって形成される右目用の虚像における垂直方向の第1の直線と前記右目とを通る平面と、左目に映像光を導く左目用光学系によって形成される左目用の虚像における前記第1の直線に対応する、垂直方向の第2の直線と前記左目とを通る平面とが交差するように、前記右目用光学系と前記左目用光学系とを構成した、表示装置が提供される。
 以上説明したように本開示によれば、立体視可能な領域をより広くすることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の各実施形態に共通する情報処理システムの構成例を示した説明図である。 第1の実施形態によるHMD(Head Mounted Display)10‐1の原理を示した図である。 HMD10‐1の構成による視野角および両眼視領域32を示した模式図である。 第1の実施形態によるHMD10‐1の構成例を示した機能ブロック図である。 2Dコンテンツの映像信号に基づいて右目用画像および左目用画像が生成される例を示した説明図である。 左目で観察される左目用画像と、右目で観察される右目用画像との位置関係を示した説明図である。 3Dコンテンツの映像信号に基づいて右目用画像および左目用画像が生成される例を示した説明図である。 右目用画像の切り出し領域および左目用画像の切り出し領域の一例を示した説明図である。 図8に示した各切り出し領域に対して適用される補正の関数の例を示したグラフである。 第1の実施形態による動作例を示したフローチャートである。 第2の実施形態によるHMD10‐2の原理を示した図である。 第2の実施形態によるHMD10‐2の構成例を示した機能ブロック図である。 左目用表示部126Lに対する各ユーザの目の位置の例を示した説明図である。 右目用表示部126Rの移動の例を示した説明図である。 右目用表示部126Rの移動の例を示した説明図である。 第2の実施形態による動作例を示したフローチャートである。 各実施形態に共通するHMD10のハードウェア構成を示した説明図である。 本開示の変形例による左目用ディスプレイと右目用ディスプレイとの位置関係の変更例を示した説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、以下に示す項目順序に従って当該「発明を実施するための形態」を説明する。
 1.情報処理システムの基本構成
 2.第1の実施形態
 3.第2の実施形態
 4.ハードウェア構成
 5.変形例
 なお、本明細書及び図面において、第1の実施形態によるHMD10‐1、および第2の実施形態によるHMD10‐2を総称して、HMD10と称する場合がある。
<<1.情報処理システムの基本構成>>
 まず、本開示の各実施形態に共通する情報処理システムの基本構成について、図1を参照して説明する。図1に示したように、各実施形態による情報処理システムは、HMD10、サーバ20、および、通信網22を有する。
 <1-1.HMD10>
 HMD10は、本開示における表示装置または情報処理装置の一例である。HMD10は、コンテンツやアプリケーションの表示を制御する装置である。なお、以下では、HMD10がコンテンツの表示を制御する場面を中心として説明を行うが、アプリケーションの表示に関しても概略同様に制御可能である。
 例えば、HMD10は、通信網22を介してサーバ20から受信されるコンテンツに基づいて、後述する左目用表示部126Lに表示される左目用画像を生成し、かつ、後述する右目用表示部126Rに表示される右目用画像を生成する。ここで、コンテンツは、例えば各種記録媒体に記録されている映像データであってもよいし、通信網22を介して例えばサーバ20などから提供される映像データであってもよいし、または、その他のメディアファイルであってもよい。また、コンテンツは、2Dのコンテンツであってもよいし、3Dのコンテンツ(立体視映像)であってもよい。
 また、HMD10は、図1に示すように、基本的には、透過型のヘッドマウントディスプレイである。すなわち、右目用表示部126Rおよび左目用表示部126Lは透過型のディスプレイで構成され得る。但し、かかる例に限定されず、HMD10は、非透過型のヘッドマウントディスプレイであってもよい。
 <1-2.サーバ20>
 サーバ20は、複数のコンテンツやアプリケーションを記憶する装置である。また、サーバ20は、コンテンツの取得要求が例えばHMD10などの他の装置から受信された場合に、受信された取得要求に基づいてコンテンツを他の装置へ送信することが可能である。
 なお、要求されたコンテンツをサーバ20が記憶していない場合には、サーバ20は、通信網22に接続されている他の装置に対して当該コンテンツの取得要求を送信し、そして、当該他の装置からコンテンツを取得することも可能である。
 <1-3.通信網22>
 通信網22は、通信網22に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網22は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網22は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
<<2.第1の実施形態>>
 <2-1.背景>
 以上、各実施形態に共通する情報処理システムの構成について説明した。次に、第1の実施形態について説明する。まず、第1の実施形態によるHMD10‐1を創作するに至った背景について説明する。
 HMD10‐1では、例えばGUI(Graphical User Interface)などの仮想表示が適切な位置に配置されているようにユーザに知覚させることが望まれる。このため、左右の視差に応じて、適切な大きさおよび位置で仮想表示を左目と右目とに表示させる必要がある。
 しかしながら、公知のヘッドマウントディスプレイでは、両眼視差が他の認知よりも有効な領域(すなわち、ユーザからの距離が近い領域)において、右目用光学系によって表示される画像と左目用光学系によって表示される画像とが重ならない、または、重なる領域が小さい。すなわち、ユーザの近傍において、両眼視領域(すなわち、右目用画像と左目用画像とが重なっている領域)をほとんど形成することができない。
 そこで、上記事情を一着眼点にして、第1の実施形態によるHMD10‐1を創作するに至った。ここで、第1の実施形態の概要について、図2を参照して説明する。図2は、HMD10‐1の原理を示した図(上面図)である。HMD10‐1は、右目2Rに映像光を導く右目用光学系と、左目2Lに映像光を導く左目用光学系とを有する。そして、右目用光学系によって形成される右目用の虚像30Rにおける垂直方向の例えば中心線と右目2Rとを通る平面と、左目用光学系によって形成される左目用の虚像30Lにおける垂直方向の例えば中心線と左目2Lとを通る平面とが交差するように、右目用光学系と左目用光学系とが構成される。
 例えば、右目用光学系は、発光素子を含む右目用表示部126Rと一体的に構成され、かつ、左目用光学系は、発光素子を含む左目用表示部126Lと一体的に構成され得る。そして、図2に示すように、右目用の虚像30Rにおける垂直方向の中心線と右目2Rとを通る平面と、左目用の虚像30Lにおける垂直方向の中心線と左目2Lとを通る平面とが交差するように、右目用表示部126Rと左目用表示部126Lとが傾けられ得る。
 図3は、上述したようなHMD10‐1の構成による視野角および両眼視領域32を示した模式図(上面図)である。なお、図3の(a)は、第1の実施形態の比較例を示した図であり、また、図3の(b)は、HMD10‐1を示した図である。なお、本比較例は、右目用表示部126Rと左目用表示部126Lとが傾けられていない場合(すなわち、平行に設定されている場合)の例である。図3に示したように、HMD10‐1は、本比較例と比べて、よりユーザに近い距離から両眼視領域32が形成される。また、図3において矢印で示したように、ユーザの遠方では、本比較例とHMD10‐1との間で視野角の大きさの差はほとんど無く、広い視野角が確保される。
 <2-2.構成>
 次に、第1の実施形態によるHMD10‐1の構成について詳細に説明する。図4は、HMD10‐1の構成を示した機能ブロック図である。図4に示すように、HMD10‐1は、制御部100‐1、通信部120、センサ部122、記憶部124、左目用表示部126L、および、右目用表示部126Rを有する。
 [2-2-1.制御部100‐1]
 制御部100‐1は、HMD10‐1に内蔵される、後述するCPU(Central Processing Unit)150やRAM(Random Access Memory)154などのハードウェアを用いて、HMD10‐1の動作を全般的に制御する。また、図4に示すように、制御部100‐1は、コンテンツ取得部102、検出結果取得部104、および、出力制御部106を有する。
 [2-2-2.コンテンツ取得部102]
 コンテンツ取得部102は、表示対象のコンテンツを取得する。例えば、コンテンツ取得部102は、表示対象のコンテンツをサーバ20から受信する。または、コンテンツが記憶部124に格納されている場合には、コンテンツ取得部102は、表示対象のコンテンツを記憶部124から取得することも可能である。
 また、コンテンツ取得部102は、コンテンツの映像信号とともに、当該コンテンツのコンテンツ情報を取得することも可能である。ここで、コンテンツ情報は、例えば、該当のコンテンツの種類、ジャンル、または、タイトルなどを示すメタ情報である。
 [2-2-3.検出結果取得部104]
 検出結果取得部104は、センサ部122によりセンシングされた結果を取得する。例えば、検出結果取得部104は、HMD10‐1の速度、加速度、傾き、位置情報などの検出結果、または、環境の明るさなどの検出結果を取得する。また、検出結果取得部104は、センサ部122により撮影された画像を取得する。
 [2-2-4.出力制御部106]
 (2-2-4-1.画像の生成)
 出力制御部106は、コンテンツ取得部102により取得されたコンテンツの映像信号に基づいて右目用画像および左目用画像を生成する。例えば、コンテンツが2Dのコンテンツである場合には、出力制御部106は、当該コンテンツの(同一の)映像信号に基づいて右目用画像および左目用画像を生成する。また、コンテンツが3Dのコンテンツである場合には、出力制御部106は、コンテンツに含まれる右目用の映像信号に基づいて右目用画像を生成し、かつ、当該コンテンツに含まれる左目用の映像信号に基づいて左目用画像を生成する。
 より具体的には、出力制御部106は、コンテンツの映像信号から(生成対象の)右目用画像に対応する領域を切り出すことにより右目用画像を生成し、かつ、当該コンテンツの映像信号から(生成対象の)左目用画像に対応する領域を切り出すことにより左目用画像を生成する。
 ここで、図5~図8を参照して、上記の内容について説明する。図5は、2Dコンテンツの映像信号40に基づいて右目用画像42Rおよび左目用画像42Lが生成される例を示した説明図である。なお、図5では、映像信号40における水平方向(x方向)のx2~x3の区間の領域を右目用画像42Rおよび左目用画像42Lが含むように、右目用画像42Rおよび左目用画像42Lが生成される例を示している。図5に示したように、例えば、出力制御部106は、映像信号40の左端を含む領域(具体的にはx1~x3の区間の領域)を映像信号40から切り出すことにより右目用画像42Rを生成する。また、出力制御部106は、映像信号40の右端を含む領域(具体的にはx2~x4の区間の領域)を映像信号40から切り出すことにより左目用画像42Lを生成する。なお、右目用画像42Rおよび左目用画像42Lのサイズは、例えば左目用表示部126Lまたは右目用表示部126Rに表示可能な範囲内のサイズに定められ得る。
 図6は、上述した生成例による、左目用画像42Lと右目用画像42Rとの関係を示した説明図である。図6に示すように、左目用画像42Lは左目2Lで観察され、また、右目用画像42Rは右目2Rで観察される。また、図6に示すように、左目用画像42Lと右目用画像42Rとは互いに重なる領域と、重ならない領域とを含むように生成される。従って、広い視野角と、広い両眼視領域との両方を確保することを可能とする。
 図7は、3Dコンテンツに基づいて右目用画像42Rおよび左目用画像42Lが生成される例を示した説明図である。なお、図7では、コンテンツの右目用の映像信号40Rまたは左目用の映像信号40Lにおける水平方向のx2~x3の区間の領域をそれぞれ右目用画像42Rまたは左目用画像42Lが含むように、右目用画像42Rおよび左目用画像42Lが生成される例を示している。図7に示したように、例えば、出力制御部106は、右目用の映像信号40Rの左端を含む領域(具体的にはx1~x3の区間の領域)をそのまま切り出すことにより右目用画像42Rを生成する。また、出力制御部106は、左目用の映像信号40Lの右端を含む領域(具体的にはx2~x4の区間の領域)をそのまま切り出すことにより左目用画像42Lを生成する。
 なお、図5および図7では、コンテンツの映像信号全体から右目用画像または左目用画像が生成される例について説明したが、かかる例に限定されない。例えば、出力制御部106は、コンテンツの映像信号のうちの一部の領域(例えば80%の領域)に基づいて右目用画像または左目用画像を生成してもよい。
 ‐4種類のストリーム
 なお、一つのコンテンツには複数のストリームが予め用意され得る。例えば、一つのコンテンツには、公知の透過型ヘッドマウントディスプレイなどの表示デバイスで表示可能なコンテンツ(以下、ハの字型ディスプレイ用のコンテンツと称する場合がある)の左目用の映像信号および右目用の映像信号と、HMD10‐1で表示可能なコンテンツ(以下、HMD10‐1用のコンテンツと称する場合がある)の左目用の映像信号および右目用の映像信号との合計4種類のストリームが用意され得る。この場合、例えば、出力制御部106は、コンテンツ取得部102により取得された4種類のストリームのうち、HMD10‐1用のコンテンツの左目用の映像信号に基づいて左目用画像を生成し、また、当該コンテンツの右目用の映像信号に基づいて右目用画像を生成する。
 なお、例えば、HMD10‐1用のコンテンツの左目用の映像信号または当該コンテンツの右目用の映像信号が予め用意されていない等の理由により、HMD10‐1用のコンテンツの左目用の映像信号または当該コンテンツの右目用の映像信号が取得されない場合も想定される。この場合、例えば、出力制御部106は、コンテンツ取得部102により取得されたハの字型ディスプレイ用のコンテンツの左目用の映像信号および右目用の映像信号と、既存の画像処理技術とに基づいて、HMD10‐1用のコンテンツの代替映像を生成することも可能である。そして、出力制御部106は、生成した代替映像に基づいて、左目用画像または右目用画像を生成することが可能である。
 ‐コンテンツ情報を用いた画像の生成
 または、出力制御部106は、コンテンツ取得部102により(コンテンツとともに)取得されたコンテンツ情報に基づいて、右目用画像および左目用画像を生成することが可能である。例えば、出力制御部106は、コンテンツ情報が示す切り出し位置において、コンテンツの映像信号から(生成対象の)右目用画像に対応する領域と、(生成対象の)左目用画像に対応する領域とを切り出すことにより、右目用画像および左目用画像を生成してもよい。または、出力制御部106は、コンテンツ情報に基づいて、コンテンツの映像信号全体または特定の領域を拡大または縮小することにより、右目用画像および左目用画像を生成してもよい。
 ‐映像解析に基づいた画像の生成
 または、出力制御部106は、取得されたコンテンツの映像の解析に基づいて、右目用画像および左目用画像を生成することも可能である。例えば、出力制御部106は、コンテンツの映像解析結果に応じて切り出し位置を決定し、そして、決定した切り出し位置において、コンテンツの映像信号から右目用画像に対応する領域と、左目用画像に対応する領域とをそれぞれ切り出すことにより、右目用画像および左目用画像を生成してもよい。
 ‐映像信号のクリップ
 または、出力制御部106は、左目用表示部126Lまたは右目用表示部126Rが表示可能な映像のアスペクトに応じて、コンテンツの映像信号をクリップしたり、または、コンテンツの映像信号を拡大・縮小することが可能である。例えば、取得されたコンテンツが「16:9(=1920×1080)」の映像信号であり、かつ、左目用表示部126Lおよび右目用表示部126Rが「4:3(=640×480)」で映像を表示可能である場合には、出力制御部106は、取得されたコンテンツを「4:3」の映像信号に縮小し、そして、縮小した映像に基づいて右目用画像と左目用画像とを生成してもよい。
 ‐表示領域の決定
 または、出力制御部106は、取得されたコンテンツまたはコンテンツ情報に基づいて、コンテンツの表示位置を補正することも可能である。例えば、出力制御部106は、取得されたコンテンツまたはコンテンツ情報に基づいて、両眼視領域と片眼視領域(すなわち、右目用画像と左目用画像とが重なっていない領域)とのいずれに当該コンテンツ(に含まれる情報)を配置するかを決定する。例えば、取得されたコンテンツが3Dのコンテンツである場合には、出力制御部106は、当該コンテンツを両眼視領域に配置する。また、取得されたコンテンツが2Dのコンテンツである場合には、出力制御部106は、当該コンテンツを片眼視領域に配置してもよい。
 または、出力制御部106は、コンテンツに含まれる物体の初期位置とユーザとの距離に応じて、当該物体の配置位置を決定する。例えば、物体の初期位置とユーザとの距離が所定の閾値よりも小さい場合には、出力制御部106は、当該物体を両眼視領域に配置する。また、物体の初期位置とユーザとの距離が所定の閾値よりも大きい場合には、出力制御部106は、当該物体を片眼視領域に配置してもよい。また、物体の初期位置とユーザとの距離が中程度であり、かつ、当該物体の全部または一部が片眼視領域に表示される場合には、出力制御部106は、片眼視領域に表示される当該物体の表示を薄くしたり、ぼかしたり、または、ワイヤーフレームで表示させてもよい。これにより、物体までの距離を曖昧に知覚させる表現が可能となる。
 または、出力制御部106は、検出されたユーザの移動速度に応じて、コンテンツに含まれる物体の配置位置を決定する。例えば、ユーザの移動速度が所定の閾値以上である場合には、出力制御部106は、当該物体を片眼視領域(かつ、遠くの領域)に配置する。また、ユーザの移動速度が所定の閾値未満である場合には、出力制御部106は、当該物体を両眼視領域に配置する。
 または、出力制御部106は、3Dから2Dへ変化する映像(表現)に関しては、当該映像を簡易的に表示させてもよい。例えば、出力制御部106は、当該映像に関して、(例えばGPU(Graphics Processing Unit)によりリアルタイムで生成される)3Dの映像と、予め生成しておいた2Dの映像とをクロスフェードさせて表示させてもよい。さらに、出力制御部106は、(クロスフェードさせつつ)該当の映像のうち周辺視野領域に表示される映像をワイヤフレームで表示させたり、解像度を徐々に低下させたり、または、例えばブラーやシェーディングなどでぼかしてもよい。
 一般的に、周辺視野領域における人間の認識力は中心視野と比べて非常に低い。この制御例によれば、例えば境界部分が滑らかに表示されるので、不自然に知覚されることがない。さらに、例えばGPUなどの処理負荷を軽減することができる。
 (2-2-4-2.画像の補正処理)
 なお、コンテンツ(特に3Dのコンテンツ)の映像信号を単純に切り出すことにより右目用画像および左目用画像が生成された場合には、片眼視領域と両眼視領域との境界部分において例えば境界線が知覚されるなど不自然に知覚され得る。そこで、出力制御部106は、右目用画像の切り出し領域または左目用画像の切り出し領域に対して、片眼視領域と両眼視領域との境界部分において輝度変化を抑制する補正処理を行うことが好ましい。
 例えば、出力制御部106は、コンテンツにおける右目用画像の切り出し領域または左目用画像の切り出し領域における画素の輝度に応じた変化量で当該画素の輝度を変化させることが可能である。例えば、出力制御部106は、右目用画像の切り出し領域または左目用画像の切り出し領域における画素の輝度と所定のガンマ曲線とに基づいて、当該画素の輝度を変化させる。
 ここで、図8および図9を参照して、上記の内容について説明する。図8は、右目用画像の切り出し領域42Rおよび左目用画像の切り出し領域42Lの一例を示した説明図である。なお、図8では、(説明を容易にするため)切り出し領域42Rおよび切り出し領域42Lの全体が白色(白画面)である場合の例を示している。また、図8に示すように、切り出し領域42Rと切り出し領域42Lとは、x方向の「O1」および「O2」の区間において互いに重なる領域を有している。また、図9は、図8に示した切り出し領域42Rおよび切り出し領域42Lに対して適用される補正の関数の一例を示したグラフである。なお、図9の(a)が、切り出し領域42Rに対して適用される補正の関数の例を示したグラフであり、また、図9の(b)が、切り出し領域42Lに対して適用される補正の関数の例を示したグラフである。
 例えば、出力制御部106は、切り出し領域42Rのうち「O2」の区間の重なり領域422R(すなわち、切り出し領域42Rの右端を含む重なり領域)に対して、図9の(a)において「O2」の区間に示した形状のガンマ曲線を用いて輝度の補正を行う。また、出力制御部106は、左目用画像の切り出し領域42Lのうち「O1」の区間の重なり領域420L(すなわち、切り出し領域42Lの左端を含む重なり領域)に対して、図9の(b)において「O1」の区間に示した形状のガンマ曲線を用いて輝度の補正を行う。なお、ガンマ曲線の形状は、コンテンツの映像信号の画素ごとの輝度(図9に示した例では全て「255(最大値)」)に応じて定められ得る。また、図9では、ガンマ曲線における輝度の最低値が「0」である例を示しているが、かかる例に限定されず、任意の値に定められ得る。
 この補正例によれば、片眼視領域と両眼視領域との境界部分において右目用画像の切り出し領域と左目用画像の切り出し領域とが適切にブレンディングされるので、輝度変化が緩やかになる。このため、当該境界部分がユーザに自然に知覚され得る。
 また、出力制御部106は、切り出し後の右目用画像または左目用画像に対して、さらに歪除去を行うことも可能である。
 (2-2-4-3.画像の出力)
 また、出力制御部106は、生成した右目用画像を右目用表示部126Rに表示させ、かつ、生成した左目用画像を左目用表示部126Lに表示させる。
 [2-2-5.通信部120]
 通信部120は、HMD10‐1と通信可能な他の装置との間で情報の送受信を行う。例えば、通信部120は、コンテンツ取得部102の制御に従って、特定のコンテンツの取得要求をサーバ20へ送信する。また、通信部120は、サーバ20からコンテンツを受信する。
 [2-2-6.センサ部122]
 センサ部122は、例えば、3軸加速度センサ、ジャイロスコープ、磁気センサ、照度センサ、イメージセンサ、赤外線センサなどを含む。例えば、センサ部122は、HMD10‐1の速度、加速度、傾き、または方位などを測定する。また、センサ部122は、環境の明るさを測定する。また、センサ部122は、外部の映像をイメージセンサまたは赤外線センサを用いて検出することにより、デジタル画像として記録することも可能である。
 さらに、センサ部122は、例えばGPS(Global Positioning System)などの測位衛星から測位信号を受信して現在位置を測位する測位装置を含み得る。
 [2-2-7.記憶部124]
 記憶部124は、各種のデータや各種のソフトウェアを記憶する。
 [2-2-8.左目用表示部126L、右目用表示部126R]
 左目用表示部126Lおよび右目用表示部126Rは、発光により映像を表示する。例えば、左目用表示部126Lおよび右目用表示部126Rは、画像投影デバイスを有し、そして、左目用レンズ(左目用光学系)および右目レンズ(右目用光学系)のそれぞれ少なくとも一部の領域を投影面として当該画像投影デバイスに映像を投影させる。なお、左目用レンズおよび右目レンズは、例えば樹脂やガラスなどの透明材料により形成され得る。
 なお、変形例として、左目用表示部126Lおよび右目用表示部126Rはそれぞれ液晶パネルを有し、かつ、液晶パネルの透過率が制御可能であってもよい。これにより、左目用表示部126Lおよび右目用表示部126Rは、透明または半透明の状態に制御され得る。
 また、別の変形例として、左目用表示部126Lおよび右目用表示部126Rは、非透過型の表示装置として構成され、かつ、センサ部122により撮影される、ユーザの視線方向の映像が逐次表示されてもよい。例えば、左目用表示部126Lおよび右目用表示部126Rは、LCD(Liquid Crystal Display)、または、OLED(Organic Light Emitting Diode)などで構成されてもよい。
 <2-3.動作>
 以上、第1の実施形態による構成について説明した。次に、第1の実施形態による動作例について、図10を参照して説明する。図10は、第1の実施形態による動作の一例を示したフローチャートである。
 図10に示したように、まず、HMD10‐1のコンテンツ取得部102は、表示対象のコンテンツを例えばサーバ20から取得する。また、当該コンテンツがコンテンツ情報を有する場合には、コンテンツ取得部102は、コンテンツ情報も併せて取得する(S101)。
 そして、出力制御部106は、取得されたコンテンツが専用コンテンツ(すなわちHMD10‐1専用のコンテンツ)であるか否かを判定する(S103)。
 取得されたコンテンツが専用コンテンツである場合には(S103:Yes)、出力制御部106は、取得されたコンテンツの左目用の映像信号に基づいて左目用画像を生成し、かつ、当該コンテンツの右目用の映像信号に基づいて右目用画像を生成する(S105)。
 その後、左目用表示部126Lは、出力制御部106の制御に従って、生成された左目用画像を表示する。かつ、右目用表示部126Rは、出力制御部106の制御に従って、生成された右目用画像を表示する(S107)。
 また、S103において、取得されたコンテンツが専用コンテンツではない場合で(S103:No)、かつ、S101において当該コンテンツのコンテンツ情報が取得されている場合には(S109:Yes)、出力制御部106は、取得されたコンテンツおよびコンテンツ情報に基づいて、右目用画像および左目用画像を生成する(S111)。そして、HMD10‐1は、S107の処理を行う。
 また、S103において、取得されたコンテンツが専用コンテンツではない場合で(S103:No)、かつ、S101において当該コンテンツのコンテンツ情報が取得されなかった場合には(S109:No)、出力制御部106は、まず、当該コンテンツの映像信号を解析する(S113)。そして、出力制御部106は、当該コンテンツおよび映像解析の結果に基づいて、右目用画像および左目用画像を生成する(S115)。その後、HMD10‐1は、S107の処理を行う。
 <2-4.効果>
 以上説明したように、第1の実施形態によるHMD10‐1は、右目用の虚像30Rにおける垂直方向の中心線と右目2Rとを通る平面と、左目用の虚像30Lにおける垂直方向の中心線と左目2Lとを通る平面とが交差するように、右目用表示部126Rと左目用表示部126Lとが傾けられている。このため、広い視野角と、広い両眼視領域との両方を同時に確保することができる。
 例えば、公知の透過型ヘッドマウントディスプレイと比較して、よりユーザに近い距離から両眼視領域を確保することができる。従って、公知の技術と比較して、両眼視差が他の認知よりも有効な領域(ユーザからの距離が近い領域)のより広範囲において、両眼視差表現を用いた映像を適切に表示することができる。また、運動視差や相対的な物体の大きさが物体認知に有効な領域(ユーザからの距離が遠い領域)において、広い視野角の映像をユーザに視認させることができる。
 <2-5.変形例>
 なお、第1の実施形態は、上記の説明に限定されない。例えば、上記の説明では、HMD10‐1がコンテンツ取得部102および出力制御部106を有する例について説明したが、かかる例に限定されない。例えば、サーバ20が、HMD10‐1の代わりに、コンテンツ取得部102および出力制御部106(のそれぞれ少なくとも一部の機能)を有してもよい。
 そして、この変形例では、サーバ20は、表示対象のコンテンツと、例えばHMD10‐1などの他の装置から受信されるデバイス情報とに基づいて、右目用画像および左目用画像を生成し、そして、生成した右目用画像および左目用画像を当該他の装置へ送信することが可能である。例えば、サーバ20は、まず、他の装置から受信されるデバイス情報に基づいて、当該他の装置が有するディスプレイがハの字型ディスプレイであるか、HMD10‐1用のディスプレイ(すなわち、逆ハの字型ディスプレイ)であるかを判定する。次に、サーバ20は、表示対象のコンテンツの4種類のストリームのうち、判定したディスプレイ用の2種類のストリーム(すなわち、当該ディスプレイ用の左目用の映像信号および右目用の映像信号)を取得し、そして、取得したストリームに基づいて右目用画像および左目用画像を生成する。そして、サーバ20は、生成した右目用画像および左目用画像を当該他の装置へ送信する。
<<3.第2の実施形態>>
 以上、第1の実施形態について説明した。上述した第1の実施形態では、左目用表示部126Lと右目用表示部126Rとの位置関係(例えば角度など)が固定されている例について説明した。
 ところで、左目用表示部126Lと右目用表示部126Rとの望ましい位置関係は、利用シーンに応じて変化し得る。例えば、両眼視領域の広さを重視する場面では、左目用表示部126Lに表示される画像と、右目用表示部126Rに表示される画像との重なりの領域が大きくなるように、左目用表示部126Lと右目用表示部126Rとの位置関係が決まることが望ましい。この場合、例えば、図11の(a)に示すように、左目用表示部126Lと右目用表示部126Rとのなす角度が小さい、または、図2に示したように、左目用表示部126Lと右目用表示部126Rとが逆ハの字型に傾けられることが望ましい。
 また、視野角の広さを重視する場面では、左目用表示部126Lに表示される画像と、右目用表示部126Rに表示される画像との重なりの領域が小さくなるように、左目用表示部126Lと右目用表示部126Rとの位置関係が決まることが望ましい。この場合、例えば、図11の(b)に示すように、左目用表示部126Lと右目用表示部126Rとがハの字型に傾けられ、かつ、両者のなす角度が大きくなることが望ましい。
 次に、第2の実施形態について説明する。後述するように、第2の実施形態によるHMD10‐2は、左目用表示部126Lと右目用表示部126Rとの位置関係を、利用シーンに応じて変更することが可能である。
 ここで、左目用表示部126Lと右目用表示部126Rとの位置関係は手動で変更可能であってもよいし、自動で変更可能であってもよい。例えば、HMD10‐2に設置されているダイヤルなどの操作部(図示省略)に対する操作に基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係は手動で変更され得る。なお、左目用表示部126Lと右目用表示部126Rとの位置関係は、予め複数の段階が設けられ得る。
 <3-1.構成>
 まず、第2の実施形態によるHMD10‐2の構成について詳細に説明する。なお、以下では、第1の実施形態と重複する内容については説明を省略する。
 図12は、HMD10‐2の構成を示した機能ブロック図である。図12に示すように、HMD10‐2は、図4に示したHMD10‐1と比較して、制御部100‐1の代わりに、制御部100‐2を有する。この制御部100‐2は、駆動制御部108をさらに有する。また、HMD10‐2は、アクチュエータ128L、アクチュエータ128R、減光フィルター130L、および、減光フィルター130Rをさらに有する。
 [3-1-1.出力制御部106]
 (3-1-1-1.表示領域の決定)
 ‐コンテンツに関連する情報
 第2の実施形態による出力制御部106は、表示対象のコンテンツに関連する情報に基づいて、左目用表示部126Lで表示されるコンテンツ中の領域(以下、左目用表示領域と称する)と、右目用表示部126Rで表示されるコンテンツ中の領域(以下、右目用表示領域と称する)とを変化させる。例えば、出力制御部106は、左目用表示領域と右目用表示領域との重なりの程度を、表示対象のコンテンツに関連する情報に応じて変化させる。
 例えば、コンテンツが「16:9」の映像信号である場合、出力制御部106は、「16:9」の映像を表示可能なように、左目用表示領域と右目用表示領域との重なりの領域を小さくする。また、コンテンツが、領域の重なりに関する設定データを有する場合には、出力制御部106は、当該設定データに従って、左目用表示領域と右目用表示領域とを決定する。また、コンテンツが2Dのコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように(すなわち、左目用表示領域と右目用表示領域との合計の領域がより大きくなるように)左目用表示領域と右目用表示領域とを決定してもよい。また、コンテンツが3Dのコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。また、コンテンツが静止画のコンテンツである場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、コンテンツが示すジャンルに基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。ここで、コンテンツのジャンルとは、例えば、ナビゲーション、ショッピング、ゲーム、教育、または、例えばプラモデルの組み立ての取扱い説明書などの支援アプリケーションなどを含む。例えば、ジャンルがナビゲーションである場合、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、コンテンツに含まれるチャプターまたはシーンごとに、当該チャプターまたは当該シーンに関する情報に基づいて左目用表示領域と右目用表示領域とを決定することも可能である。
 また、表示対象が(コンテンツではなく)アプリケーションである場合には、出力制御部106は、アプリケーションが通知する情報に基づいて、アプリケーション中の左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 なお、アプリケーションにおいて、領域の重なりに関して特に規定されていない場合、もしくは、ユーザの行動に応じて領域の重なりを可変とするように規定されている場合には、出力制御部106は、ユーザまたは環境の状態に基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。
 ‐ユーザまたは環境に関連する情報
 また、出力制御部106は、ユーザまたは環境に関する情報に基づいて、左目用表示領域と右目用表示領域とを決定することが可能である。ここで、ユーザまたは環境に関する情報は、例えば、ユーザの年齢、ユーザの設定情報、ユーザの移動速度、ユーザの行動認識の結果、または、ユーザの位置情報などを含み得る。
 ‐‐年齢
 例えば、ユーザの年齢が(例えば公的機関により定められている)3D視聴対象の年齢以外である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなる、もしくは無くなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザの年齢が3D視聴対象の年齢である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐設定情報
 また、広角での表示を希望することがユーザにより設定されているか否かに応じて、出力制御部106は、左目用表示領域と右目用表示領域とを決定してもよい。例えば、広角での表示を希望することが設定されている場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、広角での表示を希望しないことが設定されている場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐移動速度
 また、出力制御部106は、検出されたユーザの移動速度に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、検出された移動速度が所定の速度よりも大きい場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、検出された移動速度が所定の速度以下である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐行動認識
 また、出力制御部106は、検出結果取得部104によるユーザの行動認識の結果に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。ここで、ユーザの行動は、例えば、歩いている、走っている、自転車に乗っている、電車に乗っている、自動車に乗っている、階段を昇降している、エレベータまたはエスカレータに乗っているなどである。
 例えば、ユーザが歩いていることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザが走っていること、または、自転車に乗っていることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 また、ユーザが電車または自動車に乗っていることが認識された場合には、出力制御部106は、検出された電車または自動車の移動速度に応じて、左目用表示領域と右目用表示領域とを決定してもよい。例えば、検出された電車または自動車の移動速度が所定の速度よりも大きい場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。また、検出された電車または自動車の移動速度が所定の速度以下である場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも大きくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 また、ユーザが階段を昇降していることが認識された場合には、出力制御部106は、左目用表示領域と右目用表示領域との重なり領域が所定の閾値よりも小さくなるように、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐位置または場所
 また、出力制御部106は、検出されたユーザの位置に関する情報に基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、出力制御部106は、検出されたユーザの位置情報に対応付けられている、領域の重なりに関する指定を含む情報を例えばサーバ20から取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。
 または、出力制御部106は、検出結果取得部104により特定される、ユーザが位置する場所に応じて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、ユーザがアトラクション施設にいることが特定された場合には、出力制御部106は、アトラクション施設の主催者により発信されている、領域の重なりに関する指定を含む情報を取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。また、ユーザがデパートなどの店舗にいることが特定された場合には、出力制御部106は、店舗の運営者により発信されている、領域の重なりに関する指定を含む情報を取得し、そして、取得した情報に基づいて左目用表示領域と右目用表示領域とを決定してもよい。
 また、出力制御部106は、ユーザが室内にいるか否かの検出結果に基づいて、左目用表示領域と右目用表示領域とを決定してもよい。
 ‐‐行動履歴
 また、出力制御部106は、過去のユーザステータスを参照する設定がされているか否かに基づいて、左目用表示領域と右目用表示領域とを決定することも可能である。例えば、過去のユーザステータスを参照する設定がされている場合には、出力制御部106は、ユーザの行動履歴に応じて、左目用表示領域と右目用表示領域とを決定してもよい。例えば、表示対象のコンテンツと同一または類似のコンテンツの過去の表示時に左目用表示領域と右目用表示領域とがどの程度重なるように設定されていたかに関する履歴に基づいて、出力制御部106は、左目用表示領域と右目用表示領域とを決定する。一例として、出力制御部106は、過去に最も多く設定された重なりの程度と同一になるように、左目用表示領域と右目用表示領域との重なりの領域を決定する。
 ここで、行動履歴は、該当のユーザ自身の行動履歴であってもよいし、または、該当のユーザと関連する他のユーザの行動履歴であってもよい。例えば、他のユーザは、該当のユーザが利用している所定のサービスに登録されている全部または一部のユーザである。
 また、過去のユーザステータスを参照する設定がされていない場合には、出力制御部106は、領域の重なりに関する現在の設定情報に応じて、左目用表示領域と右目用表示領域とを決定してもよい。
 (3-1-1-2.画像の生成)
 また、出力制御部106は、決定した左目用表示領域に基づいて左目用画像を生成し、かつ、決定した右目用表示領域に基づいて右目用画像を生成する。
 なお、出力制御部106は、左目用表示部126Lと右目用表示部126Rとの現在の位置関係に応じて、決定した左目用表示領域または右目用表示領域に含まれる物体を両眼視領域と片眼視領域とのいずれに配置するかを決定し、そして、決定した物体の配置に基づいて左目用画像および右目用画像を生成することも可能である。
 (3-1-1-3.ガイド情報の出力)
 また、左目用表示部126Lと右目用表示部126Rとの位置関係を手動で変更可能である場合には、出力制御部106は、決定した左目用表示領域と右目用表示領域とに応じて、当該位置関係の変更をユーザに指示するガイド情報の出力を制御する。ここで、ガイド情報は、位置関係の変更内容(例えば「ダイヤルを3番まで回すこと」)だけでなく、位置関係を変更するタイミングの指示を含み得る。
 例えば、出力制御部106は、決定した左目用表示領域と右目用表示領域とに応じて、当該位置関係の変更をユーザに指示するUIを左目用表示部126Lまたは右目用表示部126Rに表示させてもよいし、または、HMD10‐2に設置されているLEDをガイド情報に応じた点滅パターンで点滅させてもよい。または、出力制御部106は、ガイド情報の音声を出力させてもよいし、または、HMD10‐2またはユーザが携帯している他のデバイスを振動させてもよい。
 (3-1-1-4.位置関係の変更中を示す表示)
 また、左目用表示部126Lと右目用表示部126Rとの位置関係が(後述する駆動制御部108の制御により)自動で変更可能である場合には、出力制御部106は、左目用表示部126Lと右目用表示部126Rとの位置関係を変更中であることを示す表示を左目用表示部126Lまたは右目用表示部126Rに表示させる。例えば、出力制御部106は、変更中であることを示す文字または画像を左目用表示部126Lまたは右目用表示部126Rに表示させてもよい。または、出力制御部106は、左目用表示部126Lまたは右目用表示部126Rに現在表示されている映像を一時的に暗くしたり、表示されている映像の全部または一部を不明瞭に表示させたり、または、非表示にしてもよい。
 この制御例によれば、左目用表示部126Lと右目用表示部126Rとの位置関係が変化する際に視認性が低下する。従って、見た目の違和感を緩和させたり、または、映像酔いを軽減することができる。
 [3-1-2.駆動制御部108]
 駆動制御部108は、出力制御部106により決定された左目用表示領域と右目用表示領域とに基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係を自動的に変化させるための制御を実行する。例えば、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの位置関係が、決定された左目用表示領域と右目用表示領域とに応じた位置関係になるように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させる。
 ところで、HMD10‐2の装着時における、左目用表示部126Lまたは右目用表示部126Rに対するユーザの目の位置は、ユーザによって大きく異なり得る。例えば図13に示すように、左目用表示部126Lに対する或るユーザの左目の位置2-1Lと、別のユーザの左目の位置2-2Lとは大きく異なり得る。そして、左目用表示部126Lまたは右目用表示部126Rに対するユーザの目の位置によっては、ユーザは、表示対象のコンテンツを例えばコンテンツ製作者が想定する見え方(外観)通りに視認することができない場合がある。
 そこで、駆動制御部108は、例えばコンテンツごとに予め定められている目標の見え方と、左目用表示部126Lに対する左目の位置または右目用表示部126Rに対する右目の位置の検出結果とに基づいて、左目用表示部126Lと右目用表示部126Rとの位置関係を変化させるための制御を実行することが好ましい。
 [3-1-3.アクチュエータ128L、アクチュエータ128R]
 アクチュエータ128Lおよびアクチュエータ128Rは、駆動制御部108の制御に従って、左目用表示部126Lまたは右目用表示部126Rの角度または位置を変化させる。
 図14および図15は、アクチュエータ128Rによる右目用表示部126Rの移動の例を示した説明図(上面図)である。例えば、図14の(a)に示すように、アクチュエータ128Rは、右目用表示部126Rの所定の位置を回転中心として右目用表示部126Rを例えば±90°回転させることが可能である。また、図14の(b)に示すように、アクチュエータ128Rは、例えばHMD10‐2に設けられたレール(図示省略)などに沿って、右目用表示部126Rの角度を維持したまま、右目用表示部126Rの位置に関して回転移動させることが可能である。また、図14の(c)に示すように、アクチュエータ128Rは、例えばレールなどに沿って、右目用表示部126Rを平行移動させることが可能である。
 または、図15に示すように、例えば右目2Rの動きが検出された場合には、駆動制御部108は、検出された右目2Rの動きに合わせて右目用表示部126Rの位置や角度をアクチュエータ128Rに変更させることも可能である。
 なお、図14および図15では、右目用表示部126Rの移動例について示しているが、左目用表示部126Lに関しても同様の方法で移動可能である。すなわち、アクチュエータ128Lは左目用表示部126Lを同様の方法で移動させることが可能である。
 [3-1-4.減光フィルター130L、減光フィルター130R]
 減光フィルター130Lおよび減光フィルター130Rは、例えばエレクトロクロミックなどの透過光量可変デバイスにより形成される。この減光フィルター130Lおよび減光フィルター130Rは、制御部100‐2の制御により、透過光量を減少させる。
 [3-1-5.変形例]
 なお、第2の実施形態によるHMD10‐2の構成は、上述した構成に限定されない。例えば、左目用表示部126Lと右目用表示部126Rとの位置関係は手動でのみ変更可能であってもよい。そして、この場合、駆動制御部108、アクチュエータ128L、および、アクチュエータ128Rは、HMD10‐2に含まれなくてもよい。
 また、減光フィルター130Lおよび減光フィルター130Rは、必ずしもHMD10‐2に含まれなくてもよい。
 <3-2.動作>
 以上、第2の実施形態による構成について説明した。次に、第2の実施形態による動作例について説明する。図16は、第2の実施形態による動作の一例を示したフローチャートである。なお、図16に示したS201は、第1の実施形態によるS101と同様である。
 S201の後、HMD10‐2のコンテンツ取得部102は、S201で取得されたコンテンツに関連する情報を例えばサーバ20から取得する(S203)。
 そして、検出結果取得部104は、センサ部122により検出される、ユーザまたは環境に関する情報を取得する(S205)。
 続いて、出力制御部106は、S203で取得されたコンテンツに関連する情報と、S205で取得されたユーザまたは環境に関する情報とに基づいて、左目用表示領域と右目用表示領域との重なりの程度を決定する。そして、出力制御部106は、決定した右目用表示領域に基づいて右目用画像を生成し、かつ、決定した左目用表示領域に基づいて左目用画像を生成する(S207)。
 そして、左目用表示部126Lと右目用表示部126Rとの位置関係が自動で変更可能ではない場合、すなわち手動でのみ変更可能である場合には(S209:No)、出力制御部106は、S207で決定された重なりの程度に応じて、右目用表示部126Rと左目用表示部126Lとの位置関係の変更をユーザに指示するUIを右目用表示部126Rまたは左目用表示部126Lに表示させる。そして、ユーザは、表示されたUIに沿って、例えばHMD10‐2の操作部に対して操作を行うことにより、右目用表示部126Rと左目用表示部126Lとの位置関係を変更する(S211)。その後、HMD10‐2は、後述するS215の処理を行う。
 一方、左目用表示部126Lと右目用表示部126Rとの位置関係が自動で変更可能である場合には(S209:Yes)、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの位置関係を、S207で決定された重なりの程度に応じて変更するように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させる(S213)。
 なお、図16に示したS215は、第1の実施形態によるS107と同様である。
 <3-3.効果>
 以上説明したように、第2の実施形態によるHMD10‐2は、利用シーンに応じて、左目用表示領域と右目用表示領域との重なりの程度を変化させることができる。
 例えば、両眼視領域の広さを重視する場面では、HMD10‐2は、左目用表示領域と左目用表示領域とが重なる領域が大きくなるように左目用表示領域と右目用表示領域とを決定する。また、視野角の広さを重視する場面では、HMD10‐2は、左目用表示領域と左目用表示領域とが重なる領域が小さくなるように左目用表示領域と右目用表示領域とを決定する。このように、HMD10‐2は、視野角の広さと両眼視領域の広さとを動的に調整することができ、利用シーンごとに最適な映像を表示することができる。
 <3-4.変形例>
 なお、第2の実施形態は、上述した説明に限定されない。例えば、HMD10‐2の一部が故障した場合には、出力制御部106は、エラーを通知する表示、音声、または振動を出力させることが可能である。または、この場合、駆動制御部108は、左目用表示部126Lと右目用表示部126Rとの角度が平行になるように、アクチュエータ128Lまたはアクチュエータ128Rを駆動させてもよい。
 また、例えば自動車の運転中に移動速度が検出不可能になるなど、必要な情報が検出不可能になった場合には、出力制御部106は、左目用表示領域と左目用表示領域とが重なる領域をより小さくさせてもよい。これらの変形例によれば、HMD10‐2の使用時における安全性を向上することができる。
<<4.ハードウェア構成>>
 次に、各実施形態に共通するHMD10のハードウェア構成について、図17を参照して説明する。図17に示したように、HMD10は、CPU150、ROM152、RAM154、内部バス156、インターフェース158、入力装置160、出力装置162、ストレージ装置164、および通信装置166を備える。
 CPU150は、演算処理装置および制御装置として機能し、各種プログラムに従ってHMD10内の動作全般を制御する。また、CPU150は、制御部100‐1または制御部100‐2の機能を実現する。なお、CPU150は、マイクロプロセッサなどのプロセッサにより構成される。
 ROM152は、CPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。
 RAM154は、例えば、CPU150により実行されるプログラムなどを一時的に記憶する。
 内部バス156は、CPUバスなどから構成される。この内部バス156は、CPU150、ROM152、およびRAM154を相互に接続する。
 インターフェース158は、入力装置160、出力装置162、ストレージ装置164、および通信装置166を内部バス156と接続する。
 ストレージ装置164は、記憶部124として機能する、データ格納用の装置である。ストレージ装置164は、例えば、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、または記憶媒体に記録されたデータを削除する削除装置などを含む。
 通信装置166は、通信網22に接続するための通信デバイス等で構成された通信インターフェースである。また、通信装置166は、無線LAN対応通信装置、LTE(Long Term Evolution)対応通信装置、または有線による通信を行うワイヤー通信装置であってもよい。この通信装置166は、通信部120として機能する。
<<5.変形例>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 <5-1.変形例1>
 例えば、左目用ディスプレイおよび右目用ディスプレイが歪んでいる場合には、視認性が低下するという課題がある。ここで、図18の(a)を参照して、上記の内容についてより詳細に説明する。左目用ディスプレイおよび右目用ディスプレイが歪んでいる場合には、例えば、図18の(a)において破線で示したように、左目用表示領域44Lと右目用表示領域44Rとが重なる部分に関して、継ぎ目が凸凹になり得る。このため、継ぎ目の周辺の領域においてユーザは違和感を抱き得る。
 そこで、HMD10は、左目用ディスプレイおよび右目用ディスプレイの歪みに応じて、左目用ディスプレイと右目用ディスプレイとの位置関係(例えばディスプレイ間の角度など)を変化させることが望ましい。これにより、図18の(b)に示したように、左目用表示領域44Lと右目用表示領域44Rとが重なる部分に関して、継ぎ目を滑らかにつなげることができる。従って、ユーザに違和感を与えず、自然に知覚させることができる。
 <5-2.変形例2>
 また、上述した各実施形態では、本開示における表示装置および情報処理装置がHMD10である例について説明したが、かかる例に限定されない。例えば、当該表示装置または当該情報処理装置は、例えばレーザー光により網膜上に画像を描画する投影デバイスであってもよい。
 <5-3.変形例3>
 また、上述した制御部100‐1(または制御部100‐2)に含まれる全ての構成要素は、HMD10‐1(またはHMD10‐2)の代わりに、サーバ20に搭載されてもよい。そして、この場合、本開示における表示装置または情報処理装置は、HMD10‐1(またはHMD10‐2)ではなく、サーバ20になり得る。
 または、当該表示装置または当該情報処理装置は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末、または、ゲーム機など、通信網22に接続可能な他の種類の装置であってもよい。
 また、上述した実施形態によれば、CPU150、ROM152、およびRAM154などのハードウェアを、上述した各実施形態によるHMD10‐1またはHMD10‐2の各構成と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 右目に映像光を導く右目用光学系によって形成される右目用の虚像における垂直方向の第1の直線と前記右目とを通る平面と、左目に映像光を導く左目用光学系によって形成される左目用の虚像における前記第1の直線に対応する、垂直方向の第2の直線と前記左目とを通る平面とが交差するように、前記右目用光学系と前記左目用光学系とを構成した、
表示装置。
(2)
 前記表示装置は、前記右目用の虚像に対応する右目用画像を前記右目用光学系に表示させ、かつ、前記左目用の虚像に対応する左目用画像を前記左目用光学系に表示させる出力制御部をさらに備える、前記(1)に記載の表示装置。
(3)
 前記出力制御部は、前記右目用画像に含まれる第1の領域と、前記左目用画像に含まれる第2の領域とが重なるように、前記右目用画像および前記左目用画像を表示させる、前記(2)に記載の表示装置。
(4)
 前記右目用の虚像に含まれる前記第1の領域に対応する像と、前記右目用の虚像に含まれる前記第2の領域に対応する像とが少なくとも一部重なるように、前記右目用光学系および前記左目用光学系は構成されている、前記(3)に記載の表示装置。
(5)
 前記出力制御部は、表示対象のコンテンツに基づいて前記右目用画像および前記左目用画像を生成する、前記(3)または(4)に記載の表示装置。
(6)
 前記コンテンツは、第1の映像信号と、前記第1の映像信号に対応する第2の映像信号とを含み、
 前記出力制御部は、前記第1の映像信号から前記右目用画像に対応する領域を切り出すことにより前記右目用画像を生成し、
 前記出力制御部は、前記第2の映像信号から前記左目用画像に対応する領域を切り出すことにより前記左目用画像を生成する、前記(5)に記載の表示装置。
(7)
 前記第1の映像信号の水平方向の一端と前記右目用画像に対応する領域との間の距離は、前記第2の映像信号の水平方向の前記一端と前記左目用画像に対応する領域との間の距離よりも小さい、前記(6)に記載の表示装置。
(8)
 前記第1の映像信号と前記第2の映像信号とはサイズが同じであり、
 前記右目用画像と前記左目用画像とはサイズが同じである、前記(7)に記載の表示装置。
(9)
 前記第1の映像信号と、前記第2の映像信号とは、三次元の映像を含む、前記(6)~(8)のいずれか一項に記載の表示装置。
(10)
 前記右目用画像における前記第1の領域以外の領域である第3の領域は、前記第1の映像信号における前記第3の領域に対応する領域と同一であり、
 前記第1の領域は、前記第1の映像信号における前記第1の領域に対応する領域に対して所定の補正処理がなされた領域である、前記(6)~(9)のいずれか一項に記載の表示装置。
(11)
 前記所定の補正処理は、前記第1の映像信号における画素の輝度に応じて当該画素の輝度を変化させる処理である、前記(10)に記載の表示装置。
(12)
 前記所定の補正処理は、前記第1の映像信号における画素の輝度に応じた変化量で、当該画素に隣接する他の画素の輝度を変化させる処理である、前記(11)に記載の表示装置。
(13)
 前記所定の補正処理は、前記第1の映像信号における画素の輝度と所定のガンマ曲線とに基づいて当該画素の輝度を変化させる処理である、前記(11)または(12)に記載の表示装置。
(14)
 前記第2の領域は、前記第2の映像信号における前記第2の領域に対応する領域と同一である、前記(6)~(13)のいずれか一項に記載の表示装置。
(15)
 前記出力制御部は、さらに、前記コンテンツに関連する情報に基づいて、前記右目用画像および前記左目用画像を生成する、前記(6)~(14)のいずれか一項に記載の表示装置。
(16)
 前記出力制御部は、前記コンテンツに関連する情報に基づいて、前記右目用画像または前記左目用画像における、前記コンテンツに含まれる情報の配置位置を変化させる、前記(15)に記載の表示装置。
(17)
 前記出力制御部は、さらに、前記右目用光学系または前記左目用光学系のサイズに基づいて、前記右目用画像および前記左目用画像を生成する、前記(5)~(16)のいずれか一項に記載の表示装置。
(18)
 前記出力制御部は、さらに、前記表示装置の状態に関する情報の検出に基づいて、前記右目用画像および前記左目用画像を生成する、前記(5)~(17)のいずれか一項に記載の表示装置。
(19)
 前記表示装置の状態に関する情報は、前記表示装置の速度を含み、
 前記出力制御部は、検出された前記表示装置の速度に基づいて、前記右目用画像および前記左目用画像を生成する、前記(18)に記載の表示装置。
(20)
 前記出力制御部は、さらに、前記表示装置の周囲の環境に関する情報の検出に基づいて、前記右目用画像および前記左目用画像を生成する、前記(5)~(19)のいずれか一項に記載の表示装置。
10‐1、10‐2 HMD
20 サーバ
22 通信網
100‐1、100‐2 制御部
102 コンテンツ取得部
104 検出結果取得部
106 出力制御部
108 駆動制御部
120 通信部
122 センサ部
124 記憶部
126L 左目用表示部
126R 右目用表示部
128L、128R アクチュエータ
130L、130R 減光フィルター

Claims (20)

  1.  右目に映像光を導く右目用光学系によって形成される右目用の虚像における垂直方向の第1の直線と前記右目とを通る平面と、左目に映像光を導く左目用光学系によって形成される左目用の虚像における前記第1の直線に対応する、垂直方向の第2の直線と前記左目とを通る平面とが交差するように、前記右目用光学系と前記左目用光学系とを構成した、
    表示装置。
  2.  前記表示装置は、前記右目用の虚像に対応する右目用画像を前記右目用光学系に表示させ、かつ、前記左目用の虚像に対応する左目用画像を前記左目用光学系に表示させる出力制御部をさらに備える、請求項1に記載の表示装置。
  3.  前記出力制御部は、前記右目用画像に含まれる第1の領域と、前記左目用画像に含まれる第2の領域とが重なるように、前記右目用画像および前記左目用画像を表示させる、請求項2に記載の表示装置。
  4.  前記右目用の虚像に含まれる前記第1の領域に対応する像と、前記右目用の虚像に含まれる前記第2の領域に対応する像とが少なくとも一部重なるように、前記右目用光学系および前記左目用光学系は構成されている、請求項3に記載の表示装置。
  5.  前記出力制御部は、表示対象のコンテンツに基づいて前記右目用画像および前記左目用画像を生成する、請求項3に記載の表示装置。
  6.  前記コンテンツは、第1の映像信号と、前記第1の映像信号に対応する第2の映像信号とを含み、
     前記出力制御部は、前記第1の映像信号から前記右目用画像に対応する領域を切り出すことにより前記右目用画像を生成し、
     前記出力制御部は、前記第2の映像信号から前記左目用画像に対応する領域を切り出すことにより前記左目用画像を生成する、請求項5に記載の表示装置。
  7.  前記第1の映像信号の水平方向の一端と前記右目用画像に対応する領域との間の距離は、前記第2の映像信号の水平方向の前記一端と前記左目用画像に対応する領域との間の距離よりも小さい、請求項6に記載の表示装置。
  8.  前記第1の映像信号と前記第2の映像信号とはサイズが同じであり、
     前記右目用画像と前記左目用画像とはサイズが同じである、請求項7に記載の表示装置。
  9.  前記第1の映像信号と、前記第2の映像信号とは、三次元の映像を含む、請求項6に記載の表示装置。
  10.  前記右目用画像における前記第1の領域以外の領域である第3の領域は、前記第1の映像信号における前記第3の領域に対応する領域と同一であり、
     前記第1の領域は、前記第1の映像信号における前記第1の領域に対応する領域に対して所定の補正処理がなされた領域である、請求項6に記載の表示装置。
  11.  前記所定の補正処理は、前記第1の映像信号における画素の輝度に応じて当該画素の輝度を変化させる処理である、請求項10に記載の表示装置。
  12.  前記所定の補正処理は、前記第1の映像信号における画素の輝度に応じた変化量で、当該画素に隣接する他の画素の輝度を変化させる処理である、請求項11に記載の表示装置。
  13.  前記所定の補正処理は、前記第1の映像信号における画素の輝度と所定のガンマ曲線とに基づいて当該画素の輝度を変化させる処理である、請求項11に記載の表示装置。
  14.  前記第2の領域は、前記第2の映像信号における前記第2の領域に対応する領域と同一である、請求項6に記載の表示装置。
  15.  前記出力制御部は、さらに、前記コンテンツに関連する情報に基づいて、前記右目用画像および前記左目用画像を生成する、請求項6に記載の表示装置。
  16.  前記出力制御部は、前記コンテンツに関連する情報に基づいて、前記右目用画像または前記左目用画像における、前記コンテンツに含まれる情報の配置位置を変化させる、請求項15に記載の表示装置。
  17.  前記出力制御部は、さらに、前記右目用光学系または前記左目用光学系のサイズに基づいて、前記右目用画像および前記左目用画像を生成する、請求項5に記載の表示装置。
  18.  前記出力制御部は、さらに、前記表示装置の状態に関する情報の検出に基づいて、前記右目用画像および前記左目用画像を生成する、請求項5に記載の表示装置。
  19.  前記表示装置の状態に関する情報は、前記表示装置の速度を含み、
     前記出力制御部は、検出された前記表示装置の速度に基づいて、前記右目用画像および前記左目用画像を生成する、請求項18に記載の表示装置。
  20.  前記出力制御部は、さらに、前記表示装置の周囲の環境に関する情報の検出に基づいて、前記右目用画像および前記左目用画像を生成する、請求項5に記載の表示装置。
PCT/JP2016/077778 2015-12-28 2016-09-21 表示装置 Ceased WO2017115505A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/060,216 US20180364488A1 (en) 2015-12-28 2016-09-21 Display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-255883 2015-12-28
JP2015255883 2015-12-28

Publications (1)

Publication Number Publication Date
WO2017115505A1 true WO2017115505A1 (ja) 2017-07-06

Family

ID=59225721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077778 Ceased WO2017115505A1 (ja) 2015-12-28 2016-09-21 表示装置

Country Status (2)

Country Link
US (1) US20180364488A1 (ja)
WO (1) WO2017115505A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019131160A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
EP3639245A4 (en) * 2017-07-17 2021-03-10 Vuzix Corporation IMAGE SHIFT CORRECTION FOR A BINOCULAR VIRTUAL IMAGING DEVICE
JP2022517990A (ja) * 2019-01-14 2022-03-11 バルブ コーポレーション Hmd内のディスプレイパネルおよび/または仮想カメラの反対への回転

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10742964B2 (en) * 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images
US11852818B2 (en) * 2018-09-29 2023-12-26 Beijing Antvr Technology Co., Ltd. Thin near-to-eye display device with large field of view angle
CN115280404A (zh) * 2020-12-14 2022-11-01 谷歌有限责任公司 可变亮度和视场显示

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250293A (ja) * 1994-03-10 1995-09-26 Sony Corp 眼鏡型ディスプレイ装置
JPH0829725A (ja) * 1994-05-10 1996-02-02 Canon Inc 複眼式画像表示装置
JPH0882762A (ja) * 1994-07-15 1996-03-26 Sega Enterp Ltd 頭部搭載型映像表示装置およびこれを用いた映像表示システム
JPH0968670A (ja) * 1995-08-31 1997-03-11 Olympus Optical Co Ltd 頭部装着型映像表示装置
JPH09284676A (ja) * 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
JPH1070742A (ja) * 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP2003337299A (ja) * 2002-05-20 2003-11-28 Victor Co Of Japan Ltd ヘッドマウントディスプレイ装置
JP2005049690A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示光学系
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141461A (ja) * 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
US9153044B2 (en) * 2011-03-15 2015-10-06 Sharp Kabushiki Kaisha Image signal processing device, display device, and television for reducing uneven luminance image signals
KR101461186B1 (ko) * 2011-07-07 2014-11-13 엘지디스플레이 주식회사 입체 영상 표시 장치 및 그 구동 방법
US10162412B2 (en) * 2015-03-27 2018-12-25 Seiko Epson Corporation Display, control method of display, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07250293A (ja) * 1994-03-10 1995-09-26 Sony Corp 眼鏡型ディスプレイ装置
JPH0829725A (ja) * 1994-05-10 1996-02-02 Canon Inc 複眼式画像表示装置
JPH0882762A (ja) * 1994-07-15 1996-03-26 Sega Enterp Ltd 頭部搭載型映像表示装置およびこれを用いた映像表示システム
JPH0968670A (ja) * 1995-08-31 1997-03-11 Olympus Optical Co Ltd 頭部装着型映像表示装置
JPH09284676A (ja) * 1996-04-15 1997-10-31 Sony Corp 身体の動きに同期した映像及び音声処理方法と映像表示装置
JPH1070742A (ja) * 1996-08-29 1998-03-10 Olympus Optical Co Ltd 二眼式映像表示装置
JP2003337299A (ja) * 2002-05-20 2003-11-28 Victor Co Of Japan Ltd ヘッドマウントディスプレイ装置
JP2005049690A (ja) * 2003-07-30 2005-02-24 Canon Inc 画像表示光学系
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3639245A4 (en) * 2017-07-17 2021-03-10 Vuzix Corporation IMAGE SHIFT CORRECTION FOR A BINOCULAR VIRTUAL IMAGING DEVICE
EP3843387A1 (en) * 2017-07-17 2021-06-30 Vuzix Corporation Image shift correction for binocular virtual imaging apparatus
US11726321B2 (en) 2017-07-17 2023-08-15 Vuzix Corporation Image shift correction for binocular virtual imaging apparatus
US12124032B2 (en) 2017-07-17 2024-10-22 Vuzix Corporation Image shift correction for binocular virtual imaging apparatus
WO2019131160A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法、および記録媒体
US11039124B2 (en) 2017-12-27 2021-06-15 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2022517990A (ja) * 2019-01-14 2022-03-11 バルブ コーポレーション Hmd内のディスプレイパネルおよび/または仮想カメラの反対への回転
JP7608341B2 (ja) 2019-01-14 2025-01-06 バルブ コーポレーション Hmd内のディスプレイパネルおよび/または仮想カメラの反対への回転

Also Published As

Publication number Publication date
US20180364488A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
WO2017115505A1 (ja) 表示装置
US9756319B2 (en) Virtual see-through instrument cluster with live video
WO2017115504A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110520200B (zh) 前庭锚定
US10453238B2 (en) Information processing apparatus, information processing method, and program for displaying information on multiple display layers
US20180158385A1 (en) Interactive multiplane display system with transparent transmissive layers
US11237413B1 (en) Multi-focal display based on polarization switches and geometric phase lenses
US11543655B1 (en) Rendering for multi-focus display systems
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
WO2019131160A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP2018042236A (ja) 情報処理装置、情報処理方法、及びプログラム
CN108027694B (zh) 记录介质、内容提供装置以及控制方法
JP2010259017A (ja) 表示装置、表示方法、および表示プログラム
WO2022086580A1 (en) Dynamic resolution of depth conflicts in telepresence
US10602116B2 (en) Information processing apparatus, information processing method, and program for performing display control
US11694379B1 (en) Animation modification for optical see-through displays
JP6806062B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN120447734A (zh) 包括环境表示的用户界面
JP2017069924A (ja) 画像表示装置
JP2018504014A (ja) 三次元の外観を有する画像の再生方法
JP2004361469A (ja) 表示装置及び方法
US20170052684A1 (en) Display control apparatus, display control method, and program
KR20250050092A (ko) 시선 추적 등록을 위한 사용자 인터페이스들
Strecker et al. 3-D Displays for Use in the Vehicle Cockpit
WO2024064380A1 (en) User interfaces for gaze tracking enrollment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16881485

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16881485

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP