WO2016181749A1 - ヘッドアップディスプレイ - Google Patents
ヘッドアップディスプレイ Download PDFInfo
- Publication number
- WO2016181749A1 WO2016181749A1 PCT/JP2016/061967 JP2016061967W WO2016181749A1 WO 2016181749 A1 WO2016181749 A1 WO 2016181749A1 JP 2016061967 W JP2016061967 W JP 2016061967W WO 2016181749 A1 WO2016181749 A1 WO 2016181749A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- virtual image
- image display
- display surface
- vehicle
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/213—Virtual instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/31—Virtual images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0129—Head-up displays characterised by optical features comprising devices for correcting parallax
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0136—Head-up displays characterised by optical features comprising binocular systems with a single image source for both eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0154—Head-up displays characterised by mechanical features with movable elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
Definitions
- the present invention relates to a head-up display that displays a virtual image.
- the head-up display adds information to the actual scene by emphasizing and displaying the superimposed image on the scenery (real scene) ahead of the host vehicle, and augments a specific object in the actual scene (AR: Augmented Reality). ) And providing the desired information accurately while minimizing the line of sight movement of the viewer driving the vehicle, contributing to safe and comfortable vehicle operation.
- Patent Document 1 discloses a head-up display that includes two image display units and generates virtual images on two virtual image display surfaces by displaying images on these image display units.
- the up-display displays two virtual images generated by the first and second image display units by disposing the display surfaces of the first and second image display units at different angles with respect to the visual axis of the viewer.
- the viewing angle of the display surface is varied.
- the head-up display generates one virtual image display surface so as to be substantially perpendicular to the viewer's line of sight, and tilts the other virtual image display surface in the horizontal direction from the other virtual image display surface.
- the two virtual image display surfaces are not parallel but have a predetermined angle.
- the viewer can recognize the virtual image three-dimensionally.
- the angle between the two virtual image display surfaces is fixed. Therefore, for example, even when the pitch angle of the vehicle changes due to the behavior of the vehicle, such as acceleration / deceleration, the angle between the two virtual image display surfaces remains maintained, and the display position deviates from the actual scene outside the vehicle. It is only visible.
- the posture (pitch angle) of the vehicle is changed, when the virtual images displayed on the two virtual image display surfaces are similarly shifted from the real scene, which one is displayed on one virtual image display surface. It is difficult to recognize which information is the information displayed on the other virtual image display surface. That is, there is a problem that it becomes difficult to distinguish and recognize information displayed on each virtual image display surface, and the three-dimensional impression is diminished.
- FIG. 11 shows an example of the state of the pitch angle of three vehicles as an example representing the position of the virtual image display surface when the pitch angle of the vehicle changes.
- FIG. 11A shows the positions of the first virtual image display surface 521r and the second virtual image display surface 522r when the pitch angle of the vehicle is substantially parallel to the road surface
- FIG. 11B shows the pitch of the vehicle.
- FIG. 11C shows the positions of the first virtual image display surface 521u and the second virtual image display surface 522u when the angle is directed upward in the vertical direction with respect to the road surface
- FIG. 11C shows that the pitch angle of the vehicle is perpendicular to the road surface.
- the positions of the first virtual image display surface 521d and the second virtual image display surface 522d when facing downward in the direction are shown.
- the relative angle between the first virtual image display surface 521 and the second virtual image display surface 522 does not change. For this reason, it is difficult to recognize which of the currently viewed information is displayed on the first virtual image display surface 521 (second virtual image display surface 522), and the three-dimensional impression has faded.
- One object of the present invention is to provide a head-up display that facilitates differentiation of information included in a stereoscopic display and can display a stereoscopic effect.
- the present invention employs the following means in order to solve the above problems.
- the head-up display of the present invention is provided so as to have a predetermined angle, generates first and second virtual image display surfaces capable of displaying virtual images, and at least a first virtual image display surface corresponding to the first virtual image display surface.
- First virtual image display by rotating either the first display surface of the image generation unit or the relay optical system that directs the first display light emitted from the first image generation unit to the transmission reflection unit The angle formed by the surface and the second virtual image display surface is changed.
- the head-up display of the present invention changes the angle formed between the first virtual image display surface and the second virtual image display surface, so that which of the information to be visually recognized is the first virtual image display surface (first The virtual image displayed on each of the first and second virtual image display surfaces can be more three-dimensionally recognized. This is the gist.
- the head-up display according to the present invention is mounted on a vehicle, and can project a display image onto a transmission / reflection part, thereby displaying a virtual image on each of the virtual first virtual image display surface and the second virtual image display surface.
- a first image having a first display surface corresponding to the first virtual image display surface and emitting a first display light for displaying the virtual image from the first display surface.
- a second image display unit that has a display and a second display surface corresponding to the second virtual image display surface and emits second display light for displaying the virtual image from the second display surface;
- a relay optical system for directing the first and second display lights emitted from the first and second image display units to the transmission / reflection unit, and at least one of the first display surface and the relay optical system is rotated.
- An actuator capable of adjusting the definitive angle, and controls the actuator, in which and a control unit for changing an angle between the first virtual image display surface and the second virtual image display surface.
- the information contained in the 3D display can be easily differentiated and a 3D display can be achieved.
- FIG. 3 is a diagram for explaining an example of angles formed by the first and second virtual image display surfaces when the pitch angle of the vehicle is approximately parallel to the road surface by the head-up display shown in FIG. An example of a pitch angle is shown, (b) shows an example of an angle of a reflective part, and (c) is a figure showing arrangement of the 1st and 2nd virtual image display surfaces.
- FIG. 3 is a diagram for explaining an example of angles formed by the first and second virtual image display surfaces when the pitch angle of the vehicle is directed upward in the vertical direction by the head-up display shown in FIG.
- FIG. 4B is a diagram illustrating an example of the angle of the reflection portion
- FIG. 5B is a diagram illustrating an example of the angle of the reflection portion
- FIG. 3 is a diagram for explaining an example of angles formed by the first and second virtual image display surfaces when the pitch angle of the vehicle is directed downward in the vertical direction by the head-up display shown in FIG.
- An example of the pitch angle of a vehicle is shown
- (b) shows an example of an angle of a reflective part
- (c) is a figure showing arrangement of the 1st and 2nd virtual image display surfaces.
- FIG. 3 is a diagram for explaining an example of a use region when the pitch angle of the vehicle is substantially parallel to the road surface on the first display surface of the first image display unit shown in FIG. 2.
- FIG. 3 is a diagram illustrating an example of a use region when the pitch angle of the vehicle is directed upward in the vertical direction on the first display surface illustrated in FIG. 2.
- FIG. 3 is a diagram illustrating the arrangement of first and second virtual image display surfaces according to the posture of the vehicle in the head-up display of FIG. 2. It is a figure which shows the example of a mode that the real scene and the virtual image which the modification of the head-up display shown in FIG. 2 display are visually recognized when it faces the front of a vehicle from a driver's seat.
- the conventional head-up display it is a figure explaining arrangement
- the virtual first virtual image display surface 310 and the second virtual image display surface 320 generated by the head-up display (hereinafter referred to as HUD) 100 of the present invention will be described.
- the left-right direction facing the front of the vehicle 1 is defined as the X axis (the right direction is the X axis positive direction), and the vertical
- the direction is defined as the Y-axis (the upper side in the vertical direction is the positive Y-axis direction), and the front-rear direction is defined as the Z-axis (the rear direction is the positive Z-axis direction).
- the HUD 100 is stored in a dashboard 3 of a vehicle (one application example of a moving body) 1, for example.
- the HUD 100 projects display light 200 (first display light 210 and second display light 220) indicating vehicle information and the like on a part of a front windshield (an example of a transmission / reflection part) 2 of the vehicle 1.
- the front windshield 2 generates a predetermined eye box (not shown) by reflecting the first display light 210 and the second display light 220 toward the viewer side.
- the viewer places the first viewpoint (position of the viewer's eyes) 4 in the eye box, so that the first virtual image display surface 310, which is virtually generated by the HUD 100, in front of the first windshield 2.
- the first virtual image 311 and the second virtual image 321 can be viewed on the second virtual image display surface 320.
- the first virtual image display surface 310 shown in FIG. 1 is visually recognized from the center of the first virtual image display surface 310, for example, when the line connecting the center of the first virtual image display surface 310 and the viewpoint 4 is the visual axis 4a.
- the angle 310a formed by the person-side display area and the visual axis 4a is an acute angle, and the first is visually recognized by being superimposed over a predetermined range of the road surface 5 (positions 5a to 5b in FIG. 1).
- a virtual image 311 is displayed.
- the first virtual image display surface 310 is parallel to the road surface 5 in FIG. 1 (horizontal direction composed of the XZ plane), and is 20 m away from the eyebox in the forward direction (traveling direction of the vehicle 1). It is provided so that it may be visually recognized over the position 5b which is 50 m away from the position 5a.
- the first virtual image display surface 310 may be provided with an inclination of about ⁇ 5 degrees from an angle parallel to the road surface 5 in FIG.
- the second virtual image display surface 320 shown in FIG. 1 is, for example, the center of the second virtual image display surface 320 when the line connecting the center of the second virtual image display surface 320 and the viewpoint 4 is the line of sight axis 4b. Is provided so that an angle 320a formed between the display area on the lower side in the vertical direction and the visual axis 4b is larger than an angle 310a formed between the first virtual image display surface 310 and the visual axis 4a. indicate.
- the second virtual image display surface 320 is generally parallel to a direction (XY plane) perpendicular to the traveling direction of the vehicle 1 in FIG. 1, and forward from the eyebox (the traveling direction of the vehicle 1).
- the second virtual image display surface 320 may be provided with an inclination of about ⁇ 5 degrees from an angle parallel to a direction (XY plane) perpendicular to the traveling direction of the vehicle 1 in FIG.
- FIG. 2 is a diagram illustrating an example of a landscape, a first virtual image 311, and a second virtual image 321 that are visible to a viewer sitting in the driver's seat of the vehicle 1 including the HUD 100 illustrated in FIG. 1.
- the first virtual image display surface 310 adds information to the road surface 5 by, for example, visualizing the first virtual image 311 such as an arrow indicating the route of the vehicle 1 over the real scene (road surface 5).
- the second virtual image display surface 320 displays a second virtual image 321 that is not directly related to a real scene such as the vehicle speed of the vehicle 1 on the display surface.
- the vehicle attitude detection unit 6 analyzes, for example, a triaxial acceleration sensor (not shown) and the triaxial acceleration detected by the triaxial acceleration sensor, so that the pitch angle (vehicle attitude) of the vehicle 1 with respect to the horizontal plane is used. And vehicle attitude information G including information related to the pitch angle of the vehicle 1 is output to the HUD 100 (control unit 70).
- the vehicle posture detection unit 6 may be configured by a height sensor (not shown) disposed in the vicinity of the suspension of the vehicle 1 in addition to the above-described triaxial acceleration sensor.
- the vehicle posture detection unit 6 estimates the pitch angle of the vehicle 1 as described above by analyzing the height of the vehicle 1 from the ground detected by the height sensor, and information on the pitch angle of the vehicle 1. Is output to the HUD 100 (control unit 70). Further, the vehicle posture detection unit 6 may include an imaging camera (not shown) that images the outside of the vehicle 1 and an image analysis unit (not shown) that analyzes the captured image. At this time, the vehicle posture detection unit 6 estimates the pitch angle (vehicle posture) of the vehicle 1 from the time change of the landscape included in the captured image. Note that the method by which the vehicle attitude detection unit 6 determines the pitch angle of the vehicle 1 is not limited to the method described above, and the pitch angle of the vehicle 1 may be determined using a known sensor or analysis method.
- FIG. 3 is a diagram showing an example of the configuration of the HUD 100 shown in FIG.
- the HUD 100 in FIG. 1 includes, for example, a first image display unit 10, a second image generation unit 20, a reflection unit 30, an actuator 40, a display synthesis unit 50, a concave mirror 60, and a control unit 70.
- the HUD 100 is generally housed in the dashboard of the vehicle 1, but the first image display unit 10, the second image generation unit 20, the reflection unit 30, the actuator 40, the display composition unit 50, and the concave mirror 60. And all or a part of the control unit 70 may be arranged outside the dashboard.
- the HUD 100 (control unit 70) is connected to a bus 7 including an in-vehicle LAN (Local Area Network) mounted on the vehicle 1, and part or all of vehicle information can be input from the bus 7.
- LAN Local Area Network
- the first image display unit 10 in FIG. 3 receives, for example, a first projection unit 11 including a projector using a reflective display device such as DMD or LCoS, and projection light from the first projection unit 11.
- a first projection unit 11 including a projector using a reflective display device such as DMD or LCoS
- the first image 14 is displayed, and the first screen 12 that emits the first display light 210 indicating the first image 14 toward the reflection unit 30 is mainly configured.
- the first image display unit 10 displays the first image 14 on the first screen (first display surface) 12 based on the image data D input from the control unit 70 to be described later.
- the first virtual image 311 is displayed on the first virtual image display surface 310 virtually generated forward.
- FIG. 4 is a diagram of an example in which the first screen (first display surface) 12 shown in FIG. 3 is viewed along the visual axis 4a from between the first screen 12 and the reflecting portion 30.
- the axis along the line-of-sight axis 4a is defined as the dz axis
- the left and right direction of the first screen 12 is the dx axis (the left direction is the dx axis).
- the vertical direction of the first screen 12 is defined as the dy axis (the downward direction is the dy axis positive direction).
- the real space described above is determined by the arrangement of the optical members (first image display unit 10, second image generation unit 20, reflection unit 30, actuator 40, display synthesis unit 50, concave mirror 60) in the HUD 100, and the like.
- the relationship between the above XYZ coordinate axes and the dxdydz coordinate axes used in the description of the first screen 12 is not limited to the above.
- the first screen 12 in FIG. 3 has an area 13 in which the first image 14 can be displayed, as shown in FIG. Of the first screen 12, an area 13 where the first image 14 can be displayed is referred to as a first use area 13, for example.
- the first virtual image display surface 310 corresponds to the first use area 13 of the first image display unit 10, and the first virtual image display surface 310 in the size and the real space of the first virtual image display surface 310. Can be adjusted according to the size of the first use area 13 on the first screen 12 and the position of the first use area 13 on the first screen 12.
- the surface of the first screen 12 is, for example, a line connecting the center of the first use area 13 of the first screen 12 and the viewpoint 4 as the visual axis 4a. Arranged at an angle.
- the second image generation unit 20 in FIG. 3 is similar to the first image display unit 10 described above, for example, a second projection unit 21 including a projector using a reflective display device such as DMD or LCoS, and the like.
- the projection light from the second projection unit 21 is received to display the second image 24, and the second display light 220 indicating the second image 24 is emitted toward the display composition unit 50 described later.
- the second screen 22 is mainly composed.
- the first image display unit 10 displays the second image 24 on the second screen (second display surface) 22 based on the image data D input from the control unit 70 to be described later.
- a second virtual image 321 is displayed on the virtual image display surface 320.
- the second screen 22 has an area 23 in which the second image 24 can be displayed.
- an area 23 in which the second image 24 can be displayed is referred to as a second use area 23, for example.
- the second virtual image display surface 320 corresponds to the second use area 23 of the second image generation unit 20, and the second virtual image display surface 320 in the size and the real space of the second virtual image display surface 320. Can be adjusted according to the size of the second use area 23 on the second screen 22 and the position of the second use area 23 on the second screen 22.
- the surface of the second screen 22 is a predetermined line with respect to the visual axis 4b, for example, when the line connecting the center of the second use area 23 of the second screen 22 and the viewpoint 4 is the visual axis 4b. Arranged at an angle.
- the reflection unit (relay optical system) 30 in FIG. 3 is formed of, for example, a flat plate mirror, and is inclined on the optical path of the first display light 210 from the first image display unit 10 toward the viewpoint 4, The first display light 210 emitted from the first image display unit 10 is reflected toward the display composition unit 50.
- the reflection unit 30 includes an actuator 40 that rotates the reflection unit 30.
- the reflection part 30 may have a curved surface instead of a plane.
- the actuator 40 is, for example, a stepping motor or a DC motor, and rotates the reflecting unit 30 based on vehicle attitude information G detected by a vehicle attitude detecting unit 6 described later under the control of a control unit 70 described later. Then, the angle and position of the first virtual image display surface 310 are adjusted.
- the display combining unit (relay optical system) 50 shown in FIG. 3 includes, for example, a flat half mirror in which a transflective layer such as a metal reflective film or a dielectric multilayer film is formed on one surface of a translucent substrate. Is done.
- the display combining unit 50 reflects the first display light 210 from the first image display unit 10 reflected by the reflection unit 30 toward the concave mirror 60, and the second display light from the second image generation unit 20.
- the display light 220 is transmitted to the concave mirror 60 side.
- the transmittance of the display combining unit 50 is, for example, 50%, but the luminance of the first virtual image 311 and the second virtual image 321 may be adjusted by appropriately adjusting.
- the concave mirror 60 in FIG. 3 is disposed on an optical path of the first display light 210 and the second display light 220 from the first image display unit 10 and the second image generation unit 20 toward the viewpoint 4. Then, the first display light 210 and the second display light 220 emitted from the first image display unit 10 and the second image generation unit 20 are reflected toward the front windshield 2.
- the first screen 12 of the first image display unit 10 and the second screen 22 of the second image generation unit 20 described above are arranged closer to the concave mirror 60 than the focal length of the concave mirror 60. More specifically, the first screen 12 and the second image generation unit 20 of the first image display unit 10 combine the optical characteristics of the concave mirror 60 and the front windshield (transmission reflection unit) 2.
- the optical path length of the first display light 210 from the first screen (first display surface) 12 of the first image display unit 10 to the concave mirror 60 described above is the same as that of the second image generation unit 20.
- the second screen (second display surface) 22 is arranged to be longer than the optical path length of the second display light 220 from the concave mirror 60, and thereby the first image generated by the first image display unit 10.
- the virtual image 311 is formed at a position farther from the eye box than the second virtual image 321 generated by the second image generation unit 20.
- the concave mirror 60 typically transmits the first display light 210 and the second display light 220 generated by the first image display unit 10 and the second image generation unit 20 with a front windshield (transmission reflection). Part) a function of enlarging in cooperation with 2, a function of correcting the distortion of the first virtual image 311 and the second virtual image 321 generated by the curved surface of the front windshield 2 and visually recognizing the virtual image without distortion, the first virtual image 311 has a function of forming the second virtual image 321 at a position away from the viewer by a predetermined distance.
- FIG. 5 shows a schematic configuration example of the control unit 70 of FIG.
- the control unit 70 includes, for example, a processing unit 71, a storage unit 72, and an interface 73.
- the processing unit 71 is configured by, for example, a CPU and a RAM
- the storage unit 72 is configured by, for example, a ROM
- the interface 73 is configured by an input / output communication interface connected to the bus 7.
- the interface 73 can acquire vehicle information, vehicle posture information G, which will be described later, and the like via the bus 7, and the storage unit 72 is data for generating image data D based on the input vehicle information and the like.
- And data for generating drive data T based on the input vehicle attitude information G can be stored, and the processing unit 71 reads the data from the storage unit 72 and executes a predetermined operation to generate an image.
- Data D and drive data T can be generated.
- the interface 73 can acquire vehicle posture information G including information related to the posture of the vehicle 1 from the vehicle posture detection unit 6 via the bus 7, for example, and obtain vehicle posture information according to the claims of the present invention. It also has a function as a means.
- the control unit 70 may be provided inside the HUD 100, and a part or all of the functions may be provided on the vehicle 1 side outside the HUD 100.
- FIG. 6 is a flowchart showing an example of the operation of the HUD 100 of the present embodiment.
- the HUD 100 is, for example, when the vehicle 1 is activated, when electric power is supplied to the electronic device of the vehicle 1, or when a predetermined time has elapsed since the activation of the vehicle 1 or the electric power supply of the electronic device of the vehicle 1. The processing described below is started.
- step S01 the control unit 70 acquires vehicle posture information G including information related to the vehicle posture of the vehicle 1 from the vehicle posture detection unit 6.
- step S02 the control unit 70 determines drive data T including the drive amount of the actuator 40 corresponding to the vehicle attitude information G acquired in step S01. Specifically, the control unit 70 reads the table data stored in advance in the storage unit 72, and determines the drive data T corresponding to the vehicle attitude information G acquired in step S01. In step S02, the control unit 70 may obtain the drive data T from the vehicle attitude information G by calculation using a preset calculation formula.
- step S03 the control unit 70 drives the actuator 40 based on the drive data T determined in step S02.
- the control unit 70 drives the actuator 40 to rotate the reflecting unit 30 positioned on the optical path of the first display light 210 emitted from the first image display unit 10, thereby causing the second virtual image display surface 320 to be rotated.
- the relative angle 330 of the first image display unit 10 is changed.
- the control unit 70 controls the actuator 40 so that the first virtual image display surface 310 is parallel to the road surface 5 and rotates the reflecting unit 30 even when the vehicle posture of the vehicle 1 changes. You may let them.
- FIG. 7A, FIG. 7B, and FIG. 7C are views showing how the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 generated by the HUD 100 of the present embodiment is changed.
- FIG. 7A, FIG. 7B, and FIG. 7C are views showing the pitch angle (vehicle posture) indicating how much the pitch angle of the vehicle 1 is inclined with respect to the road surface 5 made of the XZ plane.
- FIG. 7A is a diagram showing an angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 when the vehicle 1 is in a vehicle posture 1r parallel to the road surface 5.
- FIG. 7A (a) when the vehicle 1 is in a vehicle posture 1r that is parallel to the road surface 5, the reflecting unit 30 may, for example, drive data T determined in step S02 shown in FIG.
- the angle 30r shown in (b) of FIG. 7A based on the above is adjusted, and the first virtual image display surface 310 is adjusted to be substantially parallel to the road surface 5 as shown in (c) of FIG. 7A, for example.
- the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is an angle 330r of approximately 90 degrees.
- the vehicle posture 1r in which the vehicle 1 shown in (a) of FIG. 7A is parallel to the road surface 5 is also referred to as a reference vehicle posture 1r.
- the angle 30r of the reflecting portion 30 shown in FIG. 7A (b) is also referred to as a reference angle 30r.
- an angle 330r formed by the first virtual image display surface 310 and the second virtual image display surface 320 as shown in (c) of FIG. 7A is hereinafter also referred to as a reference angle 330r.
- FIG. 7B is a diagram illustrating an angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 when the front of the vehicle 1 is tilted upward in the vertical direction.
- the reflecting unit 30 is, for example, step S02 illustrated in FIG.
- the angle 30u is rotated clockwise (CW direction) with respect to the reference angle 30r
- the first virtual image display surface 310 is adjusted to be substantially parallel to the road surface 5.
- the angle 330u is larger than the reference angle 330r.
- FIG. 7C is a diagram showing an angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 when the front of the vehicle 1 is tilted downward in the vertical direction.
- the reflecting unit 30 is, for example, the step shown in FIG.
- the angle 30d is rotated counterclockwise (CCW direction) with respect to the reference angle 30r, and the first virtual image display surface 310 is adjusted so as to be substantially parallel to the road surface 5 as shown in FIG. 7C (c), for example, and an angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is The angle 330d is smaller than the reference angle 330r.
- the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is the vehicle of the vehicle 1. It changes according to the posture. As in the example shown in FIGS. 7A, 7B, and 7C, for example, the angle formed by the first virtual image display surface 310 and the second virtual image display surface 320 as the front of the vehicle 1 moves upward in the vertical direction. 330 becomes larger. On the other hand, for example, as the front of the vehicle 1 goes downward in the vertical direction, the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 increases.
- the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 changes based on the vehicle posture of the vehicle 1, which of the virtual images to be viewed is the first virtual image display surface. 310 or the information displayed on the second virtual image display surface 320 can be recognized by the viewer, so the first virtual image display surface 310 and the first virtual image display surface 320 displayed on the first virtual image display surface 320 respectively.
- the virtual image 311 and the second virtual image 321 can be recognized more three-dimensionally.
- the first virtual image display surface 310 is generated by being inclined in the horizontal direction with respect to the second virtual image display surface 320, and the angle with respect to the actual scene is adjusted by driving the actuator 40.
- the angle adjustment with respect to the real scene of the virtual image display surface (first virtual image display surface 310) inclined in the horizontal direction is more effective than the angle adjustment with respect to the real scene of the virtual image display surface (first virtual image display surface 310) inclined in the vertical direction.
- the impression given to the viewer with respect to a certain angle change of the display surface is large. Therefore, the first virtual image 311 displayed on the first virtual image display surface 310 and the second virtual image display surface are adjusted by adjusting the angle of the virtual image display surface (first virtual image display surface 310) inclined in the horizontal direction. It becomes easy to distinguish the second virtual image 321 displayed on 320, and the first virtual image 311 and the second virtual image 321 displayed on the first virtual image display surface 310 and the second virtual image display surface 320, respectively. Can be recognized more three-dimensionally.
- the actuator 40 rotates the reflecting unit 30 positioned on the optical path of the first display light 210 up to the display combining unit 50 that directs the first display light 210 and the second display light 220 in the same direction.
- the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is changed, but the display combining unit 50 may be rotated by the actuator 40.
- the angle of the 1st virtual image display surface 310 with respect to a real scene is adjusted by rotating the reflection part 30 or the display synthetic
- the relative position to the actual scene in the vertical direction changes. 8A, 8 ⁇ / b> B, and 8 ⁇ / b> C, the vertical position of the first virtual image display surface 310 with respect to the real scene changes by rotating the reflecting unit 30 or the display combining unit 50 based on the posture change of the vehicle 1.
- FIG. 9 shows a first virtual image display surface 310 (first virtual image display surface 310r, first virtual image display surface 310u, generated by the first image display unit 10 shown in FIGS. 8A, 8B, and 8C. It is the figure which showed the 1st virtual image display surface 310d).
- the control unit 70 controls the first image display unit 10 based on the pitch angle of the vehicle 1, so that the first use area 13 that can display the first image 14 on the first screen 12 is displayed.
- the position and size can be changed. The relationship between the pitch angle of the vehicle 1 and the position and size of the first use area 13 on the first screen 12 will be described below.
- FIG. 8A shows the first use area 13 on the first screen 12 when the pitch angle with respect to the road surface 5 of the vehicle 1 is substantially parallel.
- the first image display unit 10 is displayed on the first screen 12.
- the position of the first use area 13 is determined as the first use area 13r shown in FIG. 8A.
- the first use area 13r shown in FIG. 8A when the pitch angles with respect to the two road surfaces 5 are substantially parallel is also referred to as a first reference use area 13r.
- the HUD 100 generates the first virtual image display surface 310r shown in FIG. 9 corresponding to the first reference usage region 13r of the first image display unit 10.
- FIG. 8B shows the first use area 13 on the first screen 12 when the pitch angle of the vehicle 1 is directed upward in the vertical direction from the road surface 5.
- the vehicle attitude information G acquired from the vehicle attitude detection unit 6 indicates that the pitch angle of the vehicle 1 is directed upward in the vertical direction from the road surface 5
- the first image display unit 10 The position of the first use area 13 on the screen 12 is determined as the first use area 13u shown in FIG. 8B.
- the first use area 13u shown in FIG. 8B is located on the dy-axis positive direction side as compared with the first reference use area 13r. Further, the length 131u in the Iy-axis direction in the first use area 13u shown in FIG. 8B is shorter than the length 13r in the Iy-axis direction in the first reference use area 13r. As a result, as shown in FIG. 9, the first virtual image area 310u corresponding to the first use area 13u is compared with the first reference virtual image display surface 310r corresponding to the first reference use area 13r. , Located in the vertical direction upper side in the real space (Y-axis positive direction) and the rear side in the traveling direction of the vehicle 1 (Z-axis positive direction), and the length in the traveling direction of the vehicle 1 in the real space is shortened. .
- the position of the first use area 13 of the first screen 12 becomes the dy-axis positive direction. To be located on the side. Further, based on the vehicle attitude information G detected by the vehicle attitude detection unit 6, the length of the first use area 13 of the first screen 12 in the dy-axis direction as the pitch angle of the vehicle 1 goes upward in the vertical direction. Is determined to be shorter. As a result, as the pitch angle of the vehicle 1 goes upward in the vertical direction, the first virtual image display surface 310 is positioned on the upper side in the vertical direction in the real space, and the length in the vertical direction in the real space becomes shorter. .
- FIG. 8C shows the first use area 13 on the first screen 12 when the pitch angle of the vehicle 1 is directed to the lower side in the vertical direction than the road surface 5.
- the vehicle attitude information G acquired from the vehicle attitude detection unit 6 indicates that the pitch angle of the vehicle 1 is directed downward in the vertical direction with respect to the road surface 5
- the first image display unit 10 The position of the first use area 13 on one screen 12 is determined as the first use area 13d shown in FIG. 8C.
- the first use area 13d shown in FIG. 8C is located on the dy-axis negative direction side as compared with the first reference use area 13r. Further, the length 131d in the Iy-axis direction in the first use area 13u shown in FIG. 8B is longer than the length 13r in the Iy-axis direction in the first reference use area 13r. As a result, as shown in FIG. 9, the first virtual image area 310d corresponding to the first use area 13d is compared with the first reference virtual image display surface 310r corresponding to the first reference use area 13r. , Located in the vertical direction lower side in the real space (Y-axis negative direction) and the front side of the vehicle 1 in the traveling direction (Z-axis negative direction), and the length in the traveling direction of the vehicle 1 in the real space becomes longer. .
- the position of the first use area 13 of the first screen 12 becomes dy-axis negative. It is determined to be located on the direction side. Further, based on the vehicle posture information G detected by the vehicle posture detection unit 6, the length of the first use area 13 of the first screen 12 in the dy-axis direction as the pitch angle of the vehicle 1 goes downward in the vertical direction. Is determined to be long. As a result, as the pitch angle of the vehicle 1 goes down in the vertical direction, the first virtual image display surface 310 is positioned in the vertical direction lower side in the real space and in the traveling direction of the vehicle 1 in the real space. Length increases.
- the reflecting unit 30 is rotated in accordance with the change in the pitch angle (vehicle posture) of the vehicle 1, and the position of the first use area 13 of the first image display unit 10 and the length of the dy axis.
- the angle formed by the first virtual image display surface 310 and the road surface 5 is maintained before and after the change in the pitch angle (vehicle posture) of the vehicle 1, and the first virtual image display surface 310 is The positions 5a to 5b of the road surface 5 to be superposed are kept constant.
- the angle and position of the second virtual image display surface 320 formed by the first virtual image display surface 310 and the road surface 5 change before and after the change of the pitch angle (vehicle posture) of the vehicle 1.
- the first virtual image 311 displayed on the first virtual image display surface 310 from the second virtual image 321 displayed on the second virtual image display surface 320, and the first virtual image display surface.
- the first virtual image 311 and the second virtual image 321 displayed on the second virtual image display surface 320, respectively, can be recognized more three-dimensionally.
- the adjustment of the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is not triggered by the change in the vehicle posture of the vehicle 1 described above, but a predetermined signal is sent from the vehicle 1 side. It may be triggered by having input, inputting predetermined information from the outside of the vehicle 1, or switching display contents of the first virtual image display surface 310 and the second virtual image display surface 320. Specifically, for example, when an abnormality occurs in the vehicle 1 or a recommended route is input from the outside network, an angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is set.
- the first virtual image 311 displayed on the first virtual image display surface 310 and the second virtual image 321 displayed on the second virtual image display surface 320 can be recognized in a three-dimensional manner, and information is more impressive to the viewer. It is possible to communicate.
- the HUD 100 of the present invention rotates the display surface (first screen 12) of the first image display unit 10 with the actuator 40, so that the first virtual image display surface 310, the second virtual image display surface 320, The angle 330 formed by may be changed.
- the actuator 40 does not need to set the center of the display surface (first screen 12) of the reflection unit 30, the display synthesis unit 50, and the first image display unit 10 as the rotation axis AX.
- the position (including the end) may be used as the rotation axis AX.
- the rotation axis AX may be provided at a position separated from each optical member.
- FIG. 10 shows an example in which the real scene and the first virtual image 311 and the second virtual image 321 displayed by the modified example of the HUD 100 shown in FIG. 2 are visually recognized when facing the front of the vehicle 1 from the driver's seat.
- the HUD 100 of the present invention includes a first virtual image display surface 310 generated by the first image display unit 10 and a second virtual image display surface 320 generated by the second image generation unit 20. And may be visually recognized separately.
- the HUD 100 in this modified example includes an area on the display combining unit 50 where the first display light 210 is incident from the first image display unit 10 and a second display from the second image display unit 20. You may comprise by separating
- the first image display unit 10 that generates the first virtual image display surface 310 and the second image generation unit 20 that generates the second virtual image display surface 320 are provided.
- the image display unit may be a single unit.
- the HUD 100 in this modified example projects projection light from a single projection unit (not shown) onto a plurality of screens (display surfaces) (not shown), and rotates one of the screens with an actuator, thereby The angle 330 formed by the virtual image display surface 310 and the second virtual image display surface 320 may be adjusted.
- the angle 330 formed by the first virtual image display surface 310 and the second virtual image display surface 320 is adjusted by adjusting the angle of the first virtual image display surface 310 with respect to the actual scene.
- the first virtual image display surface 310 and the second virtual image display surface 320 and the second virtual image display surface 320 are adjusted to have different angles with respect to the actual scenes, and the angle adjustment amounts are made different, whereby the first virtual image display surface 310 and the second virtual image display are displayed.
- the angle 330 formed with the surface 320 may be adjusted.
- the first image display unit 10 may be a transmissive display panel such as a liquid crystal display element, a self-luminous display panel such as an organic EL element, or a scanning display device that scans laser light. Good.
- the head-up display of the present invention is mounted on a moving body including, for example, an automobile and can be used as a display device that allows a viewer to visually recognize a virtual image.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Instrument Panels (AREA)
Abstract
第一の虚像表示面に対応する第一の画像生成部(10)の第一の表示面(13)、または上記第一の画像生成部(10)から出射される第一の表示光(210)をフロントウインドシールド(透過反射部)に向ける反射部(30)、のいずれかを回転させ、第一の虚像表示面と第二の虚像表示面とのなす角度を変化させることにより、立体表示に含まれる情報の差別化を容易にし、立体感のある表示ができる、ヘッドアップディスプレイ。
Description
本発明は、虚像を表示するヘッドアップディスプレイに関するものである。
ヘッドアップディスプレイは、自車両前方の風景(実景)に重畳画像を重ねて表示することで、実景に情報などを付加したり、実景における特定の対象を強調したりする拡張現実(AR:Augmented Reality)を生成し、車両運転する視認者の視線移動を極力抑えつつ、所望の情報を的確に提供することで、安全で快適な車両運行に寄与するものである。
例えば特許文献1は、2つの画像表示部を備え、これらの画像表示部に画像を表示することで、仮想的な2つの虚像表示面上に虚像を生成するヘッドアップディスプレイを開示し、このヘッドアップディスプレイは、第一、第二の画像表示部の表示面を視認者の視線軸に対して異なる角度でそれぞれ配置することで、第一、第二の画像表示部により生成される2つの虚像表示面の視認角度を異ならせている。具体的には、このヘッドアップディスプレイは、一方の虚像表示面を視認者の視線に対して概ね垂直となるように生成し、他方の虚像表示面をもう一方の虚像表示面より水平方向に傾いて生成する。すなわち、2つの虚像表示面は、平行ではなく、所定の角度を有する。このように2つの虚像表示面を所定の角度だけ傾けて生成することで、それぞれの虚像表示面に虚像を表示した場合、視認者は、前記虚像を立体的に認識することができる。
しかしながら、特許文献1に開示されるヘッドアップディスプレイにおいて、2つの虚像表示面の間の角度は固定となっている。したがって、例えば、車両の加減速などの挙動により車両のピッチ角が変化した場合でも、2つの虚像表示面の間の角度は維持されたままであり、車両外の実景に対して表示位置がずれて視認されるのみである。このように、車両の姿勢(ピッチ角)が変化した場合でも2つの虚像表示面に表示されたそれぞれの虚像が同じように実景に対してずれた場合、どちらが一方の虚像表示面に表示された情報で、どちらが他方の虚像表示面に表示された情報であるか認識しづらくなってしまう。すなわち、虚像表示面それぞれに表示される情報を区別して認識しづらくなってしまい、立体的な印象が薄れてしまうという問題があった。
図11には、車両のピッチ角が変化した際の虚像表示面の位置を表す例として、3つの車両のピッチ角の状態の例が示されている。図11(a)は、車両のピッチ角が概ね路面に平行である場合の第一の虚像表示面521r及び第二の虚像表示面522rの位置を示し、図11(b)は、車両のピッチ角が路面よりも鉛直方向の上側に向いた場合の第一の虚像表示面521u及び第二の虚像表示面522uの位置を示し、図11(c)は、車両のピッチ角が路面よりも鉛直方向の下側に向いた場合の第一の虚像表示面521d及び第二の虚像表示面522dの位置を示している。従来のヘッドアップディスプレイは、第一の虚像表示面521と第二の虚像表示面522との相対的な角は変化しない。そのため、視認している情報のうち、どちらが第一の虚像表示面521(第二の虚像表示面522)に表示されたものかが認識しづらく、立体的な印象が薄れてしまっていた。
本発明の1つの目的は、立体表示に含まれる情報の差別化を容易にし、立体感のある表示ができるヘッドアップディスプレイを提供することである。
本発明は、前記課題を解決するため、以下の手段を採用した。
本発明のヘッドアップディスプレイは、所定の角度を有するように設けられ、虚像をそれぞれ表示可能な第一、第二の虚像表示面を生成し、少なくとも第一の虚像表示面に対応する第一の画像生成部の第一の表示面、または前記第一の画像生成部から出射される第一の表示光を透過反射部に向けるリレー光学系、のいずれかを回転させることで第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させる。これにより、本発明のヘッドアップディスプレイは、第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させることで、視認する情報のうちどれが第一の虚像表示面(第二の虚像表示面)に表示された情報であるか視認者に認識させることができるため、第一、第二の虚像表示面のそれぞれに表示される虚像をより立体的に認識させることができる、ことをその要旨とする。
本発明のヘッドアップディスプレイは、所定の角度を有するように設けられ、虚像をそれぞれ表示可能な第一、第二の虚像表示面を生成し、少なくとも第一の虚像表示面に対応する第一の画像生成部の第一の表示面、または前記第一の画像生成部から出射される第一の表示光を透過反射部に向けるリレー光学系、のいずれかを回転させることで第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させる。これにより、本発明のヘッドアップディスプレイは、第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させることで、視認する情報のうちどれが第一の虚像表示面(第二の虚像表示面)に表示された情報であるか視認者に認識させることができるため、第一、第二の虚像表示面のそれぞれに表示される虚像をより立体的に認識させることができる、ことをその要旨とする。
本発明におけるヘッドアップディスプレイは、車両に搭載され、透過反射部に表示光を投影することで、仮想的な第一の虚像表示面上と第二の虚像表示面上とにそれぞれ虚像を表示可能なヘッドアップディスプレイであって、前記第一の虚像表示面に対応する第一の表示面を有し、前記第一の表示面から前記虚像を表示する第一の表示光を発する第一の画像表示部と、前記第二の虚像表示面に対応する第二の表示面を有し、前記第二の表示面から前記虚像を表示する第二の表示光を発する第二の画像表示部と、前記第一、第二の画像表示部が発する前記第一、第二の表示光を前記透過反射部に向けるリレー光学系と、少なくとも前記第一の表示面または前記リレー光学系のいずれかを回転させ、前記第一の虚像表示面が生成される実空間上における角度を調整可能なアクチュエータと、前記アクチュエータを制御し、前記第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させる制御部と、を備えるものである。
立体表示に含まれる情報の差別化を容易にし、立体感のある表示ができる。
以下に説明する実施形態は、本発明を容易に理解するために用いられ、当業者は、本発明が以下に説明される実施形態によって不当に限定されないことを留意すべきである。
図1を参照して、本発明のヘッドアップディスプレイ(以下、HUDと記載)100が生成する仮想的な第一の虚像表示面310、第二の虚像表示面320について説明する。以下の説明を容易にするために、図1に示されるように、実空間において、例えば、車両1の前方を向いた左右方向をX軸(右方向がX軸正方向)に規定し、鉛直方向をY軸(鉛直方向上側がY軸正方向)に規定し、前後方向をZ軸(後方向がZ軸正方向)に規定する。
図1に示すように、HUD100は、例えば、車両(移動体の一適用例)1のダッシュボード3内に収納される。例えばHUD100は、車両1のフロントウインドシールド(透過反射部の一例)2の一部に車両情報等を示す表示光200(第一の表示光210及び第二の表示光220)を投影する。フロントウインドシールド2は、第一の表示光210及び第二の表示光220を視認者側に向けて反射することで所定のアイボックス(図示しない)を生成する。視認者は、視点(視認者の眼の位置)4を前記アイボックス内におくことで、フロントウインドシールド2を介した前方に、HUD100が仮想的に生成した第一の虚像表示面310、第二の虚像表示面320上で第一の虚像311、第二の虚像321を視認することができる。
図1に示される第一の虚像表示面310は、例えば、第一の虚像表示面310の中心と視点4とを結ぶ線を視線軸4aとすると、第一の虚像表示面310の中心から視認者側の表示領域と視線軸4aとのなす角310aが鋭角となるように設けられ、路面5の所定の範囲(図1の位置5aから5b)に亘って重畳して視認される第一の虚像311を表示する。具体的に例えば、第一の虚像表示面310は、図1の路面5(X-Z平面からなる水平方向)に平行であり、前記アイボックスから前方方向(車両1の進行方向)に20m離れた位置5aから50m離れた位置5bに亘って重なって視認されるように設けられる。なお、第一の虚像表示面310は、図1の路面5に平行となる角度から±5度程度傾いて設けられてもよい。
また、図1に示される第二の虚像表示面320は、例えば、第二の虚像表示面320の中心と視点4とを結ぶ線を視線軸4bとすると、第二の虚像表示面320の中心から鉛直方向の下側の表示領域と視線軸4bとのなす角320aが、第一の虚像表示面310と視線軸4aとのなす角310aより大きくなるように設けられ、第二の虚像321を表示する。具体的に例えば、第二の虚像表示面320は、図1の車両1の進行方向に垂直な方向(X-Y平面)に概ね平行であり、前記アイボックスから前方方向(車両1の進行方向)の5m~10m離れた位置に視認されるように設けられる。なお、第二の虚像表示面320は、図1の車両1の進行方向に垂直な方向(X-Y平面)に平行となる角度から±5度程度傾いて設けられてもよい。
図2は、図1に示されるHUD100を備える車両1の運転席に座る視認者から見える風景及び第一の虚像311、第二の虚像321の例を示す図である。第一の虚像表示面310は、この表示面上に、例えば、車両1の経路を示す矢印などの第一の虚像311を実景(路面5)に重ねて視認させることで路面5に情報を付加し、第二の虚像表示面320は、この表示面上に、例えば、車両1の車速などの実景に直接関係しない第二の虚像321を表示する。
図1の車両1には、車両1の姿勢を検出する車両姿勢検出部6が搭載されている。車両姿勢検出部6は、例えば、三軸加速度センサ(図示しない)と、前記三軸加速度センサが検出した三軸加速度を解析することで、水平面を基準とした車両1のピッチ角(車両姿勢)を推定し、車両1のピッチ角に関する情報を含む車両姿勢情報GをHUD100(制御部70)に出力する。なお、車両姿勢検出部6は、前述した三軸加速度センサ以外に、車両1のサスペンション近傍に配置されるハイトセンサ(図示しない)で構成されてもよい。このとき、車両姿勢検出部6は、前記ハイトセンサが検出する車両1の地面からの高さを解析することで、前述したように車両1のピッチ角を推定し、車両1のピッチ角に関する情報を含む車両姿勢情報GをHUD100(制御部70)に出力する。また、車両姿勢検出部6は、車両1の外部を撮像する撮像カメラ(図示しない)と、この撮像画像を解析する画像解析部(図示しない)から構成されてもよい。このとき、車両姿勢検出部6は、前記撮像画像に含まれる風景の時間変化から車両1のピッチ角(車両姿勢)を推定する。なお、車両姿勢検出部6が、車両1のピッチ角を求める方法は、前述した方法に限定されず、公知のセンサや解析方法を用いて車両1のピッチ角を求めてもよい。
図3は、図1に示されるHUD100の構成の例を示す図である。
図1のHUD100は、例えば、第一の画像表示部10、第二の画像生成部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60、及び制御部70を有する。HUD100は、一般的に車両1のダッシュボードの中に収納されるが、第一の画像表示部10、第二の画像生成部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60及び制御部70の全部または一部がダッシュボードの外部に配置されてもよい。HUD100(制御部70)は、車両1に搭載される車載LAN(Local Area Network)などからなるバス7に接続され、このバス7から車両情報の一部又は全部を入力することができる。
図1のHUD100は、例えば、第一の画像表示部10、第二の画像生成部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60、及び制御部70を有する。HUD100は、一般的に車両1のダッシュボードの中に収納されるが、第一の画像表示部10、第二の画像生成部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60及び制御部70の全部または一部がダッシュボードの外部に配置されてもよい。HUD100(制御部70)は、車両1に搭載される車載LAN(Local Area Network)などからなるバス7に接続され、このバス7から車両情報の一部又は全部を入力することができる。
図3の第一の画像表示部10は、例えば、DMDやLCoSなどの反射型表示デバイスを用いたプロジェクタなどからなる第一の投影部11と、第一の投影部11からの投影光を受光して第一の画像14を表示し、この第一の画像14を示す第一の表示光210を反射部30に向けて出射する第一のスクリーン12と、から主に構成される。第一の画像表示部10は、後述する制御部70から入力する画像データDに基づき、第一のスクリーン(第一の表示面)12に第一の画像14を表示することで、視認者の前方に仮想的に生成される第一の虚像表示面310上に第一の虚像311を表示させる。
図4は、図3に示される第一のスクリーン(第一の表示面)12を第一のスクリーン12と反射部30との間から視線軸4aに沿って視認した例の図である。以下の説明の理解を容易にするため、図4に示されるように、視線軸4aに沿った軸をdz軸と規定し、第一のスクリーン12の左右方向をdx軸(左方向をdx軸正方向)と規定し、第一のスクリーン12の上下方向をdy軸(下方向をdy軸正方向)と規定する。図2で示される視認者が車両1の運転席から視認する第一の虚像311のX軸方向の位置は、図4に示される第一のスクリーン12上に表示される第一の画像14のdx軸方向の位置に対応する。同様に、図2で示される視認者が車両1の運転席から視認する第一の虚像311のY軸方向の位置は、図4に示される第一のスクリーン12上に表示される第一の画像14のdy軸方向の位置に対応する。なお、HUD100内の光学部材(第一の画像表示部10、第二の画像生成部20、反射部30、アクチュエータ40、表示合成部50、凹面ミラー60)などの配置などにより、前述した実空間上のXYZ座標軸と、第一のスクリーン12の説明で用いるdxdydz座標軸との関係は、前述した限りではない。
図3の第一のスクリーン12は、図4に示されるように、第一の画像14を表示可能な領域13を有する。第一のスクリーン12のうち、第一の画像14を表示可能な領域13を、例えば、第一の使用領域13という。第一の虚像表示面310は、第一の画像表示部10の第一の使用領域13に対応しており、第一の虚像表示面310の大きさや実空間上における第一の虚像表示面310が生成される位置は、第一のスクリーン12上の第一の使用領域13の大きさや第一のスクリーン12上における第一の使用領域13の位置に応じて調整することが可能である。なお、第一のスクリーン12の面は、例えば、第一のスクリーン12の第一の使用領域13の中心と視点4とを結ぶ線を視線軸4aとすると、この視線軸4aに対して所定の角度で傾いて配置される。
図3の第二の画像生成部20は、前述の第一の画像表示部10と同様に、例えば、DMDやLCoSなどの反射型表示デバイスを用いたプロジェクタなどからなる第二の投影部21と、第二の投影部21からの投影光を受光して第二の画像24を表示し、この第二の画像24を示す第二の表示光220を後述する表示合成部50に向けて出射する第二のスクリーン22と、から主に構成される。第一の画像表示部10は、後述する制御部70から入力する画像データDに基づき、第二のスクリーン(第二の表示面)22に第二の画像24を表示することで、第二の虚像表示面320に第二の虚像321を表示させる。なお、第二のスクリーン22は、第二の画像24を表示可能な領域23を有する。第二のスクリーン22のうち、第二の画像24を表示可能な領域23を、例えば、第二の使用領域23という。第二の虚像表示面320は、第二の画像生成部20の第二の使用領域23に対応しており、第二の虚像表示面320の大きさや実空間上における第二の虚像表示面320が生成される位置は、第二のスクリーン22上の第二の使用領域23の大きさや第二のスクリーン22上における第二の使用領域23の位置に応じて調整することが可能である。なお、第二のスクリーン22の面は、例えば、第二のスクリーン22の第二の使用領域23の中心と視点4とを結ぶ線を視線軸4bとすると、この視線軸4bに対して所定の角度で傾いて配置される。
図3の反射部(リレー光学系)30は、例えば、平板状の平面鏡で形成され、第一の画像表示部10から視点4に向かう第一の表示光210の光路上に傾いて配置され、第一の画像表示部10から出射された第一の表示光210を表示合成部50に向けて反射する。反射部30には、反射部30を回転させるアクチュエータ40が備えられている。なお、反射部30は、平面ではなく、曲面を有していてもよい。
アクチュエータ40は、例えば、ステッピングモータやDCモータなどであり、後述する制御部70の制御のもと、後述する車両姿勢検出部6が検出する車両姿勢情報Gに基づいて反射部30を回転させることで第一の虚像表示面310の角度及び位置を調整する。
図3の表示合成部(リレー光学系)50は、例えば、透光性の基板の一方の表面に金属反射膜あるいは誘電体多層膜などの半透過反射層を形成した平面のハーフミラーなどで構成される。表示合成部50は、反射部30により反射された第一の画像表示部10からの第一の表示光210を凹面ミラー60に向けて反射し、第二の画像生成部20からの第二の表示光220を凹面ミラー60側に透過する。表示合成部50の透過率は、例えば50%だが、適宜調整することで第一の虚像311、第二の虚像321の輝度を調整してもよい。
図3の凹面ミラー60は、例えば、第一の画像表示部10及び第二の画像生成部20から視点4に向かう第一の表示光210及び第二の表示光220の光路上に傾いて配置され、第一の画像表示部10、第二の画像生成部20から出射された第一の表示光210、第二の表示光220を、フロントウインドシールド2に向けて反射する。また、前述した第一の画像表示部10の第一のスクリーン12及び第二の画像生成部20の第二のスクリーン22は、凹面ミラー60の焦点距離より凹面ミラー60側に配置される。なお、より詳細に述べると、第一の画像表示部10の第一のスクリーン12及び第二の画像生成部20は、凹面ミラー60とフロントウインドシールド(透過反射部)2との光学特性を組み合わせた際の焦点距離よりも凹面ミラー60側に配置される。これにより、第一のスクリーン12及び第二のスクリーン22に表示される第一の画像14及び第二の画像24が、第一の虚像311及び第二の虚像321として表示される。また、前述した第一の画像表示部10の第一のスクリーン(第一の表示面)12から凹面ミラー60までの第一の表示光210の光路長は、第二の画像生成部20の第二のスクリーン(第二の表示面)22から凹面ミラー60までの第二の表示光220の光路長より長くなるように配置され、これにより、第一の画像表示部10により生成される第一の虚像311は、第二の画像生成部20により生成される第二の虚像321より前記アイボックスから離れた位置に結像される。なお、凹面ミラー60は、典型的には、第一の画像表示部10及び第二の画像生成部20が生成する第一の表示光210及び第二の表示光220をフロントウインドシールド(透過反射部)2と協働して拡大する機能、フロントウインドシールド2の曲面により生ずる第一の虚像311、第二の虚像321の歪みを補正し、歪みのない虚像を視認させる機能、第一の虚像311、第二の虚像321を視認者から所定の距離だけ離れた位置で結像させる機能を有する。
図5は、図3の制御部70の概略構成例を示す。図5に示されるように、制御部70は、例えば、処理部71、記憶部72及びインターフェース73を含む。処理部71は、例えばCPUやRAMで構成され、記憶部72は、例えばROMで構成され、インターフェース73は、バス7に接続される入出力通信インターフェースで構成される。例えば、インターフェース73は、バス7を介して車両情報や後述する車両姿勢情報G等を取得することができ、記憶部72は、入力した車両情報等に基づいて画像データDを生成するためのデータ、及び入力した車両姿勢情報Gに基づいて駆動データTを生成するためのデータを記憶することができ、処理部71は、記憶部72からのデータを読み取り、所定の動作を実行することで画像データD及び駆動データTを生成することができる。なお、インターフェース73は、例えば、バス7を介して車両姿勢検出部6から車両1の姿勢に関する情報を含む車両姿勢情報Gを取得することができ、本発明の請求項に記載の車両姿勢情報取得手段としての機能も有する。なお、制御部70は、HUD100の内部にあってもよく、その一部または全部の機能がHUD100の外側の車両1側に設けられてもよい。
図6は、本実施形態のHUD100の動作の例を示すフローチャートである。HUD100は、例えば、車両1が起動されたとき、又は、車両1の電子機器に電力が供給されたとき、又は、車両1の起動または車両1の電子機器の電力供給から所定時間経過したときに以下に説明する処理を開始する。
ステップS01では、制御部70は、車両姿勢検出部6から車両1の車両姿勢に関する情報を含む車両姿勢情報Gを取得する。
ステップS02では、制御部70が、ステップS01で取得した車両姿勢情報Gに対応するアクチュエータ40の駆動量を含む駆動データTを決定する。具体的には、制御部70は、記憶部72に予め記憶されたテーブルデータを読み出し、ステップS01で取得した車両姿勢情報Gに対応する駆動データTを決定する。なお、ステップS02で、制御部70は、車両姿勢情報Gから駆動データTを予め設定された算出式を用いて演算により求めてもよい。
ステップS03では、制御部70は、ステップS02で決定した駆動データTに基づいてアクチュエータ40を駆動する。制御部70は、アクチュエータ40を駆動し、第一の画像表示部10が出射する第一の表示光210の光路上に位置する反射部30を回転させることで、第二の虚像表示面320に対する第一の画像表示部10の相対的な角度330を変化させる。具体的に例えば、制御部70は、車両1の車両姿勢が変化した場合であっても第一の虚像表示面310が路面5に平行となるようにアクチュエータ40を制御し、反射部30を回転させてもよい。
図7A、図7B、図7Cは、本実施形態のHUD100が生成する第一の虚像表示面310と第二の虚像表示面320とがなす角度330を変化させる様子を示した図である。図7A、図7B、図7Cにおける(a)は、車両1のピッチ角がXZ平面からなる路面5に対してどの程度傾いているかのピッチ角(車両姿勢)を示した図であり、(b)は、(a)に示される車両姿勢に基づいて反射部30をどのように回転させるかを示した図であり、(c)は、(a)に示される車両姿勢に基づいて第一の虚像表示面310と第二の虚像表示面320とのなす角度330を示す図である。
図7Aは、車両1が路面5に対して平行である車両姿勢1rの場合の第一の虚像表示面310と第二の虚像表示面320とがなす角度330を示す図である。図7Aの(a)に示されるように、車両1が路面5に対して平行である車両姿勢1rの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいた図7Aの(b)に示される角度30rとなり、第一の虚像表示面310は、例えば、図7Aの(c)に示されるように路面5に対して概ね平行となるように調整され、第一の虚像表示面310と第二の虚像表示面320とがなす角度330は、概ね90度の角度330rとなる。図7Aの(a)に示される車両1が路面5に対して平行である車両姿勢1rを、以下では、基準車両姿勢1rとも呼ぶ。また、図7Aの(b)に示される反射部30の角度30rを基準角度30rとも呼ぶ。また、図7Aの(c)に示されるような第一の虚像表示面310と第二の虚像表示面320とがなす角度330rを、以下では、基準角度330rとも呼ぶ。
図7Bは、車両1の前方が鉛直方向の上側に傾いた場合の第一の虚像表示面310と第二の虚像表示面320とがなす角度330を示す図である。図7Bの(a)に示されるように、車両1の前方が基準車両姿勢1rよりも鉛直方向の上側に傾いた車両姿勢1uの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいて、図7Bの(b)に示されるように、基準角度30rに対して時計回り(CW方向)に回転した角度30uとなり、第一の虚像表示面310は、例えば、図7Bの(c)に示されるように路面5に対して概ね平行となるように調整され、第一の虚像表示面310と第二の虚像表示面320とがなす角度330は、基準角度330rより大きい角度330uとなる。
図7Cは、車両1の前方が鉛直方向の下側に傾いた場合の第一の虚像表示面310と第二の虚像表示面320とがなす角度330を示す図である。図7Cの(a)に示されるように、車両1の前方が基準車両姿勢1rよりも鉛直方向の下側に傾いた車両姿勢1dの場合、反射部30は、例えば、図6に示されるステップS02で決定された駆動データTに基づいて、図7Cの(b)に示されるように、基準角度30rに対して反時計回り(CCW方向)に回転した角度30dとなり、第一の虚像表示面310は、例えば、図7C(c)に示されるように路面5に対して概ね平行となるように調整され、第一の虚像表示面310と第二の虚像表示面320とがなす角度330は、基準角度330rより小さい角度330dとなる。
ここで、図7A(c)、図7B(c)、図7C(c)を参照すると、第一の虚像表示面310と第二の虚像表示面320とのなす角度330が、車両1の車両姿勢に応じて変化している。図7A、図7B、図7Cに示される例のように、例えば、車両1の前方が鉛直方向の上側にいくにつれて、第一の虚像表示面310と第二の虚像表示面320とがなす角度330が大きくなる。その一方で、例えば、車両1の前方が鉛直方向の下側にいくにつれて、第一の虚像表示面310と第二の虚像表示面320とがなす角度330が大きくなる。
その結果、車両1の車両姿勢に基づいて、第一の虚像表示面310と第二の虚像表示面320とがなす角度330が変化するため、視認する虚像のうちどれが第一の虚像表示面310または第二の虚像表示面320に表示された情報であるか視認者に認識させることができるため、第一の虚像表示面310、第二の虚像表示面320のそれぞれに表示される第一の虚像311、第二の虚像321とをより立体的に認識させることができる。
また、本実施形態のHUD100において、第一の虚像表示面310は、第二の虚像表示面320より水平方向に傾いて生成され、アクチュエータ40の駆動により、実景に対する角度が調整される。水平方向に傾いた虚像表示面(第一の虚像表示面310)の実景に対する角度調整は、鉛直方向に傾いた虚像表示面(第一の虚像表示面310)の実景に対する角度調整よりも、虚像表示面の一定の角度変化に対する視認者に与える印象が大きい。したがって、水平方向に傾いた虚像表示面(第一の虚像表示面310)を角度調整することにより、第一の虚像表示面310に表示される第一の虚像311と、第二の虚像表示面320に表示される第二の虚像321と、を区別しやすくなり、第一の虚像表示面310、第二の虚像表示面320のそれぞれに表示される第一の虚像311、第二の虚像321とをより立体的に認識させることができる。
これより、本発明の実施形態の変形例を説明する。以上の説明では、第一の表示光210と第二の表示光220とを同じ方向に向ける表示合成部50までの第一の表示光210の光路上に位置する反射部30をアクチュエータ40により回転させることで、第一の虚像表示面310と第二の虚像表示面320とがなす角度330を変化させたが、表示合成部50をアクチュエータ40により回転させてもよい。この場合においても、前述した反射部30を回転させるものと同様に、第二の虚像表示面320の角度を調整させずに、実景に対する第一の虚像表示面310の角度のみを調整することができる。
なお、反射部30または表示合成部50を回転させることで、実景に対する第一の虚像表示面310の角度を調整した場合、図2に示す視認者が運転席から見る第一の虚像表示面310の鉛直方向の実景に対する相対位置が変化してしまう。図8A、図8B、図8Cは、車両1の姿勢変化に基づいて反射部30または表示合成部50を回転させることで実景に対する第一の虚像表示面310の鉛直方向の位置が変化してしまう問題に対応したHUD100の第一の画像表示部10の動作を説明する図であり、第一のスクリーン12上の第一の使用領域13の位置及び第一の使用領域13の大きさの変化を示す図である。図9は、図8A、図8B、図8Cに示される第一の画像表示部10により生成される第一の虚像表示面310(第一の虚像表示面310r、第一の虚像表示面310u、第一の虚像表示面310d)を示した図である。
制御部70は、車両1のピッチ角に基づいて、第一の画像表示部10を制御することで、第一のスクリーン12上で第一の画像14を表示可能な第一の使用領域13の位置及び大きさを変化させることが可能である。以下に車両1のピッチ角と第一のスクリーン12上の第一の使用領域13の位置及び大きさとの関係について説明する。
図8Aは、車両1の路面5に対するピッチ角が概ね平行である場合の第一のスクリーン12上の第一の使用領域13を表している。例えば、車両姿勢検出部6から取得される車両姿勢情報Gが、車両1の路面5に対するピッチ角が概ね平行であることを示すとき、第一の画像表示部10は、第一のスクリーン12における第一の使用領域13の位置を図8Aに示される第一の使用領域13rに決定する。以下、図8Aに示される、両1の路面5に対するピッチ角が概ね平行である場合の第一の使用領域13rを第一の基準使用領域13rとも呼ぶ。HUD100は、第一の画像表示部10の第一の基準使用領域13rに対応した図9に示される第一の虚像表示面310rを生成する。
図8Bは、車両1のピッチ角が路面5よりも鉛直方向の上側に向いた場合の第一のスクリーン12上の第一の使用領域13を表している。例えば、車両姿勢検出部6から取得される車両姿勢情報Gが、車両1のピッチ角が路面5よりも鉛直方向の上側に向いたことを示すとき、第一の画像表示部10は、第一のスクリーン12における第一の使用領域13の位置を、図8Bに示される第一の使用領域13uに決定する。
図8Bに示される第一の使用領域13uは、第一の基準使用領域13rと比較して、dy軸正方向側に位置する。また、図8Bに示される第一の使用領域13uにおけるIy軸方向の長さ131uは、第一の基準使用領域13rにおけるIy軸方向の長さ13rと比較して、短くなっている。その結果、図9に示されるように、第一の使用領域13uに対応する第一の虚像領域310uは、第一の基準使用領域13rに対応する第一の基準虚像表示面310rと比較して、実空間上の鉛直方向上側(Y軸正方向)かつ車両1の進行方向の後側(Z軸正方向)に位置し、且つ、実空間上の車両1の進行方向における長さが短くなる。
すなわち、車両姿勢検出部6によって検出された車両姿勢情報Gに基づき、車両1のピッチ角が鉛直方向上側にいくにつれて、第一のスクリーン12の第一の使用領域13の位置がdy軸正方向側に位置するように決定される。また、車両姿勢検出部6によって検出された車両姿勢情報Gに基づき、車両1のピッチ角が鉛直方向上側にいくにつれて、第一のスクリーン12の第一の使用領域13のdy軸方向の長さが短くなるように決定される。その結果、車両1のピッチ角が鉛直方向上側にいくにつれて、第一の虚像表示面310は、実空間上の鉛直方向上側に位置し、且つ、実空間上の鉛直方向の長さが短くなる。
図8Cは、車両1のピッチ角が路面5よりも鉛直方向の下側に向いた場合の第一のスクリーン12上の第一の使用領域13を表している。例えば、車両姿勢検出部6から取得される車両姿勢情報Gが、車両1のピッチ角が路面5よりも鉛直方向の下側に向いたことを示すとき、第一の画像表示部10は、第一のスクリーン12における第一の使用領域13の位置を、図8Cに示される第一の使用領域13dに決定する。
図8Cに示される第一の使用領域13dは、第一の基準使用領域13rと比較して、dy軸負方向側に位置する。また、図8Bに示される第一の使用領域13uにおけるIy軸方向の長さ131dは、第一の基準使用領域13rにおけるIy軸方向の長さ13rと比較して、長くなっている。その結果、図9に示されるように、第一の使用領域13dに対応する第一の虚像領域310dは、第一の基準使用領域13rに対応する第一の基準虚像表示面310rと比較して、実空間上の鉛直方向下側(Y軸負方向)かつ車両1の進行方向の前側(Z軸負方向)に位置し、且つ、実空間上の車両1の進行方向における長さが長くなる。
すなわち、車両姿勢検出部6によって検出された車両姿勢情報Gに基づき、車両1のピッチ角が鉛直方向下側にいくにつれて、第一のスクリーン12の第一の使用領域13の位置がdy軸負方向側に位置するように決定される。また、車両姿勢検出部6によって検出された車両姿勢情報Gに基づき、車両1のピッチ角が鉛直方向下側にいくにつれて、第一のスクリーン12の第一の使用領域13のdy軸方向の長さが長くなるように決定される。その結果、車両1のピッチ角が鉛直方向下側にいくにつれて、第一の虚像表示面310は、実空間上の鉛直方向下側に位置し、且つ、実空間上の車両1の進行方向における長さが長くなる。
以上に説明したように、車両1のピッチ角(車両姿勢)の変化に応じて、反射部30を回転させ、第一の画像表示部10の第一の使用領域13の位置及びdy軸の長さを調整することで、車両1のピッチ角(車両姿勢)の変化の前後において、第一の虚像表示面310と路面5とがなす角度が保持され、且つ、第一の虚像表示面310が重畳する路面5の位置5a~5bが一定に保たれる。他方、第二の虚像表示面320は、車両1のピッチ角(車両姿勢)の変化の前後において、第一の虚像表示面310及び路面5とのなす角度や位置が変化する。したがって、第一の虚像表示面310に表示される第一の虚像311と、第二の虚像表示面320に表示される第二の虚像321と、を区別しやすくなり、第一の虚像表示面310、第二の虚像表示面320のそれぞれに表示される第一の虚像311、第二の虚像321とをより立体的に認識させることができる。
なお、第一の虚像表示面310と第二の虚像表示面320とがなす角度330の調整は、前述した車両1の車両姿勢の変化を契機とする以外に、車両1側から所定の信号を入力したこと、または車両1の外部から所定の情報を入力したこと、または、第一の虚像表示面310、第二の虚像表示面320の表示内容を切り替えたことなどを契機としてもよい。具体的に例えば、車両1に異常が発生したり、車外ネットワークからお勧めの経路が入力されたりした場合に、第一の虚像表示面310と第二の虚像表示面320とがなす角度330を変化させることで、第一の虚像表示面310に表示される第一の虚像311と、第二の虚像表示面320に表示される第二の虚像321と、を区別しやすくなり、第一の虚像表示面310、第二の虚像表示面320のそれぞれに表示される第一の虚像311、第二の虚像321とをより立体的に認識させることができ、視認者に対して情報をより印象深く伝達することが可能である。
また、本発明のHUD100は、第一の画像表示部10の表示面(第一のスクリーン12)をアクチュエータ40で回転させることで、第一の虚像表示面310と第二の虚像表示面320とのなす角度330を変化させてもよい。
なお、アクチュエータ40は、反射部30、表示合成部50、第一の画像表示部10の表示面(第一のスクリーン12)の中心を回転軸AXとする必要はなく、それぞれの光学部材の所定の位置(端部を含む)を回転軸AXとしてもよい。また、それぞれの光学部材と離間した位置に回転軸AXを設けてもよい。
図10は、運転席から車両1の前方を向いた場合の、実景と図2に示されるHUD100の変形例が表示する第一の虚像311、第二の虚像321とが視認される様子の例を示す図である。本発明のHUD100は、図10に示されるように、第一の画像表示部10が生成する第一の虚像表示面310と、第二の画像生成部20が生成する第二の虚像表示面320とが離間して視認されるようにしてもよい。具体的に例えば、この変形例におけるHUD100は、第一の画像表示部10から第一の表示光210が入射する表示合成部50上の領域と、第二の画像表示部20から第二の表示光220が入射する表示合成部50上の領域と、を離間させることで構成されていてもよい。
また、上記実施形態では、第一の虚像表示面310を生成する第一の画像表示部10と、第二の虚像表示面320を生成する第二の画像生成部20とを設けていたが、画像表示部が単体であってもよい。この変形例におけるHUD100は、単体の投影部(図示しない)からの投影光を複数のスクリーン(表示面)(図示しない)に投影し、一方の前記スクリーンをアクチュエータで回転させることで、第一の虚像表示面310と第二の虚像表示面320とのなす角度330を調整してもよい。
また、上記実施形態では、第一の虚像表示面310の実景に対する角度を調整することで、第一の虚像表示面310と第二の虚像表示面320とのなす角度330を調整していたが、第一の虚像表示面310と第二の虚像表示面320との双方の実景に対する角度をそれぞれ調整し、角度調整量を異ならせることで、第一の虚像表示面310と第二の虚像表示面320とのなす角度330を調整してもよい。
また、第一の画像表示部10は、例えば、液晶表示素子などの透過型表示パネルや、有機EL素子などの自発光表示パネルや、レーザー光を走査する走査型表示装置などを適用してもよい。
本発明のヘッドアップディスプレイは、例えば、自動四輪車などを含む移動体に搭載され、視認者に虚像を視認させる表示装置として利用可能である。
1…車両、2…フロントウインドシールド(透過反射部)、3…ダッシュボード、4…視点、5…路面5、6…車両姿勢検出部、7…バス、10…第一の画像表示部、20…第二の画像生成部、30…反射部(リレー光学系)、40…アクチュエータ、50…表示合成部(リレー光学系)、60…凹面ミラー、70…制御部、71…処理部、72…記憶部、73…インターフェース(車両姿勢情報取得手段)、100…HUD(ヘッドアップディスプレイ)、200…表示光、210…第一の表示光、220…第二の表示光、310…第一の虚像表示面、311…第一の虚像、320…第二の虚像表示面、321…第二の虚像、330…角度、AX…回転軸、D…画像データ、G…車両姿勢情報
Claims (9)
- 車両に搭載され、透過反射部に表示光を投影することで、仮想的な第一の虚像表示面上と第二の虚像表示面上とにそれぞれ虚像を表示可能なヘッドアップディスプレイであって、
前記第一の虚像表示面に対応する第一の表示面を有し、前記第一の表示面から前記虚像を表示する第一の表示光を発する第一の画像表示部と、
前記第二の虚像表示面に対応する第二の表示面を有し、前記第二の表示面から前記虚像を表示する第二の表示光を発する第二の画像表示部と、
前記第一、第二の画像表示部が発する前記第一、第二の表示光を前記透過反射部に向けるリレー光学系と、
少なくとも前記第一の表示面または前記リレー光学系のいずれかを回転させ、前記第一の虚像表示面が生成される実空間上における角度を調整可能なアクチュエータと、
前記アクチュエータを制御し、前記第一の虚像表示面と前記第二の虚像表示面とのなす角度を変化させる制御部と、を備える、
ことを特徴とするヘッドアップディスプレイ。 - 前記第一の虚像表示面は、前記第二の虚像表示面より水平方向に傾いて生成される、
ことを特徴とする請求項1に記載のヘッドアップディスプレイ。 - 前記第一の虚像表示面は、前記第二の虚像表示面より前記視認者から離れた位置に生成される、
ことを特徴とする請求項1または請求項2に記載のヘッドアップディスプレイ。 - 前記第一の虚像表示面は、水平方向に平行に配置される、
ことを特徴とする請求項1乃至3のいずれかに記載のヘッドアップディスプレイ。 - 前記第一の虚像表示面と前記第二の虚像表示面とは、視認者から見て、離間して配置される、
ことを特徴とする請求項1乃至4のいずれかに記載のヘッドアップディスプレイ。 - 前記車両の車両姿勢に関する情報を含む車両姿勢情報を取得する車両姿勢情報取得手段をさらに備え、
前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢情報に基づき、前記アクチュエータを駆動する、
ことを特徴とする請求項1乃至5のいずれかに記載のヘッドアップディスプレイ。 - 前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢の変化の大きさに応じて、前記アクチュエータの駆動量を大きくする、
ことを特徴とする請求項6に記載のヘッドアップディスプレイ。 - 前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢の変化を取得した場合、前記第一の虚像表示面と前記車両が走行する路面とのなす角度が前記車両の挙動が発生する前の角度に維持されるように、前記アクチュエータを駆動する、
ことを特徴とする請求項6または7のいずれかに記載のヘッドアップディスプレイ。 - 前記制御部は、前記車両姿勢情報取得手段が取得した前記車両姿勢の変化の大きさに応じて、前記第一の画像表示部の前記第一の表示面のうちの一部である前記画像の表示に使用する使用領域を決定する、
ことを特徴とする請求項6乃至8のいずれかに記載のヘッドアップディスプレイ。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/572,005 US10302940B2 (en) | 2015-05-13 | 2016-04-14 | Head-up display |
| EP16792474.5A EP3296794A4 (en) | 2015-05-13 | 2016-04-14 | Head-up display |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015-097999 | 2015-05-13 | ||
| JP2015097999A JP6458998B2 (ja) | 2015-05-13 | 2015-05-13 | ヘッドアップディスプレイ |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016181749A1 true WO2016181749A1 (ja) | 2016-11-17 |
Family
ID=57248095
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/061967 Ceased WO2016181749A1 (ja) | 2015-05-13 | 2016-04-14 | ヘッドアップディスプレイ |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10302940B2 (ja) |
| EP (1) | EP3296794A4 (ja) |
| JP (1) | JP6458998B2 (ja) |
| WO (1) | WO2016181749A1 (ja) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018088360A1 (ja) * | 2016-11-08 | 2018-05-17 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
| JP2018086900A (ja) * | 2016-11-28 | 2018-06-07 | 日本精機株式会社 | ヘッドアップディスプレイ装置、表示方法およびプログラム |
| WO2018105585A1 (ja) * | 2016-12-09 | 2018-06-14 | 日本精機株式会社 | ヘッドアップディスプレイ |
| CN111801239A (zh) * | 2018-03-02 | 2020-10-20 | 松下知识产权经营株式会社 | 显示系统 |
| EP3647117A4 (en) * | 2017-06-27 | 2021-01-27 | BOE Technology Group Co., Ltd. | DISPLAY SYSTEM AND DISPLAY PROCEDURES FOR IT AND VEHICLE |
| WO2022141847A1 (zh) * | 2020-12-28 | 2022-07-07 | 广景视睿科技(深圳)有限公司 | 一种投影光学系统及汽车的抬头显示装置 |
| WO2022141848A1 (zh) * | 2020-12-28 | 2022-07-07 | 广景视睿科技(深圳)有限公司 | 一种投影光学系统及汽车的抬头显示装置 |
| US11645840B2 (en) | 2017-08-31 | 2023-05-09 | Sony Corporation | Information processing apparatus, information processing method, program, and moving body |
Families Citing this family (23)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108139584B (zh) * | 2015-10-15 | 2020-08-28 | 麦克赛尔株式会社 | 信息显示装置 |
| USRE50622E1 (en) * | 2016-02-05 | 2025-10-07 | Maxell, Ltd. | Head-up display apparatus |
| US20170371165A1 (en) * | 2016-06-22 | 2017-12-28 | Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America | Head up display with stabilized vertical alignment |
| JP6588167B2 (ja) * | 2016-08-29 | 2019-10-09 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
| WO2018088362A1 (ja) * | 2016-11-11 | 2018-05-17 | 日本精機株式会社 | ヘッドアップディスプレイ |
| JP6676782B2 (ja) | 2016-12-15 | 2020-04-08 | アルプスアルパイン株式会社 | 画像表示装置 |
| JP6601438B2 (ja) * | 2017-02-21 | 2019-11-06 | 株式会社デンソー | ヘッドアップディスプレイ装置 |
| CN108663807B (zh) * | 2017-03-31 | 2021-06-01 | 宁波舜宇车载光学技术有限公司 | 平视显示光学系统和装置及其成像方法 |
| JP6695049B2 (ja) * | 2017-05-10 | 2020-05-20 | パナソニックIpマネジメント株式会社 | 表示装置及び表示制御方法 |
| US20200152157A1 (en) | 2017-06-28 | 2020-05-14 | Nippon Seiki Co., Ltd. | Image processing unit, and head-up display device provided with same |
| JP6864580B2 (ja) * | 2017-08-04 | 2021-04-28 | アルパイン株式会社 | ヘッドアップディスプレイ装置、ナビゲーション装置 |
| JP6943079B2 (ja) * | 2017-08-23 | 2021-09-29 | 日本精機株式会社 | 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置 |
| JP2019082601A (ja) * | 2017-10-31 | 2019-05-30 | パナソニックIpマネジメント株式会社 | 表示システム、及び移動体 |
| US10446027B1 (en) * | 2017-12-11 | 2019-10-15 | Waymo Llc | Differentiating roadways by elevation |
| DE112019003420T5 (de) | 2018-07-05 | 2021-03-18 | Nippon Seiki Co., Ltd. | Head-up-Display-Vorrichtung |
| US10650239B2 (en) | 2018-07-25 | 2020-05-12 | At&T Intellectual Property I, L.P. | Context-based object location via augmented reality device |
| WO2020209298A1 (ja) * | 2019-04-11 | 2020-10-15 | パナソニックIpマネジメント株式会社 | 勾配変化検出システム、それを用いた表示システム及び移動体用プログラム |
| DE102019206573B4 (de) * | 2019-05-08 | 2022-09-08 | Volkswagen Aktiengesellschaft | Verfahren zum Betrieb eines Kraftfahrzeugs |
| JP7337153B2 (ja) * | 2019-05-30 | 2023-09-01 | 京セラ株式会社 | ヘッドアップディスプレイシステムおよび移動体 |
| EP3846009B1 (en) * | 2019-12-31 | 2023-05-10 | Seiko Epson Corporation | Display system, electronic apparatus, mobile body, and display method |
| EP3848781B1 (en) | 2019-12-31 | 2023-05-10 | Seiko Epson Corporation | Circuit device, electronic apparatus, and mobile body |
| JP7524836B2 (ja) * | 2021-06-10 | 2024-07-30 | トヨタ自動車株式会社 | 車両用表示装置、表示方法及びプログラム |
| TWI901154B (zh) * | 2024-05-30 | 2025-10-11 | 怡利電子工業股份有限公司 | 背光實像成像的裸視立體影像顯示裝置 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003237412A (ja) * | 2002-02-14 | 2003-08-27 | Denso Corp | 車両用ヘッドアップディスプレイ装置 |
| JP2007148092A (ja) * | 2005-11-29 | 2007-06-14 | Denso Corp | ヘッドアップディスプレイ装置 |
| JP2008268485A (ja) * | 2007-04-19 | 2008-11-06 | Nippon Seiki Co Ltd | 表示装置 |
Family Cites Families (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US3533104A (en) * | 1968-05-17 | 1970-10-06 | Ibm | Head-up display system |
| JP3727078B2 (ja) * | 1994-12-02 | 2005-12-14 | 富士通株式会社 | 表示装置 |
| JPH1191404A (ja) * | 1997-09-25 | 1999-04-06 | Denso Corp | 車両用ヘッドアップディスプレイ |
| JP4871459B2 (ja) * | 2001-07-17 | 2012-02-08 | 矢崎総業株式会社 | 車載用ヘッドアップディスプレイ装置 |
| WO2003011628A1 (en) * | 2001-07-30 | 2003-02-13 | Nippon Seiki Co., Ltd | Vehicle display device |
| JP4134785B2 (ja) * | 2003-03-28 | 2008-08-20 | 株式会社デンソー | 表示装置 |
| JP4441855B2 (ja) * | 2003-11-28 | 2010-03-31 | 東洋紡績株式会社 | ポリアミド樹脂組成物 |
| JP4895324B2 (ja) * | 2006-11-27 | 2012-03-14 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
| JP2009150947A (ja) * | 2007-12-19 | 2009-07-09 | Hitachi Ltd | 車両用ヘッドアップディスプレイ装置 |
| JP2010096874A (ja) * | 2008-10-15 | 2010-04-30 | Nippon Seiki Co Ltd | 車両用表示装置 |
| US8441733B2 (en) * | 2009-04-24 | 2013-05-14 | David Kessler | Pupil-expanded volumetric display |
| JP5713424B2 (ja) | 2010-08-03 | 2015-05-07 | 矢崎総業株式会社 | 車両用表示装置 |
| JP6027878B2 (ja) * | 2012-12-12 | 2016-11-16 | 矢崎総業株式会社 | 複合表示装置 |
| US9164281B2 (en) * | 2013-03-15 | 2015-10-20 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
| US9393870B2 (en) * | 2013-03-15 | 2016-07-19 | Honda Motor Co., Ltd. | Volumetric heads-up display with dynamic focal plane |
| US20160216521A1 (en) * | 2013-10-22 | 2016-07-28 | Nippon Seiki Co., Ltd. | Vehicle information projection system and projection device |
| US10254551B2 (en) * | 2014-06-13 | 2019-04-09 | Mitsubishi Electric Corporation | Virtual image display device |
| US20170299922A1 (en) * | 2014-09-24 | 2017-10-19 | Nippon Seiki Co., Ltd. | Head-up display device |
| CN110194057A (zh) * | 2014-09-26 | 2019-09-03 | 矢崎总业株式会社 | 平视显示设备 |
| JP6550716B2 (ja) * | 2014-10-16 | 2019-07-31 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
-
2015
- 2015-05-13 JP JP2015097999A patent/JP6458998B2/ja not_active Expired - Fee Related
-
2016
- 2016-04-14 US US15/572,005 patent/US10302940B2/en not_active Expired - Fee Related
- 2016-04-14 WO PCT/JP2016/061967 patent/WO2016181749A1/ja not_active Ceased
- 2016-04-14 EP EP16792474.5A patent/EP3296794A4/en not_active Withdrawn
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003237412A (ja) * | 2002-02-14 | 2003-08-27 | Denso Corp | 車両用ヘッドアップディスプレイ装置 |
| JP2007148092A (ja) * | 2005-11-29 | 2007-06-14 | Denso Corp | ヘッドアップディスプレイ装置 |
| JP2008268485A (ja) * | 2007-04-19 | 2008-11-06 | Nippon Seiki Co Ltd | 表示装置 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3296794A4 * |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018088360A1 (ja) * | 2016-11-08 | 2018-05-17 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
| US10916224B2 (en) | 2016-11-08 | 2021-02-09 | Nippon Seiki Co., Ltd. | Head-up display device |
| JP2018086900A (ja) * | 2016-11-28 | 2018-06-07 | 日本精機株式会社 | ヘッドアップディスプレイ装置、表示方法およびプログラム |
| WO2018105585A1 (ja) * | 2016-12-09 | 2018-06-14 | 日本精機株式会社 | ヘッドアップディスプレイ |
| EP3647117A4 (en) * | 2017-06-27 | 2021-01-27 | BOE Technology Group Co., Ltd. | DISPLAY SYSTEM AND DISPLAY PROCEDURES FOR IT AND VEHICLE |
| US11415799B2 (en) | 2017-06-27 | 2022-08-16 | Boe Technology Group Co., Ltd. | Display system and display method therefor, and vehicle |
| US11645840B2 (en) | 2017-08-31 | 2023-05-09 | Sony Corporation | Information processing apparatus, information processing method, program, and moving body |
| DE112018004847B4 (de) * | 2017-08-31 | 2024-02-08 | Sony Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiles objekt |
| CN111801239A (zh) * | 2018-03-02 | 2020-10-20 | 松下知识产权经营株式会社 | 显示系统 |
| CN111801239B (zh) * | 2018-03-02 | 2024-09-13 | 松下知识产权经营株式会社 | 显示系统 |
| WO2022141847A1 (zh) * | 2020-12-28 | 2022-07-07 | 广景视睿科技(深圳)有限公司 | 一种投影光学系统及汽车的抬头显示装置 |
| WO2022141848A1 (zh) * | 2020-12-28 | 2022-07-07 | 广景视睿科技(深圳)有限公司 | 一种投影光学系统及汽车的抬头显示装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20180143431A1 (en) | 2018-05-24 |
| JP6458998B2 (ja) | 2019-01-30 |
| JP2016212338A (ja) | 2016-12-15 |
| US10302940B2 (en) | 2019-05-28 |
| EP3296794A4 (en) | 2018-11-21 |
| EP3296794A1 (en) | 2018-03-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6458998B2 (ja) | ヘッドアップディスプレイ | |
| JP6731644B2 (ja) | 表示位置補正装置、表示位置補正装置を備える表示装置、及び表示装置を備える移動体 | |
| US11215819B2 (en) | Head-up display | |
| JP6175589B2 (ja) | 投写型表示装置及び投写表示方法 | |
| JP4928014B1 (ja) | 表示装置 | |
| JP6741029B2 (ja) | 情報表示装置 | |
| WO2016190135A1 (ja) | 車両用表示システム | |
| JP2018077400A (ja) | ヘッドアップディスプレイ | |
| JP2009150947A (ja) | 車両用ヘッドアップディスプレイ装置 | |
| WO2018079794A1 (ja) | 虚像表示光学系及び画像表示装置 | |
| JP6105533B2 (ja) | 車両用投影表示装置 | |
| JP6911868B2 (ja) | ヘッドアップディスプレイ装置 | |
| JPWO2017090464A1 (ja) | ヘッドアップディスプレイ | |
| WO2016178357A1 (ja) | ヘッドアップディスプレイ | |
| JP2018120135A (ja) | ヘッドアップディスプレイ | |
| JP6105531B2 (ja) | 車両用投影表示装置 | |
| WO2018105585A1 (ja) | ヘッドアップディスプレイ | |
| JP6887732B2 (ja) | ヘッドアップディスプレイ装置 | |
| JP6481445B2 (ja) | ヘッドアップディスプレイ | |
| JP2016185768A (ja) | 車両用表示システム | |
| JPWO2020090187A1 (ja) | 虚像表示装置、およびヘッドアップディスプレイ装置 | |
| JPWO2018199244A1 (ja) | 表示システム | |
| JP6845988B2 (ja) | ヘッドアップディスプレイ | |
| JP2011121402A (ja) | 表示装置、表示方法及び移動体 | |
| JP6372175B2 (ja) | 車両用情報表示装置、車両用情報表示装置を備えた車両及び車両用情報の表示方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16792474 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 15572005 Country of ref document: US |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2016792474 Country of ref document: EP |