WO2020031915A1 - 車両用表示システム及び車両 - Google Patents
車両用表示システム及び車両 Download PDFInfo
- Publication number
- WO2020031915A1 WO2020031915A1 PCT/JP2019/030579 JP2019030579W WO2020031915A1 WO 2020031915 A1 WO2020031915 A1 WO 2020031915A1 JP 2019030579 W JP2019030579 W JP 2019030579W WO 2020031915 A1 WO2020031915 A1 WO 2020031915A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- display
- information
- surrounding environment
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0229—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for displays, e.g. cathodic tubes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/27—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
- B60Q1/04—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
- B60Q1/06—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
- B60Q1/08—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
- B60Q1/085—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically due to special conditions, e.g. adverse weather, type of road, badly illuminated road signs or potential dangers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/166—Navigation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/167—Vehicle dynamics information
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/172—Driving mode indication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/177—Augmented reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/182—Distributing information between displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/186—Displaying information according to relevancy
- B60K2360/1868—Displaying information according to relevancy according to driving situations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/186—Displaying information according to relevancy
- B60K2360/1876—Displaying information according to relevancy according to vehicle situations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/33—Illumination features
- B60K2360/334—Projection means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/77—Instrument locations other than the dashboard
- B60K2360/785—Instrument locations other than the dashboard on or in relation to the windshield or windows
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/77—Instrument locations other than the dashboard
- B60K2360/797—Instrument locations other than the dashboard at the vehicle exterior
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
- B60K35/231—Head-up displays [HUD] characterised by their arrangement or structure for integration into vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
- B60K35/233—Head-up displays [HUD] controlling the size or position in display areas of virtual images depending on the condition of the vehicle or the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q2400/00—Special features or arrangements of exterior signal lamps for vehicles
- B60Q2400/50—Projected symbol or information, e.g. onto the road or car body
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
- B60R2001/1253—Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R2011/0001—Arrangements for holding or mounting articles, not otherwise provided for characterised by position
- B60R2011/0003—Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
- B60R2011/0026—Windows, e.g. windscreen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/307—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
- B60R2300/308—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/20—Means to switch the anti-theft system on or off
- B60R25/24—Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user
- B60R25/245—Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user where the antenna reception area plays a role
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R25/00—Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
- B60R25/20—Means to switch the anti-theft system on or off
- B60R25/24—Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user
- B60R25/246—Means to switch the anti-theft system on or off using electronic identifiers containing a code not memorised by the user characterised by the challenge triggering
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0161—Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
- G02B2027/0163—Electric or electronic control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B2027/0192—Supplementary details
- G02B2027/0196—Supplementary details having transparent supporting structure for display mounting, e.g. to a window or a windshield
Definitions
- the present disclosure relates to a vehicle display system and a vehicle including the vehicle display system.
- the vehicle system automatically controls traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information indicating the surrounding environment of the vehicle (surrounding environment information) obtained from sensors such as a camera and a radar (for example, a laser radar or a millimeter wave radar). At least one of (control of the traveling direction of the vehicle), brake control, and accelerator control (control of braking and acceleration / deceleration of the vehicle) is automatically performed.
- the driver controls the running of the vehicle as in many conventional vehicles.
- the traveling of the vehicle is controlled according to the driver's operation (steering operation, brake operation, accelerator operation), and the vehicle system does not automatically perform the steering control, the brake control, and the accelerator control.
- the vehicle driving mode is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including a conventional vehicle that does not have an automatic driving function. Classified according to the method.
- autonomous driving vehicles vehicles traveling in the automatic driving mode
- manual driving vehicles vehicles traveling in the manual driving mode
- Patent Literature 1 discloses an automatic following system in which a following vehicle automatically runs following a preceding vehicle.
- each of the preceding vehicle and the following vehicle has an illumination system, and character information for preventing another vehicle from interrupting between the preceding vehicle and the following vehicle is transmitted to the illumination system of the preceding vehicle. While being displayed, character information indicating that the vehicle is in automatic follow-up running is displayed on the lighting system of the following vehicle.
- Patent Document 2 a vehicle that irradiates (draws) a light pattern such as a figure or a character on a road surface to notify / warn the information of the vehicle to the driver (occupant) itself or another person such as a pedestrian or an oncoming vehicle.
- a display system is known (Patent Document 2).
- the visibility of the occupant with respect to the surrounding environment of the vehicle is reduced according to the situation such as the surrounding environment of the vehicle.
- the surrounding environment of the vehicle is not sufficiently visible in a view directly visible to the occupant through a window of the vehicle (hereinafter, referred to as a direct view).
- a direct view a view directly visible to the occupant through a window of the vehicle
- the occupant may not notice the presence of an object such as a pedestrian in front of the vehicle in the direct view.
- a white light pattern is drawn on a road surface, it is assumed that it is difficult for an occupant to visually recognize the light pattern drawn on the road surface due to snow falling on the road surface.
- the present disclosure has an object to provide a vehicle display system and a vehicle that can prevent a decrease in visibility of an occupant with respect to a surrounding environment of the vehicle. It is another object of the present disclosure to provide a vehicle display system and a vehicle capable of realizing rich visual communication between an occupant and a vehicle.
- a display system for a vehicle is provided in a vehicle, A first display device that is located inside the vehicle and configured to display a surrounding environment image indicating a surrounding environment of the vehicle on a window of the vehicle; According to a predetermined condition associated with the vehicle or the surrounding environment of the vehicle, the first display device is controlled so that the surrounding environment image is displayed on the window, and the transmittance of the window is reduced. And a display control unit configured as described above.
- the transmittance of the window is reduced.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view, thereby preventing the occupant from lowering the visibility of the surrounding environment of the vehicle. be able to.
- the first display device may be configured to display the surrounding environment image in the traveling direction of the vehicle on a front window of the vehicle.
- the surrounding environment image in the traveling direction of the vehicle is displayed on the front window of the vehicle. Therefore, for example, when the vehicle is moving backward, a surrounding environment image behind the vehicle is displayed on the front window of the vehicle. In this way, it is possible to prevent the occupant from lowering the visibility of the surrounding environment of the vehicle.
- the first display device may be configured to display the surrounding environment image on all windows of the vehicle and reduce the transmittance of all the windows.
- the surrounding environment image is displayed on all the windows of the vehicle (particularly, the front window, the side window, and the back window), and the transmittance of all the windows is reduced.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment images displayed on all windows, and can prevent the occupant from lowering the visibility of the surrounding environment of the vehicle.
- the display system for a vehicle may further include a second display device configured to emit the light pattern toward a road surface outside the vehicle.
- the display control unit controls the first display device so that the surrounding environment image is displayed on the window, The transmittance of the window may be reduced.
- the occupant when the light pattern is emitted toward the road surface, the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view.
- the display control unit may control the first display device so that the surrounding environment image is displayed in the window according to a driving mode of the vehicle, and reduce the transmittance of the window.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view according to the driving mode of the vehicle.
- the display control unit controls the first display device so that the surrounding environment image is displayed in the window according to the brightness of the surrounding environment of the vehicle, and reduces the transmittance of the window. You may.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view according to the brightness of the surrounding environment of the vehicle.
- the display control unit controls the first display device so that the surrounding environment image is displayed in the window according to a road on which the vehicle is currently traveling, and adjusts a transmittance of the window. May be lowered.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view according to the road on which the vehicle is currently traveling.
- the display control unit controls the first display device so that the surrounding environment image is displayed in the window according to the weather at the current position of the vehicle, and reduces the transmittance of the window. Is also good.
- the occupant can visually recognize the surrounding environment of the vehicle through the surrounding environment image instead of the direct view according to the weather at the current position of the vehicle.
- the weather at the current position of the vehicle is bad weather, it is possible to prevent the occupant from lowering the visibility of the surrounding environment of the vehicle through the surrounding environment image.
- a display system for a vehicle is a display system for a vehicle provided in a vehicle,
- a first display device configured to emit a light pattern indicating predetermined information toward a road surface outside the vehicle;
- the vehicle running information is located inside the vehicle, and the vehicle running information related to the running of the vehicle is displayed to an occupant of the vehicle such that the vehicle running information is superimposed on a real space outside the vehicle.
- a second display device The information displayed on one of the first display device and the second display device is displayed on the first display device and the second display device based on information related to the vehicle or information related to a surrounding environment of the vehicle.
- a display control unit configured to display the image on the other side of the device.
- the display control unit causes the information displayed on one of the first display device and the second display device to be displayed on the first display device based on the information related to the vehicle or the information related to the surrounding environment of the vehicle.
- a display is made on the other of the display device and the second display device. For this reason, when it is difficult for the occupant to recognize the information displayed on the first display device or the second display device, the information is displayed on the other second display device or the first display device. Can be. This makes it possible to further improve the visibility of the occupant for the information presented by the vehicle.
- a vehicle display system capable of realizing rich visual communication between an occupant and a vehicle.
- the display control unit may cause the second display device to display the predetermined information based on information related to the vehicle or information related to a surrounding environment of the vehicle.
- the display control unit causes the second display device to display the predetermined information based on the information related to the vehicle or the information related to the surrounding environment of the vehicle. Therefore, when it is difficult for the occupant to recognize the information displayed on the first display device, the information can be displayed on the second display device. This makes it possible to further improve the visibility of the occupant for the information presented by the vehicle.
- the display control unit may cause the first display device to display the vehicle travel information based on information related to the vehicle or information related to a surrounding environment of the vehicle.
- the display control unit causes the first display device to display the vehicle traveling information based on the information related to the vehicle or the information related to the surrounding environment of the vehicle. Therefore, when it is difficult for the occupant to recognize the information displayed on the second display device, the information can be displayed on the first display device. This makes it possible to further improve the visibility of the occupant for the information presented by the vehicle.
- the predetermined information includes a plurality of pieces of information
- the display control unit may cause the second display device to display some of the predetermined information based on information related to the vehicle or information related to a surrounding environment of the vehicle.
- the display control unit causes the second display device to display a part of the predetermined information based on the information related to the vehicle or the information related to the surrounding environment of the vehicle. Therefore, it is possible to cause the second display device to display information that is difficult for the occupant to recognize among the information displayed by the first display device. This makes it possible to further improve the visibility of the occupant for the information presented by the vehicle.
- the information relating to the vehicle may be information relating to a driving mode of the vehicle.
- the display control unit causes the information displayed on one of the first display device and the second display device to be displayed on the other of the first display device and the second display device based on the driving mode of the vehicle. Display. Therefore, the display device can be switched according to the level of the operation mode.
- the information related to the surrounding environment of the vehicle may be brightness information of the surrounding environment, information of a road on which the vehicle is currently traveling, or weather information at a current position of the vehicle.
- the display control unit is configured to control the first display device and the second display device based on the brightness information of the surrounding environment, the road information on which the vehicle is currently traveling, or the weather information on the current position of the vehicle. Is displayed on the other of the first display device and the second display device. Therefore, the display device can be switched according to the situation of the surrounding environment of the vehicle.
- a vehicle provided with the above-described vehicle display system may be provided.
- a vehicle display system and a vehicle capable of preventing a decrease in visibility of a passenger with respect to a surrounding environment of the vehicle. Further, it is possible to provide a vehicle capable of realizing rich visual communication between the occupant and the vehicle.
- FIG. 1 is a front view of a vehicle equipped with a vehicle system according to a first embodiment of the present invention.
- 1 is a block diagram of a vehicle system according to a first embodiment. It is a figure showing signs that light emitted from HUD (Head-Up @ Display) reaches eyes of a crew member. It is a flow chart for explaining an example of operation of the display system for vehicles concerning a 1st embodiment.
- FIG. 4 is a diagram illustrating a state in which light from outside the vehicle is blocked by a front window. It is a figure showing an example of a surrounding environment picture displayed on a HUD display area.
- 5 is a table showing a specific example of a predetermined condition shown in the flowchart of FIG. It is a top view of a vehicle.
- FIG. 1 is a front view of a vehicle equipped with a vehicle system. It is a block diagram of a vehicle system.
- 9 is a flowchart illustrating an example of display switching control by a display control unit according to a second embodiment of the present invention. It is a figure for explaining an example of road surface drawing before display change concerning a 2nd embodiment. It is a figure for explaining an example of HUD after display change concerning a 2nd embodiment.
- 13 is a flowchart illustrating an example of display switching control by a display control unit according to a third embodiment of the present invention. It is a figure for explaining an example of HUD after display change concerning a 3rd embodiment.
- FIG. 13 is a flowchart illustrating an example of display switching control by a display control unit according to a fourth embodiment of the present invention. It is a figure for explaining an example of HUD before display change concerning a 4th embodiment. It is a figure for explaining an example of road surface drawing after display change concerning a 4th embodiment.
- left-right direction is a direction including the “left direction” and the “right direction”.
- the “vertical direction” is a direction including “upward” and “downward”.
- the “front-rear direction” is a direction including the “front direction” and the “back direction”.
- the front-back direction is a direction orthogonal to the left-right direction and the up-down direction.
- FIG. 1 is a front view of a vehicle 1 on which a vehicle system 2 is mounted.
- FIG. 2 is a block diagram of the vehicle system 2.
- the vehicle 1 is a vehicle (automobile) that can run in the automatic driving mode.
- the vehicle system 2 includes a vehicle control unit 3, a vehicle display system 4 (hereinafter, simply referred to as “display system 4”), a sensor 5, a camera 6, and a radar 7. . Further, the vehicle system 2 includes an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, a wireless communication unit 10, a storage device 11, a steering actuator 12, a steering device 13, a brake actuator 14, , A brake device 15, an accelerator actuator 16, and an accelerator device 17.
- HMI Human Machine Interface
- GPS Global Positioning System
- the vehicle control unit 3 is configured to control the traveling of the vehicle 1.
- the vehicle control unit 3 includes, for example, at least one electronic control unit (ECU: Electronic Control Unit).
- the electronic control unit includes a computer system (for example, SoC (System on a Chip) or the like) including one or more processors and one or more memories, and an electronic circuit including an active element such as a transistor and a passive element.
- the processor is, for example, a CPU (Central Processing). Unit, an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
- the CPU may be configured by a plurality of CPU cores.
- the GPU may be configured by a plurality of GPU cores.
- the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
- the vehicle control program may be stored in the ROM.
- the vehicle control program may include an artificial intelligence (AI) program for automatic driving.
- AI is a program (learned model) constructed by supervised or unsupervised machine learning (particularly, deep learning) using a multilayer neural network.
- the RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating a surrounding environment of the vehicle.
- the processor may be configured to load a program specified from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
- the computer system may be configured by a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
- a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
- the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
- the display system 4 includes a left headlamp 20L, a right headlamp 20R, a left road surface drawing device 45L, and a right road surface drawing device 45R. Further, the display system 4 includes a HUD (Head-Up @ Display) 42 and a display control unit 43.
- HUD Head-Up @ Display
- the left headlamp 20L is arranged on the left front side of the vehicle 1, and irradiates a low beam configured to irradiate a low beam forward of the vehicle 1 and a high beam forward of the vehicle 1. And a high beam lamp configured to perform the operation.
- the right headlamp 20R is arranged on the right front side of the vehicle 1 and is configured to irradiate a low beam to the front of the vehicle 1 and a high beam configured to irradiate a high beam to the front of the vehicle 1. And a lamp.
- Each of the low beam lamp and the high beam lamp has one or more light emitting elements such as an LED (Light Emitting Diode) and an LD (Laser Diode), and optical members such as a lens and a reflector.
- LED Light Emitting Diode
- LD Laser Diode
- optical members such as a lens and a reflector.
- the left head lamp 20L and the right head lamp 20R may be simply referred to as a head lamp 20 for convenience of explanation.
- the left road surface drawing device 45L (an example of a first display device) is disposed in the lamp room of the left headlamp 20L.
- the left road surface drawing device 45L is configured to emit a light pattern toward a road surface outside the vehicle 1.
- the left road surface drawing device 45L includes, for example, a light source unit, a driving mirror, an optical system such as a lens and a mirror, a light source driving circuit, and a mirror driving circuit.
- the light source unit is a laser light source or an LED light source.
- the laser light source is an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
- the drive mirror is, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a DMD (Digital Mirror Device), a galvano mirror, a polygon mirror, or the like.
- the light source drive circuit is configured to drive and control the light source unit.
- the light source driving circuit generates a control signal for controlling the operation of the light source unit based on a signal related to the predetermined light pattern transmitted from the display control unit 43, and then transmits the generated control signal to the light source.
- the mirror driving circuit is configured to drive and control the driving mirror.
- the mirror driving circuit generates a control signal for controlling the operation of the driving mirror based on a signal related to the predetermined light pattern transmitted from the display control unit 43, and then drives the generated control signal. It is configured to send to a mirror.
- the light source unit is an RGB laser light source
- the left road surface drawing device 45L can draw light patterns of various colors on the road surface by scanning the laser light.
- the right road surface drawing device 45R is disposed in the light room of the right headlamp 20R.
- the right road surface drawing device 45R is configured to emit a light pattern toward a road surface outside the vehicle 1.
- the right road surface drawing device 45R includes a light source unit, a driving mirror, an optical system such as a lens, a light source driving circuit, and a mirror driving circuit.
- the drawing method of the left road surface drawing device 45L and the right road surface drawing device 45R may be a raster scan method, a DLP (Digital Light Processing) method, or an LCOS (Liquid Crystal on silicon) method.
- the light source unit may be an LED light source.
- a projection method may be adopted as a drawing method of the left road surface drawing device 45L and the right road surface drawing device 45R.
- the light source unit may be a plurality of LED light sources arranged in a matrix.
- the left road surface drawing device 45L and the right road surface drawing device 45R may be arranged on the vehicle body roof 100A.
- one road surface drawing device may be arranged on the vehicle body roof 100A.
- the left road surface drawing device 45L and the right road surface drawing device 45R may be simply referred to as the road surface drawing device 45 for convenience of description.
- the road surface drawing device 45 indicates a left road surface drawing device 45L, a right road surface drawing device 45R, or a combination of the left road surface drawing device 45L and the right road surface drawing device 45R.
- the HUD 42 (an example of the second display device) is located inside the vehicle 1. Specifically, the HUD 42 is installed at a predetermined location in the room of the vehicle 1. For example, as shown in FIG. 3, the HUD 42 may be arranged in the dashboard of the vehicle 1.
- the HUD 42 functions as a visual interface between the vehicle 1 and the occupant H.
- the HUD 42 displays the HUD information to the occupant H such that predetermined information (hereinafter, referred to as HUD information) is superimposed on a real space outside the vehicle 1 (particularly, a surrounding environment in front of the vehicle 1). It is configured as follows.
- the HUD 42 functions as an AR (Augmented Reality) display.
- the HUD information displayed by the HUD 42 is, for example, vehicle traveling information related to the traveling of the vehicle 1 and / or surrounding environment information related to the surrounding environment of the vehicle 1 (particularly, related to an object existing outside the vehicle 1). Information).
- the HUD 42 is configured to display a surrounding environment image indicating the surrounding environment of the vehicle 1 captured by the external camera 6A, as described later.
- the HUD 42 has a HUD body 420 and a transparent screen 421.
- the HUD main unit 420 has a light source unit, a driving mirror, an optical system, a light source driving circuit, and a mirror driving circuit.
- the light source unit is, for example, a laser light source or an LED light source.
- the laser light source is, for example, an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
- the driving mirror is, for example, a MEMS mirror, a DMD, a galvano mirror, a polygon mirror, or the like.
- the optical system includes at least one of a prism, a lens, a diffuser, and a magnifier.
- the light source drive circuit is configured to drive and control the light source unit.
- the light source driving circuit generates a control signal for controlling the operation of the light source unit based on the image data transmitted from the display control unit 43, and then transmits the generated control signal to the light source unit. It is configured.
- the mirror driving circuit is configured to drive and control the driving mirror.
- the mirror drive circuit generates a control signal for controlling the operation of the drive mirror based on the image data transmitted from the display control unit 43, and then transmits the generated control signal to the drive mirror. It is configured.
- the transparent screen 421 is constituted by a part of the front window 60.
- the transparent screen 421 has a HUD display area D1 on which HUD information is displayed (see FIG. 6).
- the light (image) emitted from the HUD main body 420 is applied to the HUD display area D1 of the transparent screen 421.
- the HUD display area D1 reflects the light emitted from the HUD body 420 toward the occupant H's viewpoint E.
- the occupant H recognizes the light (image) emitted from the HUD main body 420 as a virtual image formed at a predetermined position in front of the transparent screen 421.
- the occupant E can feel as if the HUD information is floating on the road.
- the transparent screen 421 may be configured as a transparent combiner separated from the front window 60. Also in this case, the combiner has a HUD display area. Further, the occupant H recognizes the light (image) emitted from the HUD body 420 as a virtual image formed at a predetermined position in front of the combiner. The position where the virtual image is formed (virtual image formation position) may be changed by adjusting the position of the optical system of the HUD 42 (particularly, the focal length of the projection optical system). At this point, the display control unit 43 can control the HUD 42 such that the position of the target object in front of the vehicle 1 substantially matches the virtual image formation position.
- the drawing method of the HUD 42 may be a raster scan direction, a DLP method, or an LCOS method. When the DLP system or the LCOS system is adopted, the light source unit of the HUD 42 may be an LED light source.
- the display control unit 43 includes a road surface drawing device 45 (specifically, a left road surface drawing device 45L and a right road surface drawing device 45R), a head lamp 20 (specifically, a left head lamp 20L and a right head lamp 20R), and a HUD. Is configured to control the operation. At this point, the display control unit 43 controls the operation of the road surface drawing device 45 (specifically, the left road surface drawing device 45L and the right road surface drawing device 45R) so that a predetermined position on the road surface is irradiated with the light pattern. It is configured to control. Further, the display control unit 43 is configured to control the operation of the HUD 42 so that the HUD information is displayed in the HUD display area D1.
- the display control unit 43 is configured by an electronic control unit (ECU).
- the electronic control unit includes a computer system (eg, SoC, etc.) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
- the processor includes at least one of a CPU, an MPU, a GPU, and a TPU.
- the memory includes a ROM and a RAM.
- the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
- the vehicle control unit 3 and the display control unit 43 are provided as separate components, but the vehicle control unit 3 and the display control unit 43 may be integrally configured.
- the display control unit 43 and the vehicle control unit 3 may be configured by a single electronic control unit.
- the display control unit 43 includes two electronic control units, an electronic control unit configured to control the operation of the headlamp 20 and the road surface drawing device 45 and an electronic control unit configured to control the operation of the HUD 42. It may be constituted by a unit.
- the sensor 5 includes at least one of an acceleration sensor, a speed sensor, and a gyro sensor.
- the sensor 5 is configured to detect a traveling state of the vehicle 1 and output traveling state information to the vehicle control unit 3. Further, the sensor 5 may include at least one of a sitting sensor, a face orientation sensor, an external weather sensor, and an illuminance sensor.
- the seating sensor is configured to detect whether the driver is sitting in the driver's seat.
- the face direction sensor is configured to detect the direction of the driver's face.
- the external weather sensor is configured to detect the external weather at the current position of the vehicle 1.
- the illuminance sensor is configured to detect the brightness (illuminance) of the surrounding environment of the vehicle 1.
- the camera 6 is a camera including an image sensor such as a charge-coupled device (CCD) or a complementary MOS (CMOS).
- the camera 6 includes one or more external cameras 6A and an internal camera 6B.
- the external camera 6 ⁇ / b> A is configured to acquire image data indicating the surrounding environment of the vehicle 1 and transmit the image data to the vehicle control unit 3.
- the vehicle control unit 3 acquires surrounding environment information based on the transmitted image data.
- the surrounding environment information may include information on an object (a pedestrian, another vehicle, a sign, or the like) existing outside the vehicle 1.
- the surrounding environment information may include information on an attribute of an object existing outside the vehicle 1 and information on a distance and a position of the object with respect to the vehicle 1.
- the external camera 6A may be configured as a monocular camera, or may be configured as a stereo camera.
- the image data obtained by the external camera 6A is transmitted to the display control unit 43.
- the display control unit 43 displays a surrounding environment image indicating the surrounding environment of the vehicle 1 on the HUD 42 (specifically, the HUD display area) at a predetermined frame rate.
- the display control unit 43 may generate the surrounding environment video by combining the image data transmitted from each of the external cameras 6A, and then display the generated surrounding environment video on the HUD 42.
- the internal camera 6B is arranged inside the vehicle 1 and configured to acquire image data indicating the occupant H.
- the internal camera 6B functions as a tracking camera that tracks the viewpoint E of the occupant H.
- the viewpoint E of the occupant H may be either the left eye viewpoint or the right eye viewpoint of the occupant H.
- the viewpoint E may be defined as the midpoint of a line segment connecting the left-eye viewpoint and the right-eye viewpoint.
- the display control unit 43 may specify the position of the viewpoint E of the occupant H based on the image data acquired by the internal camera 6B.
- the position of the viewpoint E of the occupant H may be updated at a predetermined cycle based on the image data, or may be determined only once when the vehicle 1 is started.
- the radar 7 includes at least one of a millimeter-wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
- the LiDAR unit is configured to detect a surrounding environment of the vehicle 1.
- the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 and then transmit the 3D mapping data to the vehicle control unit 3.
- the vehicle control unit 3 specifies the surrounding environment information based on the transmitted 3D mapping data.
- the HMI 8 includes an input unit that receives an input operation from a driver, and an output unit that outputs driving information and the like to the driver.
- the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching an operation mode of the vehicle 1, and the like.
- the output unit is a display (excluding HUD) that displays various types of traveling information.
- the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
- the wireless communication unit 10 receives information (e.g., travel information) related to another vehicle around the vehicle 1 from another vehicle and transmits information (e.g., travel information) related to the vehicle 1 to the other vehicle.
- information e.g., travel information
- the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as a traffic light and a traffic light, and transmit travel information of the vehicle 1 to the infrastructure equipment (road-vehicle communication).
- the wireless communication unit 10 receives information about the pedestrian from a portable electronic device (a smartphone, a tablet, a wearable device, or the like) carried by the pedestrian, and transmits own-vehicle traveling information of the vehicle 1 to the portable electronic device.
- a portable electronic device a smartphone, a tablet, a wearable device, or the like
- the vehicle 1 may communicate directly with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate with an access point. Further, the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network (not shown).
- the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN), and a radio access network (RAN).
- the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark), or Li-Fi.
- the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device using the fifth generation mobile communication system (5G).
- 5G fifth generation mobile communication system
- the storage device 11 is an external storage device such as a hard disk drive (HDD) or an SSD (Solid State Drive).
- the storage device 11 may store two-dimensional or three-dimensional map information and / or a vehicle control program.
- the three-dimensional map information may be constituted by 3D mapping data (point cloud data).
- the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
- the map information and the vehicle control program may be updated via the wireless communication unit 10 and the communication network.
- the vehicle control unit 3 When the vehicle 1 runs in the automatic driving mode, the vehicle control unit 3 performs at least one of a steering control signal, an accelerator control signal, and a brake control signal based on driving state information, surrounding environment information, current position information, map information, and the like. Generate one automatically.
- the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
- the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
- the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal.
- the vehicle control unit 3 automatically controls the traveling of the vehicle 1 based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. That is, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
- the vehicle control unit 3 when the vehicle 1 runs in the manual driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to a manual operation of the accelerator pedal, the brake pedal, and the steering wheel by the driver.
- the steering control signal, the accelerator control signal, and the brake control signal are generated by the driver's manual operation, so that the driving of the vehicle 1 is controlled by the driver.
- the operation mode includes an automatic operation mode and a manual operation mode.
- the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
- the vehicle system 2 In the fully automatic driving mode, the vehicle system 2 automatically performs all traveling control of steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
- the vehicle system 2 In the advanced driving support mode, the vehicle system 2 automatically performs all of the driving control such as steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although the driver can drive the vehicle 1.
- the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs a part of the driving control among the steering control, the brake control, and the accelerator control, and the driver drives the vehicle 1 with the driving support of the vehicle system 2.
- the vehicle system 2 In the manual driving mode, the vehicle system 2 does not automatically perform the traveling control, and the driver drives the vehicle 1 without driving assistance of the vehicle system 2.
- the driving mode of the vehicle 1 may be switched by operating a driving mode switch.
- the vehicle control unit 3 changes the driving mode of the vehicle 1 into four driving modes (a fully automatic driving mode, an advanced driving support mode, a driving support mode, and a manual driving mode) according to the driver's operation on the driving mode changeover switch. ) Switch between.
- the driving mode of the vehicle 1 is automatically set based on information on a travelable section in which the automatic driving vehicle can travel, a driving prohibited section in which the driving of the automatic driving vehicle is prohibited, or information on the external weather condition. It may be switched.
- the vehicle control unit 3 switches the operation mode of the vehicle 1 based on the information.
- the driving mode of the vehicle 1 may be automatically switched by using a seating sensor, a face direction sensor, or the like. In this case, the vehicle control unit 3 switches the driving mode of the vehicle 1 based on the output signal from the sitting sensor or the face orientation sensor.
- FIG. 4 is a flowchart for explaining an example of the operation of the display system 4.
- FIG. 5 is a diagram illustrating a state in which light from the outside of the vehicle 1 is blocked by the front window 60.
- FIG. 6 is a diagram illustrating an example of a surrounding environment image displayed in the HUD display area D1.
- FIG. 7 is a table showing a specific example of the "predetermined condition" shown in the flowchart of FIG.
- step S1 the display control unit 43 determines whether a predetermined condition associated with the vehicle 1 or the surrounding environment of the vehicle 1 is satisfied. If the determination result in step S1 is YES, the display control unit 43 displays a surrounding environment image indicating the surrounding environment of the vehicle 1 on the front window 60 (specifically, the HUD display area D1), and also displays the front window. The transmittance at step 60 is reduced (step S2). On the other hand, if the decision result in the step S1 is NO, this processing ends.
- step S1 specific examples of the “predetermined condition” in step S1 include the following six conditions. 1) When the light pattern is emitted on the road surface 2) When the driving mode of the vehicle 1 is the advanced driving support mode or the fully automatic driving mode 3) The brightness of the surrounding environment of the vehicle 1 is less than or equal to the first brightness In some cases 4) When the brightness of the surrounding environment of the vehicle 1 is equal to or higher than the second brightness 5) In the case where the road on which the vehicle 1 is currently traveling is an autonomous vehicle dedicated road 6) In the current position of the vehicle 1 When the weather is bad
- step S1 When the light pattern is emitted on the road surface
- the display controller 43 determines that the road surface drawing device 45 emits the light pattern toward the road surface (YES in step S1), the display controller 43 displays the surrounding environment on the front window 60. The image is displayed, and the transmittance of the front window 60 is reduced (step S2). At this point, the display control unit 43 controls the operation of the road surface drawing device 45. Therefore, when the road surface drawing device 45 is driven, the display control unit 43 may display the surrounding environment image on the front window 60 and reduce the transmittance of the front window 60.
- the display control unit 43 receives the information indicating the driving mode of the vehicle 1 from the vehicle control unit 3 and then sets the driving mode of the vehicle 1 Is determined to be the advanced driving support mode or the fully automatic driving mode (YES in step S1), the surrounding environment image is displayed on the front window 60, and the transmittance of the front window 60 is reduced (step S2).
- the vehicle control unit 3 acquires illuminance data indicating the illuminance of the surrounding environment of the vehicle 1 from an illuminance sensor, and then converts the illuminance data. It is transmitted to the display control unit 43.
- the display control unit 43 determines that the illuminance of the surrounding environment of the vehicle 1 is equal to or less than the first illuminance based on the illuminance data (YES in step S1), the surrounding environment image is displayed on the front window 60. Is displayed, and the transmittance of the front window 60 is reduced (step S2).
- step S1 when the vehicle 1 is traveling at night or when the vehicle 1 is traveling in a tunnel, the determination result of step S1 is YES.
- the illuminance of the surrounding environment has been described as an example of the brightness of the surrounding environment, but the brightness is not limited to the illuminance.
- step S1 When the brightness of the surrounding environment of the vehicle 1 is equal to or greater than the second brightness, the display control unit 43 sets the illuminance of the surrounding environment of the vehicle 1 to the second illuminance based on the illuminance data acquired from the illuminance sensor. If it is determined that this is the case (YES in step S1), the surrounding environment image is displayed on the front window 60, and the transmittance of the front window 60 is reduced (step S2). For example, when the vehicle 1 is illuminated with very bright light (sunlight, illumination light for illuminating a construction site, or the like), the determination result in step S1 is YES.
- step S2 When the road on which the vehicle 1 is currently traveling is an autonomous vehicle dedicated road The vehicle control unit 3 acquires the current position information indicating the current position of the vehicle 1 from the GPS 9 and the map information from the storage device 11. get. Next, the vehicle control unit 3 transmits the current position information and the map information to the display control unit 43. Next, the display control unit 43 specifies a road on which the vehicle 1 is currently traveling, based on the current position information and the map information. Next, when the display control unit 43 determines that the road on which the vehicle 1 is currently traveling is an autonomous vehicle dedicated road (YES in step S1), the display control unit 43 displays the surrounding environment image on the front window 60 and Then, the transmittance of the front window 60 is reduced (step S2).
- the vehicle control unit 3 When the weather at the current position of the vehicle 1 is bad weather
- the vehicle control unit 3 When the weather at the current position of the vehicle 1 is bad weather
- the weather information is transmitted to the display control unit 43.
- the display control unit 43 determines that the weather at the current position of the vehicle 1 is bad weather (that is, rain, snow, or the like) based on the received weather information (YES in step S1), the front window
- the peripheral environment image is displayed on the front window 60, and the transmittance of the front window 60 is reduced (step S2).
- the display control unit 43 may determine whether the weather at the current position of the vehicle 1 is bad weather based on information indicating whether the wiper is driving.
- the display control unit 43 may determine that the weather at the current position of the vehicle 1 is bad weather. In addition, the display control unit 43 determines whether the weather at the current position of the vehicle 1 is bad weather, based on the weather information obtained from the external weather sensor or the weather information obtained from a server on the communication network. Is also good.
- the occupant H receives a visual field (hereinafter referred to as a direct visual field) that is visually recognized by the occupant H through the front window 60 of the vehicle 1 according to a predetermined condition associated with the vehicle 1 or the surrounding environment of the vehicle 1. ),
- the surrounding environment of the vehicle 1 can be visually recognized through the surrounding environment image. As described above, it is possible to prevent the visibility of the occupant H from lowering with respect to the surrounding environment of the vehicle 1.
- the front window 60 may include a glass plate and a liquid crystal shutter arranged on the glass plate.
- the liquid crystal shutter functions as a transmittance adjuster that can adjust the transmittance of light passing through the liquid crystal shutter.
- the liquid crystal shutter has, for example, two polarizing filters and a liquid crystal layer provided between the two polarizing filters.
- One of the two polarizing filters is configured to pass light polarized in a predetermined direction, while the other of the two polarizing filters passes light polarized in a direction perpendicular to the predetermined direction. You may be comprised so that it may make it.
- a voltage is applied to the liquid crystal layer, the arrangement direction of the liquid crystal molecules in the liquid crystal layer changes, so that the transmittance of light passing through the liquid crystal shutter can be adjusted.
- the display control unit 43 can reduce the transmittance of the liquid crystal shutter (that is, the front window 60) by adjusting the voltage applied to the liquid crystal layer. For example, it is possible to set the transmittance of the liquid crystal shutter to 10% or less. As described above, by reducing the transmittance of the front window 60, it is possible to prevent the occupant from visually recognizing light from outside the vehicle 1 as shown in FIG. On the other hand, it should be noted that in this state, the occupant H can clearly recognize the surrounding environment image output from the HUD main unit 420.
- the surrounding environment image displayed in the HUD display area D1 may be an image from which raindrops and snow have been removed.
- the display control unit 43 may execute a predetermined image processing for removing raindrops or the like displayed on the still image data (frame). As described above, since the raindrops and the like are removed from the surrounding environment image, the visibility of the occupant H to the surrounding environment can be improved as compared with the direct view.
- the HUD 42 is configured to display a surrounding environment image in the traveling direction of the vehicle 1 on the front window 60. For example, when the vehicle 1 moves forward, a surrounding environment image in front of the vehicle 1 is displayed on the front window 60. In this case, the display control unit 43 displays the surrounding environment video on the HUD 42 based on the image data indicating the surrounding environment in front of the vehicle 1. On the other hand, when the vehicle 1 moves backward, a surrounding environment image behind the vehicle 1 is displayed on the front window 60. In this case, the display control unit 43 displays the surrounding environment video on the HUD 42 based on the image data indicating the surrounding environment behind the vehicle 1.
- the surrounding environment image behind the vehicle 1 is displayed on the front window 60, so that the visibility of the occupant H in the surrounding environment of the vehicle 1 is prevented from lowering. be able to.
- the surrounding environment image may be displayed on all windows of the vehicle 1.
- the surrounding environment image may be displayed in each of the front window 60, the left side window 63, the right side window 62, and the rear window 64 (see FIG. 8).
- the vehicle 1 displays the surrounding environment image indicating the surrounding environment in front of the vehicle 1 on the front window 60 and the surrounding environment image indicating the surrounding environment on the left side of the vehicle 1 in the left side window 63.
- a fourth HUD (not shown) for displaying an image on the rear window 64 may be provided.
- each of the front window 60, the left side window 63, the right side window 62, and the rear window 64 may have a liquid crystal shutter.
- the display control unit 43 controls the front window 60, the left side window 63, the right side window 62, and the rear window 64.
- the occupant H can clearly see the surrounding environment of the vehicle 1 through the surrounding environment images displayed in all the windows, and prevent the occupant H from lowering the visibility of the surrounding environment of the vehicle 1. Can be.
- the display control unit 43 displays the surrounding environment image on the front window 60 and changes the transmittance of the front window 60 according to a predetermined condition associated with the vehicle 1 or the surrounding environment of the vehicle 1. Although lowered, the present embodiment is not limited to this.
- the display control unit 43 displays the surrounding environment image on the front window 60 and lowers the transmittance of the front window 60 in response to a manual operation of the occupant H (for example, a predetermined input operation on the HUD 42). Is also good.
- step S2 in FIG. 4 not only the surrounding environment video but also video content such as a movie and an advertisement video may be displayed on the front window 60. Further, the surrounding environment image may be displayed on the front window 60, and the image content may be displayed on a window other than the front window 60.
- FIG. 9 is a front view of a vehicle 1A on which the vehicle system 2A is mounted.
- FIG. 10 is a block diagram of the vehicle system 2A.
- the vehicle 1A is a vehicle (automobile) that can run in the automatic driving mode.
- the vehicle system 2A includes a vehicle control unit 103, a vehicle display system 104 (hereinafter, simply referred to as “display system 104”), a sensor 105, a camera 106, and a radar 107. . Further, vehicle system 2A includes an HMI (Human Machine Interface) 108, a GPS (Global Positioning System) 109, a wireless communication unit 110, and a storage device 111. Further, the vehicle system 2A includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
- HMI Human Machine Interface
- GPS Global Positioning System
- the vehicle control unit 103 is configured to control the traveling of the vehicle 1A.
- the vehicle control unit 103 includes, for example, at least one electronic control unit (ECU: Electronic Control Unit).
- the electronic control unit includes a computer system including one or more processors and one or more memories (eg, SoC (System on a Chip)), and an electronic circuit including active elements such as transistors and passive elements.
- the processor is, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and / or a TPU (Tensor Processing Unit).
- the CPU may be configured by a plurality of CPU cores.
- the GPU may be configured by a plurality of GPU cores.
- the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
- the vehicle control program may be stored in the ROM.
- the vehicle control program may include an artificial intelligence (AI) program for automatic driving.
- AI is a program constructed by supervised or unsupervised machine learning (particularly, deep learning) using a multilayer neural network.
- the RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating a surrounding environment of the vehicle.
- the processor may be configured to load a program specified from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
- the computer system may be constituted by a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
- a non-Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
- the computer system may be configured by a combination of a Neumann computer and a non-Neumann computer.
- the display system 104 includes a display control unit 140, a lighting device 141, a road surface drawing device 142, and a head-up display (HUD) 143.
- the road surface drawing device 142 is an example of a first display device.
- the HUD 143 is an example of a second display device.
- the illumination device 141 is configured to emit light to the outside of the vehicle 1A.
- the lighting device 141 includes a left headlamp 120L and a right headlamp 120R.
- the lighting device 141 includes, in addition to the head lamps 120L and 120R, a position lamp provided at the front of the vehicle 1A, a rear combination lamp provided at the rear of the vehicle 1A, a turn signal lamp provided at the front or side of the vehicle, Various lamps or the like for notifying a pedestrian or a driver of another vehicle of the status of the own vehicle may be provided.
- the road surface drawing device 142 is configured to emit a light pattern indicating predetermined information toward a road surface outside the vehicle 1A.
- the road surface drawing device 142 includes two road surface drawing devices (a left road surface drawing device 142L and a right road surface drawing device 142R). As shown in FIG. 9, the left road surface drawing device 142L is mounted on the left head lamp 120L, and the right road surface drawing device 142R is mounted on the right head lamp 120R. In the following description, the left road surface drawing device 142L and the right road surface drawing device 142R may be simply referred to as the road surface drawing device 142.
- the road surface drawing device 142 includes, for example, a laser light source configured to emit laser light, an optical deflecting device configured to deflect laser light emitted from the laser light source, and an optical system member such as a lens.
- the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green laser light, and a blue laser light, respectively.
- the light deflecting device is, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a galvano mirror, a polygon mirror, or the like.
- the road surface drawing device 142 is configured to draw the light patterns M0 and M1 (see FIG. 12A) on the road surface by scanning with a laser beam.
- the road surface drawing device 142 can draw light patterns of various colors on the road surface.
- the left road surface drawing device 142L and the right road surface drawing device 142R may draw different light patterns on the road surface, or may draw one light pattern on the road surface by combining the respective light patterns. Good.
- the road surface drawing device 142 includes the road surface drawing devices 142L and 142R mounted in the headlamps 120L and 120R.
- the road surface drawing device 142 may draw a light pattern on the road surface.
- the number, location, and shape of the road surface drawing devices 142 are not particularly limited as long as possible.
- the left road surface drawing device 142L and the right road surface drawing device 142R may be arranged near a headlamp. When the number of the road surface drawing devices 142 is one, they may be arranged on the vehicle body roof.
- the number of the road surface drawing devices 142 is four, one road surface is provided in each of the left head lamp 120L, the right head lamp 120R, the left rear combination lamp (not shown), and the right rear combination lamp (not shown).
- the drawing device 142 may be mounted.
- the drawing method of the road surface drawing device 142 may be a DLP (Digital Light Processing) method or an LCOS (Liquid Crystal on silicon) method.
- a DLP Digital Light Processing
- LCOS Liquid Crystal on silicon
- an LED is used instead of a laser as the light source.
- the HUD 143 is configured to display the vehicle travel information to the occupant of the vehicle 1A so that the vehicle travel information related to the travel of the vehicle 1A is superimposed on the real space outside the vehicle 1A.
- the HUD 143 is installed at a predetermined location in the vehicle 1A. For example, as shown in FIG. 12B, HUD 143 is installed on the dashboard of vehicle 1A. The location of the HUD 143 is not particularly limited.
- the HUD 143 functions as a visual interface between the vehicle 1A and an occupant.
- the HUD 143 is configured to visually present vehicle traveling information to an occupant.
- the vehicle travel information includes information related to driving of the vehicle 1A (for example, information related to automatic driving, etc.), pedestrian information, and the like.
- the HUD 143 is configured to display information obtained by vehicle-to-vehicle communication between the vehicle 1A and another vehicle and / or road-to-vehicle communication between the vehicle 1A and infrastructure equipment (such as a traffic light). .
- HUD 143 is configured to display messages sent from other vehicles and / or infrastructure equipment.
- the occupant of the vehicle 1A can grasp the intention of another vehicle or the like by looking at the message displayed by the HUD 143.
- the HUD 143 is configured to display information obtained from the sensor 105 and / or the camera 106.
- the occupant of the vehicle 1A can grasp the traveling state of the vehicle 1A and / or pedestrian information by looking at the message displayed by the HUD 143.
- the information displayed by the HUD 143 is visually presented to the occupant of the vehicle 1A so as to be superimposed on the real space ahead of the vehicle 1A.
- the HUD 143 functions as an AR (Augmented Reality) display.
- the HUD 143 includes an image generation unit and a transparent screen on which an image generated by the image generation unit is displayed.
- the image generation unit may include, for example, a laser light source configured to emit a laser beam, and a light configured to deflect the laser beam emitted from the laser light source.
- a deflecting device and an optical system member such as a lens are provided.
- the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green laser light, and a blue laser light, respectively.
- the light deflecting device is, for example, a MEMS mirror.
- the drawing method of the HUD 143 may be a DLP (Digital Light Processing) method or an LCOS (Liquid Crystal on silicon) method. In this case, an LED is used instead of a laser as the light source.
- the HUD 143 may not include a transparent screen.
- the image generated by the image generation unit may be displayed on windshield 100 of vehicle 1A.
- the display control unit 140 is configured to control driving of the lighting device 141.
- the display control unit 140 controls the lighting device 141 to emit predetermined light based on information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A.
- the display control unit 140 is configured to control the driving of the road surface drawing device 142 and the HUD 143.
- the display control unit 140 causes the road surface drawing device 142 to present a predetermined light pattern to another vehicle or a pedestrian. Control.
- the display control unit 140 controls the HUD 143 based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A so that predetermined vehicle traveling information is presented to the occupant.
- the display control unit 140 is constituted by an electronic control unit (ECU), and is electrically connected to a power supply (not shown).
- the electronic control unit includes a computer system (eg, SoC, etc.) including one or more processors and one or more memories, and an analog processing circuit including active elements such as transistors and passive elements.
- the analog processing circuit includes a lamp driving circuit (for example, an LED driver or the like) configured to control driving of the lamp of the lighting device 141. Further, the analog processing circuit is configured to control the driving of the laser light source of the road surface drawing device 142 and the first laser light source control circuit, and to control the driving of the optical deflector of the road surface drawing device 142.
- a first light deflection device control circuit is configured to control the driving of the laser light source of the road surface drawing device 142 and the first laser light source control circuit.
- the analog processing circuit includes a second laser light source control circuit configured to control the driving of the laser light source of the HUD 143 and a second optical deflector control circuit configured to control the driving of the light deflector of the HUD 143.
- the processor is, for example, a CPU, an MPU, a GPU, and / or a TPU.
- the memory includes a ROM and a RAM.
- the computer system may be configured by a non-Neumann computer such as an ASIC or an FPGA.
- a common display control unit 140 is provided for the lighting device 141, the road surface drawing device 142, and the HUD 143, but a separate display control unit may be provided for each.
- the vehicle control unit 103 and the display control unit 140 are provided as separate components, but the vehicle control unit 103 and the display control unit 140 may be integrally configured.
- the display control unit 140 and the vehicle control unit 103 may be configured by a single electronic control unit.
- the vehicle display system 104 has a configuration that also includes the vehicle control unit 103.
- the computer system of the display control unit 140 specifies a light pattern to be applied to the outside of the vehicle 1A, and then outputs a signal indicating the specified light pattern.
- the first laser light source control circuit generates a control signal for controlling the driving of the laser light source based on the signal indicating the light pattern, and transmits the generated control signal to the laser light source of the road surface drawing device 142. I do.
- the first optical deflector control circuit generates a control signal for controlling the driving of the optical deflector based on the signal indicating the light pattern, and then transmits the generated control signal to the road surface drawing device 142. Transmit to the light deflector.
- the display control unit 140 can control the driving of the road surface drawing device 142.
- the computer system of the display control unit 140 specifies image information (for example, information of characters and figures) displayed on the HUD 143 based on the instruction signal transmitted from the vehicle control unit 103, and then specifies the specified image information.
- a signal indicating the image information is transmitted to the second laser light source control circuit and the second light deflection device control circuit.
- the second laser light source control circuit generates a control signal for controlling the driving of the laser light source based on the signal indicating the image information, and transmits the generated control signal to the laser light source of the HUD 143.
- the second light deflecting device control circuit generates a control signal for controlling the driving of the light deflecting device based on the signal indicating the image information, and then transmits the generated control signal to the light deflecting device of the HUD 143.
- the display control unit 140 can control the driving of the HUD 143.
- the sensor 105 includes an acceleration sensor, a speed sensor, a gyro sensor, and the like.
- the sensor 105 is configured to detect a traveling state of the vehicle 1A and output traveling state information to the vehicle control unit 103.
- the sensor 105 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects an external weather condition, and whether a person is in the vehicle. It may further include a human sensor or the like for detecting. Further, the sensor 105 may include a sensor such as an illuminance sensor for acquiring surrounding environment information.
- the camera 106 is a camera including an image sensor such as a charge-coupled device (CCD) or a complementary MOS (CMOS).
- the camera 106 is configured to acquire image data indicating the surrounding environment of the vehicle 1A and transmit the image data to the vehicle control unit 103.
- the vehicle control unit 103 acquires the surrounding environment information based on the transmitted image data.
- the surrounding environment information may include information on an object (pedestrian, other vehicle, sign, etc.) existing outside the vehicle 1A.
- the surrounding environment information may include information on an attribute of an object existing outside the vehicle 1A and information on a distance and a position of the object with respect to the vehicle 1A.
- the camera 106 may be configured as a monocular camera, or may be configured as a stereo camera.
- the radar 107 is a millimeter-wave radar, a microwave radar, and / or a laser radar (for example, a LiDAR unit).
- the LiDAR unit is configured to detect a surrounding environment of the vehicle 1A.
- the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1A, and then transmit the 3D mapping data to the vehicle control unit 103.
- the vehicle control unit 103 specifies the surrounding environment information based on the transmitted 3D mapping data.
- the HMI 108 includes an input unit that receives an input operation from the driver, and an output unit that outputs driving information and the like to the driver.
- the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching an operation mode of the vehicle 1A, and the like.
- the GPS 109 is configured to acquire current position information of the vehicle 1A and output the acquired current position information to the vehicle control unit 103.
- the current position information includes the GPS coordinates (latitude and longitude) of the vehicle 1A.
- the wireless communication unit 110 receives information (e.g., travel information and the like) related to another vehicle around the vehicle 1A from the other vehicle and transmits information (e.g., travel information and the like) related to the vehicle 1A to the other vehicle. (Vehicle-to-vehicle communication).
- the wireless communication unit 110 is configured to receive infrastructure information from infrastructure equipment such as a traffic light and a traffic light, and transmit traveling information of the vehicle 1A to the infrastructure equipment (road-vehicle communication).
- the wireless communication unit 110 receives information about the pedestrian from a portable electronic device (smartphone, tablet, wearable device, or the like) carried by the pedestrian, and transmits own-vehicle traveling information of the vehicle 1A to the portable electronic device.
- the vehicle 1A may directly communicate with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate via an access point. Further, the vehicle 1A may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network such as the Internet.
- the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark), or Li-Fi.
- the vehicle 1A may communicate with another vehicle, infrastructure equipment, or a portable electronic device using the fifth generation mobile communication system (5G).
- 5G fifth generation mobile communication system
- the storage device 111 is an external storage device such as a hard disk drive (HDD) or an SSD (Solid State Drive).
- the storage device 111 may store 2D or 3D map information and / or a vehicle control program.
- the 3D map information may be configured by point cloud data.
- the storage device 111 is configured to output map information and a vehicle control program to the vehicle control unit 103 in response to a request from the vehicle control unit 103.
- the map information and the vehicle control program may be updated via the wireless communication unit 110 and the communication network 200 such as the Internet.
- the vehicle 1A can travel in the automatic driving mode and the manual driving mode.
- the vehicle control unit 103 can selectively execute an automatic driving mode and a manual driving mode.
- the vehicle control unit 103 controls the steering control signal according to the output of an external sensor (at least one of the camera 106, the radar 107, the GPS 109, the wireless communication unit 110, etc.) for acquiring information outside the vehicle 1A.
- An accelerator control signal and a brake control signal are automatically generated.
- the vehicle control unit 103 automatically generates a steering control signal, an accelerator control signal, and a brake control signal according to the output of the external sensor, regardless of the output of the sensor 105 that detects the displacement of the operation element that can be operated by the user. .
- the vehicle control unit 103 controls the steering control signal based on the surrounding environment information ahead of the vehicle 1A acquired by the camera 106, the current position information of the GPS 109, the map information stored in the storage device 111, and the like. An accelerator control signal and a brake control signal are automatically generated. In the automatic driving mode, the vehicle 1A is driven without depending on the user.
- the vehicle control unit 103 In the manual driving mode, the vehicle control unit 103 normally generates a steering control signal, an accelerator control signal, and a brake control signal regardless of the output of the external sensor. That is, in the manual driving mode, the vehicle control unit 103 normally generates a steering control signal based on a user's operation of the steering wheel regardless of the output of the external sensor. Normally, the vehicle control unit 103 generates an accelerator control signal based on the operation of the accelerator pedal by the user, regardless of the output of the external sensor. The vehicle control unit 103 generates a brake control signal based on the operation of the brake pedal by the user, regardless of the output of the external sensor. In the manual driving mode, the vehicle 1A is normally driven by the user.
- the vehicle control unit 103 may execute an anti-lock brake control for controlling a brake control signal according to an output of a wheel speed sensor as the sensor 105, for example.
- the vehicle control unit 103 controls at least one of a steering control signal, an accelerator control signal, and a brake control signal in accordance with an output of a steering angle sensor, a wheel speed sensor, or a yaw rate sensor that is the sensor 105.
- Prevention control Electric Stability Control
- traction control and the like may be executed.
- the vehicle control unit 103 may execute a pre-crash control or a collision avoidance control for generating a steering control signal and a brake control signal according to an output of an external sensor such as the camera 106 in an emergency.
- the vehicle control unit 103 may generate at least one of the steering control signal, the accelerator control signal, and the brake control signal according to the output of the external sensor in an emergency.
- a trigger for generating a steering control signal, an accelerator control signal, and a brake control signal in a normal state is a displacement of an operator such as a steering wheel, an accelerator pedal, and a brake pedal operated by a user.
- the vehicle control unit 103 normally controls (processes) signals such as a steering control signal, an accelerator control signal, and a brake control signal generated by the displacement of the operating element according to the output of the sensor 105 or an external sensor. Is also good.
- the so-called assist driving mode in which the driving of the user is assisted according to the output of the sensor 105 or the external sensor is one form of the manual driving mode.
- the automatic operation mode of the present embodiment corresponds to levels 3 to 5 (excluding emergency situations), and the manual operation mode of the present embodiment
- the operation mode corresponds to levels 0 to 2.
- the display control unit 140 converts the information displayed on one of the road surface drawing device 142 and the HUD 143 based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle acquired from the vehicle control unit 103.
- the road surface drawing device 142 and the HUD 143 are configured to be controlled so as to be displayed on the other of the HUD 142 and the HUD 143.
- the information related to the vehicle 1A includes, for example, driving mode information of the vehicle (for example, driving mode switching information from the HMI 108, driving mode information based on surrounding environment information, and the like).
- Information related to the surrounding environment of the vehicle includes, for example, brightness information of the surrounding environment (for example, brightness information based on image data of the camera 106, brightness information based on weather information acquired from an external server, detection data of the sensor 105). , Etc.), road information on which the vehicle is currently traveling (for example, road information based on map information and current position information), weather information at the current position of the vehicle (for example, a wiper mounted on the vehicle 1A) (Not shown), weather information based on image data of the camera 106, weather information acquired from an external server, and the like.
- the display control unit 140 may directly acquire such information from the sensor 105, the camera 106, the HIM 8, the GPS 109, the wireless communication unit 110, the storage device 111, and the like, instead of the vehicle control unit 103.
- FIG. 11 is a flowchart illustrating an example of display switching control by the display control unit 140 according to the second embodiment.
- FIG. 12A is a diagram for describing an example of road surface drawing before display switching according to the second embodiment.
- FIG. 12B is a diagram for explaining an example of the HUD after display switching according to the second embodiment.
- the display control unit 140 determines that a predetermined condition is satisfied based on information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A.
- the information indicated by the pattern is switched from the display by the road surface drawing device 142 to the display of the HUD 143.
- step S11 the display control unit 140 acquires information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A from the vehicle control unit 103.
- step S12 the display control unit 140 determines whether a predetermined condition is satisfied based on the acquired information.
- the predetermined condition may be a situation where it is difficult for the occupant of the vehicle 1A to recognize the light pattern drawn on the road surface, a case where the vehicle 1A enters an area where the road surface drawing is not permitted, or a case where the occupant of the vehicle 1A For example, when the necessity of drawing the road surface is low.
- the display control unit 140 determines that it is difficult for the occupant of the vehicle 1A to recognize the light pattern drawn on the road surface.
- a white light pattern is drawn on a road surface
- the color difference between the road surface and the light pattern becomes small, and the occupant of the vehicle 1A recognizes the light pattern drawn on the road surface. It becomes difficult to do.
- the visibility ahead of the vehicle 1A is poor, so that it becomes difficult for the occupant of the vehicle 1A to recognize the light pattern drawn on the road surface.
- a daytime bright time zone when a white light pattern is drawn on a road surface, the color difference between the road surface and the light pattern becomes small, and the occupant of the vehicle 1A may recognize the light pattern drawn on the road surface. It becomes difficult.
- the display control unit 140 determines that the vehicle 1A enters an area where road surface drawing is not permitted (for example, an area other than a motorway). In addition, for example, based on the driving mode information, the display control unit 140 may determine whether the vehicle has the sovereignty of the driving operation (for example, the level of the automatic driving mode known as of 2018 is 3 or more). It is determined that the occupant of the vehicle 1A does not need to draw the road surface.
- the display control unit 140 may determine whether the vehicle has the sovereignty of the driving operation (for example, the level of the automatic driving mode known as of 2018 is 3 or more). It is determined that the occupant of the vehicle 1A does not need to draw the road surface.
- step S13 the display control unit 140 outputs the information indicated by the light pattern of the road surface drawing device 142 to the road surface drawing device 142. Is switched to the display of the HUD 143.
- the vehicle 1A draws the light pattern M0 and the light pattern M1 by the road surface drawing device 142.
- the light pattern M0 is a light pattern indicating an arrow in the traveling direction of the vehicle 1A.
- the light pattern M1 is a light pattern indicating information that the pedestrian 101 approaches from the left side at a distance of 20 m.
- the light pattern M1 is composed of a combination of a left arrow indicating the traveling direction of the pedestrian 101, a mark indicating the pedestrian 101, and characters indicating the distance to the pedestrian 101.
- the display control unit 140 determines that the predetermined condition is satisfied based on the information acquired from the vehicle control unit 103, the display unit 140 stores the light pattern M0 and the light pattern in the HUD 143, as shown in FIG. An image M3 and an image M4 corresponding to M1 are displayed. In addition, the display control unit 140 controls the road surface drawing device 142 to stop the road surface drawing. Although the image M4 displays a figure partially different from the light pattern M1 (that is, a figure of a mark indicating a pedestrian is different), the same figure as the light pattern M1 may be displayed. Further, as shown in FIG. 12B, the HUD 143 may display vehicle traveling information such as the speed information M2 before the display switching in step S13.
- step S12 If it is determined in step S12 that the predetermined condition is not satisfied (NO in step S12), the display control unit 140 continues to display the road surface drawing device 142. Note that the display control unit 140 may periodically acquire information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A and perform display switching control. After switching to the display of the HUD 143 in step S13, if the display control unit 140 determines that the predetermined condition is not satisfied, the display control unit 140 may switch to the display by the road surface drawing device 142 again.
- the display control unit 140 causes the HUD 143 to display the information displayed on the road surface drawing device 142 based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A. Therefore, when it is difficult for the occupant to recognize the information displayed by the road surface drawing device 142, the information can be displayed on the HUD 143. Thereby, it is possible to further improve the visibility of the occupant for the information presented by the vehicle 1A.
- the display control unit 140 causes the HUD 143 to display information displayed on the road surface drawing device 142 based on the driving mode of the vehicle 1A. Therefore, the display device can be switched according to the level of the operation mode.
- the display control unit 140 may display information displayed on the road surface drawing device 142 based on the brightness information of the surrounding environment, information on the road on which the vehicle is currently traveling, or weather information on the current position of the vehicle. It is displayed on the HUD 143. Therefore, the display device can be switched according to the situation of the surrounding environment of the vehicle.
- FIG. 13 is a flowchart illustrating an example of display switching control performed by the display control unit according to the third embodiment.
- FIG. 14 is a diagram illustrating an example of the HUD after display switching according to the third embodiment.
- the display control unit 140 according to the second embodiment determines that a predetermined condition is satisfied based on information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A
- All the information indicated by the pattern is switched from the display by the road surface drawing device 142 to the display of the HUD 143.
- the display control unit 140 according to the third embodiment determines that the predetermined condition is satisfied based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A, A part of the information indicated by the light pattern of the drawing device 142 is switched from the display by the road surface drawing device 142 to the display of the HUD 143.
- the display control unit 140 determines only information that is difficult to recognize as a light pattern (for example, character information, relatively fine graphic information, etc.) among the information indicated by the light pattern of the road surface drawing device 142. Is switched to the display of the HUD 143.
- a light pattern for example, character information, relatively fine graphic information, etc.
- step S21 the display control unit 140 acquires information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A from the vehicle control unit 103.
- step S22 the display control unit 140 determines whether a predetermined condition is satisfied based on the acquired information.
- the predetermined condition is, for example, a case where it is difficult for the display control unit 140 to recognize the road surface drawing pattern by the occupant of the vehicle 1A.
- the display control unit 140 determines that it is difficult for the occupant of the vehicle 1A to recognize the light pattern drawn on the road surface.
- a white light pattern is drawn on a road surface
- the color difference between the road surface and the light pattern becomes small, and the occupant of the vehicle 1A recognizes the light pattern drawn on the road surface. It becomes difficult to do.
- the visibility ahead of the vehicle 1A is poor, so that it becomes difficult for the occupant of the vehicle 1A to recognize the light pattern drawn on the road surface.
- the set value serving as a criterion for determining the predetermined condition is set so as to be looser than the condition of the second embodiment. For example, set values such as the amount of snowfall, the amount of rainfall, and the illuminance are set smaller than the set values of the second embodiment.
- step S22 determines in step S23 the light pattern of the light pattern of the road surface drawing device 142. It is determined whether or not information (for example, character information, relatively fine graphic information, etc.) that is difficult to recognize as is included. For example, information that is difficult to recognize as a light pattern is registered in the memory of the display control unit 140 in advance, and the display control unit 140 determines whether the information registered in the memory is included in the information of the light pattern. Judge. Alternatively, the display control unit 140 may display the light pattern drawn by the road surface drawing device 142 on the HUD 143 or the like, and the occupant of the vehicle 1A may select the light pattern for performing display switching.
- information for example, character information, relatively fine graphic information, etc.
- step S24 the display control unit 140 determines only information that is difficult to recognize as a light pattern. Is switched from the display by the road surface drawing device 142 to the display of the HUD 143.
- the vehicle 1A draws the light pattern M0 and the light pattern M1 by the road surface drawing device 142.
- the display control unit 140 may use information (for example, character information, comparison information) that is difficult to recognize as a light pattern. (E.g., detailed graphic information, etc.) is determined. 12A, the light pattern M1 includes character information (characters indicating the distance to the pedestrian 101) and relatively fine graphic information (marks indicating the pedestrian 101). Therefore, the display control unit 140 causes the HUD 143 to display the image information M6 corresponding to the light pattern M1.
- the display control unit 140 causes the road surface drawing device 142 to continue drawing the light pattern M0.
- the image M6 displays a figure partially different from the light pattern M1 (that is, a figure of a mark indicating a pedestrian is different), the same figure as the light pattern M1 may be displayed.
- the HUD 143 may display vehicle traveling information such as the speed information M5 before the display is switched in step S24.
- step S22 If it is determined in step S22 that the predetermined condition is not satisfied (NO in step S22), the display control unit 140 continues to display the road surface drawing device 142. If it is determined in step S23 that information that is difficult to recognize as a light pattern is not included (NO in step S23), the display control unit 140 continues displaying the road surface drawing device 142. Note that the display control unit 140 may periodically acquire information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A and perform display switching control. After switching to the display of the HUD 143 in step S24, if the display control unit 140 determines that the predetermined condition is not satisfied, the display control unit 140 may switch to the display by the road surface drawing device 142 again.
- the display control unit 140 displays a part of the information displayed by the road surface drawing device 142 on the HUD 143 based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A. Let it. For this reason, it is possible to cause the HUD 143 to display information that is difficult for the occupant to recognize among the information displayed by the road surface drawing device 142. Thereby, it is possible to further improve the visibility of the occupant for the information presented by the vehicle 1A.
- the display control unit 140 also causes the HUD 143 to display information displayed by the road surface drawing device 142 based on brightness information of the surrounding environment or weather information at the current position of the vehicle. Therefore, the display device can be switched according to the situation of the surrounding environment of the vehicle.
- FIG. 15 is a flowchart illustrating an example of display switching control by the display control unit according to the fourth embodiment.
- FIG. 16A is a diagram illustrating an example of a HUD before display switching according to the fourth embodiment.
- FIG. 16B is a diagram for describing an example of road surface drawing after display switching according to the fourth embodiment.
- the display control unit 140 determines that the predetermined condition is satisfied based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A, All or a part of the information indicated by the light pattern of the road surface drawing device 142 is switched from the display by the road surface drawing device 142 to the display of the HUD 143.
- the display control unit 140 of the fourth embodiment determines that the predetermined condition is satisfied based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A
- the display control unit 140 uses the HUD 143. All or a part of the displayed information is switched to the display of the road surface drawing device 142.
- the distance between the vehicle 1A and the branch point of the road ahead (hereinafter, referred to as the distance between the vehicle 1A and the branch) is equal to or less than a predetermined distance, it is determined that the predetermined condition is satisfied, and the display is performed by the HUD 143.
- the branch information that is present is switched to the display of the road surface drawing device 142 will be described.
- step S31 the display control unit 140 sends information related to the vehicle 1A or information related to the surrounding environment of the vehicle 1A (for example, current position information, map information, Etc.).
- step S32 the display control unit 140 determines whether the distance between the vehicle 1A and the branch is equal to or less than a predetermined distance based on the acquired information.
- the display control unit 140 preferably performs display using the HUD, and when the distance between the vehicle and the branch is equal to or smaller than the predetermined distance. It is determined that display by road surface drawing is preferable. Note that the set value of the predetermined distance may be set in advance before shipment of the vehicle 1A, or may be appropriately set by an occupant of the vehicle 1A.
- step S32 If it is determined in step S32 that the distance between the vehicle 1A and the branch is equal to or less than the predetermined distance (YES in step S32), the display controller 140 determines in step S33 the branch information displayed by the HUD 143 on the road surface. The display is switched to the display of the drawing device 142.
- the vehicle 1A displays the speed information M7 and the branch information M8 by the HUD 143.
- the branch information M8 includes a combination of characters indicating the distance to the branch and arrows in the traveling direction.
- the branch information M8 indicates that the vehicle turns left at a distance of 40 m.
- the display control unit 140 determines that the distance between the vehicle 1A and the branch is equal to or less than a predetermined distance based on the information acquired from the vehicle control unit 103, as illustrated in FIG.
- the drawing device 142 emits the light pattern M9 corresponding to the branch information M8. Further, the display control unit 140 controls the HUD 143 to stop displaying the branch information M8.
- the branch information M8 may include an image of a road including the branch in addition to the character indicating the distance to the branch and the arrow in the traveling direction.
- step S32 If it is determined in step S32 that the distance between the vehicle 1A and the branch is not less than the predetermined distance (NO in step S32), the display control unit 140 continues displaying the HUD 143 and returns to step S31. If the determination in step S32 is NO, the display switching control may be ended without returning to step S31.
- the display control unit 140 also switches the display of the HUD 143 to the display of the road surface drawing device 142 when information other than the branch information satisfies a predetermined condition. For example, when entering an area where road surface drawing is permitted (for example, a road dedicated to an automatic operator), all or part of the information displayed on the HUD 143 may be switched to the display of the road surface drawing device 142.
- the level of the automatic driving mode known as of 2018 becomes 2 or less (the occupant has the sovereignty of driving operation)
- all or a part of the information displayed on the HUD 143 is transmitted to the road surface drawing device 142.
- the display may be switched. Further, in the nighttime (for example, when the road surface drawing is easy to recognize due to the contrast between the road surface and the light pattern), all or a part of the information displayed on the HUD 143 may be switched to the display of the road surface drawing device 142.
- the display control unit 140 transmits all or a part of the information displayed on the HUD 143 to the road surface drawing device 142 based on the information related to the vehicle 1A or the information related to the surrounding environment of the vehicle 1A. Display. Therefore, it is possible to cause the road surface drawing device 142 to display information that is difficult for the occupant to recognize among the information displayed by the HUD 143. Thereby, it is possible to further improve the visibility of the occupant for the information presented by the vehicle 1A.
- the display control unit 140 causes the road surface drawing device 142 to display information displayed on the HUD 143 based on the driving mode of the vehicle 1A. Therefore, the display device can be switched according to the level of the operation mode.
- the display control unit 140 also outputs information displayed on the HUD 143 based on the brightness information of the surrounding environment, information on the road on which the vehicle is currently traveling, or weather information on the current position of the vehicle, using the road surface drawing device. Displayed at 142. Therefore, the display device can be switched according to the situation of the surrounding environment of the vehicle.
- the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode. Should not be limited to.
- the classification of the driving mode of the vehicle may be changed as appropriate in accordance with the laws and regulations regarding automatic driving in each country.
- the definitions of “fully automatic driving mode”, “advanced driving assistance mode”, and “driving assistance mode” described in the description of the present embodiment are merely examples, and laws and regulations relating to automatic driving in each country or These definitions may be changed as appropriate according to the rules.
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Instrument Panels (AREA)
- Traffic Control Systems (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
車両に設けられた表示システム(4)は、前記車両の内部に位置すると共に、前記車両の周辺環境を示す周辺環境映像を前記車両のウィンドウ上に表示するように構成されたHUD(42)と、前記車両又は前記車両の周辺環境に関連付けられた所定の条件に応じて、前記ウィンドウ上に前記周辺環境映像が表示されるようにHUD(42)を制御すると共に、前記ウィンドウの透過率を下げるように構成された表示制御部(43)と、を備える。
Description
本開示は、車両用表示システム及び当該車両用表示システムを備えた車両に関する。
現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。
このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。
自動運転技術の一例として、特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が照明システムを備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の照明システムに表示されると共に、自動追従走行である旨を示す文字情報が後続車の照明システムに表示される。
また、路面上に図形や文字等の光パターンを照射(描画)することで、車両の情報を、運転者(乗員)自身または歩行者・対向車等の他者に対して通知・警告する車両用表示システムが知られている(特許文献2)。
ところで、車両の周辺環境等の状況に応じて車両の周辺環境に対する乗員の視認性が低下することが考えられる。例えば、車両の現在位置における天候が大雨等の悪天候である場合では、車両のウィンドウを通じて乗員に直接的に視認される視界(以降、直接視界という。)では、車両の周辺環境が十分に視認できない可能性がある。この場合、直接視界では、車両の前方に存在する歩行者等の対象物の存在に乗員が気付かない虞がある。また、白色の光パターンが路面上に描画された場合、路面上に降り積もった雪により、乗員が路面に描画された光パターンを視認し難いことが想定される。
このように、車両の周辺環境等の状況に応じて車両の周辺環境に対する乗員の視認性が低下してしまう状況を改善する余地がある。
このように、車両の周辺環境等の状況に応じて車両の周辺環境に対する乗員の視認性が低下してしまう状況を改善する余地がある。
本開示は、車両の周辺環境に対する乗員の視認性の低下を防止することが可能な車両用表示システム及び車両を提供することを目的とする。また、本開示は、乗員と車両との間のリッチな視覚的コミュニケーションを実現可能な車両用表示システム及び車両を提供することを目的とする。
本開示の一態様の車両用表示システムは、車両に設けられており、
前記車両の内部に位置すると共に、前記車両の周辺環境を示す周辺環境映像を前記車両のウィンドウ上に表示するように構成された第1表示装置と、
前記車両又は前記車両の周辺環境に関連付けられた所定の条件に応じて、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げるように構成された表示制御部と、を備える。
前記車両の内部に位置すると共に、前記車両の周辺環境を示す周辺環境映像を前記車両のウィンドウ上に表示するように構成された第1表示装置と、
前記車両又は前記車両の周辺環境に関連付けられた所定の条件に応じて、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げるように構成された表示制御部と、を備える。
上記構成によれば、車両又は車両の周辺環境に関連付けられた所定の条件に応じてウィンドウ上に周辺環境映像が表示される一方で、ウィンドウの透過率が低下する。このように、上記所定の条件に応じて、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となり、車両の周辺環境に対する乗員の視認性の低下を防止することができる。
また、前記第1表示装置は、前記車両の進行方向における前記周辺環境映像を前記車両のフロントウィンドウ上に表示するように構成されてもよい。
上記構成によれば、車両の進行方向における周辺環境映像が車両のフロントウィンドウに表示される。このため、例えば、車両が後進している場合には、車両の後方における周辺環境映像が車両のフロントウィンドウ上に表示される。このように、車両の周辺環境に対する乗員の視認性の低下を防止することができる。
また、前記第1表示装置は、前記車両の全てのウィンドウ上に前記周辺環境映像を表示すると共に、前記全てのウィンドウの透過率を下げるように構成されてもよい。
上記構成によれば、車両の全てのウィンドウ(特に、フロントウィンドウ、サイドウィンドウ及びバックウィンドウ)上に周辺環境映像が表示されると共に、全てのウィンドウの透過率が低下する。このように、乗員は、全てのウィンドウ上に表示された周辺環境映像を通じて車両の周辺環境を視認することが可能となり、車両の周辺環境に対する乗員の視認性の低下を防止することができる。
また、車両用表示システムは、前記車両の外部の路面に向けて光パターンを出射するように構成された第2表示装置をさらに備えてもよい。
前記表示制御部は、前記第2表示装置が前記路面に向けて前記光パターンを出射したときに、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
前記表示制御部は、前記第2表示装置が前記路面に向けて前記光パターンを出射したときに、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
上記構成によれば、光パターンが路面に向けて出射されたときに、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となる。
また、前記表示制御部は、前記車両の運転モードに応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
上記構成によれば、車両の運転モードに応じて、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となる。
また、前記表示制御部は、前記車両の周辺環境の明るさに応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
上記構成によれば、車両の周辺環境の明るさに応じて、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となる。
また、前記表示制御部は、前記車両が現在走行している道路に応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
上記構成によれば、車両が現在走行している道路に応じて、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となる。
また、前記表示制御部は、前記車両の現在位置における天候に応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げてもよい。
上記構成によれば、車両の現在位置における天候に応じて、乗員は、直接視界に代わって周辺環境映像を通じて車両の周辺環境を視認することが可能となる。特に、車両の現在位置における天候が悪天候である場合には、周辺環境映像を通じて車両の周辺環境に対する乗員の視認性の低下を防止することができる。
本開示の一態様に係る車両用表示システムは、車両に設けられる車両用表示システムであって、
前記車両の外部の路面に向けて所定の情報を示す光パターンを出射するように構成された第1表示装置と、
前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記第1表示装置および前記第2表示装置の一方に表示されている情報を前記第1表示装置および前記第2表示装置の他方に表示させるように構成された表示制御部と、を備える。
前記車両の外部の路面に向けて所定の情報を示す光パターンを出射するように構成された第1表示装置と、
前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記第1表示装置および前記第2表示装置の一方に表示されている情報を前記第1表示装置および前記第2表示装置の他方に表示させるように構成された表示制御部と、を備える。
上記構成によれば、表示制御部は、車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、第1表示装置および第2表示装置の一方に表示させている情報を、第1表示装置および第2表示装置の他方に表示させる。このため、乗員が第1表示装置または第2表示装置により表示されている情報を認識することが困難である場合には、その情報を他方の第2表示装置または第1表示装置に表示させることができる。これにより、車両によって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。このように、乗員と車両との間のリッチな視覚的コミュニケーションを実現可能な車両用表示システムを提供することができる。
また、前記表示制御部は、前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記所定の情報を前記第2表示装置に表示させてもよい。
上記構成によれば、表示制御部は、車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、所定の情報を第2表示装置に表示させる。このため、乗員が第1表示装置により表示されている情報を認識することが困難である場合には、その情報を第2表示装置に表示させることができる。これにより、車両によって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、前記表示制御部は、前記車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、前記車両走行情報を前記第1表示装置に表示させてもよい。
上記構成によれば、表示制御部は、車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、車両走行情報を第1表示装置に表示させる。このため、乗員が第2表示装置により表示されている情報を認識することが困難である場合には、その情報を第1表示装置に表示させることができる。これにより、車両によって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、前記所定の情報は、複数の情報を含み、
前記表示制御部は、前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記所定の情報のうち一部の情報を、前記第2表示装置で表示させてもよい。
前記表示制御部は、前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記所定の情報のうち一部の情報を、前記第2表示装置で表示させてもよい。
上記構成によれば、表示制御部は、車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、所定の情報のうち一部の情報を第2表示装置に表示させる。このため、第1表示装置により表示されている情報のうち乗員が認識することが困難である情報を第2表示装置に表示させることができる。これにより、車両によって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、前記車両に関連した情報は、車両の運転モードに関する情報でもよい。
上記構成によれば、表示制御部は、車両の運転モードに基づいて、第1表示装置および第2表示装置の一方に表示させている情報を、第1表示装置および第2表示装置の他方に表示させる。このため、運転モードのレベルに応じて表示装置の切替えを行うことができる。
また、前記車両の周辺環境に関連した情報は、周辺環境の明るさ情報、前記車両が現在走行している道路情報、または、前記車両の現在位置における天候情報でもよい。
上記構成によれば、表示制御部は、周辺環境の明るさ情報、車両が現在走行している道路情報、または、車両の現在位置における天候情報に基づいて、第1表示装置および第2表示装置の一方に表示させている情報を、第1表示装置および第2表示装置の他方に表示させる。このため、自車両の周辺環境の状況に応じて表示装置の切替えを行うことができる。
また、上記車両用表示システムを備えた車両が提供されてもよい。
上記によれば、車両の周辺環境に対する乗員の視認性の低下を防止することができる車両を提供することができる。
本開示によれば、車両の周辺環境に対する乗員の視認性の低下を防止することが可能な車両用表示システム及び車両を提供することができる。また、乗員と車両との間のリッチな視覚的コミュニケーションを実現可能な車両を提供することができる。
(第1実施形態)
以下、本発明の第1実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
以下、本発明の第1実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図1に示す車両1について設定された相対的な方向である。ここで、「左右方向」は、「左方向」及び「右方向」を含む方向である。「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。前後方向は、図1では示されていないが、左右方向及び上下方向に直交する方向である。
最初に、図1及び図2を参照して、本実施形態に係る車両システム2について以下に説明する。図1は、車両システム2が搭載された車両1の正面図である。図2は、車両システム2のブロック図である。車両1は、自動運転モードで走行可能な車両(自動車)である。
図2に示すように、車両システム2は、車両制御部3と、車両用表示システム4(以下、単に「表示システム4」という。)と、センサ5と、カメラ6と、レーダ7とを備える。さらに、車両システム2は、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11と、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing
Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
表示システム4は、左側ヘッドランプ20Lと、右側ヘッドランプ20Rと、左側路面描画装置45Lと、右側路面描画装置45Rとを備える。さらに、表示システム4は、HUD(Head-Up Display)42と、表示制御部43とを備える。
図1に示すように、左側ヘッドランプ20Lは、車両1の左側前面に配置されており、ロービームを車両1の前方に照射するように構成されたロービームランプと、ハイビームを車両1の前方に照射するように構成されたハイビームランプとを備える。右側ヘッドランプ20Rは、車両1の右側前面に配置されており、ロービームを車両1の前方に照射するように構成されたロービームランプと、ハイビームを車両1の前方に照射するように構成されたハイビームランプとを備える。ロービームランプとハイビームランプの各々は、LED(Light Emitting Diode)やLD(Laser Diode)等の1以上の発光素子と、レンズ及びリフレクタ等の光学部材を有する。また、以降では、説明の便宜上、左側ヘッドランプ20L及び右側ヘッドランプ20Rを単にヘッドランプ20と総称する場合がある。
左側路面描画装置45L(第1表示装置の一例)は、左側ヘッドランプ20Lの灯室内に配置されている。左側路面描画装置45Lは、車両1の外部の路面に向けて光パターンを出射するように構成されている。左側路面描画装置45Lは、例えば、光源部と、駆動ミラーと、レンズやミラー等の光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、レーザ光源又はLED光源である。例えば、レーザ光源は、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、DMD(Digital Mirror Device)、ガルバノミラー、ポリゴンミラー等である。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。光源部がRGBレーザ光源である場合、左側路面描画装置45Lは、レーザ光を走査することで様々の色の光パターンを路面上に描画することが可能となる。
右側路面描画装置45Rは、右側ヘッドランプ20Rの灯室内に配置されている。右側路面描画装置45Rは、車両1の外部の路面に向けて光パターンを出射するように構成されている。左側路面描画装置45Lと同様に、右側路面描画装置45Rは、光源部と、駆動ミラーと、レンズ等の光学系と、光源駆動回路と、ミラー駆動回路とを有する。
また、左側路面描画装置45L及び右側路面描画装置45Rの描画方式は、ラスタースキャン方式、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。DLP方式又はLCOS方式が採用される場合、光源部はLED光源であってもよい。また、左側路面描画装置45L及び右側路面描画装置45Rの描画方式として、プロジェクション方式が採用されてもよい。プロジェクション方式が採用される場合、光源部は、マトリクス状に並んだ複数のLED光源であってもよい。さらに、本実施形態では、左側路面描画装置45L及び右側路面描画装置45Rは、車体ルーフ100A上に配置されてもよい。この点において、1つの路面描画装置が車体ルーフ100A上に配置されてもよい。以降では、説明の便宜上、左側路面描画装置45L及び右側路面描画装置45Rを単に路面描画装置45と総称する場合がある。また、以降の説明において、路面描画装置45は、左側路面描画装置45L、右側路面描画装置45R又は左側路面描画装置45Lと右側路面描画装置45Rの組み合わせを示すものとする。
HUD42(第2表示装置の一例)は、車両1の内部に位置する。具体的には、HUD42は、車両1の室内の所定箇所に設置されている。例えば、図3に示すように、HUD42は、車両1のダッシュボード内に配置されてもよい。HUD42は、車両1と乗員Hとの間の視覚的インターフェースとして機能する。HUD42は、所定の情報(以下、HUD情報という。)が車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように当該HUD情報を乗員Hに向けて表示するように構成されている。このように、HUD42は、AR(Augmented Reality)ディスプレイとして機能する。HUD42よって表示されるHUD情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両1の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)である。また、HUD42は、後述するように、外部カメラ6Aによって撮像された車両1の周辺環境を示す周辺環境映像を表示するように構成されている。
図3に示すように、HUD42は、HUD本体部420と、透明スクリーン421とを有する。HUD本体部420は、光源部と、駆動ミラーと、光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、例えば、レーザ光源又はLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMSミラー、DMD、ガルバノミラー、ポリゴンミラー等である。光学系は、プリズム、レンズ、拡散板、拡大鏡のうち少なくとも一つを含む。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43から送信された画像データに基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43から送信された画像データに基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。
透明スクリーン421は、フロントウィンドウ60の一部によって構成されている。透明スクリーン421は、HUD情報が表示されるHUD表示領域D1を有する(図6参照)。HUD本体部420から出射された光(画像)は、透明スクリーン421のHUD表示領域D1に照射される。次に、HUD表示領域D1は、HUD本体部420から出射された光を乗員Hの視点Eに向けて反射する。この結果、乗員Hは、HUD本体部420から出射された光(画像)を透明スクリーン421の前方の所定の位置において形成された虚像として認識する。このように、HUD42によって表示されるHUD情報(画像)が車両1の前方の現実空間に重畳される結果、乗員Eは、当該HUD情報が道路上に浮いているように感じることができる。
尚、透明スクリーン421は、フロントウィンドウ60から分離した透明なコンバイナーとして構成されてもよい。この場合でも、コンバイナーはHUD表示領域を有する。さらに、乗員Hは、HUD本体部420から出射された光(画像)をコンバイナーの前方の所定の位置において形成された虚像として認識する。また、虚像が形成される位置(虚像形成位置)は、HUD42の光学系の位置(特に、投影光学系の焦点距離)を調整することで可変されてもよい。この点において、表示制御部43は、車両1の前方の対象物の位置と虚像形成位置が略一致するように、HUD42を制御することができる。また、HUD42の描画方式は、ラスタースキャン方向、DLP方式又はLCOS方式であってもよい。DLP方式又はLCOS方式が採用される場合、HUD42の光源部はLED光源であってもよい。
表示制御部43は、路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)、ヘッドランプ20(具体的には、左側ヘッドランプ20Lと右側ヘッドランプ20R)及びHUD42の動作を制御するように構成されている。この点において、表示制御部43は、路面上の所定の位置に光パターンが照射されるように路面描画装置45(具体的には、左側路面描画装置45Lと右側路面描画装置45R)の動作を制御するように構成されている。さらに、表示制御部43は、HUD情報がHUD表示領域D1に表示されるようにHUD42の動作を制御するように構成されている。
表示制御部43は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
本実施形態では、車両制御部3と表示制御部43は、別個の構成として設けられているが、車両制御部3と表示制御部43は一体的に構成されてもよい。この点において、表示制御部43と車両制御部3は、単一の電子制御ユニットにより構成されていてもよい。また、表示制御部43は、ヘッドランプ20と路面描画装置45の動作を制御するように構成された電子制御ユニットと、HUD42の動作を制御するように構成された電子制御ユニットの2つの電子制御ユニットによって構成されてもよい。
センサ5は、加速度センサ、速度センサ及びジャイロセンサのうち少なくとも一つを含む。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。また、センサ5は、着座センサと、顔向きセンサと、外部天候センサと、照度センサとのうちの少なくとも一つを含んでもよい。着座センサは、運転者が運転席に座っているかどうかを検出するように構成されている。顔向きセンサは、運転者の顔の方向を検出するように構成されている。外部天候センサは、車両1の現在位置における外部天候を検出するように構成されている。照度センサは、車両1の周辺環境の明るさ(照度)を検出するように構成されている。
カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、一以上の外部カメラ6Aと、内部カメラ6Bとを含む。外部カメラ6Aは、車両1の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
また、外部カメラ6Aによって取得された画像データは、表示制御部43に送信される。表示制御部43は、送信された画像データに基づいて、車両1の周辺環境を示す周辺環境映像を所定のフレームレートでHUD42(具体的には、HUD表示領域)に表示する。また、4つの外部カメラ6Aが車両1に搭載される場合、4つの外部カメラ6Aの各々は、車両1の四隅のうちの一つに配置されてもよい。この場合、表示制御部43は、各外部カメラ6Aから送信された画像データを合成することで周辺環境映像を生成した上で、当該生成された周辺環境映像をHUD42に表示してもよい。
内部カメラ6Bは、車両1の内部に配置されると共に、乗員Hを示す画像データを取得するように構成されている。内部カメラ6Bは、乗員Hの視点Eをトラッキングするトラッキングカメラとして機能する。ここで、乗員Hの視点Eは、乗員Hの左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて、乗員Hの視点Eの位置を特定してもよい。乗員Hの視点Eの位置は、画像データに基づいて、所定の周期で更新されてもよいし、車両1の起動時に一回だけ決定されてもよい。
レーダ7は、ミリ波レーダ、マイクロ波レーダ及びレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDは除く)である。GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及び無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元又は3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両1の走行を自動的に制御する。つまり、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替える。
次に、図4から図7を参照して本実施形態に係る表示システム4の動作の一例について以下に説明する。図4は、表示システム4の動作の一例を説明するためのフローチャートである。図5は、車両1の外部からの光がフロントウィンドウ60によって遮られる様子を示す図である。図6は、HUD表示領域D1に表示される周辺環境映像の一例を示す図である。図7は、図4のフローチャートに示す「所定の条件」の具体例を示した表である。
図4に示すように、ステップS1において、表示制御部43は、車両1又は車両1の周辺環境に関連付けられた所定の条件を満たすかどうかを判定する。ステップS1の判定結果がYESの場合、表示制御部43は、フロントウィンドウ60(具体的には、HUD表示領域D1)上に、車両1の周辺環境を示す周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。一方、ステップS1の判定結果がNOである場合、本処理は終了する。
図7に示すように、ステップS1の「所定の条件」の具体例としては以下の6つの条件が挙げられる。
1)光パターンが路面上に出射された場合
2)車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合
3)車両1の周辺環境の明るさが第1の明るさ以下である場合
4)車両1の周辺環境の明るさが第2の明るさ以上である場合
5)車両1が現在走行している道路が自動運転車専用道路である場合
6)車両1の現在位置における天候が悪天候である場合
1)光パターンが路面上に出射された場合
2)車両1の運転モードが高度運転支援モード又は完全自動運転モードである場合
3)車両1の周辺環境の明るさが第1の明るさ以下である場合
4)車両1の周辺環境の明るさが第2の明るさ以上である場合
5)車両1が現在走行している道路が自動運転車専用道路である場合
6)車両1の現在位置における天候が悪天候である場合
1)光パターンが路面上に出射された場合
表示制御部43は、路面描画装置45が路面に向けて光パターンを出射したと判定した場合(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。この点において、表示制御部43は路面描画装置45の動作を制御している。従って、表示制御部43は、路面描画装置45を駆動させた場合に、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げてもよい。
表示制御部43は、路面描画装置45が路面に向けて光パターンを出射したと判定した場合(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。この点において、表示制御部43は路面描画装置45の動作を制御している。従って、表示制御部43は、路面描画装置45を駆動させた場合に、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げてもよい。
2)車両1の運動モードが高度運転支援モード又は完全自動運転モードである場合
表示制御部43は、車両1の運転モードを示す情報を車両制御部3から受信した上で、車両1の運転モードが高度運転支援モード又は完全自動運転モードであると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。
表示制御部43は、車両1の運転モードを示す情報を車両制御部3から受信した上で、車両1の運転モードが高度運転支援モード又は完全自動運転モードであると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。
3)車両1の周辺環境の明るさが第1の明るさ以下である場合
車両制御部3は、車両1の周辺環境の照度を示す照度データを照度センサから取得した上で、当該照度データを表示制御部43に送信する。次に、表示制御部43は、照度データに基づいて、車両1の周辺環境の照度が第1の照度以下であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。例えば、車両1が夜間に走行中の場合や車両1がトンネルの中を走行中の場合に、ステップS1の判定結果がYESとなる。尚、周辺環境の明るさの一例として、周辺環境の照度を挙げたが、明るさは照度に限定されるものではない。
車両制御部3は、車両1の周辺環境の照度を示す照度データを照度センサから取得した上で、当該照度データを表示制御部43に送信する。次に、表示制御部43は、照度データに基づいて、車両1の周辺環境の照度が第1の照度以下であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。例えば、車両1が夜間に走行中の場合や車両1がトンネルの中を走行中の場合に、ステップS1の判定結果がYESとなる。尚、周辺環境の明るさの一例として、周辺環境の照度を挙げたが、明るさは照度に限定されるものではない。
4)車両1の周辺環境の明るさが第2の明るさ以上である場合
表示制御部43は、照度センサから取得された照度データに基づいて、車両1の周辺環境の照度が第2の照度以上であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。例えば、車両1が非常に明るい光(太陽光や工事現場を照らす照明光等)によって照らされた場合に、ステップS1の判定結果がYESとなる。
表示制御部43は、照度センサから取得された照度データに基づいて、車両1の周辺環境の照度が第2の照度以上であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。例えば、車両1が非常に明るい光(太陽光や工事現場を照らす照明光等)によって照らされた場合に、ステップS1の判定結果がYESとなる。
5)車両1が現在走行している道路が自動運転車専用道路である場合
車両制御部3は、GPS9から車両1の現在位置を示す現在位置情報を取得すると共に、記憶装置11から地図情報を取得する。次に、車両制御部3は、現在位置情報と地図情報を表示制御部43に送信する。次に、表示制御部43は、現在位置情報と地図情報に基づいて、車両1が現在走行している道路を特定する。次に、表示制御部43は、車両1が現在走行している道路が自動運転車専用道路であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。
車両制御部3は、GPS9から車両1の現在位置を示す現在位置情報を取得すると共に、記憶装置11から地図情報を取得する。次に、車両制御部3は、現在位置情報と地図情報を表示制御部43に送信する。次に、表示制御部43は、現在位置情報と地図情報に基づいて、車両1が現在走行している道路を特定する。次に、表示制御部43は、車両1が現在走行している道路が自動運転車専用道路であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。
6)車両1の現在位置における天候が悪天候である場合
車両制御部3は、外部カメラ6Aから取得された画像データに基づいて、車両1の現在位置における天候を示す天候情報を生成した上で、当該天候情報を表示制御部43に送信する。次に、表示制御部43は、受信した天候情報に基づいて、車両1の現在位置における天候が悪天候(つまり、雨、雪等)であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。尚、表示制御部43は、ワイパーが駆動しているかどうかを示す情報に基づいて、車両1の現在位置における天候が悪天候であるかどうかを判定してもよい。この点において、ワイパーが駆動している場合に、表示制御部43は、車両1の現在位置における天候が悪天候であると判定してもよい。また、表示制御部43は、外部天候センサから取得された天候情報又は通信ネットワーク上のサーバから取得された天候情報に基づいて、車両1の現在位置における天候が悪天候であるかどうかを判定してもよい。
車両制御部3は、外部カメラ6Aから取得された画像データに基づいて、車両1の現在位置における天候を示す天候情報を生成した上で、当該天候情報を表示制御部43に送信する。次に、表示制御部43は、受信した天候情報に基づいて、車両1の現在位置における天候が悪天候(つまり、雨、雪等)であると判定した場合に(ステップS1でYES)、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げる(ステップS2)。尚、表示制御部43は、ワイパーが駆動しているかどうかを示す情報に基づいて、車両1の現在位置における天候が悪天候であるかどうかを判定してもよい。この点において、ワイパーが駆動している場合に、表示制御部43は、車両1の現在位置における天候が悪天候であると判定してもよい。また、表示制御部43は、外部天候センサから取得された天候情報又は通信ネットワーク上のサーバから取得された天候情報に基づいて、車両1の現在位置における天候が悪天候であるかどうかを判定してもよい。
本実施形態によれば、車両1又は車両1の周辺環境に関連付けられた所定の条件に応じて、乗員Hは、車両1のフロントウィンドウ60を通じて乗員Hに視認される視界(以下、直接視界という。)に代わって、周辺環境映像を通じて車両1の周辺環境を視認することが可能となる。このように、車両1の周辺環境に対する乗員Hの視認性の低下を防止することができる。
また、フロントウィンドウ60は、ガラス板と、当該ガラス板上に配置された液晶シャッタとを有してもよい。液晶シャッタは、液晶シャッタを通過する光の透過率を調整可能な透過率調整部として機能する。液晶シャッタは、例えば、2枚の偏光フィルタと当該2枚の偏光フィルタの間に設けられた液晶層とを有する。2枚の偏光フィルタの一方は、所定の方向に偏光した光を通過させるように構成されている一方、2枚の偏光フィルタの他方は、所定の方向とは垂直な方向に偏光した光を通過させるように構成されてもよい。液晶層に電圧が印加されることで、液晶層の液晶分子の配列方向が変化するため、液晶シャッタを通過する光の透過率を調整することができる。特に、表示制御部43は、液晶層に印加される電圧を調整することで液晶シャッタ(つまり、フロントウィンドウ60)の透過率を下げることができる。例えば、液晶シャッタの透過率を10%以下に設定することが可能となる。このように、フロントウィンドウ60の透過率を下げることで、図5に示すように、車両1の外部からの光を乗員が視認できないようにすることができる。一方で、この状態では、乗員Hは、HUD本体部420から出力された周辺環境映像を明確に視認することができる点に留意されたい。
また、車両1の現在位置における天候が雨又は雪の場合に、HUD表示領域D1に表示される周辺環境映像は、雨粒や雪が除去された映像であってもよい。この場合、表示制御部43は、静止画像データ(フレーム)に表示された雨粒等を除去するための所定の画像処理を実行してもよい。このように、周辺環境映像から雨粒等が除去されているため、直接視界と比較して、周辺環境に対する乗員Hの視認性を向上させることができる。
また、HUD42は、車両1の進行方向における周辺環境映像をフロントウィンドウ60上に表示するように構成されている。例えば、車両1が前進する場合に、車両1の前方における周辺環境映像がフロントウィンドウ60上に表示される。この場合、表示制御部43は、車両1の前方における周辺環境を示す画像データに基づいて、周辺環境映像をHUD42に表示する。一方、車両1が後進する場合に、車両1の後方における周辺環境映像がフロントウィンドウ60上に表示される。この場合、表示制御部43は、車両1の後方における周辺環境を示す画像データに基づいて、周辺環境映像をHUD42に表示する。
このように、車両1が後進している場合には、車両1の後方における周辺環境映像がフロントウィンドウ60上に表示されるので、車両1の周辺環境に対する乗員Hの視認性の低下を防止することができる。
また、周辺環境映像は、車両1の全てのウィンドウ上に表示されてもよい。この点において、周辺環境映像は、フロントウィンドウ60、左サイドウィンドウ63、右サイドウィンドウ62、リアウィンドウ64のそれぞれに表示されてもよい(図8参照)。この場合、車両1は、車両1の前方における周辺環境を示す周辺環境映像をフロントウィンドウ60に表示するHUD42と、車両1の左側方における周辺環境を示す周辺環境映像を左サイドウィンドウ63に表示する第2HUD(図示せず)と、車両1の右側方における周辺環境を示す周辺環境映像を右サイドウィンドウ62に表示する第3HUD(図示せず)と、車両1の後方における周辺環境を示す周辺環境映像をリアウィンドウ64に表示する第4HUD(図示せず)とを備えてもよい。また、フロントウィンドウ60、左サイドウィンドウ63、右サイドウィンドウ62、リアウィンドウ64の各々は、液晶シャッタを有してもよい。周辺環境映像がフロントウィンドウ60、左サイドウィンドウ63、右サイドウィンドウ62、リアウィンドウ64に表示される場合、表示制御部43は、フロントウィンドウ60、左サイドウィンドウ63、右サイドウィンドウ62、リアウィンドウ64の各々の透過率を低下させる。このように、乗員Hは、全てのウィンドウに表示された周辺環境映像を通じて車両1の周辺環境を明確に視認することができ、車両1の周辺環境に対する乗員Hの視認性の低下を防止することができる。
本実施形態では、表示制御部43は、車両1又は車両1の周辺環境に関連付けられた所定の条件に応じて、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げているが、本実施形態はこれに限定されるものではない。例えば、表示制御部43は、乗員Hの手動操作(例えば、HUD42に対する所定の入力操作等)に応じて、フロントウィンドウ60上に周辺環境映像を表示すると共に、フロントウィンドウ60の透過率を下げてもよい。
また、図4にステップS2では、周辺環境映像だけでなく映画や広告映像等の映像コンテンツがフロントウィンドウ60上に表示されてもよい。さらに、周辺環境映像がフロントウィンドウ60上に表示されると共に、フロントウィンドウ60以外の他のウィンドウに映像コンテンツが表示されてもよい。
(第2実施形態)
以下、本発明の第2実施形態(以下、第2実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。また、以降では、第1実施形態で説明された構成要素と同一の参照番号が付された構成要素については特に説明を行わない。
以下、本発明の第2実施形態(以下、第2実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。また、以降では、第1実施形態で説明された構成要素と同一の参照番号が付された構成要素については特に説明を行わない。
最初に、図9及び図10を参照して、本実施形態に係る車両システム2Aについて以下に説明する。図9は、車両システム2Aが搭載された車両1Aの正面図である。図10は、車両システム2Aのブロック図である。車両1Aは、自動運転モードで走行可能な車両(自動車)である。
図10に示すように、車両システム2Aは、車両制御部103と、車両用表示システム104(以下、単に「表示システム104」という。)と、センサ105と、カメラ106と、レーダ107とを備える。さらに、車両システム2Aは、HMI(Human Machine Interface)108と、GPS(Global Positioning System)109と、無線通信部110と、記憶装置111とを備える。さらに、車両システム2Aは、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
車両制御部103は、車両1Aの走行を制御するように構成されている。車両制御部103は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及び/又はTPU(Tensor Processing Unit)である。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラムである。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
表示システム104は、表示制御部140と、照明装置141と、路面描画装置142と、ヘッドアップディスプレイ(HUD)143と、を備える。路面描画装置142は、第1表示装置の一例である。HUD143は、第2表示装置の一例である。
照明装置141は、車両1Aの外部に向けて光を出射するように構成されている。照明装置141は、左側ヘッドランプ120Lと、右側ヘッドランプ120Rとを備える。照明装置141は、ヘッドランプ120L、120Rの他に、車両1Aの前部に設けられるポジションランプ、車両1Aの後部に設けられるリアコンビネーションランプ、車両の前部または側部に設けられるターンシグナルランプ、歩行者や他車両のドライバーに自車両の状況を知らせる各種ランプなどを備えてもよい。
路面描画装置142は、車両1Aの外部の路面に向けて所定の情報を示す光パターンを出射するように構成されている。路面描画装置142は、二つの路面描画装置(左側路面描画装置142Lおよび右側路面描画装置142R)を備える。図9に示すように、左側路面描画装置142Lは、左側ヘッドランプ120Lに搭載され、右側路面描画装置142Rは、右側ヘッドランプ120R内に搭載されている。以降の説明では、左側路面描画装置142Lおよび右側路面描画装置142Rを単に路面描画装置142という場合がある。
路面描画装置142は、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光源から出射されたレーザ光を偏向するように構成された光偏向装置と、レンズ等の光学系部材とを備える。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光偏向装置は、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、ガルバノミラー、ポリゴンミラー等である。路面描画装置142は、レーザ光を走査することで光パターンM0,M1(図12A参照)を路面上に描画するように構成されている。レーザ光源がRGBレーザ光源である場合、路面描画装置142は、様々な色の光パターンを路面上に描画することが可能となる。左側路面描画装置142Lおよび右側路面描画装置142Rは、それぞれ別の光パターンを路面上に描画してもよいし、それぞれの光パターンを合成することにより1つの光パターンを路面上に描画してもよい。
尚、本実施形態では、路面描画装置142は、ヘッドランプ120L、120R内に搭載された路面描画装置142L、142Rを備えているが、路面描画装置142が路面上に光パターンを描画することが可能である限りにおいて、路面描画装置142の数、配置場所及び形状は特に限定されるものではない。例えば、左側路面描画装置142Lおよび右側路面描画装置142Rは、ヘッドランプの近傍に配置されてもよい。また、路面描画装置142の数が1つである場合、車体ルーフ上に配置されてもよい。また、路面描画装置142の数が4つである場合、左側ヘッドランプ120L、右側ヘッドランプ120R、左側リアコンビネーションランプ(図示せず)及び右側リアコンビネーションランプ(図示せず)内にそれぞれ1つの路面描画装置142が搭載されてもよい。
また、路面描画装置142の描画方式は、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。この場合、光源としてレーザの代わりにLEDが使用される。
HUD143は、車両1Aの走行に関連した車両走行情報が車両1Aの外部の現実空間と重畳されるように車両走行情報を車両1Aの乗員に向けて表示するように構成されている。HUD143は、車両1Aの車内の所定箇所に設置されている。例えば、図12Bに示すように、HUD143は、車両1Aのダッシュボード上に設置されている。尚、HUD143の設置個所については特に限定されない。HUD143は、車両1Aと乗員との間の視覚的インターフェースとして機能する。特に、HUD143は、車両走行情報を乗員に視覚的に提示するように構成されている。車両走行情報は、車両1Aの運転に係る情報(例えば、自動運転に関連する情報等)や歩行者情報等を含む。例えば、HUD143は、車両1Aと他車両との間の車車間通信及び/又は車両1Aとインフラ設備(信号機等)との間の路車間通信によって得られた情報を表示するように構成されている。この点において、HUD143は、他車両及び/又はインフラ設備から送信されたメッセージを表示するように構成されている。車両1Aの乗員は、HUD143によって表示されたメッセージを見ることで、他車両の意図等を把握することができる。また、例えば、HUD143は、センサ105及び/又はカメラ106から得られた情報を表示するように構成されている。車両1Aの乗員は、HUD143によって表示されたメッセージを見ることで、車両1Aの走行状態及び/又は歩行者情報等を把握することができる。HUD143によって表示された情報は、車両1Aの前方の現実空間に重畳されるように車両1Aの乗員に視覚的に提示される。このように、HUD143は、AR(Augmented Reality)ディスプレイとして機能する。
HUD143は、画像生成ユニットと、画像生成ユニットにより生成された画像が表示される透明スクリーンとを備える。HUD143の描画方式がレーザプロジェクタ方式である場合、画像生成ユニットは、例えば、レーザ光を出射するように構成されたレーザ光源と、レーザ光源から出射されたレーザ光を偏向するように構成された光偏向装置と、レンズ等の光学系部材とを備える。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光偏向装置は、例えば、MEMSミラーである。尚、HUD143の描画方式は、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。この場合、光源としてレーザの代わりにLEDが使用される。
また、HUD143は、透明スクリーンを備えなくてもよい。この場合、画像生成ユニットにより生成された画像は、車両1Aのフロントガラス100上に表示されてもよい。
表示制御部140は、照明装置141の駆動を制御するように構成されている。例えば、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の光を出射するように照明装置141を制御する。また、表示制御部140は、路面描画装置142及びHUD143の駆動を制御するように構成されている。例えば、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、他車両または歩行者に向けて所定の光パターンが提示されるように路面描画装置142を制御する。また、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、乗員に向けて所定の車両走行情報が提示されるようにHUD143を制御する。
表示制御部140は、電子制御ユニット(ECU)により構成されており、図示しない電源に電気的に接続されている。電子制御ユニットは、1以上のプロセッサ及び1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成されるアナログ処理回路とを含む。アナログ処理回路は、照明装置141のランプの駆動を制御するように構成されたランプ駆動回路(例えば、LEDドライバ等)を備える。また、アナログ処理回路は、路面描画装置142のレーザ光源の駆動を制御するように構成された第1レーザ光源制御回路と、路面描画装置142の光偏向装置の駆動を制御するように構成された第1光偏向装置制御回路とを含む。また、アナログ処理回路は、HUD143のレーザ光源の駆動を制御するように構成された第2レーザ光源制御回路と、HUD143の光偏向装置の駆動を制御するように構成された第2光偏向装置制御回路とを含む。プロセッサは、例えば、CPU、MPU、GPU及び/又はTPUである。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
尚、本実施形態では、照明装置141、路面描画装置142及びHUD143に対して共通の表示制御部140が設けられているが、それぞれに対して別個の表示制御部が設けられてもよい。また、本実施形態では、車両制御部103と表示制御部140は、別個の構成として設けられているが、車両制御部103と表示制御部140は一体的に構成されてもよい。この点において、表示制御部140と車両制御部103は、単一の電子制御ユニットにより構成されていてもよい。この場合、車両用表示システム104は、車両制御部103も含んだ構成となる。
例えば、表示制御部140のコンピュータシステムは、車両制御部103から送信された指示信号に基づいて、車両1Aの外部に照射される光パターンを特定した上で、当該特定された光パターンを示す信号を第1レーザ光源制御回路及び第1光偏向装置制御回路に送信する。第1レーザ光源制御回路は、光パターンを示す信号に基づいて、レーザ光源の駆動を制御するための制御信号を生成した上で、当該生成された制御信号を路面描画装置142のレーザ光源に送信する。一方、第1光偏向装置制御回路は、光パターンを示す信号に基づいて、光偏向装置の駆動を制御するための制御信号を生成した上で、当該生成された制御信号を路面描画装置142の光偏向装置に送信する。このようにして、表示制御部140は、路面描画装置142の駆動を制御することができる。
また、表示制御部140のコンピュータシステムは、車両制御部103から送信された指示信号に基づいて、HUD143に表示される画像情報(例えば、文字や図形の情報)を特定した上で、当該特定された画像情報を示す信号を第2レーザ光源制御回路及び第2光偏向装置制御回路に送信する。第2レーザ光源制御回路は、画像情報を示す信号に基づいて、レーザ光源の駆動を制御するための制御信号を生成した上で、当該生成された制御信号をHUD143のレーザ光源に送信する。一方、第2光偏向装置制御回路は、画像情報を示す信号に基づいて、光偏向装置の駆動を制御するための制御信号を生成した上で、当該生成された制御信号をHUD143の光偏向装置に送信する。このようにして、表示制御部140は、HUD143の駆動を制御することができる。
センサ105は、加速度センサ、速度センサ及びジャイロセンサ等を備える。センサ105は、車両1Aの走行状態を検出して、走行状態情報を車両制御部103に出力するように構成されている。センサ105は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。また、センサ105は、照度センサ等の周辺環境情報を取得するセンサを備えてもよい。
カメラ106は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ106は、車両1Aの周辺環境を示す画像データを取得した上で、当該画像データを車両制御部103に送信するように構成されている。車両制御部103は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1Aの外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1Aの外部に存在する対象物の属性に関する情報と、車両1Aに対する対象物の距離や位置に関する情報とを含んでもよい。カメラ106は、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
レーダ107は、ミリ波レーダ、マイクロ波レーダ及び/又はレーザーレーダ(例えば、LiDARユニット)等である。例えば、LiDARユニットは、車両1Aの周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1Aの周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部103に送信するように構成されている。車両制御部103は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
HMI108は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1Aの運転モードを切替える運転モード切替スイッチ等を含む。GPS109は、車両1Aの現在位置情報を取得し、当該取得された現在位置情報を車両制御部103に出力するように構成されている。現在位置情報は、車両1AのGPS座標(緯度及び経度)を含む。
無線通信部110は、車両1Aの周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1Aに関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部110は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1Aの走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部110は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1Aの自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1Aは、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接的に通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1Aは、インターネット等の通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。無線通信規格は、例えば、Wi-Fi(登録商標),Bluetooth(登録商標),ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1Aは、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
記憶装置111は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置111には、2D又は3Dの地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3Dの地図情報は、点群データによって構成されてもよい。記憶装置111は、車両制御部103からの要求に応じて、地図情報や車両制御プログラムを車両制御部103に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部110とインターネット等の通信ネットワーク200を介して更新されてもよい。
車両1Aは、自動運転モードと手動運転モードで走行可能である。車両制御部103は、自動運転モードと手動運転モードとを選択的に実行可能である。
自動運転モードにおいて、車両制御部103は、車両1Aの外部の情報を取得する外部センサ(カメラ106、レーダ107、GPS109、無線通信部110、等の少なくとも一つ)の出力に応じてステアリング制御信号、アクセル制御信号及びブレーキ制御信号を自動的に生成する。車両制御部103は、ユーザが操作可能な操作子の変位を検出するセンサ105の出力と無関係に、外部センサの出力に応じてステアリング制御信号、アクセル制御信号及びブレーキ制御信号を自動的に生成する。
例えば自動運転モードにおいて車両制御部103は、カメラ106が取得した車両1Aの前方の周辺環境情報や、GPS109の現在位置情報と記憶装置111に記憶された地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を自動的に生成する。自動運転モードにおいて、車両1Aはユーザによらずに運転される。
手動運転モードにおいて、車両制御部103は通常時に、外部センサの出力と無関係にステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。すなわち、手動運転モードにおいて、車両制御部103は通常時に、外部センサの出力と無関係に、ユーザのステアリングホイールの操作に基づいてステアリング制御信号を生成する。車両制御部103は通常時に、外部センサの出力と無関係に、ユーザのアクセルペダルの操作に基づいてアクセル制御信号を生成する。車両制御部103は、外部センサの出力と無関係に、ユーザのブレーキペダルの操作に基づいてブレーキ制御信号を生成する。手動運転モードにおいて、車両1Aは通常時はユーザにより運転される。
尚、手動運転モードにおいて車両制御部103は、例えばセンサ105である車輪速センサの出力に応じてブレーキ制御信号を制御するアンチロックブレーキ制御を実行してもよい。また、手動運転モードにおいて車両制御部103は、センサ105である操舵角センサ、車輪速センサやヨーレートセンサの出力に応じてステアリング制御信号やアクセル制御信号、ブレーキ制御信号の少なくとも一つを制御する横滑り防止制御(Electric Stability Control)、トラクション制御などを実行してもよい。
あるいは手動運転モードにおいて車両制御部103は緊急時に、カメラ106などの外部センサの出力に応じてステアリング制御信号とブレーキ制御信号を生成するプリクラッシュ制御や衝突回避制御を実行してもよい。このように手動運転モードにおいて車両制御部103は緊急時には、外部センサの出力に応じてステアリング制御信号、アクセル制御信号及びブレーキ制御信号の少なくとも一つを生成してもよい。
手動運転モードにおいて、通常時にステアリング制御信号、アクセル制御信号及びブレーキ制御信号が生成されるトリガーは、ユーザの操作するステアリングホイール、アクセルペダル、ブレーキペダルといった操作子の変位である。手動運転モードにおいて車両制御部103は通常時に、操作子の変位により生成されたステアリング制御信号、アクセル制御信号及びブレーキ制御信号といった信号をセンサ105や外部センサの出力に応じて制御(加工)してもよい。本実施形態において、ユーザの運転をセンサ105や外部センサの出力に応じてアシストするいわゆるアシスト運転モードは、手動運転モードの一形態である。
2018年現在で知られている自動運転モードのレベル0~5の定義に従えば、本実施形態の自動運転モードはレベル3~5(緊急時等を除く)に該当し、本実施形態の手動運転モードはレベル0~2に該当する。
表示制御部140は、車両制御部103から取得した車両1Aに関連した情報又は車両の周辺環境に関連した情報に基づいて、路面描画装置142およびHUD143の一方に表示されている情報を路面描画装置142およびHUD143の他方に表示させるように、路面描画装置142およびHUD143を制御するように構成されている。車両1Aに関連した情報は、例えば、車両の運転モードの情報(例えば、HMI108からの運転モード切替情報、周辺環境情報に基づく運転モード情報、等)を含む。車両の周辺環境に関連した情報は、例えば、周辺環境の明るさ情報(例えば、カメラ106の画像データに基づく明るさ情報、外部サーバから取得した天候情報に基づく明るさ情報、センサ105の検知データに基づく明るさ情報、等)、車両が現在走行している道路情報(例えば、地図情報および現在位置情報に基づく道路情報)、車両の現在位置における天候情報(例えば、車両1Aに搭載されたワイパー(図示せず)の駆動状態やカメラ106の画像データに基づく天候情報、外部サーバから取得した天候情報等)を含む。尚、表示制御部140は、これらの情報を車両制御部103からではなく、センサ105、カメラ106、HIM8、GPS109、無線通信部110、記憶装置111等から直接取得してもよい。
次に、第2実施形態に係る表示制御部140の表示切替制御の一例について図11から図12Bを主に参照して説明する。図11は、第2実施形態に係る表示制御部140による表示切替制御の一例を説明するためのフローチャートである。図12Aは、第2実施形態に係る表示切替前の路面描画の一例を説明するための図である。図12Bは、第2実施形態に係る表示切替後のHUDの一例を説明するための図である。
第2実施形態に係る表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の条件を満たすと判断した場合には、路面描画装置142の光パターンにより示されている情報を路面描画装置142による表示からHUD143の表示へ切り替える。
図11に示すように、ステップS11において、表示制御部140は、車両制御部103から、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報を取得する。次に、ステップS12において、表示制御部140は、取得した情報に基づいて、所定の条件を満たすか否か判断する。所定の条件とは、車両1Aの乗員が路面描画された光パターンを認識することが難しい状況の場合や、路面描画が許容されていないエリアに車両1Aが進入する場合や、車両1Aの乗員にとって路面描画の必要性が低い場合、等である。
例えば、表示制御部140は、明るさ情報や天候情報に基づいて、車両1Aの乗員が路面描画された光パターンを認識することが難しい状況であると判断する。白色の光パターンを路面上に描画する場合、路面が降り積もった雪により覆われていると、路面と光パターンとの色彩の差が小さくなり、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。また、大雨の場合には、車両1Aの前方の視界が悪いため、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。また、昼間の明るい時間帯では、白色の光パターンを路面上に描画する場合、路面と光パターンとの色彩の差が小さくなり、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。
また、例えば、表示制御部140は、道路情報に基づいて、路面描画が許容されていないエリア(例えば、自動車専用道路以外のエリア)に車両1Aが進入すると判断する。また、例えば、表示制御部140は、運転モード情報に基づいて、運転操作の主権が車両にある場合(例えば、2018年現在で知られている自動運転モードのレベルが3以上)の場合には、車両1Aの乗員にとって路面描画の必要性が低いと判断する。
ステップS12において、所定の条件を満たすと判断した場合には(ステップS12のYES)、表示制御部140は、ステップS13において、路面描画装置142の光パターンにより示されている情報を路面描画装置142による表示からHUD143の表示へ切り替える。
例えば、図12Aに示すように、車両1Aは、路面描画装置142により、光パターンM0及び光パターンM1を描画している。光パターンM0は、車両1Aの進行方向の矢印を示す光パターンである。光パターンM1は、20m先において左側から歩行者101が近付いてくる情報を示す光パターンである。光パターンM1は、歩行者101の進行方向を示す左向き矢印、歩行者101を示すマーク、歩行者101までの距離を示す文字の組み合わせからなる。この状況において、表示制御部140は、車両制御部103から取得した情報に基づいて、所定の条件を満たすと判断した場合には、図12Bに示すように、HUD143に、光パターンM0及び光パターンM1に対応する画像M3および画像M4を表示させる。また、表示制御部140は、路面描画を中止するよう路面描画装置142を制御する。尚、画像M4は、光パターンM1と一部異なる図形(すなわち、歩行者を示すマークの図形が異なる)を表示しているが、光パターンM1と同じ図形を表示してもよい。また、HUD143は、図12Bに示すように、ステップS13の表示切替前から速度情報M2等の車両走行情報を表示していてもよい。
ステップS12において、所定の条件を満たさないと判断した場合には(ステップS12のNO)、表示制御部140は、路面描画装置142の表示を継続する。尚、表示制御部140は、定期的に車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報を取得し、表示切替制御を行ってもよい。また、ステップS13においてHUD143の表示に切り替えた後、表示制御部140は、所定の条件を満たさないと判断した場合には、再び路面描画装置142による表示に切り替えてもよい。
このように、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、路面描画装置142に表示させている情報を、HUD143に表示させる。このため、乗員が路面描画装置142により表示されている情報を認識することが困難である場合には、その情報をHUD143に表示させることができる。これにより、車両1Aによって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、表示制御部140は、車両1Aの運転モードに基づいて、路面描画装置142に表示させている情報を、HUD143に表示させる。このため、運転モードのレベルに応じて表示装置の切替えを行うことができる。
また、表示制御部140は、周辺環境の明るさ情報、車両が現在走行している道路情報、または、車両の現在位置における天候情報に基づいて、路面描画装置142に表示させている情報を、HUD143に表示させる。このため、自車両の周辺環境の状況に応じて表示装置の切替えを行うことができる。
(第3実施形態)
次に、本発明の第3実施形態(以下、第3実施形態という。)に係る表示制御部140の表示切替制御の一例について図13および図14を主に参照して説明する。図13は、第3実施形態に係る表示制御部による表示切替制御の一例を説明するためのフローチャートである。図14は、第3実施形態に係る表示切替後のHUDの一例を説明するための図である。
次に、本発明の第3実施形態(以下、第3実施形態という。)に係る表示制御部140の表示切替制御の一例について図13および図14を主に参照して説明する。図13は、第3実施形態に係る表示制御部による表示切替制御の一例を説明するためのフローチャートである。図14は、第3実施形態に係る表示切替後のHUDの一例を説明するための図である。
第2実施形態に係る表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の条件を満たすと判断した場合には、路面描画装置142の光パターンにより示されている情報の全てを路面描画装置142による表示からHUD143の表示へ切り替える。これに対して、第3実施形態に係る表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の条件を満たすと判断した場合には、路面描画装置142の光パターンにより示されている情報の一部を路面描画装置142による表示からHUD143の表示へ切り替える。
本実施形態では、表示制御部140は、路面描画装置142の光パターンにより示している情報のうち、光パターンとして認識することが難しい情報(例えば、文字情報、比較的細かい図形情報、等)のみをHUD143の表示へ切り替える場合について説明する。
図13に示すように、ステップS21において、表示制御部140は、車両制御部103から、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報を取得する。次に、ステップS22において、表示制御部140は、取得した情報に基づいて、所定の条件を満たすか否か判断する。所定の条件とは、例えば、表示制御部140は、車両1Aの乗員が路面描画パターンを認識することが難しい場合である。
例えば、表示制御部140は、明るさ情報や天候情報に基づいて、車両1Aの乗員が路面描画された光パターンを認識することが難しい状況であると判断する。白色の光パターンを路面上に描画する場合、路面が降り積もった雪により覆われていると、路面と光パターンとの色彩の差が小さくなり、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。また、大雨の場合には、車両1Aの前方の視界が悪いため、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。また、昼間の明るい時間帯では、白色の光パターンを路面上に描画する場合、路面と光パターンとの色彩の差が小さくなり、車両1Aの乗員が路面描画された光パターンを認識することが難しくなる。尚、所定の条件の判断基準となる設定値は、第2実施形態の条件よりも緩くなるように設定する。例えば、積雪量、降雨量、照度等の設定値を第2実施形態の設定値よりも小さく設定する。
ステップS22において、所定の条件を満たすと判断した場合には(ステップS22でYES)、表示制御部140は、ステップS23において、路面描画装置142の光パターンにより示している情報の中で、光パターンとして認識することが難しい情報(例えば、文字情報、比較的細かい図形情報、等)が含まれているか否かを判断する。例えば、光パターンとして認識することが難しい情報は表示制御部140のメモリに予め登録されており、表示制御部140は、メモリに登録されている情報が光パターンの情報に含まれているか否かを判断する。または、表示制御部140は、路面描画装置142により描画されている光パターンをHUD143等に表示し、表示切替を行う光パターンを車両1Aの乗員が選択する構成にしてもよい。
ステップS23において、光パターンとして認識することが難しい情報が含まれていると判断した場合には(ステップS23のYES)、ステップS24において表示制御部140は、光パターンとして認識することが難しい情報のみを路面描画装置142による表示からHUD143の表示に切り替える。
例えば、図12Aに示すように、車両1Aは、路面描画装置142により、光パターンM0及び光パターンM1を描画している。この状況において、表示制御部140は、車両制御部103から取得した情報に基づいて、所定の条件を満たすと判断した場合には、光パターンとして認識することが難しい情報(例えば、文字情報、比較的細かい図形情報、等)が含まれているか判断する。図12Aの光パターンのうち、光パターンM1は、文字情報(歩行者101までの距離を示す文字)及び比較的細かい図形情報(歩行者101を示すマーク)を含んでいる。したがって、表示制御部140は、HUD143に、光パターンM1に対応する画像情報M6を表示させる。また、表示制御部140は、路面描画装置142に、光パターンM0の描画を継続させる。尚、画像M6は、光パターンM1と一部異なる図形(すなわち、歩行者を示すマークの図形が異なる)を表示しているが、光パターンM1と同じ図形を表示してもよい。また、HUD143は、図14に示すように、ステップS24の表示切替前から速度情報M5等の車両走行情報を表示していてもよい。
ステップS22において、所定の条件を満たさないと判断した場合には(ステップS22でNO)、表示制御部140は、路面描画装置142の表示を継続する。また、ステップS23において、光パターンとして認識することが難しい情報が含まれていないと判断した場合には(ステップS23のNO)、表示制御部140は、路面描画装置142の表示を継続する。尚、表示制御部140は、定期的に車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報を取得し、表示切替制御を行ってもよい。また、ステップS24においてHUD143の表示に切り替えた後、表示制御部140は、所定の条件を満たさないと判断した場合には、再び路面描画装置142による表示に切り替えてもよい。
このように、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、路面描画装置142で表示させている情報のうち一部の情報をHUD143で表示させる。このため、路面描画装置142により表示されている情報のうち乗員が認識することが困難である情報をHUD143に表示させることができる。これにより、車両1Aによって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、表示制御部140は、周辺環境の明るさ情報または車両の現在位置における天候情報に基づいて、路面描画装置142で表示させている情報を、HUD143で表示させる。このため、自車両の周辺環境の状況に応じて表示装置の切替えを行うことができる。
(第4実施形態)
次に、本発明の第4実施形態(以下、第4実施形態という。)に係る表示制御部140の表示切替制御の一例について図15から16Bを主に参照して説明する。図15は、第4実施形態に係る表示制御部による表示切替制御の一例を説明するためのフローチャートである。図16Aは、第4実施形態に係る表示切替前のHUDの一例を説明するための図である。図16Bは、第4実施形態に係る表示切替後の路面描画の一例を説明するための図である。
次に、本発明の第4実施形態(以下、第4実施形態という。)に係る表示制御部140の表示切替制御の一例について図15から16Bを主に参照して説明する。図15は、第4実施形態に係る表示制御部による表示切替制御の一例を説明するためのフローチャートである。図16Aは、第4実施形態に係る表示切替前のHUDの一例を説明するための図である。図16Bは、第4実施形態に係る表示切替後の路面描画の一例を説明するための図である。
第1および第2及び第3実施形態では、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の条件を満たすと判断した場合には、路面描画装置142の光パターンにより示されている情報の全てまたは一部を路面描画装置142による表示からHUD143の表示へ切り替える。これに対して、第4実施形態の表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、所定の条件を満たすと判断した場合には、HUD143により表示している全てまたは一部の情報を路面描画装置142の表示へ切り替える。
本実施形態では、車両1Aと前方の道路の分岐箇所との距離(以下、車両1Aと分岐との距離という。)が所定距離以下になると所定の条件を満たすと判断し、HUD143により表示している分岐情報を路面描画装置142の表示へ切り替える場合について説明する。
図15に示すように、ステップS31において、表示制御部140は、車両制御部103から、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報(例えば、現在の位置情報、地図情報、等)を取得する。次に、ステップS32において、表示制御部140は、取得した情報に基づいて、車両1Aと分岐との距離が所定距離以下であるかを判断する。
例えば、表示制御部140は、車両1Aと分岐との距離が所定距離(例えば30M)より大きい場合には、HUDによる表示の方が好ましく、車両と分岐との距離が所定距離以下の場合には、路面描画による表示が好ましいと判断する。尚、所定距離の設定値は、車両1Aの出荷前に予め設定されている、或いは、車両1Aの乗員が適宜設定してもよい。
ステップS32において、車両1Aと分岐との距離が所定距離以下であると判断した場合には(ステップS32のYES)、表示制御部140は、ステップS33において、HUD143により表示されている分岐情報を路面描画装置142の表示に切り替える。
図16Aに示すように、車両1Aは、HUD143により、速度情報M7と分岐情報M8とを表示している。分岐情報M8は、分岐までの距離を示す文字、進行方向の矢印の組み合わせからなる。分岐情報M8は、40m先で左折することを示している。この状況において、表示制御部140は、車両制御部103から取得した情報に基づいて、車両1Aと分岐との距離が所定距離以下であると判断した場合には、図16Bに示すように、路面描画装置142に、分岐情報M8に対応する光パターンM9を出射させる。また、表示制御部140は、分岐情報M8の表示を中止するようHUD143を制御する。尚、分岐情報M8は、分岐までの距離を示す文字及び進行方向の矢印に加えて、分岐を含んだ道路の画像を含んでもよい。
ステップS32において、車両1Aと分岐との距離が所定距離以下ではないと判断した場合には(ステップS32のNO)、表示制御部140は、HUD143の表示を継続すると共に、ステップS31に戻る。尚、ステップS32において、NOと判断された場合には、ステップS31に戻らずに、表示切替制御を終了してもよい。
尚、本実施形態では、車両1Aと分岐との距離が所定距離以下になると、HUD143により表示している分岐情報を路面描画装置142の表示へ切り替える場合について説明したが、これに限定されない。表示制御部140は、分岐情報以外の情報についても、所定の条件を満たす場合にはHUD143の表示から路面描画装置142の表示に切り替える。例えば、路面描画が許容されているエリア(例えば、自動者専用道路)に入る場合、HUD143に表示されている情報の全て又は一部を路面描画装置142の表示に切り替えてもよい。また、2018年現在で知られている自動運転モードのレベルが2以下になる(運転操作の主権が乗員にある)場合、HUD143に表示されている情報の全て又は一部を路面描画装置142の表示に切り替えてもよい。また、夜間の場合(例えば、路面と光パターンのコントラストにより路面描画が認識しやすい場合)、HUD143に表示されている情報の全て又は一部を路面描画装置142の表示に切り替えてもよい。
このように、表示制御部140は、車両1Aに関連した情報又は車両1Aの周辺環境に関連した情報に基づいて、HUD143に表示させている情報の全てまたは一部の情報を路面描画装置142に表示させる。このため、HUD143により表示されている情報のうち乗員が認識することが困難である情報を路面描画装置142に表示させることができる。これにより、車両1Aによって提示される情報に対する乗員の視認性をさらに向上させることが可能となる。
また、表示制御部140は、車両1Aの運転モードに基づいて、HUD143で表示させている情報を、路面描画装置142で表示させる。このため、運転モードのレベルに応じて表示装置の切替えを行うことができる。
また、表示制御部140は、周辺環境の明るさ情報、車両が現在走行している道路情報、または、車両の現在位置における天候情報に基づいて、HUD143で表示させている情報を、路面描画装置142で表示させる。このため、自車両の周辺環境の状況に応じて表示装置の切替えを行うことができる。
以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである
本実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードの区分は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
本出願は、2018年8月6日に出願された日本国特許出願(特願2018-147734号)に開示された内容と、2018年8月15日に出願された日本国特許出願(特願2018-152957号)に開示された内容を適宜援用する。
Claims (15)
- 車両に設けられる車両用表示システムであって、
前記車両の内部に位置すると共に、前記車両の周辺環境を示す周辺環境映像を前記車両のウィンドウ上に表示するように構成された第1表示装置と、
前記車両又は前記車両の周辺環境に関連付けられた所定の条件に応じて、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げるように構成された表示制御部と、を備える車両用表示システム。 - 前記第1表示装置は、前記車両の進行方向における前記周辺環境映像を前記車両のフロントウィンドウ上に表示するように構成されている、請求項1に記載の車両用表示システム。
- 前記第1表示装置は、前記車両の全てのウィンドウ上に前記周辺環境映像を表示すると共に、前記全てのウィンドウの透過率を下げるように構成されている、請求項1に記載の車両用表示システム。
- 前記車両の外部の路面に向けて光パターンを出射するように構成された第2表示装置をさらに備え、
前記表示制御部は、前記第2表示装置が前記路面に向けて前記光パターンを出射したときに、前記ウィンドウ上に前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げる、請求項1から3のうちいずれか一項に記載の車両用表示システム。 - 前記表示制御部は、前記車両の運転モードに応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げる、請求項1から3のうちいずれか一項に記載の車両用表示システム。
- 前記表示制御部は、前記車両の周辺環境の明るさに応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げる、請求項1から3のうちいずれか一項に記載の車両用表示システム。
- 前記表示制御部は、前記車両が現在走行している道路に応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げる、請求項1から3のうちいずれか一項に記載の車両用表示システム。
- 前記表示制御部は、前記車両の現在位置における天候に応じて、前記ウィンドウに前記周辺環境映像が表示されるように前記第1表示装置を制御すると共に、前記ウィンドウの透過率を下げる、請求項1から3のうちいずれか一項に記載の車両用表示システム。
- 車両に設けられる車両用表示システムであって、
前記車両の外部の路面に向けて所定の情報を示す光パターンを出射するように構成された第1表示装置と、
前記車両の内部に位置すると共に、前記車両の走行に関連した車両走行情報が前記車両の外部の現実空間と重畳されるように前記車両走行情報を前記車両の乗員に向けて表示するように構成された第2表示装置と、
前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記第1表示装置および前記第2表示装置の一方に表示されている情報を前記第1表示装置および前記第2表示装置の他方に表示させるように構成された表示制御部と、を備える車両用表示システム。 - 前記表示制御部は、前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記所定の情報を前記第2表示装置に表示させる、請求項9に記載の車両用表示システム。
- 前記表示制御部は、前記車両に関連した情報又は車両の周辺環境に関連した情報に基づいて、前記車両走行情報を前記第1表示装置に表示させる、請求項9に記載の車両用表示システム。
- 前記表示制御部は、前記車両に関連した情報又は前記車両の周辺環境に関連した情報に基づいて、前記所定の情報のうち一部の情報を、前記第2表示装置に表示させる、請求項9に記載の車両用表示システム。
- 前記車両に関連した情報は、車両の運転モードに関する情報である、請求項9から12のうちいずれか一項に記載の車両用表示システム。
- 前記車両の周辺環境に関連した情報は、周辺環境の明るさ情報、前記車両が現在走行している道路情報、または、前記車両の現在位置における天候情報である、請求項9から12のうちいずれか一項に記載の車両用表示システム。
- 請求項1から14のうちいずれか一項に記載の車両用表示システムを備えた車両。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US17/266,271 US11639138B2 (en) | 2018-08-06 | 2019-08-02 | Vehicle display system and vehicle |
| JP2020535737A JP7241081B2 (ja) | 2018-08-06 | 2019-08-02 | 車両用表示システム及び車両 |
| EP19848437.0A EP3835105B1 (en) | 2018-08-06 | 2019-08-02 | Vehicle display system and vehicle |
| EP21208081.6A EP3974231A1 (en) | 2018-08-06 | 2019-08-02 | Vehicle display system and vehicle |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-147734 | 2018-08-06 | ||
| JP2018147734 | 2018-08-06 | ||
| JP2018152957 | 2018-08-15 | ||
| JP2018-152957 | 2018-08-15 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020031915A1 true WO2020031915A1 (ja) | 2020-02-13 |
Family
ID=69414977
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/030579 Ceased WO2020031915A1 (ja) | 2018-08-06 | 2019-08-02 | 車両用表示システム及び車両 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US11639138B2 (ja) |
| EP (2) | EP3835105B1 (ja) |
| JP (1) | JP7241081B2 (ja) |
| CN (1) | CN110803019B (ja) |
| WO (1) | WO2020031915A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021166814A1 (ja) * | 2020-02-17 | 2021-08-26 | ||
| JP2023035095A (ja) * | 2021-08-31 | 2023-03-13 | トヨタ自動車株式会社 | 表示制御装置、表示システム、表示方法及び表示プログラム |
| WO2025142263A1 (ja) * | 2023-12-28 | 2025-07-03 | マレリ株式会社 | 運転支援システム |
Families Citing this family (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7160004B2 (ja) * | 2019-08-30 | 2022-10-25 | トヨタ自動車株式会社 | 表示システム、車両、および、二次電池の状態表示方法 |
| US11538287B2 (en) * | 2019-09-20 | 2022-12-27 | Sonatus, Inc. | System, method, and apparatus for managing vehicle data collection |
| CN114651456B (zh) | 2019-09-20 | 2025-09-30 | 桑纳特斯公司 | 用于交通工具外通信控制的系统、方法和装置 |
| US12261747B2 (en) * | 2019-09-20 | 2025-03-25 | Sonatus, Inc. | System, method, and apparatus to execute vehicle communications using a zonal architecture |
| CN110789533B (zh) * | 2019-09-25 | 2021-08-13 | 华为技术有限公司 | 一种数据呈现的方法及终端设备 |
| US12403921B2 (en) | 2020-03-06 | 2025-09-02 | Sonatus, Inc. | System, method, and apparatus for managing vehicle automation |
| US12528442B2 (en) | 2020-03-06 | 2026-01-20 | Sonatus, Inc. | System, method, and apparatus for managing vehicle data collection |
| WO2021237194A1 (en) * | 2020-05-22 | 2021-11-25 | Optimus Ride, Inc. | Display system and method |
| US11535256B2 (en) * | 2020-10-06 | 2022-12-27 | Ford Global Technologies, Llc | Chionophobia intervention systems and methods |
| KR20220082968A (ko) * | 2020-12-10 | 2022-06-20 | 현대자동차주식회사 | 차량 운전자의 시야 보조 방법 및 그 보조 장치 |
| CN115817425A (zh) * | 2021-09-17 | 2023-03-21 | 现代自动车株式会社 | 用于车辆的制动模式控制系统及制动模式控制方法 |
| CN118894124A (zh) * | 2023-05-05 | 2024-11-05 | 本田技研工业株式会社 | 显示控制装置及其显示控制方法 |
| FR3149578A1 (fr) * | 2023-06-07 | 2024-12-13 | Psa Automobiles Sa | Procédé et dispositif d’indication de présence d’objet dans un environnement d’un véhicule |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09277887A (ja) | 1996-04-16 | 1997-10-28 | Honda Motor Co Ltd | 自動追従走行システム |
| JP2005219583A (ja) * | 2004-02-04 | 2005-08-18 | Denso Corp | 前方視界の視認性向上方法、及び車両用表示装置 |
| JP2008045870A (ja) * | 2006-08-10 | 2008-02-28 | Aisin Aw Co Ltd | 描画システム |
| JP2010072365A (ja) * | 2008-09-18 | 2010-04-02 | Toshiba Corp | ヘッドアップディスプレイ |
| JP2015069111A (ja) * | 2013-09-30 | 2015-04-13 | 株式会社Jvcケンウッド | 画像表示装置、スクリーンおよび画像表示方法 |
| JP2016055691A (ja) | 2014-09-08 | 2016-04-21 | 株式会社小糸製作所 | 車両用表示システム |
| JP2016135629A (ja) * | 2015-01-23 | 2016-07-28 | 株式会社小糸製作所 | 路面描画用灯具ユニット |
| JP2017026417A (ja) * | 2015-07-21 | 2017-02-02 | トヨタ自動車株式会社 | 情報提示システム |
| JP2017056909A (ja) * | 2015-09-18 | 2017-03-23 | マツダ株式会社 | 車両用画像表示装置 |
| WO2017134861A1 (ja) * | 2016-02-05 | 2017-08-10 | 日立マクセル株式会社 | ヘッドアップディスプレイ装置 |
| JP2017206196A (ja) * | 2016-05-20 | 2017-11-24 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
| JP2018147734A (ja) | 2017-03-06 | 2018-09-20 | Jx金属株式会社 | リチウムイオン電池スクラップの処理方法 |
| JP2018152957A (ja) | 2017-03-10 | 2018-09-27 | トヨタ自動車株式会社 | 回転電機 |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1159224A (ja) * | 1997-08-12 | 1999-03-02 | Calsonic Corp | フロントウィンドディスプレイ装置 |
| JP2006311272A (ja) * | 2005-04-28 | 2006-11-09 | Denso Corp | 車両用映像表示装置 |
| JP2007006006A (ja) * | 2005-06-22 | 2007-01-11 | Nissan Motor Co Ltd | 車載情報表示装置及び車両用情報表示方法 |
| JP6263842B2 (ja) * | 2013-02-22 | 2018-01-24 | 日本精機株式会社 | 表示装置 |
| US10067341B1 (en) * | 2014-02-04 | 2018-09-04 | Intelligent Technologies International, Inc. | Enhanced heads-up display system |
| US10017114B2 (en) | 2014-02-19 | 2018-07-10 | Magna Electronics Inc. | Vehicle vision system with display |
| AU2015238339B2 (en) * | 2014-03-25 | 2018-02-22 | Jaguar Land Rover Limited | Navigation system |
| WO2016163295A1 (ja) * | 2015-04-10 | 2016-10-13 | 日立マクセル株式会社 | 映像投射装置 |
| DE102015109132A1 (de) * | 2015-06-10 | 2016-12-15 | Hella Kgaa Hueck & Co. | Vorrichtung und Verfahren zur Darstellung eines Bildes der Umgebung bei Dunst oder Nebel und Fahrzeug mit der Vorrichtung |
| WO2017018844A1 (ko) * | 2015-07-30 | 2017-02-02 | 삼성전자 주식회사 | 자율 주행 차량 및 그의 동작 방법 |
| KR20170015112A (ko) * | 2015-07-30 | 2017-02-08 | 삼성전자주식회사 | 자율 주행 차량 및 그의 동작 방법 |
| KR20170058188A (ko) * | 2015-11-18 | 2017-05-26 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
| US10866415B2 (en) | 2016-02-05 | 2020-12-15 | Maxell, Ltd. | Head-up display apparatus |
| US10989929B2 (en) | 2016-02-05 | 2021-04-27 | Maxell, Ltd. | Head-up display apparatus |
| JP6790543B2 (ja) * | 2016-07-21 | 2020-11-25 | 株式会社Jvcケンウッド | 表示制御装置、方法、プログラム及び表示制御システム |
| KR101850324B1 (ko) | 2016-08-29 | 2018-04-19 | 엘지전자 주식회사 | 램프 및 자율 주행 차량 |
| KR102561132B1 (ko) * | 2016-09-21 | 2023-07-28 | 엘지전자 주식회사 | 차량에 구비된 차량 제어 장치 및 차량의 제어방법 |
-
2019
- 2019-08-02 WO PCT/JP2019/030579 patent/WO2020031915A1/ja not_active Ceased
- 2019-08-02 US US17/266,271 patent/US11639138B2/en active Active
- 2019-08-02 EP EP19848437.0A patent/EP3835105B1/en active Active
- 2019-08-02 JP JP2020535737A patent/JP7241081B2/ja active Active
- 2019-08-02 EP EP21208081.6A patent/EP3974231A1/en not_active Withdrawn
- 2019-08-06 CN CN201910722354.XA patent/CN110803019B/zh active Active
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09277887A (ja) | 1996-04-16 | 1997-10-28 | Honda Motor Co Ltd | 自動追従走行システム |
| JP2005219583A (ja) * | 2004-02-04 | 2005-08-18 | Denso Corp | 前方視界の視認性向上方法、及び車両用表示装置 |
| JP2008045870A (ja) * | 2006-08-10 | 2008-02-28 | Aisin Aw Co Ltd | 描画システム |
| JP2010072365A (ja) * | 2008-09-18 | 2010-04-02 | Toshiba Corp | ヘッドアップディスプレイ |
| JP2015069111A (ja) * | 2013-09-30 | 2015-04-13 | 株式会社Jvcケンウッド | 画像表示装置、スクリーンおよび画像表示方法 |
| JP2016055691A (ja) | 2014-09-08 | 2016-04-21 | 株式会社小糸製作所 | 車両用表示システム |
| JP2016135629A (ja) * | 2015-01-23 | 2016-07-28 | 株式会社小糸製作所 | 路面描画用灯具ユニット |
| JP2017026417A (ja) * | 2015-07-21 | 2017-02-02 | トヨタ自動車株式会社 | 情報提示システム |
| JP2017056909A (ja) * | 2015-09-18 | 2017-03-23 | マツダ株式会社 | 車両用画像表示装置 |
| WO2017134861A1 (ja) * | 2016-02-05 | 2017-08-10 | 日立マクセル株式会社 | ヘッドアップディスプレイ装置 |
| JP2017206196A (ja) * | 2016-05-20 | 2017-11-24 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
| JP2018147734A (ja) | 2017-03-06 | 2018-09-20 | Jx金属株式会社 | リチウムイオン電池スクラップの処理方法 |
| JP2018152957A (ja) | 2017-03-10 | 2018-09-27 | トヨタ自動車株式会社 | 回転電機 |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021166814A1 (ja) * | 2020-02-17 | 2021-08-26 | ||
| WO2021166814A1 (ja) * | 2020-02-17 | 2021-08-26 | 株式会社小糸製作所 | 灯具システム |
| CN115151444A (zh) * | 2020-02-17 | 2022-10-04 | 株式会社小糸制作所 | 灯具系统 |
| US11999295B2 (en) | 2020-02-17 | 2024-06-04 | Koito Manufacturing Co., Ltd. | Vehicle lamp system for drawing road surface pattern |
| JP7595640B2 (ja) | 2020-02-17 | 2024-12-06 | 株式会社小糸製作所 | 灯具システム |
| CN115151444B (zh) * | 2020-02-17 | 2025-09-23 | 株式会社小糸制作所 | 灯具系统 |
| JP2023035095A (ja) * | 2021-08-31 | 2023-03-13 | トヨタ自動車株式会社 | 表示制御装置、表示システム、表示方法及び表示プログラム |
| JP7487714B2 (ja) | 2021-08-31 | 2024-05-21 | トヨタ自動車株式会社 | 表示制御装置、表示システム、表示方法及び表示プログラム |
| WO2025142263A1 (ja) * | 2023-12-28 | 2025-07-03 | マレリ株式会社 | 運転支援システム |
Also Published As
| Publication number | Publication date |
|---|---|
| CN110803019B (zh) | 2023-05-05 |
| US11639138B2 (en) | 2023-05-02 |
| JP7241081B2 (ja) | 2023-03-16 |
| EP3835105A4 (en) | 2022-01-19 |
| US20210300259A1 (en) | 2021-09-30 |
| CN110803019A (zh) | 2020-02-18 |
| EP3835105B1 (en) | 2023-09-27 |
| EP3835105A1 (en) | 2021-06-16 |
| EP3974231A1 (en) | 2022-03-30 |
| JPWO2020031915A1 (ja) | 2021-08-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7241081B2 (ja) | 車両用表示システム及び車両 | |
| JP7254832B2 (ja) | ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 | |
| JP7295863B2 (ja) | 車両用表示システム及び車両 | |
| JP7309724B2 (ja) | 車両用表示システム及び車両 | |
| CN110803100B (zh) | 车辆用显示系统以及车辆 | |
| US12351099B2 (en) | Vehicle display system, vehicle system, and vehicle | |
| WO2021065617A1 (ja) | 車両用表示システム及び車両 | |
| JP7780574B2 (ja) | ヘッドアップディスプレイ | |
| WO2023190338A1 (ja) | 画像照射装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19848437 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020535737 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2019848437 Country of ref document: EP Effective date: 20210309 |