[go: up one dir, main page]

WO2019176200A1 - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
WO2019176200A1
WO2019176200A1 PCT/JP2018/046039 JP2018046039W WO2019176200A1 WO 2019176200 A1 WO2019176200 A1 WO 2019176200A1 JP 2018046039 W JP2018046039 W JP 2018046039W WO 2019176200 A1 WO2019176200 A1 WO 2019176200A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
control device
vehicle control
display
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/046039
Other languages
English (en)
French (fr)
Inventor
光一郎 尾▲崎▼
隆 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to US16/977,266 priority Critical patent/US11935307B2/en
Priority to JP2020505591A priority patent/JP6980897B2/ja
Priority to CN201880088601.9A priority patent/CN111819122B/zh
Priority to DE112018006294.5T priority patent/DE112018006294B4/de
Publication of WO2019176200A1 publication Critical patent/WO2019176200A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/028Guided parking by providing commands to the driver, e.g. acoustically or optically
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Definitions

  • the present invention relates to a vehicle control device that performs driving support.
  • a vehicle control device that detects an obstacle by an obstacle detection device while moving the vehicle from an arbitrary point around the target parking position to the target parking position and parks the vehicle is known.
  • the obstacle detection device stores the detected obstacle position information in the memory.
  • driving assistance such as parking assistance when moving a vehicle from an arbitrary point to a parking position and shipping assistance when moving a vehicle from the parking position to an arbitrary point is provided. It can be executed, and is not limited to parking forms such as garage parking and parallel parking, and can deal with various parking forms.
  • Patent Document 1 it is necessary for the user to manually select each obstacle type, which not only puts a burden on the user but also takes time for automatic parking processing. It was.
  • a vehicle control device capable of automatically distinguishing between a moving body and a stationary body defined as types of obstacles, reducing a user's operation processing, reducing a burden, and shortening a parking processing time. Can be realized.
  • FIG. 1 is a diagram showing an overall configuration of a parking support system which is a vehicle control device to which the present invention is applied.
  • a parking support system that is a vehicle control device is mounted on a vehicle, and is a sonar 11 (11A to 11L) that is an obstacle detection device (obstacle detector) and an obstacle detection device (obstacle).
  • the parking assist system includes a wheel speed sensor 16, a steering angle sensor 17, an accelerator pedal 18, a brake pedal 19, a shift lever 20, and a steering wheel 21 that are connected to each other and are operated by a driver. And a parking assistance ECU (parking assistance unit) 22 to which the received amount is input.
  • a parking assistance ECU parking assistance unit 22 to which the received amount is input.
  • the parking assist ECU 22 includes an obstacle storage unit 22a, an obstacle type determination unit 22b, and an obstacle screen display unit 22c, and is connected to the vehicle control network.
  • the sonar 11 is used for detecting a distance from an obstacle by transmitting an ultrasonic wave toward the periphery of the host vehicle and receiving the reflected wave.
  • the camera 12 is used to image obstacle information with an image sensor attached around the host vehicle.
  • FIG. 2 is a diagram showing the arrangement and detection range of the sonars 11A to 11L and the cameras 12a to 12d mounted on the front, side, and rear of the host vehicle 30.
  • a total of six sonars 11A, 11B, 11C, 11D, 11E, and 11F are arranged in front of the host vehicle 30, and a total of six sonars 11G, 11H, 11I, 11J, 11K, and 11L are arranged.
  • the cameras 12a, 12b, 12c, and 12d are in-vehicle cameras that use an image sensor, detect obstacles around the parking position of the host vehicle 30, and recognize obstacle plate numbers around the host vehicle 30. And used when detecting obstacles around the vehicle.
  • a camera 12 a is attached to the front of the host vehicle 30, cameras 12 b and 12 c are attached to the left and right of the host vehicle 30, and a camera 12 d is attached to the rear of the host vehicle 30.
  • the straight dotted lines shown in FIG. 2 indicate the detection ranges of the cameras 12a to 12d.
  • the overhead view is used when displaying on the display 13.
  • the display unit 13 is configured by, for example, a liquid crystal display. On the display screen of the display unit 13, an overhead image captured by the cameras 12 a to 12 d is displayed, or an image of an image signal from the parking assist ECU 22 is displayed. .
  • a touch panel is adopted for the display screen of the display 13 and is used for various input operations.
  • the speaker 14 is disposed at an appropriate location in the passenger compartment of the host vehicle 30 and is used for voice guidance and warning sound output to the user.
  • the navigation device 15 is a navigation device provided with a map display function for displaying the current position of the host vehicle 30 and the surrounding road map, a route guidance function for guiding a route to the destination, and the like.
  • the navigation device 15 includes a position detector (not shown) that detects the current position of the host vehicle 30.
  • the position detector includes an azimuth sensor that measures the azimuth in front of the host vehicle 30 and a GPS receiver for GPS (Global Positioning System) that measures the position of the vehicle based on radio waves from the satellite.
  • GPS Global Positioning System
  • the vehicle speed pulse signal output from the wheel speed sensor 16 the steering angle signal output from the steering angle sensor 17, etc., the self position and direction of the host vehicle 30 are measured.
  • the wheel speed sensor 16 generates a pulse signal corresponding to the rotation of the wheel of the host vehicle 30, and calculates the moving distance of the host vehicle 30 by accumulating the number of times the wheel speed pulse is generated.
  • the steering angle sensor 17 is a sensor that detects the steering angle of the steering of the host vehicle 30, and calculates the steering angle from the value detected by the steering angle sensor 17.
  • the accelerator pedal 18 is used when a user instructs a driving force to a driving motor (not shown).
  • the brake pedal 19 is used when a user instructs a braking force to a wheel cylinder (not shown).
  • the shift lever 20 is used when the user instructs to move forward and backward, which is the traveling direction of the host vehicle 30.
  • Steering 21 is used when the user operates the left and right front wheels (steering wheels) and instructs the traveling direction of the host vehicle 30.
  • the parking assist ECU 22 includes the obstacle storage unit 22a, the obstacle type determination unit 22b, and the obstacle screen display unit 22c, which are a CPU (Central Processing Unit) and a nonvolatile memory. It is mainly configured as a microcomputer equipped with ROM (Read Only Memory), RAM (Random Access Memory) as a volatile memory, bus, etc., and the CPU executes storage arithmetic processing according to the processing program written in the ROM. To do.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the parking assist ECU 22 first, when the host vehicle is parked in the target parking space (hereinafter referred to as parking position) of the host vehicle by the driving operation of the driver of the host vehicle, the sonars 11A to 11L and the camera are moved while the host vehicle is moved. Information on the detected obstacles 12a to 12d is stored (obstacle storage processing).
  • This obstacle information is stored in the obstacle storage unit 22a which is a non-volatile memory of the parking assist ECU 22.
  • FIG. 3 4, and 5 are diagrams illustrating an operation in which the host vehicle 30 parks at the parking position PA.
  • FIG. 6 is a diagram illustrating a screen display example that automatically distinguishes the types of obstacles in the obstacle selection process, changes the color scheme of the moving body and the stationary body, and indicates the completion of the obstacle information map generation.
  • the host vehicle 30 moves forward into the parking lot, and there are adjacent vehicles 40 and 50 and a wall 60 behind, and the target parking position PA of the host vehicle 30.
  • the target parking position PA of the host vehicle 30 As an example, a case of reversing and parking will be described.
  • FIG. 7 is a flowchart of the obstacle storage process in the embodiment of the present invention.
  • step S ⁇ b> 101 a button “memory start” is displayed on the display screen of the display 13. Then, when the user presses the “memory start” button, the process proceeds to step S102.
  • step S102 the current position of the host vehicle 30 when the user touches “memory start” is set as the origin VO of the temporary coordinate system (VX ⁇ VY) set on the host vehicle 30.
  • the VX axis center line in the front-rear direction of the host vehicle 30
  • the VY axis center line in the vehicle width direction
  • step S103 driving of the sonars 11A to 11L and the cameras 20a to 20d is started.
  • step S104 the user is prompted to start a driving operation (parking operation), and the user manually performs the parking operation.
  • the user first moves the host vehicle 30 forward as indicated by an arrow, and then performs an operation of parking the host vehicle 30 on the target parking frame PAf at the parking position PA while moving backward.
  • step S105 it is determined whether or not the sonars 11A to 11L and the cameras 20a to 20d have detected an obstacle before the host vehicle 30 is parked at the parking position PA. If an affirmative determination is made in step S105, that is, if an obstacle is detected, the process proceeds to step S106.
  • step S105 If negative determination is made in step S105, that is, if no obstacle is detected, the process proceeds to step S107.
  • step S106 the coordinates of the obstacle point in the temporary coordinate system (VX-VY) and the camera 12 are determined from the current position of the host vehicle 30, the mounting positions of the sonars 11A to 11L that detected the obstacle, and the distance to the obstacle.
  • the coordinate value that recognizes the license plate is calculated and stored.
  • step S107 it is determined whether or not the “memory end” button displayed on the display screen of the display unit 13 has been pressed.
  • step S107 If an affirmative determination is made in step S107, that is, if the “memory end” button is pressed, the process proceeds to step S108 assuming that the host vehicle 30 is parked at the parking position PA. If a negative determination is made in step S107, that is, if the “memory end” button has not been pressed, it is determined that the host vehicle 30 has not reached the parking position PA, and the process proceeds to step S105, which is described above. Repeat the process. That is, whether or not the host vehicle 30 has reached the parking position PA and is parked is determined based on whether or not the user has touched the “memory end” button.
  • step S108 the absolute position (latitude and longitude) of the host vehicle 30 parked at the parking position PA and the absolute direction of the host vehicle 30 are stored in the memory 22d of the parking assist ECU 22.
  • step S109 the coordinate values of the obstacle points (vehicles 40, 50, wall 60) stored as the coordinate values on the temporary coordinate system (VX-VY) are stored in the obstacle as shown in FIG.
  • the absolute value stored in the unit 22a is converted into the coordinate value of the actual coordinate system (RX-RY) in which the absolute value of the stored vehicle 30 is the origin RO, the absolute direction of the stored vehicle 30 is the RX axis, and the axis orthogonal thereto is the RY axis.
  • the origin VO of the temporary coordinate system (VX-VY) is also converted into the coordinate value of the real coordinate system (RX-RY).
  • step S110 the obstacle selection process shown in FIG. 8 is executed.
  • step S201 of FIG. 8 the obstacle points are divided into groups by grouping them based on the continuity of the obstacle points converted into the coordinate values of the real coordinate system (RX-RY). Thereby, the coordinate value for each group of obstacle points in the real coordinate system (RX-RY) is determined. Further, processing is performed for associating information for each obstacle detected by the sonar 11 and the camera 12 based on the positional relationship of the obstacles divided from the continuity of the obstacle points and the positional relationship of the obstacles that recognized the license plate.
  • step S202 the process proceeds to a process of changing the color scheme of the moving body and the stationary body for each obstacle displayed on the display 13 from the obstacle information.
  • step 203 it is determined whether there is an obstacle whose color scheme has not been changed. If an affirmative determination is made in step S203, that is, if there is an obstacle whose color scheme has not been changed, the process proceeds to step S204. If a negative determination is made in step S203, that is, if there is no obstacle whose color scheme has not been changed, the process proceeds to step S207.
  • step S204 an affirmative determination is made in step 203, and it is determined whether there is license plate information from the selected obstacle information. That is, the obstacle type discriminating unit 22b discriminates an obstacle that recognizes the license plate from the obstacle information as a moving body, and discriminates an obstacle that does not recognize any other license plate as a stationary body (the obstacle's state). Determine the type).
  • step S204 If an affirmative determination is made in step S204, the process proceeds to step S205. If a negative determination is made, the process proceeds to step S206.
  • step S205 the obstacle type determination unit 22b changes the color scheme of the obstacle information determined as a moving object in step 204. That is, the identification display for identifying the moving object is selected.
  • the color scheme of the moving body is changed to red.
  • the display method there is no provision for the display method, as long as it can be displayed to the user that it is a moving body.
  • the display method such as a method of displaying the moving body with a color scheme other than red, or a method of displaying the moving body with a thick solid line as shown in FIG.
  • step S206 the color scheme of the obstacle information determined as a stationary body in step 204 is changed.
  • the color scheme of the stationary object is changed by selecting blue, which is an identification display for identifying that it is a stationary object.
  • the display method is defined as long as it can be displayed to the user. Is not provided.
  • a stationary object when a stationary object is displayed in a color scheme other than blue, or a moving object and a stationary object can be identified by a hatched display or pattern as in the obstacle information map shown in FIG.
  • a display method for separating the There is no limitation on the display method for separating the.
  • the identification display of the moving body and the identification display of the stationary body can be set to be different from each other so that the moving body and the stationary body can be distinguished from each other.
  • step S207 information on the obstacle distinguished (identified) between the stationary object and the moving object is stored in the obstacle storage unit 22a which is a nonvolatile memory. Further, the obstacle screen display unit 22c displays an obstacle map as shown in FIG. 6 on the display screen of the display unit 13 as the identification display selected by the obstacle type determination unit 22b.
  • the obstacle screen display unit 22c displays on the display unit 13 an obstacle information map indicating the position of the obstacle based on the obstacle information stored in the obstacle storage unit 22a.
  • a content such as “I have stored an obstacle” is displayed on the display 13 to inform the user that the type of the obstacle has been distinguished.
  • step S208 it is determined whether or not the “END” button in the display screen shown in FIG. 6 has been pressed. If an affirmative determination is made in step S208, the process ends. If a negative determination is made, the process proceeds to step S207.
  • the obstacles detected by the sonars 11A to 11L and the cameras 12a to 12d by the obstacle selection process shown in FIG. 8 are classified into the stationary body that cannot move and the types of movable bodies that can move. Since it is automatically distinguished, the obstacle storage unit 22a, which is a non-volatile memory, can store the obstacle information including the type of the obstacle. That is, a stationary body and a moving body can be distinguished and stored.
  • the non-volatile memory is stored in the non-volatile memory by the obstacle storage process described above (obstacle information including obstacle type, shape and size, coordinate value), real coordinate system (RX ⁇ (RY) origin RO, the azimuth of the RX axis, and the coordinate values of the origin VO of the temporary coordinate system (VX-VY) are stored.
  • obstacle information including obstacle type, shape and size, coordinate value
  • RX ⁇ (RY) origin RO the azimuth of the RX axis
  • VX-VY temporary coordinate system
  • the obstacle storage process by the cameras 12a to 12d it is determined whether or not there is an attachment such as dirt on the lenses of the cameras 12a to 12d in the section from the start of storage to the obstacle storage unit 22a. If the obstacle type determination unit 22b of the parking assist ECU 22 determines that there is an object such as dirt on the imaging part such as a lens or an image sensor, it determines that the license plate or surrounding obstacles cannot be detected.
  • the obstacle type determination unit 22b may be configured to prohibit generation of an obstacle map (prohibition of obstacle storage processing).
  • Whether or not there is an adhering substance such as dirt in the imaging portion can be determined by determining whether or not there is a certain image among a plurality of captured images.
  • the parking assist ECU 22b determines whether or not there is an obstacle around the sonars 11A to 11L in the interval from the start of storage to the obstacle storage unit 22a. If the obstacle type determination unit 22b determines that there is an obstacle or the like, it can determine that surrounding obstacles cannot be detected, and can be configured to prohibit generation of an obstacle map (obstacles) Prohibition of physical storage processing).
  • the fact that the obstacle storage process is prohibited can be displayed on the display unit 13 such as “prohibition of the obstacle storage process”.
  • Whether or not there is a shield around the sonars 11A to 11L can be determined based on whether or not any of the sonars 11A to 11L always shows a constant numerical value.
  • step S105 If the lens has dirt or the like and whether or not there is a shielding object around the sonars 11A to 11L is executed subsequent to step S103 in FIG. If there is no shield around 11A to 11L, the process can proceed to step S105. If the lens is dirty or there is an obstacle around the sonars 11A to 11L, the obstacle storage process is prohibited.
  • the lens dirt determination and the sonar shield presence / absence determination may be performed together, or only one of the lens dirt determination and the sonar shield presence / absence determination may be performed. May be.
  • the distinction between the moving body and the stationary body defined as the types of obstacles existing around the host vehicle is automatically performed, the user's operation processing is reduced, and the burden is reduced. Therefore, it is possible to realize a vehicle control device that can reduce the parking processing time by reducing the amount of time.
  • the type of obstacle is distinguished based on the presence or absence of a license plate by camera recognition.
  • the process may be changed to be determined as a moving object.
  • the type of obstacle is distinguished by the presence or absence of a license plate by camera recognition.Bikes and the like have a license plate only at the rear, so only sensing from the front and moving objects It cannot be distinguished and is stored as a stationary object.
  • the object type discriminating unit 22b performs identification display change processing on the stationary body or the moving body in response to the user's change instruction, and the identification display subjected to the change processing is displayed on the display unit 13 via the obstacle screen display unit 22c. Display on the display screen. Accordingly, it is possible to cope with a moving body such as a motorcycle having a license plate only behind, a bicycle without a license plate, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

障害物の種類とし定義する移動体と静止体との区別を自動で行い、ユーザーの操作処理を低減し、負担を軽減して駐車処理時間を短縮可能な車両制御装置を実現する。 障害物点の連続性からグループ化を行うことで、障害物毎に分割し、障害物毎に移動体、静止体の配色を変更し、配色を変更していない障害物があるか否かを判別する(ステップS201~S203)。配色を変更していない障害物がある場合はナンバープレートの情報があるか否かを判別し、障害物が移動体か静止体かを判別し、移動体を赤、静止体を青に変更する(ステップS204~S206)。静止体と移動物とに区別された障害物の情報を表示器に表示させユーザーにメッセージとして「障害物を記憶しました」のような内容を表示して障害物の種類の区別が終了したことをユーザーに伝える。

Description

車両制御装置
 本発明は、運転支援を行う車両制御装置に関する。
 目標とする駐車位置周辺における任意の地点から、目標とする駐車位置まで車両を移動させながら障害物検知装置によって障害物を検知し、車両を駐車する車両制御装置が知られている。
 上記車両制御装置においては、障害物検知装置によって、検知した障害物の位置情報をメモリに記憶する。
 記憶した障害物情報は、ユーザーの入力操作によって障害物検知装置の検知した障害物の種類を選択することで、種類を区別して記憶することができる。
 次回以降に、同じ駐車位置に駐車する場合や、同じ駐車位置から出庫する場合には、駐車位置の周囲に存在する障害物の位置や情報を予め把握できる。
 このため、記憶した障害物の情報を用いて、任意の地点から駐車位置へ車両を移動する際の駐車支援や、駐車位置から任意の地点へ車両を移動する際の出庫支援などの運転支援を実行することができ、車庫入れ駐車や縦列駐車などの駐車形態に限らず、多様な駐車形態に対応可能となる。
 特許文献1には、駐車周辺環境の障害物情報マップ生成の際において、障害物の情報を記憶する際、ユーザーが障害物毎に自動車、自動二輪車のような移動することのできる障害物(移動体)、壁、構造物などの移動することができない障害物(静止体)の区別を行い、障害物種類毎に手動で選択し障害物情報マップの生成を行う技術が記載されている。
特開2008-213741号公報
 しかしながら、特許文献1に記載の技術にあっては、ユーザーが障害物種類毎に手動でその選択をする必要があり、ユーザーに負担を与えるばかりでなく、自動駐車処理に時間がかかってしまっていた。
 本発明は、上記の問題を鑑みてなされたもので、その目的は、障害物の種類とし定義する移動体と静止体との区別を自動で行い、ユーザーの操作処理を低減し、負担を軽減して駐車処理時間を短縮可能な車両制御装置を実現することである。
 上記目的を達成するため、本発明は次のように構成される。
 車両制御装置において、車両の目標とする駐車位置の周囲に存在する障害物を検知する障害物検知器と、前記障害物検知器が検知した障害物の情報を記憶し、記憶した前記障害物の情報から、前記障害物の種類を判別し、判別した前記障害物の種類を識別する識別表示を設定して、設定した識別表示を前記障害物の情報と共に記憶する障害物記憶処理を行い、前記記憶した前記障害物の情報及び前記障害物の識別表示を表示器に表示する駐車支援部と、を備える。
 本発明によれば、障害物の種類とし定義する移動体と静止体との区別を自動で行い、ユーザーの操作処理を低減し、負担を軽減して駐車処理時間を短縮可能な車両制御装置を実現することができる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明が適用された車両制御装置である駐車支援システムの全体構成を示した図である。 車両の前部、側部、後部に搭載されるソナーとカメラの配置及び検知範囲を示す図である。 車両が駐車位置に駐車する動作を説明する図である。 車両が駐車位置に駐車する動作を説明する図である。 車両が駐車位置に駐車する動作を説明する図である。 障害物選定処理にて障害物の種類を自動で区別し、移動体、静止体の配色変更を行い、障害物情報マップ生成完了を示す画面表示例を示す図である。 障害物記憶処理のフローチャートである。 障害物選定処理のフローチャートである。
 以下、本発明の車両制御装置の実施形態について、図面を用いて説明する。
 図1は、本発明が適用された車両制御装置である駐車支援システムの全体構成を示した図である。
 図1において、車両制御装置である駐車支援システムは、車両に搭載されるものであり、障害物検知装置(障害物検知器)であるソナー11(11A~11L)と、障害物検知装置(障害物検知器)であるカメラ12(12a~12d)と、表示器13と、スピーカー14と、ナビゲーション装置15とを備える。
 さらに、上記駐車支援システムは、車輪速センサ16と、操舵角センサ17と、アクセルペダル18と、ブレーキペダル19と、シフトレバー20と、ステアリング21と、これらが接続され、これらが運転者により操作された量が入力される駐車支援ECU(駐車支援部)22とを備える。
 また、駐車支援ECU22は、障害物記憶部22aと、障害物種類判別部22bと、障害物画面表示部22cとを備え、車両制御ネットワークに接続されている。
 ソナー11は、自車両の周囲に向かって超音波を送波し、その反射波を受信することで障害物との距離を検知するために用いられる。
 カメラ12は、自車両の周囲に取り付けられた撮像素子により、障害物の情報を撮像するために用いられる。
 図2は、自車両30の前部、側部、後部に搭載されるソナー11A~11Lとカメラ12a~12dの配置及び検知範囲を示す図である。
 図2に示すように、自車両30の前方には計6個のソナー11A、11B、11C、11D、11E、11Fが配置され、自車両30の後方には計6個のソナー11G、11H、11I、11J、11K、11Lが配置される。
 図2の点線で示した楕円は、超音波センサ11A~11Lの各々の検知範囲を示している。
 カメラ12a、12b、12c、12dは、撮像素子を用いた車載カメラであり、自車両30の駐車位置の周囲に存在する障害物を検知すると共に、自車両30周辺の障害物のナンバープレートを認識し、車両周囲の障害物を検知する際に用いる。
 図2に示すように、自車両30の前方にカメラ12aが取付けられ、自車両30の左右にカメラ12b、12cが取り付けられ、自車両30の後方にカメラ12dが取付けられている。図2に示した直線の点線は、各カメラ12a~12dの検知範囲を示している。4つのカメラ12a~12dにより撮像された映像を変換し、組み合わせることで、自車両30と自車両30の周辺を上方から見下ろした俯瞰図が生成可能である。
 なお、俯瞰図は表示器13に表示する際に使用する。
 表示器13は、例えば、液晶ディスプレイによって構成され、表示器13の表示画面には、カメラ12a~12dの撮像した俯瞰画像を表示したり、駐車支援ECU22からの画像信号の画像を表示したりする。
 また、表示器13の表示画面にはタッチパネルが採用され、各種の入力操作に使用される。
 スピーカー14は、自車両30の車室内の適切な場所に配置され、ユーザーへの音声案内や警告音の出力に利用される。
 ナビゲーション装置15は、自車両30の現在位置とその周辺の道路地図を表示すル地図表示機能、目的地までの経路を案内する経路案内機能などを備えるナビゲーション装置である。
 ナビゲーション装置15は、自車両30の現在位置を検出する位置検出器(図示せず)を備えている。
 位置検出器は、自車両30の前方の方位を測定する方位センサ、衛星からの電波に基づいて車両の位置を測定するGPS(Global Positioning System)のためのGPS受信機で構成される。
 これらの測定結果と車輪速センサ16から出力される車速パルス信号、及び舵角センサ17から出力される操舵角信号などから、自車両30の自己位置及び方位を測定する。
 車輪速センサ16は、自車両30の車輪の回転に応じたパルス信号を発生するものであり、この車輪速パルスの発生回数を積算し、自車両30の移動距離を計算する。
 操舵角センサ17は、自車両30のステアリングの操舵角を検出するセンサであり、操舵角センサ17が検出した値から、ステアリング角度を算出する。
 アクセルペダル18は、ユーザーが駆動モータ(図示せず)に駆動力を指示する際に使用する。
 ブレーキペダル19は、ユーザーがホイールシリンダ―(図示せず)に制動力を指示する際に使用する。
 シフトレバー20は、ユーザーが自車両30の進行方向である前進、後退を指示する際に使用する。
 ステアリング21は、ユーザーが左右前輪(操舵輪)の操作を行い、自車両30の進む進行方向を指示する際に使用する。
 駐車支援ECU22は、上述したように、障害物記憶部22aと、障害物種類判別部22bと、障害物画面表示部22cとを備え、これらは、CPU(Central Processing Unit)、不揮発性メモリであるROM(Read Only Memory)、揮発性メモリであるRAM(Random Access Memory)、バス等を備えるマイクロコンピュータとして主に構成されるもので、ROMに書込まれた処理プログラムに従ってCPUが記憶演算処理を実行する。
 次に、駐車支援ECU22の動作について説明する。
 駐車支援ECU22では、先ず、自車両の運転者の運転操作によって自車両の目標とする駐車空間(以下、駐車位置)に自車両を駐車するとき、自車両を移動させながらソナー11A~11L及びカメラ12a~12dの検知した障害物の情報を記憶する(障害物記憶処理)。
 この障害物の情報は、駐車支援ECU22の不揮発性メモリである障害物記憶部22aに記憶する。
 以下、駐車支援ECU(運転支援システム)22における障害物記憶処理及び障害物選定処理について、図3乃至図8を用いて説明する。
 図3、図4、図5は、自車両30が駐車位置PAに駐車する動作を説明する図である。また、図6は、障害物選定処理にて障害物の種類を自動で区別し、移動体、静止体の配色変更を行い、障害物情報マップ生成完了を示す画面表示例を示す図である。
 本実施例では、図3に示すように、自車両30が駐車場に前進して進入し、隣接する車両40及び50と後方に壁60とがあり、自車両30が目標とする駐車位置PAに後退して駐車する場合を例として説明する。
 図7は、本発明の実施例における障害物記憶処理のフローチャートである。
 図7において、ステップS101では、表示器13の表示画面に「メモリ開始」というボタンを表示する。そして、ユーザーが「メモリ開始」ボタンを押すことで、ステップS102に処理を進める。
 ステップS102では、図4に示すように、ユーザーが「メモリ開始」をタッチ操作した時の自車両30の現在位置を、自車両30上に設定した仮座標系(VX-VY)の原点VOとして設定する。なお、VX軸(自車両30前後方向の中心線)は自車両30前方の方位と一致し、VY軸(車幅方向の中心線)はVX軸に直交する。
 ステップS103では、ソナー11A~11L及びカメラ20a~20dの駆動を開始する。
 次に、ステップS104では、ユーザーに運転操作(駐車操作)の開始を促し、ユーザーは手動にて駐車操作を行う。
 図4に示した例では、ユーザーは、はじめに自車両30を矢印のように前進させ、その後、後退させながら駐車位置PAの目的駐車枠PAfへ自車両30を駐車させる操作を行うことになる。
 図7のステップS105では、自車両30が駐車位置PAに駐車するまでの間に、ソナー11A~11L及びカメラ20a~20dが障害物を検知したかどうかを判別する。このステップS105にて肯定判別、つまり、障害物を検知した場合にはステップS106へ処理を進める。
 ステップS105にて否定判別、つまり、障害物を検知しなかった場合にはステップS107へ処理を移行する。
 ステップS106では、自車両30の現在位置、障害物を検知したソナー11A~11Lの搭載位置、及び障害物までの距離から仮座標系(VX-VY)における障害物点の座標値とカメラ12でナンバープレートを認識した座標値を演算して、記憶する。
 ステップS107では、表示器13の表示画面に表示された「メモリ終了」ボタンが押されたかどうかを判別する。
 ステップS107にて肯定判別した場合、つまり、「メモリ終了」ボタンが押された場合には、自車両30が駐車位置PAに駐車したものとしてステップS108へ処理を進める。ステップS107にて否定判別した場合、つまり、「メモリ終了」ボタンが押されていない場合には、自車両30が駐車位置PAに到達していないものとして、ステップS105へ処理を移行し、上述した処理を繰り返す。つまり、自車両30が駐車位置PAに到達して駐車したかどうかについては、ユーザーによる「メモリ終了」ボタンのタッチ操作の有無によって判別する。
 ステップS108では、駐車位置PAに駐車した自車両30の絶対位置(緯経度)、自車両30の絶対方位を駐車支援ECU22のメモリ22dに記憶する。
 ステップS109では、仮座標系(VX-VY)上の座標値として記憶した障害物点(車両40、50、壁60)の座標値を、ステップS108にて図5に示すように、障害物記憶部22aに記憶した絶対値を原点ROとし、その記憶した自車両30の絶対方位をRX軸、それに直交する軸をRY軸とする実座標系(RX-RY)の座標値に変換する。また、仮座標系(VX-VY)の原点VOについても、実座標系(RX-RY)の座標値に変換する。
 ステップS110では、図8に示す障害物選定処理を実行する。
 図8のステップS201では、実座標系(RX-RY)の座標値に変換された障害物点の連続性からグループ化を行うことで、障害物毎に分割する。これにより、実座標系(RX-RY)における障害物点のグループ毎の座標値が決定する。また、障害物点の連続性から分割した障害物の位置関係と、ナンバープレートを認識した障害物の位置関係より、ソナー11とカメラ12で検知した障害物毎に情報を関連付ける処理を行う。
 ステップS202では、障害物情報より表示器13に表示される障害物毎に移動体、静止体の配色を変更する処理へと進む。
 ステップ203では、配色を変更していない障害物があるか否かを判別する。このステップS203にて肯定判別した場合、つまり、配色を変更していない障害物がある場合にはステップS204へ処理を進める。ステップS203にて、否定判別した場合、つまり、配色を変更していない障害物がない場合にはステップS207へ処理を移行する。
 ステップS204では、ステップ203で肯定判別をされ、選択された障害物情報よりナンバープレートの情報があるかどうかを判別する。すなわち、障害物種類判別部22bは、障害物情報からナンバープレートを認識した障害物は移動体と判別し、それ以外のナンバープレートを認識しなかった障害物は静止体と判別する(障害物の種類を判別する)。
 このステップS204にて、肯定判別した場合にはステップS205へ処理を進め、否定判別した場合にはステップS206へ処理を移行する。
 ステップS205では、障害物種類判別部22bは、ステップ204で移動体と判別された障害物情報の配色を変更する。つまり、移動体と識別する識別表示を選択する。
 本実施例では移動体の配色を赤色に変更するが、移動体である旨をユーザーに表示することができれば良いので、表示方法に規定は設けない。例えば、移動体を赤以外の配色で表示する方法や、図6の様に移動体を太い実線で表示する方法など、表示方法は問わない。このステップS205の処理が終了した後、ステップ203の処理へ移行する。
 ステップS206では、ステップ204で静止体と判別された障害物情報の配色を変更する。本実施例では静止体の配色を静止体であることを識別する識別表示である青色を選択して変更するが、静止体である旨をユーザーに表示することができれば良いので、表示方法に規定は設けない。
 例えば、静止体を青以外の配色の色で表示する場合や、図6に示した障害物情報マップのように、斜線での表示や模様などで識別可能とするなど、移動体と静止体とを切り分ける表示方法は問わない。
 つまり、移動体と静止体とを互いに識別するように、移動体の識別表示と静止体の識別表示とを互いに異なるものに設定することができる。このステップS206の処理が終了した後、ステップ203の処理へ移行する。
 ステップS207では、静止体と移動物とに区別(識別)された障害物の情報を不揮発性メモリである障害物記憶部22aに記憶する。また、障害物画面表示部22cは、障害物種類判別部22bにより選択された識別表示を図6に示すような障害物地図を表示器13の表示画面に表示させる。
 つまり、障害物画面表示部は22c、表示器13に、障害物記憶部22aに記憶された障害物情報に基づいて、障害物の位置を示す障害物情報マップを表示する。
 そして、ユーザーに対するメッセージとして、「障害物を記憶しました」のような内容を表示器13に表示して、障害物の種類の区別が終了したことをユーザーに伝える。
 ステップS208では、図6に示された表示画面中の「終了」ボタンが押されたかどうかを判別する。このステップS208にて肯定判別した場合には本処理を終了し、否定判別した場合にはステップS207へ処理を移行する。
 このように、図8に示した障害物選定処理により、ソナー11A~11L及びカメラ12a~12dで検知した障害物について、移動することのできない静止体と、移動することのできる移動体の種類が自動で区別されるため、不揮発性メモリである障害物記憶部22aには、障害物の情報として、障害物の種類を含めて記憶することができる。つまり、静止体と移動体とを区別して記憶することができる。
 以上、説明した障害物記憶処理により、不揮発性メモリには、種類分けされた障害物の情報(障害物の種類、形状や大きさ、座標値からなる障害物情報)、実座標系(RX-RY)の原点RO、RX軸の方位、及び仮座標系(VX-VY)の原点VOの各々の座標値が記憶されることになる。
 ここで、カメラ12a~12dによる障害物の記憶処理の際、障害物記憶部22aへの記憶開始から記憶終了の区間に、カメラ12a~12dのレンズの汚れ等の付着物が有るか否かを駐車支援ECU22の障害物種類判別部22bが判別し、レンズや撮像素子等の撮像部分に汚れ等の付着物があると判別した場合は、ナンバープレートや周囲の障害物を検知できないと判別して、障害物種類判別部22bが障害物マップの生成を禁止するように構成することもできる(障害物記憶処理の禁止)。
 撮像部分に汚れ等の付着物があるか否かの判別は、撮像した複数の画像中に一定の画像が有るか否か等により行うことができる。
 また、ソナー11A~11Lによる障害物の記憶処理の際、障害物記憶部22aへの記憶開始から記憶終了の区間に、ソナー11A~11Lの周辺に遮蔽物が有るか否かを駐車支援ECU22bの障害物種類判別部22bが判別し、遮蔽物等があると判別した場合は、周囲の障害物を検知できないと判別して、障害物マップの生成を禁止するように構成することもできる(障害物記憶処理の禁止)。
 障害物記憶処理の停止を行った場合は、表示器13に「障害物記憶処理の禁止」等のように、障害物記憶処理を禁止したことを表示することもできる。
 ソナー11A~11Lの周辺に遮蔽物があるか否かの判別は、ソナー11A~11Lのいずれかが常時一定の数値を示しているか否か等により行うことができる。
 上述したレンズに汚れ等があるか否かおよびソナー11A~11Lの周辺に遮蔽物が有るか否かの判別は、図7のステップS103に続いて実行し、レンズに汚れ等が無い場合やソナー11A~11Lの周辺に遮蔽物が無い場合は、ステップS105に進むように構成することができる。そして、レンズに汚れ等がある場合やソナー11A~11Lの周辺に遮蔽物がある場合は、障害物記憶処理を禁止する。
 なお、レンズの汚れ判別およびソナーの遮蔽物有無判別は、両者共に実行するように構成してもよいし、レンズの汚れ判別またはソナーの遮蔽物有無判別のいずれか一方のみを実行するように構成してもよい。
 以上に説明した、本発明の実施例によれば、自車両の周辺に存在する障害物の種類として定義する移動体と静止体との区別を自動で行い、ユーザーの操作処理を低減し、負担を軽減して駐車処理時間を短縮可能な車両制御装置を実現することができる。
 なお、本発明の好ましい実施形態について説明したが、本発明は上述した実施形態に何ら制限されることなく、本発明の主旨を逸脱しない範囲において、種々変形して実施することができる。
 例えば、本実施形態の障害物選定処理では、カメラの認識によるナンバープレート有無で障害物の種類を区別するが、タイヤを認識した場合、移動体と判別するなどに処理を変更してもよい。
 また、本実施形態の障害物選定処理では、カメラの認識によるナンバープレート有無で障害物の種類を区別するが、バイクなどは後方にしかナンバープレートがないため、前方からのセンシングだけでは移動体と区別できず、静止体として記憶してしまう。
 そこで、ユーザー(操作者)が任意に情報を変更したい障害物を、表示機器13を用いて選択し、静止体を移動体に変更、または移動体を静止体に変更する処理を加えると、障害物種類判別部22bがユーザーの変更指示に応じて、静止体または移動体への識別表示の変更処理を行い、障害物画面表示部22cを介して、表示器13に変更処理された識別表示を表示画面に表示させる。これにより、バイク等のナンバープレートが後方にしかない移動体やナンバープレートが無い自転車等にたいしても対処可能となる。
 11A~11K・・・ソナー、 12a~12d・・・カメラ、 13・・・表示器、
 14・・・スピーカー、 15・・・ナビゲーション装置、 16・・・車輪速センサ、 17・・・操舵角センサ、 18・・・アクセルペダル、 19・・・ブレーキペダル、 20・・・シフトレバー、 21・・・ステアリング、 22・・・駐車支援ECU(駐車支援部)、 22a・・・障害物記憶部、 22b・・・障害物種類判別部、 22c・・・障害物画面表示部、 30・・・自車両、 40、50・・・隣接する車両、 60・・・壁、 PA・・・駐車位置、 PAf・・・目的駐車枠

Claims (10)

  1.  車両の目標とする駐車位置の周囲に存在する障害物を検知する障害物検知器と、
     前記障害物検知器が検知した障害物の情報を記憶し、記憶した前記障害物の情報から、前記障害物の種類を判別し、判別した前記障害物の種類を識別する識別表示を設定して、設定した識別表示を前記障害物の情報と共に記憶する障害物記憶処理を行い、前記記憶した前記障害物の情報及び前記障害物の識別表示を表示器に表示する駐車支援部と、
     を備えることを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置において、
     前記駐車支援部は、
     前記障害物検知器が検知した障害物の情報を記憶する障害物記憶部と、
     前記障害物検知器が検知した障害物の種類を判別する障害物種類判別部と、
     前記障害物検知装置の検知した障害物の情報及び前記障害物の識別表示を前記表示器の表示画面に表示する障害物画面表示部と、
     を備えることを特徴とする車両制御装置。
  3.  請求項2に記載の車両制御装置において、
     前記障害物検知器は、前記車両の周囲に向かって送信波を送波し、その反射波を受信することで、前記車両の周囲に存在する障害物を検知するソナーと、前記車両の周囲に取り付けられた撮像素子により、前記障害物の情報を撮像するカメラとを有することを特徴とする車両制御装置。
  4.  請求項2に記載の車両制御装置において、
     前記障害物種類判別部は、前記カメラが障害物のナンバープレートを認識すると前記障害物は移動体であると判別し、前記カメラが障害物のナンバープレートを認識しない場合は、前記障害物は静止体と判別することを特徴とする車両制御装置。
  5.  請求項4に記載の車両制御装置において、
     前記障害物種類判別部は、前記移動体を識別する識別表示を選択し、前記静止体を識別する識別表示を選択することを特徴とする車両制御装置。
  6.  請求項2に記載の車両制御装置において、
     前記障害物画面表示部は、前記表示器に、前記障害物記憶部に記憶された障害物情報に基づいて、前記障害物の位置を示す障害物情報マップを表示することを特徴とする車両制御装置。
  7.  請求項5に記載の車両制御装置において、
     前記障害物画面表示部は、前記障害物判別部が選択した前記移動体の識別表示および前記静止体の識別表示を前記表示器の表示画面に表示することを特徴とする車両制御装置。
  8.  請求項4に記載の車両制御装置において、
     前記障害物種類判別部が移動体と判別した障害物又は静止体と判別した障害物は、前記表示器を介して操作者が変更することができることを特徴とする車両制御装置。
  9.  請求項3に記載の車両制御装置において、
     前記障害物種類判別部は、前記カメラの撮像部分に付着物が有るか否かを判別し、前記カメラの撮像部分に付着物があると判別した場合、前記障害物記録処理を禁止することを特徴とする車両制御装置。
  10.  請求項3に記載の車両制御装置において、
     前記障害物種類判別部は、前記ソナーの周辺に遮蔽物が有るか否かを判別し、前記ソナーの周辺に遮蔽物があると判別した場合、前記障害物記録処理を禁止することを特徴とする車両制御装置。
PCT/JP2018/046039 2018-03-12 2018-12-14 車両制御装置 Ceased WO2019176200A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/977,266 US11935307B2 (en) 2018-03-12 2018-12-14 Vehicle control apparatus
JP2020505591A JP6980897B2 (ja) 2018-03-12 2018-12-14 車両制御装置
CN201880088601.9A CN111819122B (zh) 2018-03-12 2018-12-14 车辆控制装置
DE112018006294.5T DE112018006294B4 (de) 2018-03-12 2018-12-14 Fahrzeugsteuervorrichtung

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018044137 2018-03-12
JP2018-044137 2018-03-12

Publications (1)

Publication Number Publication Date
WO2019176200A1 true WO2019176200A1 (ja) 2019-09-19

Family

ID=67906656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/046039 Ceased WO2019176200A1 (ja) 2018-03-12 2018-12-14 車両制御装置

Country Status (5)

Country Link
US (1) US11935307B2 (ja)
JP (1) JP6980897B2 (ja)
CN (1) CN111819122B (ja)
DE (1) DE112018006294B4 (ja)
WO (1) WO2019176200A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114516338A (zh) * 2020-11-17 2022-05-20 佳骏科技股份有限公司 行车监控系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189293A (ja) * 2001-09-07 2003-07-04 Matsushita Electric Ind Co Ltd 車両周囲状況表示装置および映像提示システム
JP2007304712A (ja) * 2006-05-09 2007-11-22 Denso Corp 運転支援装置
JP2009122786A (ja) * 2007-11-13 2009-06-04 Mazda Motor Corp 車両用運転支援装置
JP2011175508A (ja) * 2010-02-25 2011-09-08 Mazda Motor Corp 駐車支援システム
JP2011198114A (ja) * 2010-03-19 2011-10-06 Honda Motor Co Ltd 車両周辺監視装置
JP2015232845A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 運転支援装置
JP2016013793A (ja) * 2014-07-03 2016-01-28 株式会社デンソー 画像表示装置、画像表示方法
DE102015212581A1 (de) * 2015-07-06 2017-01-12 Robert Bosch Gmbh Verfahren zur Fahrerassistenz und Fahrerassistenzsystem

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60207655T2 (de) 2001-09-07 2006-06-08 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zum Anzeigen der Umgebung eines Fahrzeuges und System zur Bildbereitstellung
JP4816512B2 (ja) 2007-03-06 2011-11-16 株式会社デンソー 運転支援装置
DE102008054641A1 (de) 2008-12-15 2010-06-17 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Erzeugung einer Anzeigendarstellung
EP2763404B1 (en) * 2011-09-29 2019-11-13 Toyota Jidosha Kabushiki Kaisha Image display device, and image display method
US20140309879A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Control of vehicle features based on user recognition and identification
KR20140006462A (ko) * 2012-07-05 2014-01-16 현대모비스 주식회사 안전운전 지원 장치 및 방법
JP5979046B2 (ja) * 2013-03-19 2016-08-24 富士通株式会社 合焦位置検出装置、合焦位置検出方法及び合焦位置検出用コンピュータプログラム
US20150077560A1 (en) * 2013-03-22 2015-03-19 GM Global Technology Operations LLC Front curb viewing system based upon dual cameras
JP2015231818A (ja) 2014-06-10 2015-12-24 株式会社デンソー 運転支援装置
JP2017021546A (ja) * 2015-07-10 2017-01-26 田山 修一 車輌用画像表示システム及び方法
TWI607911B (zh) * 2016-04-28 2017-12-11 H P B Optoelectronic Co Ltd Vehicle safety protection system and method
CN109416733B (zh) * 2016-07-07 2023-04-18 哈曼国际工业有限公司 便携式个性化
US10429850B2 (en) * 2016-11-09 2019-10-01 Mitsubishi Electric Corporation Automatic parking apparatus, parking guidance apparatus, automatic parking method, and parking guidance method
JP6883238B2 (ja) * 2017-01-23 2021-06-09 株式会社アイシン 駐車支援装置
DE102017006078A1 (de) 2017-06-28 2018-02-22 Daimler Ag Verfahren zum Durchführen eines Parkvorganges mit einem Kraftwagen

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189293A (ja) * 2001-09-07 2003-07-04 Matsushita Electric Ind Co Ltd 車両周囲状況表示装置および映像提示システム
JP2007304712A (ja) * 2006-05-09 2007-11-22 Denso Corp 運転支援装置
JP2009122786A (ja) * 2007-11-13 2009-06-04 Mazda Motor Corp 車両用運転支援装置
JP2011175508A (ja) * 2010-02-25 2011-09-08 Mazda Motor Corp 駐車支援システム
JP2011198114A (ja) * 2010-03-19 2011-10-06 Honda Motor Co Ltd 車両周辺監視装置
JP2015232845A (ja) * 2014-06-10 2015-12-24 株式会社デンソー 運転支援装置
JP2016013793A (ja) * 2014-07-03 2016-01-28 株式会社デンソー 画像表示装置、画像表示方法
DE102015212581A1 (de) * 2015-07-06 2017-01-12 Robert Bosch Gmbh Verfahren zur Fahrerassistenz und Fahrerassistenzsystem

Also Published As

Publication number Publication date
DE112018006294B4 (de) 2023-10-05
US11935307B2 (en) 2024-03-19
DE112018006294T5 (de) 2020-10-01
JPWO2019176200A1 (ja) 2021-02-04
CN111819122A (zh) 2020-10-23
JP6980897B2 (ja) 2021-12-15
CN111819122B (zh) 2023-09-19
US20210049380A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
US10173670B2 (en) Parking assistance device
JP6531832B2 (ja) 駐車スペース検出方法および装置
US10150486B2 (en) Driving assistance device and driving assistance system
JP6062406B2 (ja) 駐車支援装置および駐車支援方法
JP2019038493A (ja) 駐車支援装置
JP2016060232A (ja) 出庫支援装置
JP2017067466A (ja) 駐車支援装置
JP7147300B2 (ja) 牽引支援装置
JP2016084094A (ja) 駐車支援装置
JP2016060242A (ja) 駐車支援装置
CN110730735B (zh) 泊车辅助方法及泊车辅助装置
CN112771591B (zh) 用于评价运输工具的环境中的对象对运输工具的行驶机动动作的影响的方法
US11511805B2 (en) Vehicle guidance device, method, and computer program product
JP2018036878A (ja) 駐車支援装置
JP2019204364A (ja) 周辺監視装置
US20170168497A1 (en) Vehicle and method of controlling the vehicle
JP2016124398A (ja) 駐車支援装置
JP2019156308A (ja) 駐車支援装置
JP2018184149A (ja) 駐車支援装置
JP2019090707A (ja) 画像処理装置及び画像処理方法
JP6980897B2 (ja) 車両制御装置
JP4096251B2 (ja) 車両の周辺監視装置
JP6227514B2 (ja) 駐車支援装置
US12437559B2 (en) Parking assistance device
US11999342B2 (en) Display control device, parking assist apparatus and display control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18909940

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020505591

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 18909940

Country of ref document: EP

Kind code of ref document: A1