[go: up one dir, main page]

WO2020012852A1 - 測位支援装置及び測位支援方法 - Google Patents

測位支援装置及び測位支援方法 Download PDF

Info

Publication number
WO2020012852A1
WO2020012852A1 PCT/JP2019/023104 JP2019023104W WO2020012852A1 WO 2020012852 A1 WO2020012852 A1 WO 2020012852A1 JP 2019023104 W JP2019023104 W JP 2019023104W WO 2020012852 A1 WO2020012852 A1 WO 2020012852A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
sensor
distance measuring
measuring sensor
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2019/023104
Other languages
English (en)
French (fr)
Inventor
佳幸 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of WO2020012852A1 publication Critical patent/WO2020012852A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/28Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves by co-ordinating position lines of different shape, e.g. hyperbolic, circular, elliptical or radial

Definitions

  • the present invention relates to a positioning support device and a positioning support method having a plurality of distance measurement sensors for transmitting ultrasonic waves around a vehicle and receiving ultrasonic waves reflected on an object around the vehicle.
  • a positioning support device in which a plurality of ultrasonic transmission / reception units are mounted on a vehicle and a position of an object is specified based on a distance measurement value detected by the ultrasonic transmission / reception units is known (for example, see Patent Document 1). Furthermore, in the positioning support device disclosed in Patent Document 1, the position of an object that forms a linear wall surface is also specified based on distance measurement values detected by three ultrasonic transmission / reception units having mutually overlapping detection regions. are doing.
  • Patent Literature 1 requires three ultrasonic transmission / reception units to determine the shape of an obstacle. For this reason, the configuration of the positioning support device is complicated.
  • an object of the present invention is to provide a positioning support apparatus and a positioning support method that can calculate a position according to the shape of an object with a simple configuration and thereby improve the position accuracy of the object.
  • a positioning support device of the present invention includes a plurality of distance measurement sensors that transmit ultrasonic waves around a vehicle and receive ultrasonic waves reflected by objects around the vehicle, and a plurality of distance measurement sensors. Some of the distance measurement sensors are driven as first distance measurement sensors that transmit ultrasonic waves around the vehicle and receive ultrasonic waves reflected by an object. A second distance measuring sensor adjacent to the first distance measuring sensor and different from the first distance measuring sensor is used for receiving an ultrasonic wave transmitted from the first distance measuring sensor and reflected by an object.
  • a sensor drive control unit that operates as a distance measurement sensor, a first distance calculation unit that calculates a first distance from the vehicle to an object based on ultrasonic waves received by the first distance measurement sensor, and a second measurement unit Calculating a second distance from the vehicle to the object based on the ultrasonic waves received by the distance sensor; , A circle having a first distance as a radius around the installation position of the first distance measurement sensor, and a second with the installation positions of the first and second distance measurement sensors as focal points.
  • An intersection position calculation unit that calculates an intersection with an ellipse set based on the distance of the object, and a peripheral object position identification unit that identifies the position of the object based on the intersection calculated by the intersection position calculation unit
  • the sensor drive control unit drives a specific distance measurement sensor as a first distance measurement sensor at a specific time and drives a distance measurement sensor adjacent to the specific distance measurement sensor as a second distance measurement sensor, and At a time different from the time, the specific distance measurement sensor is driven as the second distance measurement sensor, and the distance measurement sensor adjacent to the specific distance measurement sensor is driven as the first distance measurement sensor.
  • First specific distance measurement sensor A first line segment connecting a circle and an ellipse when driven as a distance measurement sensor and an intersection of tangents to the circle and the ellipse, and a circle when a specific distance measurement sensor is driven as a second distance measurement sensor And a second line segment connecting the ellipse and the intersection of the tangents of the circle and the ellipse is obtained, and the position of the object is specified based on the first line segment and the second line segment.
  • a positioning support method is directed to a positioning support device having a plurality of distance measurement sensors for transmitting ultrasonic waves around a vehicle and receiving ultrasonic waves reflected by an object around the vehicle.
  • some of the plurality of ranging sensors are used as a first ranging sensor that transmits ultrasonic waves around a vehicle and receives ultrasonic waves reflected by an object.
  • Driving, and a distance measuring sensor that is adjacent to the first distance measuring sensor among the plurality of distance measuring sensors and is different from the first distance measuring sensor is transmitted from the first distance measuring sensor and reflected on the object.
  • a second distance measuring sensor that is driven as a second distance measuring sensor that receives the ultrasonic wave obtained, calculates a first distance from the vehicle to the object based on the ultrasonic wave received by the first distance measuring sensor, Calculates a second distance from the vehicle to the object based on the ultrasonic waves received by It is set based on a circle having a first distance as a radius around the installation position of the first distance measurement sensor and a second distance with the installation positions of the first distance measurement sensor and the second distance measurement sensor as focal points. The intersection with the ellipse is calculated, the position of the object is specified based on the intersection, and at a specific time, the specific distance measurement sensor is driven as the first distance measurement sensor, and is adjacent to the specific distance measurement sensor.
  • the distance measuring sensor to be driven is driven as a second distance measuring sensor, the specific distance measuring sensor is driven as a second distance measuring sensor at a time different from the specific time, and the distance measuring sensor adjacent to the specific distance measuring sensor is driven.
  • a specific ranging sensor to a second ranging A second line segment connecting the circle and the ellipse when driven as a sensor and the intersection of the tangents of the circle and the ellipse is obtained, and the position of the object is specified based on the first and the second line segment. It is characterized by doing.
  • the peripheral object position specifying unit is configured to drive the specific distance measurement sensor as the first distance measurement sensor to the circle and the ellipse and the tangents of the circle and the ellipse.
  • a first line segment connecting the intersection and a second line connecting a circle and an ellipse when a specific distance measurement sensor is driven as a second distance measurement sensor and an intersection of a tangent to the circle and the ellipse And the position of the object is specified based on the first line segment and the second line segment.
  • the position can be calculated in accordance with the shape of the object with a simple configuration, thereby improving the position accuracy of the object.
  • a line segment and a second line segment connecting a circle and an ellipse when the specific distance measurement sensor is driven as the second distance measurement sensor and an intersection of a tangent to the circle and the ellipse are obtained.
  • the position of the object is specified based on the line segment and the second line segment.
  • the position can be calculated in accordance with the shape of the object with a simple configuration, thereby improving the position accuracy of the object.
  • FIG. 1 is a block diagram illustrating a schematic configuration of an automatic parking system to which a positioning support device according to an embodiment of the present invention is applied.
  • FIG. 2 is a diagram illustrating an example of an arrangement position of a vehicle-mounted camera and a distance measurement sensor mounted on the automatic parking system according to the embodiment.
  • 1 is a functional block diagram illustrating a schematic configuration of a positioning support device according to an embodiment.
  • 5 is a flowchart illustrating an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according to the embodiment.
  • FIG. 7 is a diagram for explaining an example of an operation of the positioning support device according
  • FIG. 1 is a block diagram showing a schematic configuration of an automatic parking system to which a positioning support device and a positioning support method according to an embodiment of the present invention are applied
  • FIG. 2 is mounted on the automatic parking system according to the embodiment. It is a figure showing an example of an arrangement position of an in-vehicle camera and a distance measurement sensor.
  • the positioning support device 1 is applied to an automatic parking system S that automatically parks a vehicle V (see FIG. 2) in a parking space.
  • a plurality of small cameras are provided on the front, rear, left and right of the vehicle V as shown in FIG.
  • a front camera 20a is mounted on a front bumper or a front grill of the vehicle V toward the front of the vehicle V.
  • a rear camera 20b is mounted on the rear bumper or rear garnish of the vehicle V toward the rear of the vehicle V.
  • a left camera 20c is mounted on a left door mirror of the vehicle V toward the left side of the vehicle V.
  • a right side camera 20d is mounted on the right side mirror of the vehicle V toward the right side of the vehicle V.
  • Each of the front camera 20a, the rear camera 20b, the left camera 20c, and the right camera 20d is equipped with a wide-angle lens or a fisheye lens capable of observing a wide range, and four cameras 20a to 20d are provided around the vehicle V.
  • the area including the road surface can be observed without omission.
  • sonars 30a to 30f as distance measuring sensors are mounted on the front, rear, left and right of the vehicle V. These sonars 30a to 30f sequentially transmit ultrasonic waves of a predetermined frequency (for example, 20 kHz or more) around the vehicle V based on an instruction from a sonar ECU (Electronic Control Unit) 32 (FIG. 1). In addition, the sonars 30a to 30f sequentially receive reflected waves reflected on an object within the ultrasonic irradiation range.
  • a predetermined frequency for example, 20 kHz or more
  • the sonars 30a to 30f are sensors that measure the distance to the object based on the transmission timing of the ultrasonic wave and the reception timing of the reflected wave.
  • the distance (the distance between the sonar and the outer end of its irradiation range) at which the sonars 30a to 30f can measure the distance to the object is, for example, about 30 cm to 8 m.
  • 4Four sonars 30a capable of irradiating measurement waves toward the front of the vehicle V are mounted on the front bumper and the front grill of the vehicle V.
  • the sonars 30a adjacent to each other are installed such that their irradiation ranges (not shown) overlap.
  • 4Four sonars 30d capable of irradiating measurement waves toward the rear of the vehicle V are mounted on the rear bumper and the rear garnish of the vehicle V.
  • the sonars 30d adjacent to each other are installed such that their irradiation ranges (not shown) overlap.
  • a sonar 30b capable of irradiating a measurement wave toward the left side of the vehicle V is mounted on the left side (left side) with respect to the traveling direction of the vehicle V.
  • a sonar 30c capable of irradiating a measurement wave toward the left side of the vehicle V is mounted on the left rear side of the vehicle V.
  • the irradiation ranges (not shown) of the two sonars 30b and 30c do not overlap.
  • a sonar 30f is mounted on the right side (right side) front side of the traveling direction of the vehicle V toward the right side of the vehicle V.
  • a sonar 30e is mounted on the right rear side of the vehicle V.
  • the irradiation ranges (not shown) of the two sonars 30f and 30e do not overlap each other, similarly to the sonars 30b and 30c described above.
  • the automatic parking system S includes a front camera 20a, a rear camera 20b, a left camera 20c, a right camera 20d, a camera ECU 22, sonars 30a to 30f, and a sonar ECU 32 mounted on the vehicle V. , A wheel speed sensor 47 and a steering angle sensor 48.
  • the camera ECU 22 controls the cameras 20a to 20d and detects a parking space using information detected by the cameras 20a to 20d.
  • the sonar ECU 32 controls the sonars 30a to 30f and detects a parking space using information detected by the sonars 30a to 30f.
  • the wheel speed sensor 47 is a sensor that detects the wheel speed of the vehicle V.
  • the detection information (wheel speed) detected by the wheel speed sensor 47 is input to the vehicle control ECU 60.
  • the steering angle sensor 48 detects the steering angle of the steering of the vehicle V.
  • the steering angle when the vehicle V travels in a straight-ahead state is defined as a neutral position (steering angle 0 °), and the rotation angle from the neutral position is output as the steering angle.
  • Detection information (steering angle) detected by the steering angle sensor 48 is input to the vehicle control ECU 60.
  • the automatic parking system S further includes an automatic parking start switch 24, a vehicle control ECU 60, a steering control unit 70, a throttle control unit 80, and a brake control unit 90.
  • the automatic parking start switch 24 receives an instruction to start automatic parking.
  • the vehicle control ECU 60 mainly includes a microcomputer including a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.
  • the vehicle control ECU 60 executes various processes for assisting parking of the vehicle V based on each detection information input from the camera ECU 22, the sonar ECU 32, the wheel speed sensor 47, and the steering angle sensor 48.
  • the vehicle control ECU 60 performs detection processing for detecting a parking space based on each detection information, A determination process for determining whether the vehicle V can be parked and an automatic parking process for automatically parking the vehicle V in a parking space determined to be parkable are executed.
  • the steering control unit 70 drives the power steering actuator 72 based on the vehicle control information determined by the vehicle control ECU 60 to control the steering angle of the vehicle V.
  • the throttle control unit 80 controls the throttle of the vehicle V by driving the throttle actuator 82 based on the vehicle control information determined by the vehicle control ECU 60.
  • the brake control unit 90 controls the brake of the vehicle V by driving the brake actuator 92 based on the vehicle control information determined by the vehicle control ECU 60.
  • the camera ECU 22, the sonar ECU 32, the wheel speed sensor 47, the steering angle sensor 48, and the vehicle control ECU 60 are controlled by sensor information CAN (registered trademark) (Controller Area Network) 50, which is an in-vehicle LAN (Local Area Network). Connected.
  • CAN registered trademark
  • Controller Area Network 50 which is an in-vehicle LAN (Local Area Network). Connected.
  • the steering control unit 70, the throttle control unit 80, the brake control unit 90, and the vehicle control ECU 60 are connected by vehicle information CAN (registered trademark) 52, which is an in-vehicle LAN.
  • the positioning support device 1 of the present embodiment is mainly configured by the sonars 30a to 30f and the sonar ECU 32.
  • a radar not shown in FIG. 2 may be installed instead of the sonars 30a to 30f.
  • a radar ECU (not shown in FIG. 2) that controls the radar and detects an obstacle around the vehicle V is installed.
  • the sonars 30a to 30f and the radar have different ranging ranges, they may of course be mixed.
  • an obstacle is detected by comparing images captured at different times by the front camera 20a, the rear camera 20b, the left camera 20c, and the right camera 20d.
  • a so-called motion stereo function may be implemented.
  • FIG. 3 is a functional block diagram illustrating a schematic configuration of the positioning support device 1 according to the present embodiment.
  • the positioning support device 1 includes a control unit 100, a storage unit 110, a distance measurement sensor 120, and an input / output unit 130.
  • the distance measurement sensor 120 mainly composed of the sonars 30a to 30f transmits an ultrasonic wave around the vehicle V and receives an ultrasonic wave reflected by an object around the vehicle V.
  • each of the sonars 30a to 30f has a function of transmitting and receiving ultrasonic waves.
  • some sonars 30a to 30f transmit and receive ultrasonic waves, and the other sonars 30a to 30f only receive ultrasonic waves.
  • the sonars 30a to 30f for transmitting and receiving ultrasonic waves are first distance measuring sensors 121 in the present invention, and the sonars 30a to 30f for receiving ultrasonic waves are second distance measuring sensors 122 in the present invention.
  • the sonars 30a to 30f that transmit and receive ultrasonic waves and the sonars 30a to 30f that only receive ultrasonic waves are periodically changed. Therefore, in a certain cycle, specific sonars 30a to 30f constitute a first distance measuring sensor 121, and other sonars 30a to 30f constitute a second distance measuring sensor 122.
  • the control unit 100 mainly composed of the sonar ECU 32 controls the entire positioning support device 1.
  • the control unit 100 includes a CPU, a programmable logic device such as an FPGA, and an arithmetic element represented by an integrated circuit such as an ASIC.
  • An unillustrated control program is stored in the storage unit 110 of the positioning support device 1, and the control program is executed by the control unit 100 when the positioning support device 1 is activated. It has a functional configuration as shown.
  • the positioning support device 1 of the present embodiment performs high-speed signal processing as described later, it is preferable that the positioning support device 1 include an arithmetic element capable of high-speed operation, such as an FPGA.
  • the control unit 100 includes a sensor drive control unit 101, a first distance calculation unit 102, a second distance calculation unit 103, an intersection position calculation unit 104, a peripheral object position identification unit 105, and a coordinate conversion unit 106.
  • the sensor drive control unit 101 transmits ultrasonic waves around the vehicle V to some of the distance measurement sensors 120 among the plurality of distance measurement sensors 120 and receives ultrasonic waves reflected by objects around the vehicle V. It is driven as the first distance measuring sensor 121, and the distance measuring sensor 120 adjacent to the first distance measuring sensor 121 is transmitted from the first distance measuring sensor 121 and reflected by an object around the vehicle V. It is driven as a second distance measuring sensor 122 that receives an ultrasonic wave.
  • the sensor drive control unit 101 drives the specific distance measurement sensor 120 as the first distance measurement sensor 121 at a specific time, and sets the distance measurement sensor 120 adjacent to the specific distance measurement sensor 120 to the second distance measurement.
  • each distance measuring sensor 120 is provided with an ID for specifying the installation location on the vehicle V, and the sensor drive control unit 101 specifies and drives each distance measuring sensor 120 based on this ID. Control.
  • the first distance calculation unit 102 calculates the first distance from the vehicle V to the object based on the ultrasonic waves received by the first distance measurement sensor 121.
  • the second distance calculator 103 calculates a second distance from the vehicle to the object based on the ultrasonic waves received by the second distance measuring sensor 122.
  • the intersection position calculation unit 104 calculates a circle having a first distance as a radius around the installation position of the first distance measurement sensor 121, and a circle of the installation position of the first distance measurement sensor 121 and the second distance measurement sensor 122. The intersection with the ellipse set based on the second distance is calculated with the installation position as the focal point.
  • the peripheral object position specifying unit 105 specifies the position of the object based on the intersection calculated by the intersection position calculating unit 104.
  • the peripheral object position specifying unit 105 generates a first line segment that connects a circle and an ellipse when the specific distance measurement sensor 120 is driven as the first distance measurement sensor 121 and an intersection of a tangent to the circle and the ellipse. And a second line segment connecting the circle and the ellipse and the intersection of the tangents of the circle and the ellipse when the specific distance sensor 120 is driven as the second distance sensor 122 is obtained.
  • the position of the object is specified based on the line segment and the second line segment.
  • the peripheral object position specifying unit 105 specifies that the wall-shaped object is located at the position of the tangent line.
  • the peripheral object position specifying unit 105 specifies that the wall-shaped object is located at the position of the tangent line. I do.
  • the peripheral object position specifying unit 105 positions the wall-shaped object at the position of the tangent line. Identify things.
  • the coordinate conversion unit 106 converts the position coordinates of the object identified by the peripheral object position identification unit 105. That is, the distance to the object calculated by the first distance calculation unit 102 and the second distance calculation unit 103 is a distance on the relative coordinate system whose origin is the position of the vehicle V (more precisely, the distance measurement sensor 120). Therefore, this is converted into the distance (coordinate value) in the absolute coordinate system.
  • the coordinate conversion unit 106 performs coordinate conversion to an absolute coordinate system in consideration of the behavior of the vehicle V, based on information from the wheel speed sensor 47 and the like input via the vehicle control ECU 60.
  • the coordinate conversion unit 106 corrects the position information of the object included in the sensor information 112 stored in the storage unit 110 described later based on the information from the wheel speed sensor 47 and the like input via the vehicle control ECU 60. I do.
  • the peripheral object position specifying unit 105 specifies the position of a peripheral object based on the position information corrected by the coordinate conversion unit 106.
  • the distance measurement sensor 120 periodically performs the distance measurement operation.
  • the position information of the object which is the result of the identification by the peripheral object position identification unit 105, includes the vehicle speed and the steering angle due to the movement of the vehicle V. It is preferable that the correction be appropriately made in accordance with the above. Therefore, the coordinate conversion unit 106 corrects the position information based on the vehicle speed of the vehicle V in consideration of the moving distance of the vehicle V.
  • the storage unit 110 mainly composed of the sonar ECU 32 has a storage medium such as a large-capacity storage medium such as a hard disk drive and a semiconductor storage medium such as a ROM and a RAM.
  • the storage unit 110 temporarily or non-temporarily stores various data used for various operations in the control unit 100.
  • the storage unit 110 stores a sensor drive pattern table 111, sensor information 112, and a sensor combination table 113.
  • the sensor driving pattern table 111 is a table in which pattern information indicating which distance measuring sensor 120 is driven as the first distance measuring sensor 121 or the second distance measuring sensor 122 in a specific cycle is stored. Although details will be described later, in the positioning support apparatus 1 of the present embodiment, a pattern that determines whether to drive each of the twelve distance measurement sensors 120 as the first distance measurement sensor 121 or the second distance measurement sensor 122 is determined. Are provided. Then, the sensor drive control unit 101 refers to the sensor drive pattern table 111 and controls the drive of the distance measurement sensor 120 while sequentially changing the pattern at a predetermined time period.
  • the ⁇ sensor information 112 is information on the position of the object specified by the peripheral object position specifying unit 105. More specifically, for each specific pattern described above, the ID of the distance measurement sensor 120 driven as the first distance measurement sensor 121 and the ID of the distance measurement sensor 120 driven as the second distance measurement sensor 122 in that pattern.
  • the information on the position of the object specified by the peripheral object position specifying unit 105 is stored in the storage unit 110 as the sensor information 112 together with the ID and the position information of the vehicle V at the object specifying operation time.
  • the sensor combination table 113 is a table in which information on a combination of the distance measurement sensors 120 provided adjacent to the vehicle V is stored. The details of the sensor combination table 113 will be described later.
  • the input / output unit 130 receives information on the behavior of the vehicle V from the vehicle control ECU 60 and sends the information to the control unit 100. Further, the input / output unit 130 sends the object position around the vehicle V calculated by the peripheral object position specifying unit 105 of the control unit 100 to the vehicle control ECU 60.
  • the positioning support device 1 of the present embodiment has twelve distance measuring sensors 120.
  • each distance measuring sensor 120 is given a name.
  • the sonars 30a provided on the front bumper and the front grille of the vehicle V are arranged so that the sonars FOL, FIL, FIR are arranged in order from the left when the vehicle V is viewed from above. , FOR.
  • the sonars 30d provided on the rear bumper and the rear garnish of the vehicle V are named sonar ROL, RIL, RIR, and ROR in order from the left when the vehicle V is viewed from above.
  • the four sonars 30a may be collectively referred to as a front sonar and the four sonars 30d may be collectively referred to as a rear sonar.
  • sonars 30b and 30c provided on the left side surface of the vehicle V are named sonar SFL and SRL in order from the front when the vehicle V is viewed from above.
  • sonars 30f and 30e provided on the right side surface of the vehicle V are named sonar SFR and SRR in order from the front when the vehicle V is viewed from above.
  • the sensor drive control unit 101 drives these twelve sonars 30a to 30f in four groups (group A, group B, group C, and group D).
  • group A, group B, group C, and group D the distance measuring sensor 120 (sonar 30a, 30f) driven as the first distance measuring sensor 121 in each of the front sonar and the rear sonar is driven as the second distance measuring sensor 122.
  • the ranging sensor 120 driven as the first ranging sensor 121 is different for each group.
  • the front sonar or the rear sonar is driven by the sensor drive control unit 101 as the first distance measurement sensor 121, is driven as the second distance measurement sensor 122, or is not driven by the sensor drive control unit 101 (that is, it is not driven). Or no transmission / reception of sound waves). Further, the sonars 30b, 30c, 30e, and 30f on the left and right sides of the vehicle V are driven by the sensor drive control unit 101 as the first distance measuring sensor 121 or are not driven by the sensor drive control unit 101 (that is, the (Transmission and reception of sound waves are not performed).
  • the sensor drive control unit 101 drives the distance measurement sensor 120 as the first distance measurement sensor 121 in each group with reference to the sensor drive pattern table 111 stored in the storage unit 110, or performs the second measurement. It is driven as the distance sensor 122 or not driven.
  • the sensor drive control unit 101 performs an ultrasonic transmission / reception operation by the distance measurement sensor 120 in each group for a certain period of time, and sequentially changes the group (that is, group A ⁇ group B ⁇ group C ⁇ group D) to perform drive control. Do.
  • the sensor drive control unit 101 returns to the group A and performs the drive control by sequentially changing the group.
  • the pillar P is located at the same position as in FIG.
  • the ultrasonic wave transmitted from the first distance measuring sensor 121 toward the pillar P is reflected by the pillar P and received by the second distance measuring sensor 122 adjacent to the first distance measuring sensor 121.
  • the pillar P is an ellipse E having a focal point at the installation position of the first distance measurement sensor 121 and the second distance measurement sensor 122.
  • L [m] T ⁇ c.
  • the position of the pillar P is an intersection IP1 of the circle C and the ellipse E as shown in FIG.
  • the object position identification method shown in FIG. 9 is hereinafter referred to as “trigonometry”.
  • the position of the wall W is determined by the tangent TA between the circle C and the ellipse E, or more precisely, the tangent TA to the circle C and the ellipse. Intersections IP2 and IP3 with E.
  • the object position specifying method shown in FIG. 10 is hereinafter referred to as a “tangent method”.
  • the intersection point IP1 of the circle C and the ellipse E is obtained as shown in FIG. Therefore, when the position of the object is specified with respect to the wall W by using the trigonometry, an error occurs between the specified position and the actual position.
  • ultrasonic waves are transmitted and received to and from the same object from among the combinations of the first distance measuring sensor 121 and the second distance measuring sensor 122 adjacent to each other. Are selected, and the shape of the object is determined based on the positional relationship of the object obtained by each of the plurality of combinations.
  • the peripheral object position specifying unit 105 stores the result of specifying the position of the object in the certain group by the first distance measuring sensor 121 and the second distance measuring sensor 122 in the sensor information 112 of the storage unit 110. Then, using a result of specifying the position of the object by the first distance measuring sensor 121 and the second distance measuring sensor 122 in another certain group and the sensor information 112 stored in the storage unit 110, the object is formed in a columnar shape. Is determined, and the correct position of the object is specified based on the determination result. At this time, the position specifying result of the object stored as the sensor information 112 is based on the tangent method.
  • FIG. 11 is a diagram showing an example of the sensor combination table 113.
  • the left of the arrow "->" indicates the combination of the first distance measuring sensor 121
  • the right of the arrow indicates the combination of the second distance measuring sensor 122.
  • Each distance measuring sensor 120 is specified by a name shown in FIG.
  • the peripheral object position specifying unit 105 performs the shape determination of the object based on the result of the position specification of the object, which is shown in white and is a combination of two or more front sonars or rear sonars. Do. Therefore, the shaded combination is not used as the basis for determining the shape of the object.
  • the combination of the distance measurement sensors 120 that are currently performing the distance measurement operation is “FIL ⁇ FOL”.
  • the peripheral object position specifying unit 105 uses the sensor information 112 stored in the storage unit 110 to perform an object distance measurement operation using a combination of “FOL-> FIL” and / or “FIL-> FIR”. Is read out, and the shape of the object is determined according to the following procedure.
  • the peripheral object position specifying unit 105 determines whether or not the inclination of the line connecting the positions of the objects, which is the result of performing the distance measurement operation by a plurality of combinations, is equal to or less than a predetermined angle. If it is determined that the angle is equal to or smaller than the predetermined angle, it is determined that the object has a wall shape.
  • the peripheral object position specifying unit 105 determines that the object is wall-shaped, it specifies the position of the object by the tangent method. On the other hand, if it is determined that the object has a columnar shape, the peripheral object position specifying unit 105 specifies the position of the object by trigonometry.
  • the inclination of the line segments L1 and L2 can be defined as the inclination with respect to the coordinate axes of this coordinate system.
  • the shape of the object can be determined based on the difference between the inclinations of the line segments L1 and L2. If the object is columnar, if the position is detected based on the tangent method, a large error occurs in the position specification. This is because, as a result, the inclinations of the line segments L1 and L2 are considered to be different for the line segments L1 and L2. Conversely, if the object is wall-shaped, both line segments L1 and L2 are considered to be along the wall surface, so the difference between the inclinations of line segments L1 and L2 is estimated to be sufficiently small.
  • the predetermined angle may be appropriately determined by referring to the actual determination result by the peripheral object position specifying unit 105 and the like.
  • the peripheral object position specifying unit 105 determines the distance between the first line segment L1 and the second line segment L2 connecting the object positions A1 and A2, which is the result of performing the distance measurement operation by a plurality of combinations. It is determined whether or not the distance between them is equal to or less than a predetermined distance. If it is determined that the distance is equal to or less than the predetermined distance, it is determined that the object has a wall shape.
  • the distance between the positions A1 and A2 approaching each other that is, the position A2 of the first line segment L1 and the second line segment
  • the distance between L2 and the position A1 is defined as a distance d1 between the line segments L1 and L2. If the distance d1 between the line segments L1 and L2 is equal to or less than a predetermined distance as shown in FIG. 13A, it is determined that the object has a wall shape. On the other hand, when the distance d1 between the line segments L1 and L2 exceeds a predetermined distance as shown in FIG. 13B, it is determined that the object is columnar.
  • the peripheral object position specifying unit 105 determines that the object is wall-shaped, it specifies the position of the object by the tangent method. On the other hand, if it is determined that the object has a columnar shape, the peripheral object position specifying unit 105 specifies the position of the object by trigonometry.
  • the shape of the object can be determined based on the distance d1 between the line segments L1 and L2. If the object is a column, if the position is detected based on the tangent method, an error in specifying the position is large. This is because it is considered that the distance d1 between the line segments L1 and L2 increases as a result. Further, even if it is determined that the difference between the inclinations of the line segments L1 and L2 is equal to or smaller than the predetermined angle by the above-described method (1), the shape determination of the object is erroneously determined if the distance d1 between the line segments L1 and L2 is large. It is possible that
  • the peripheral object position specifying unit 105 determines that the length of the overlapping portion of the line segments L1 and L2 connecting the object positions A1 and A2, which is the result of performing the distance measurement operation by a plurality of combinations, is a predetermined length It is determined whether the length is less than a predetermined length. If it is determined that the length is less than a predetermined length, the object is determined to be wall-shaped.
  • straight lines LL1 to LL4 passing through positions A1 and A2 are drawn from a specific distance measuring sensor 120 (sonar FIL in the illustrated example), and positions A1 and A2 forming two line segments L1 and L2 are drawn.
  • the distance d2 between straight lines (LL2 and LL3 in the illustrated example) passing through the positions A1 and A2 that are close to each other is defined as the length of the overlapping portion of the line segments L1 and L2.
  • the overlap ratio of the line segments L1 and L2 is calculated by dividing the distance d2 by the length of the line segment L1.
  • the peripheral object position specifying unit 105 determines the shape of the object based on the overlapping rate.
  • the peripheral object position specifying unit 105 determines that the object is wall-shaped, it specifies the position of the object by the tangent method. On the other hand, if it is determined that the object has a columnar shape, the peripheral object position specifying unit 105 specifies the position of the object by trigonometry.
  • the shape of the object can be determined based on the overlap ratio of the line segments L1 and L2. If the object is columnar, if the position is detected based on the tangent method, a large error occurs in the position specification. This is because the overlap ratio of the line segments L1 and L2 is considered to increase as a result.
  • the peripheral object position specifying unit 105 determines the shape of the object based on all of the conditions shown in the above methods (1) to (3). Alternatively, the shape of the object may be determined alone or in combination.
  • the ultrasonic wave transmission / reception operation by the distance measurement sensor 120 is performed by the sensor drive control unit 101 in all of the drive patterns of the groups A to D, and the peripheral object position specifying unit The process is started after the result of performing the position specifying operation of the object by the sensor 105 is stored in the storage unit 110 as the sensor information 112.
  • the operation shown in the flowchart of FIG. 4 is executed for each group.
  • step S1 the sensor drive control unit 101 is stored in the storage unit 110.
  • the pattern of a specific group is read with reference to the sensor drive pattern table 111.
  • the driving of the distance measuring sensor 120 is controlled as the first distance measuring sensor 121 or the second distance measuring sensor 122 based on the read pattern.
  • the distance measurement sensor 120 which is driven and controlled as the first distance measurement sensor 121 and the second distance measurement sensor 122, receives ultrasonic waves reflected from an object existing around the vehicle V.
  • step S2 the first distance calculator 102 and the second distance calculator 103 calculate the distance to the object based on the ultrasonic waves received in step S1.
  • the intersection position calculation unit 104 calculates the intersection between the circle and the ellipse
  • the peripheral object position identification unit 105 identifies the position of the object based on the intersection calculated by the intersection position calculation unit 104.
  • the peripheral object position specifying unit 105 specifies the position of the object using both the triangulation method and the tangent method described above.
  • step S3 the coordinate conversion unit 106 performs coordinate conversion on the position coordinates of the object specified in step S2, and calculates position coordinates in the absolute coordinate system.
  • step S4 the control unit 100 stores the information obtained in steps S1 to S3 as the sensor information 112 in the storage unit 110.
  • the information stored in step S4 includes the ID of the first distance measurement sensor 121, the ID of the second distance measurement sensor 122, the position information of the object calculated by the peripheral object position specifying unit 105 by the tangent method, and the information of the vehicle V. Contains at least location information.
  • step S4 of the sensor information 112 stored in the storage unit 110 the sensor information 112 in which the ID of the first distance measuring sensor 121 and the ID of the second distance measuring sensor 122 match each other has already been stored. If so, the control unit 100 overwrites the data.
  • the peripheral object position identification unit 105 refers to the sensor combination table 113 stored in the storage unit 110, and uses the first distance measurement sensor 121 and the second distance measurement sensor 121 used in the ultrasonic reception information acquired in step S1.
  • the sensor information 112 based on the combination of the first distance measurement sensor 121 and the second distance measurement sensor 122 corresponding to the combination of the two distance measurement sensors 122 is read from the storage unit 110.
  • step S6 the coordinate conversion unit 106 determines the position information of the object among the sensor information 112 read in step S5, and stores the vehicle V from the time when the read sensor information 112 was stored in the storage unit 110 to the present. Is corrected with reference to the moving distance of. The correction by the coordinate conversion unit 106 may be performed based on the position information of the vehicle V included in the sensor information 112.
  • step S7 the peripheral object position specifying unit 105 calculates the difference between the inclinations of the line segments L1 and L2 (see FIG. 12).
  • step S8 the peripheral object position specifying unit 105 determines whether or not the difference between the inclinations of the line segments L1 and L2 calculated in step S7 is within a predetermined angle. If it is determined that the angle is within the predetermined angle (YES in step S8), the program proceeds to step S9. On the other hand, if it is determined that the angle has exceeded the predetermined angle (NO in step S8), the program proceeds to step S14.
  • step S9 the peripheral object position specifying unit 105 calculates the distance d1 between the line segments L1 and L2 (see FIG. 13).
  • step S10 the peripheral object position specifying unit 105 determines whether or not the distance d1 between the line segments L1 and L2 calculated in step S9 is equal to or less than a predetermined distance. When it is determined that the distance is equal to or shorter than the predetermined distance (YES in step S10), the program proceeds to step S11. On the other hand, if it is determined that the distance has exceeded the predetermined distance (NO in step S10), the program proceeds to step S14.
  • step S11 the peripheral object position specifying unit 105 calculates the overlap ratio of the line segments L1 and L2 (see FIGS. 14 and 15).
  • step S12 the peripheral object position specifying unit 105 determines whether or not the overlap ratio of the line segments L1 and L2 calculated in step S11 is less than a predetermined value. Then, when it is determined that the value is less than the predetermined value (YES in step S12), the program proceeds to step S13. On the other hand, if it is determined that the value is equal to or more than the predetermined value (NO in step S12), the program proceeds to step S14.
  • step S13 the peripheral object position specifying unit 105 determines that the object has a wall shape, and specifies the position of the object.
  • step S14 the peripheral object position specifying unit 105 determines that the object is columnar, and specifies the position of the object.
  • the sensor drive control unit 101 drives the specific distance measurement sensor 120 as the first distance measurement sensor 121 at a specific time, and The distance measuring sensor 120 adjacent to the distance measuring sensor 120 is driven as a second distance measuring sensor 122.
  • the sensor drive control unit 101 drives the specific distance measuring sensor 120 as the second distance measuring sensor 122 at a time different from the specific time, and sets the first distance measuring sensor 120 adjacent to the specific distance measuring sensor 120 to the first distance measuring sensor 120. Is driven as the distance measuring sensor 121.
  • the peripheral object position specifying unit 105 generates the first line segment connecting the circle and the ellipse and the intersection of the tangents of the circle and the ellipse when the specific distance measurement sensor 120 is driven as the first distance measurement sensor 121.
  • L1 and a second line segment L2 connecting a circle and an ellipse when the specific distance measurement sensor 120 is driven as the second distance measurement sensor 122 and an intersection of tangents to the circle and the ellipse are obtained.
  • the shape of the object is determined based on the first line segment L1 and the second line segment L2, and the position of the object is specified based on the determination result.
  • the shape of the object is determined.
  • the position can be specified. Accordingly, it is possible to calculate a position in accordance with the shape of the object with a simple configuration, thereby providing a positioning support device capable of improving the position accuracy of the object.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Traffic Control Systems (AREA)

Abstract

物体の形状に合わせて位置を計算することにより、物体の位置精度を向上することが可能とするために、測位支援装置(1)は、交点位置算出部(104)により算出された交点に基づいて物体の位置を特定する周辺物体位置特定部(105)を有し、さらに、この周辺物体位置特定部(105)は、特定の測距センサ(120)を第1の測距センサ(121)として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分L1、及び、特定の測距センサ(120)を第2の測距センサ(122)として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分L2を求め、これら第1の線分及び第2の線分L1、L2に基づいて物体の位置を特定する。

Description

測位支援装置及び測位支援方法
 本発明は、車両の周囲に超音波を発信し、この車両の周囲の物体に反射された超音波を受信する複数の測距センサを有する測位支援装置及び測位支援方法に関するものである。
 車両に複数の超音波送受信部を搭載し、これら超音波送受信部により検出された測距値に基づいて物体の位置を特定する測位支援装置は公知である(例えば特許文献1参照)。さらに、特許文献1に開示された測位支援装置では、相互の検出領域が重複する3個の超音波送受信部により検出された測距値に基づいて、直線状の壁面をなす物体の位置も特定している。
特開2000-180547号公報
 しかしながら、特許文献1に開示された技術は、障害物の形状を判定するために3個の超音波送受信部を必要としていた。このため、測位支援装置の構成が複雑であった。
 そこで、本発明は、簡易な構成により物体の形状に合わせて位置を計算することができ、これにより物体の位置精度を向上することが可能な測位支援装置及び測位支援方法を提供することを目的としている。
 前記目的を達成するために、本発明の測位支援装置は、車両の周囲に超音波を発信し、車両の周囲の物体に反射された超音波を受信する複数の測距センサと、複数の測距センサのうち一部の測距センサを、車両の周囲に超音波を発信して物体に反射された超音波を受信する第1の測距センサとして駆動し、また、複数の測距センサのうち、第1の測距センサに隣接する、第1の測距センサとは別の測距センサを、第1の測距センサから発信されて物体に反射された超音波を受信する第2の測距センサとして駆動するセンサ駆動制御部と、第1の測距センサが受信した超音波に基づいて車両から物体までの第1の距離を算出する第1の距離算出部と、第2の測距センサが受信した超音波に基づいて車両から物体までの第2の距離を算出する第2の距離算出部と、第1の測距センサの設置位置を中心として第1の距離を半径とする円と、第1の測距センサ及び第2の測距センサの設置位置を焦点として第2の距離に基づいて設定される楕円との交点を算出する交点位置算出部と、交点位置算出部により算出された交点に基づいて物体の位置を特定する周辺物体位置特定部と、を有し、センサ駆動制御部は、特定の時刻において特定の測距センサを第1の測距センサとして駆動するとともに特定の測距センサに隣接する測距センサを第2の測距センサとして駆動し、特定の時刻と異なる時刻において特定の測距センサを第2の測距センサとして駆動するとともに特定の測距センサに隣接する測距センサを第1の測距センサとして駆動し、周辺物体位置特定部は、特定の測距センサを第1の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、特定の測距センサを第2の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて物体の位置を特定することを特徴とする。
 前記目的を達成するために、本発明の測位支援方法は、車両の周囲に超音波を発信し、車両の周囲の物体に反射された超音波を受信する複数の測距センサを有する測位支援装置による測位支援方法であって、複数の測距センサのうち一部の測距センサを、車両の周囲に超音波を発信して物体に反射された超音波を受信する第1の測距センサとして駆動し、また、複数の測距センサのうち第1の測距センサに隣接する、第1の測距センサとは別の測距センサを、第1の測距センサから発信されて物体に反射された超音波を受信する第2の測距センサとして駆動し、第1の測距センサが受信した超音波に基づいて車両から物体までの第1の距離を算出し、第2の測距センサが受信した超音波に基づいて車両から物体までの第2の距離を算出し、第1の測距センサの設置位置を中心として第1の距離を半径とする円と、第1の測距センサ及び第2の測距センサの設置位置を焦点として第2の距離に基づいて設定される楕円との交点を算出し、この交点に基づいて物体の位置を特定し、さらに、特定の時刻において特定の測距センサを第1の測距センサとして駆動するとともに特定の測距センサに隣接する測距センサを第2の測距センサとして駆動し、特定の時刻と異なる時刻において特定の測距センサを第2の測距センサとして駆動するとともに特定の測距センサに隣接する測距センサを第1の測距センサとして駆動し、特定の測距センサを第1の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、特定の測距センサを第2の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて物体の位置を特定することを特徴とする。
 このように構成された本発明の測位支援装置では、周辺物体位置特定部が、特定の測距センサを第1の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、特定の測距センサを第2の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて物体の位置を特定している。
 このようにすることで、簡易な構成により物体の形状に合わせて位置を計算することができ、これにより物体の位置精度を向上することが可能となる。
 このように構成された本発明の測位支援方法では、特定の測距センサを第1の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、特定の測距センサを第2の測距センサとして駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて物体の位置を特定している。
 このようにすることで、簡易な構成により物体の形状に合わせて位置を計算することができ、これにより物体の位置精度を向上することが可能となる。
本発明の実施の形態である測位支援装置が適用される自動駐車システムの概略構成を示すブロック図である。 実施の形態に係る自動駐車システムに搭載される車載カメラ及び測距センサの配置位置の一例を示す図である。 実施の形態である測位支援装置の概略構成を示す機能ブロック図である。 実施の形態である測位支援装置の動作の一例を説明するためのフローチャートである。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。 実施の形態である測位支援装置の動作の一例を説明するための図である。
(測位支援装置の概略構成)
 以下、この発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態である測位支援装置及び測位支援方法が適用される自動駐車システムの概略構成を示すブロック図、図2は、実施の形態に係る自動駐車システムに搭載される車載カメラ及び測距センサの配置位置の一例を示す図である。
 本実施の形態の測位支援装置1は、駐車スペースに車両V(図2参照)を自動的に駐車させる自動駐車システムSに適用されている。
 車両Vの前後左右には、図2に示すように複数の小型カメラが備えられている。
 具体的には、車両Vのフロントバンパまたはフロントグリルには、車両Vの前方に向けて前方カメラ20aが装着されている。車両Vのリアバンパまたはリアガーニッシュには、車両Vの後方に向けて後方カメラ20bが装着されている。車両Vの左ドアミラーには、車両Vの左側方に向けて左側方カメラ20cが装着されている。車両Vの右ドアミラーには、車両Vの右側方に向けて右側方カメラ20dが装着されている。
 前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dには、それぞれ、広範囲を観測可能な広角レンズや魚眼レンズが装着されており、4台のカメラ20a~20dで車両Vの周囲の路面を含む領域を漏れなく観測することができるようになっている。
 さらに、図2に示すように、車両Vの前後左右には、測距センサであるソナー30a~30fが装着されている。これらソナー30a~30fは、ソナーECU(Electronic Control Unit)32(図1)からの指示に基づいて、車両Vの周囲に所定周波数(例えば20kHz以上)の超音波を逐次発信する。また、ソナー30a~30fは、その超音波の照射範囲内の物体に当たって反射した反射波を逐次受信する。
 すなわち、ソナー30a~30fは、超音波の発信タイミングと、反射波の受信タイミングとに基づいて、物体までの距離を測定するセンサである。また、ソナー30a~30fが物体までの距離を測距可能な距離(ソナーとその照射範囲の外端間の距離)は、例えば30cm~8m程度となっている。
 車両Vのフロントバンパやフロントグリルには、車両Vの前方に向けて測定波を照射可能な4つのソナー30aが搭載されている。互いに隣り合うソナー30aは、その照射範囲(不図示)が重複するように設置されている。
 車両Vのリアバンパやリアガーニッシュには、車両Vの後方に向けて測定波を照射可能な4つのソナー30dが搭載されている。互いに隣り合うソナー30dは、その照射範囲(不図示)が重複するように設置されている。
 車両Vの進行方向に対して左方向(左側方)前側には、車両Vの左側方に向けて測定波を照射可能なソナー30bが搭載されている。同様に、車両Vの左側方後側には、車両Vの左側方に向けて測定波を照射可能なソナー30cが搭載されている。2つのソナー30b、30cは、それぞれの照射範囲(不図示)が重複しない。
 車両Vの進行方向に対して右方向(右側方)前側には、車両Vの右側方に向けてソナー30fが搭載されている。同様に、車両Vの右側方後側には、ソナー30eが搭載されている。2つのソナー30f、30eは、前述したソナー30b、30c同様、それぞれの照射範囲(不図示)が重複しない。
 図1に戻って、自動駐車システムSは、車両Vに搭載された、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dと、カメラECU22と、ソナー30a~30fと、ソナーECU32と、車輪速センサ47と、操舵角センサ48とを有する。
 カメラECU22は、カメラ20a~20dを制御するとともに、カメラ20a~20dが検知した情報を用いて、駐車スペースの検知を行う。
 ソナーECU32は、ソナー30a~30fを制御するとともに、ソナー30a~30fが検知した情報を用いて、駐車スペースの検知を行う。
 車輪速センサ47は、車両Vの車輪速を検知するセンサである。車輪速センサ47で検知された検知情報(車輪速)は、車両制御ECU60に入力される。
 操舵角センサ48は、車両Vのステアリングの操舵角を検知する。車両Vが直進状態で走行するときの操舵角を中立位置(操舵角0度)とし、その中立位置からの回転角度を操舵角として出力する。操舵角センサ48で検知された検知情報(操舵角)は、車両制御ECU60に入力される。
 さらに、自動駐車システムSは、自動駐車開始スイッチ24と、車両制御ECU60と、ステアリング制御ユニット70と、スロットル制御ユニット80と、ブレーキ制御ユニット90とを有する。
 自動駐車開始スイッチ24は、自動駐車の開始指示を受け付ける。
 車両制御ECU60は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等から構成されたマイコンを主体として構成される。車両制御ECU60は、カメラECU22、ソナーECU32、車輪速センサ47及び操舵角センサ48から入力された各検知情報に基づいて、車両Vの駐車を支援する各種処理を実行する。
 すなわち、自動駐車開始スイッチ24を運転手がオン操作して自動駐車システムSを起動させると、車両制御ECU60は、各検知情報に基づいて、駐車スペースを検知する検知処理や、検知した駐車スペースに車両Vを駐車できるか否かを判定する判定処理や、駐車可と判定した駐車スペースに車両Vを自動で駐車させる自動駐車処理を実行する。
 ステアリング制御ユニット70は、車両制御ECU60で決定した車両制御情報に基づいて、パワステアクチュエータ72を駆動して、車両Vの操舵角を制御する。
 スロットル制御ユニット80は、車両制御ECU60で決定した車両制御情報に基づいて、スロットルアクチュエータ82を駆動して、車両Vのスロットルを制御する。
 ブレーキ制御ユニット90は、車両制御ECU60で決定した車両制御情報に基づいて、ブレーキアクチュエータ92を駆動して、車両Vのブレーキを制御する。
 なお、カメラECU22、ソナーECU32、車輪速センサ47及び操舵角センサ48と、車両制御ECU60との間は、車内LAN(Local Area Network)であるセンサ情報CAN(登録商標)(Controller Area Network)50によって接続される。
 また、ステアリング制御ユニット70、スロットル制御ユニット80及びブレーキ制御ユニット90と、車両制御ECU60との間は、車内LANである車両情報CAN(登録商標)52によって接続される。
 以上の構成を有する自動駐車システムSにおいて、本実施の形態の測位支援装置1は、ソナー30a~30f及びソナーECU32により主に構成されている。
 なお、図2において、ソナー30a~30fの代わりに、図2に非図示のレーダを設置しても構わない。なお、レーダを設置したときは、レーダを制御するとともに、車両Vの周囲の障害物の検出を行う、図2に非図示のレーダECUが設置される。
 ソナー30a~30fとレーダは、それぞれ測距範囲が異なるため、もちろん、両者を混在させても構わない。また、測距機能を実現するために、前方カメラ20a、後方カメラ20b、左側方カメラ20c、右側方カメラ20dで、異なる時間に撮像された画像同士をそれぞれ比較することによって障害物を検出する、いわゆるモーションステレオ機能を実装しても構わない。以後、説明を簡単にするため、測位支援装置1には、ソナー30a~30f及びソナーECU32のみが実装されているものとする。
(測位支援装置の機能構成)
 図3は、本実施の形態である測位支援装置1の概略構成を示す機能ブロック図である。
 本実施の形態である測位支援装置1は、制御部100、記憶部110、測距センサ120及び入出力部130を有する。
 主にソナー30a~30fから構成される測距センサ120は、車両Vの周囲に超音波を発信し、車両Vの周囲の物体に反射された超音波を受信する。
 詳細は後述するが、各々のソナー30a~30fは超音波の発信及び受信を行う機能を有する。しかしながら、測距センサ120全体としての距離計測(測距)動作において、幾つかのソナー30a~30fは超音波の発信及び受信を行い、それ以外のソナー30a~30fは超音波の受信のみを行う。超音波の発信及び受信を行うソナー30a~30fは、本発明における第1の測距センサ121であり、超音波の受信を行うソナー30a~30fは本発明における第2の測距センサ122である。そして、超音波の発信及び受信を行うソナー30a~30fと超音波の受信のみ行うソナー30a~30fとは周期的に変更される。従って、ある周期において、特定のソナー30a~30fは第1の測距センサ121を構成し、別のソナー30a~30fは第2の測距センサ122を構成する。
 主にソナーECU32から構成される制御部100は、測位支援装置1全体の制御を行う。制御部100はCPU、FPGAなどのプログラマブルロジックデバイス、ASIC等の集積回路に代表される演算素子を有する。
 測位支援装置1の記憶部110には図略の制御用プログラムが格納されており、この制御用プログラムが測位支援装置1の起動時に制御部100により実行されて、測位支援装置1は図3に示すような機能構成を備えたものとなる。特に、本実施形態の測位支援装置1は、後述するように高速の信号処理を行うので、高速演算可能な演算素子、例えばFPGAなどを有することが好ましい。
 制御部100は、センサ駆動制御部101、第1の距離算出部102、第2の距離算出部103、交点位置算出部104、周辺物体位置特定部105及び座標変換部106を有する。
 センサ駆動制御部101は、複数の測距センサ120のうち一部の測距センサ120を、車両Vの周囲に超音波を発信して車両Vの周囲の物体に反射された超音波を受信する第1の測距センサ121として駆動し、また、第1の測距センサ121に隣接する測距センサ120を、第1の測距センサ121から発信されて車両Vの周囲の物体に反射された超音波を受信する第2の測距センサ122として駆動する。
 特に、センサ駆動制御部101は、特定の時刻において特定の測距センサ120を第1の測距センサ121として駆動するとともに特定の測距センサ120に隣接する測距センサ120を第2の測距センサ122として駆動し、特定の時刻と異なる時刻において特定の測距センサ120を第2の測距センサ122として駆動するとともに特定の測距センサ120に隣接する測距センサ120を第1の測距センサ121として駆動する。
 なお、各々の測距センサ120には、車両Vへの設置場所を特定するためのIDが付されており、センサ駆動制御部101は、このIDによって各々の測距センサ120を特定して駆動制御を行っている。
 センサ駆動制御部101による測距センサ120の駆動の詳細については後述する。
 第1の距離算出部102は、第1の測距センサ121が受信した超音波に基づいて車両Vから物体までの第1の距離を算出する。第2の距離算出部103は、第2の測距センサ122が受信した超音波に基づいて車両から物体までの第2の距離を算出する。
 交点位置算出部104は、第1の測距センサ121の設置位置を中心として第1の距離を半径とする円と、第1の測距センサ121の設置位置及び第2の測距センサ122の設置位置を焦点として第2の距離に基づいて設定される楕円との交点を算出する。
 周辺物体位置特定部105は、交点位置算出部104により算出された交点に基づいて物体の位置を特定する。
 特に、周辺物体位置特定部105は、特定の測距センサ120を第1の測距センサ121として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、特定の測距センサ120を第2の測距センサ122として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて物体の位置を特定する。
 ここで、周辺物体位置特定部105は、第1の線分と第2の線分とのなす角度が所定角度以下であるとき、接線の位置に壁状の物体が位置するものと特定する。あるいは、また、周辺物体位置特定部105は、第1の線分と第2の線分との間の距離が所定距離以下であるとき、接線の位置に壁状の物体が位置するものと特定する。そして、あるいは、周辺物体位置特定部105は、第1の線分と第2の線分との重複部分の長さが所定長さ未満であるとき、接線の位置に壁状の物体が位置するものと特定する。
 座標変換部106は、周辺物体位置特定部105が特定した物体の位置座標を変換する。すなわち、第1の距離算出部102及び第2の距離算出部103が算出した物体までの距離は車両V(正確には測距センサ120)の位置を原点とする相対座標系上の距離であるので、これを絶対座標系の距離(座標値)に変換する。この際、座標変換部106は、車両制御ECU60を介して入力された車輪速センサ47等からの情報に基づき、車両Vの挙動を考慮して絶対座標系への座標変換を行う。
 また、座標変換部106は、車両制御ECU60を介して入力された車輪速センサ47等からの情報に基づき、後述する記憶部110に格納されているセンサ情報112に含まれる物体の位置情報を修正する。周辺物体位置特定部105は、この座標変換部106により修正された位置情報に基づいて周辺の物体の位置を特定する。
 既に説明したように、測距センサ120は周期的に測距動作を行うが、周辺物体位置特定部105の特定結果である物体の位置情報は、車両Vが移動することにより、車速や操舵角等に応じて適宜補正されることが好ましい。そこで、座標変換部106は、車両Vの車速に基づき、車両Vの移動距離を考慮して位置情報を補正する。
 主にソナーECU32から構成される記憶部110は、ハードディスクドライブ等の大容量記憶媒体やROM、RAM等の半導体記憶媒体などの記憶媒体を有する。記憶部110には、制御部100における各種動作の際に用いられる各種データが一時的または非一時的に格納される。
 また、記憶部110には、センサ駆動パターンテーブル111、センサ情報112及びセンサ組み合わせテーブル113が格納されている。
 センサ駆動パターンテーブル111は、特定の周期においてどの測距センサ120を第1の測距センサ121または第2の測距センサ122として駆動するかというパターン情報が格納されたテーブルである。詳細は後述するが、本実施の形態の測位支援装置1では、12個の測距センサ120のそれぞれを第1の測距センサ121または第2の測距センサ122として駆動するかを定めたパターンが複数設けられている。そして、センサ駆動制御部101は、このセンサ駆動パターンテーブル111を参照して、所定の時間周期をもってパターンを順次変更しながら測距センサ120を駆動制御する。
 センサ情報112は、周辺物体位置特定部105により特定された物体の位置に関する情報である。より詳細には、上述した特定のパターン毎に、そのパターンにおいて第1の測距センサ121として駆動された測距センサ120のID、第2の測距センサ122として駆動された測距センサ120のID、さらにはその物体特定動作時刻における車両Vの位置情報とともに、周辺物体位置特定部105により特定された物体の位置に関する情報がセンサ情報112として記憶部110に格納されている。
 センサ組み合わせテーブル113は、車両Vに隣接して設けられた測距センサ120の組み合わせに関する情報が格納されたテーブルである。センサ組み合わせテーブル113の詳細な内容については後述する。
 入出力部130は、車両制御ECU60から車両Vの挙動に関する情報を受け入れ、この情報を制御部100に送出する。また、入出力部130は、制御部100の周辺物体位置特定部105により算出された車両Vの周囲の物体位置を車両制御ECU60に送出する。
 図3に示す、測位支援装置1を構成する各部の具体的動作については後に詳述する。
(測位支援装置の動作の概要)
 次に、本実施の形態である測位支援装置1の動作の概要を、図5~図15を参照して説明する。
 既に説明したように、本実施の形態の測位支援装置1は12個の測距センサ120を有する。以下の説明では、図5に示すように、それぞれの測距センサ120に名称を付ける。
 図2に示す測距センサ120の設置位置との関係では、車両Vのフロントバンパやフロントグリルに設けられたソナー30aは、車両Vを上方から見た状態で左から順にソナーFOL、FIL、FIR、FORと名付けられる。また、車両Vのリアバンパやリアガーニッシュに設けられたソナー30dは、車両Vを上方から見た状態で左から順にソナーROL、RIL、RIR、RORと名付けられる。また、以下の説明において、4つのソナー30aをまとめてフロントソナー、4つのソナー30dをまとめてリアソナーと称することもある。
 さらに、車両Vの左側面に設けられたソナー30b、30cは、車両Vを上方から見た状態で前から順にソナーSFL、SRLと名付けられる。さらに、車両Vの右側面に設けられたソナー30f、30eは、車両Vを上方から見た状態で前から順にソナーSFR、SRRと名付けられる。
 センサ駆動制御部101は、図6に示すように、これら12個のソナー30a~30fを4つのグループ(グループA、グループB、グループC、グループD)に分けて駆動する。各グループにおいて、フロントソナー及びリアソナーのそれぞれで第1の測距センサ121として駆動される測距センサ120(ソナー30a、30f)に隣接する測距センサ120は第2の測距センサ122として駆動される。第1の測距センサ121として駆動される測距センサ120はグループ毎に異なる。
 フロントソナーまたはリアソナーは、センサ駆動制御部101により第1の測距センサ121として駆動されるか、第2の測距センサ122として駆動されるか、又はセンサ駆動制御部101により駆動されない(つまり超音波の送受信を行わない)か、のいずれかに制御される。また、車両Vの左右側方にあるソナー30b、30c、30e、30fは、センサ駆動制御部101により第1の測距センサ121として駆動されるか、センサ駆動制御部101により駆動されない(つまり超音波の送受信を行わない)制御をされる。
 センサ駆動制御部101は、記憶部110に格納されているセンサ駆動パターンテーブル111を参照して、各々のグループにおいて測距センサ120を第1の測距センサ121として駆動させ、または第2の測距センサ122として駆動させ、または駆動しない。センサ駆動制御部101は、各々のグループにおける測距センサ120による超音波の送受信動作を一定時間行い、これを順次グループを変えて(つまりグループA→グループB→グループC→グループD)駆動制御を行う。グループDのパターンで測距センサ120の駆動制御を行ったら、センサ駆動制御部101はまたグループAに戻って順次グループを変えて駆動制御を行う。
 図7に示すように、第1の測距センサ121として駆動制御された測距センサ120の前方に、車両Vの周囲に存在する物体としての柱Pがあったとする。この柱Pに向けて第1の測距センサ121から発信された超音波は、柱Pにより反射されて第1の測距センサ121により受信される。このときの、超音波の発信から受信までの時間を測距時間T[s]とすると、柱Pは、第1の測距センサ121の設置位置を中心とした半径R[m]=T×音速c[m/s]/2の円Cの円周CR上のどこかに位置することがわかる。
 また、図7と同じ位置に柱Pがあったとする。この柱Pに向けて第1の測距センサ121から発信された超音波は、柱Pにより反射されて、第1の測距センサ121に隣接する第2の測距センサ122により受信される。このときの、超音波の発信から受信までの時間を測距時間Tとすると、柱Pは、第1の測距センサ121及び第2の測距センサ122の設置位置を焦点とした楕円Eであって、それぞれの焦点からの距離の和がL[m]=T×cである楕円Eの周ER上のどこかに位置することがわかる。
 図7及び図8に示すように、車両Vの周囲に存在する物体が柱Pであると、この柱Pの位置は、図9に示すように円C及び楕円Eの交点IP1である。図9に示す物体の位置特定手法を、以下「三角法」と称する。
 一方、車両Vの周囲に存在する物体が図10に示すように壁Wであると、この壁Wの位置は、円C及び楕円Eとの接線TA、正確には接線TAと円C及び楕円Eとの交点IP2、IP3である。図10に示す物体の位置特定手法を、以下「接線法」と称する。ここで、壁Wに対して三角法を用いてその位置を特定すると、図10に示すように円C及び楕円Eの交点IP1となる。従って、壁Wに対して三角法を用いて物体の位置を特定すると、特定された位置と実際の位置との間に誤差が生じる。
 そこで、本実施の形態の測位支援装置1では、互いに隣接する第1の測距センサ121及び第2の測距センサ122の組み合わせの中から、同じ物体に対して超音波の送受信を行っていると考えられる複数の組み合わせを選択し、複数の組み合わせのそれぞれによって得られた物体の位置の関係に基づき、物体の形状を判定している。
 具体的には、周辺物体位置特定部105は、あるグループにおける第1の測距センサ121及び第2の測距センサ122による物体の位置特定結果を記憶部110のセンサ情報112に格納する。そして、別のあるグループにおける第1の測距センサ121及び第2の測距センサ122による物体の位置特定結果と、記憶部110に格納されているセンサ情報112とを用いて物体が柱状のものであるか壁状のものであるかを判定し、この判定結果に基づいて正しい物体の位置を特定している。この際、センサ情報112として格納される物体の位置特定結果は、接線法によるものとする。
 図11は、センサ組み合わせテーブル113の一例を示す図である。このセンサ組み合わせテーブル113において、矢印「->」の左は第1の測距センサ121、矢印の右は第2の測距センサ122の組み合わせである。各々の測距センサ120は、図5に示す名称で特定している。なお、図11に示す組み合わせのうち、周辺物体位置特定部105は、白抜きで示され、かつフロントソナーまたはリアソナー同士の2つ以上の組み合わせによる物体の位置特定結果に基づいて物体の形状判定を行う。従って、網掛けがされている組み合わせについては物体の形状判定の根拠としない。
 一例として、現在測距動作を行っている測距センサ120の組み合わせが「FIL->FOL」であったとする。周辺物体位置特定部105は、記憶部110に格納されているセンサ情報112から、「FOL->FIL」、及び/または「FIL->FIR」の組み合わせにより測距動作を行った結果である物体の位置特定結果を読み出し、以下の手順により物体の形状判定を行う。
 手法(1):周辺物体位置特定部105は、複数の組み合わせにより測距動作を行った結果である物体の位置を結んだ線分の傾きが所定角度以下であるか否かの判定を行い、所定角度以下であると判定したら、物体は壁状であると判定する。
 図12を参照してこの手法をより詳細に説明する。上述した「FIL->FOL」及び「FOL->FIL」の組み合わせにより、周辺物体位置特定部105が接線法に基づいて物体の位置を検出すると、組み合わせ毎にそれぞれ2つの位置A1、A2を得ることができる(図10における交点IP2、IP3)。これら位置A1、A2を結んで得られた第1の線分L1及び第2の線分L2は、図12に示すように組み合わせ毎に得られるので、これら線分L1、L2の傾きの差分が、図12(a)に示すように所定角度以下であれば、物体が壁状であると判定する。一方、図12(b)に示すように線分L1、L2の傾きの差分が所定角度を超えるときは、物体が柱状であると判定する。
 そして、周辺物体位置特定部105は、物体が壁状であると判定したら、接線法により物体の位置を特定する。一方、物体が柱状であると判定したら、周辺物体位置特定部105は三角法により物体の位置を特定する。
 ここに、位置A1、A2は特定の座標系上の座標値として得ることができるので、線分L1、L2の傾きは、この座標系の座標軸に対する傾きとして規定することができる。
 このように、線分L1、L2の傾きの差分により物体の形状を判定できるのは、仮に物体が柱状であった場合、接線法に基づいて位置検出を行うとその位置特定に誤差が大きく生じ、結果として線分L1、L2の傾きが線分L1、L2毎に異なると考えられるからである。逆に、物体が壁状であれば、線分L1、L2はいずれも壁面に沿うと考えられるので、線分L1、L2の傾きの差分は十分小さいと推定される。
 なお、所定角度は、周辺物体位置特定部105による実際の判定結果等を参照して適宜決定すれば良い。
 手法(2):周辺物体位置特定部105は、複数の組み合わせにより測距動作を行った結果である物体の位置A1、A2を結んだ第1の線分L1と第2の線分L2との間の距離が所定距離以下であるか否かの判定を行い、所定距離以下であると判定したら、物体は壁状であると判定する。
 図13を参照してこの手法をより詳細に説明する。図13に示す2本の線分L1、L2を構成する位置A1、A2のうち、互いに近接する位置A1、A2の間の距離、すなわち第1の線分L1の位置A2と第2の線分L2の位置A1との間の距離を、線分L1、L2の間の距離d1とする。この線分L1、L2の間の距離d1が、図13(a)に示すように所定距離以下であれば、物体が壁状であると判定する。一方、図13(b)に示すように線分L1、L2の間の距離d1が所定距離を超えるときは、物体が柱状であると判定する。
 そして、周辺物体位置特定部105は、物体が壁状であると判定したら、接線法により物体の位置を特定する。一方、物体が柱状であると判定したら、周辺物体位置特定部105は三角法により物体の位置を特定する。
 このように、線分L1、L2の間の距離d1により物体の形状を判定できるのは、仮に物体が柱状であった場合、接線法に基づいて位置検出を行うとその位置特定に誤差が大きく生じ、結果として線分L1、L2の間の距離d1が大きくなると考えられるからである。また、上述した手法(1)により線分L1、L2の傾きの差分が所定角度以下であると判定されても、線分L1、L2の間の距離d1が大きければ物体の形状判定が間違っている可能性があるからである。
 手法(3):周辺物体位置特定部105は、複数の組み合わせにより測距動作を行った結果である物体の位置A1、A2を結んだ線分L1、L2の重複部分の長さが所定長さ未満であるか否かの判定を行い、所定長さ未満であると判定したら、物体は壁状であると判定する。
 図14及び図15を参照して、この手法をより詳細に説明する。図14に示すように、特定の測距センサ120(図示例ではソナーFIL)から位置A1、A2を通る直線LL1~LL4を引き、2本の線分L1、L2を構成する位置A1、A2のうち、互いに近接する位置A1、A2を通る直線(図示例ではLL2、LL3)の間の距離d2を線分L1,L2の重複部分の長さとして定義する。そして、距離d2を線分L1の長さで割ることにより、線分L1、L2の重複率を算出する。周辺物体位置特定部105は、この重複率に基づいて物体の形状を判定する。
 図15(a)に示すように、線分L1、L2の重複率が所定値未満であれば、物体が壁状であると判定する。一方、図15(b)に示すように線分L1,L2の重複率が所定値以上であるときは、物体が柱状であると判定する。
 そして、周辺物体位置特定部105は、物体が壁状であると判定したら、接線法により物体の位置を特定する。一方、物体が柱状であると判定したら、周辺物体位置特定部105は三角法により物体の位置を特定する。
 このように、線分L1、L2の重複率により物体の形状を判定できるのは、仮に物体が柱状であった場合、接線法に基づいて位置検出を行うとその位置特定に誤差が大きく生じ、結果として線分L1、L2の重複率が高くなると考えられるからである。
 ここで、周辺物体位置特定部105は、上述した手法(1)~(3)に示した条件の全てに基づいて物体の形状を判定しているが、手法(1)~(3)の任意の組み合わせまたは単独で物体の形状を判定してもよい。
(測位支援装置の動作)
 次に、本実施の形態である測位支援装置1の動作の一例を図4のフローチャートを参照して説明する。なお、今までの説明により詳述した各構成要素の動作については適宜省略する。
図4のフローチャートに示す動作は、センサ駆動制御部101によりグループA~Dの駆動パターンの全てで測距センサ120による超音波の送受信動作が行われ、この送受信動作に基づいて周辺物体位置特定部105が物体の位置特定動作を行った結果が記憶部110にセンサ情報112として格納された後に開始される。また、図4のフローチャートに示す動作は、グループ毎に実行される。
 まず、ステップS1では、センサ駆動制御部101が記憶部110に格納されている。センサ駆動パターンテーブル111を参照して特定のグループのパターンを読み込む。そして、読み込んだパターンに基づいて測距センサ120を第1の測距センサ121または第2の測距センサ122として駆動制御する。そして、第1の測距センサ121及び第2の測距センサ122として駆動制御された測距センサ120は、車両Vの周囲に存在する物体から反射する超音波を受信する。
 ステップS2では、ステップS1で受信した超音波に基づいて、第1の距離算出部102及び第2の距離算出部103が物体までの距離を算出する。次いで、交点位置算出部104が円と楕円との交点を算出し、周辺物体位置特定部105が、交点位置算出部104により算出された交点に基づいて物体の位置を特定する。なお、ステップS2では、周辺物体位置特定部105は上述した三角法及び接線法の両方の手法を用いて物体の位置を特定する。
 ステップS3では、ステップS2で特定された物体の位置座標を座標変換部106が座標変換し、絶対座標系の位置座標を算出する。
 ステップS4では、ステップS1~ステップS3で得られた情報を、制御部100が記憶部110のセンサ情報112として格納する。ステップS4で格納される情報は、第1の測距センサ121のID、第2の測距センサ122のID、周辺物体位置特定部105が接線法で算出した物体の位置情報、及び車両Vの位置情報を少なくとも含む。また、ステップS4において、記憶部110に格納されているセンサ情報112のうち、第1の測距センサ121のID及び第2の測距センサ122のIDがともに一致するセンサ情報112が既に格納されている場合、制御部100はデータを上書きする。
 ステップS5では、周辺物体位置特定部105が、記憶部110に格納されているセンサ組み合わせテーブル113を参照し、ステップS1で取得した超音波受信情報において用いられた第1の測距センサ121及び第2の測距センサ122の組み合わせに対応する、第1の測距センサ121及び第2の測距センサ122の組み合わせに基づくセンサ情報112を記憶部110から読み出す。
 ステップS6では、座標変換部106が、ステップS5で読み出されたセンサ情報112のうち物体の位置情報を、読み出されたセンサ情報112が記憶部110に格納された時点から現在までの車両Vの移動距離を参照して補正する。座標変換部106による補正は、センサ情報112に含まれる車両Vの位置情報に基づいて行われればよい。
 ステップS7では、周辺物体位置特定部105が線分L1、L2の傾きの差分を算出する(図12参照)。ステップS8では、ステップS7で算出された線分L1、L2の傾きの差分が所定角度以内であるか否かが周辺物体位置特定部105により判定される。そして、所定角度以内であると判定されたら(ステップS8においてYES)、プログラムはステップS9に進む。一方、所定角度を超えたと判定されたら(ステップS8においてNO)、プログラムはステップS14に進む。
 ステップS9では、周辺物体位置特定部105が線分L1、L2の間の距離d1を算出する(図13参照)。ステップS10では、ステップS9で算出された線分L1、L2の間の距離d1が所定距離以下であるか否かが周辺物体位置特定部105により判定される。そして、所定距離以下であると判定されたら(ステップS10においてYES)、プログラムはステップS11に進む。一方、所定距離を超えたと判定されたら(ステップS10においてNO)、プログラムはステップS14に進む。
 ステップS11では、周辺物体位置特定部105が線分L1、L2の重複率を算出する(図14、図15参照)。ステップS12では、ステップS11で算出された線分L1、L2の重複率が所定値未満であるか否かが周辺物体位置特定部105により判定される。そして、所定値未満であると判定されたら(ステップS12においてYES)、プログラムはステップS13に進む。一方、所定値以上であると判定されたら(ステップS12においてNO)、プログラムはステップS14に進む。
 ステップS13では、物体が壁状であると周辺物体位置特定部105が判定し、この物体の位置を特定する。一方、ステップS14では、物体が柱状であると周辺物体位置特定部105が判定し、この物体の位置を特定する。
(測位支援装置の効果)
 以上のように構成された本実施の形態である測位支援装置1では、センサ駆動制御部101が、特定の時刻において特定の測距センサ120を第1の測距センサ121として駆動するとともに特定の測距センサ120に隣接する測距センサ120を第2の測距センサ122として駆動している。また、センサ駆動制御部101は、特定の時刻と異なる時刻において特定の測距センサ120を第2の測距センサ122として駆動するとともに特定の測距センサ120に隣接する測距センサ120を第1の測距センサ121として駆動している。
 そして、周辺物体位置特定部105は、特定の測距センサ120を第1の測距センサ121として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分L1、及び、特定の測距センサ120を第2の測距センサ122として駆動した際の円及び楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分L2を求め、これら第1の線分L1及び第2の線分L2に基づいて物体の形状を判定し、この判定結果に基づいて物体の位置を特定している。
 このようにすることで、少なくとも一対の測距センサ120、すなわち少なくとも1個の第1の測距センサ121と少なくとも1個の第2の測距センサ122とがあれば、物体の形状を判定してその位置を特定することができる。これにより、簡易な構成により物体の形状に合わせて位置を計算することができ、よって、物体の位置精度を向上することが可能な測位支援装置を提供することができる。
 以上、図面を参照して、本発明の実施の形態を詳述してきたが、具体的な構成は、この実施の形態及び実施例に限らず、本発明の要旨を逸脱しない程度の設計的変更は、本発明に含まれる。
関連出願の相互参照
 本出願は、2018年7月11日に日本国特許庁に出願された特願2018-131306に基づいて優先権を主張し、その全ての開示は完全に本明細書で参照により組み込まれる。
 

Claims (6)

  1.  車両の周囲に超音波を発信し、前記車両の周囲の物体に反射された超音波を受信する複数の測距センサと、
     複数の前記測距センサのうち一部の前記測距センサを、前記車両の周囲に超音波を発信して前記物体に反射された超音波を受信する第1の測距センサとして駆動し、また、複数の前記測距センサのうち、前記第1の測距センサに隣接する、前記第1の測距センサとは別の前記測距センサを、前記第1の測距センサから発信されて前記物体に反射された超音波を受信する第2の測距センサとして駆動するセンサ駆動制御部と、
     前記第1の測距センサが受信した超音波に基づいて前記車両から前記物体までの第1の距離を算出する第1の距離算出部と、
     前記第2の測距センサが受信した超音波に基づいて前記車両から前記物体までの第2の距離を算出する第2の距離算出部と、
     前記第1の測距センサの設置位置を中心として前記第1の距離を半径とする円と、前記第1の測距センサ及び前記第2の測距センサの設置位置を焦点として前記第2の距離に基づいて設定される楕円との交点を算出する交点位置算出部と、
     前記交点位置算出部により算出された前記交点に基づいて前記物体の位置を特定する周辺物体位置特定部と、を有し、
     前記センサ駆動制御部は、特定の時刻において特定の前記測距センサを前記第1の測距センサとして駆動するとともに前記特定の前記測距センサに隣接する前記測距センサを前記第2の測距センサとして駆動し、前記特定の時刻と異なる時刻において前記特定の前記測距センサを前記第2の測距センサとして駆動するとともに前記特定の前記測距センサに隣接する前記測距センサを前記第1の測距センサとして駆動し、
     前記周辺物体位置特定部は、前記特定の前記測距センサを前記第1の測距センサとして駆動した際の前記円及び前記楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、前記特定の前記測距センサを前記第2の測距センサとして駆動した際の前記円及び前記楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて前記物体の位置を特定することを特徴とする測位支援装置。
  2.  前記周辺物体位置特定部は、前記第1の線分と前記第2の線分とのなす角度が所定角度以下であるとき、前記接線の位置に壁状の前記物体が位置するものと特定することを特徴とする請求項1に記載の測位支援装置。
  3.  前記周辺物体位置特定部は、前記第1の線分と前記第2の線分との間の距離が所定距離以下であるとき、前記接線の位置に壁状の前記物体が位置するものと特定することを特徴とする請求項1または2に記載の測位支援装置。
  4.  前記周辺物体位置特定部は、前記第1の線分と前記第2の線分との重複部分の長さが所定長さ未満であるとき、前記接線の位置に壁状の前記物体が位置するものと特定することを特徴とする請求項1から3のいずれかに記載の測位支援装置。
  5.  前記円及び前記楕円とこれら円及び楕円との接線の交点に関する座標値が格納された記憶部を有し、
     前記周辺物体位置特定部は、前記記憶部に格納された前記円及び前記楕円とこれら円及び楕円との接線の交点に関する座標値に基づいて、前記物体の位置を特定することを特徴とする請求項1から4のいずれかに記載の測位支援装置。
  6.  車両の周囲に超音波を発信し、前記車両の周囲の物体に反射された超音波を受信する複数の測距センサを有する測位支援装置による測位支援方法であって、
     複数の前記測距センサのうち一部の前記測距センサを、前記車両の周囲に超音波を発信して前記物体に反射された超音波を受信する第1の測距センサとして駆動し、また、複数の前記測距センサのうち前記第1の測距センサに隣接する、前記第1の測距センサとは別の前記測距センサを、前記第1の測距センサから発信されて前記物体に反射された超音波を受信する第2の測距センサとして駆動し、
     前記第1の測距センサが受信した超音波に基づいて前記車両から前記物体までの第1の距離を算出し、
     前記第2の測距センサが受信した超音波に基づいて前記車両から前記物体までの第2の距離を算出し、
     前記第1の測距センサの設置位置を中心として前記第1の距離を半径とする円と、前記第1の測距センサ及び前記第2の測距センサの設置位置を焦点として前記第2の距離に基づいて設定される楕円との交点を算出し、
     前記交点に基づいて前記物体の位置を特定し、さらに、
     特定の時刻において特定の前記測距センサを前記第1の測距センサとして駆動するとともに前記特定の前記測距センサに隣接する前記測距センサを前記第2の測距センサとして駆動し、前記特定の時刻と異なる時刻において前記特定の前記測距センサを前記第2の測距センサとして駆動するとともに前記特定の前記測距センサに隣接する前記測距センサを前記第1の測距センサとして駆動し、
     前記特定の前記測距センサを前記第1の測距センサとして駆動した際の前記円及び前記楕円とこれら円及び楕円との接線の交点とを結ぶ第1の線分、及び、前記特定の前記測距センサを前記第2の測距センサとして駆動した際の前記円及び前記楕円とこれら円及び楕円との接線の交点とを結ぶ第2の線分を求め、これら第1の線分及び第2の線分に基づいて前記物体の位置を特定することを特徴とする測位支援方法。
     
PCT/JP2019/023104 2018-07-11 2019-06-11 測位支援装置及び測位支援方法 Ceased WO2020012852A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-131306 2018-07-11
JP2018131306 2018-07-11

Publications (1)

Publication Number Publication Date
WO2020012852A1 true WO2020012852A1 (ja) 2020-01-16

Family

ID=69141509

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/023104 Ceased WO2020012852A1 (ja) 2018-07-11 2019-06-11 測位支援装置及び測位支援方法

Country Status (1)

Country Link
WO (1) WO2020012852A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210231799A1 (en) * 2018-10-19 2021-07-29 Denso Corporation Object detection device, object detection method and program
CN113359136A (zh) * 2020-03-06 2021-09-07 华为技术有限公司 一种目标检测方法、装置及分布式雷达系统
DE102021204635A1 (de) 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Verfahren zur Bestimmung der Lage eines Objekts
US12392619B2 (en) 2020-05-22 2025-08-19 Profound Positioning Inc. Vehicle localization system and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
WO2003060552A1 (en) * 2002-01-09 2003-07-24 M/A-Com, Inc. Method and apparatus for identifying complex objects based on range readings from multiple sensors
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法
JP2017142171A (ja) * 2016-02-10 2017-08-17 株式会社Soken 物体検知装置
WO2018043028A1 (ja) * 2016-08-29 2018-03-08 株式会社デンソー 周辺監視装置及び周辺監視方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
WO2003060552A1 (en) * 2002-01-09 2003-07-24 M/A-Com, Inc. Method and apparatus for identifying complex objects based on range readings from multiple sensors
WO2016103464A1 (ja) * 2014-12-26 2016-06-30 三菱電機株式会社 障害物検知装置及び障害物検知方法
JP2017142171A (ja) * 2016-02-10 2017-08-17 株式会社Soken 物体検知装置
WO2018043028A1 (ja) * 2016-08-29 2018-03-08 株式会社デンソー 周辺監視装置及び周辺監視方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210231799A1 (en) * 2018-10-19 2021-07-29 Denso Corporation Object detection device, object detection method and program
US12320892B2 (en) * 2018-10-19 2025-06-03 Denso Corporation Object detection device, object detection method and program
CN113359136A (zh) * 2020-03-06 2021-09-07 华为技术有限公司 一种目标检测方法、装置及分布式雷达系统
US12392619B2 (en) 2020-05-22 2025-08-19 Profound Positioning Inc. Vehicle localization system and method
DE102021204635A1 (de) 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Verfahren zur Bestimmung der Lage eines Objekts
WO2022233371A1 (de) * 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Verfahren zur bestimmung der lage eines objekts

Similar Documents

Publication Publication Date Title
CN105799700B (zh) 避免碰撞控制系统和控制方法
US9707959B2 (en) Driving assistance apparatus
JP6555067B2 (ja) 車線変更支援装置
CN106080597B (zh) 自动驾驶车辆系统
JP6303453B2 (ja) 駐車支援装置
CN108928343A (zh) 一种全景融合自动泊车系统及方法
JP6413621B2 (ja) 車載用物体判別装置
WO2020012852A1 (ja) 測位支援装置及び測位支援方法
JP6421716B2 (ja) 車両の運転支援制御装置
CN106114217A (zh) 行驶控制装置
JP5906999B2 (ja) 駐車支援装置
JP6658235B2 (ja) 車線維持装置
CN103913748A (zh) 一种基于多传感器的汽车感知系统及感知方法
WO2019058578A1 (ja) 測位支援装置
JP5786775B2 (ja) 駐車支援装置
CN109814115B (zh) 一种垂直泊车的角度识别校正方法
JP5041983B2 (ja) 障害物警告装置、障害物警告方法及びコンピュータプログラム
JP7681715B2 (ja) 車両制御装置
JP7158190B2 (ja) 駐車支援装置及び駐車支援方法
JP4957589B2 (ja) 障害物警告装置、障害物警告方法及びコンピュータプログラム
JP2019028486A (ja) 障害物検知装置及び障害物検知方法
JP2014043139A (ja) 駐車支援装置
JP6020021B2 (ja) 駐車支援装置
WO2022259644A1 (ja) 車両制御装置
JP4893678B2 (ja) 他車両検出装置、他車両検出方法及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19833011

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19833011

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP