[go: up one dir, main page]

WO2018020129A1 - Systeme de pilotage d'un vehicule autonome - Google Patents

Systeme de pilotage d'un vehicule autonome Download PDF

Info

Publication number
WO2018020129A1
WO2018020129A1 PCT/FR2017/052049 FR2017052049W WO2018020129A1 WO 2018020129 A1 WO2018020129 A1 WO 2018020129A1 FR 2017052049 W FR2017052049 W FR 2017052049W WO 2018020129 A1 WO2018020129 A1 WO 2018020129A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
vehicle
delegated
sensors
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2017/052049
Other languages
English (en)
Inventor
Annie BRACQUEMOND
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut Vedecom
Original Assignee
Institut Vedecom
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Vedecom filed Critical Institut Vedecom
Priority to JP2019504695A priority Critical patent/JP2019528518A/ja
Priority to EP17758222.8A priority patent/EP3491475A1/fr
Priority to US16/320,780 priority patent/US20200331495A1/en
Priority to CN201780047018.9A priority patent/CN109690434A/zh
Publication of WO2018020129A1 publication Critical patent/WO2018020129A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0077Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements using redundant signals or controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level

Definitions

  • the present invention relates to the field of autonomous vehicles and more specifically computer equipment for the control of autonomous vehicles.
  • a vehicle is qualified as autonomous if it can move without the continuous intervention and monitoring of a human operator. According to the United States Department of Transportation, this means that the car can operate without a driver intervening in driving, acceleration or braking. The level of automation of the vehicle nevertheless remains the most important element.
  • the National Highway Traffic Safety Administration defines five "levels" of automation:
  • Level 0 No automation. The driver has full control and at all times the main functions of the vehicle (engine, accelerator, steering, brakes).
  • Level 1 Automation of certain functions. Automation is present for some functions of the vehicle, but only assist the driver who keeps overall control. For example, the anti-lock braking system (ABS) or electro-stabilizer (ESP) will automatically act on the braking to help the driver keep control of the vehicle.
  • ABS anti-lock braking system
  • ESP electro-stabilizer
  • Level 2 Combined function automation. The control of at least two
  • Adaptive cruise control combined with centering on the track brings the vehicle into this category, as does Park Assist, which allows parking without the driver acting on the steering wheel or pedals.
  • Level 3 Limited autonomous driving.
  • the driver can give complete control of the vehicle to the automated system which will then be responsible for critical safety functions.
  • autonomous driving can only take place under certain environmental and traffic conditions (only on the motorway, for example). It is imposed on the driver to be able to regain control in an acceptable time at the request of the system (especially when the conditions of autonomous traffic are no longer met: motorway exit, plug, etc.).
  • Google Car (commercial name) is currently at this stage of automation. • Level 4: Complete autonomous driving. The vehicle is designed to perform all the critical safety functions on a complete journey alone. The driver provides a destination or navigation instructions but is not required to be available to regain control. It can also leave the driving position and the vehicle is able to move without occupant on board.
  • Driverless vehicles operate by accumulating multiple pieces of information from cameras, sensors, geolocation devices (including radars), digital maps, programming and navigation systems, and data from other connected vehicles. network infrastructure. Operating systems and software then process all of this information and coordinate the mechanical functions of the vehicle. These processes reproduce the infinite complexity of the tasks performed by a driver, to drive
  • the computer architecture of such vehicles must be able to handle the multitude of signals from sensors and external information sources and proceed to the processing to extract from these signals relevant data, eliminate abnormal data and combine these data to control the organs
  • electromechanical of the vehicle (steering, braking, engine speed, alarms, ).
  • the computer architecture must guarantee absolute reliability, even in the event of an error on a digital map, a faulty sensor or a malfunction of the navigation software, or of these three elements. that time.
  • 2014044480 relating to a method for operating a motor vehicle in an automatic driving mode, comprising the steps of:
  • identification, landmarks) of sensor objects and fusion objects are transmitted and processed.
  • US patent application US 20100104199 discloses a method for detecting an available path of travel for a host vehicle, by free path detection by image analysis and detection of an object in a host vehicle environment. This solution includes camera-based monitoring, tracking detection image analysis, analysis to determine a free-motion path in the image, monitoring of sensor data describing the camera. object, analyzing the sensor data to determine the impact of the object on the path.
  • US Patent 8930060 discloses an environment analysis system from a plurality of sensors for detecting predetermined security risks associated with a plurality of potential destination regions around a vehicle when the vehicle is traveling on a roadway .
  • the system selects one of the potential destination regions with the least significant security risk as a target area.
  • a path determination unit assembles a plurality of plausible paths between the vehicle and the target area, monitors the predetermined security risks associated with the plurality of plausible paths, and selects one of the plausible paths having a substantially lower security risk. as a target path.
  • An impact sensor detects an impact between the vehicle and another object.
  • a stability control is configured to autonomously orient the vehicle on the target path when the impact is detected.
  • Patent application EP2865575 discloses a driver assistance system comprising a prediction subsystem in a vehicle.
  • the method includes the steps of accepting an environment representation.
  • the computation of a confidence estimate related to the representation of the environment by applying the plausibility rules on the representation of the environment and providing the confidence estimate as a contribution for an evaluation of a prediction based on the representation of the environment.
  • the vehicle environment integrating, among other things, the aspects
  • meteorological and atmospheric conditions but also the road context, is rich in disturbances.
  • the invention relates, in its most general sense, to a steering system of an autonomous vehicle according to claim 1 and to the dependent claims, as well as to a driving method according to the method claim.
  • the invention is distinguished by independent functional redundancies stated in the above list, arbitrated by an additional decision module implementing the principles of the security of the
  • This arbitration takes into account three types of input information:
  • the invention makes it possible to meet the drawbacks of the prior art by a distributed architecture, with specialized computers assigned solely to the processing of sensor data, computers of another type specifically assigned to the execution of computer programs for determining delegated driving information and an additional calculator constituting the arbitration module for deciding the selection of one of said delegated driving information.
  • the decision of the arbitration module makes it possible to identify the most sure result, for any type of object perceived in the scene (state of a fire, position of an obstacle, location of the vehicle, distance to to a pedestrian, maximum speed allowed on the track, etc.).
  • the arbitration module can consists of a calculator applying a treatment from a base of logical mathematical rules and artificial intelligence, or applying statistical processing (for example Monte-Carlo, Gibbs, Bayesian, ...) or learning machine learning. These treatments help to ensure both a real-time processing, and a processing in parallel tasks to be reinjected later in the processing in real time.
  • the invention also relates to a method for controlling an autonomous vehicle comprising:
  • FIG. schematic of a first example of the architecture of a control system of an autonomous vehicle according to the invention
  • FIG. 2 represents a schematic view of a second example of the architecture of a control system of an autonomous vehicle according to the invention.
  • the computer architecture illustrated in Figure 1 includes:
  • a first data generation stage comprising:
  • a second stage of direct data exploitation including modules
  • hyper-perception device comprising each of the input ports of the signals coming from one or more connected sensors and components and a computer executing an object hyper-perception program, to perform the functions of: o perception that allows the vehicle to interpret its environment and perceive static or dynamic objects;
  • hyperperception including:
  • a nominal hyperplanification module (31) carrying out the planning function which makes it possible to calculate the lateral and longitudinal trajectory that the vehicle must follow by calculating a set of driving commands
  • a backup hyperplanation module (32) calculating a fallback solution to put the vehicle safe even in the most critical contexts.
  • the set of treatments is of the declarative and non-deterministic type: at all times, the used and calculated information is associated with confidence levels whose value is known only during the execution of the programs.
  • the system according to the invention implements the following technical choices: - Implementation, in the first stage (5), of a diversity of the sensors and, in the second stage (15) of functional redundancies of perception to perceive a same object in different ways. In this way, cross-tests can be performed on these perception results - in terms of reliability, consistency and confidence - in order to make comparisons from the point of view of these different criteria and to choose the best result. of perception.
  • the autonomous vehicle system tends to be more reliable by utilizing the maximum of these technological and functional capabilities. But he also becomes more tolerant to mistakes because he can detect them and protect himself by continually adapting his behavior.
  • the first stage (5) comprises the modules (1 to 3) for processing the signals coming from various sensors on the vehicle and the connected modules (4 to 6) receiving external data.
  • Autonomous vehicle sources are a multiple base for environmental detection. Each sensor and each source is associated with information representative of the reliability and the level of confidence.
  • the detection results are then processed to be exploitable, by the second stage: the production of perception variables.
  • the stage (15) of hyperperception is broken down into two parts:
  • the "Production of Perception Variables” grouping together all the perception algorithms that interpret sensor detections and other sources and calculate perception variables representative of an object.
  • the "Safe supervision” section which groups together a set of cross-tests, on reliability, software and hardware errors, confidence levels and algorithmic coherences. This set makes it possible to determine the most competitive object of perception - that is, the object that, in terms of representativeness, trust, reliability and integrity - is the best. From these detection results and via numerous algorithms, perception variables are calculated. The latter will allow the system to describe the objects in the scene and to define from them a safe trajectory for the vehicle.
  • an object perception variable must be given by at least two different algorithms. Multi-source fusion, where possible, must also be used to produce these variables.
  • the calculator executes a process that summarizes all the results and decides on the best object to send to the planning. This is about responding to the question: what are the best objects in terms of consistency, reliability and trust?
  • This second floor is split both from the material point of view
  • This second stage transmits the same data to the third floor twice.
  • the third stage (35) of hyperplanification comprises two modules (31, 32) for planning the steering of the autonomous vehicle.
  • the planning process is divided into three distinct parts:
  • the "Hyperperception Modules” section which groups together all the functions, the hyperperceptions associated with each perception function, as well as other input modules such as cartographic files that make it possible to compare the location results with known information. Moreover, and thus calculate a trajectory for the autonomous vehicle.
  • the "Production of trajectories" section which groups together all the planning algorithms and calculates the different trajectories that the autonomous vehicle can take. This trajectory calculation is based on the perception functions of the vehicle environment.
  • the "safety and intelligent decision supervision” part which groups together a set of cross-tests, on reliability, confidence levels and algorithmic coherences. This set makes it possible to determine the most competitive trajectory - that is to say the trajectory that, in terms of representativeness, confidence, reliability and integrity - is the best.
  • This part receives the two sets of signals from the second stage, and decides the hardware and software reliability of the two sets of signals to select the most relevant set of signals.
  • Several algorithms calculate the trajectories that the autonomous vehicle can take. Each algorithm calculates a type of trajectory specific to the perception objects that it considers. However, it can calculate one or more trajectories of the same type depending on the number of lanes that the vehicle can potentially borrow. For example, if the vehicle is traveling on a dual-lane road segment, the planning system can calculate a path for each lane.
  • trajectory calculation algorithms In order to satisfy the established security methodology, the trajectory calculation algorithms must send the potential trajectory (s) accompanied by the level of confidence and intrinsic reliability associated with them.
  • Another specificity of the security methodology is to use a multi-perception fusion algorithm in order to further diversify the trajectory calculation means.
  • This selection is influenced by the track history of the autonomous vehicle, the traffic, the types of infrastructure, the good practices behavior of the road safety, the rules of the road and the criticality of the potential risks associated with each trajectory, such as for example defined by the IS026262 standard. This choice integrates the hyperplanification of the refuge mode.
  • the behavioral choice algorithm is a last layer
  • the refuge hyperplanification module (32) calculates a refuge trajectory in order to ensure all possible fallback possibilities that may be envisaged in the event of an emergency. This trajectory is calculated from perception objects determined according to the methodology of hyperperception and hyperplanification, but considered in this case for an alternative in refuge mode.
  • the second exemplary embodiment relates to a particular case for determining the vehicle set point.
  • the example relates to an autonomous vehicle which must be qualified level “OICA” 4 or 5, that is to say, a level of autonomy where the driver is "out of the loop” (English term).
  • the system must drive and decide alone, without intervention of the driver, the movements of the car on any infrastructure and in any environment.
  • the following description relates to the safe functional architecture of VEDECOM's "oversystem” autonomous vehicle, designed above an existing vehicle platform, to enhance the reliability and increase the functional safety of the latter, but also to ensure the integrity of the vehicle information. exploitation and decisions made by the intelligence of this "on-system”.
  • a safe architecture of the autonomous vehicle according to the invention has been developed according to the following 4 robustness mechanisms:
  • a module examines the results in order to identify the safest result according to a decision-making scheme based on the behavior of the vehicle and its environment.
  • So-called source 2 A detection detection function, using a stereo camera
  • source 3 A localization function called SLAM, using one or more Lidars (or 4 sensors associated with a fusion)
  • So-called source 4 A so-called GPS location function, using a GPS, I MU and RTK correction These input functions are undergone by the system (functions related to equipment manufacturers or technological bricks). The outputs of these 4 sources are therefore very heterogeneous:
  • Source 1 (tracking function) gives the xy position of the middle of the rear of the obstacle in the ego-vehicle marker.
  • the obstacle is identified by an identifier number (to know if there is a change of target). No confidence in tracking is provided
  • Source 2 (marking function) gives 2 vectors (a, b, c) corresponding to
  • ⁇ Source 3 (SLAM function) gives the location (x, y, cap) of the vehicle in the
  • Source 4 GPS location function gives the location (x, y, cap) of the vehicle
  • object is the set point.
  • the set path is given by a vector (a, b, c) corresponding to the polynomial
  • the track-based perception algorithm (42) uses the x, y position of the shield vehicle. The strong assumption is therefore that the "shield" vehicle is in the autonomous vehicle's set-point lane.
  • this history constitutes a map
  • the output is therefore a variable "path" defined by the 3 variables (a, b, c) of its polynomial interpolation.
  • the marking detection algorithm (43) already provides a polynomial of degrees 2 of the white line located to the right and to the left of the vehicle:
  • the polynomial of the path is therefore simply the average of the 2 coefficients of the 2 polynomials:
  • the mapping is performed upstream by simple rolling on the set path, and recording values x, y given by the GPS.
  • the strong assumption is that the position given by the GPS is always of quality ( ⁇ 20 cm) (thus correction signal RTK OK), which is not always the case.
  • the perception algorithm track by SLAM using the data from the so-called sensor 4 is based on the same principle as GPS-RTK. The only difference corresponds to the location reference: in the case of SLAM, the position x, y, yaw, and therefore the associated mapping is given in the SLAM reference and not in an absolute reference GPS.
  • Trust is here a Boolean indicator, constructed in the following way:
  • the condition "vehicle in the axis” is set to 1 if the longitudinal position x of the tracked vehicle is between 1m and 50m from the ego-vehicle, and if its lateral position is: -1 .5m ⁇ y ⁇ 1 .5m
  • the object in question is characterized as a vehicle (and not a pedestrian).
  • the trust "way” by the marking is simply calculated from the 2 confidences of the 2 markings
  • the SLAM trust is a Boolean that drops permanently to 0 as soon as the confidence in the SLAM's location falls below a certain threshold. Indeed, this SLAM VEDECOM is not able to calculate a location once the SLAM algorithm "lost".
  • the SLAM VEDECOM is not always activable from the beginning of the course of the autonomous vehicle.
  • the previous condition should only be activated when the SLAM has already been in an initialization phase (marked by a specific point on the map).
  • a condition related to the mapping has been added for the SLAM to have a non-zero confidence, we add the condition: the vehicle must be within 4 meters of the lane given by the SLAM: for this, we recover the LaneShift from vehicle, ie the variable "c" of the polynomial (ordered at the origin) of the perception "way” given by the SLAM.
  • the environmental conditions correspond to the conditions:
  • the weather conditions are not taken into account: in general, the demonstrations are suspended in case of bad conditions.
  • the geographical conditions are taken into account in the topological cartography: in a very generic way, for each geographical portion envisaged in the course of the autonomous vehicle, an external confidence (Boolean 0 or 1) is provided, independently of the cause (tunnel, steep slope ). We therefore have 4 columns in the topological cartography:
  • the external confidence is set to 0 before entering the tunnel.
  • each sensor is derived from a self-diagnostic test of the sensor, commonly provided by sensor vendors.
  • the Continental camera outputs an "extended qualifier" that takes the following states:
  • the reliability A (reliability of the track by tracking) is 1 (OK state) if:
  • the watchdog test corresponds to verifying that the watchdog increment (info coming from the upstream perception calculator) is well realized.
  • the reliability of each algorithm is related to the reliability of each sensor source associated with a test.
  • the coherence function (45) includes two types of tests:
  • Intrinsic consistency aims to verify the relevance of the object itself. For example, an intrinsic coherence test of an obstacle verifies that the object seen is in the visible zone of the sensor.
  • a possible test would be to verify that over the last N seconds, the path given by an algorithm is close to the path of the vehicle history. For example, we can look at the LaneShift (variable "c" of the polynomial of the channel) of the algorithm and check that it is close to 0 over the last 5 seconds.
  • the goal is to output a boolean indicating whether the "path" given by one algorithm is consistent with the path given by another.
  • A, B, C, D we have 6 Booleans to compute: AB, AC, AD, BC, BD, CD.
  • the 2-way comparison is done roughly by comparing the setpoints of the algorithms. Precisely, the comparison is made as follows:
  • the setpoint heading is equal to atan (LaneShift setpoint / distance at defined time horizon).
  • CapCoherence_deg set to 10 ° by default.
  • the decision block (47) realizes the final choice of the path, according to the confidences, coherences, indices of reliability, and index of performance. In the event of a failure, a low confidence index, or an inconsistency between the current route and the proposed choices, an emergency stop decision may be requested.
  • the channel algorithms (A: Tracking, B: Marking, C, SLAM, D: GPS-RTK) receive a priority index defined in the "default classification” (independent trust, consistency or reliability). This ranking is linked to the rules of expertise concerning in particular the performance
  • Consistency For example, to go from the path of an algorithm 2 to the path of algorithm 3, consistency 2-3 must be OK
  • the decision-maker activates an emergency braking flag. In manual mode, this results in a prohibition of passage in autonomous mode.
  • the internal / external confidence of the 4 algorithms (A: Tracking, B: Marking, C, SLAM, D: GPS-RTK) is: c'A, c'B, c'C, D
  • the reliability index of the 4 algorithms (A: Tracking, B: Marking, C;
  • SLAM, D GPS-RTK
  • the rules of expertise consist of imposed pre-rules derived from VEDECOM's expertise on, in this case, the construction algorithms of the track.
  • the marking given by the Continental camera, is today the least efficient algorithm, and is especially not usable below a radius of curvature of 150 m.
  • the expertise shows that it is always better to favor a particular algorithm according to the recorded history in real time in an information base (48) (even if it abandons the use of the current algorithm to return to the priority algorithm).
  • other people to avoid algorithm transitions (which can cause micro-steering blows compared to a safe and comfortable behavior), prefer to minimize these transitions by keeping to the maximum the current algorithm (even if the most efficient algorithm is again usable).
  • the sequential logic is a Stateflow schema with entries as: ⁇
  • the 4 trusts (numbered according to the order of ranking by priority): therefore
  • Trust_1 is the trust of the priority algorithm.
  • the 2 outputs are:
  • the function will aim to determine the best possible algorithm when the transition to the autonomous mode will be realized.
  • this diagram favors the return to mode 1, that is to say the choice towards the priority algorithm. Only confidence indices are taken into account.
  • the coherences are not coherent, because in the case of the manual mode, and unlike the autonomous mode, a bad coherence between 2 ways will not have any impact (of the flying-wheel type).
  • a priority 3 algorithm will only be selected if the confidence of algorithm 1 and 2 are zero.
  • ELSE We go directly from mode 1 to mode 3 (A: Tracking), IF it is not possible to switch to GPS-RTK (see condition in previous sentence) AND if the confidence of the track in Tracking is 1 AND if the path given by SLAM and that of the
  • ELSE It goes directly from mode 1 to mode 4 (B: Marking), IF it is not possible to switch to GPS-RTK AND IF it is not possible to go into Tracking AND if the confidence of the way by Mark is 1 AND if the path given by the SLAM and that of the Marking are consistent
  • GPS-RTK 1 the GPS-RTK is the GPS-RTK.
  • ELSE We go directly from mode 2 to mode 4 (A: Marking), if it is not possible to go into tracking AND if the confidence of the track by Marking is 1 AND if the channel given by the GPS-RTK and that of Marking are consistent
  • the function Transfer Priority number -> Algo number just makes the transfer between the prioritization (1: Algo highest priority, 2: Algo the 2nd highest priority, 3: Algo the 3rd highest priority, 4 the lowest priority algorithm ) and the default ranking (A: Tracking, B: Marking, C; SLAM, D: GPS-RTK).

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Atmospheric Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

La présente invention concerne un système de pilotage d'un véhicule autonome comportant une pluralité de capteurs (1 à 6) de natures différentes, des calculateurs exécutant des programmes informatiques pour la détermination d'informations de conduite déléguée en fonction des données délivrées par lesdits capteurs, caractérisé en ce qu'il comporte en outre au moins un module d'arbitrage (15) comprenant au moins un calculateur exécutant un programme informatique pour décider la sélection fonctionnelle la plus sûre d'une desdites informations de conduite déléguée en fonction d'une pluralité d'informations calculées en fonction : • de données dynamiques comprenant une partie au moins des informations constituées par: º des niveaux de confiance (44) de chacune desdites informations de conduite déléguée, º de la cohérence (45) de variables associées auxdites informations déléguées º de la fiabilité matérielle (46) et logicielle des composants dudit système • de données climatiques et/ou historiques comprenant une partie au moins des informations constituées par: º l'historique de conduite du véhicule (48), º des conditions d'environnement (49), • et de traitements de décision pour l'arbitrage d'un comportement sécuritaires (47) du pilotage.

Description

SYSTEME DE PILOTAGE D'UN VEHICULE AUTONOME
Domaine de l'invention
La présente invention revendique la priorité de la demande française 1657337 déposée le 29 juillet 2016 dont le contenu (texte, dessins et revendications) est ici incorporé par référence.
La présente invention concerne le domaine des véhicules autonomes et plus précisément des équipements informatiques destinés à la commande de véhicules autonomes.
Un véhicule est qualifié d'autonome s'il peut se déplacer sans l'intervention et la surveillance continues d'un opérateur humain. Selon le Ministère des transports des États-Unis d'Amérique, cela signifie que la voiture peut fonctionner sans qu'un conducteur n'intervienne au niveau de la conduite, de l'accélération ou du freinage. Le niveau d'automatisation du véhicule reste néanmoins l'élément le plus important. La National Highway Traffic Safety Administration (l'administration américaine chargée de la sécurité routière sur les autoroutes) définit ainsi cinq "niveaux" d'automatisation :
• Niveau 0 : Aucune automatisation. Le conducteur a un contrôle total et à tout instant des fonctions principales du véhicule (moteur, accélérateur, direction, freins).
• Niveau 1 : Automatisation de certaines fonctions. L'automatisation est présente pour certaines fonctions du véhicule, mais ne font qu'assister le conducteur qui garde le contrôle global. Par exemple, le système antiblocage des roues (ABS) ou l'électro stabilisateur (ESP) vont automatiquement agir sur le freinage pour aider le conducteur à garder le contrôle du véhicule.
• Niveau 2 : Automatisation de fonctions combinées. Le contrôle d'au moins deux
fonctions principales est combiné dans l'automatisation pour remplacer le conducteur dans certaines situations. Le régulateur de vitesse adaptatif combiné avec le centrage sur la voie fait entrer le véhicule dans cette catégorie, tout comme le Park Assist qui permet le stationnement sans que le conducteur n'agisse sur le volant ou les pédales.
• Niveau 3 : Conduite autonome limitée. Le conducteur peut céder le contrôle complet du véhicule au système automatisé qui sera alors chargé des fonctions critiques de sécurité. Cependant la conduite autonome ne peut avoir lieu que dans certaines conditions environnementales et de trafic (uniquement sur autoroute par exemple). Il est imposé au conducteur d'être en mesure de pouvoir reprendre le contrôle dans un temps acceptable sur demande du système (notamment lorsque les conditions de circulation autonome ne sont plus réunies : sortie de l'autoroute, bouchon, etc.). La
Google Car (nom commercial) est actuellement à ce stade d'automatisation. • Niveau 4 : Conduite autonome complète. Le véhicule est conçu pour assurer seul l'ensemble des fonctions critiques de sécurité sur un trajet complet. Le conducteur fournit une destination ou des consignes de navigation mais n'est pas tenu de se rendre disponible pour reprendre le contrôle. Il peut d'ailleurs quitter le poste de conduite et le véhicule est capable de circuler sans occupant à bord.
Les véhicules sans conducteur fonctionnent en accumulant de multiples informations provenant de caméras, de capteurs, de dispositifs de géolocalisation (dont des radars), de cartes numériques, de systèmes de programmation et de navigation ainsi que de données transmises par d'autres véhicules connectés et infrastructures en réseau. Les systèmes d'exploitation et les logiciels traitent ensuite l'ensemble de ces informations et assurent la coordination des fonctions mécaniques du véhicule. Ces procédés reproduisent l'infinie complexité des tâches effectuées par un conducteur tenu, pour conduire
correctement, d'être tout à la fois concentré sur la route, le comportement de son véhicule et son propre comportement.
L'architecture informatique de tels véhicules doit permettre de gérer la multitude de signaux provenant des capteurs et des sources d'informations externes et procéder aux traitements pour extraire de ces signaux des données pertinentes, éliminer les données anormales et combiner ces données pour commander les organes
électromécaniques du véhicule (direction, freinage, régime moteur, alarmes, ...).
Compte tenu du contexte d'utilisation, l'architecture informatique doit garantir une fiabilité absolue, même en cas d'erreur sur une carte numérique, d'un capteur défaillant ou d'un dysfonctionnement du logiciel de navigation, ou de ces trois éléments à la fois.
Les mécanismes de robustesse des architectures relèvent :
- du contrôle de cohérence et de l'intégrité des niveaux de confiance de chaque sous-système de perception,
- de la fiabilisation de chaque sous-système pour limiter le taux de défaillance
- de redondances de supports physiques de calcul
- de redondances fonctionnelles distribuées sur différents supports physiques.
Etat de la technique
On a proposé dans l'état de la technique différentes solutions
d'architectures informatiques destinées à des véhicules autonomes. On connaît dans l'état de la technique la demande de brevet WO
2014044480 qui concerne un procédé pour faire fonctionner un véhicule automobile dans un mode de conduite automatique, comprenant les étapes:
- déterminer une trajectoire standard (ST1 ), la trajectoire standard (ST1 ) déterminée étant transmise au moyen d'un dispositif de commande à un dispositif actionneur du véhicule automobile pendant la conduite;
- guider le véhicule automobile le long de la trajectoire standard (ST1 ); et
- déterminer une plage de sécurité (B) pour le véhicule automobile, la plage de sécurité déterminée (B) étant transmise au moyen du dispositif de commande au dispositif actionneur (1 ) pendant la conduite;
dans un cas où la conduite automatique du véhicule automobile n'est plus garantie, passer à la plage de sécurité (B), le véhicule automobile étant guidé au moyen du dispositif actionneur dans la plage de sécurité (B).
On connaît aussi la demande de brevet US 20050021201 décrivant un procédé et un dispositif d'échange et traitement en commun de données objet entre des capteurs et une unité de traitement. Selon cette solution de l'art antérieur, des informations de position et/ou des informations de vitesse et/ou d'autres attributs (dimension,
identification, repères) d'objets de capteurs et d'objets de fusion sont transmises et traitées.
La demande de brevet américain US 20100104199 décrit un procédé pour détecter une voie de déplacement disponible pour un véhicule hôte, par la détection de trajet libre par analyse d'image et la détection d'un objet dans un environnement du véhicule hôte. Cette solution comprend la surveillance à partir d'un appareil de caméra, l'analyse de l'image par détection de cheminement, l'analyse pour déterminer un chemin de déplacement libre dans l'image, la surveillance des données du capteur décrivant l'objet, l'analyse des données du capteur pour déterminer l'impact de l'objet sur la trajectoire.
Le brevet US 8930060 décrit un système d'analyse d'environnement à partir d'une pluralité de capteurs pour détecter des risques de sécurité prédéterminés associés à une pluralité de régions de destination potentielles autour d'un véhicule lorsque le véhicule se déplace sur une chaussée. Le système sélectionne l'une des régions de destination potentielles ayant un risque de sécurité sensiblement le plus faible en tant que zone cible. Une unité de détermination de trajet assemble une pluralité de chemins plausibles entre le véhicule et la zone cible, surveille les risques de sécurité prédéterminés associés à la pluralité de chemins plausibles et sélectionne l'un des chemins plausibles ayant un risque de sécurité sensiblement le plus faible en tant que chemin cible. Un détecteur d'impact détecte un impact entre le véhicule et un autre objet. Une commande de stabilité est configurée pour orienter de manière autonome le véhicule sur le chemin cible lorsque l'impact est détecté. La demande de brevet EP2865575 décrit un système d'assistance à la conduite comprenant un sous-système de prédiction dans un véhicule. Le procédé comprend les étapes consistant à accepter une représentation d'environnement. Le calcul d'une estimation de confiance liée à la représentation de l'environnement en appliquant les règles de plausibilité sur la représentation de l'environnement et en fournissant l'estimation de confiance comme contribution pour une évaluation d'une prédiction basée sur la représentation de l'environnement.
Inconvénients de l'art antérieur
Les solutions de l'art antérieur ne sont pas totalement satisfaisantes car les architectures proposées concernent un traitement « linéaire » des données, venant de capteurs et sources disparates, dont certaines sont potentiellement erronées ou défaillantes. Avec les architectures proposées, le traitement de telles données erronées ou douteuses est déterministe et peut conduire à des actions inopinées.
Les solutions proposées dans l'art antérieur ne sont pas totalement adaptées aux contraintes sécuritaires très fortes pour le pilotage de véhicules autonomes.
L'environnement du véhicule, intégrant entre autres les aspects
météorologiques et atmosphériques mais également le contexte routier, est riche de perturbations.
Il comporte de nombreux facteurs aléatoires donc imprévisibles et les contraintes sécuritaires émanant de ces perturbations environnantes présentent des variantes en nombre infini. Les conditions météorologiques, par exemple, peuvent perturber les capteurs mais le contexte ou la situation de route peut également mettre l'algorithme dans une position qu'il ne peut ou ne sait gérer. On connaît les limites d'un capteur mais on ne connaît pas précisément l'ensemble des situations dans lesquelles les capteurs et leurs intelligences vont atteindre leurs limites.
Les solutions proposées n'associent pas d'étage de décision intelligente s'appuyant en même temps sur le fonctionnel sûr et sur le dysfonctionnel, sans intervention humaine.
Solution apportée par l'invention
Afin de remédier à ces inconvénients, l'invention concerne selon son acception la plus générale un système de pilotage d'un véhicule autonome conforme à la revendication 1 et les revendications dépendantes, ainsi qu'un procédé de pilotage conforme à la revendication de procédé. Par rapport aux solutions connues, l'invention se distingue par des redondances fonctionnelles indépendantes énoncées dans la liste ci-dessus, arbitrées par un module additionnel de décision implémentant les principes de la sécurité des
fonctionnalités étendues (acronyme « SOTIF » en anglais).
Cet arbitrage prend en compte trois types d'informations en entrée :
d'une part une diversité de données dynamiques, c'est-à-dire liées à la position et à la trajectoire du véhicule et à la perception des obstacles d'autre part de données historiques, qui ne sont pas directement liées aux données dynamiques, par exemple les perturbations
environnementales et climatiques, l'historique de la trajectoire et/ou du comportement suivis par le véhicule autonome et des principes de comportement sécuritaire.
Ces principes sécuritaires se traduisent techniquement par une base de règles enregistrée dans une mémoire informatique. Ces règles modélisent les bonnes pratiques, par exemple « arrêt pour laisser passer un piéton » ou « ne pas dépasser la vitesse maximum autorisée » et associent des paramètres de prise de décision. Ces règles sont par exemple regroupées dans la norme IS026262.
Cette base de règles est exploitée par un processeur modifiant le calcul du niveau de risque, et la conséquence sur les choix techniques.
L'invention permet de répondre aux inconvénients de l'art antérieur par une architecture répartie, avec des calculateurs spécialisés affectés uniquement au traitement des données des capteurs, des calculateurs d'un autre type spécifiquement affectés à l'exécution des programmes informatiques pour la détermination d'informations de conduite déléguée et un calculateur additionnel constituant le module d'arbitrage pour décider la sélection d'une desdites informations de conduite déléguée.
La décision du module d'arbitrage permet d'identifier le résultat le plus sur, pour n'importe quel type d'objet perçu dans la scène (état d'un feu, position d'un obstacle, localisation du véhicule, distance par rapport à un piéton, vitesse maximale autorisée sur la voie, etc).
Les éventuelles perturbations et anomalies concernant un capteur ou une source de données ne se propagent ainsi pas dans l'ensemble des systèmes. Le système présente, avec l'architecture proposée, une grande flexibilité et robustesse par rapport à des disfonctionnements locaux.
Le module d'arbitrage peut est constitué par un calculateur appliquant un traitement à partir d'une base de règles logiques mathématiques et d'intelligence artificielle, ou appliquant des traitements statistiques (par exemple Monte-Carlo, Gibbs, Bayesien,...) ou encore d'apprentissage de type « machine learning ». Ces traitements permettent d'assurer à la fois un traitement en temps réel, et un traitement en tâches parallèles à réinjecter ultérieurement dans le traitement en temps réel.
L'invention concerne également un procédé de pilotage d'un véhicule autonome comprenant :
- des étapes d'acquisition d'une pluralité d'informations par des capteurs
des étapes de traitement desdites informations acquises pour la détermination d'informations de conduite déléguée
des étapes d'acquisition des conditions d'environnement,
des étapes de calcul d'informations représentatives
o des niveaux de confiance de chacune desdites informations de conduite
déléguée,
o de la cohérence de variables associées auxdites informations déléguées o de la fiabilité matérielle et logicielle des composants dudit système des étapes de décision des informations de conduite déléguée optimales en terme de fiabilité et de sécurité des personnes, en fonction d'une pluralité d'informations du résultat des étapes de calcul desdites informations représentatives, de l'historique de conduite du véhicule et des règles de comportements sécuritaires (sécurité routière, bonnes pratiques, niveau de risques sécurités des situations de vie).
Description détaillée d'un exemple non limitatif de l'invention La présente invention sera mieux comprise à la lecture de la description détaillée d'un exemple non limitatif de l'invention qui suit, se référant aux dessins annexés où la figure 1 représente une vue schématique d'un premier exemple de l'architecture d'un système de pilotage d'un véhicule autonome selon l'invention
- la figure 2 représente une vue schématique d'un deuxième exemple de l'architecture d'un système de pilotage d'un véhicule autonome selon l'invention.
Premier exemple de réalisation
L'architecture informatique illustrée par la figure 1 comprend :
• un premier étage de production de données comprenant :
o une pluralité de capteurs embarqués (1 à 3)
o une pluralité de composants connectés (1 1 à 13) communiquant avec des sources d'informations extérieures
• un deuxième étage d'exploitation directe des données comprenant des modules
d'hyperperception comprenant chacun des ports d'entrée des signaux provenant d'un ou plusieurs capteurs et composants connectés et un calculateur exécutant un programme d'hyperperception d'objets, pour réaliser les fonctions de : o perception qui permettent au véhicule d'interpréter son environnement et de percevoir des objets statiques ou dynamiques;
o localisation qui permettent au véhicule de se situer sur une cartographie;
• un troisième étage d'exploitation des signaux délivrés par les modules
d'hyperperception comprenant :
o un module d'hyperplanification nominale (31 ) réalisant la fonction de planification qui permet de calculer la trajectoire latérale et longitudinale que le véhicule doit suivre en calculant un ensemble d'ordres de pilotage
o un module d'hyperplanification de secours (32) calculant une solution de repli afin de mettre le véhicule en sécurité même dans les contextes les plus critiques.
L'ensemble des traitements est de type déclaratif et non déterministe : à tout moment, les informations utilisées et calculées sont associées à des niveaux de confiance dont la valeur n'est connue qu'au cours de l'exécution des programmes.
Quatre mécanismes de robustesse sont mis en oeuvre :
• Redondances intrinsèques concernant les supports physiques de calcul ainsi que les modules de traitement : ces redondances conduisent à des tests de cohérences pouvant donner lieu à des votes majoritaires ;
· Redondances fonctionnelles conditionnées (par les conditions
environnementales) et pondérées (par des niveaux de confiance) concernant la production de données et de résultats intermédiaires ;
• Redondances fonctionnelles concernant la production des résultats de calcul de trajectoires ;
· Utilisation centralisée d'informations croisées et recoupées pour une stratégie de supervision sûre et de décision intelligente.
Le système selon l'invention met en œuvre les choix techniques suivants : - Mise en œuvre, dans le premier étage (5), d'une diversité des capteurs et, dans le deuxième étage (15) de redondances fonctionnelles de perception pour percevoir un même objet de façons différentes. De cette manière, des tests croisés peuvent être réalisés sur ces résultats de perception - au niveau de la fiabilité, de la cohérence et de la confiance associées - afin de faire des comparaisons du point de vue de ces différents critères et de choisir le meilleur résultat de perception.
Utilisation, dans le troisième étage (25), de la diversité des moyens de planification, eux-mêmes alimentés par des résultats de perception, pour définir plusieurs trajectoires possibles. De cette manière, des tests croisés peuvent également être réalisés sur ces trajectoires - au niveau de la fiabilité, de la cohérence et de la confiance associée - afin de faire des comparaisons du point de vue de ces différents critères et de choisir les meilleures trajectoires.
- Utilisation de la diversité des moyens de planification pour assurer toutes les
possibilités de repli possible en cas d'urgence, c'est-à-dire la définition de trajectoires de refuge. C'est l'hyperplanification de refuge.
Croisement du contexte de roulage du véhicule (c'est-à-dire les obstacles, l'infrastructure, l'historique...) avec les meilleures trajectoires afin de suivre la trajectoire la plus sûre.
De cette manière, le système du véhicule autonome tend à être plus fiable en utilisant le maximum de ces capacités technologiques et fonctionnelles. Mais il devient également plus tolérant aux fautes car capable de les détecter et de s'en prémunir en adaptant continuellement son comportement.
Premier étage
Le premier étage (5) comprend les modules (1 à 3) de traitement des signaux provenant de différents capteurs embarqués du véhicule et les modules connectés (4 à 6) recevant des données externes.
Plusieurs capteurs et sources détectent le même objet. La fusion de ces données permet de confirmer la perception.
Les sources du véhicule autonome sont une base multiple pour la détection de l'environnement. Chaque capteur et chaque source est associée à une information représentative de la fiabilité et du niveau de confiance.
Les résultats de détection sont ensuite traités pour être exploitables, par le deuxième étage: la production des variables de perception.
Deuxième étage
L'étage (15) d'hyperperception se décompose en deux parties:
La partie « Production de variables de perception » regroupant l'ensemble des algorithmes de perception qui interprètent les détections des capteurs et autres sources et calculent des variables de perception représentative d'un objet.
La partie « Safe supervision» qui regroupe un ensemble de tests croisés, sur les fiabilités, les erreurs logicielles et matérielles, les niveaux de confiance et les cohérences algorithmiques. Cet ensemble permet de déterminer l'objet de perception le plus compétitif - c'est-à-dire l'objet qui, en termes de représentativité, de confiance, de fiabilité et d'intégrité - est le meilleur. A partir de ces résultats de détection et via de nombreux algorithmes, des variables de perception sont calculées. Ces dernières permettront au système de décrire les objets de la scène et de définir, à partir de ceux-ci, une trajectoire sûre pour le véhicule.
Afin de pouvoir satisfaire la méthodologie de sécurité, une variable de perception d'objet doit être donnée par au moins deux algorithmes différents. Une fusion multi-sources, lorsqu'elle est possible, doit également être utilisée pour produire ces variables.
Combinées dans un algorithme intelligent, toutes les approches de fusion impliquant plusieurs capteurs ou autres sources peuvent améliorer les différentes variables de perception. L'ensemble des variables de perception d'objet sont ensuite croisées pour tester leur validité et le niveau de confiance qui peut leur être attribué. C'est la troisième étape.
A ce stade, plusieurs ensembles de variables représentatives d'un même objet ont été calculées. Elles doivent donc être comparées entre elles afin de pouvoir sélectionner la ou les « meilleures ».
Cette sélection se déroule en quatre étapes :
Le tri des niveaux de confiance qui permet de classer les variables à partir de la corrélation existante sur les niveaux de confiance source/algorithme et des conditions environnementales. Ce test va donc considérer aussi bien le niveau de confiance de l'algorithme qui a calculé la(les) variable(s) que celui de sa(ses) source(s). Il s'agit ici de répondre à la question : quelles variables sont de meilleure qualité, celles qui apparaissent les plus sûres ? · Le traitement de la fiabilité qui permet de s'assurer que tous les éléments menant à la perception d'un objet sont intrinsèquement fiables. Cette analyse va alors considérer la fiabilité de tous les hardwares et softwares. Il s'agit de répondre à la question : les objets perçus sont-ils fiables conformément aux principes de sûreté de fonctionnement ?
· L'analyse de la cohérence algorithmique qui compare les différentes variables des objets de perception entre elles, et identifie les incohérences potentielles. Cette analyse met en évidence une variable incohérente ou absurde. Il s'agit ici de répondre à la question : quelles variables présentent le maximum de cohérence, pour éliminer celles qui présentent le minimum de cohérence ?
Le calculateur exécute un traitement qui synthétise l'ensemble des résultats et décide du meilleur objet à envoyer à la planification. Il s'agit ici de répondre à la question : quels sont les meilleurs objets en termes de cohérence, de fiabilité et de confiance ?
Ce deuxième étage est dédoublé tant du point de vue matériel
(calculateurs et bus de communication) que du point de vue logiciel.
Il comprend donc deux calculateurs indépendants, recevant les signaux provenant des capteurs du premier étage par l'intermédiaire de deux bus de communication distincts. Ce deuxième étage transmet au troisième étage deux fois les mêmes données.
Troisième étage
Le troisième étage (35) d'hyperplanification comprend deux modules (31 , 32) de planification du pilotage du véhicule autonome.
Le processus de planification se décompose en trois parties distinctes :
La partie « Modules d'hyperperception » qui regroupe l'ensemble des fonctions, des hyperperceptions associées à chaque fonction de perception, ainsi que d'autres modules d'entrée comme des fichiers cartographiques qui permettent de comparer les résultats de localisation à des informations connues par ailleurs, et ainsi de calculer une trajectoire pour le véhicule autonome.
- La partie « Production de trajectoires » qui regroupe l'ensemble des algorithmes de planification et qui calcule les différentes trajectoires que peut emprunter le véhicule autonome. Ce calcul de trajectoire se base sur les fonctions de perception de l'environnement du véhicule.
La partie « supervision de sécurité et de décision intelligente » qui regroupe un ensemble de tests croisés, sur les fiabilités, les niveaux de confiance et les cohérences algorithmiques. Cet ensemble permet de déterminer la trajectoire la plus compétitive - c'est-à-dire la trajectoire qui, en termes de représentativité, de confiance, de fiabilité et d'intégrité - est la meilleure.
Cette partie reçoit les deux séries de signaux provenant du deuxième étage, et décide de la fiabilité matérielle et logicielle des deux séries de signaux pour sélectionner la série de signaux la plus pertinente. Plusieurs algorithmes calculent les trajectoires que le véhicule autonome peut emprunter. Chaque algorithme calcule un type de trajectoire spécifique aux objets de perception qu'il considère. Cependant, il peut calculer une ou plusieurs trajectoires de même type en fonction du nombre de voies que le véhicule peut potentiellement emprunter. Par exemple, si le véhicule se déplace sur un segment de route à double voie, le système de planification peut calculer une trajectoire pour chaque voie.
Afin de satisfaire la méthodologie de sécurité mise en place, les algorithmes de calcul de trajectoires doivent envoyer la ou les potentielles trajectoires accompagnées du niveau de confiance et de la fiabilité intrinsèque qui leur sont associés. Une autre spécificité de la méthodologie de sécurité est d'utiliser un algorithme de fusion multi-perception afin de diversifier davantage les moyens de calcul de trajectoire.
A ce stade, plusieurs trajectoires ont été calculées. Elles doivent être comparées entre elles et confrontées au contexte routier (code de la route, historique, infrastructures, obstacles, navigation) afin d'être priorisées.
Cette priorisation se déroule en quatre étapes :
Le tri des niveaux de confiance qui oriente le choix de la trajectoire uniquement à partir de la corrélation existante entre les niveaux de confiance
source/algorithme et les conditions environnementales. Ce test va donc considérer aussi bien le niveau de confiance de l'algorithme qui a calculé la trajectoire que le niveau de confiance de la source de celui-ci. Il s'agit ici de répondre à la question : quelle est la trajectoire de meilleure qualité, en terme de niveau de confiance ?
Le contrôle de la fiabilité qui s'assure que tous les éléments menant à la définition d'une trajectoire sont intrinsèquement fiables. Cette analyse va alors considérer la fiabilité de tous les circuits électroniques et des développements informatiques. Il s'agit de répondre à la question : la trajectoire calculée est-elle conforme aux principes de sûreté de fonctionnement ? - L'analyse de la cohérence algorithmique qui compare les trajectoires entre elles et identifie les incohérences qui peuvent exister. Cette analyse met en évidence une trajectoire qui pourrait être incohérente ou absurde. Il s'agit de répondre à la question : quelle trajectoire présente le maximum de cohérence ? - La décision intelligente de sécurité qui synthétise l'ensemble des résultats et décide de la ou des meilleures trajectoires, en terme de sécurité des personnes dans une situation de vie donnée. Il s'agit donc ici de répondre à la question : quelle est la meilleure trajectoire que le véhicule peut emprunter en garantissant la sécurité des personnes ?
Cette sélection est influencée par l'historique du trajet suivi par le véhicule autonome, du trafic, des types d'infrastructure, des comportements de bonnes pratiques de la sécurité routière, du code de la route et de la criticité des risques potentiels associés à chaque trajectoire, tel que par exemple définis par la norme IS026262. Ce choix intègre l'hyperplanification du mode refuge.
L'algorithme de choix comportemental est une dernière couche
d'intelligence qui analyse toutes les stratégies possibles et opte pour la plus sécurisante et la plus « confortable ». Il va donc choisir la trajectoire la plus adaptée pour le véhicule et la vitesse qui devra l'accompagner.
Le module (32) d'hyperplanification de refuge calcule une trajectoire refuge afin d'assurer toutes les possibilités de repli envisageables en cas d'urgence. Cette trajectoire est calculée à partir des objets de perception déterminés suivant la méthodologie de l'hyperperception et de l'hyperplanification, mais considérés dans ce cas pour une alternative en mode refuge.
Deuxième exemple de réalisation
Le deuxième exemple de réalisation concerne un cas particulier pour la détermination de la voie de consigne du véhicule.
L'exemple concerne un véhicule autonome qui doit être qualifié de niveau « OICA » 4 ou 5, c'est-à-dire à un niveau d'autonomie où le conducteur est « out of the loop » (terme anglais). Le système doit piloter et décider seul, sans intervention du conducteur, des mouvements de la voiture sur une infrastructure quelconque et dans n'importe quel environnement.
La description qui suit concerne l'architecture fonctionnelle sûre du « sursystème » véhicule autonome de VEDECOM, conçu au-dessus d'une plateforme véhicule existante, pour fiabiliser et augmenter la sécurité fonctionnelle de celui-ci mais également assurer l'intégrité des informations d'exploitation et des décisions prises par l'intelligence de ce « sur-système ».
Une architecture sûre du véhicule autonome conforme à l'invention a été élaborée selon les 4 mécanismes de robustesse suivants :
Les redondances intrinsèques des supports physiques de calcul ainsi que les modules de traitement Les redondances fonctionnelles permettant la production de données et de résultats sur chaque fonction : les données et les résultats sont alors conditionnés par l'environnement et pondérés par des niveaux de confiance ;
Les redondances fonctionnelles permettant la production des résultats de calcul de trajectoire : ce mécanisme permet pour une même fonction :
o de contrôler la cohérence des résultats ainsi que l'intégrité des niveaux de confiance ;
o de conditionner les données et résultats par l'environnement ;
L'utilisation centralisée d'informations croisées et recoupées pour une stratégie de supervision : un module examine les résultats afin d'identifier le résultat le plus sûr selon un schéma décisionnel basé sur le comportement du véhicule et de son environnement.
Au niveau perception, un schéma générique a été élaboré à partir de ces principes. Cette brique est illustrée par la figure 2.
la perception de la voie de circulation est fournie via 4 algorithmes :
La voie donnée par la localisation GPS-RTK + cartographie haute définition La voie donnée par localisation SLAM + cartographie haute définition
La voie donnée par le marquage (dont la source est une Caméra)
La voie donnée par le tracking du véhicule précédent (reposant sur l'hypothèse que l'historique de la position de ce véhicule correspond à celui de de la voie)
Le Safe perception a pour fonction :
1 ) De construire les 4 voies de consigne à partir des informations de perception des 4 sources (GPS-RTK, SLAM, Marquage, Tracking)
2) De sélectionner la meilleure information donnée par ces 4 algorithmes.
3) En mode manuel, d'interdire le passage en mode auto si les voies données par ces algorithmes n'ont pas un indice de confiance suffisant.
4) En mode autonome, de demander un freinage d'urgence, associé à une demande de reprise en main, si les voies données par ces algorithmes n'ont pas un indice de confiance suffisant OU si les voies données par les 4 algorithmes sont incohérentes entre elles.
Elle comporte des capteurs (40, 41 ), constituant des sources
d'informations.
On distingue par exemple quatre sources Source dite 1 : Une fonction de tracking obstacle, utilisant un Lidar
Avant
Source dite 2 : Une fonction de détection de marquage, utilisant une caméra stéréo
- Source dite 3 : Une fonction de localisation dite SLAM, utilisant un ou plusieurs Lidars (ou 4 capteurs associés à une fusion)
Source dite 4 : Une fonction de localisation dite GPS, utilisant un GPS, I MU et correction RTK Ces fonctions d'entrées sont subies par le système (fonctions liées à des équipementiers ou des briques technologiques). Les sorties de ces 4 sources sont donc très hétérogènes :
• La source 1 (fonction tracking) donne la position xy du milieu de l'arrière de l'obstacle dans le repère égo-vehicule. L'obstacle est identifié par un numéro d'identifiant (pour savoir s'il y a changement de cible). Aucun indice de confiance sur le tracking n'est fourni
• La source 2 (fonction marquage) donne 2 vecteurs (a,b,c) correspondant aux
paramètres du polynôme du marquage droit et gauche (y=axA2+bx+c) et leur indice de confiance, dans le repère égo-véhicule.
· La source 3 (fonction SLAM) donne la localisation (x,y,cap) du véhicule dans le
repère du SLAM. Une confiance de localisation est donnée
• La source 4 (fontion localisation GPS) donne la localisation (x,y,cap) du véhicule
dans le repère absolu. Un écart type de localisation en mètre est donné
A partir des fonctions et des sorties hétérogènes des blocs « sources » (40, 41 ), un ou plusieurs calculateurs appliquent des algorithmes de perception (42, 43) pour donner une sortie homogène de l'objet : dans l'exemple décrit, l'objet est la voie de consigne. La voie de consigne est donnée par un vecteur (a,b,c) correspondant au polynôme
(y=ax2+bx+c) de la voie dans le repère égo-véhicule. Dans cette partie, un rapide descriptif de chaque algorithme de perception est donné.
L'algorithme de perception « voie » (42) par tracking utilise la position x,y du véhicule bouclier. L'hypothèse forte est donc que le véhicule « bouclier » est dans la voie de consigne du véhicule autonome.
La voie est construite de la manière suivante :
1 ) Récupération de la position du véhicule tracké dans le repère véhicule
2) Positionnement du véhicule dans un repère glissant 3) Positionnement du véhicule tracké dans le repère glissant
4) Mise en mémoire de l'historique (environ 6 secondes) de la position du véhicule tracké dans le repère glissant : cet historique constitue une cartographie
dynamique : vecteur [xy]RgiiSsant
5) Localisation du véhicule dans la cartographie dynamique
6) Détermination de la trajectoire locale dans la cartographie dynamique
7) Passage de la trajectoire locale vers le repère véhicule : vecteur [xy]Rego- vehicule
8) Interpolation polynomiale du vecteur [xy]
La sortie est donc une variable « voie » définie par les 3 variables (a,b,c) de son interpolation polynomiale.
En effet, l'algorithme de détection de marquage (43) fournit déjà un polynôme de degrés 2 de la ligne blanche située à droite et à gauche du véhicule :
Côté droit : ydn
Côté gauche : y „x2 + bn
Le polynôme de la voie est donc simplement la moyenne des 2 coefficients des 2 polynômes :
Figure imgf000017_0001
En cas de perte d'un des 2 marquages par l'algorithme de perception (repéré par une chute du niveau de confiance reçu par le safe-perception), une estimation est réalisée en considérant la largeur de la route (entrée cartographiée « Lane width ») et une symétrie de forme identique côté gauche/côté droit. Ainsi sur une perte du marquage droit :
Figure imgf000017_0002
L'algorithme de perception voie par GPS-RTK exploitant les données provenant du capteur dit 3 se base sur :
2 variables de base ;
la position [x,y] du véhicule
l'angle de lacet du véhicule Une cartographie IMU-RTK définie dans un repère absolue (Lambert 93, WGS84..) contenant :
Un vecteur x_p trajectoire
Un vecteur y_p trajectoire
Un vecteur S (« distance curviligne »), déduit des 2 vecteurs précédents par la relation :
Si=Si-i+sqrt(dx_p2+dy_p2)
La cartographie est réalisée en amont par simple roulage sur la voie de consigne, et enregistrement des valeurs x,y donné par le GPS. L'hypothèse forte est donc que la position donnée par le GPS soit toujours de qualité (< 20 cm) (donc signal de correction RTK OK), ce qui n'est pas toujours le cas.
A partir de cette position GPS, les étapes suivantes de construction de la voie sont :
• Localiser le véhicule dans la cartographie IMU-RTK.
· Construction de la trajectoire « voie », repère absolu de la carte
• Passage de la trajectoire dans le repère véhicule
• Interpolation polynomiale.
L'algorithme de perception voie par SLAM exploitant les données provenant du capteur dit 4 repose sur le même principe que le GPS-RTK. La seule différence correspond à la référence de localisation : dans le cas du SLAM, la position x,y, lacet , et donc la cartographie associée est donnée dans le repère du SLAM et non dans un repère absolu de type GPS.
Les indicateurs de confiance sont calculés par des algorithmes (45) La confiance interne consomme uniquement des informations d'entrées ou de sortie de l'algorithme de perception voie par tracking, donc ici :
• La position xy du véhicule tracké
• L'identifiant du véhicule tracké
La confiance est ici un indicateur booléen, construit de la manière suivante :
· La confiance passe à 1 si, pendant « TempoTracking » secondes
(« TempoTracking » paramétrable mais par défaut égal à 4 secondes), un obstacle est tracké dans l'axe de notre véhicule ET que la cible trackée existe ET qu'il n'y a pas eu de changement de cible.
• La confiance passe à 0 dès qu'on a un changement de cible OU que la cible trackée n'existe plus La condition « cible trackée n'existe plus » est donnée via la lecture de l'identifiant. Cet identifiant vaut en effet « -1 » lorsqu'aucun objet n'est fourni par la fonction de tracking.
La condition « changement de cible » est normalement repéré par un passage de l'identifiant à « -1 ». On a ajouté à ceci des tests sur la discontinuité de la position renvoyée. (Par exemple, si un objet est à x=5m, puis se trouve au pas suivant à x=30m, alors on peut considérer que ce n'est pas le même objet). Les seuils de
discontinuités ont été paramétrés à 3m par période d'échantillonnage Te (Te=50ms) en x, et 0.8 m en y par Te.
La condition « véhicule dans l'axe » est mise à 1 si la position longitudinale x du véhicule tracké est comprise entre 1 m et 50m de l'égo-véhicule, et si sa position latérale y est : -1 .5m < y < 1 .5 m
Pour éviter de suivre une cible fixe, une condition d'activation
supplémentaire consiste à vérifier que la vitesse absolue de l'objet n'est pas nulle, notamment lorsque la vitesse de l'ego-véhicule ne l'est pas.
Idéalement, il faudrait vérifier que l'objet en question est caractérisé comme un véhicule (et non un piéton).
La confiance « voie » par le marquage est simplement calculée à partir des 2 confiances des 2 marquages
Confiance Voie = 1 si (ConfianceMarquage Droit > seuil OU
ConfianceMarquage Gauche > seuil)
Confiance Voie = 0 si (ConfianceMarquage Droit < seuil ET ConfianceMarquage Gauche < seuil) En effet, comme dit précédemment, en cas de perte d'un des 2 marquages par l'algorithme de perception, une estimation est réalisée en considérant la largeur de la route (entrée cartographiée « Lane width ») et une symétrie de forme identique côté gauche/côté droit. Donc un seul marquage est suffisant.
La confiance SLAM est un booléen qui descend définitivement à 0 dès que la confiance en la localisation du SLAM descend en dessous d'un certain seuil. En effet, ce SLAM VEDECOM n'est pas capable de calculer une localisation une fois l'algorithme de SLAM « perdu ».
Par ailleurs, le SLAM VEDECOM n'est pas toujours activable dès le début du parcours du véhicule autonome. La condition précédente ne doit donc être activée que lorsque le SLAM a déjà été dans une phase d'initialisation (repéré par un point précis sur la carte). Une condition liée à la cartographie a été ajoutée : pour que le SLAM ait une confiance non nulle, on rajoute la condition : le véhicule doit être à moins de 4 mètres de la voie donnée par le SLAM : pour cela, on récupère le LaneShift du véhicule, c'est à dire la variable « c » du polynôme (ordonnée à l'origine) de la perception « voie » donnée par le SLAM.
Comme le SLAM, la confiance est un produit de :
• La confiance liée à la localisation : Cette confiance vaut 1 lorsque l'écart type de localisation < seuil. Contrairement au SLAM, une chute de la confiance à 0 n'est pas irréversible
• La confiance liée à la cartographie : Cette confiance vaut 0 si le véhicule est à plus de 1.8 mètres de la voie donnée par l'IMURTK : pour cela, on récupère le LaneShift du véhicule, c'est à dire la variable « c » du polynôme (ordonnée à l'origine) de la voie donnée par la perception « voie » IMU-RTK.
La confiance externe est liée aux conditions environnementales.
Les conditions environnementales correspondent aux conditions :
• Météorologiques : pluie, brouillard, nuit, soleil rasant...
• Géographiques : tunnel, type particulier de route...
Dans certains cas, les conditions météorologiques ne sont pas prises en compte : de manière générale, les démonstrations sont suspendues en cas de mauvaises conditions.
Les conditions géographiques sont prises en compte dans la cartographie topologique : de manière très générique, pour chaque portion géographique envisagée dans le parcours du véhicule autonome, une confiance externe (booléen 0 ou 1 ) est fournie, indépendamment de la cause (tunnel, forte pente...) . On a donc 4 colonnes dans la cartographie topologique :
• Confiance externe Mode tracking
• Confiance externe Mode marquage
· Confiance externe Mode SLAM
• Confiance externe Mode IMU-RTK
Ainsi, lorsqu'on passe dans un tunnel par exemple, et donc que la localisation par GPS-RTK ne passera pas, la confiance externe est mise à 0 avant l'entrée en tunnel.
De manière générale, sur les démonstrations, lorsque le véhicule roule plusieurs fois sur une portion du parcours et qu'un mode n'atteint jamais une confiance interne de 1 , alors la confiance externe est forcée à 0 sur ce mode quelques mètres avant : cela évite de passer sur un mode qui risque d'être perdu peu de temps après.
La robustesse est le minimum entre la confiance interne et la confiance externe watchdog.
La fiabilité de chaque capteur est issue d'un test d'autodiagnostic du capteur, couramment fourni par les fournisseurs de capteur. Par exemple, la caméra Continental fournit en sortie un « extended Qualifier » qui prend les états suivants :
Figure imgf000021_0001
On procède aussi à un calcul de fiabilité (46) On considère que la fiabilité du capteur est OK (fiabilité camera=1 ) seulement si extended Qualifier=0
Ainsi, la fiabilité A (fiabilité de la voie par tracking) vaut 1 (état OK) si :
(Fiabilité capteur LIDAR OK) ET( Test Watchdog OK ) la fiabilité B (fiabilité de la voie par marquage) vaut 1 (état OK) si :
(Fiabilité capteur Caméra OK) ET( Test Watchdog OK) la fiabilité C (fiabilité de la voie par SLAM) vaut 1 (état OK) si :
(Fiabilité capteur LIDAR SLAM) ET( Test Watchdog OK) la fiabilité D (fiabilité de la voie par IMU-RTK) vaut 1 (état OK) si :
(Fiabilité capteur GPS=1 et fiabilité IMU=1 ) ET( Test Watchdog OK )
Le test du watchdog correspond à vérifier que l'incrément du watchdog (info venant du calculateur amont perception) est bien réalisé.
La fiabilité de chaque algorithme est liée à la fiabilité de chaque source capteur, associée à un test.
La fonction de cohérence (45) inclut deux types de tests :
• Cohérence intrinsèque • Cohérence par comparaison avec les autres objets
La cohérence intrinsèque a pour objectif de vérifier la pertinence de l'objet même. Par exemple, un test de cohérence intrinsèque d'un obstacle vérifie que l'objet vu est bien dans la zone visible du capteur.
Un test possible serait de vérifier que sur les N dernières secondes, la voie donnée par un algorithme est proche de la voie de l'historique véhicule. On peut par exemple regarder le LaneShift (variable « c » du polynôme de la voie) de l'algorithme et vérifier qu'il est proche de 0 sur les 5 dernières secondes.
L'objectif est de sortir un booléen indiquant si la « voie » donnée par un algorithme est cohérent avec la voie donnée par un autre. Avec 4 voies données par 4 algorithmes A, B,C,D on a donc 6 booléens à calculer : AB,AC,AD,BC,BD,CD. La comparaison de 2 voies se fait grossièrement via la comparaison des caps de consigne des algorithmes. Précisément, la comparaison est réalisée comme suit :
1 ) Pour le polynôme « voie » donné par chaque algorithme, on calcule le cap de
consigne à 3 horizons temporels différents (0.5s, 1 s, 3 s)
Le cap de consigne est égal à atan( LaneShift de consigne / distance à l'horizon temporel définie ).
1 ) Ensuite on va calculer la différence des 3 caps donnés par 2 algorithmes « voie » différents, et moyenner le tout
2) Le tout est filtré sur un passe bas réglé à 2 secondes (ce qui représente une
moyenne sur 2 secondes environ) , puis divisé par un seuil de référence
« CapCoherence_deg » paramétré par défaut à 10°.
3) Si le tout donne un résultat supérieur à 1 , alors les 2 voies sont considérées comme non cohérentes
4) Ce test est réalisé 6 fois pour les 6 couples de voies possibles AB,AC,AD,BC,BD,CD.
Le bloc décisionnel (47) réalise le choix final de la voie, en fonction des confiances, cohérences, indices de fiabilité, et indice de performance. En cas de défaillance, d'indice de confiance trop faible, ou d'incohérence entre la voie actuelle et les choix proposés, une décision de freinage d'urgence peut être demandée.
Le principe général est le suivant :
1 ) Une robustesse, correspondant au minimum entre la confiance et l'indice de fiabilité est calculée.
2) Les algorithmes de voies (A : Tracking, B : Marquage, C ; SLAM, D : GPS-RTK) reçoivent un indice de priorité défini dans le « classement par défaut » (indépendant de la confiance, cohérence ou fiabilité). Ce classement est lié à des règles d'expertise concernant notamment la performance
Si Classement par défaut = [D, A, C, B], les 4 algorithmes sont désormais classés par ordre de priorité : (1 :D:GPS-RTK, 2:A:Tracking, 3:C:SLAM, 4:B:Marquage)
3) Tous les attributs relatifs aux algorithmes (confiance, Cohérence) sont également classés : Dans l'exemple, la cohérence D-A devient la cohérence 1 -2
4) Une logique séquentielle vient choisir l'algorithme en fonction de :
a. La confiance
b. La cohérence : Par exemple, pour passer de la voie d'un algorithme 2 à la voie de l'algorithme 3, la cohérence 2-3 doit être OK
c. La variable « Algol Prio » : si cet indice vaut 1 , on va toujours favoriser
l'algorithme défini comme prioritaire dans « Classement par défaut »
(exemple : D le GPS-RTK). Si cet indice vaut 0 : on va privilégier l'algorithme utilisé en cours (Dans l'exemple, si on est en 3 :C :SLAM, et que le 1 :D : GPS-RTK revient confiant, alors on reste quand même en 3 :C :SLAM)
5) En cas de baisse de confiance généralisée, ou d'incohérence entre la voie de
l'algorithme actuel et celle des choix possibles, alors la décisionnel active un flag de freinage d'urgence. En mode manuel, cela se traduit par une interdiction de passage en mode autonome.
6) Sur la dernière fonction, le choix de l'algorithme, référencé en l'indice de priorité (1 : le plus prioritaire, à 4 au moins prioritaire), repasse en indice initial de classement (A :Tracking, B : Marquage, C ; SLAM, D : GPS-RTK).
En entrée de ce bloc (47), on retrouve :
La confiance interne/externe aux 4 algorithmes (A :Tracking, B : Marquage, C ; SLAM, D : GPS-RTK) soit : c'A,c'B,c'C,D
L'indice de fiabilité des 4 algorithmes (A :Tracking, B : Marquage, C ;
SLAM, D : GPS-RTK) soit : fA,fB,fC,fD
La robustesse c" est le minimum des 2 donc ;
c"X=min(c'X,fX).
Les règles d'expertise consistent à des prérègles imposées issues de l'expertise VEDECOM sur, dans ce cas, les algorithmes de construction de la voie.
Ainsi, on sait par exemple par expérience que :
· La voie donnée par GPS-RTK fournit la meilleure prestation de suivi parmi les 4
algorithmes (précision et dynamique). Mais il y a des fréquentes pertes en mode urbain. • La voie donnée par SLAM induit un certain bruit sur le volant (bruit de localisation), notamment à basse vitesse. Et sa précision, donc sa prestation associée, est d'autant plus importante que l'environnement est changeant. (Urbain meilleur qu'autoroute).
« Le tracking suppose un véhicule « de confiance » devant nous, mais a l'avantage de pouvoir être utilisable n'importe où, et même faire du changement de voie.
• Le marquage, donné par la caméra Continental, est aujourd'hui l'algorithme le moins efficace, et est surtout non utilisable en dessous d'un Rayon de courbure de 150 m.
Le véhicule autonome étant utilisé pour l'instant qu'en mode « navette », l'expérience réalisée en parcourant le parcours avec les 4 modes permet de savoir quel est globalement le mode le plus efficace pour un parcours donné.
Egalement, l'expertise montre qu'il vaut mieux toujours favoriser un algorithme particulier en fonction de l'historique enregistré en temps réel dans une base d'information (48) (quitte à abandonner l'utilisation de l'algorithme actuel pour revenir à l'algorithme de priorité). Toutefois, d'autres personnes, pour éviter des transitions d'algorithme (qui peuvent occasionner des micro-coups de volant par rapport à un comportement sécuritaire et confortable), préfèrent minimiser ces transitions en gardant au maximum l'algorithme actuel (même si l'algorithme le plus performant est de nouveau utilisable).
On a donc construit deux paramètres liés à l'expertise :
1 ) Vecteur « Classement par priorité » de taille 4, qui classe les 4 algorithmes (A :
Tracking, B : Marquage, C ; SLAM, D : GPS-RTK) par ordre de priorité, a. Pour un parcours de type urbain par exemple, on a « Classement par défaut » = [C, D, A, B] : le SLAM , efficace en urbain, est favorisé, puis l'IMURTK, ensuite le tracking, puis le marquage b. Pour un parcours de type autoroutier par exemple, on peut avoir
« Classement par défaut » = [D, B, A, C] : le GPS-RTK puis le marquage sont favorisés, puis le tracking et le SLAM
2) Paramètre « Algol Prio » :
a. Si cet indice vaut 1 , on va toujours favoriser l'algorithme défini comme prioritaire dans « Classement par défaut » (exemple : C le SLAM si « Classement par défaut » = [C, D, A, B]).
b. Si cet indice vaut 0 : on va privilégier l'algorithme utilisé en cours (si
« Classement par défaut » = [C, D, A, B]), si on est en A : Tracking, et que le C : SLAM revient confiant, alors on reste quand même en A : Tracking) La fonction « Transfert Numéro Algo -> Numéro Priorité » va changer la numérotation des variables de confiance, et de cohérence : référencé par défaut à
(A :Tracking, B : Marquage, C ; SLAM, D : GPS-RTK), ces variables sont, via cette fonction de transfert, numérotées par (1 : Algorithme le plus prioritaire, 2 : Algorithme le 2ième prioritaire, 3 : Algorithme le 3ième plus prioritaire, 4 : Algorithme le moins prioritaire)
Par exemple, si « Classement par défaut » = [D, B, A, C], alors la confiance « A » devient la confiance « 3 », et la cohérence B-A devient la cohérence 2-3
La logique séquentielle est un schéma Stateflow ayant pour entrées : · Les 4 confiances (numérotées suivant l'ordre de classement par priorité) : donc
« confiance_1 » est la confiance de l'algorithme prioritaire.
• Les 6 cohérences (numérotées suivant l'ordre de classement par priorité) : donc « cohérence 1_4 » est la cohérence entre la voie de l'algorithme prioritaire avec celui le moins prioritaire
Les 2 sorties sont :
1 ) Le numéro de l'algorithme choisi (numéroté suivant l'ordre de classement par
priorité). Ainsi, si Number_algo_used=2, cela veut dire que l'algorithme choisi pour la voie de consigne est le 2ième algorithme prioritaire (par exemple le GPS-RTK (D) si « Classement par défaut » = [C, D, A, B])
2) Le booléen « freinage d'urgence ». Si cette variable vaut 1 , un freinage d'urgence du véhicule autonome est activé. En mode manuel, cette variable sert à inhiber l'activation du mode autonome
Véhicule en mode manuel
En mode manuel, la fonction aura pour objectif de déterminer le meilleur algorithme possible lorsque la transition vers le mode autonome va se réaliser.
Mais surtout la fonction devra interdire le passage en mode autonome si aucun algorithme n'a un indice de confiance suffisant (non nul ici).
De manière générale, ce diagramme favorise le retour vers le mode 1 , c'est-à-dire le choix vers l'algorithme prioritaire. Seuls les indices de confiance sont pris en compte. Les cohérences ne le sont pas, car dans le cas du mode manuel, et contrairement au mode autonome, une mauvaise cohérence entre 2 voies ne va pas avoir d'impact (du type coup de volant).
Ainsi, un algorithme de priorité 3 ne sera sélectionné que si la confiance de l'algorithme 1 et 2 sont nulles.
Si tous les algorithmes ont une confiance nulle, alors on passe en mode
Safety : Freinage urgence=1. Mais on n'aura pas concrètement un freinage d'urgence sur le véhicule (car on est en mode manuel) mais seulement une interdiction de passage en mode autonome ( Si FreinageUrgence=1 ET si mode manuel, alors on interdit le passage en mode autonome ).
Véhicule en mode autonome Exemple en considérant : « Classement par défaut » = [C, D, A, B]) soit
[SLAM, GPS-RTK, Tracking, Marquage)
MODE_AUTO_1 représente le schéma lorsque l'algorithme actuel est l'algorithme prioritaire (Par exemple SLAM (C) si « Classement par défaut » = [C, D, A, B])
Dans l'exemple :
SI la confiance du SLAM = 1 , on reste en SLAM
SI la confiance du SLAM passe à 0, un autre mode (2,3,4) va être sélectionné :
On passe en mode 2 (D :GPS-RTK) si la confiance de la voie en GPS-RTK vaut 1 ET si la voie donnée par le SLAM et celle du GPS-RTK sont cohérentes
(coherence_1_2=1 )
SINON : On passe directement du mode 1 au mode 3 (A :Tracking) , SI il n'est pas possible de passer en GPS-RTK (cf. condition dans phrase précédente) ET si la confiance de la voie en Tracking vaut 1 ET si la voie donnée par le SLAM et celle du
Tracking sont cohérentes
SINON : On passe directement du mode 1 au mode 4 (B :Marquage) , SI il n'est pas possible de passer en GPS-RTK ET SI il n'est pas possible de passer en Tracking ET si la confiance de la voie par Marquage vaut 1 ET si la voie donnée par le SLAM et celle du Marquage sont cohérentes
SINON : on passe en freinage d'urgence
On considère dans l'exemple qu'on est passé en mode 2 (donc D : GPS-
RTK)
MODE_AUTO_2 représente le schéma lorsque l'algorithme actuel est le 2 me algorithme prioritaire (donc GPS-RTK si « Classement par défaut » = [C, D, A, B]) II y a 2 cas de figures suivant le paramétrage de « AlgoPriol ».
SI « AlgoPriol =0 » ET SI la confiance de la voie par GPS-RTK= 1 , on reste en GPS-RTK.
SI « AlgoPriol =1 » ET SI la confiance de la voie par GPS-RTK= 1 , on passe quand même en mode prioritaire 1 (donc retour en SLAM) SI confiance du SLAM = 1 ET si la voie donnée par le SLAM et celle du GPS-RTK sont cohérentes (coherence_1_2=1 ).
Par la suite, on est sur le même principe que donné précédemment. SI la confiance du GPS-RTK passe à 0, un autre mode (3,4) va être sélectionné :
On passe du mode 2 au mode 3 (A :Tracking) SI la confiance de la voie en Tracking vaut 1 ET si la voie donnée par le GPS-RTK et celle du Tracking sont cohérentes
SINON : On passe directement du mode 2 au mode 4 (A :Marquage) , s'il n'est pas possible de passer en tracking ET si la confiance de la voie par Marquage vaut 1 ET si la voie donnée par le GPS-RTK et celle du Marquage sont cohérentes
SINON : on passe en freinage d'urgence.
De manière générale, le choix de la voie est basé sur un diagramme séquentiel basé sur :
• La confiance dans la voie de chaque algorithme
• La cohérence entre les voies données par des couples d'algorithmes
• La paramètre « AlgoPriol » qui s'il vaut 1 , va favoriser les transitions pour revenir au mode prioritaire. S'il vaut 0, il va limiter les transitions pour rester sur l'algorithme actuellement utilisé par le véhicule.
La fonction Transfert Numéro Priorité -> Numéro Algo fait juste le transfert entre le classement par priorité (1 : Algo le plus prioritaire, 2 : Algo le 2ième plus prioritaire, 3 : Algo le 3ième plus prioritaire, 4 : algorithme le moins prioritaire) et le classement par défaut (A : Tracking, B : Marquage, C ; SLAM, D : GPS-RTK).
Ainsi, si Classement par défaut » = [D, B, A, C] et que le bloc de logique séquentiel a choisi le 3ième algorithme le plus prioritaire, alors, l'algorithme choisi est le (A : Tracking).

Claims

Revendications
1 - Système de pilotage d'un véhicule autonome comportant une pluralité de capteurs (1 à 6) de natures différentes, des calculateurs exécutant des programmes informatiques pour la détermination d'informations de conduite déléguée en fonction des données délivrées par lesdits capteurs,
caractérisé en ce qu'il comporte en outre au moins un module d'arbitrage (15) comprenant au moins un calculateur exécutant un programme informatique pour décider la sélection fonctionnelle la plus sûre d'une desdites informations de conduite déléguée en fonction d'une pluralité d'informations calculées en fonction :
• de données dynamiques comprenant une partie au moins des informations constituées par :
o des niveaux de confiance (44) de chacune desdites informations de conduite déléguée,
o de la cohérence (45) de variables associées auxdites informations déléguées
o de la fiabilité matérielle (46) et logicielle des composants dudit
système
• de données climatiques et/ou historiques comprenant une partie au moins des informations constituées par :
o l'historique de conduite du véhicule (48),
o des conditions d'environnement (49),
• et de traitements de décision pour l'arbitrage d'un comportement sécuritaires (47) du pilotage. 2 - Système de pilotage d'un véhicule autonome selon la revendication 1 caractérisé en ce que le programme informatique pour décider la sélection d'une desdites informations de conduite déléguée prend en compte en outre des informations
représentatives de principes sécuritaires (47). 3 - Système de pilotage d'un véhicule autonome selon la revendication 1 caractérisé en ce qu'il comporte une pluralité de modules d'arbitrage pour le traitement de groupes de capteurs et des calculateurs associés, comprenant au moins:
• des capteurs de position du véhicule
• des capteurs d'identification de la route sur laquelle se déplace le véhicule
· des capteurs des obstacles dynamiques et statiques
• des capteurs d'infrastructures et de signalisation [feux, panneaux, structure physique de la route,...] et un module de construction d'une pluralité de trajectoires de déplacement du véhicule en fonction des informations transmises par lesdits modules d'arbitrage.
4 - Système de pilotage d'un véhicule autonome selon l'une au moins des revendications précédentes, caractérisé en ce que le module d'arbitrage (15) reçoit en outre des informations provenant d'un moyen de fusion fonctionnelle des informations provenant des résultats des différents modules de perception et de traitement.
5 - Système de pilotage d'un véhicule autonome selon l'une au moins des revendications précédentes, caractérisé en ce qu'il comporte en outre des moyens de décision pour déterminer une trajectoire de refuge activée en cas d'impossibilité de calcul d'une trajectoire nominale.
6 - Procédé de pilotage d'un véhicule autonome comprenant :
- des étapes d'acquisition d'une pluralité d'informations par des capteurs (40, 41 ) des étapes de traitement desdites informations acquises pour la détermination d'informations de conduite déléguée
des étapes d'acquisition des conditions d'environnement,
des étapes de calcul d'informations représentatives
o des niveaux de confiance de chacune desdites informations de conduite
déléguée,
o de la cohérence de variables associées auxdites informations déléguées o de la fiabilité matérielle et logicielle des composants dudit système des étapes de décision des informations de conduite déléguée optimales en terme de fiabilité et de sécurité des personnes, en fonction d'une pluralité d'informations du résultat des étapes de calcul desdites informations représentatives, de l'historique de conduite du véhicule et des règles de comportements sécuritaires.
PCT/FR2017/052049 2016-07-29 2017-07-25 Systeme de pilotage d'un vehicule autonome Ceased WO2018020129A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019504695A JP2019528518A (ja) 2016-07-29 2017-07-25 自動運転車両の操縦システム
EP17758222.8A EP3491475A1 (fr) 2016-07-29 2017-07-25 Système de pilotage d'un véhicule autonome
US16/320,780 US20200331495A1 (en) 2016-07-29 2017-07-25 System for steering an autonomous vehicle
CN201780047018.9A CN109690434A (zh) 2016-07-29 2017-07-25 用于操控自主车辆的操控系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1657337 2016-07-29
FR1657337A FR3054684B1 (fr) 2016-07-29 2016-07-29 Systeme de pilotage d’un vehicule autonome

Publications (1)

Publication Number Publication Date
WO2018020129A1 true WO2018020129A1 (fr) 2018-02-01

Family

ID=57348850

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2017/052049 Ceased WO2018020129A1 (fr) 2016-07-29 2017-07-25 Systeme de pilotage d'un vehicule autonome

Country Status (6)

Country Link
US (1) US20200331495A1 (fr)
EP (1) EP3491475A1 (fr)
JP (1) JP2019528518A (fr)
CN (1) CN109690434A (fr)
FR (1) FR3054684B1 (fr)
WO (1) WO2018020129A1 (fr)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347166A (zh) * 2019-08-13 2019-10-18 浙江吉利汽车研究院有限公司 用于自动驾驶系统的传感器控制方法
EP3760507A1 (fr) * 2019-07-04 2021-01-06 TTTech Auto AG Sélection de trajectoire sécurisée pour véhicules autonomes
CN113396095A (zh) * 2019-01-31 2021-09-14 标致雪铁龙汽车股份有限公司 管理由发动机式陆地车辆的驾驶辅助系统提供的车道保持辅助功能的方法
US11262756B2 (en) * 2018-01-15 2022-03-01 Uatc, Llc Discrete decision architecture for motion planning system of an autonomous vehicle
EP3964997A1 (fr) * 2020-09-03 2022-03-09 Aptiv Technologies Limited Analyse de sécurité de réseau bayésien d'une fonctionnalité cible de conceptions de système
FR3118618A1 (fr) * 2021-01-04 2022-07-08 Psa Automobiles Sa Procédé et dispositif de contrôle d’un véhicule
CN115311838A (zh) * 2022-07-22 2022-11-08 重庆大学 一种隧道入口区域车辆协同一致性评价方法
US11653078B2 (en) 2018-06-18 2023-05-16 Aptiv Technologies Limited Optical device with a flexible heating element

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11430071B2 (en) * 2017-08-16 2022-08-30 Mobileye Vision Technologies Ltd. Navigation based on liability constraints
DE102018206712B4 (de) * 2018-05-02 2022-02-03 Audi Ag Betriebsverfahren für eine autonom betreibbare Vorrichtung und autonom betreibbare Vorrichtung
CN112596509B (zh) * 2019-09-17 2024-10-18 广州汽车集团股份有限公司 车辆控制方法、装置、计算机设备及计算机可读存储介质
CN110673599A (zh) * 2019-09-29 2020-01-10 北京邮电大学 基于传感器网络的自动驾驶车辆环境感知系统
FR3102879B1 (fr) * 2019-10-30 2024-09-13 Renault Sas Système et procédé de gestion de la position d’un véhicule autonome.
CN111025959B (zh) * 2019-11-20 2021-10-01 华为技术有限公司 一种数据管理的方法、装置、设备及智能汽车
JP7015821B2 (ja) * 2019-12-13 2022-02-03 本田技研工業株式会社 駐車支援システム
CN112406892B (zh) * 2020-11-03 2022-11-18 上海大学 一种智能网联汽车感知决策模块功能安全和网络安全内生保障方法
CN112572471B (zh) * 2020-12-08 2022-11-04 西人马帝言(北京)科技有限公司 自动驾驶方法、装置、电子设备及计算机存储介质
US20220197287A1 (en) * 2020-12-22 2022-06-23 GM Global Technology Operations LLC Map-based stop point control
CN112711260B (zh) * 2020-12-29 2022-02-11 清华大学苏州汽车研究院(相城) 一种用于自动驾驶车辆误/漏识别的预期功能安全测试评价方法
GB2602498B (en) * 2021-01-05 2023-09-13 Nissan Motor Mfg Uk Limited Vehicle control system
GB2602496A (en) * 2021-01-05 2022-07-06 Nissan Motor Mfg Uk Ltd Vehicle control system
CN113044063B (zh) * 2021-03-31 2022-09-06 重庆长安汽车股份有限公司 用于高级自动驾驶的功能冗余控制系统
FR3126386B1 (fr) * 2021-08-25 2023-09-29 Renault Sas Procédé de modélisation d’un environnement de navigation d’un véhicule automobile.
DE102021122950A1 (de) * 2021-09-06 2023-03-09 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines Assistenzsystems eines zumindest teilweise automatisch betriebenen Kraftfahrzeugs sowie Assistenzsystem
US20240409091A1 (en) * 2021-10-04 2024-12-12 Obshchestvo S Ogranichennoi Otvetstvennostiu "Evokargo" Method of controlling vehicle driving characteristics
CN114312828B (zh) * 2021-11-30 2024-07-05 深圳元戎启行科技有限公司 风险管理方法、风险管理平台以及计算机可读存储介质
US11814086B1 (en) * 2022-10-20 2023-11-14 Rivian Ip Holdings, Llc Middleware software layer for vehicle autonomy subsystems
EP4438430A1 (fr) * 2023-03-30 2024-10-02 TomTom International B.V. Procédé de commande de fonctions de véhicule, système de traitement de véhicule, véhicule et code d'instruction lisible par machine
CN116394921A (zh) * 2023-04-28 2023-07-07 浙江吉利控股集团有限公司 车辆及其转向控制方法和控制装置、计算机可读存储介质
JP2024171863A (ja) * 2023-05-30 2024-12-12 トヨタ自動車株式会社 自走搬送システム
CN119551000A (zh) * 2024-12-19 2025-03-04 安徽江淮汽车集团股份有限公司 一种自动驾驶车辆的信号仲裁方法及系统
CN119376256B (zh) * 2024-12-26 2025-04-11 华东交通大学 一种无人群集系统的矩阵尺度安全一致性控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050021201A1 (en) 2001-07-17 2005-01-27 Albrecht Klotz Method and device for data exchange and processing
US20100104199A1 (en) 2008-04-24 2010-04-29 Gm Global Technology Operations, Inc. Method for detecting a clear path of travel for a vehicle enhanced by object detection
WO2014044480A2 (fr) 2012-09-21 2014-03-27 Robert Bosch Gmbh Procédé et dispositif pour faire fonctionner un véhicule automobile dans un mode de conduite automatique
US8930060B1 (en) 2013-07-15 2015-01-06 Ford Global Technologies Post-impact path assist for vehicles
EP2865575A1 (fr) 2013-10-22 2015-04-29 Honda Research Institute Europe GmbH Estimation de confiance pour systèmes d'assistance de conducteur prédictifs sur la base de règles de plausibilité

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1873493B1 (fr) * 2006-06-29 2010-09-08 Navigon AG Procédé destiné à la détermination automatique par ordinateur d'une route adaptée aux véhicules
JP5557015B2 (ja) * 2010-06-23 2014-07-23 アイシン・エィ・ダブリュ株式会社 軌跡情報生成装置、方法およびプログラム
DE102010061829A1 (de) * 2010-11-24 2012-05-24 Continental Teves Ag & Co. Ohg Verfahren und Abstandskontrolleinrichtung zur Vermeidung von Kollisionen eines Kraftfahrzeugs in einer Fahrsituation mit geringem Seitenabstand
DE102012021282A1 (de) * 2012-10-29 2014-04-30 Audi Ag Verfahren zur Koordination des Betriebs von vollautomatisiert fahrenden Kraftfahrzeugen
EP2972096B1 (fr) * 2013-03-15 2019-01-09 Volkswagen Aktiengesellschaft Application pour planifier une route pour conduite automatique
US9434389B2 (en) * 2013-11-18 2016-09-06 Mitsubishi Electric Research Laboratories, Inc. Actions prediction for hypothetical driving conditions
US9365213B2 (en) * 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
CN105206108B (zh) * 2015-08-06 2017-06-13 同济大学 一种基于电子地图的车辆碰撞预警方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050021201A1 (en) 2001-07-17 2005-01-27 Albrecht Klotz Method and device for data exchange and processing
US20100104199A1 (en) 2008-04-24 2010-04-29 Gm Global Technology Operations, Inc. Method for detecting a clear path of travel for a vehicle enhanced by object detection
WO2014044480A2 (fr) 2012-09-21 2014-03-27 Robert Bosch Gmbh Procédé et dispositif pour faire fonctionner un véhicule automobile dans un mode de conduite automatique
US8930060B1 (en) 2013-07-15 2015-01-06 Ford Global Technologies Post-impact path assist for vehicles
EP2865575A1 (fr) 2013-10-22 2015-04-29 Honda Research Institute Europe GmbH Estimation de confiance pour systèmes d'assistance de conducteur prédictifs sur la base de règles de plausibilité

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11262756B2 (en) * 2018-01-15 2022-03-01 Uatc, Llc Discrete decision architecture for motion planning system of an autonomous vehicle
US12045054B2 (en) 2018-01-15 2024-07-23 Uatc, Llc Discrete decision architecture for motion planning system of an autonomous vehicle
US12130624B2 (en) 2018-01-15 2024-10-29 Aurora Operations, Inc. Discrete decision architecture for motion planning system of an autonomous vehicle
US11653078B2 (en) 2018-06-18 2023-05-16 Aptiv Technologies Limited Optical device with a flexible heating element
CN113396095A (zh) * 2019-01-31 2021-09-14 标致雪铁龙汽车股份有限公司 管理由发动机式陆地车辆的驾驶辅助系统提供的车道保持辅助功能的方法
EP3760507A1 (fr) * 2019-07-04 2021-01-06 TTTech Auto AG Sélection de trajectoire sécurisée pour véhicules autonomes
CN110347166A (zh) * 2019-08-13 2019-10-18 浙江吉利汽车研究院有限公司 用于自动驾驶系统的传感器控制方法
CN110347166B (zh) * 2019-08-13 2022-07-26 浙江吉利汽车研究院有限公司 用于自动驾驶系统的传感器控制方法
EP3964997A1 (fr) * 2020-09-03 2022-03-09 Aptiv Technologies Limited Analyse de sécurité de réseau bayésien d'une fonctionnalité cible de conceptions de système
FR3118618A1 (fr) * 2021-01-04 2022-07-08 Psa Automobiles Sa Procédé et dispositif de contrôle d’un véhicule
CN115311838A (zh) * 2022-07-22 2022-11-08 重庆大学 一种隧道入口区域车辆协同一致性评价方法
CN115311838B (zh) * 2022-07-22 2023-09-26 重庆大学 一种隧道入口区域车辆协同一致性评价方法

Also Published As

Publication number Publication date
EP3491475A1 (fr) 2019-06-05
JP2019528518A (ja) 2019-10-10
FR3054684B1 (fr) 2018-08-24
FR3054684A1 (fr) 2018-02-02
CN109690434A (zh) 2019-04-26
US20200331495A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
WO2018020129A1 (fr) Systeme de pilotage d&#39;un vehicule autonome
JP7530999B2 (ja) 自律エージェントの不確実性推定に基づく決定論的軌道選択のための方法およびシステム
US12118732B2 (en) Systems and methods for object detection with LiDAR decorrelation
US11885886B2 (en) Systems and methods for camera-LiDAR fused object detection with LiDAR-to-image detection matching
US11430224B2 (en) Systems and methods for camera-LiDAR fused object detection with segment filtering
US12050273B2 (en) Systems and methods for camera-LiDAR fused object detection with point pruning
US12135375B2 (en) Systems and methods for camera-LiDAR fused object detection with local variation segmentation
US12122428B2 (en) Systems and methods for camera-LiDAR fused object detection with segment merging
Buehler et al. The DARPA urban challenge: autonomous vehicles in city traffic
US20260022942A1 (en) Systems and methods for deriving path-prior data using collected trajectories
JP6838241B2 (ja) 移動体挙動予測装置
EP3577528B1 (fr) Permettre le contrôle à distance d&#39;un véhicule
CN112868022A (zh) 自动驾驶车辆的驾驶场景
CN105355039A (zh) 路况信息处理方法及设备
US20200385008A1 (en) Safety-Aware Comparator for Redundant Subsystems in Autonomous Vehicles
WO2018083200A1 (fr) Procédé d`élaboration d`une carte d`autonomie de navigation pour un véhicule
CN115635961A (zh) 样本数据生成方法及应用其的轨迹预测方法、装置
CN116710732A (zh) 自主交通工具运动计划中的稀有事件仿真
EP3661827B1 (fr) Procédé d&#39;élaboration d&#39;une consigne de pilotage d&#39;un organe de conduite d&#39;un véhicule automobile
US11958500B1 (en) Autonomous vehicle model training and validation using low-discrepancy sequences
US20250326398A1 (en) Identifying salient test runs involving mobile robot trajectory planners
US12387536B2 (en) Systems and methods for assessing the performance of an automated autonomous driving evaluator
KR102901210B1 (ko) 종속 가능성 구조체로의 다중 타겟 추적
EP4392843B1 (fr) Procédé de modélisation d&#39;un environnement de navigation d&#39;un véhicule automobile
US12351205B2 (en) Lane segment clustering using hybrid distance metrics

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17758222

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019504695

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017758222

Country of ref document: EP

Effective date: 20190228