[go: up one dir, main page]

WO2017118688A1 - Procédé mis en œuvre dans un véhicule automobile et véhicule automobile associé - Google Patents

Procédé mis en œuvre dans un véhicule automobile et véhicule automobile associé Download PDF

Info

Publication number
WO2017118688A1
WO2017118688A1 PCT/EP2017/050186 EP2017050186W WO2017118688A1 WO 2017118688 A1 WO2017118688 A1 WO 2017118688A1 EP 2017050186 W EP2017050186 W EP 2017050186W WO 2017118688 A1 WO2017118688 A1 WO 2017118688A1
Authority
WO
WIPO (PCT)
Prior art keywords
road environment
vehicle
zone
sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2017/050186
Other languages
English (en)
Inventor
Ahmed AADDAJ-EL-OUDRHIRI
Charles-Henri QUIVY
Gaetan LE-GALL
Alexandre GARNAULT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of WO2017118688A1 publication Critical patent/WO2017118688A1/fr
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/2661Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic mounted on parts having other functions
    • B60Q1/2665Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic mounted on parts having other functions on rear-view mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/247Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the close surroundings of the vehicle, e.g. to facilitate entry or exit
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/249Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the field of view of a sensor or camera

Definitions

  • the present invention relates generally to the field of processes and systems for assisting the driving of a motor vehicle.
  • It relates more particularly to a method implemented in a motor vehicle comprising an image sensor.
  • an image sensor for example a video camera, in particular for detecting various elements delimiting a traffic lane used by this motor vehicle, such as marking lines on the ground, parapets. , guardrails or traffic signs.
  • Geometric characteristics distance from the vehicle, position, overall shape, distribution of such an element delimiting the traffic lane used by the motor vehicle can then be determined, in order to deduce a position of this vehicle. automobile on this lane.
  • This position may correspond for example to a deviation of the motor vehicle from the middle of this lane, or at a distance separating the vehicle from a side edge of this lane.
  • This position of the motor vehicle on the driving lane that it borrows can then be used for example to control a power steering device allowing the motor vehicle to remain substantially in the middle of the lane that it borrows, without intervention of driver, or with reduced intervention by the driver.
  • Such an image sensor associated with an image display, also allows a driver of this motor vehicle to visualize, on this display, an image of an area of a road environment in which the motor vehicle evolves, this zone being for example located outside the field of vision of the driver of the motor vehicle.
  • the present invention provides a method implemented in a motor vehicle comprising a first image sensor adapted to acquire an image of a first zone of a road environment in which the motor vehicle is located.
  • this method comprises a step of:
  • This auxiliary lighting device is a lighting device separate from the main lighting device of the motor vehicle, this main lighting device comprising the high beam and / or the low beam of this motor vehicle.
  • the first zone of this road environment can be effectively visualized with this first image sensor, even when the brightness of the road environment in which the vehicle is located is low.
  • this first zone may be located outside the field likely to be illuminated by the main lighting device of the vehicle.
  • this first zone may be situated laterally with respect to the motor vehicle (for example near one of the sides of this vehicle), or even at the rear of this vehicle, this first zone then not being able to benefit from lighting by the main lighting device of the motor vehicle.
  • a supplementary lighting device selectively illuminates this first zone, whereby the additional lighting produced by this vehicle is limited to what is necessary to improve the acquisition conditions.
  • an image by the first image sensor which is interesting because such additional lighting could be considered as parasitic or possibly dazzling for other drivers of motor vehicles.
  • this method further comprises steps of:
  • step d) determining a brightness level of this road environment, step d) being executed when the detection attempt of step b) has failed and when the brightness level determined in step c) is less than a predetermined brightness threshold.
  • step b) and c) thus makes it possible to determine that the brightness in this first zone is not sufficient to ensure efficient detection of said element by means of the first image sensor. This insufficient brightness is then advantageously remedied by illuminating this first zone.
  • This method may further comprise steps of:
  • step b) is determined by comparing the results of steps b) and g).
  • Using a second sensor, in addition to the first image sensor, to detect said element of the road environment in which the motor vehicle is located introduces a redundancy in this detection which increases its accuracy and reliability.
  • step b because this element is not present in the road environment in which the vehicle is located, in which case it is not not necessary to turn on the above-mentioned booster lighting device.
  • this method also comprises a step of
  • step b) the attempt to detect said element of the road environment in which the vehicle is located is also performed according to said representative data of this road environment acquired in step f2).
  • the second sensor distinct from the first image sensor, is a sensor insensitive to a level of luminosity in the first zone of this road environment
  • the second sensor distinct from the first image sensor, comprises a second image sensor whose field of vision covers a second zone of this road environment facing the motor vehicle;
  • the data representative of the road environment in which the motor vehicle acquired by the second sensor is located includes an image of the second zone of this road environment
  • the first zone of the road environment is situated laterally with respect to the motor vehicle, close to one of the sides of this vehicle;
  • the auxiliary lighting device is installed in the lower part of an outside mirror of the motor vehicle;
  • said element of the road environment is a marking line on the ground located along an edge of a taxiway on which the vehicle is traveling. automobile;
  • a position of said element of the road environment, with respect to the motor vehicle, is determined on the basis of the image of the first zone of this road environment acquired in step a);
  • said position of the element of the road environment is furthermore determined according to the data representative of this environment acquired by the second sensor distinct from the first image sensor.
  • the invention also proposes a motor vehicle comprising a first image sensor, adapted to acquire an image of a first zone of a road environment in which the motor vehicle is located, an auxiliary lighting device adapted for illuminating said first zone of this road environment, and an analysis and control module adapted to:
  • the invention also proposes an exterior mirror for a motor vehicle comprising a first image sensor adapted to acquire an image of a first zone of an environment in which the mirror is located, and an auxiliary lighting device, adapted to illuminate said first area of this environment.
  • the invention also proposes a motor vehicle comprising a first image sensor adapted to acquire an image of a first zone of a road environment in which the motor vehicle is located, as well as:
  • an auxiliary lighting device adapted to illuminate said first zone of this environment
  • an analysis and control module adapted to control the ignition of this auxiliary lighting device.
  • this first zone is located laterally with respect to the motor vehicle, near one of the sides of this vehicle.
  • FIG. 1 schematically represents a motor vehicle according to the invention
  • FIG. 2 diagrammatically represents a first example of a method implemented in such a vehicle
  • FIG. 3 diagrammatically represents a second example of a method implemented in such a vehicle
  • FIG. 4 schematically shows a third example of a method implemented in such a vehicle.
  • FIG. 1 diagrammatically shows a vehicle 1 situated in a road environment E comprising a road R with two traffic lanes V1, V2.
  • the vehicle 1 is located on one of these two traffic lanes V1, V2.
  • the vehicle 1 is equipped in particular with a first C1 image sensor, for example a video camera, adapted to acquire an image of a first zone Z1 of this road environment E.
  • a first C1 image sensor for example a video camera
  • This first zone Z1 is here located laterally with respect to the vehicle 1, near one of the sides of this vehicle 1.
  • this first zone Z1 is located here along a right side of the vehicle 1 automobile.
  • the first image sensor C1 is integrated in a right exterior rearview mirror 1 1 of this vehicle 1.
  • the first image sensor could for example be integrated with a door of the vehicle, in this case a right door, instead of being integrated in the exterior rearview mirror.
  • This first image sensor could also be located in the passenger compartment of the motor vehicle.
  • this first zone Z1 covers one of the edges of this traffic lane, which separates this lane from another lane of traffic, either of a side of the road R.
  • a line of ground marking L1, L2 points, as here, the edge of this road, and that the vehicle 1 automobile is located substantially in the middle of this lane, at least a portion of this line of ground marking is located in this first zone Z1.
  • the automobile vehicle 1 also comprises an auxiliary lighting device 12 adapted to illuminate said first zone Z1 of this road environment E.
  • This auxiliary lighting device 12 is installed here in the lower part of the right exterior rearview mirror 1 1 of the automobile vehicle 1.
  • the auxiliary lighting device could be installed on a handle of a side door of the vehicle, here a right side door, or be included in the body of this handle.
  • the vehicle 1 also comprises means for determining a brightness level of the road environment E, here comprising a brightness sensor 14, such as a photodiode, integrated for example in the right exterior rearview mirror 1 1 of the vehicle 1. More precisely, this brightness sensor 14 is adapted here to determine a brightness level of the road environment E at the level of the first zone Z1 of this environment.
  • a brightness sensor 14 such as a photodiode
  • the means for determining a brightness level of this road environment could correspond directly to the first image sensor, a brightness level of this road environment then being determined from an image of this environment acquired by this environment. first image sensor.
  • this first zone could be located along a left side of the vehicle.
  • the first image sensor, the auxiliary lighting device and the brightness sensor could for example be each integrated into a left exterior mirror of the vehicle.
  • this first area of the road environment could be located at the rear of the motor vehicle.
  • the vehicle 1 also includes a second sensor
  • this second sensor is more precisely a second image sensor, such as a video camera, whose field of vision covers a second zone Z2 of the road environment E, located in front of the vehicle 1 automobile.
  • This second sensor C2 is adapted to acquire a datum representative of the road environment E in which the vehicle 1 is located. This data more specifically includes information making it possible to detect an element of this road environment.
  • This datum here comprises an image of the second zone Z2 of this road environment E.
  • this second sensor could be a radar or a lidar (according to the Anglo-Saxon acronym of "Light Detection And Ranging”), adapted to detect elements of the road environment facing the motor vehicle, said representative datum of the road environment can then correspond to a signal or several echo signals received by the second sensor.
  • this second sensor is insensitive to the brightness level of the road environment in which the vehicle is located. In particular, this second sensor is then insensitive to a brightness level in the first zone of this environment.
  • the vehicle 1 also includes a main lighting device (not shown), here comprising high beam and / or low beam, to illuminate a region of the road environment facing the vehicle 1 automobile.
  • a main lighting device here comprising high beam and / or low beam, to illuminate a region of the road environment facing the vehicle 1 automobile.
  • the area of the road environment E illuminated by this main lighting device (when the latter is on) at least partly covers the second zone Z2 of this road environment E.
  • the brightness in this second zone Z2 is sufficient, even at night or in a tunnel, to display by means of the second image sensor elements of the road environment E located (at least in part) in this area.
  • second zone Z2 in particular to visualize the lines of ground markings L1, L2 here identifying the edges of the taxiway V1 taken by the vehicle 1 automobile.
  • the automobile vehicle 1 also comprises a third sensor C3, distinct from the first image sensor C1 and the second sensor C2, adapted to detect elements of the road environment located at least partly in a third zone Z3 of the vehicle. road environment E.
  • This third zone Z3 extending towards the motor vehicle. It coincides here globally with the second zone Z2 of this road environment E.
  • This third sensor C3 here comprises a lidar, and is thus insensitive to a brightness level in the first zone Z1 of the road environment E.
  • the automotive vehicle 1 also comprises an analysis and control module 10.
  • This analysis and control module comprises for example a processor performing logical operations, for example a microprocessor, and a storage module made for example in the form of a processor. a hard disk and / or a RAM.
  • the analysis and control module 10 is adapted to receive data transmitted by the first image sensor C1, in particular data representative of an image of the first zone Z1 acquired by the first image sensor C1.
  • the analysis and control module 10 is also adapted to control the ignition of the auxiliary lighting device 12.
  • the analysis and control module could be integrated in the exterior rearview mirror which is provided with the first image sensor and the auxiliary lighting device.
  • the analysis and control module 10 is adapted to:
  • FIGS. 2 to 4 described below each show in greater detail an example of a method of controlling the auxiliary ignition device 12 in which the above operations are implemented.
  • the analysis and control module 10 is also adapted to receive data transmitted by the second image sensor C2, to receive data transmitted by the third sensor C3, and to analyze these data in an attempt to detect an element. of the road environment E such as one of the ground marking lines L1, L2 based in particular on these data. In case As a result of this detection, the analysis and control module 10 is also adapted to determine the geometric characteristics of this element, such as its position relative to the vehicle 1 and / or its overall shape.
  • the analysis and control module 10 is also adapted, here, to determine a position of the vehicle 1 with respect to the taxiway V1 that it follows, based on the image of the first zone Z1 of this environment. and / or data acquired by the second sensor C2 and the third sensor C3.
  • This position may correspond, for example, to a deviation of the vehicle 1 from the vehicle in the middle of this lane V1, or at a distance separating the vehicle from a lateral edge of this lane V1.
  • the analysis and control module 10 is also adapted, for driving assistance purposes, to control vehicle reaction means 1 (not shown), based on this position of the vehicle 1 relative to to the taxiway V1 it borrows, to trigger a controllable feature.
  • the analysis and control module 10 can control a signaling and / or alarm device, for example a loudspeaker, so as to trigger an audible alarm signaling to a driver of the motor vehicle 1 that the distance separating the vehicle 1 from the right ground marking line L1 is less than a given determined limit.
  • a signaling and / or alarm device for example a loudspeaker
  • the analysis and control module 10 can also, depending on the position of the vehicle 1 with respect to the taxiway V1 that it takes, control an actuator such as a brake assist system, or a system emergency braking system, or a power steering system.
  • an actuator such as a brake assist system, or a system emergency braking system, or a power steering system.
  • the motor vehicle could comprise, in addition to the first image sensor, an additional image sensor, adapted to acquire an image of an additional zone of the road environment in which the vehicle is located, this additional zone being located laterally relative to the motor vehicle, near one of the sides of the vehicle opposite to said first zone, for example near the left side of the vehicle if the first zone is located on the right side of the vehicle.
  • the motor vehicle would also include an additional auxiliary lighting device adapted to illuminate this additional area.
  • the analysis and control module would be further adapted to control the ignition of the additional auxiliary lighting device in a manner comparable to that used to control the lighting of the auxiliary lighting device of the first zone.
  • the motor vehicle could also include a rear image sensor, adapted to acquire an image of a rear area of the road environment in which the vehicle is located, that is to say located at the rear of the motor vehicle.
  • the motor vehicle would also include a rear auxiliary lighting device adapted to illuminate this rear area.
  • the analysis and control module is further adapted to control the ignition of the rear lighting device in a manner comparable to that used to control the lighting of the auxiliary lighting device of the first zone.
  • FIG. 2 A first example of a method implemented in this automobile vehicle, particularly to manage the ignition of the auxiliary lighting device 12, is shown schematically in Figure 2, in the form of a logic diagram.
  • This method comprises a step a), during which an image of the first zone Z1 of the road environment E in which the automobile vehicle 1 is located is acquired by means of the first image sensor C1.
  • step a) is followed by a step b) during which the image acquired in step a) is analyzed by the analysis and control module 10 in an attempt to detect an element of this road environment E, here more specifically to try to detect the ground marking line L1 located along the right edge of the taxiway V1 taken by the vehicle 1 automobile.
  • a lateral deviation between the motor vehicle and this ground marking line L1 is also determined during step b), by analyzing the image acquired in step a), the driving aid purposes mentioned above.
  • the detection attempt of step b) is carried out here by means of an image analysis algorithm based for example on a detection of areas of the image having a gradient or a high luminosity and / or on a recognition of form.
  • This algorithm can also rely on a statistical method, such as Independent Component Analysis ("Independent Component Analysis”), or a method using artificial neural networks.
  • Independent Component Analysis Independent Component Analysis
  • step a) several images of said first zone could be acquired by the first image sensor, the detection attempt of step b) being then performed by analyzing these images.
  • step b ' the analysis and control module 10 tests whether the detection attempt carried out in step b) has failed, or if on the contrary it has succeeded.
  • step b In case of success of the detection attempt carried out in step b), this process then resumes in step a).
  • step b In case of failure of the detection attempt carried out in step b), this process then continues with a step c).
  • a brightness level of the road environment E is determined, here on the basis of a signal produced by the brightness sensor 14. Alternatively, as previously mentioned, this level of brightness could be determined directly by analyzing the image acquired in step a).
  • the analysis and control module 10 compares the brightness level of the road environment E with a predetermined brightness threshold.
  • the level of this predetermined brightness threshold is adjusted here, during preliminary steps of configuration of the analysis and control module 10 (not shown), so as to correspond to a brightness level of the road environment E below from which said element of the road environment E can no longer be effectively detected by means of the first image sensor C1.
  • step d the analysis module and control 10 controls the lighting of the auxiliary lighting device 12.
  • step d the auxiliary lighting device 12 remains on, and the method resumes in step a).
  • step c ' the brightness level of the road environment E determined in step c) is greater than this predetermined brightness threshold
  • the method resumes in step a) , without performing step d) ignition control of the supplemental lighting device 12.
  • This last case corresponds to a situation in which the attempt to detect step b) has failed, while the luminosity within the road environment E is high.
  • This failure could be due, for example, to the fact that said element is not located in the first zone Z1 of the road environment (here, for example, said ground marking line L1 could be erased at the level of the zone Z1, or the vehicle could be located on a taxiway without a marking line on the ground).
  • this method comprises steps, not shown, in which, when the auxiliary lighting device 12 is turned on:
  • a level of luminosity of the road environment in which the motor vehicle circulates is determined by means of the brightness sensor 14, and
  • the analysis and control module 10 controls the extinguishing device lighting off.
  • FIG. 3 A second example of a method implemented in this automobile vehicle 1 is shown schematically in FIG. 3, in the form of a logic diagram.
  • the lighting management of the auxiliary lighting device 12 is carried out in this second example of a process, while taking account of data representative of the road environment. E acquired by the second and third sensors C2, C3 equipping the vehicle 1 automobile.
  • This method comprises steps a), b) and b ') identical to steps a) and b) and b') of the first example of the method.
  • the second image sensor acquires an image of the second zone Z2 of the road environment E.
  • the third sensor C3 which is reminded that it comprises a lidar, acquires a signal for detecting elements of the road environment E present in the third zone Z3.
  • the analysis and control module 10 merges the data corresponding to the image acquired in the image f) and the data corresponding to the signal acquired in the step f) to produce merged data. .
  • This melting step may comprise, for example, an estimation of a level of precision associated with the data acquired by the second sensor C2 (this level of precision being for example related to the resolution of the image acquired by this second sensor C2), a estimating a level of precision associated with the data acquired by the third sensor C3, an analysis of similarities between the data acquired by these two sensors, then a fusion of these data taking into account all of these parameters.
  • step FU is followed by a step g) during which the merged data produced in step FU are analyzed by the analysis and control module 10 in an attempt to detect an element of the road environment E.
  • element of the road environment E is the same as the one on which the attempt to detect step b), in this case here the ground marking line L1 located along the right edge of the taxiway V1 borrowed by the vehicle 1 automobile.
  • the analysis and control module 10 could also attempt to detect, here, the ground marking line L2 located along the left edge of this traffic lane V1, during step g).
  • a first lateral position of the vehicle 1 on this traffic lane V1 is also determined during step g), by analyzing the merged data for the purpose of driving assistance mentioned above.
  • step g ' the analysis and control module 10 tests whether the detection attempt carried out in step g) has failed, or if on the contrary she succeeded.
  • step g When the detection attempt of step g) has failed, the method resumes here, after step g '), in steps a), f) and f).
  • step g) When the detection attempt of step g) has been successful, and the detection attempt of step b) has also been successful, the method continues with a step P.
  • a second position of the automobile vehicle 1 relative to the taxiway V1 that it takes is determined, according to:
  • this lateral deviation and this first lateral position are merged, and possibly compared.
  • this first lateral position also corresponds to a lateral deviation between the motor vehicle and the above-mentioned ground marking line
  • the second position of the automobile vehicle 1 relative to the taxiway V1 which it follows can be obtained. by calculating an average (possibly weighted) of the lateral deviation determined in step b), and this first position (determined in step g)).
  • step P the method resumes in steps a), f) and f).
  • step g) the detection attempt of step g) has been successful, and the detection attempt of step b) has failed
  • the method continues with steps c) and c ') identical to steps c) and c' ) of the first example of the method described above.
  • a brightness level of the road environment E in which the vehicle 1 is located is determined. automotive, and that in the following step c '), the analysis and control module 10 compares the brightness level of the road environment E to a predetermined brightness threshold.
  • step d the analysis and control module 10 controls the lighting of the auxiliary lighting device 12.
  • step d the auxiliary lighting device 12 remains on, and the method is repeated in steps a), f) and f).
  • step c ') When it is determined during step c ') that the brightness level of the road environment E determined in step c) is greater than this predetermined brightness threshold, the method resumes in steps a), f ) and f), without performing step d) ignition control of the supplemental lighting device 12.
  • step d) ignition control of the auxiliary lighting device 12 is therefore performed when the three conditions below are verified:
  • step g the attempt to detect this same element of the road environment (here the L1 ground marking line) was successful, and
  • the brightness level of the road environment E (determined in step c)) is below the predetermined brightness threshold.
  • an additional condition is required for step d) to control the ignition of the supplemental lighting device 12 to be executed.
  • step b Taking this additional condition into account makes it possible, in particular, to distinguish: a first situation, in which said element of the road environment E is not detected in step b), whereas step g) has shown that this element is present in the road environment E in which is located the vehicle 1 automobile,
  • step b a second situation in which this element is not detected in step b), for example because this element is absent from the road environment E in which the vehicle 1 is located (this element being also not detected in step g)).
  • this additional condition ii- thus makes it possible to control the lighting of this auxiliary lighting 12 only when it is useful. This reduces the electrical consumption of the vehicle 1, and limits the additional lighting produced by this vehicle, which is interesting because this additional lighting could be considered as parasitic or possibly dazzling for other drivers of motor vehicles.
  • Step g) thus provides information that completes in a particularly useful manner the information derived from the image acquired by the first image sensor C1, and this in particular because the detection attempt made in step g) is based on on acquired data:
  • third sensor C3 comprising a lidar
  • second image sensor C2 a sensor sensitive to this level of brightness, but benefiting when necessary from the illumination provided by the main lighting device of the vehicle (high beam and / or low beam).
  • this second exemplary method could comprise only steps f) and g) described above, instead of steps f), f), FU and g). More specifically, in step g), the attempt to detect said element of the road environment could be carried out on the basis of the data acquired at step f) by the second sensor only, instead of being as here performed both on the basis of the data acquired in step f) by the second sensor, and on the basis of the data acquired in step f) by the third sensor.
  • FIG. 4 A third example of a method implemented in this automobile vehicle 1 is shown schematically in FIG. 4, in the form of a logic diagram.
  • the lighting management of the auxiliary lighting device 12 is carried out in this third example of a process, taking into account, in addition, data representative of the road environment. E acquired by the second sensor C2.
  • This method comprises a step a) identical to step a) of the first example of method, described above.
  • This method also comprises a step f2), carried out in parallel with step a), during which a datum representative of the road environment E, here an image of the second zone Z2 of this road environment, is acquired by means of the second image sensor.
  • Steps a) and f2) are followed by a step FUS during which the analysis and control module 10 merges the data respectively corresponding to the image acquired in step b) and to the image acquired at step f2), to produce merged data.
  • This merger may for example include an analysis of similarities between data extracted from these two images, followed by an aggregation of these data.
  • This step FUS is followed by a step b), during these merged data are analyzed by the analysis and control module 10 to try to detect an element of this road environment E, here more precisely to try to detect the L1 ground marking line located along the right edge of the taxiway V1 taken by the vehicle 1 automobile.
  • step b) is thus performed as a function of both the image acquired by the first image sensor C1, and according to the image acquired by the second image sensor. This detection attempt thus has improved reliability, compared to the detection attempt made in step b) during the first example of the method.
  • step b) is followed by steps b '), and depending on the result of this step b'), steps c), c ') and d), identical to steps b '), c), c') and d) of the first example of the method described above with reference to FIG.
  • said element of the road environment E being the object of the detection attempts of steps b) and g) is here the marking line on the ground L1 locating the right edge of the lane used by the motor vehicle.
  • this element of the road environment to be detected could correspond to the marking line marking the left edge of the driving lane used by the motor vehicle.
  • said element of the road environment could be a parapet, a guardrail, a sign or a combination of such elements.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

L'invention concerne un procédé mis en œuvre dans un véhicule (1) automobile comprenant un premier capteur d'images (C1) adapté pour acquérir une image d'une première zone (Z1) d'un environnement routier (E) dans lequel est situé le véhicule automobile. Selon l'invention, ce procédé comprend une étape de : d) commande d'allumage d'un dispositif d'éclairage d'appoint (12) adapté à éclairer la première zone de cet environnement routier. Un véhicule automobile dans lequel est mis en œuvre ce procédé est également décrit.

Description

PROCÉDÉ MIS EN ŒUVRE DANS UN VÉHICULE AUTOMOBILE ET VÉHICULE AUTOMOBILE
ASSOCIÉ
DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne de manière générale le domaine des procédés et des systèmes d'aide à la conduite d'un véhicule automobile.
Elle concerne plus particulièrement un procédé mis en œuvre dans un véhicule automobile comprenant un capteur d'images.
ARRI ÈRE-PLAN TECHNOLOGIQUE
De nombreux véhicules automobiles sont équipés aujourd'hui d'un capteur d'images, par exemple une caméra vidéo, permettant notamment de détecter différents éléments délimitant une voie de circulation empruntée par ce véhicule automobile, tels que des lignes de marquage au sol, parapets, glissières de sécurité ou panneaux de signalisation.
Des caractéristiques géométriques (distance d'avec le véhicule, position, forme d'ensemble, répartition) d'un tel élément délimitant la voie de circulation empruntée par le véhicule automobile peuvent alors être déterminées, afin d'en déduire une position de ce véhicule automobile sur cette voie de circulation. Cette position peut correspondre par exemple à un écart du véhicule automobile par rapport au milieu de cette voie de circulation, ou à une distance séparant le véhicule d'un bord latéral de cette voie de circulation.
Cette position du véhicule automobile sur la voie de circulation qu'il emprunte peut ensuite être utilisée par exemple pour commander un dispositif de direction assistée permettant au véhicule automobile de se maintenir sensiblement au milieu de la voie de circulation qu'il emprunte, sans intervention de son conducteur, ou avec une intervention réduite de ce dernier.
Un tel capteur d'images, associé à un afficheur d'images, permet aussi à un conducteur de ce véhicule automobile de visualiser, sur cet afficheur, une image d'une zone d'un environnement routier dans lequel évolue le véhicule automobile, cette zone étant par exemple située hors du champ de vision du conducteur du véhicule automobile.
Mais la qualité d'une image acquise par un tel capteur d'image peut se trouver fortement réduite, rendant cette image peu utile, voir inutilisable (en particulier pour les applications mentionnées ci-dessus), lorsque la luminosité de l'environnement routier dans lequel est situé le véhicule est faible, comme c'est le cas par exemple de nuit, ou sous un tunnel.
OBJET DE L'INVENTION
Dans ce contexte, la présente invention propose un procédé mis en œuvre dans un véhicule automobile comprenant un premier capteur d'images adapté pour acquérir une image d'une première zone d'un environnement routier dans lequel est situé le véhicule automobile.
Selon l'invention, ce procédé comprend une étape de :
d) commande d'allumage d'un dispositif d'éclairage d'appoint adapté à éclairer la première zone de cet environnement routier.
Ce dispositif d'éclairage d'appoint est un dispositif d'éclairage distinct du dispositif d'éclairage principal du véhicule automobile, ce dispositif d'éclairage principal comprenant les feux de route et/ou les feux de croisement de ce véhicule automobile.
Grâce à l'invention, la première zone de cet environnement routier peut être visualisée efficacement grâce à ce premier capteur d'images, même lorsque la luminosité de l'environnement routier dans lequel est situé le véhicule est faible.
L'utilisation d'un dispositif d'éclairage d'appoint pour éclairer cette première zone est particulièrement intéressante, car cette première zone peut être située hors du champ susceptible d'être éclairé par le dispositif d'éclairage principal du véhicule. Par exemple, cette première zone peut être située latéralement par rapport au véhicule automobile (par exemple à proximité d'un des côtés de ce véhicule), ou encore à l'arrière de ce véhicule, cette première zone ne pouvant alors pas bénéficier d'un éclairage par le dispositif d'éclairage principal du véhicule automobile.
Par ailleurs, l'utilisation d'un dispositif d'éclairage d'appoint permet d'éclairer sélectivement cette première zone, grâce à quoi on limite l'éclairage supplémentaire produit par ce véhicule à ce qui est nécessaire pour améliorer les conditions d'acquisition d'une image par le premier capteur d'images, ce qui est intéressant car un tel éclairage supplémentaire pourrait être considéré comme parasite ou éventuellement éblouissant pour d'autres conducteurs de véhicules automobiles.
Préférentiellement, ce procédé comprend en outre des étapes de :
a) acquisition, au moyen du premier capteur d'images (C1 ) équipant le véhicule (1 ) automobile, d'une image de la première zone (Z1 ) de l'environnement routier (E) dans lequel est situé le véhicule automobile,
b) tentative de détection d'un élément (L1 ) de cet environnement routier sur la base de l'image acquise à l'étape a), et
c) détermination d'un niveau de luminosité de cet environnement routier, l'étape d) étant exécutée lorsque la tentative de détection de l'étape b) a échoué et lorsque le niveau de luminosité déterminé à l'étape c) est inférieur à un seuil de luminosité prédéterminé.
Combiner ainsi les résultats des étapes b) et c) permet de déterminer que la luminosité dans cette première zone n'est pas suffisante pour assurer une détection efficace dudit élément au moyen du premier capteur d'images. On remédie alors avantageusement à cette luminosité insuffisante en éclairant cette première zone.
Le fait d'éclairer sélectivement cette première zone, en fonction des résultats des étapes b) et c), permet par ailleurs d'éclairer cette première zone seulement lorsque cela est utile. On limite ainsi l'éclairage supplémentaire produit par ce véhicule, ce qui est intéressant car cet éclairage supplémentaire pourrait être considéré comme parasite ou éventuellement éblouissant pour d'autres conducteurs de véhicules automobiles.
Ce procédé peut comprendre en outre des étapes de :
f) acquisition d'une donnée représentative de l'environnement routier dans lequel est situé le véhicule automobile, au moyen d'un deuxième capteur équipant ce véhicule, distinct du premier capteur d'images, et de
g) tentative de détection dudit élément de l'environnement routier par analyse de ladite donnée représentative de cet environnement routier acquise à l'étape f),
et dans lequel le succès ou l'échec de l'étape b) est déterminé par comparaison des résultats des étapes b) et g).
Utiliser un deuxième capteur, en plus du premier capteur d'images, pour détecter ledit élément de l'environnement routier dans lequel est situé le véhicule automobile introduit une redondance dans cette détection qui en augmente la précision et la fiabilité.
Par ailleurs, combiner le résultat de la détection de cet élément réalisée par l'intermédiaire du deuxième capteur, et le résultat de la détection de ce même élément réalisée par l'intermédiaire du premier capteur d'images permet avantageusement de distinguer :
- un cas dans lequel cet élément n'est pas détecté à l'étape b), du fait d'une luminosité insuffisante dans ladite première zone, cas dans lequel il est souhaitable d'allumer le dispositif d'éclairage d'appoint susmentionné,
- d'un cas dans lequel cet élément n'est pas détecté à l'étape b), du fait que cet élément n'est pas présent dans l'environnement routier dans lequel est situé le véhicule, cas dans lequel il n'est pas utile d'allumer le dispositif d'éclairage d'appoint susmentionné.
II est également prévu, de manière optionnelle, que ce procédé comprenne également une étape de
f2) acquisition d'une donnée représentative de l'environnement routier dans lequel est situé le véhicule automobile, au moyen d'un deuxième capteur équipant ce véhicule distinct du premier capteur d'images,
et qu'à l'étape b), la tentative de détection dudit élément de l'environnement routier dans lequel est situé le véhicule est réalisée en outre en fonction de ladite donnée représentative de cet environnement routier acquise à l'étape f2).
Selon d'autres caractéristiques optionnelles, et donc non limitatives : - le deuxième capteur distinct du premier capteur d'images est un capteur insensible à un niveau de luminosité dans la première zone de cet environnement routier ;
- le deuxième capteur distinct du premier capteur d'images comprend un deuxième capteur d'images dont le champ de vision couvre une deuxième zone de cet environnement routier située face au véhicule automobile ;
- la donnée représentative de l'environnement routier dans lequel est situé le véhicule automobile acquise par le deuxième capteur comprend une image de la deuxième zone de cet environnement routier ;
- la première zone de l'environnement routier est située latéralement par rapport au véhicule automobile, à proximité d'un des côtés de ce véhicule ;
- le dispositif d'éclairage d'appoint est installé en partie inférieure d'un rétroviseur extérieur du véhicule automobile ;
- ledit élément de l'environnement routier est une ligne de marquage au sol située le long d'un bord d'une voie de circulation sur laquelle circule le véhicule automobile ;
- une position dudit élément de l'environnement routier, par rapport au véhicule automobile, est déterminée sur la base de l'image de la première zone de cet environnement routier acquise à l'étape a) ; et
- ladite position de l'élément de l'environnement routier est déterminée en outre en fonction de la donnée représentative de cet environnement acquise par le deuxième capteur distinct du premier capteur d'images.
L'invention propose également un véhicule automobile comprenant un premier capteur d'images, adapté pour acquérir une image d'une première zone d'un environnement routier dans lequel est situé le véhicule automobile, un dispositif d'éclairage d'appoint, adapté pour éclairer ladite première zone de cet environnement routier, et un module d'analyse et de commande adapté pour :
- commander l'acquisition, au moyen dudit premier capteur d'images, d'une image de la première zone de cet environnement routier,
- tenter de détecter un élément de cet environnement routier par analyse de cette image,
- déterminer un niveau de luminosité de cet environnement routier, et
- commander l'allumage du dispositif d'éclairage d'appoint lorsque cette détection a échoué et lorsque le niveau de luminosité précédemment déterminé est inférieur à un seuil de luminosité prédéterminé.
L'invention propose aussi un rétroviseur extérieur pour véhicule automobile comprenant un premier capteur d'images adapté pour acquérir une image d'une première zone d'un environnement dans lequel est situé le rétroviseur, et un dispositif d'éclairage d'appoint, adapté pour éclairer ladite première zone de cet environnement.
L'invention propose aussi un véhicule automobile comprenant un premier capteur d'image adapté pour acquérir une image d'une première zone d'un environnement routier dans lequel est situé le véhicule automobile, ainsi que :
- un dispositif d'éclairage d'appoint adapté pour éclairer ladite première zone de cet environnement, et
- un module d'analyse et de commande adapté pour commander l'allumage de ce dispositif d'éclairage d'appoint.
On peut prévoir en outre que cette première zone est située latéralement par rapport au véhicule automobile, à proximité d'un des côtés de ce véhicule. DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.
Sur les dessins annexés :
- la figure 1 représente schématiquement un véhicule automobile conforme à l'invention,
- la figure 2 représente schématiquement un premier exemple de procédé mis en œuvre dans un tel véhicule,
- la figure 3 représente schématiquement un deuxième exemple de procédé mis en œuvre dans un tel véhicule, et
- la figure 4 représente schématiquement un troisième exemple de procédé mis en œuvre dans un tel véhicule.
Sur la figure 1 , on a représenté schématiquement un véhicule 1 automobile situé dans un environnement routier E comprenant une route R à deux voies de circulation V1 , V2. Le véhicule 1 automobile est situé sur l'une de ces deux voies de circulation V1 , V2.
Le véhicule 1 automobile est équipé notamment d'un premier capteur d'images C1 , par exemple une caméra vidéo, adapté pour acquérir une image d'une première zone Z1 de cet environnement routier E.
Cette première zone Z1 est située ici latéralement par rapport au véhicule 1 automobile, à proximité d'un des côtés de ce véhicule 1 .
Plus précisément, cette première zone Z1 est située ici le long d'un côté droit du véhicule 1 automobile.
Ici, le premier capteur d'images C1 est intégré à un rétroviseur extérieur droit 1 1 de ce véhicule 1 . En variante, le premier capteur d'images pourrait par exemple être intégré à une portière du véhicule, en l'occurrence une portière droite, au lieu d'être intégré à ce rétroviseur extérieur. Ce premier capteur d'images pourrait également être situé dans l'habitacle du véhicule automobile.
Lorsque le véhicule 1 automobile est situé sensiblement au milieu de la voie de circulation qu'il emprunte, cette première zone Z1 couvre l'un des bords de cette voie circulation, qui sépare cette voie de circulation soit d'une autre voie de circulation, soit d'un bas-côté de la route R. En particulier, lorsqu'une ligne de marquage au sol L1 , L2 repère, comme ici, le bord de cette voie de circulation, et que le véhicule 1 automobile est situé sensiblement au milieu de cette voie de circulation, un tronçon au moins de cette ligne de marquage au sol est situé dans cette première zone Z1 .
Le véhicule 1 automobile comprend également un dispositif d'éclairage d'appoint 12 adapté pour éclairer ladite première zone Z1 de cet environnement routier E.
Ce dispositif d'éclairage d'appoint 12 est installé ici en partie inférieure du rétroviseur extérieur droit 1 1 du véhicule 1 automobile.
En variante, le dispositif d'éclairage d'appoint pourrait être installé sur une poignée d'une portière latérale du véhicule, ici d'une portière latérale droite, ou être inclus dans le corps de cette poignée.
Le véhicule 1 automobile comprend également des moyens de détermination d'un niveau de luminosité de l'environnement routier E, comprenant ici un capteur de luminosité 14, tel qu'une photodiode, intégré par exemple au rétroviseur extérieur droit 1 1 du véhicule 1 . Plus précisément, ce capteur de luminosité 14 est adapté ici pour déterminer un niveau de luminosité de l'environnement routier E au niveau de la première zone Z1 de cet environnement.
En variante, les moyens de détermination d'un niveau de luminosité de cet environnement routier pourraient correspondre directement au premier capteur d'images, un niveau de luminosité de cet environnement routier étant alors déterminé à partir d'une image de cet environnement acquise par ce premier capteur d'images.
En variante, au lieu d'être située le long du côté droit du véhicule automobile, cette première zone pourrait être située le long d'un côté gauche de ce véhicule. Dans ce cas, le premier capteur d'image, le dispositif d'éclairage d'appoint et le capteur de luminosité pourrait par exemple être intégrés chacun à un rétroviseur extérieur gauche du véhicule.
En variante encore, cette première zone de l'environnement routier pourrait être située à l'arrière du véhicule automobile.
Ici, le véhicule 1 automobile comprend également un deuxième capteur
C2, distinct du premier capteur d'images C1 . Ici, ce deuxième capteur est plus précisément un deuxième capteur d'images, tel qu'une caméra vidéo, dont le champ de vision couvre une deuxième zone Z2 de l'environnement routier E, située face au véhicule 1 automobile. Ce deuxième capteur C2 est adapté pour acquérir une donnée représentative de l'environnement routier E dans lequel est situé le véhicule 1 automobile. Cette donnée comprend plus précisément des informations permettant de détecter un élément de cet environnement routier. Cette donnée comprend ici une image de la deuxième zone Z2 de cet environnement routier E.
En variante, ce deuxième capteur pourrait être un radar ou un lidar (selon l'acronyme anglo-saxon de « Light Détection And Ranging »), adapté à détecter des éléments de l'environnement routier situés face au véhicule automobile, ladite donnée représentative de l'environnement routier pouvant alors correspondre à un signal ou plusieurs signaux d'écho reçus par ce deuxième capteur. Dans ce cas, ce deuxième capteur est insensible au niveau de luminosité de l'environnement routier dans lequel est situé le véhicule. En particulier, ce deuxième capteur est alors insensible à un niveau de luminosité dans la première zone de cet environnement.
Le véhicule 1 automobile comprend également un dispositif d'éclairage principal (non représenté), comprenant ici des feux de route et/ou des feux de croisement, permettant d'éclairer une région de l'environnement routier située face au véhicule 1 automobile.
Ici, la région de l'environnement routier E éclairée par ce dispositif d'éclairage principal (lorsque ce dernier est allumé) couvre au moins en partie la deuxième zone Z2 de cet environnement routier E. Ainsi, lorsque le dispositif d'éclairage principal du véhicule est allumé, la luminosité dans cette deuxième zone Z2 est suffisante, même de nuit ou sous un tunnel, pour visualiser au moyen du deuxième capteur d'images, des éléments de l'environnement routier E situés (au moins en partie) dans cette deuxième zone Z2, en particulier pour visualiser les lignes de marquages au sol L1 , L2 repérant ici les bords de la voie de circulation V1 empruntée par le véhicule 1 automobile.
Ici, le véhicule 1 automobile comprend également un troisième capteur C3, distinct du premier capteur d'images C1 et du deuxième capteur C2, adapté à détecter des éléments de l'environnement routier situés au moins en partie dans une troisième zone Z3 de l'environnement routier E. Cette troisième zone Z3 s'étendant face au véhicule automobile. Elle coïncide ici globalement avec la deuxième zone Z2 de cet environnement routier E. Ce troisième capteur C3 comprend ici un lidar, et est ainsi insensible à un niveau de luminosité dans la première zone Z1 de l'environnement routier E.
Le véhicule 1 automobile comprend également un module d'analyse et de commande 10. Ce module d'analyse et de commande comporte par exemple un processeur effectuant des opérations logiques, par exemple un microprocesseur, et un module de mémorisation réalisé par exemple sous forme d'un disque dur et/ou d'une mémoire vive.
Le module d'analyse et de commande 10 est adapté pour recevoir des données émises par le premier capteur d'images C1 , notamment des données représentative d'une image de la première zone Z1 acquise par le premier capteur d'images C1 .
Le module d'analyse et de commande 10 est également adapté pour commander l'allumage du dispositif d'éclairage d'appoint 12.
Selon un mode de réalisation particulier, non représenté, le module d'analyse et de commande pourrait être intégré dans le rétroviseur extérieur qui est muni du premier capteur d'images et du dispositif d'éclairage d'appoint.
Selon une caractéristique particulièrement remarquable, le module d'analyse et de commande 10 est adapté pour :
- commander l'acquisition, au moyen du premier capteur d'images C1 , d'une image de la première zone Z1 de cet environnement routier,
- tenter de détecter un élément de cet environnement routier par analyse de cette image,
- déterminer un niveau de luminosité de cet environnement routier, ici sur la base d'un signal produit par le capteur de luminosité 14, et
- commander l'allumage du dispositif d'éclairage d'appoint 12 lorsque cette détection a échoué et lorsque le niveau de luminosité précédemment déterminé est inférieur à un seuil de luminosité prédéterminé.
Les figures 2 à 4 décrites plus loin représentent chacune plus en détail un exemple de procédé de commande du dispositif d'allumage d'appoint 12 dans lequel les opérations ci-dessus sont mises en œuvre.
Ici, le module d'analyse et de commande 10 est également adapté pour recevoir des données émises par le deuxième capteur d'images C2, pour recevoir des données émises par le troisième capteur C3, et pour analyser ces données pour tenter de détecter un élément de l'environnement routier E tel que l'une des lignes de marquage au sol L1 , L2 sur la base notamment de ces données. En cas de succès de cette détection, le module d'analyse et de commande 10 est également adapté pour déterminer des caractéristiques géométriques de cet élément, telles que sa position par rapport au véhicule 1 et/ou sa forme d'ensemble.
Le module d'analyse et de commande 10 est également adapté, ici, pour déterminer une position du véhicule 1 par rapport à la voie de circulation V1 qu'il emprunte, sur la base de l'image de la première zone Z1 de cet environnement routier et/ou des données acquises par le deuxième capteur C2 et le troisième capteur C3. Cette position peut correspondre par exemple à un écart du véhicule 1 automobile par rapport au milieu de cette voie de circulation V1 , ou à une distance séparant le véhicule d'un bord latéral de cette voie de circulation V1 .
Ici, le module d'analyse et de commande 10 est également adapté, à des fins d'aide à la conduite, à commander des moyens de réaction du véhicule 1 (non représentés), sur la base de cette position du véhicule 1 par rapport à la voie de circulation V1 qu'il emprunte, afin de déclencher une fonctionnalité commandable.
Par exemple, le module d'analyse et de commande 10 peut commander un dispositif de signalisation et/ou d'alarme, par exemple un haut-parleur, de manière à déclencher une alarme sonore signalant à un conducteur du véhicule automobile 1 que la distance séparant le véhicule 1 de la ligne de marquage au sol L1 droite est inférieure à une limite déterminée donnée.
Le module d'analyse et de commande 10 peut aussi, en fonction de la position du véhicule 1 par rapport à la voie de circulation V1 qu'il emprunte, commander un actionneur tel qu'un système d'assistance au freinage, ou un système de freinage d'urgence, ou encore un système de direction assistée.
En variante, le véhicule automobile pourrait comprendre, en plus du premier capteur d'images, un capteur d'images supplémentaire, adapté pour acquérir une image d'une zone supplémentaire de l'environnement routier dans lequel est situé le véhicule, cette zone supplémentaire étant située latéralement par rapport au véhicule automobile, à proximité d'un des côtés de ce véhicule opposé à ladite première zone, par exemple à proximité du côté gauche du véhicule si la première zone est située du côté droit du véhicule. Dans la cadre de cette variante, le véhicule automobile comprendrait également un dispositif d'éclairage d'appoint supplémentaire adapté pour éclairer cette zone supplémentaire. Dans ce cadre, le module d'analyse et de commande serait en outre adapté à commander l'allumage de ce dispositif d'éclairage d'appoint supplémentaire selon des modalités comparables à celles utilisées pour commander l'allumage du dispositif d'éclairage d'appoint de la première zone.
En variante encore, le véhicule automobile pourrait comprendre également un capteur d'images arrière, adapté pour acquérir une image d'une zone arrière de l'environnement routier dans lequel est situé le véhicule, c'est-à- dire située à l'arrière du véhicule automobile. Dans la cadre de cette variante, le véhicule automobile comprendrait également un dispositif d'éclairage d'appoint arrière adapté pour éclairer cette zone arrière. Dans ce cadre, le module d'analyse et de commande serait en outre adapté à commander l'allumage de ce dispositif d'éclairage arrière selon des modalités comparables à celles utilisées pour commander l'allumage du dispositif d'éclairage d'appoint de la première zone.
Un premier exemple de procédé mis en œuvre dans ce véhicule 1 automobile, notamment pour gérer l'allumage du dispositif d'éclairage d'appoint 12, est représenté schématiquement sur la figure 2, sous forme d'un logigramme.
Ce procédé comprend une étape a), au cours de laquelle une image de la première zone Z1 de l'environnement routier E dans lequel est situé le véhicule 1 automobile est acquise au moyen du premier capteur d'images C1 .
Cette étape a) est suivie d'une étape b) au cours de laquelle l'image acquise à l'étape a) est analysée par le module d'analyse et de commande 10 pour tenter de détecter un élément de cet environnement routier E, ici plus précisément pour tenter de détecter la ligne de marquage au sol L1 située le long du bord droit de la voie de circulation V1 empruntée par le véhicule 1 automobile.
Lorsque cette détection est réalisée avec succès, un écart latéral entre le véhicule automobile et cette ligne de marquage au sol L1 est également déterminé au cours de l'étape b), par analyse de l'image acquise à l'étape a), aux fins d'aide à la conduite mentionnées précédemment.
La tentative de détection de l'étape b) est réalisée ici au moyen d'un algorithme d'analyse d'image basé par exemple sur une détection de zones de l'image présentant un gradient ou une luminosité élevé et/ou sur une reconnaissance de forme. Cet algorithme peut s'appuyer également sur une méthode statistique, comme l'Analyse en Composants Indépendants (« Independent Component Analysis » selon la dénomination anglo-saxonne), ou sur une méthode utilisant des réseaux de neurones artificiels. En variante, à l'étape a), plusieurs images de ladite première zone pourraient être acquises par le premier capteur d'images, la tentative de détection de l'étape b) étant alors réalisée par analyse de ces images.
Au cours de l'étape b') suivante, le module d'analyse et de commande 10 teste si la tentative de détection réalisée à l'étape b) a échoué, ou si au contraire elle a réussi.
En cas de succès de la tentative de détection réalisée à l'étape b), ce procédé reprend alors à l'étape a).
En cas d'échec de la tentative de détection réalisée à l'étape b), ce procédé se poursuit alors par une étape c).
Au cours de l'étape c), un niveau de luminosité de l'environnement routier E est déterminé, ici sur la base d'un signal produit par le capteur de luminosité 14. En variante, comme mentionné précédemment, ce niveau de luminosité pourrait être déterminé directement par analyse de l'image acquise à l'étape a).
Au cours de l'étape c') suivante, le module d'analyse et de commande 10 compare le niveau de luminosité de l'environnement routier E à un seuil de luminosité prédéterminé.
Le niveau de ce seuil de luminosité prédéterminé est ajusté ici, lors d'étapes préliminaires de configuration du module d'analyse et de commande 10 (non représentées), de manière à correspondre à un niveau de luminosité de l'environnement routier E en dessous duquel ledit élément de l'environnement routier E ne peut plus être détecté efficacement au moyen du premier capteur d'images C1 .
Lorsque le niveau de luminosité de l'environnement routier E, déterminé à l'étape c), est inférieur à ce seuil de luminosité prédéterminé, le procédé se poursuit par l'étape d), au cours de laquelle le module d'analyse et de commande 10 commande l'allumage du dispositif d'éclairage d'appoint 12.
La luminosité dans ladite première zone Z1 , initialement trop faible pour permettre une détection dudit élément de l'environnement routier E au moyen du premier capteur d'image C1 , augmente alors, améliorant ainsi les conditions de détection de cet élément au moyen du premier capteur d'images C1 .
A l'issu de cette étape d), le dispositif d'éclairage d'appoint 12 reste allumé, et le procédé reprend à l'étape a). Lorsqu'il est déterminé au cours de l'étape c') que le niveau de luminosité de l'environnement routier E déterminé à l'étape c) est supérieur à ce seuil de luminosité prédéterminé, le procédé reprend à l'étape a), sans exécuter l'étape d) de commande d'allumage du dispositif d'éclairage d'appoint 12.
Ce dernier cas correspond à une situation dans laquelle la tentative de détection de l'étape b) a échoué, alors que la luminosité au sein de l'environnement routier E est élevée. Cet échec pourrait être du, par exemple, au fait que ledit élément n'est pas situé dans la première zone Z1 de l'environnement routier (ici, par exemple, ladite ligne de marquage au sol L1 pourrait être effacée au niveau de la zone Z1 , ou encore, le véhicule pourrait être situé sur une voie de circulation sans ligne de marquage au sol).
On peut prévoir en outre que ce procédé comprenne des étapes, non représentées, au cours desquelles, lorsque le dispositif d'éclairage d'appoint 12 est allumé :
- on détermine un niveau de luminosité de l'environnement routier dans lequel circule le véhicule automobile, au moyen du capteur de luminosité 14, et
- lorsque ce niveau de luminosité est supérieur audit seuil de luminosité prédéterminé, le module d'analyse et de commande 10 commande l'extinction du dispositif d'éclairage d'appoint.
Cela permet avantageusement de ne maintenir le dispositif d'éclairage d'appoint 12 allumé que lorsque cela est susceptible d'améliorer l'efficacité de détection dudit élément de l'environnement routier E au moyen du premier capteur d'images C1 .
Un deuxième exemple de procédé mis en œuvre dans ce véhicule 1 automobile est représenté schématiquement sur la figure 3, sous forme d'un logigramme.
Par rapport au premier exemple de procédé décrit ci-dessus, la gestion de l'allumage du dispositif d'éclairage d'appoint 12 est réalisée, dans ce deuxième exemple de procédé, en tenant compte en outre de données représentatives de l'environnement routier E acquises par les deuxième et troisième capteurs C2, C3 équipant le véhicule 1 automobile.
Ce procédé comprend des étapes a), b) et b') identiques aux étapes a) et b) et b') du premier exemple de procédé.
Il comprend également des étapes f), f), FU et g) réalisées en parallèle de ces étapes a), b) et b').
Au cours de l'étape f), le deuxième capteur d'images acquiert une image de la deuxième zone Z2 de l'environnement routier E.
Au cours de l'étape f), le troisième capteur C3, dont on rappelle qu'il comprend un lidar, acquiert un signal permettant de détecter des éléments de l'environnement routier E présents dans la troisième zone Z3.
Au cours de l'étape FU, le module d'analyse et de commande 10 fusionne les données correspondant à l'image acquise à l'image f) et les données correspondant au signal acquis à l'étape f) pour produire des données fusionnées.
Cette étape de fusion peut comprendre par exemple une estimation d'un niveau de précision associée aux données acquises par le deuxième capteur C2 (ce niveau de précision étant par exemple lié à la résolution de l'image acquise par ce deuxième capteur C2), une estimation d'un niveau de précision associée aux données acquises par le troisième capteur C3, une analyse de similitudes entre les données acquises par ces deux capteurs, puis une fusion de ces données tenant compte de l'ensemble de ces paramètres.
Cette étape FU est suivie d'une étape g) au cours de laquelle les données fusionnées produites à l'étape FU sont analysées par le module d'analyse et de commande 10 pour tenter de détecter un élément de l'environnement routier E. Cet élément de l'environnement routier E est le même que celui sur lequel porte la tentative de détection de l'étape b), en l'occurrence ici la ligne de marquage au sol L1 située le long du bord droit de la voie de circulation V1 empruntée par le véhicule 1 automobile.
De manière optionnelle, le module d'analyse et de commande 10 pourrait également tenter de détecter, ici, la ligne de marquage au sol L2 située le long du bord gauche de cette voie de circulation V1 , lors de l'étape g).
Ici, lorsque la détection de l'élément susmentionné de l'environnement routier E est réalisée avec succès, une première position latérale du véhicule 1 automobile sur cette voie de circulation V1 est également déterminé au cours de l'étape g), par analyse des données fusionnées, aux fins d'aide à la conduite mentionnées précédemment.
Au cours de l'étape g') suivante, le module d'analyse et de commande 10 teste si la tentative de détection réalisée à l'étape g) a échoué, ou si au contraire elle a réussi.
Lorsque la tentative de détection de l'étape g) a échoué, le procédé reprend ici, après l'étape g'), aux étapes a), f) et f).
Lorsque la tentative de détection de l'étape g) a réussi, et que la tentative de détection de l'étape b) a également réussi, le procédé se poursuit par une étape P.
Au cours de l'étape P, une deuxième position du véhicule 1 automobile par rapport à la voie de circulation V1 qu'il emprunte est déterminée, en fonction :
- de l'écart latéral entre le véhicule 1 automobile et la ligne de marquage au sol L1 déterminé au cours de l'étape b), et
- de la première position latérale du véhicule 1 automobile sur cette voie de circulation V1 déterminée au cours de l'étape g).
Pour cela, cet écart latéral et cette première position latérale sont fusionnés, et éventuellement comparés. Par exemple, lorsque cette première position latérale correspond elle aussi à un écart latéral ente le véhicule automobile et la ligne de marquage au sol susmentionnée, la deuxième position du véhicule 1 automobile par rapport à la voie de circulation V1 qu'il emprunte peut être obtenue en calculant une moyenne (éventuellement pondérée) de l'écart latéral déterminé à l'étape b), et cette première position (déterminée à l'étape g)).
La précision de la valeur obtenue pour cette deuxième position repérant le véhicule 1 automobile par rapport à la voie de circulation V1 qu'il emprunte est ainsi améliorée, par rapport à la précision de cette première position déterminée à l'étape g), ou par rapport à la précision de cet écart déterminé à l'étape b).
Déterminer ainsi cette deuxième position, à partir des données acquises par plusieurs capteurs différents équipant le véhicule 1 automobile (ici par le premier capteur d'images C1 et par les deuxième et troisième capteurs C2, C3), introduit une redondance qui améliore la fiabilité de cette détermination.
A l'issue de l'étape P, le procédé reprend aux étapes a), f) et f). Lorsque la tentative de détection de l'étape g) a réussi, et que la tentative de détection de l'étape b) a échoué, le procédé se poursuit par des étapes c) et c') identiques aux étapes c) et c') du premier exemple de procédé décrit précédemment.
On rappelle qu'au cours de cette étape c), on détermine un niveau de luminosité de l'environnement routier E dans lequel est situé le véhicule 1 automobile, et qu'au cours de l'étape c') suivante, le module d'analyse et de commande 10 compare le niveau de luminosité de l'environnement routier E à un seuil de luminosité prédéterminé.
De même que dans le premier exemple de procédé décrit précédemment (représenté figure 2), lorsque le niveau de luminosité de l'environnement routier E, déterminé à l'étape c), est inférieur à ce seuil de luminosité prédéterminé, le procédé se poursuit par l'étape d), au cours de laquelle le module d'analyse et de commande 10 commande l'allumage du dispositif d'éclairage d'appoint 12.
La luminosité dans ladite première zone Z1 , initialement trop faible pour permettre une détection dudit élément de l'environnement routier E au moyen du premier capteur d'image C1 , augmente alors, améliorant ainsi les conditions de détection de cet élément au moyen du premier capteur d'image C1 .
A l'issue de cette étape d), le dispositif d'éclairage d'appoint 12 reste allumé, et le procédé reprend aux étapes a), f) et f).
Lorsqu'il est déterminé au cours de l'étape c') que le niveau de luminosité de l'environnement routier E déterminé à l'étape c) est supérieur à ce seuil de luminosité prédéterminé, le procédé reprend aux étapes a), f) et f), sans exécuter l'étape d) de commande d'allumage du dispositif d'éclairage d'appoint 12.
Dans ce deuxième exemple de procédé, l'étape d) de commande d'allumage du dispositif d'éclairage d'appoint 12 est donc exécutée lorsque les trois conditions ci-dessous sont vérifiées :
i- à l'étape b), la tentative de détection dudit élément de l'environnement routier (ici la ligne de marquage au sol L1 ) a échoué,
ii- à l'étape g), la tentative de détection de ce même élément de l'environnement routier (ici la ligne de marquage au sol L1 ) a réussi, et
iii- le niveau de luminosité de l'environnement routier E (déterminé à l'étape c)) est inférieur au seuil de luminosité prédéterminé.
Ainsi, par rapport au premier exemple de procédé décrit précédemment, une condition supplémentaire, la condition ii- ci-dessus, est requise pour que l'étape d) de commande d'allumage du dispositif d'éclairage d'appoint 12 soit exécutée.
La prise en compte de cette condition supplémentaire ii- permet notamment de distinguer : - une première situation, dans laquelle ledit élément de l'environnement routier E n'est pas détecté à l'étape b), alors que l'étape g) à montré que cet élément est présent dans l'environnement routier E dans lequel est situé le véhicule 1 automobile,
- d'une deuxième situation cas dans laquelle cet élément n'est pas détecté à l'étape b), du fait par exemple que cet élément est absent de l'environnement routier E dans lequel est situé le véhicule 1 (cet élément n'étant d'ailleurs pas détecté à l'étape g)).
Dans cette première situation, il est souhaitable, comme c'est le cas ici d'allumer le dispositif d'éclairage d'appoint 12, lorsque le niveau de luminosité de l'environnement routier E est inférieur au seuil de luminosité prédéterminé.
Dans cette deuxième situation, il n'est en revanche pas utile de commander l'allumage de ce dispositif d'éclairage d'appoint 12, puisque ledit élément de l'environnement routier E n'est probablement pas présent dans l'environnement routier E.
La prise en compte de cette condition supplémentaire ii- permet ainsi de commander l'allumage de cet éclairage d'appoint 12 seulement lorsque cela est utile. On réduit ainsi la consommation électrique du véhicule 1 automobile, et on limite l'éclairage supplémentaire produit par ce véhicule, ce qui est intéressant car cet éclairage supplémentaire pourrait être considéré comme parasite ou éventuellement éblouissant pour d'autres conducteurs de véhicules automobiles.
L'étape g) apporte ainsi des informations qui complètent de manière particulièrement utile les informations déduites de l'image acquise par le premier capteur d'images C1 , et cela notamment parce que la tentative de détection réalisée à l'étape g) est basée sur des données acquises :
- soit par un capteur insensible au niveau de luminosité de l'environnement routier E (troisième capteur C3 comprenant un lidar),
- soit par un capteur sensible à ce niveau de luminosité (deuxième capteur d'image C2), mais bénéficiant lorsque nécessaire de l'éclairage fourni par le dispositif d'éclairage principal du véhicule (feux de route et/ou de croisement).
En variante, ce deuxième exemple de procédé pourrait comporter seulement les étapes f) et g) décrites ci-dessus, à la place des étapes f), f), FU et g). Plus précisément, à l'étape g), la tentative de détection dudit élément de l'environnement routier pourrait être réalisée sur la base des données acquises à l'étape f) par le deuxième capteur seulement, au lieu d'être comme ici réalisée à la fois sur la base des données acquises à l'étape f) par le deuxième capteur, et sur la base des données acquises à l'étape f) par le troisième capteur.
Un troisième exemple de procédé mis en œuvre dans ce véhicule 1 automobile est représenté schématiquement sur la figure 4, sous forme d'un logigramme.
Par rapport au premier exemple de procédé décrit ci-dessus, la gestion de l'allumage du dispositif d'éclairage d'appoint 12 est réalisée, dans ce troisième exemple de procédé, en tenant compte en outre de données représentatives de l'environnement routier E acquises par le deuxième capteur C2.
Ce procédé comprend une étape a) identique à l'étape a) du premier exemple de procédé, décrit précédemment.
Ce procédé comprend également une étape f2), réalisée en parallèle de l'étape a), au cours de laquelle une donnée représentative de l'environnement routier E, ici une image de la deuxième zone Z2 de cet environnement routier, est acquise au moyen du deuxième capteur d'images.
Les étapes a) et f2) sont suivies d'une étape FUS au cours de laquelle le module d'analyse et de commande 10 fusionne les données correspondant respectivement à l'image acquise à l'étape b) et à l'image acquise à l'étape f2), pour produire des données fusionnées. Cette fusion peut par exemple comprendre une analyse de similitudes entre des données extraites de ces deux images, suivie d'une agrégation de ces données.
Cette étape FUS est suivie d'une étape b), au cours de ces données fusionnées sont analysée par le module d'analyse et de commande 10 pour tenter de détecter un élément de cet environnement routier E, ici plus précisément pour tenter de détecter la ligne de marquage au sol L1 située le long du bord droit de la voie de circulation V1 empruntée par le véhicule 1 automobile.
La tentative de détection de l'étape b) est ainsi réalisée en fonction à la fois l'image acquise par le premier capteur d'images C1 , et en fonction de l'image acquise par le deuxième capteur d'images. Cette tentative de détection présente ainsi une fiabilité améliorée, par rapport à la tentative de détection réalisée à l'étape b) au cours du premier exemple de procédé.
Dans ce troisième exemple de procédé, l'étape b) est suivie ensuite d'étapes b'), et en fonction du résultat de cette étape b'), d'étapes c), c') et d), identiques respectivement aux étapes b'), c), c') et d) du premier exemple de procédé décrit précédemment en référence à la figure 2.
Dans ces premiers, deuxième et troisième exemples de procédés mis en œuvre dans ce véhicule 1 automobile, ledit élément de l'environnement routier E faisant l'objet des tentatives de détection des étapes b) et g) est ici la ligne de marquage au sol L1 repérant le bord droit de la voie de circulation qu'emprunte le véhicule automobile.
Dans une variante selon laquelle la première zone de l'environnement routier est située à proximité du côté gauche du véhicule automobile (au lieu d'être située comme ici du côté droit de ce véhicule), cet élément de l'environnement routier à détecter pourrait correspondre à la ligne de marquage au sol repérant le bord gauche de la voie de circulation qu'emprunte le véhicule automobile.
En variante encore, ledit élément de l'environnement routier pourrait correspondre à un parapet, à une glissière de sécurité, à un panneau de signalisation ou à une combinaison de tels éléments.

Claims

REVENDICATIONS
1 . Procédé mis en œuvre dans un véhicule (1 ) automobile comprenant un premier capteur d'images (C1 ) adapté pour acquérir une image d'une première zone (Z1 ) d'un environnement routier (E) dans lequel est situé le véhicule automobile, caractérisé en ce que ce procédé comprend une étapes de :
d) commande d'allumage d'un dispositif d'éclairage d'appoint (12) adapté à éclairer la première zone (Z1 ) de cet environnement routier (E).
2. Procédé selon la revendication 1 , comprenant en outre des étapes de :
a) acquisition, au moyen du premier capteur d'images (C1 ) équipant le véhicule (1 ) automobile, d'une image de la première zone (Z1 ) de l'environnement routier (E) dans lequel est situé le véhicule automobile,
b) tentative de détection d'un élément (L1 ) de cet environnement routier sur la base de l'image acquise à l'étape a), et de
c) détermination d'un niveau de luminosité de cet environnement routier, et dans lequel l'étape d) est exécutée lorsque la tentative de détection de l'étape b) a échoué et lorsque le niveau de luminosité déterminé à l'étape c) est inférieur à un seuil de luminosité prédéterminé.
3. Procédé selon la revendication 2, comprenant en outre des étapes de :
f) acquisition d'une donnée représentative de l'environnement routier (E) dans lequel est situé le véhicule (1 ) automobile, au moyen d'un deuxième capteur (C2) équipant ce véhicule distinct du premier capteur d'images (C1 ), et de
g) tentative de détection dudit élément (L1 ) de l'environnement routier par analyse de ladite donnée représentative de cet environnement routier acquise à l'étape f),
et dans lequel le succès ou l'échec de l'étape b) est déterminé par comparaison des résultats des étapes b) et g).
4. Procédé selon la revendication 2, comprenant en outre une étape de f2) acquisition d'une donnée représentative de l'environnement routier
(E) dans lequel est situé le véhicule automobile, au moyen d'un deuxième capteur (C2) équipant ce véhicule distinct du premier capteur d'images, et dans lequel, à l'étape b), la tentative de détection dudit élément (L1 ) de l'environnement routier dans lequel est situé le véhicule est réalisée en outre en fonction de ladite donnée représentative de cet environnement routier acquise à l'étape f2).
5. Procédé selon l'une des revendications 3 et 4, dans lequel le deuxième capteur (C2) distinct du premier capteur d'images (C1 ) est un capteur insensible à un niveau de luminosité dans la première zone (Z1 ) de cet environnement routier.
6. Procédé selon l'une des revendications 3 à 5, dans lequel le deuxième capteur (C2) distinct du premier capteur d'images (C1 ) comprend un deuxième capteur d'images dont le champ de vision couvre une deuxième zone (Z2) de cet environnement routier (E) située face au véhicule (1 ) automobile.
7. Procédé selon la revendication 6, dans lequel la donnée représentative de l'environnement routier (E) dans lequel est situé le véhicule automobile acquise par le deuxième capteur (C2) comprend une image de la deuxième zone (Z2) de cet environnement routier.
8. Procédé selon l'une des revendications 1 à 7, dans lequel la première zone (Z1 ) de l'environnement routier est située latéralement par rapport au véhicule (1 ) automobile, à proximité d'un des côtés de ce véhicule.
9. Procédé selon la revendication 8, dans lequel le dispositif d'éclairage d'appoint (12) est installé en partie inférieure d'un rétroviseur extérieur (1 1 ) du véhicule (1 ) automobile.
10. Procédé selon l'une des revendications 1 à 9, dans lequel ledit élément (L1 ) de l'environnement routier est une ligne de marquage au sol (L1 ) située le long d'un bord d'une voie de circulation (V1 ) sur laquelle circule le véhicule (1 ) automobile.
1 1 . Procédé selon l'une des revendications 1 à 10, dans lequel une position dudit élément (L1 ) de l'environnement routier, par rapport au véhicule (1 ) automobile, est déterminée sur la base de l'image de la première zone (Z1 ) de cet environnement routier acquise à l'étape a).
12. Procédé selon la revendication 1 1 , dans lequel ladite position de l'élément (L1 ) de l'environnement routier est déterminée en outre en fonction de la donnée représentative de cet environnement acquise par le deuxième capteur (C2) distinct du premier capteur d'images (C1 ).
13. Véhicule (1 ) automobile comprenant un premier capteur d'images (C1 ), adapté pour acquérir une image d'une première zone (Z1 ) d'un environnement routier (E) dans lequel est situé le véhicule (1 ) automobile, caractérisé en ce qu'il comprend en outre :
- un dispositif d'éclairage d'appoint (12), adapté pour éclairer ladite première zone (Z1 ) de cet environnement routier (E), et
- un module d'analyse et de commande (10) adapté pour commander l'allumage du dispositif d'éclairage d'appoint (12).
PCT/EP2017/050186 2016-01-05 2017-01-05 Procédé mis en œuvre dans un véhicule automobile et véhicule automobile associé Ceased WO2017118688A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1650031 2016-01-05
FR1650031A FR3046393B1 (fr) 2016-01-05 2016-01-05 Procede mis en oeuvre dans un vehicule automobile et vehicule automobile associe

Publications (1)

Publication Number Publication Date
WO2017118688A1 true WO2017118688A1 (fr) 2017-07-13

Family

ID=55650510

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/050186 Ceased WO2017118688A1 (fr) 2016-01-05 2017-01-05 Procédé mis en œuvre dans un véhicule automobile et véhicule automobile associé

Country Status (2)

Country Link
FR (1) FR3046393B1 (fr)
WO (1) WO2017118688A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038416A (zh) * 2017-11-10 2018-05-15 智车优行科技(北京)有限公司 车道线检测方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3960541B1 (fr) 2020-08-28 2023-07-12 Zenuity AB Détection d'objets dans l'environnement d'un véhicule dans des conditions de faible éclairage
JP7034231B1 (ja) * 2020-10-20 2022-03-11 三菱電機株式会社 車両位置検出装置および車両位置検出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006290273A (ja) * 2005-04-14 2006-10-26 Nissan Motor Co Ltd 車両周囲監視装置
DE102010033387A1 (de) * 2010-08-04 2011-03-17 Daimler Ag Umgebungserfassungsvorrichtung und Verfahren zum Erfassen einer Fahrzeugumgebung
US20120229645A1 (en) * 2009-11-16 2012-09-13 Fujitsu Ten Limited In-vehicle illuminating apparatus, image processing apparatus, and image displaying system
EP2762360A1 (fr) * 2011-09-28 2014-08-06 Toyota Jidosha Kabushiki Kaisha Véhicule comprenant des moyens de reconnaissance visuelle/d'éclairage de région latérale de véhicule

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006290273A (ja) * 2005-04-14 2006-10-26 Nissan Motor Co Ltd 車両周囲監視装置
US20120229645A1 (en) * 2009-11-16 2012-09-13 Fujitsu Ten Limited In-vehicle illuminating apparatus, image processing apparatus, and image displaying system
DE102010033387A1 (de) * 2010-08-04 2011-03-17 Daimler Ag Umgebungserfassungsvorrichtung und Verfahren zum Erfassen einer Fahrzeugumgebung
EP2762360A1 (fr) * 2011-09-28 2014-08-06 Toyota Jidosha Kabushiki Kaisha Véhicule comprenant des moyens de reconnaissance visuelle/d'éclairage de région latérale de véhicule

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108038416A (zh) * 2017-11-10 2018-05-15 智车优行科技(北京)有限公司 车道线检测方法及系统
CN108038416B (zh) * 2017-11-10 2021-09-24 智车优行科技(北京)有限公司 车道线检测方法及系统

Also Published As

Publication number Publication date
FR3046393A1 (fr) 2017-07-07
FR3046393B1 (fr) 2022-08-19

Similar Documents

Publication Publication Date Title
FR3049560B1 (fr) Procede et systeme d'assistance au changement de voie de roulage pour vehicule automobile
WO2013113904A1 (fr) Procede de determination du positionnement d'un vehicule dans un couloir de circulation d'une voie, et methodes de detection d'alignement et de risque de collision entre deux vehicules
FR3063557A1 (fr) Dispositif de determination de l'etat d'attention d'un conducteur de vehicule, systeme embarque comportant un tel dispositif, et procede associe
WO2018146400A1 (fr) Procédé de détection de faux-positifs relatifs à un feu de signalisation
EP3994605B1 (fr) Procédé de détection d'une voie de sortie pour un véhicule automobile
WO2017202901A1 (fr) Dispositif de suivi des habitudes de conduite d'un conducteur d'un véhicule de transport et procédé correspondant
WO2017118688A1 (fr) Procédé mis en œuvre dans un véhicule automobile et véhicule automobile associé
WO2017021601A1 (fr) Dispositif et procede de detection de place de stationnement libre pour un vehicule automobile
FR3046769A1 (fr) Procede et systeme d'assistance au changement de voie de roulage pour vehicule automobile
EP3419877A1 (fr) Dispositif et procédé d'aide à la conduite d'un véhicule automobile
WO2018041978A1 (fr) Dispositif de détermination d'une limitation de vitesse, système embarqué comprenant un tel dispositif et procédé de détermination d'une limitation de vitesse.
FR3047217B1 (fr) Dispositif de determination de l'etat d'un feu de signalisation, systeme embatque comprenant un tel dispositif, vehicule comprenant un tel systeme et procede de determination associe
FR3103052A1 (fr) Procédé d’aide à la conduite d’un véhicule et système d’aide à la conduite associé
EP3417398B1 (fr) Dispositif et procédé d'estimation du niveau d'attention d'un conducteur d'un véhicule
FR3149578A1 (fr) Procédé et dispositif d’indication de présence d’objet dans un environnement d’un véhicule
WO2017191070A1 (fr) Dispositif et procédé de détermination de position d'un véhicule, et dispositif d'aide à la conduite comprenant un tel dispositif de détermination de position
FR3107114A1 (fr) Procédé et dispositif de validation de données de cartographie d’un environnement routier de véhicule
FR3082044A1 (fr) Procede et dispositif de detection de la voie de circulation sur laquelle circule un vehicule, en fonction des delimitations determinees
FR3084628A1 (fr) Procede de determination d'un type d'emplacement de stationnement
FR2927720A1 (fr) Dispositif et procede d'aide au franchissement d'une intersection pour un vehicule automobile.
FR3083195A1 (fr) Dispositif d'affichage pour l'aide a la conduite
FR3149101A1 (fr) Identification d’une dérive de trajectoire d’un véhicule
EP3167406B1 (fr) Estimation de la distance de visibilite meteorologique
FR3043978A1 (fr) Procede et systeme d'assistance au maintien d'une trajectoire d'un vehicule automobile lors d'un depassement
FR3149279A1 (fr) Procédé d’assistance à la conduite, mis en œuvre par un système de gestion embarqué dans un véhicule automobile

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17700075

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17700075

Country of ref document: EP

Kind code of ref document: A1