[go: up one dir, main page]

WO2024194539A1 - Method and device for enhancing an image of a scene in a vehicle - Google Patents

Method and device for enhancing an image of a scene in a vehicle Download PDF

Info

Publication number
WO2024194539A1
WO2024194539A1 PCT/FR2023/050401 FR2023050401W WO2024194539A1 WO 2024194539 A1 WO2024194539 A1 WO 2024194539A1 FR 2023050401 W FR2023050401 W FR 2023050401W WO 2024194539 A1 WO2024194539 A1 WO 2024194539A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
target point
scene
speed
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2023/050401
Other languages
French (fr)
Inventor
Eric Legros
Sylvain PETITGRAND
Bruno Luong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fogale Optique
Original Assignee
Fogale Optique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fogale Optique filed Critical Fogale Optique
Priority to PCT/FR2023/050401 priority Critical patent/WO2024194539A1/en
Publication of WO2024194539A1 publication Critical patent/WO2024194539A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present invention relates to a method for enriching an image of a scene, within a vehicle. It also relates to a device, a computer program and a vehicle implementing such a method. It further relates to uses of enriched image(s) obtained by the present invention.
  • the field of the invention is the field of enriching digital images, and in particular images of a scene comprising one or more objects, within a vehicle.
  • Digital images are used in many fields.
  • the use of digital images is becoming essential in fields such as object detection, object recognition, tracking of objects in space and/or time.
  • more and more vehicles have one or more cameras for imaging the environment. These images are then processed within the vehicle to provide assistance in driving said vehicle, which can go as far as partially or totally autonomous driving of said vehicle.
  • an image it is common for an image to be processed by different modules with a different purpose.
  • the same image may undergo a plurality of processing operations, carried out successively or simultaneously, to detect the presence of an object, detect the nature of an object, possibly link this object to a previously detected object, etc. It may also happen that an image is processed in parallel by several modules having the same purpose, and this for the purpose of redundancy or verification.
  • one aim of the invention is to propose a solution for enriching an image of a scene with one or more data, within a vehicle.
  • Another aim of the invention is to propose a solution for enriching an image of a scene with data that can be used in various applications, within a vehicle.
  • the invention proposes to achieve at least one of the aforementioned aims by a method, implemented within a vehicle, of enriching an image, called current image, of a scene, captured at an instant, called current instant, said method comprising, for at least one target point of said scene appearing on an image, called past, of said scene captured at an instant past relative to said current instant, a phase of enriching the current image comprising the following steps:
  • the invention proposes to enrich an image by adding in said image, a speed data associated with a point, and preferably with several points, or even with all the points, of a scene appearing in said image.
  • This speed data is then stored in said image and can be used as many times as desired, or necessary, in various processing operations. or by various modules or within various applications.
  • the calculation of the speed data is carried out only once for the image and does not then need to be repeated each time this data is used by an application or processing.
  • the invention makes it possible to propose an enriched image making it possible to reduce the time and computing resources required for processing said image, during multiple processing of said image.
  • the invention proposes to enrich an image, and in particular a pixel of the image, with speed data associated with said point of the scene, and therefore with said pixel, appearing in said image, and this independently of the detection or recognition of an object in said image.
  • image means a digital image and in particular a matrix digital image.
  • Each point of the matrix corresponds to a pixel of the image and comprises one or more digital values representing different components of the image for said pixel.
  • each pixel may comprise three values each representing one of the RGB components of the digital image.
  • each pixel may comprise other values representing other quantities, such as brightness, hue, saturation, etc.
  • a point of a scene corresponds to a pixel of an image of said scene.
  • the same point of the scene can correspond to two pixels located in different positions on each of the two images.
  • the current image can be enriched by the speed calculated for said target point, in several ways.
  • the speed can be stored in association with the position of the pixel of the image corresponding to the target point in a file, a matrix or any other container independent of the image.
  • the speed can be added directly into the image in association with the target point. For example, the speed can be added to the data of the pixel of the image corresponding to the target point.
  • the speed can be calculated in a frame linked to the image sensor used to capture the current image.
  • the current image can be enriched with said speed calculated in the frame linked to the sensor.
  • the reference associated with the sensor is denoted the UV reference.
  • This reference is a two-dimensional reference defining a plane, and in particular the image sensor used for acquiring the image.
  • the speed of the target point is calculated directly using the positions of the target point in each of the two images expressed in the sensor plane.
  • the calculated speed corresponds to a speed vector comprising a first value, denoted Vu, giving the speed in the U direction in the image plane, and a second value, denoted V v , giving the speed in the V direction in the image plane.
  • the speed can be calculated in a frame linked to the scene.
  • the current image can, alternatively or in addition, be enriched with said speed calculated in the frame linked to the scene.
  • the reference frame associated with the scene is denoted the XY reference frame.
  • This reference frame is a two-dimensional reference frame defining a plane corresponding to the plane of the image in the reference frame linked to the scene.
  • the speed calculated for the target point can be a speed in the XY image plane of the current image, and denoted VXY.
  • the speed VXY is a speed vector comprising two values: a first value, denoted Vx, giving the speed in the X direction in the image plane, and a second value, denoted VY, giving the speed in the Y direction in the image plane.
  • the speed calculated for the target point can include a third value giving the speed of said target point in the direction perpendicular to the image plane.
  • this third value can be noted Vz, and gives the speed of said target point in the Z direction perpendicular to the XY plane.
  • this example of implementation of the method is in no way limiting and other relative arrangements between the camera axes and with the axes of the scene reference frame are possible, according to calculations generally involving more coefficients.
  • the enrichment phase may further comprise, before the speed calculation step, a step for expressing the positions of the target point in the current image and in the past image, in said frame of reference associated with the scene. Then, the calculation of the speed is carried out as a function of said positions of the target point expressed in said frame of reference associated with the scene.
  • the conversion of the position of the target point expressed in the image plane, into a frame of reference linked to the scene can be carried out according to any known technique, provided that the position of the camera having captured the image is known [0031]
  • the conversion of the position of the target point from the UV frame of reference linked to the sensor into an XY frame of reference linked to the scene can be carried out in the following manner.
  • said target point corresponds to 2 angles au and av such that:
  • the enrichment phase can further comprise, for at least one target point, a step of calculating a speed of said target point in the direction perpendicular to the image plane, as a function of:
  • the enrichment phase may further comprise a step of enriching said current image by adding, in said current image and in association with said target point, speed data comprising said calculated speed.
  • the speed data in the direction perpendicular to the image plane can be added to the current image individually and independently of the other data.
  • this speed is a value, possibly positive or negative, indicating the speed of said target point in said direction, noted Z in the frame linked to the scene.
  • this velocity data may be added to the velocity data in the image plane, calculated for the target point, if any, for example as described above.
  • the velocity data may be a three-dimensional velocity vector, as explained above.
  • the enrichment of the image with the velocity in the image plane and the enrichment of the image with the velocity in the direction perpendicular to the image plane may be carried out within a single enrichment step.
  • the depth associated with the target point can be:
  • a sensor such as a time-of-flight camera, radar or lidar, etc.
  • the enrichment phase may further comprise the following steps:
  • this acceleration is calculated only once and stored in the image to enrich it so that it does not have to be recalculated later and can be used as many times as desired, or necessary, in various treatments or by various modules or within the framework of various applications.
  • acceleration data When acceleration data is added in the current image in association with a target point, said acceleration data can be added to the data of the pixel of the image corresponding to said point.
  • the acceleration data can be added to this data so that the pixel data is: ⁇ R, G, B, A ⁇ . If a target point of an image is enriched with a velocity data and an acceleration data, in this case the data representing the pixel corresponding to this target point can be ⁇ R, G, B, V, A ⁇ .
  • the acceleration associated with the target point in the current image can be calculated in the UV frame linked to the image sensor.
  • the acceleration denoted Auv
  • the acceleration can be a two-dimensional vector comprising two acceleration values:
  • the acceleration associated with the target point in the current image can be calculated in the XY frame, linked to the scene.
  • the acceleration denoted AXY
  • the acceleration can be a multi-dimensional vector comprising several acceleration values:
  • the current image can be enriched:
  • the current image can be enriched:
  • the speed data may include:
  • the acceleration data may include:
  • the enrichment phase may comprise a single enrichment step during which the current image is enriched with one or more data chosen from the speed data and the acceleration data described above.
  • the enrichment phase may comprise, for a target point, several enrichment steps, each adding one or more data selected from the velocity data and/or the acceleration data described above, for the target point.
  • Identifying a target point of a past image in a current image can be done in different ways.
  • the step of identifying the target point of a past image in the current image may comprise a comparison of the target point in the past image to at least one point in the current image, said comparison relating to at least one of the following data associated with said points:
  • the current image comprises the target point
  • said target point is identified in said current image by performing a comparison of the pixel representing the target point to one or more pixels in said current image, this comparison being based on any combination of at least one of the data listed above, and more generally on any combination of at least one of the pixel data.
  • the comparison may concern all the points/pixels in the current image, so that the target point of the past image is compared to each point/pixel of the current image.
  • the enrichment phase may comprise, prior to the identification step, a step of determining a target area in said current image, the target point being sought in said target area of said image.
  • the target point is compared only to the points of the current image located in said target area, which reduces the number of comparisons and allows the identification of the target point in the current image more quickly and with fewer resources.
  • the target area in the current image can be identified in different ways.
  • the target zone can be identified as a function of a speed datum associated with the target point in the past image. If the speed datum associated with the target point in the past image is available, and in particular the speed Vuv expressed in the reference frame associated with the image sensor, then it is possible to have the speed in each of the directions in the plane of the image. By knowing the position of the target point in the past image and the time elapsed between the past instant and the current instant, an approximate location of the target point in the current image can be determined.
  • the comparison of the target point to the points in the current image may start from said probable location and extend to other points of the current image moving away from said probable position, for example progressively or in discrete steps, for example in one direction or for example in all directions.
  • the enrichment phase can be implemented for several points, and in particular all points, in the past image.
  • the current image can be enriched with speed data, and possibly with acceleration data, for several points of the scene, and therefore for several pixels of the current image.
  • the method according to the invention may comprise a step of pre-processing the past image, to select the target point(s).
  • the enrichment phase is implemented for only part of the points of the scene appearing on the past image, namely the points selected during the pre-processing step.
  • the point(s) of the scene in the image can be selected according to any logic, or relationship.
  • the pre-processing step may comprise the following steps:
  • the points of the past image for which the enrichment phase is carried out are those of interest according to the norm of the spatial gradient. These points generally constitute the limits of the different objects of the scene and provide good information on the evolution of the scene.
  • the current image is enriched for only part of the points of the scene of interest, which allows an optimized enrichment of said current image.
  • the method according to the invention can be implemented to enrich the images of a stream of images of a scene, said stream of images being provided by the same camera or several cameras whose relative positions are known.
  • the image stream may be a video provided by a single camera.
  • the method according to the invention makes it possible to enrich the images of said video.
  • a current image within the image stream may be enriched based on a past image that immediately precedes it in said image stream.
  • the past image may not be the one immediately preceding the current image so that it may be separated from the current image by one or more other images.
  • each image in the image stream can be enriched.
  • only one image every N images can be enriched in the image stream, with N>2.
  • the enrichment phase of said current image can be carried out immediately after the acquisition of said current image.
  • the enrichment phase of said current image can be offset in time, relative to the time of acquisition of said current image.
  • an enriched image of a scene stored on a storage means, obtained by the method according to the invention.
  • the enriched image according to the invention is a digital image, preferably a matrix image.
  • the enriched image according to the invention can be captured by any image acquisition means.
  • the storage means may be of any type, portable or not, such as a memory card, a USB key, a computer, a server, a telephone, a camera, etc.
  • the identification may take into account the acceleration data, if applicable.
  • the identification may comprise a comparison of an acceleration data associated with said target point in the first image to acceleration data of at least one point in said enriched second image.
  • Enriched images can be taken:
  • one or more target points comprise a speed data item, and possibly an acceleration data item, associated with said target point(s).
  • this speed data item, and possibly this acceleration data item can be used to identify this target point in another enriched image because the speed data item, respectively the acceleration data item, is additional information that can be used when identifying the target point.
  • At least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to detect an object in this image because it is likely that the points having the same speed, and possibly the same acceleration, belong to the same object. It is therefore possible to discriminate and/or detect the objects on an enriched image according to the invention as a function of the speed data, and possibly the acceleration data.
  • At least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to find the position of an object on another captured image. This makes it possible to track an object in time and space, whether or not it is visible in said other image.
  • at least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to estimate, or predict, the probable position of an object in the near future, and in particular at a following instant. This makes it possible to improve the tracking of an object in time and space, and/or to provide assistance in piloting a vehicle or a robot.
  • a computer program for a vehicle comprising executable instructions which, when executed by said vehicle, implement all the steps of the method according to the invention.
  • the computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
  • a device intended to be integrated into a vehicle, comprising means configured to implement all the steps of the method according to the invention.
  • the device may be a processor, a calculator or a graphics card, and more generally a calculation unit configured to implement the method according to the invention.
  • the device may be provided with the computer program according to the invention.
  • a vehicle comprising:
  • the vehicle may be a land vehicle, such as a car, autonomous or not.
  • the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous or not.
  • the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous or not.
  • FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention for enriching an image
  • FIGURE 2 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention for enriching an image stream
  • FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of a device according to the invention for enriching an image or a stream of images;
  • FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.
  • FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
  • the method 100 of FIGURE 1 can be used to enrich, within a vehicle, a digital image, called the current image, and denoted IMC, of a scene, captured at a current time, by using another digital image of said scene, called the past image, denoted IMP, captured at a past time preceding the current time.
  • the current and past images may be captured by the same camera.
  • the position of the camera may be fixed.
  • the camera may be mobile so that its position changes between the past time at which the past image was captured and the current time at which the current image was captured. These positions are known and are referred to as past position and current position in the following.
  • the current and past images may be captured by two cameras, hereinafter referred to as the past camera and the current camera.
  • the relative positions of the cameras are known.
  • the method 100 of FIGURE 1 comprises an optional step 102 of pre-processing the past image IMP to select therein the points which are of interest.
  • the points which are not of interest will not be considered in the remainder of the method and will not be selected as target points.
  • Points of no interest are, for example, points corresponding to a part of the sky, points of the center of a monotonous and non-changing surface, etc.
  • Points of interest are, for example, points of an outline of an object in the scene, such as a person, or of a part of an object, such as a person's arm, etc.
  • the point(s) of the scene in the image can be selected according to any logic, or relationship.
  • the pre-processing step 102 may comprise the following steps:
  • step 108 of selection as target point(s), the point(s) whose gradient norm is greater than a predefined selection threshold.
  • the spatial gradient can be calculated on any one of the quantities stored for each pixel.
  • the spatial gradient can be calculated on a quantity itself deduced from at least one of the quantities stored for each pixel.
  • the spatial gradient can be calculated on the brightness, the latter being able to correspond to a weighted sum of the R, G and B components for each pixel, within the framework of an RGB image.
  • the selection threshold may be determined by trial. Alternatively, the selection threshold may be calculated based on Euclidean norms calculated for all points in the past image. For example, the selection threshold may correspond to an average of the Euclidean norms calculated in step 106.
  • the points of the past image for which the enrichment phase will be carried out are those of interest according to the norm of the spatial gradient. As indicated above, these points generally constitute the limits of the different objects of the scene and provide good information on the evolution of the scene.
  • the current image will be enriched for only part of the points of the scene of interest, which allows an optimized enrichment of said current image, in terms of time and computing resources.
  • the enriched image will have an optimized size.
  • the method 100 comprises a phase 110 of enriching the current image.
  • This enrichment phase is carried out for a point of the scene located in the past image, called target point.
  • the target point is chosen from the points of the scene located in the past image selected in step 102, or alternatively from all the points of the past image when step 102 is not carried out.
  • the enrichment phase 110 is carried out individually for each of these points, in turn or simultaneously.
  • the enrichment phase is carried out for all the points selected during step 102.
  • the enrichment phase 110 comprises an optional step 112, carried out when the speed in the image plane is known for the target point in the past image.
  • This speed can be known when the past image is itself an enriched image within the meaning of the present invention with a prior image captured before the past image.
  • the speed in the image plane can be calculated by another technique or measured by a sensor.
  • Optional step 112 determines, in the current image, a target area in which the target point may be located. To do this, a probable position of the target point in the current image is calculated as a function of:
  • the current and past positions are not the same, they are taken into account in calculating the probable position of the target point. Then, a zone is defined around the probable position. This zone can be of a predetermined size, for example.
  • the speed used in step 112 is the speed of the target point, in the image plane, expressed in the sensor frame.
  • a step 114 the pixel which corresponds to the target point in the past image is compared to one or more pixels in the current image. Comparison of two pixels involves a comparison of one or more of the following respective data of those pixels:
  • the comparison may begin with the pixel corresponding to the probable position, or with the pixels located in the target area, identified in the current image during step 112. If a pixel of the current image corresponding to the pixel of the target position in the past image is identified, then the comparison stops. Otherwise, the target area may be enlarged in steps, or progressively, until potentially extending it to the entire current image as long as the target point has not been identified in the current image.
  • step 112 the comparison can begin, from the current image, with the pixel of the same position as the pixel of the target point in the past image, with any other position in the current image.
  • step 114 If step 114 does not find the target point in the current image then the enrichment phase for this target point is stopped. Indeed, it is possible that the target point of the scene appearing in the past image does not appear in the current image, for example because this point has left the camera's field of view.
  • the enrichment phase can be executed for another target point of the past image.
  • step 114 has identified the target point in the current image
  • the position of said target point in the current image is stored. This position is determined in the UV frame of the sensor and is therefore expressed in said UV frame of the sensor.
  • the enrichment phase 110 may comprise an optional step 116 during which the positions of the target point in the past and current images are converted and expressed in a frame of reference linked to the scene, and no longer in the frame of reference linked to the sensor.
  • the frame of reference linked to the scene is denoted XY, as indicated above.
  • the depth z of the target point can be determined by any means: for example measured by a sensor, or determined by calculation.
  • the enrichment phase 110 comprises a step 118 during which the speed of the target point in the plane of the current image is calculated as a function of:
  • step 118 it is possible to calculate the speed of the target point expressed in the UV frame linked to the sensor.
  • the speed is calculated using the positions PosC and PosP of the target point expressed in the UV frame linked to the sensor, as obtained in step 114.
  • step 118 it is possible to calculate the speed of the target point expressed in the XY frame linked to the scene.
  • the speed is calculated using the positions PosC and PosP of the target point expressed in said XY frame linked to the scene, as obtained in step 116.
  • step 118 calculates and provides:
  • The, or at least one of these speeds can be added to the data of the pixel corresponding to the target point in the current image, to enrich the current image.
  • the enrichment phase 110 may comprise an optional step 120 of calculating a speed, denoted VitCz, in the direction perpendicular to the image plane. Preferably, and without any loss of generality, this speed may be expressed in the frame of reference linked to the scene.
  • the speed VitCz can be calculated based on:
  • the depth of the target point corresponds to the distance between the camera and the target point.
  • this depth can be measured by a sensor, such as a radar or a lidar or a time-of-flight camera.
  • the depth can be provided by the camera, in particular when the camera is a 3D camera.
  • the depth can be calculated by known triangulation techniques as a function of the positions of the target point in the current image IMC and in the past image IMP. This speed value VitCz can be added to the data of the pixel corresponding to the target point in the current image IMC, to enrich the current image IMC.
  • the speed VitCz can be used in association with the speed vector VitCxv or VitCuv to obtain a three-dimensional speed vector.
  • This three-dimensional speed vector can be added to the data of the pixel corresponding to the target point in the current image, to enrich the current image.
  • the enrichment phase 110 may comprise a step 122 during which an acceleration of the target point may be calculated as a function of:
  • AccC (VitC-VitP)/D [0132]
  • the speed Vite of the target point in the current image has been determined previously (during step 118, and possibly step 120, of the enrichment phase 110).
  • the speed VitP of the target point in the past image can be provided in the past image.
  • the speed VitP can have been stored in the past image and be found in the data of the pixel corresponding to the target point in the past image.
  • This step 122 can calculate the acceleration in the frame linked to the image sensor by using the speeds expressed in said frame linked to the sensor. Alternatively, or in addition, step 122 can calculate the acceleration in the frame linked to the scene by using the speeds expressed in said frame linked to the scene.
  • the current and past speeds are speeds in the image plane, XY or UV plane
  • the calculated acceleration will be the acceleration in the image plane.
  • the current and past speeds can be three-dimensional speed vectors giving the speed of the target plane in each of the three directions: in this case the calculated acceleration AccC gives the acceleration of the target point in each of these three directions.
  • step 122 provides one or more of the acceleration data indicated above.
  • the enrichment phase 110 comprises a step 124 of enriching the current IMC image with:
  • step 122 optionally, with at least one of the acceleration data calculated in step 122.
  • the enrichment of the current image can be carried out by writing this or these data directly into the image, in particular with the data of the pixel corresponding to the target point.
  • Enrichment of the current image can be achieved by entering this or these data in a separate matrix.
  • the current image can be enriched with speed data giving the speed of the target point in the image plane, expressed in the frame linked to the image sensor.
  • the current image can be enriched with speed data giving the speed of the target point in the image plane, expressed in the frame linked to the scene.
  • the current image can be enriched with speed data giving the speed of the target point in the depth direction, for example in the direction noted Z in the frame linked to the scene.
  • the current image can be enriched with acceleration data, giving the acceleration of the target point, in the image plane, expressed in the frame of reference of the image sensor.
  • the current image can be enriched with acceleration data, giving the acceleration of the target point, in the image plane, expressed in the frame linked to the scene.
  • the current image can be enriched with acceleration data giving the acceleration of the target point, in the depth direction, for example in the direction noted Z in the reference frame linked to the scene.
  • the scene-related marker can be any type of marker.
  • Enriching the image with data expressed in a frame of reference linked to the observer can be useful in various applications, in particular in object tracking applications for example. Enriching the image with data expressed in a frame of reference linked to the scene can be useful in these same applications, or other applications, in particular in trajectory calculation applications, or vehicle control, driving assistance, etc.
  • the enrichment phase 110 ends, for the target point considered, and can be repeated to process another target point and enrich the current IMC image for said other target point. And so on.
  • At least two target points may be processed in turn. Alternatively, and preferably, at least two target points may be processed simultaneously.
  • IMC* an enriched current image
  • This enriched current image IMC* can then be used, as a past image, to enrich a new current image acquired at a time after the current time. And so on.
  • the method 100 of FIGURE 1, and generally the method according to the invention, can provide:
  • FIGURE 2 is a schematic representation of a non-limiting exemplary embodiment of a method for enriching an image stream according to the present invention.
  • the method 200 of FIGURE 2 may be used to enrich an image stream 202 from one or more cameras, within a vehicle.
  • the image stream 202 is a video from a single camera.
  • the image stream 202 is formed from a plurality of images 202i- 202m acquired one after the other, over time, and at a given frequency, for example at a frequency of 24 images per second.
  • Image 202i is the first image of stream 202 and it is not enriched by the method according to the invention. Image 202i is however used, as a past image, to enrich image 2022, considered as the current image. Image 202i is the image which immediately precedes image 2022, in stream 202. The processing of image 2022 by the method according to the invention provides an enriched image denoted 2022*.
  • the image 202s is processed by the method according to the invention, as a current image.
  • the past image used to enrich the current image 202s can be the image 2022, or preferably the enriched image 2022*.
  • the processing of the image 202s provides an enriched image 202s*. And so on to obtain an enriched image stream 202* formed by the images 202i, 2022*- 202m*.
  • each image of the image stream 202 is processed, except for the first image 202i.
  • the image stream 202 may be enriched every N images, with N>2, or at yet another frequency, constant or variable.
  • FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of an image(s) enrichment device according to the present invention, intended to be integrated into a vehicle.
  • the device 300 of FIGURE 3 can be used to enrich an image, respectively a stream of images.
  • the device 300 is configured to implement the method according to the invention, and in particular the method 100 of FIGURE 1 for enriching an image or the method 200 of FIGURE 2.
  • the device 300 optionally comprises a module 302 for pre-processing the past image, with a view to selecting the target points that are of interest.
  • the pre-processing module 302 is configured to implement step 102 of the method 100 of FIGURE 1.
  • the device 300 comprises a module 304 for enriching the current IMC image.
  • the enrichment module 304 may be configured to implement the enrichment phase of the method according to the invention and in particular phase 110 of the method 100 of FIGURE 1.
  • the module 304 may optionally comprise a module 306 for determining a target area in the current IMC image.
  • the module 304 may be configured to implement step 112 of the method 100 of FIGURE 1.
  • the enrichment module 304 comprises a module 308 for identifying the target point in the current IMC image.
  • the module 308 can be configured to implement step 114 of the method 100 of FIGURE 1.
  • the module 304 may optionally comprise a module 310 for converting coordinates of a target point to express it in a reference frame associated with the scene.
  • the module 310 may be configured to implement step 116 of the method 100 of FIGURE 1.
  • the enrichment module 304 comprises a module 312 for calculating the speed of the target point in the current IMC image.
  • the module 312 can be configured to implement step 118, and where appropriate the optional step 120, of the method 100 of FIGURE 1.
  • the enrichment module 304 may optionally comprise a module 314 for calculating the acceleration of the target point in the current IMC image.
  • the module 314 may be configured to implement step 122 of the method 100 of FIGURE 1.
  • the enrichment module 304 comprises a module 316 for adding, in the current image IMC, at least one speed data item and possibly at least one acceleration data item.
  • the module 316 can be configured to implement step 124 of the method 100 of FIGURE 1.
  • At least one of the modules 302-316 may be an individual module, independent of the other modules. Alternatively, at least two of the modules 302-316 may be integrated into the same module. In particular, all the modules of the device 300 may be integrated into the same module.
  • At least one of the modules 302-316 may be a hardware module, such as a processor, an electronic chip, a graphics card, a computer, etc.
  • At least one of the modules 302-316 may be a software module executed by at least one computer means.
  • At least one of the modules 302-316 may be a combination of at least one hardware module with at least one software module.
  • the configuration of one, or each, of the modules 302-316 may be a software configuration, such as an application, or a computer program, loaded into said module, and/or a hardware configuration such as a specific hardware architecture.
  • FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
  • the vehicle 400 of FIGURE 4 may be any type of land vehicle, such as for example a car, a truck, etc.
  • the vehicle 400 may or may not be an autonomous vehicle.
  • the vehicle 400 is equipped with:
  • the camera module 402 may comprise at least one optical lens and at least one image sensor, for example a CCD or CMOS sensor.
  • the camera module 402 makes it possible to capture images or a video formed by a stream of images.
  • the processing unit 404 may for example be the device 300 of FIGURE 3, to enrich one or more images captured by the camera module 402.
  • the camera module 402 and the processing unit 404 can be arranged at any suitable location in the vehicle.
  • the camera module 402 is arranged in the front part of the vehicle and makes it possible to image the scene in front of the vehicle.
  • the processing unit 404 may be an individual and independent unit. Alternatively, the processing unit 404 may be integrated into a computer or a management unit (not shown) of the vehicle 400.
  • the vehicle 400 may comprise a driving assistance unit 406, receiving the enriched images from the processing unit 404, and providing driving instructions either to the driver of the vehicle, or directly to components of the vehicle, from said enriched images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method (100), implemented in a vehicle, for enhancing a current image (IMC) of a scene, captured at a current instant, said method (100) comprising, for at least one target point in said scene appearing in a past image (IMP) of the scene captured at a past instant in relation to the current instant, a phase (110) for enhancing the current image (IMC), comprising the following steps: - identifying (114) the target point in the current image (IMC); - calculating a speed of the target point according to the positions of the target point in the current (IMC) and past (IMP) images; and - enhancing (124) the current image by adding, in the current image (IMC) and in association with the target point, a speed datum comprising the calculated speed. The invention also relates to a computer program, a device and a vehicle implementing such a method.

Description

DESCRIPTION DESCRIPTION

Titre : Procédé et dispositif d'enrichissement d'une image d'une scène, au sein d'un véhicule Title: Method and device for enriching an image of a scene, within a vehicle

[0001] La présente invention concerne un procédé d'enrichissement d'une image d'une scène, au sein d'un véhicule. Elle concerne également un dispositif, un programme d'ordinateur et un véhicule mettant en œuvre un tel procédé. Elle concerne en outre des utilisations d'image(s) enrichie(s) obtenue(s) par la présente invention. [0001] The present invention relates to a method for enriching an image of a scene, within a vehicle. It also relates to a device, a computer program and a vehicle implementing such a method. It further relates to uses of enriched image(s) obtained by the present invention.

[0002] Le domaine de l'invention est le domaine de l'enrichissement d'images numériques, et en particulier d'images d'une scène comprenant un ou plusieurs objets, au sein d'un véhicule. [0002] The field of the invention is the field of enriching digital images, and in particular images of a scene comprising one or more objects, within a vehicle.

État de la technique State of the art

[0003] Les images numériques sont utilisées dans de nombreux domaines. En particulier l'utilisation d'images numériques devient indispensable dans des domaines tels que la détection d'objet, la reconnaissance d'objets, le suivi d'objets dans l'espace et/ou dans le temps. Par exemple, de plus en plus de véhicules comportent une ou plusieurs caméras permettant d'imager l'environnement. Ces images sont ensuite traitées au sein du véhicule pour fournir une assistance à la conduite dudit véhicule qui peut aller jusqu'à un pilotage, partiellement ou totalement, autonome dudit véhicule. [0003] Digital images are used in many fields. In particular, the use of digital images is becoming essential in fields such as object detection, object recognition, tracking of objects in space and/or time. For example, more and more vehicles have one or more cameras for imaging the environment. These images are then processed within the vehicle to provide assistance in driving said vehicle, which can go as far as partially or totally autonomous driving of said vehicle.

[0004] Dans ce contexte, il est fréquent qu'une image soit traitée par différents modules avec une finalité différente. Par exemple, dans le domaine de la détection d'objets, une même image peut subir une pluralité de traitements, réalisés de manière successive ou simultanée, pour détecter la présence d'un objet, détecter la nature d'un objet, éventuellement relier cet objet à un objet précédemment détecté, etc. Il peut aussi arriver qu'une image soit traitée parallèlement par plusieurs modules ayant la même finalité, et ce dans un but de redondance ou de vérification. [0005] Dans ce contexte, il peut être avantageux d'enrichir une image d'une scène avec des données qui peuvent être utiles à plusieurs applications, telles que celles mentionnées plus haut à titre d'exemples nullement limitatifs, ou à plusieurs modules de traitement fonctionnant simultanément ou à tour de rôle, et ce, en vue de faciliter, et/ou de rendre les traitements moins consommateurs en temps et en ressources de calcul. [0004] In this context, it is common for an image to be processed by different modules with a different purpose. For example, in the field of object detection, the same image may undergo a plurality of processing operations, carried out successively or simultaneously, to detect the presence of an object, detect the nature of an object, possibly link this object to a previously detected object, etc. It may also happen that an image is processed in parallel by several modules having the same purpose, and this for the purpose of redundancy or verification. [0005] In this context, it may be advantageous to enrich an image of a scene with data that may be useful for several applications, such as those mentioned above as non-limiting examples, or for several processing modules operating simultaneously or in turn, with a view to facilitating, and/or making the processing less consuming in terms of time and computing resources.

[0006] Ainsi, un but de l'invention est de proposer une solution d'enrichissement d'une image d'une scène avec une ou des données, au sein d'un véhicule. [0006] Thus, one aim of the invention is to propose a solution for enriching an image of a scene with one or more data, within a vehicle.

[0007] Un autre but de l'invention est de proposer une solution d'enrichissement d'une image d'une scène avec des données pouvant être utilisées dans des applications diverses, au sein d'un véhicule. [0007] Another aim of the invention is to propose a solution for enriching an image of a scene with data that can be used in various applications, within a vehicle.

Exposé de l'invention Disclosure of the invention

[0008] L'invention propose d'atteindre au moins l'un des buts précités par un procédé, mis en œuvre au sein d'un véhicule, d'enrichissement d'une image, dite image courante, d'une scène, captée à un instant, dit instant courant, ledit procédé comprenant, pour au moins un point cible de ladite scène apparaissant sur une image, dite passée, de ladite scène captée à un instant passé par rapport audit instant courant, une phase d'enrichissement de l'image courante comprenant les étapes suivantes : [0008] The invention proposes to achieve at least one of the aforementioned aims by a method, implemented within a vehicle, of enriching an image, called current image, of a scene, captured at an instant, called current instant, said method comprising, for at least one target point of said scene appearing on an image, called past, of said scene captured at an instant past relative to said current instant, a phase of enriching the current image comprising the following steps:

- identification dudit point cible dans l'image courante ; - identification of said target point in the current image;

- calcul d'une vitesse dudit point cible en fonction des positions dudit point cible sur lesdites images courante et passée, et du temps écoulé entre lesdits instants courant et passé ; et- calculating a speed of said target point as a function of the positions of said target point on said current and past images, and of the time elapsed between said current and past instants; and

- enrichissement de ladite image courante par ladite vitesse calculée, en association avec ledit point cible. - enrichment of said current image by said calculated speed, in association with said target point.

[0009] Ainsi, l'invention propose d'enrichir une image en ajoutant dans ladite image, une donnée de vitesse associée à un point, et de préférence à plusieurs points, voire à tous les points, d'une scène apparaissant dans ladite image. Cette donnée de vitesse est alors mémorisée dans ladite image et peut être utilisée autant de fois que souhaitée, ou nécessaire, dans divers traitements ou par divers modules ou dans le cadre de diverses applications. Autrement dit, le calcul de la donnée de vitesse est réalisé une seule fois pour l'image et n'a alors pas besoin d'être réitérée à chaque fois que cette donnée est utilisée par une application ou un traitement. [0009] Thus, the invention proposes to enrich an image by adding in said image, a speed data associated with a point, and preferably with several points, or even with all the points, of a scene appearing in said image. This speed data is then stored in said image and can be used as many times as desired, or necessary, in various processing operations. or by various modules or within various applications. In other words, the calculation of the speed data is carried out only once for the image and does not then need to be repeated each time this data is used by an application or processing.

[OO1O] Ainsi, l'invention permet de proposer une image enrichie permettant de diminuer le temps et les ressources de calcul nécessaires au traitement de ladite image, lors de traitements multiples de ladite image. [OO1O] Thus, the invention makes it possible to propose an enriched image making it possible to reduce the time and computing resources required for processing said image, during multiple processing of said image.

[0011] Il est à noter qu'il existe des techniques actuellement connues permettant de déterminer une donnée de vitesse associée à un objet apparaissant sur une image. Ces techniques sont très chronophages et consommateurs en ressources car elles nécessitent d'abord de détecter la présence de l'objet dans l'image, éventuellement le reconnaître, pour ensuite déterminer une vitesse associée audit objet. A la différence de cette solution, l'invention propose d'enrichir une image, et en particulier un pixel de l'image, avec une donnée de vitesse associée audit point de la scène, et donc audit pixel, apparaissant dans ladite image, et ce indépendamment de la détection ou de la reconnaissance d'un objet dans ladite image. [0011] It should be noted that there are currently known techniques for determining speed data associated with an object appearing in an image. These techniques are very time-consuming and resource-intensive because they first require detecting the presence of the object in the image, possibly recognizing it, and then determining a speed associated with said object. Unlike this solution, the invention proposes to enrich an image, and in particular a pixel of the image, with speed data associated with said point of the scene, and therefore with said pixel, appearing in said image, and this independently of the detection or recognition of an object in said image.

[0012] Dans la présente demande, on entend par « image » une image numérique et en particulier une image numérique matricielle. Chaque point de la matrice correspond à un pixel de l'image et comprend une ou des valeurs numériques représentant différentes composantes de l'image pour ledit pixel. Par exemple, dans le cadre d'une image RGB, chaque pixel peut comprendre trois valeurs représentant chacune une des composantes RGB de l'image numérique. Bien entendu, chaque pixel peut comprendre d'autres valeurs représentants d'autres grandeurs, telles que la luminosité, la teinte, la saturation, etc. [0012] In the present application, the term "image" means a digital image and in particular a matrix digital image. Each point of the matrix corresponds to a pixel of the image and comprises one or more digital values representing different components of the image for said pixel. For example, in the context of an RGB image, each pixel may comprise three values each representing one of the RGB components of the digital image. Of course, each pixel may comprise other values representing other quantities, such as brightness, hue, saturation, etc.

[0013] Dans la présente demande, un point d'une scène correspond à un pixel d'une image de ladite scène. Lorsque la scène est imagée à deux instants différents, un même point de la scène peut correspondre à deux pixels se trouvent en des positions différentes sur chacune des deux images. [0013] In the present application, a point of a scene corresponds to a pixel of an image of said scene. When the scene is imaged at two different times, the same point of the scene can correspond to two pixels located in different positions on each of the two images.

[0014] Pour un point cible, l'image courante peut être enrichie par la vitesse calculée pour ledit point cible, de plusieurs manières. [0015] Suivant un mode de réalisation, la vitesse peut être mémorisée en association avec la position du pixel de l'image correspondant au point cible dans un fichier, une matrice ou tout autre contenant indépendant de l'image. [0016] Suivant un mode de réalisation, la vitesse peut être est ajoutée directement dans l'image en association avec le point cible. Par exemple, la vitesse peut être ajoutée aux données du pixel de l'image correspondant au point cible. Dans l'exemple non limitatif d'une image RGB d'une scène, avec trois valeurs, {R, G, B} pour chaque pixel de l'image représentant, chacune pour une des composantes RGB, la vitesse, notée V, peut être ajoutée à ces données de sorte que les données du pixel sont : {R,G,B,V}. [0014] For a target point, the current image can be enriched by the speed calculated for said target point, in several ways. [0015] According to one embodiment, the speed can be stored in association with the position of the pixel of the image corresponding to the target point in a file, a matrix or any other container independent of the image. [0016] According to one embodiment, the speed can be added directly into the image in association with the target point. For example, the speed can be added to the data of the pixel of the image corresponding to the target point. In the non-limiting example of an RGB image of a scene, with three values, {R, G, B} for each pixel of the image representing, each for one of the RGB components, the speed, denoted V, can be added to this data so that the data of the pixel is: {R,G,B,V}.

[0017] Suivant des modes de réalisation, pour au moins un point cible, la vitesse peut être calculée dans un repère lié au capteur d'image utilisé pour capter l'image courante. [0017] According to embodiments, for at least one target point, the speed can be calculated in a frame linked to the image sensor used to capture the current image.

[0018] Dans ce cas, pour ledit point cible, l'image courante peut être enrichie avec ladite vitesse calculée dans le repère lié au capteur. [0018] In this case, for said target point, the current image can be enriched with said speed calculated in the frame linked to the sensor.

[0019] Dans la suite, le repère associé au capteur est noté le repère UV. Ce repère est un repère bidimensionnel définissant un plan, et en particulier le du capteur d'image utilisé pour l'acquisition de l'image. [0019] In the following, the reference associated with the sensor is denoted the UV reference. This reference is a two-dimensional reference defining a plane, and in particular the image sensor used for acquiring the image.

[0020] Dans ce cas, la vitesse du point cible calculée directement en utilisant les positions du point cible dans chacune des deux images exprimées dans le plan du capteur. Par exemple, lorsqu'on calcule la vitesse du point cible dans le plan de l'image, notée Vuv, alors la vitesse calculée correspond à un vecteur vitesse comprenant une première valeur, notée Vu, donnant la vitesse dans la direction U dans le plan d'image, et une deuxième valeur, notée Vv, donnant la vitesse dans la direction V dans le plan d'image. [0020] In this case, the speed of the target point is calculated directly using the positions of the target point in each of the two images expressed in the sensor plane. For example, when calculating the speed of the target point in the image plane, denoted Vuv, then the calculated speed corresponds to a speed vector comprising a first value, denoted Vu, giving the speed in the U direction in the image plane, and a second value, denoted V v , giving the speed in the V direction in the image plane.

[0021] Alternativement, ou en plus, pour au moins un point cible, la vitesse peut être calculée dans un repère lié à la scène. [0021] Alternatively, or in addition, for at least one target point, the speed can be calculated in a frame linked to the scene.

[0022] Dans ce cas, pour ledit point cible, l'image courante peut, alternativement ou en plus, être enrichie avec ladite vitesse calculée dans le repère lié à la scène. [0023] Dans la suite, le repère associé à la scène est noté le repère XY. Ce repère est un repère bidimensionnel définissant un plan correspondant au plan de l'image dans le repère lié à la scène. [0022] In this case, for said target point, the current image can, alternatively or in addition, be enriched with said speed calculated in the frame linked to the scene. [0023] In the following, the reference frame associated with the scene is denoted the XY reference frame. This reference frame is a two-dimensional reference frame defining a plane corresponding to the plane of the image in the reference frame linked to the scene.

[0024] Lorsque la vitesse du point cible est calculée dans un repère lié à la scène, ladite vitesse du point cible ne peut pas être calculée directement en utilisant les positions du point cible dans chacune des images courante et passée, exprimées dans le repère associée à l'image. Il faut au préalable convertir lesdites positions pour les exprimer dans le repère associé à la scène. [0024] When the speed of the target point is calculated in a frame of reference linked to the scene, said speed of the target point cannot be calculated directly by using the positions of the target point in each of the current and past images, expressed in the frame of reference associated with the image. It is necessary to first convert said positions to express them in the frame of reference associated with the scene.

[0025] La vitesse calculée pour le point cible peut être une vitesse dans le plan image XY de l'image courante, et noté VXY. Dans ce cas, la vitesse VXY est un vecteur vitesse comprenant deux valeurs : une première valeur, notée Vx, donnant la vitesse dans la direction X dans le plan d'image, et une deuxième valeur, notée VY, donnant la vitesse dans la direction Y dans le plan d'image. [0025] The speed calculated for the target point can be a speed in the XY image plane of the current image, and denoted VXY. In this case, the speed VXY is a speed vector comprising two values: a first value, denoted Vx, giving the speed in the X direction in the image plane, and a second value, denoted VY, giving the speed in the Y direction in the image plane.

[0026] Il est à noter que, il est en outre possible de calculer la vitesse du point cible dans la direction perpendiculaire au plan de l'image, et donc au plan XY dans le repère lié à la scène et au plan UV dans le repère lié au capteur, à partir des profondeurs associées au point cible dans l'image courante et dans l'image passée. Dans ce cas, la vitesse calculée pour le point cible peut comprendre une troisième valeur donnant la vitesse dudit point cible dans la direction perpendiculaire au plan de l'image. Par exemple, dans le repère lié à la scène cette troisième valeur peut être notée Vz, et donne donnant la vitesse dudit point cible dans la direction Z perpendiculaire au plan XY. Dans ce cas, la vitesse est un vecteur vitesse comprenant trois valeurs : VXYZ= {VX,VY,VZ}, dans le repère lié à la scène. [0026] It should be noted that it is also possible to calculate the speed of the target point in the direction perpendicular to the image plane, and therefore to the XY plane in the frame linked to the scene and to the UV plane in the frame linked to the sensor, from the depths associated with the target point in the current image and in the past image. In this case, the speed calculated for the target point can include a third value giving the speed of said target point in the direction perpendicular to the image plane. For example, in the frame linked to the scene this third value can be noted Vz, and gives the speed of said target point in the Z direction perpendicular to the XY plane. In this case, the speed is a speed vector comprising three values: VXYZ = {VX, VY, VZ}, in the frame linked to the scene.

[0027] Dans la suite, afin de simplifier en particulier l'exposé des calculs du passage des vitesses dans le plan du capteur à celles dans la scène, nous supposons que les axes U et V de la caméra sont parallèles et orientés dans la même direction et nous supposons que les axes X, Y sont parallèles aux axes U et V respectivement, et orientés dans le même sens. [0027] In the following, in order to simplify in particular the presentation of the calculations of the passage of the speeds in the plane of the sensor to those in the scene, we assume that the axes U and V of the camera are parallel and oriented in the same direction and we assume that the axes X, Y are parallel to the axes U and V respectively, and oriented in the same direction.

[0028] Bien entendu, cet exemple d'implémentation du procédé n'est nullement limitation et d'autres dispositions relatives entre les axes de caméra et avec les axes du repère de la scène sont possibles, selon des calculs faisant intervenir généralement plus de coefficients. En cas de variation angulaire des axes de la scène par rapport à l'observateur, il pourra être utile aussi de prendre en compte les vitesses de rotation et accélérations de rotations pour passer du repère du capteur à celui de la scène. [0028] Of course, this example of implementation of the method is in no way limiting and other relative arrangements between the camera axes and with the axes of the scene reference frame are possible, according to calculations generally involving more coefficients. In the event of angular variation of the scene axes relative to the observer, it may also be useful to take into account the rotation speeds and rotation accelerations to move from the sensor reference frame to that of the scene.

[0029] Lorsque la vitesse du point cible est calculée dans un repère lié à la scène, la phase d'enrichissement peut en outre comprendre, avant l'étape de calcul de vitesse, une étape pour exprimer les positions du point cible dans l'image courante et dans l'image passée, dans ledit repère associé à la scène. Ensuite, le calcul de la vitesse est réalisée en fonction desdites positions du point cible exprimée dans ledit repère associé à la scène. [0029] When the speed of the target point is calculated in a frame of reference linked to the scene, the enrichment phase may further comprise, before the speed calculation step, a step for expressing the positions of the target point in the current image and in the past image, in said frame of reference associated with the scene. Then, the calculation of the speed is carried out as a function of said positions of the target point expressed in said frame of reference associated with the scene.

[0030] La conversion de la position du point cible exprimée dans le plan image, dans un repère lié à la scène peut être réalisée selon toute technique connue, dès lors que la position de la caméra ayant captée l'image est connue [0031] Suivant un exemple de réalisation non limitatif, la conversion de la position du point cible depuis le repère UV lié au capteur dans un repère XY lié à la scène peut être réalisée de la manière suivante. En notant (u,v) les coordonnées du point cible dans le repère lié au capteur, ledit point cible correspond à 2 angles au et av tels que : [0030] The conversion of the position of the target point expressed in the image plane, into a frame of reference linked to the scene can be carried out according to any known technique, provided that the position of the camera having captured the image is known [0031] According to a non-limiting exemplary embodiment, the conversion of the position of the target point from the UV frame of reference linked to the sensor into an XY frame of reference linked to the scene can be carried out in the following manner. By denoting (u,v) the coordinates of the target point in the frame of reference linked to the sensor, said target point corresponds to 2 angles au and av such that:

- selon la direction X : - according to the X direction:

■ au * f = u ■ au * f = u

■ au * Z = - x ■ at * Z = - x

- selon la direction Y : - according to the Y direction:

■ av *f = V ■ av *f = V

■ av * Z = - y où f est la distance focale du capteur, Z la profondeur du point cible dans l'image, et où (x,y) sont les coordonnées dudit point cible le repère lié à la scène. Ce qui donne : x = - Z * u/f y = - Z * v/f ■ av * Z = - y where f is the focal length of the sensor, Z is the depth of the target point in the image, and where (x,y) are the coordinates of said target point, the reference frame linked to the scene. Which gives: x = - Z * u/f y = - Z * v/f

[0032] Suivant des modes de réalisation, la phase d'enrichissement peut en outre comprendre, pour au moins un point cible, une étape de calcul d'une vitesse dudit point cible dans la direction perpendiculaire au plan de l'image, en fonction : [0032] According to embodiments, the enrichment phase can further comprise, for at least one target point, a step of calculating a speed of said target point in the direction perpendicular to the image plane, as a function of:

- de profondeurs dudit point cible dans l'image passée et dans l'image courante, - depths of said target point in the past image and in the current image,

- d'une durée écoulée entre les instants courant et passé, et - of a duration elapsed between the current and past instants, and

- éventuellement d'une distance de déplacement entre les positions de captation de l'image courante et de l'image passée. - possibly a displacement distance between the capture positions of the current image and the past image.

[0033] Dans ce cas, la phase d'enrichissement peut en outre comprendre une étape d'enrichissement de ladite image courante par ajout, dans ladite image courante et en association avec ledit point cible, d'une donnée de vitesse comprenant ladite vitesse calculée. [0033] In this case, the enrichment phase may further comprise a step of enriching said current image by adding, in said current image and in association with said target point, speed data comprising said calculated speed.

[0034] La donnée de vitesse dans la direction perpendiculaire au plan de l'image peut être ajoutée dans l'image courante individuellement et indépendamment des autres données. Dans ce cas, cette vitesse est une valeur, éventuellement positive ou négative, indiquant la vitesse dudit point cible dans ladite direction, notée Z dans le repère lié à la scène. [0034] The speed data in the direction perpendicular to the image plane can be added to the current image individually and independently of the other data. In this case, this speed is a value, possibly positive or negative, indicating the speed of said target point in said direction, noted Z in the frame linked to the scene.

[0035] Alternativement, cette donnée de vitesse peut être ajoutée à la donnée de vitesse dans le plan de l'image, calculée pour le point cible, le cas échéant, par exemple tel que décrit plus haut. Dans ce cas, la donnée de vitesse peut être un vecteur vitesse à trois dimensions, comme expliqué plus haut. Suivant des modes de réalisation, l'enrichissement de l'image avec la vitesse dans le plan de l'image et l'enrichissement de l'image avec la vitesse dans la direction perpendiculaire au plan de l'image peuvent être réalisés au sein d'une unique étape d'enrichissement. [0035] Alternatively, this velocity data may be added to the velocity data in the image plane, calculated for the target point, if any, for example as described above. In this case, the velocity data may be a three-dimensional velocity vector, as explained above. According to embodiments, the enrichment of the image with the velocity in the image plane and the enrichment of the image with the velocity in the direction perpendicular to the image plane may be carried out within a single enrichment step.

[0036] La profondeur associée au point cible peut être : [0036] The depth associated with the target point can be:

- mesurée avec un capteur, tel qu'une caméra temps de vol, radar ou lidar, etc. ; - measured with a sensor, such as a time-of-flight camera, radar or lidar, etc.;

- calculée en fonction des positions dudit point cible dans les images passée et courante, par exemple par triangulation. - calculated based on the positions of said target point in the past and current images, for example by triangulation.

[0037] Suivant des modes de réalisation, pour au moins un point cible, la phase d'enrichissement peut en outre comprendre les étapes suivantes : [0037] According to embodiments, for at least one target point, the enrichment phase may further comprise the following steps:

- calcul d'une accélération dudit point cible dans le plan de l'image courante en fonction d'une vitesse dudit point cible dans chacune desdites images courante et passée, et du temps écoulé entre lesdits instants courant et passé ; et - calculation of an acceleration of said target point in the plane of the current image as a function of a speed of said target point in each of said current and past images, and of the time elapsed between said current and past instants; and

- enrichissement de l'image courante par ajout de ladite accélération dans ladite image courante en association avec ledit point cible. - enrichment of the current image by adding said acceleration in said current image in association with said target point.

[0038] Ainsi, cette accélération est calculée une seule fois et mémorisée dans l'image pour l'enrichir de sorte qu'elle n'a pas à être recalculée ultérieurement et peut être utilisée autant de fois que souhaitée, ou nécessaire, dans divers traitements ou par divers modules ou dans le cadre de diverses applications. [0038] Thus, this acceleration is calculated only once and stored in the image to enrich it so that it does not have to be recalculated later and can be used as many times as desired, or necessary, in various treatments or by various modules or within the framework of various applications.

[0039] Lorsqu'une donnée d'accélération est ajoutée dans l'image courante en association avec un point cible, ladite donnée d'accélération peut être ajoutée aux données du pixel de l'image correspondant audit point. [0039] When acceleration data is added in the current image in association with a target point, said acceleration data can be added to the data of the pixel of the image corresponding to said point.

[0040] Dans l'exemple non limitatif d'une image RGB, avec trois valeurs, {R, G, B}, pour chaque pixel, la donnée d'accélération peut être ajoutée à ces données de sorte que les données du pixel sont : {R, G, B, A}. Si un point cible d'une image est enrichi avec une donnée de vitesse et une donnée d'accélération, dans ce cas les données représentant le pixel correspondant à ce point cible peuvent être {R, G, B, V, A}. [0040] In the non-limiting example of an RGB image, with three values, {R, G, B}, for each pixel, the acceleration data can be added to this data so that the pixel data is: {R, G, B, A}. If a target point of an image is enriched with a velocity data and an acceleration data, in this case the data representing the pixel corresponding to this target point can be {R, G, B, V, A}.

[0041] A l'instar de la vitesse, l'accélération associée au point cible dans l'image courante peut être calculée dans le repère UV lié au capteur d'image. Dans ce cas, l'accélération, notée Auv, peut être un vecteur à deux dimensions comprenant deux valeurs d'accélération : [0041] Like the speed, the acceleration associated with the target point in the current image can be calculated in the UV frame linked to the image sensor. In this case, the acceleration, denoted Auv, can be a two-dimensional vector comprising two acceleration values:

- une première valeur d'accélération, notée Au, donnant l'accélération dans la direction U, et - a first acceleration value, noted Au, giving the acceleration in the U direction, and

- une deuxième valeur d'accélération, notée Av, donnant l'accélération dans la direction V. - a second acceleration value, noted Av, giving the acceleration in the V direction.

[0042] Alternativement, l'accélération associée au point cible dans l'image courante peut être calculée dans le repère XY, lié à la scène. Dans ce cas, l'accélération, notée AXY, peut être un vecteur à plusieurs dimensions comprenant plusieurs valeurs d'accélération : [0042] Alternatively, the acceleration associated with the target point in the current image can be calculated in the XY frame, linked to the scene. In this case, the acceleration, denoted AXY, can be a multi-dimensional vector comprising several acceleration values:

- une première valeur d'accélération, notée Ax, donnant l'accélération dans la direction X, et - une deuxième valeur d'accélération, notée AY, donnant l'accélération dans la direction Y, et éventuellement, - a first acceleration value, noted Ax, giving the acceleration in the X direction, and - a second acceleration value, denoted AY, giving the acceleration in the Y direction, and possibly,

[0043] De plus, il est possible d'obtenir l'accélération dans la direction perpendiculaire au plan d'image, lorsque la vitesse dudit point cible est connue dans ladite direction perpendiculaire, pour l'image passée et l'image courante, telle que décrit plus haut. [0043] Furthermore, it is possible to obtain the acceleration in the direction perpendicular to the image plane, when the speed of said target point is known in said perpendicular direction, for the past image and the current image, as described above.

[0044] Ainsi, selon l'invention, pour au moins un point cible, l'image courante peut être enrichie : [0044] Thus, according to the invention, for at least one target point, the current image can be enriched:

- avec une donnée de vitesse exprimée dans le repère liée au capteur d'image ; et - with speed data expressed in the frame linked to the image sensor; and

- éventuellement, avec une donnée d'accélération exprimée dans le repère liée au capteur d'image. - possibly, with acceleration data expressed in the frame linked to the image sensor.

[0045] Alternativement, ou en plus, pour au moins un point cible, l'image courante peut être enrichie : [0045] Alternatively, or in addition, for at least one target point, the current image can be enriched:

- avec une donnée de vitesse exprimée dans le repère liée à la scène ; et - with speed data expressed in the frame linked to the scene; and

- éventuellement, avec une donnée d'accélération exprimée dans le repère lié à la scène. - possibly, with acceleration data expressed in the frame linked to the scene.

[0046] Quelque soit le mode de réalisation, la donnée de vitesse peut comprendre : [0046] Whatever the embodiment, the speed data may include:

- la vitesse dans le plan d'image, et - the speed in the image plane, and

- éventuellement la vitesse dans la direction perpendiculaire audit plan d'image - possibly the speed in the direction perpendicular to said image plane

[0047] Quelque soit le mode de réalisation, la donnée d'accélération peut comprendre : [0047] Whatever the embodiment, the acceleration data may include:

- l'accélération dans le plan d'image, et - acceleration in the image plane, and

- éventuellement l'accélération dans la direction perpendiculaire audit plan d'image. - possibly the acceleration in the direction perpendicular to said image plane.

[0048] Pour un point cible, la phase d'enrichissement peut comprendre une unique étape d'enrichissement lors de laquelle l'image courante est enrichie avec une ou plusieurs données choisies parmi les données de vitesse et les données d'accélération décrites plus haut. Alternativement, la phase d'enrichissement peut comprendre, pour un point cible, plusieurs étapes d'enrichissement, chacune ajoutant une ou plusieurs données choisies parmi les données de vitesse et/ou les données d'accélération décrites plus haut, pour le point cible. [0048] For a target point, the enrichment phase may comprise a single enrichment step during which the current image is enriched with one or more data chosen from the speed data and the acceleration data described above. Alternatively, the enrichment phase may comprise, for a target point, several enrichment steps, each adding one or more data selected from the velocity data and/or the acceleration data described above, for the target point.

[0049] L'identification d'un point cible d'une image passée dans une image courante peut être réalisée de différentes manières. [0049] Identifying a target point of a past image in a current image can be done in different ways.

[0050] Suivant des modes de réalisation non limitatifs, l'étape d'identification du point cible d'une image passée dans l'image courante peut comprendre une comparaison du point cible dans l'image passée à au moins un point dans l'image courante, ladite comparaison portant sur au moins une des données suivantes associées auxdits points : [0050] According to non-limiting embodiments, the step of identifying the target point of a past image in the current image may comprise a comparison of the target point in the past image to at least one point in the current image, said comparison relating to at least one of the following data associated with said points:

- donnée de couleur, - color data,

- donnée de texture, - texture data,

- donnée luminosité, - brightness data,

- donnée de teinte, - color data,

- donnée de saturation, - saturation data,

- donnée RGB. - RGB data.

Ainsi, si l'image courante comprend le point cible, ledit point cible est identifié dans ladite image courante en réalisant une comparaison du pixel représentant le point cible à un ou des pixels dans ladite image courante, cette comparaison étant basée sur une combinaison quelconque d'au moins une des données listées plus haut, et plus généralement sur une combinaison quelconque d'au moins une des données de pixel. Thus, if the current image comprises the target point, said target point is identified in said current image by performing a comparison of the pixel representing the target point to one or more pixels in said current image, this comparison being based on any combination of at least one of the data listed above, and more generally on any combination of at least one of the pixel data.

[0051] Suivant des modes de réalisation, la comparaison peut concerner l'ensemble des points/pixels dans l'image courante, de sorte que le point cible de l'image passée est comparée à chaque point/pixel de l'image courante. [0051] According to embodiments, the comparison may concern all the points/pixels in the current image, so that the target point of the past image is compared to each point/pixel of the current image.

[0052] Alternativement, la phase d'enrichissement peut comprendre, préalablement à l'étape d'identification, une étape de détermination d'une zone cible dans ladite image courante, le point cible étant recherchée dans ladite zone cible de ladite image. [0053] Dans ce cas, le point cible est comparé uniquement aux points de l'image courante se trouvant dans ladite zone cible, ce qui diminue le nombre de comparaisons et permet l'identification du point cible dans l'image courante de manière plus rapide et avec moins de ressources. [0052] Alternatively, the enrichment phase may comprise, prior to the identification step, a step of determining a target area in said current image, the target point being sought in said target area of said image. [0053] In this case, the target point is compared only to the points of the current image located in said target area, which reduces the number of comparisons and allows the identification of the target point in the current image more quickly and with fewer resources.

[0054] La zone cible dans l'image courante peut être identifiée de différentes manières. [0054] The target area in the current image can be identified in different ways.

[0055] Suivant des modes de réalisation particulièrement avantageux, la zone cible peut être identifiée en fonction d'une donnée de vitesse associée au point cible dans l'image passée. Si on dispose de la donnée de vitesse associée au point cible dans l'image passée, et en particulier de la vitesse Vuv exprimée dans le repère associé au capteur d'image, alors il est possible d'avoir la vitesse dans chacune des directions dans le plan de l'image. En connaissant la position du point cible dans l'image passée et le temps écoulé entre l'instant passé et l'instant courant, une localisation approximative du point cible dans l'image courante peut être déterminée. [0055] According to particularly advantageous embodiments, the target zone can be identified as a function of a speed datum associated with the target point in the past image. If the speed datum associated with the target point in the past image is available, and in particular the speed Vuv expressed in the reference frame associated with the image sensor, then it is possible to have the speed in each of the directions in the plane of the image. By knowing the position of the target point in the past image and the time elapsed between the past instant and the current instant, an approximate location of the target point in the current image can be determined.

[0056] La comparaison du point cible aux points dans l'image courante peut commencer à partir de ladite localisation probable et s'étendre à d'autres points de l'image courante en s'éloignant de ladite position probable, par exemple progressivement ou par pas discret, par exemple dans une direction ou par exemple dans toutes les directions. [0056] The comparison of the target point to the points in the current image may start from said probable location and extend to other points of the current image moving away from said probable position, for example progressively or in discrete steps, for example in one direction or for example in all directions.

[0057] La phase d'enrichissement peut être mise en œuvre pour plusieurs points, et en particulier tous les points, dans l'image passée. [0057] The enrichment phase can be implemented for several points, and in particular all points, in the past image.

[0058] Ainsi, l'image courante peut être enrichie avec une donnée de vitesse, et éventuellement avec une donnée d'accélération, pour plusieurs points de la scène, et donc pour plusieurs pixels de l'image courante. [0058] Thus, the current image can be enriched with speed data, and possibly with acceleration data, for several points of the scene, and therefore for several pixels of the current image.

[0059] Suivant des modes de réalisation, le procédé selon l'invention peut comprendre une étape de pré-traitement de l'image passée, pour sélectionner le ou les points cibles. Dans ce cas, la phase d'enrichissement est mise en œuvre pour une partie seulement des points de la scène apparaissant sur l'image passée, à savoir les points sélectionnés lors de l'étape de prétraitement. [0060] Le ou les points de la scène dans l'image peuvent être sélectionnés selon toute logique, ou relation. [0059] According to embodiments, the method according to the invention may comprise a step of pre-processing the past image, to select the target point(s). In this case, the enrichment phase is implemented for only part of the points of the scene appearing on the past image, namely the points selected during the pre-processing step. [0060] The point(s) of the scene in the image can be selected according to any logic, or relationship.

[0061] Suivant des modes de réalisation, l'étape de pré-traitement peut comprendre les étapes suivantes : [0061] According to embodiments, the pre-processing step may comprise the following steps:

- extraction, en chaque point de l'image passée, d'un gradient spatial, en particulier par dérivation de ladite image passée, et encore plus particulièrement par filtrage Sobel ; - extraction, at each point of the past image, of a spatial gradient, in particular by derivation of said past image, and even more particularly by Sobel filtering;

- calcul d'une norme du gradient de chaque point, en particulier la norme Euclidienne ; - calculation of a norm of the gradient of each point, in particular the Euclidean norm;

- sélection, comme point(s) cible(s), le(s) point(s) dont la norme du gradient est supérieure à un seuil prédéfini. - selection, as target point(s), the point(s) whose gradient norm is greater than a predefined threshold.

Ainsi, les points de l'image passée pour lesquels la phase d'enrichissement est réalisée sont ceux présentant un intérêt en fonction de la norme du gradient spatial. Ces points constituent en général les limites des différents objets de la scène et renseignent bien de l'évolution de la scène. Ainsi, l'image courante est enrichie pour une partie seulement des points de la scène présentant un intérêt, ce qui permet un enrichissement optimisé de ladite image courante. Thus, the points of the past image for which the enrichment phase is carried out are those of interest according to the norm of the spatial gradient. These points generally constitute the limits of the different objects of the scene and provide good information on the evolution of the scene. Thus, the current image is enriched for only part of the points of the scene of interest, which allows an optimized enrichment of said current image.

[0062] Le procédé selon l'invention peut être est mis en œuvre pour enrichir les images d'un flux d'images d'une scène, ledit flux d'images étant fourni par une même caméra ou plusieurs caméras dont les positions relatives sont connues. [0062] The method according to the invention can be implemented to enrich the images of a stream of images of a scene, said stream of images being provided by the same camera or several cameras whose relative positions are known.

[0063] Le flux d'images peut être une vidéo fournie par une unique caméra. Dans ce cas, le procédé selon l'invention permet d'enrichir les/des images de ladite vidéo. [0063] The image stream may be a video provided by a single camera. In this case, the method according to the invention makes it possible to enrich the images of said video.

[0064] Une image courante au sein du flux d'images peut être enrichie en se basant sur une image passée qui la précède immédiatement dans ledit flux d'images. [0064] A current image within the image stream may be enriched based on a past image that immediately precedes it in said image stream.

[0065] Alternativement, l'image passée peut ne pas être celle qui précède immédiatement l'image courante de sorte qu'elle peut être séparée de l'image courante par une ou plusieurs autres images. [0065] Alternatively, the past image may not be the one immediately preceding the current image so that it may be separated from the current image by one or more other images.

[0066] De plus, chaque image du flux d'images peut être enrichie. [0067] Alternativement, seule une image toutes les N images peut être enrichie dans le flux d'images, avec N>2. [0066] Additionally, each image in the image stream can be enriched. [0067] Alternatively, only one image every N images can be enriched in the image stream, with N>2.

[0068] Pour au moins une image courante, la phase d'enrichissement de ladite image courante peut être réalisée immédiatement après l'acquisition de ladite image courante. [0068] For at least one current image, the enrichment phase of said current image can be carried out immediately after the acquisition of said current image.

[0069] Pour au moins une image courante, la phase d'enrichissement de ladite image courante peut être de manière décalée dans le temps, par rapport à l'instant d'acquisition de ladite image courante. [0069] For at least one current image, the enrichment phase of said current image can be offset in time, relative to the time of acquisition of said current image.

[0070] Suivant un autre aspect de l'invention, il est proposé une image enrichie d'une scène, mémorisée sur un moyen de mémorisation, obtenue par le procédé selon l'invention. [0070] According to another aspect of the invention, there is provided an enriched image of a scene, stored on a storage means, obtained by the method according to the invention.

[0071] L'image enrichie selon l'invention est une image numérique de préférence matricielle. [0071] The enriched image according to the invention is a digital image, preferably a matrix image.

[0072] L'image enrichie selon l'invention peut être captée par tout moyen d'acquisition d'image. [0072] The enriched image according to the invention can be captured by any image acquisition means.

[0073] Le moyen de mémorisation peut être de tout type, portable ou non, tel qu'une carte mémoire, une clef USB, un ordinateur, un serveur, un téléphone, une caméra, etc. [0073] The storage means may be of any type, portable or not, such as a memory card, a USB key, a computer, a server, a telephone, a camera, etc.

[0074] Suivant un autre aspect de l'invention, il est proposée une utilisation, au sein d'un véhicule, d'images enrichies d'une scène selon l'invention, pour l'identification d'un point cible de ladite scène se trouvant dans une première image enrichie, dans une deuxième image enrichie de ladite scène, ladite identification comprenant une comparaison d'une donnée de vitesse associée audit point cible dans la première image à une donnée de vitesse d'au moins un point dans ladite deuxième image enrichie. [0074] According to another aspect of the invention, there is proposed a use, within a vehicle, of enriched images of a scene according to the invention, for the identification of a target point of said scene located in a first enriched image, in a second enriched image of said scene, said identification comprising a comparison of a speed datum associated with said target point in the first image with a speed datum of at least one point in said second enriched image.

[0075] Suivant des modes de réalisation, l'identification peut prendre en compte la donnée d'accélération, le cas échéant. En particulier, l'identification peut comprendre une comparaison d'une donnée d'accélération associée audit point cible dans la première image à une donnée d'accélération d'au moins un point dans ladite deuxième image enrichie. [0075] According to embodiments, the identification may take into account the acceleration data, if applicable. In particular, the identification may comprise a comparison of an acceleration data associated with said target point in the first image to acceleration data of at least one point in said enriched second image.

[0076] Les images enrichies peuvent être prises : [0076] Enriched images can be taken:

- par la même caméra ou par deux caméras différentes, - by the same camera or by two different cameras,

- au même instant ou à des instants différents. - at the same time or at different times.

[0077] En effet, dans une image enrichie selon l'invention un ou plusieurs points cibles comportent une donnée de vitesse, et éventuellement une donnée d'accélération, associée au(x)dit(s) point(s) cible(s). Ainsi, cette donnée de vitesse, et éventuellement cette donnée d'accélération, peu(ven)t être utilisées pour identifier ce point cible dans une autre image enrichie car la donnée de vitesse, respectivement la donnée d'accélération, est une information additionnelle qui peut être utilisée lors de l'identification du point cible. [0077] Indeed, in an enriched image according to the invention one or more target points comprise a speed data item, and possibly an acceleration data item, associated with said target point(s). Thus, this speed data item, and possibly this acceleration data item, can be used to identify this target point in another enriched image because the speed data item, respectively the acceleration data item, is additional information that can be used when identifying the target point.

[0078] Suivant un autre aspect de l'invention, il est proposée une utilisation, au sein d'un véhicule, d'image(s) enrichie(s) selon l'invention pour au moins une des applications suivantes : [0078] According to another aspect of the invention, there is proposed a use, within a vehicle, of enriched image(s) according to the invention for at least one of the following applications:

- pour la détection d'un objet d'une scène à un instant donné, - for the detection of an object in a scene at a given moment,

- pour le suivi d'un objet d'une scène dans le temps, - for tracking an object in a scene over time,

- pour une assistance au pilotage, ou pour un pilotage autonome ou semi-autonome, d'un véhicule. - for assistance with driving, or for autonomous or semi-autonomous driving of a vehicle.

[0079] En effet, au moins une donnée de vitesse, et éventuellement au moins une donnée d'accélération, associée(s) à un point cible peu(ven)t être util isée(s) pour détecter un objet dans cette image car il est probable que les points ayant une même vitesse, et éventuellement une même accélération, appartiennent à un même objet. Il est donc possible de discriminer et/ou de détecter les objets sur une image enrichie selon l'invention en fonction des données de vitesse, et éventuellement des données d'accélération. [0079] Indeed, at least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to detect an object in this image because it is likely that the points having the same speed, and possibly the same acceleration, belong to the same object. It is therefore possible to discriminate and/or detect the objects on an enriched image according to the invention as a function of the speed data, and possibly the acceleration data.

[0080] Par ailleurs, au moins une donnée de vitesse, et éventuellement au moins une donnée d'accélération, associée(s) à un point cible peut être utilisée pour trouver la position d'un objet sur une autre image captée. Cela permet de suivre un objet dans le temps et dans l'espace, que celui-ci soit visible ou non dans ladite autre image. [0081] En outre, au moins une donnée de vitesse, et éventuellement au moins une donnée d'accélération, associée(s) à un point cible peut être utilisée pour estimer, ou prédire, la position probable d'un objet dans un futur proche, et en particulier à un instant suivant. Cela permet d'améliorer le suivi d'un objet dans le temps et dans l'espace, et/ou de réaliser une assistance au pilotage d'un véhicule ou d'un robot. [0080] Furthermore, at least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to find the position of an object on another captured image. This makes it possible to track an object in time and space, whether or not it is visible in said other image. [0081] Furthermore, at least one speed data item, and possibly at least one acceleration data item, associated with a target point can be used to estimate, or predict, the probable position of an object in the near future, and in particular at a following instant. This makes it possible to improve the tracking of an object in time and space, and/or to provide assistance in piloting a vehicle or a robot.

[0082] Selon un autre aspect de l'invention, il est proposé un programme d'ordinateur pour un véhicule, comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par ledit véhicule, mettent en en œuvre toutes les étapes du procédé selon l'invention. [0082] According to another aspect of the invention, there is provided a computer program for a vehicle, comprising executable instructions which, when executed by said vehicle, implement all the steps of the method according to the invention.

[0083] Le programme d'ordinateur peut être en tout langage informatique, tel que par exemple en langage machine, en C, C++, JAVA, Python, etc. [0083] The computer program may be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.

[0084] Selon un autre aspect de l'invention, il est proposé un dispositif, prévu pour être intégré dans un véhicule, comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention. [0084] According to another aspect of the invention, a device is proposed, intended to be integrated into a vehicle, comprising means configured to implement all the steps of the method according to the invention.

[0085] Le dispositif peut être un processeur, un calculateur ou une carte graphique, et plus généralement une unité de calcul configuré(e) pour mettre en œuvre le procédé selon l'invention. [0085] The device may be a processor, a calculator or a graphics card, and more generally a calculation unit configured to implement the method according to the invention.

[0086] Par exemple, le dispositif peut être doté du programme d'ordinateur selon l'invention. [0086] For example, the device may be provided with the computer program according to the invention.

[0087] Suivant un autre aspect de la présente invention, il est proposé un véhicule comprenant : [0087] According to another aspect of the present invention, there is provided a vehicle comprising:

- au moins un module caméra, et - at least one camera module, and

- au moins un moyen de traitement, en particulier un processeur ou une carte graphique, configuré pour mettre en œuvre toutes les étapes du procédé selon l'invention pour enrichir une image captée ledit au moins un module caméra. [0088] Suivant des modes de réalisation, le véhicule peut être un véhicule terrestre, tel qu'une voiture, autonome ou non. - at least one processing means, in particular a processor or a graphics card, configured to implement all the steps of the method according to the invention to enrich an image captured by said at least one camera module. [0088] According to embodiments, the vehicle may be a land vehicle, such as a car, autonomous or not.

[0089] Suivant des modes de réalisation, le véhicule peut être un véhicule volant, tel qu'un drone, un avion, un hélicoptère, autonome ou non. [0089] According to embodiments, the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous or not.

[0090] Suivant des modes de réalisation, le véhicule peut être un véhicule maritime, tel qu'un bateau ou un sous-marin, autonome ou non. [0090] According to embodiments, the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous or not.

Description des figures et modes de réalisation Description of figures and embodiments

[0091] D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée de modes de réalisation nullement limitatifs, et des dessins annexés sur lesquels : [0091] Other advantages and characteristics will appear on examining the detailed description of non-limiting embodiments, and the attached drawings in which:

- la FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon l'invention pour enrichir une image ; - FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention for enriching an image;

- la FIGURE 2 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon l'invention pour enrichir un flux d'images ; - FIGURE 2 is a schematic representation of a non-limiting exemplary embodiment of a method according to the invention for enriching an image stream;

- la FIGURE 3 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif selon l'invention pour enrichir une image ou un flux d'images ; et - FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of a device according to the invention for enriching an image or a stream of images; and

- la FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon l'invention. - FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.

[0092] Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si c’est cette partie qui est uniquement suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. [0093] En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. [0092] It is understood that the embodiments that will be described below are in no way limiting. In particular, it will be possible to imagine variants of the invention comprising only a selection of features described below isolated from the other features described, if this selection of features is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. This selection comprises at least one preferably functional feature without structural details, or with only a part of the structural details if it is this part which is only sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. [0093] In particular, all the variants and all the embodiments described can be combined with each other if nothing prevents this combination from a technical point of view.

[0094] Sur les figures et dans la suite de la description, les éléments communs à plusieurs figures conservent la même référence. [0094] In the figures and in the remainder of the description, the elements common to several figures retain the same reference.

[0095] La FIGURE 1 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon la présente invention. [0095] FIGURE 1 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.

[0096] Le procédé 100 de la FIGURE 1 peut être utilisé pour enrichir, au sein d'un véhicule, une image numérique, dite image courante, et notée IMC, d'une scène, captée à un instant courant, en utilisant une autre image numérique de ladite scène, dite image passée, notée IMP, captée à un instant passé précédant l'instant courant. [0096] The method 100 of FIGURE 1 can be used to enrich, within a vehicle, a digital image, called the current image, and denoted IMC, of a scene, captured at a current time, by using another digital image of said scene, called the past image, denoted IMP, captured at a past time preceding the current time.

[0097] Les images courante et passée peuvent être captées par une même caméra. La position de la caméra peut être fixe. Alternativement, la caméra peut être mobile de sorte que sa position change entre l'instant passé auquel l'image passée a été captée et l'instant courant auquel l'image courante a été captée. Ces positions sont connues et sont notées position passée et position courante dans la suite. [0097] The current and past images may be captured by the same camera. The position of the camera may be fixed. Alternatively, the camera may be mobile so that its position changes between the past time at which the past image was captured and the current time at which the current image was captured. These positions are known and are referred to as past position and current position in the following.

[0098] Alternativement, les images courante et passée peuvent être captées par deux caméras, appelées caméra passée et caméra courante dans la suite. Les positions relatives des caméras sont connues. [0098] Alternatively, the current and past images may be captured by two cameras, hereinafter referred to as the past camera and the current camera. The relative positions of the cameras are known.

[0099] Le procédé 100 de la FIGURE 1 comprend une étape 102, optionnelle, de pré-traitement de l'image passée IMP pour y sélectionner les points qui présentent un intérêt. Les points ne présentant pas d'intérêts ne seront pas considérés dans la suite du procédé et ne seront pas sélectionnés comme point cible. [0099] The method 100 of FIGURE 1 comprises an optional step 102 of pre-processing the past image IMP to select therein the points which are of interest. The points which are not of interest will not be considered in the remainder of the method and will not be selected as target points.

[0100] Les points ne présentant pas d'intérêts sont par exemple des points correspondant à une partie du ciel, des points du centre d'une surface monotone et non changeante, etc. Les points qui présentent un intérêt sont par exemple des points d'un contour d'un objet de la scène, tel qu'une personne, ou d'une partie d'un objet, tel que le bras d'une personne, etc. [0101] Le ou les points de la scène dans l'image peuvent être sélectionnés selon toute logique, ou relation. [0100] Points of no interest are, for example, points corresponding to a part of the sky, points of the center of a monotonous and non-changing surface, etc. Points of interest are, for example, points of an outline of an object in the scene, such as a person, or of a part of an object, such as a person's arm, etc. [0101] The point(s) of the scene in the image can be selected according to any logic, or relationship.

[0102] Suivant des modes de réalisation, l'étape 102 de pré-traitement peut comprendre les étapes suivantes : [0102] According to embodiments, the pre-processing step 102 may comprise the following steps:

- une étape 104 d'extraction en chaque point de ladite image d'un gradient spatial par filtrage Sobel ; - a step 104 of extracting at each point of said image a spatial gradient by Sobel filtering;

- une étape 106 de calcul d'une norme Euclidienne du gradient de chaque point ; et - a step 106 of calculating a Euclidean norm of the gradient of each point; and

- une étape 108 de sélection, comme point(s) cible(s), le(s) point(s) dont la norme du gradient est supérieure à un seuil de sélection prédéfini. - a step 108 of selection, as target point(s), the point(s) whose gradient norm is greater than a predefined selection threshold.

[0103] Le gradient spatial peut être calculé sur l'une quelconque des grandeurs mémorisées pour chaque pixel. Alternativement, le gradient spatial peut être calculé sur une grandeur elle-même déduite d'au moins une des grandeurs mémorisées pour chaque pixel. Par exemple, le gradient spatial peut être calculé sur la luminosité, cette dernière pouvant correspondre à une somme pondérée des composants R, G et B pour chaque pixel, dans le cadre d'une image RGB. [0103] The spatial gradient can be calculated on any one of the quantities stored for each pixel. Alternatively, the spatial gradient can be calculated on a quantity itself deduced from at least one of the quantities stored for each pixel. For example, the spatial gradient can be calculated on the brightness, the latter being able to correspond to a weighted sum of the R, G and B components for each pixel, within the framework of an RGB image.

[0104] Le seuil de sélection peut être déterminé par essai. Alternativement, le seuil de sélection peut être calculé en fonction des normes euclidiennes calculées pour tous les points de l'image passée. Par exemple, le seuil de sélection peut correspondre à une moyenne des normes euclidiennes calculées à l'étape 106. [0104] The selection threshold may be determined by trial. Alternatively, the selection threshold may be calculated based on Euclidean norms calculated for all points in the past image. For example, the selection threshold may correspond to an average of the Euclidean norms calculated in step 106.

[0105] Ainsi, les points de l'image passée pour lesquels la phase d'enrichissement sera réalisée sont ceux présentant un intérêt en fonction de la norme du gradient spatial. Comme indiqué plus haut, ces points constituent en général les limites des différents objets de la scène et renseignent bien de l'évolution de la scène. Ainsi, l'image courante sera enrichie pour une partie seulement des points de la scène présentant un intérêt, ce qui permet un enrichissement optimisé de ladite image courante, en termes de temps et des ressources de calcul. De plus, l'image enrichie présentera une taille optimisée. [0105] Thus, the points of the past image for which the enrichment phase will be carried out are those of interest according to the norm of the spatial gradient. As indicated above, these points generally constitute the limits of the different objects of the scene and provide good information on the evolution of the scene. Thus, the current image will be enriched for only part of the points of the scene of interest, which allows an optimized enrichment of said current image, in terms of time and computing resources. In addition, the enriched image will have an optimized size.

[0106] Le procédé 100 comprend une phase 110 d'enrichissement de l'image courante. [0107] Cette phase d'enrichissement est réalisée pour un point de la scène se trouvant dans l'image passée, appelé point cible. Le point cible est choisi parmi les points de la scène se trouvant dans l'image passée sélectionnés à l'étape 102, ou alternativement parmi tous les points de l'image passée lorsque l'étape 102 n'est pas réalisée. [0106] The method 100 comprises a phase 110 of enriching the current image. [0107] This enrichment phase is carried out for a point of the scene located in the past image, called target point. The target point is chosen from the points of the scene located in the past image selected in step 102, or alternatively from all the points of the past image when step 102 is not carried out.

[0108] Lorsque plusieurs points de l'image passée sont concernés, alors la phase d'enrichissement 110 est réalisée individuellement pour chacun de ces points, à tour de rôle ou simultanément. De préférence, la phase d'enrichissement est réalisée pour tous les points sélectionnés lors de l'étape 102. [0108] When several points of the past image are concerned, then the enrichment phase 110 is carried out individually for each of these points, in turn or simultaneously. Preferably, the enrichment phase is carried out for all the points selected during step 102.

[0109] La phase d'enrichissement 110 comprend une étape 112, optionnelle, réalisée lorsque la vitesse dans le plan de l'image est connue pour le point cible dans l'image passée. Cette vitesse peut être connue lorsque l'image passée est elle-même une image enrichie au sens de la présente invention avec une image préalable captée avant l'image passée. Alternativement, la vitesse dans le plan de l'image peut être calculée par une autre technique ou mesurée par un capteur. [0109] The enrichment phase 110 comprises an optional step 112, carried out when the speed in the image plane is known for the target point in the past image. This speed can be known when the past image is itself an enriched image within the meaning of the present invention with a prior image captured before the past image. Alternatively, the speed in the image plane can be calculated by another technique or measured by a sensor.

[0110] L'étape optionnelle 112 détermine, dans l'image courante, une zone cible dans laquelle peut se trouver le point cible. Pour ce faire, une position probable du point cible dans l'image courante est calculée en fonction de : [0110] Optional step 112 determines, in the current image, a target area in which the target point may be located. To do this, a probable position of the target point in the current image is calculated as a function of:

- la position du point cible dans l'image passée, - the position of the target point in the past image,

- la vitesse du point cible dans le plan de l'image passée, et - the speed of the target point in the plane of the past image, and

- la durée écoulée entre l'instant courant et l'instant passé. - the time elapsed between the current time and the past time.

Eventuellement, si les positions courante et passée (depuis lesquelles les images courante et passée ont été acquises) ne sont pas les mêmes, elles sont prises en compte dans le calcul de la position probable du point cible. Puis, une zone est définie autour de la position probable. Cette zone peut être d'une taille prédéterminée, par exemple. Optionally, if the current and past positions (from which the current and past images were acquired) are not the same, they are taken into account in calculating the probable position of the target point. Then, a zone is defined around the probable position. This zone can be of a predetermined size, for example.

[OUI] De préférence, la vitesse utilisée lors de l'étape 112 est la vitesse du point cible, dans le plan de l'image, exprimée dans le repère du capteur. [YES] Preferably, the speed used in step 112 is the speed of the target point, in the image plane, expressed in the sensor frame.

[0112] Lors d'une étape 114, le pixel qui correspond au point cible dans l'image passée, est comparé à un ou des pixels dans l'image courante. La comparaison de deux pixels porte sur une comparaison d'une ou plusieurs des données suivantes respectives de ces pixels : [0112] In a step 114, the pixel which corresponds to the target point in the past image is compared to one or more pixels in the current image. comparison of two pixels involves a comparison of one or more of the following respective data of those pixels:

- couleur, - color,

- teinte, - tint,

- saturation, - saturation,

- texture, - texture,

- luminosité, - brightness,

- etc. - etc.

[0113] Lorsque l'étape 112 est réalisée, la comparaison peut commencer par le pixel correspondant à la position probable, ou par les pixels se trouvant dans la zone cible, identifiée dans l'image courante lors de l'étape 112. Si un pixel de l'image courante correspondant au pixel de la position cible dans l'image passée est identifié, alors la comparaison s'arrête. Dans le cas contraire, la zone cible peut être élargie par pas, ou progressivement, jusqu'à l'étendre potentiellement à toute l'image courante tant que le point cible n'a pas été identifiée dans l'image courante. [0113] When step 112 is performed, the comparison may begin with the pixel corresponding to the probable position, or with the pixels located in the target area, identified in the current image during step 112. If a pixel of the current image corresponding to the pixel of the target position in the past image is identified, then the comparison stops. Otherwise, the target area may be enlarged in steps, or progressively, until potentially extending it to the entire current image as long as the target point has not been identified in the current image.

[0114] Lorsque l'étape 112 n'est pas réalisée, la comparaison peut commencer, de l'image courante, par le pixel de même position que le pixel du point cible dans l'image passée, par toute autre position dans l'image courante. [0114] When step 112 is not performed, the comparison can begin, from the current image, with the pixel of the same position as the pixel of the target point in the past image, with any other position in the current image.

[0115] Si l'étape 114 ne trouve pas le point cible dans l'image courante alors la phase d'enrichissement pour ce point cible est arrêtée. En effet, il est possible que le point cible de la scène apparaissant dans l'image passée n'apparaisse pas dans l'image courante, par exemple parce que ce point est sorti du champ de la caméra. La phase d'enrichissement peut être exécutée pour un autre point cible de l'image passée. [0115] If step 114 does not find the target point in the current image then the enrichment phase for this target point is stopped. Indeed, it is possible that the target point of the scene appearing in the past image does not appear in the current image, for example because this point has left the camera's field of view. The enrichment phase can be executed for another target point of the past image.

[0116] Dans le cas où, l'étape 114 a identifié le point cible dans l'image courante, la position dudit point cible dans l'image courante est mémorisée. Cette position est déterminée dans le repère UV du capteur et est donc exprimée dans ledit repère UV du capteur. [0116] In the case where step 114 has identified the target point in the current image, the position of said target point in the current image is stored. This position is determined in the UV frame of the sensor and is therefore expressed in said UV frame of the sensor.

[0117] A ce stade, la positon du point cible, noté PosP = {uP,vP}, est connue dans l'image passée exprimée dans le repère lié au capteur, et la positon du point cible, noté PosC={uc,vc}, est connue dans l'image courante dans le repère de l'image courante. [0118] La phase d'enrichissement 110 peut comprendre une étape 116, optionnelle, lors de laquelle les positions du point cible dans les images passée et courante sont converties et exprimées dans un repère lié à la scène, et non plus dans le repère lié au capteur. Le repère lié à la scène est noté XY, comme indiqué plus haut [0117] At this stage, the position of the target point, noted PosP = {u P ,v P }, is known in the past image expressed in the frame linked to the sensor, and the position of the target point, noted PosC = {u c ,v c }, is known in the current image in the frame of the current image. [0118] The enrichment phase 110 may comprise an optional step 116 during which the positions of the target point in the past and current images are converted and expressed in a frame of reference linked to the scene, and no longer in the frame of reference linked to the sensor. The frame of reference linked to the scene is denoted XY, as indicated above.

[0119] Cette conversion nécessite de connaître la profondeur associée au point cible, dans le repère lié à la scène. En notant (u,v) les coordonnées d'un point dans le repère lié au capteur, ledit point correspond à 2 angles au et av tels que : [0119] This conversion requires knowing the depth associated with the target point, in the frame linked to the scene. By noting (u,v) the coordinates of a point in the frame linked to the sensor, said point corresponds to 2 angles au and av such that:

- selon la direction X : - according to the X direction:

■ au * f = u ■ au * f = u

■ au * z = - x ■ at * z = - x

- selon la direction Y : - according to the Y direction:

■ av *f = V ■ av *f = V

■ av * z = - y où f est la distance focale du capteur, z la profondeur du point dans l'image, et où (x,y) sont les coordonnées dudit point cible le repère lié à la scène. Ce qui donne : x = - Z * u/f y = - Z * v/f ■ av * z = - y where f is the focal length of the sensor, z is the depth of the point in the image, and where (x,y) are the coordinates of said target point, the reference frame linked to the scene. Which gives: x = - Z * u/f y = - Z * v/f

[0120] Ainsi, en utilisant les relations ci-dessus, il est possible d'exprimer chacune des positions du point dans le repère lié à la scène de sorte que : [0120] Thus, using the above relations, it is possible to express each of the positions of the point in the frame linked to the scene so that:

PosP = {xP,yP}, et PosP = {x P ,y P }, and

PosC = {xc,yc}, et PosC = {xc,y c }, and

[0121] La profondeur z du point cible peut être déterminée par tout moyen : par exemple mesurée par un capteur, ou déterminée par calcul. [0121] The depth z of the target point can be determined by any means: for example measured by a sensor, or determined by calculation.

[0122] Ainsi, l'étape optionnelle 116 fournit la position du point cible, notée p0Spscene = {Xp,YP} dans l'image passée exprimée le repère de la scène et la position du point cible, notée PosCscene={Xc,Yc}, dans l'image courante exprimée le repère de la scène. Ces positions peuvent être mémorisées. [0123] La phase d'enrichissement 110 comprend une étape 118 lors de laquelle la vitesse du point cible dans le plan de l'image courante est calculée en fonction : [0122] Thus, the optional step 116 provides the position of the target point, denoted p 0S p scene = {Xp,Y P } in the past image expressed as the scene reference and the position of the target point, denoted PosC scene = {X c ,Y c }, in the current image expressed as the scene reference. These positions can be stored. [0123] The enrichment phase 110 comprises a step 118 during which the speed of the target point in the plane of the current image is calculated as a function of:

- de la position dudit point cible dans l'image courante, - the position of said target point in the current image,

- de la position dudit point cible dans l'image passée, et - the position of said target point in the past image, and

- de la durée D écoulée entre les instants passés et courant ; par exemple en utilisant la relation : - of the duration D elapsed between the past and current instants; for example using the relation:

VitC=(PosC-PosP)/D VitC=(PosC-PosP)/D

[0124] Lors de cette étape 118, il est possible de calculer la vitesse du point cible exprimée dans le repère UV lié au capteur. Pour ce faire, la vitesse est calculée en utilisant les positions PosC et PosP du point cible exprimées dans le repère UV lié au capteur, comme obtenues à l'étape 114. La vitesse ainsi calculée est un vecteur vitesse, qui peut être noté VitCuv={VitCu,VitCv}, comprenant deux valeurs : une première valeur VitCu donnant la vitesse du point cible dans la direction U et une deuxième valeur VitCv donnant la vitesse du point cible dans la direction V. [0124] During this step 118, it is possible to calculate the speed of the target point expressed in the UV frame linked to the sensor. To do this, the speed is calculated using the positions PosC and PosP of the target point expressed in the UV frame linked to the sensor, as obtained in step 114. The speed thus calculated is a speed vector, which can be noted VitCuv={VitCu,VitCv}, comprising two values: a first value VitCu giving the speed of the target point in the direction U and a second value VitCv giving the speed of the target point in the direction V.

[0125] Alternativement ou en plus, lors de cette étape 118, il est possible de calculer la vitesse du point cible exprimée dans le repère XY lié à la scène. Pour ce faire, la vitesse est calculée en utilisant les positions PosC et PosP du point cible exprimées dans ledit repère XY lié à la scène, comme obtenues à l'étape 116. La vitesse ainsi calculée est un vecteur vitesse, qui peut être noté VitCxY={VitCx,VitCv}, comprenant deux valeurs : une première valeur VitCx donnant la vitesse du point cible dans la direction X et une deuxième valeur VitCy donnant la vitesse du point cible dans la direction V. [0125] Alternatively or in addition, during this step 118, it is possible to calculate the speed of the target point expressed in the XY frame linked to the scene. To do this, the speed is calculated using the positions PosC and PosP of the target point expressed in said XY frame linked to the scene, as obtained in step 116. The speed thus calculated is a speed vector, which can be denoted VitCxY={VitCx,VitCv}, comprising two values: a first value VitCx giving the speed of the target point in the X direction and a second value VitCy giving the speed of the target point in the V direction.

[0126] Ainsi, l'étape 118 calcule et fournit: [0126] Thus, step 118 calculates and provides:

- soit la vitesse du point cible, dans le plan de l'image, exprimée dans le repère lié à la scène, - either the speed of the target point, in the image plane, expressed in the frame linked to the scene,

- soit la vitesse du point cible, dans le plan de l'image, exprimée dans le repère lié au capteur, - either the speed of the target point, in the image plane, expressed in the frame linked to the sensor,

- ou encore les deux. - or both.

[0127] La, ou au moins une de ces vitesses, peut être ajoutée aux données du pixel correspondant au point cible dans l'image courante, pour enrichir l'image courante. [0128] La phase d'enrichissement 110 peut comprendre une étape 120, optionnelle, de calcul d'une vitesse, notée VitCz, dans la direction perpendiculaire au plan d'image. De préférence, et sans aucune perte de généralité, cette vitesse peut être exprimée dans le repère lié à la scène. [0127] The, or at least one of these speeds, can be added to the data of the pixel corresponding to the target point in the current image, to enrich the current image. [0128] The enrichment phase 110 may comprise an optional step 120 of calculating a speed, denoted VitCz, in the direction perpendicular to the image plane. Preferably, and without any loss of generality, this speed may be expressed in the frame of reference linked to the scene.

[0129] La vitesse VitCz peut être calculée en fonction : [0129] The speed VitCz can be calculated based on:

- d'une profondeur, notée ProfC, du point cible dans l'image courante,- a depth, noted ProfC, of the target point in the current image,

- d'une profondeur, notée ProfP, du point cible dans l'image passée, et- a depth, noted ProfP, of the target point in the past image, and

- de la durée D écoulée entre l'instant passé et l'instant courant ; par exemple en utilisant la relation : - of the duration D elapsed between the past instant and the current instant; for example by using the relation:

VitCz=(ProfC-ProfP)/D VitCz=(ProfC-ProfP)/D

[0130] Pour chacune des images courante et passée, la profondeur du point cible correspond à la distance entre la caméra et le point cible. Comme indiqué plus haut, cette profondeur peut être mesurée par un capteur, tel qu'un radar ou un lidar ou une caméra temps de vol. Alternativement, la profondeur peut être fournie par la caméra, en particulier lorsque la caméra est une caméra 3D. Suivant encore une autre alternative, la profondeur peut être calculée par des techniques connues de triangulation en fonction des positions du point cible dans l'image courante IMC et dans l'image passée IMP. Cette valeur de vitesse VitCz peut être ajoutée aux données du pixel correspondant au point cible dans l'image courante IMC, pour enrichir l'image courante IMC. Alternativement, la vitesse VitCz peut être utilisée en association avec le vecteur vitesse VitCxv ou VitCuv pour obtenir un vecteur vitesse à trois dimensions. Ce vecteur vitesse tridimensionnel peut être ajouté aux données du pixel correspondant au point cible dans l'image courante, pour enrichir l'image courante. [0130] For each of the current and past images, the depth of the target point corresponds to the distance between the camera and the target point. As indicated above, this depth can be measured by a sensor, such as a radar or a lidar or a time-of-flight camera. Alternatively, the depth can be provided by the camera, in particular when the camera is a 3D camera. According to yet another alternative, the depth can be calculated by known triangulation techniques as a function of the positions of the target point in the current image IMC and in the past image IMP. This speed value VitCz can be added to the data of the pixel corresponding to the target point in the current image IMC, to enrich the current image IMC. Alternatively, the speed VitCz can be used in association with the speed vector VitCxv or VitCuv to obtain a three-dimensional speed vector. This three-dimensional speed vector can be added to the data of the pixel corresponding to the target point in the current image, to enrich the current image.

[0131] De manière optionnelle, la phase d'enrichissement 110 peut comprendre une étape 122 lors de laquelle une accélération du point cible peut être calculée en fonction : [0131] Optionally, the enrichment phase 110 may comprise a step 122 during which an acceleration of the target point may be calculated as a function of:

- de la vitesse du point cible dans l'image courante, notée Vite, - de la vitesse dudit point cible dans l'image passée, notée VitP, et- the speed of the target point in the current image, noted Vite, - the speed of said target point in the past image, noted VitP, and

- de la durée D écoulée entre les instants passé et courant ; par exemple en utilisant la relation : - of the duration D elapsed between the past and current instants; for example using the relation:

AccC=(VitC-VitP)/D [0132] La vitesse Vite du point cible dans l'image courante a été déterminée préalablement (lors de l'étape 118, et éventuellement l'étape 120, de la phase d'enrichissement 110). La vitesse VitP du point cible dans l'image passée peut être fournie dans l'image passée. En particulier si l'image passée est une image enrichie selon l'invention, la vitesse VitP peut avoir été mémorisée dans l'image passée et se trouver dans les données du pixel correspondant au point cible dans l'image passée. AccC=(VitC-VitP)/D [0132] The speed Vite of the target point in the current image has been determined previously (during step 118, and possibly step 120, of the enrichment phase 110). The speed VitP of the target point in the past image can be provided in the past image. In particular if the past image is an image enriched according to the invention, the speed VitP can have been stored in the past image and be found in the data of the pixel corresponding to the target point in the past image.

[0133] Cette étape 122 peut calculer l'accélération dans le repère lié au capteur d'image en utilisant les vitesses exprimées dans ledit repère lié au capteur. Alternativement, ou en plus, l'étape 122 peut calculer l'accélération dans le repère lié à la scène en utilisant les vitesses exprimées dans ledit repère lié à la scène. [0133] This step 122 can calculate the acceleration in the frame linked to the image sensor by using the speeds expressed in said frame linked to the sensor. Alternatively, or in addition, step 122 can calculate the acceleration in the frame linked to the scene by using the speeds expressed in said frame linked to the scene.

[0134] Quelque soit le repère, lorsque les vitesses courantes et passées sont des vitesses dans le plan de l'image, plan XY ou UV, alors l'accélération calculée sera l'accélération dans le plan de l'image. Lorsque les vitesses courantes et passées sont des vitesses dans la direction perpendiculaire au plan de l'image, alors l'accélération calculée sera l'accélération dans ladite direction. Suivant encore une autre alternative, les vitesses courantes et passées peuvent être des vecteurs vitesse tridimensionnels donnant la vitesse du plan cible dans chacune des trois directions : dans ce cas l'accélération calculée AccC donne l'accélération du point cible dans chacune de ces trois directions. [0134] Whatever the reference frame, when the current and past speeds are speeds in the image plane, XY or UV plane, then the calculated acceleration will be the acceleration in the image plane. When the current and past speeds are speeds in the direction perpendicular to the image plane, then the calculated acceleration will be the acceleration in said direction. According to yet another alternative, the current and past speeds can be three-dimensional speed vectors giving the speed of the target plane in each of the three directions: in this case the calculated acceleration AccC gives the acceleration of the target point in each of these three directions.

[0135] Ainsi, l'étape 122 fournit une ou plusieurs des données d'accélération indiquées ci-dessus. [0135] Thus, step 122 provides one or more of the acceleration data indicated above.

[0136] La phase d'enrichissement 110 comprend une étape 124 d'enrichissement de l'image courante IMC avec : [0136] The enrichment phase 110 comprises a step 124 of enriching the current IMC image with:

- au moins une des données de vitesse calculées à l'étape 118, et éventuellement à l'étape 120 ; et - at least one of the speed data calculated in step 118, and possibly in step 120; and

- éventuellement, avec au moins une des données d'accélération calculées à l'étape 122. - optionally, with at least one of the acceleration data calculated in step 122.

[0137] L'enrichissement de l'image courante peut être réalisée en inscrivant cette ou ces données directement dans l'image, en particulier avec les données du pixel correspondant au point cible. Alternativement, l'enrichissement de l'image courante peut être réalisé en inscrivant cette ou ces données dans une matrice séparée. [0137] The enrichment of the current image can be carried out by writing this or these data directly into the image, in particular with the data of the pixel corresponding to the target point. Alternatively, Enrichment of the current image can be achieved by entering this or these data in a separate matrix.

[0138] En particulier, pour au moins point cible, l'image courante peut être enrichie avec une donnée de vitesse donnant la vitesse du point cible dans le plan d'image, exprimée dans le repère lié au capteur d'image. [0138] In particular, for at least one target point, the current image can be enriched with speed data giving the speed of the target point in the image plane, expressed in the frame linked to the image sensor.

[0139] Alternativement, ou en plus, pour au moins point cible, l'image courante peut être enrichie avec une donnée de vitesse donnant la vitesse du point cible dans le plan d'image, exprimée dans le repère lié à la scène. [0139] Alternatively, or in addition, for at least one target point, the current image can be enriched with speed data giving the speed of the target point in the image plane, expressed in the frame linked to the scene.

[0140] Optionnellement, l'image courante peut être enrichie avec une donnée de vitesse donnant la vitesse du point cible dans la direction de profondeur, par exemple dans la direction notée Z dans le repère lié à la scène. [0140] Optionally, the current image can be enriched with speed data giving the speed of the target point in the depth direction, for example in the direction noted Z in the frame linked to the scene.

[0141] Optionnellement, l'image courante peut être enrichie avec une donnée d'accélération, donnant l'accélération du point cible, dans le plan d'image, exprimée dans le repère du capteur d'image. [0141] Optionally, the current image can be enriched with acceleration data, giving the acceleration of the target point, in the image plane, expressed in the frame of reference of the image sensor.

[0142] Optionnellement, l'image courante peut être enrichie avec une donnée d'accélération, donnant l'accélération du point cible, dans le plan d'image, exprimée dans le repère lié à la scène. [0142] Optionally, the current image can be enriched with acceleration data, giving the acceleration of the target point, in the image plane, expressed in the frame linked to the scene.

[0143] Optionnellement, l'image courante peut être enrichie avec une donnée d'accélération donnant l'accélération du point cible, dans la direction de profondeur, par exemple dans la direction notée Z dans le repère lié à la scène. [0143] Optionally, the current image can be enriched with acceleration data giving the acceleration of the target point, in the depth direction, for example in the direction noted Z in the reference frame linked to the scene.

[0144] Le repère lié à la scène peut être tout type de repère. [0144] The scene-related marker can be any type of marker.

[0145] Par exemple, il est possible de travailler dans un repère associé à l'observateur. Ce cas relatif, permet de connaître la vitesse relative des éléments autour de l'observateur, et aussi en particulier la propre vitesse de l'observateur par rapport à la scène. [0145] For example, it is possible to work in a frame associated with the observer. This relative case makes it possible to know the relative speed of the elements around the observer, and also in particular the observer's own speed in relation to the scene.

[0146] Alternativement, il est possible de travailler dans un repère associé à un point fixe de la scène. Dans ce cas, appelé cas absolu, le calcul des différentes données nécessite de connaître la position de l'observateur, et en particulier sa vitesse. Ce cas absolu, permet connaître la vitesse des objets de la scène, dans le référentiel de la scène. Ce qui donne la possibilité de calculer leur trajectoire dans ce référentiel directement, pour des couches de prise de décision et utilisation des données ultérieures. [0146] Alternatively, it is possible to work in a frame associated with a fixed point in the scene. In this case, called the absolute case, the calculation of the various data requires knowing the position of the observer, and in particular his speed. This absolute case makes it possible to know the speed of the objects in the scene, in the frame of reference of the scene. Which gives the possibility of calculate their trajectory in this reference frame directly, for subsequent decision-making layers and data use.

[0147] Le fait d'enrichir l'image avec des données exprimées dans un repère lié à l'observateur peut être utile dans diverses applications, en particulier dans des applications de suivi d'objet par exemple. Le fait d'enrichir l'image avec des données exprimées dans un repère lié à la scène peut être utile dans ces mêmes applications, ou d'autres applications, en particulier dans des applications de calcul de trajectoire, ou de commande d'un véhicule, d'assistance à la conduite, etc. [0147] Enriching the image with data expressed in a frame of reference linked to the observer can be useful in various applications, in particular in object tracking applications for example. Enriching the image with data expressed in a frame of reference linked to the scene can be useful in these same applications, or other applications, in particular in trajectory calculation applications, or vehicle control, driving assistance, etc.

[0148] La phase d'enrichissement 110 prend fin, pour le point cible considéré, et peut être réitérée pour traiter un autre point cible et enrichir l'image courante IMC pour ledit autre point cible. Et ainsi de suite. [0148] The enrichment phase 110 ends, for the target point considered, and can be repeated to process another target point and enrich the current IMC image for said other target point. And so on.

[0149] Au moins deux points cibles peuvent être traités à tour de rôle. Alternativement, et de préférence, au moins deux points cibles peuvent être traités simultanément. [0149] At least two target points may be processed in turn. Alternatively, and preferably, at least two target points may be processed simultaneously.

[0150] Lorsque tous les points cibles ont été traités, une image courante enrichie, notée IMC*, est fournie. [0150] When all target points have been processed, an enriched current image, denoted IMC*, is provided.

[0151] Cette image courante enrichie IMC* peut ensuite être utilisée, comme image passée, pour enrichir une nouvelle image courante acquise à un instant postérieur à l'instant courant. Ainsi de suite. [0151] This enriched current image IMC* can then be used, as a past image, to enrich a new current image acquired at a time after the current time. And so on.

[0152] Le procédé 100 de la FIGURE 1, et de manière générale le procédé selon l'invention, peut fournir : [0152] The method 100 of FIGURE 1, and generally the method according to the invention, can provide:

- une image enrichie avec des données exprimées dans le repère lié au capteur, et/ou - an image enriched with data expressed in the frame linked to the sensor, and/or

- une image enrichie avec des données exprimées dans le repère lié à la scène ; et/ou - an image enriched with data expressed in the reference frame linked to the scene; and/or

- une image enrichie avec des données exprimées dans le repère lié au capteur et des données exprimées dans le repère lié à la scène. [0153] La FIGURE 2 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé d'enrichissement d'un flux d'image selon la présente invention. - an image enriched with data expressed in the frame linked to the sensor and data expressed in the frame linked to the scene. [0153] FIGURE 2 is a schematic representation of a non-limiting exemplary embodiment of a method for enriching an image stream according to the present invention.

[0154] Le procédé 200 de la FIGURE 2 peut être utilisé pour enrichir un flux d'images 202 provenant d'une ou de plusieurs caméras, au sein d'un véhicule. En particulier, et sans perte de généralité, le flux d'images 202 est une vidéo provenant d'une seule caméra. [0154] The method 200 of FIGURE 2 may be used to enrich an image stream 202 from one or more cameras, within a vehicle. In particular, and without loss of generality, the image stream 202 is a video from a single camera.

[0155] Le flux d'images 202 est formé d'une pluralité d'images 202i-202m acquises les unes après les autres, dans le temps, et à une fréquence donnée, par exemple à une fréquence de 24 images par seconde. [0155] The image stream 202 is formed from a plurality of images 202i- 202m acquired one after the other, over time, and at a given frequency, for example at a frequency of 24 images per second.

[0156] L'image 202i est la première image du flux 202 et elle n'est pas enrichie par le procédé selon l'invention. L'image 202i est cependant utilisée, en tant qu'imagé passée, pour enrichir l'image 2022, considérée comme image courante. L'image 202i est l'image qui précède immédiatement l'image 2022, dans le flux 202. Le traitement de l'image 2022 par le procédé selon l'invention fournit une image enrichie notée 2022*. [0156] Image 202i is the first image of stream 202 and it is not enriched by the method according to the invention. Image 202i is however used, as a past image, to enrich image 2022, considered as the current image. Image 202i is the image which immediately precedes image 2022, in stream 202. The processing of image 2022 by the method according to the invention provides an enriched image denoted 2022*.

[0157] Ensuite, l'image 202s est traitée par le procédé selon l'invention, en tant qu'imagé courante. L'image passée utilisée pour enrichir l'image courante 202s peut être l'image 2022, ou de préférence l'image enrichie 2022*. Le traitement de l'image 202s fournit une image enrichie 202s*. Ainsi de suite pour obtenir un flux d'images enrichi 202* formé par les images 202i, 2022*- 202m*. [0157] Then, the image 202s is processed by the method according to the invention, as a current image. The past image used to enrich the current image 202s can be the image 2022, or preferably the enriched image 2022*. The processing of the image 202s provides an enriched image 202s*. And so on to obtain an enriched image stream 202* formed by the images 202i, 2022*- 202m*.

[0158] Dans l'exemple montré sur la FIGURE 2, chaque image du flux d'image 202 est traitée, à l'exception de la première image 202i. [0158] In the example shown in FIGURE 2, each image of the image stream 202 is processed, except for the first image 202i.

[0159] Alternativement, une partie seulement des images du flux d'images 202 peut être traitée. Par exemple, sans perte de généralité, le flux d'images 202 peut être enrichie toutes les N images, avec N>2, ou suivant encore une autre fréquence, constante ou variable. [0159] Alternatively, only a portion of the images in the image stream 202 may be processed. For example, without loss of generality, the image stream 202 may be enriched every N images, with N>2, or at yet another frequency, constant or variable.

[0160] La FIGURE 3 est une représentation schématique d'un exemple de réalisation non limitatif d'un dispositif d'enrichissement d'image(s) selon la présente invention, prévu pour être intégré dans un véhicule. [0161] Le dispositif 300 de la FIGURE 3 peut être utilisé pour enrichir une image, respectivement un flux d'images. [0160] FIGURE 3 is a schematic representation of a non-limiting exemplary embodiment of an image(s) enrichment device according to the present invention, intended to be integrated into a vehicle. [0161] The device 300 of FIGURE 3 can be used to enrich an image, respectively a stream of images.

[0162] Le dispositif 300 est configuré pour mettre en œuvre le procédé selon l'invention, et en particulier le procédé 100 de la FIGURE 1 pour enrichir une image ou le procédé 200 de la FIGURE 2. [0162] The device 300 is configured to implement the method according to the invention, and in particular the method 100 of FIGURE 1 for enriching an image or the method 200 of FIGURE 2.

[0163] Le dispositif 300 comprend, optionnellement, un module 302 pour pré-traiter l'image passée, en vue de sélectionner les points cibles qui présentent un intérêt. En particulier, le module de pré-traitement 302 est configuré pour mettre en œuvre l'étape 102 du procédé 100 de la FIGURE 1. [0164] Le dispositif 300 comprend un module 304 d'enrichissement de l'image courante IMC. Le module d'enrichissement 304 peut être configuré pour mettre en œuvre la phase d'enrichissement du procédé selon l'invention et en particulier la phase 110 du procédé 100 de la FIGURE 1. [0163] The device 300 optionally comprises a module 302 for pre-processing the past image, with a view to selecting the target points that are of interest. In particular, the pre-processing module 302 is configured to implement step 102 of the method 100 of FIGURE 1. [0164] The device 300 comprises a module 304 for enriching the current IMC image. The enrichment module 304 may be configured to implement the enrichment phase of the method according to the invention and in particular phase 110 of the method 100 of FIGURE 1.

[0165] Le module 304 peut optionnellement comprendre un module 306 de détermination d'une zone cible dans l'image courante IMC. En particulier, le module 304 peut être configuré pour mettre en œuvre l'étape 112 du procédé 100 de la FIGURE 1. [0165] The module 304 may optionally comprise a module 306 for determining a target area in the current IMC image. In particular, the module 304 may be configured to implement step 112 of the method 100 of FIGURE 1.

[0166] Le module d'enrichissement 304 comprend un module 308 d'identification du point cible dans l'image courante IMC. En particulier, le module 308 peut être configuré pour mettre en œuvre l'étape 114 du procédé 100 de la FIGURE 1. [0166] The enrichment module 304 comprises a module 308 for identifying the target point in the current IMC image. In particular, the module 308 can be configured to implement step 114 of the method 100 of FIGURE 1.

[0167] Le module 304 peut optionnellement comprendre un module 310 de conversion de coordonnées d'un point cible pour l'exprimer dans un repère associé à la scène. En particulier, le module 310 peut être configuré pour mettre en œuvre l'étape 116 du procédé 100 de la FIGURE 1. [0167] The module 304 may optionally comprise a module 310 for converting coordinates of a target point to express it in a reference frame associated with the scene. In particular, the module 310 may be configured to implement step 116 of the method 100 of FIGURE 1.

[0168] Le module d'enrichissement 304 comprend un module 312 de calcul de vitesse du point cible dans l'image courante IMC. En particulier, le module 312 peut être configuré pour mettre en œuvre l'étape 118, et le cas échéant l'étape optionnelle 120, du procédé 100 de la FIGURE 1. [0168] The enrichment module 304 comprises a module 312 for calculating the speed of the target point in the current IMC image. In particular, the module 312 can be configured to implement step 118, and where appropriate the optional step 120, of the method 100 of FIGURE 1.

[0169] Le module d'enrichissement 304 peut optionnellement comprendre un module 314 de calcul d'accélération du point cible dans l'image courante IMC. En particulier, le module 314 peut être configuré pour mettre en œuvre l'étape 122 du procédé 100 de la FIGURE 1. [0170] Le module d'enrichissement 304 comprend un module 316 pour ajouter, dans l'image courante IMC, au moins une donnée de vitesse et éventuellement au moins une donnée d'accélération. En particulier, le module 316 peut être configuré pour mettre en œuvre l'étape 124 du procédé 100 de la FIGURE 1. [0169] The enrichment module 304 may optionally comprise a module 314 for calculating the acceleration of the target point in the current IMC image. In particular, the module 314 may be configured to implement step 122 of the method 100 of FIGURE 1. [0170] The enrichment module 304 comprises a module 316 for adding, in the current image IMC, at least one speed data item and possibly at least one acceleration data item. In particular, the module 316 can be configured to implement step 124 of the method 100 of FIGURE 1.

[0171] Au moins un des modules 302-316 peut être un module individuel, indépendant des autres modules. Alternativement, au moins deux des modules 302-316 peuvent être intégrés dans un même module. En particulier, tous les modules du dispositif 300 peuvent être intégrés dans un même module. [0171] At least one of the modules 302-316 may be an individual module, independent of the other modules. Alternatively, at least two of the modules 302-316 may be integrated into the same module. In particular, all the modules of the device 300 may be integrated into the same module.

[0172] Au moins un des modules 302-316 peut être un module matériel, tel qu'un processeur, une puce électronique, une carte graphique, un calculateur, etc. [0172] At least one of the modules 302-316 may be a hardware module, such as a processor, an electronic chip, a graphics card, a computer, etc.

[0173] Alternativement, au moins un des modules 302-316 peut être un module logiciel exécuté par au moins un moyen informatique. [0173] Alternatively, at least one of the modules 302-316 may be a software module executed by at least one computer means.

[0174] Suivant encore une autre alternative au moins un des modules 302- 316 peut être une combinaison d'au moins un module matériel avec au moins un module logiciel. [0174] According to yet another alternative at least one of the modules 302-316 may be a combination of at least one hardware module with at least one software module.

[0175] La configuration d'un, ou de chacun, des modules 302-316 peut être une configuration logicielle, telle qu'une application, ou un programme d'ordinateur, chargé(e) dans ledit module, et/ou une configuration matérielle telle qu'une architecture matérielle spécifique. [0175] The configuration of one, or each, of the modules 302-316 may be a software configuration, such as an application, or a computer program, loaded into said module, and/or a hardware configuration such as a specific hardware architecture.

[0176] La FIGURE 4 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon la présente invention. [0176] FIGURE 4 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.

[0177] Le véhicule 400 de la FIGURE 4 peut être tout type de véhicule terrestre, tel que par exemple une voiture, un camion, etc. [0177] The vehicle 400 of FIGURE 4 may be any type of land vehicle, such as for example a car, a truck, etc.

[0178] Le véhicule 400 peut être un véhicule autonome ou non. [0178] The vehicle 400 may or may not be an autonomous vehicle.

[0179] Le véhicule 400 est équipé de : [0179] The vehicle 400 is equipped with:

- au moins un module caméra 402, et - at least one camera module 402, and

- au moins une unité de traitement 404. [0180] Le module caméra 402 peut comprendre au moins un objectif optique et au moins un capteur d'image, par exemple un capteur CCD ou CMOS. Le module caméra 402 permet de capter des images ou une vidéo formée par un flux d'images. - at least one processing unit 404. [0180] The camera module 402 may comprise at least one optical lens and at least one image sensor, for example a CCD or CMOS sensor. The camera module 402 makes it possible to capture images or a video formed by a stream of images.

[0181] L'une unité de traitement 404 peut par exemple être le dispositif 300 de la FIGURE 3, pour enrichir une ou des images captées par le module caméra 402 [0181] The processing unit 404 may for example be the device 300 of FIGURE 3, to enrich one or more images captured by the camera module 402.

[0182] Bien entendu, le module caméra 402 et l'unité de traitement 404 peuvent être disposés à tout emplacement adéquat dans le véhicule. Dans l'exemple représenté, le module caméra 402 est disposé en partie avant du véhicule et permet d'imager la scène se trouvant devant le véhicule. [0182] Of course, the camera module 402 and the processing unit 404 can be arranged at any suitable location in the vehicle. In the example shown, the camera module 402 is arranged in the front part of the vehicle and makes it possible to image the scene in front of the vehicle.

[0183] L'unité de traitement 404 peut être une unité individuelle et indépendante. Alternativement, l'unité de traitement 404 peut être intégrée dans un calculateur ou une unité de gestion (non représentée) du véhicule 400. [0183] The processing unit 404 may be an individual and independent unit. Alternatively, the processing unit 404 may be integrated into a computer or a management unit (not shown) of the vehicle 400.

[0184] Le véhicule 400 peut en comprendre une unité 406 d'assistance à la conduite, recevant les images enrichies de la part de l'unité de traitement 404, et fournissant des consignes de conduite soit au conducteur du véhicule, soit directement à des organes du véhicule, à partir desdites images enrichies. [0184] The vehicle 400 may comprise a driving assistance unit 406, receiving the enriched images from the processing unit 404, and providing driving instructions either to the driver of the vehicle, or directly to components of the vehicle, from said enriched images.

[0185] Bien entendu l'invention n'est pas limitée aux exemples qui viennent d'être décrits. [0185] Of course, the invention is not limited to the examples which have just been described.

Claims

REVENDICATIONS 1. Procédé (100), mis en œuvre au sein d'un véhicule, d'enrichissement d'une image (IMC), dite image courante, d'une scène, captée à un instant, dit instant courant, ledit procédé (100) comprenant, pour au moins un point cible de ladite scène apparaissant sur une image (IMP), dite passée, de ladite scène captée à un instant passé par rapport audit instant courant, une phase (110) d'enrichissement de l'image courante (IMC) comprenant les étapes suivantes : 1. Method (100), implemented within a vehicle, for enriching an image (IMC), called current image, of a scene, captured at an instant, called current instant, said method (100) comprising, for at least one target point of said scene appearing on an image (IMP), called past, of said scene captured at an instant past relative to said current instant, a phase (110) of enriching the current image (IMC) comprising the following steps: - identification (114) dudit point cible dans l'image courante (IMC) ;- identification (114) of said target point in the current image (IMC); - calcul d'une vitesse dudit point cible, dans le plan de l'image courante, en fonction des positions dudit point cible sur lesdites images courante (IMC) et passée (IMP), et du temps écoulé entre lesdits instants courant et passé ; et - calculation of a speed of said target point, in the plane of the current image, as a function of the positions of said target point on said current (IMC) and past (IMP) images, and of the time elapsed between said current and past instants; and - enrichissement (124) de ladite image courante par ajout, dans ladite image courante (IMC) et en association avec ledit point cible, d'une donnée de vitesse comprenant ladite vitesse calculée. - enrichment (124) of said current image by adding, in said current image (IMC) and in association with said target point, speed data comprising said calculated speed. 2. Procédé (100) selon la revendication précédente, caractérisé en ce que, pour au moins un point cible, la vitesse est calculée dans un repère lié au capteur d'image utilisé pour capter l'image courante, l'image courante étant enrichie avec ladite vitesse. 2. Method (100) according to the preceding claim, characterized in that, for at least one target point, the speed is calculated in a reference frame linked to the image sensor used to capture the current image, the current image being enriched with said speed. 3. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour au moins un point cible, la vitesse est calculée dans un repère lié à la scène, l'image courante étant enrichie avec ladite vitesse. 3. Method (100) according to any one of the preceding claims, characterized in that, for at least one target point, the speed is calculated in a reference frame linked to the scene, the current image being enriched with said speed. 4. Procédé la revendication précédente, caractérisé en ce qu'il la phase d'enrichissement comprend en outre, avant l'étape de calcul de vitesse, une étape (116) pour exprimer les positions du point cible dans l'image courante (IMC) et dans l'image passée (IMP), dans le repère associé à la scène, le calcul de la vitesse exprimée dans le repère lié à la scène étant réalisée en fonction desdites positions dans ledit repère associé à la scène. 4. Method of the preceding claim, characterized in that the enrichment phase further comprises, before the speed calculation step, a step (116) for expressing the positions of the target point in the current image (IMC) and in the past image (IMP), in the frame of reference associated with the scene, the calculation of the speed expressed in the frame of reference linked to the scene being carried out as a function of said positions in said frame of reference associated with the scene. 5. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la vitesse comprend la vitesse dans le plan d'image. 5. Method (100) according to any one of the preceding claims, characterized in that the speed comprises the speed in the image plane. 6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la vitesse comprend la vitesse dans une direction perpendiculaire au plan d'image. 6. A method (100) according to any preceding claim, characterized in that the speed comprises the speed in a direction perpendicular to the image plane. 7. Procédé (100) selon la revendication précédente, caractérisé en ce que, pour au moins un point cible, la phase d'enrichissement (110) comprend en outre les étapes suivantes : 7. Method (100) according to the preceding claim, characterized in that, for at least one target point, the enrichment phase (110) further comprises the following steps: - calcul (122) d'une accélération dudit point cible en fonction d'une vitesse dudit point cible dans chacune desdites images courante (IMC) et passée (IMP), et du temps écoulé entre lesdits instants courant et passé ; et - calculation (122) of an acceleration of said target point as a function of a speed of said target point in each of said current (IMC) and past (IMP) images, and of the time elapsed between said current and past instants; and - enrichissement (124) de l'image courante (IMC) par ajout de ladite accélération dans ladite image courante (IMC) en association avec ledit point cible. - enrichment (124) of the current image (IMC) by adding said acceleration in said current image (IMC) in association with said target point. 8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape d'identification (114) du point cible dans l'image courante (IMC) comprend une comparaison du point cible dans l'image passée à au moins un point dans l'image courante (IMC), ladite comparaison portant sur au moins une des données suivantes associées auxdits points : 8. Method (100) according to any one of the preceding claims, characterized in that the step of identifying (114) the target point in the current image (IMC) comprises a comparison of the target point in the past image to at least one point in the current image (IMC), said comparison relating to at least one of the following data associated with said points: - donnée de couleur, - color data, - donnée de texture, - texture data, - donnée luminosité, - brightness data, - donnée de teinte, - color data, - donnée de saturation, - saturation data, - donnée RGB. - RGB data. 9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'enrichissement (110) comprend, préalablement à l'étape d'identification (114) comparaison, une étape (112) de détermination d'une zone cible dans ladite image courante, le point cible étant recherchée dans ladite zone cible de ladite image courante. 9. Method (100) according to any one of the preceding claims, characterized in that the enrichment phase (110) comprises, prior to the identification comparison step (114), a step (112) determining a target area in said current image, the target point being searched for in said target area of said current image. 10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la phase d'enrichissement (110) est mise en œuvre pour plusieurs points, et en particulier tous les points, dans l'image passée. 10. Method (100) according to any one of the preceding claims, characterized in that the enrichment phase (110) is implemented for several points, and in particular all the points, in the past image. 11. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une étape (102) de pré-traitement de l'image passée, pour sélectionner le ou les points cibles, ladite étape de prétraitement (102) comprenant les étapes suivantes : 11. Method (100) according to any one of the preceding claims, characterized in that it comprises a step (102) of pre-processing the past image, to select the target point(s), said pre-processing step (102) comprising the following steps: - extraction (104), en chaque point de ladite image passée (IMP), d'un gradient spatial, en particulier par dérivation de ladite image passée (IMP), et encore plus particulièrement par filtrage Sobel ;- extraction (104), at each point of said past image (IMP), of a spatial gradient, in particular by derivation of said past image (IMP), and even more particularly by Sobel filtering; - calcul (106) d'une norme du gradient de chaque point, en particulier la norme Euclidienne ; - calculation (106) of a norm of the gradient of each point, in particular the Euclidean norm; - sélection (108), comme point(s) cible(s), le(s) point(s) dont la norme du gradient est supérieure à un seuil prédéfini. - selection (108), as target point(s), the point(s) whose gradient norm is greater than a predefined threshold. 12. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il est mis en œuvre pour enrichir les images d'un flux d'images (202) d'une scène, ledit flux d'images étant fourni par une même caméra ou plusieurs caméras dont les positions relatives sont connues. 12. Method (100) according to any one of the preceding claims, characterized in that it is implemented to enrich the images of an image stream (202) of a scene, said image stream being provided by the same camera or several cameras whose relative positions are known. 13. Image enrichie (IMC*) d'une scène, mémorisée sur un moyen de mémorisation, obtenue par le procédé (100) selon l'une quelconque des revendications précédentes. 13. Enriched image (IMC*) of a scene, stored on a storage means, obtained by the method (100) according to any one of the preceding claims. 14. Utilisation, au sein d'un véhicule, d'images enrichies d'une scène selon la revendication précédente, pour l'identification d'un point cible de ladite scène se trouvant dans une première image enrichie de ladite scène, dans une deuxième image enrichie de ladite scène, ladite identification comprenant une comparaison d'une donnée de vitesse associée audit point cible dans la première image à une donnée de vitesse d'au moins un point dans ladite deuxième image enrichie. 14. Use, within a vehicle, of enriched images of a scene according to the preceding claim, for the identification of a target point of said scene located in a first enriched image of said scene, in a second enriched image of said scene, said identification comprising a comparison of speed data associated with said target point in the first image at a speed data of at least one point in said enriched second image. 15. Utilisation, au sein d'un véhicule, d'image(s) enrichie(s) d'une scène selon la revendication 13 pour au moins une des applications suivantes : 15. Use, within a vehicle, of enriched image(s) of a scene according to claim 13 for at least one of the following applications: - pour la détection d'un objet d'une scène à un instant donné,- for the detection of an object in a scene at a given moment, - pour le suivi d'un objet d'une scène dans le temps, - for tracking an object in a scene over time, - pour une assistance au pilotage, ou pour un pilotage autonome ou semi-autonome, d'un véhicule. - for assistance with driving, or for autonomous or semi-autonomous driving of a vehicle. 16. Programme d'ordinateur, pour un véhicule, comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par ledit véhicule, mettent en en œuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications 1 à 12. 16. Computer program, for a vehicle, comprising executable instructions which, when executed by said vehicle, implement all the steps of the method (100) according to any one of claims 1 to 12. 17. Dispositif (300), prévu pour être intégré dans un véhicule, comprenant des moyens configurés pour mettre en œuvre toutes les étapes du procédé selon l'une quelconque des revendications 1 à 12. 17. Device (300), intended to be integrated into a vehicle, comprising means configured to implement all the steps of the method according to any one of claims 1 to 12. 18. Véhicule (500) comprenant : 18. Vehicle (500) comprising: - au moins un module caméra (402), et - at least one camera module (402), and - au moins un moyen de traitement (300;404), en particulier un processeur, configuré pour mettre en œuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications 1 à 12 pour enrichir une image captée par ledit au moins un module caméra (402). - at least one processing means (300; 404), in particular a processor, configured to implement all the steps of the method (100) according to any one of claims 1 to 12 to enrich an image captured by said at least one camera module (402).
PCT/FR2023/050401 2023-03-21 2023-03-21 Method and device for enhancing an image of a scene in a vehicle Ceased WO2024194539A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/FR2023/050401 WO2024194539A1 (en) 2023-03-21 2023-03-21 Method and device for enhancing an image of a scene in a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FR2023/050401 WO2024194539A1 (en) 2023-03-21 2023-03-21 Method and device for enhancing an image of a scene in a vehicle

Publications (1)

Publication Number Publication Date
WO2024194539A1 true WO2024194539A1 (en) 2024-09-26

Family

ID=87136192

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2023/050401 Ceased WO2024194539A1 (en) 2023-03-21 2023-03-21 Method and device for enhancing an image of a scene in a vehicle

Country Status (1)

Country Link
WO (1) WO2024194539A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2381418A1 (en) * 2009-01-09 2011-10-26 Konica Minolta Holdings, Inc. Motion vector generation apparatus and motion vector generation method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2381418A1 (en) * 2009-01-09 2011-10-26 Konica Minolta Holdings, Inc. Motion vector generation apparatus and motion vector generation method

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
B. GALVIN ET AL: "Recovering Motion Fields: An Evaluation of Eight Optical Flow Algorithms", PROCEDINGS OF THE BRITISH MACHINE VISION CONFERENCE 1998, 1 January 1998 (1998-01-01), pages 20.1 - 20.10, XP055115220, ISBN: 978-1-90-172504-9, DOI: 10.5244/C.12.20 *
DOSOVITSKIY ALEXEY ET AL: "FlowNet: Learning Optical Flow with Convolutional Networks", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), IEEE, 7 December 2015 (2015-12-07), pages 2758 - 2766, XP032866621, DOI: 10.1109/ICCV.2015.316 *
HAZEM RASHED ET AL: "Optical Flow augmented Semantic Segmentation networks for Automated Driving", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 11 January 2019 (2019-01-11), XP081006669 *
HOU-NING HU ET AL: "Monocular Quasi-Dense 3D Object Tracking", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 March 2021 (2021-03-12), XP081910498 *
MANCINI MICHELE ET AL: "Fast robust monocular depth estimation for Obstacle Detection with fully convolutional networks", 2016 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS), IEEE, 9 October 2016 (2016-10-09), pages 4296 - 4303, XP033011982, DOI: 10.1109/IROS.2016.7759632 *

Similar Documents

Publication Publication Date Title
EP2275971B1 (en) Method of obstacle detection for a vehicle
FR2882160A1 (en) Video image capturing method for e.g. portable telephone, involves measuring local movements on edges of images and estimating parameters of global movement model in utilizing result of measurement of local movements
FR2858447A1 (en) AUTOMATED PERCEPTION METHOD AND DEVICE WITH DETERMINATION AND CHARACTERIZATION OF EDGES AND BORDERS OF OBJECTS OF A SPACE, CONSTRUCTION OF CONTOURS AND APPLICATIONS
EP2930659B1 (en) Method for detecting points of interest in a digital image
EP2275970A1 (en) Method of obstacle detection for a vehicle
FR2987928A1 (en) VEHICLE PERIPHERAL MONITORING APPARATUS
EP3614306B1 (en) Method for facial localisation and identification and pose determination, from a three-dimensional view
KR101080375B1 (en) Method for learning object, and method for tracking object using method for tracking object, and system for learning and tracking object
EP4396789A1 (en) Method for matching a candidate image with a reference image
EP3070643A1 (en) Method and device for object recognition by analysis of digital image signals representative of a scene
WO2024194539A1 (en) Method and device for enhancing an image of a scene in a vehicle
WO2024194537A1 (en) Method and device for enhancing an image of a scene
FR3083352A1 (en) METHOD AND DEVICE FOR FAST DETECTION OF REPETITIVE STRUCTURES IN THE IMAGE OF A ROAD SCENE
WO2024194538A1 (en) Method and device for enriching an image of a scene, within a user equipment
WO2024194536A1 (en) Method and device for determining depth information on a scene with images of said scene taken by at least two cameras in a vehicle
WO2023067130A1 (en) Method for implementing a lidar device with descriptors employing distance evaluation
EP4684362A1 (en) Method and device for determining depth information on a scene with images of said scene taken by at least two cameras
WO2024194535A1 (en) Method and device for determining depth information on a scene with images of said scene taken by at least two cameras in a user apparatus
CN116311077A (en) A pedestrian detection method and device based on multi-spectral fusion of saliency map
FR3038760A1 (en) DETECTION OF OBJECTS BY PROCESSING IMAGES
EP4341897B1 (en) Method and device for processing a sequence of images in order to determine continuous thumbnails in said sequence of images
EP4174779A1 (en) Method for automatically calibrating extrinsic parameters of an array of optical cameras; associated computer program product, computer vision system and motor vehicle.
FR3159032A1 (en) Method and device for determining a depth by a convolutional neural network associated with a self-supervised vision system.
FR3165135A1 (en) Electronic device and diagnostic method for an image sensor alarm(s), associated optronic system and computer program
FR3163760A1 (en) Method and device for generating training images of a depth prediction model for a vision system with heterogeneous cameras.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23738060

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE