[go: up one dir, main page]

WO2025158112A1 - Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée - Google Patents

Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée

Info

Publication number
WO2025158112A1
WO2025158112A1 PCT/FR2024/050096 FR2024050096W WO2025158112A1 WO 2025158112 A1 WO2025158112 A1 WO 2025158112A1 FR 2024050096 W FR2024050096 W FR 2024050096W WO 2025158112 A1 WO2025158112 A1 WO 2025158112A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
scene
focusing
depth
camera module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/FR2024/050096
Other languages
English (en)
Inventor
Eric Legros
Sylvain PETITGRAND
Bruno Luong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fogale Optique
Original Assignee
Fogale Optique
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fogale Optique filed Critical Fogale Optique
Priority to PCT/FR2024/050096 priority Critical patent/WO2025158112A1/fr
Publication of WO2025158112A1 publication Critical patent/WO2025158112A1/fr
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions

Definitions

  • the present invention relates to a method for obtaining a stack of images of a scene whose sharpness amplitude is adjusted. It also relates to a computer program and a device implementing such a method. It further relates to an apparatus and a vehicle implementing such a method.
  • the field of the invention is the field of obtaining a stack of images of a scene comprising images acquired at different focusing distances.
  • the image clearly represents a limited part of the scene, and in particular all the objects in the scene, located at a distance from the camera module included in the depth of field, i.e. between PGTM and PCmax.
  • PGTM corresponds to the distance between the camera module and the closest plane of the scene which is sharp in the image
  • PCmax corresponds to the distance between the camera module and the furthest plane of the scene which is sharp in the image.
  • focus bracketing or focus stacking
  • focus stacking stacking of focus points
  • the stack of images can be used to obtain a consolidated image clearly representing a larger part of the scene, and therefore presenting a greater depth of field.
  • focus bracketing techniques images of the scene are acquired at randomly chosen focusing distances, which gives a random result when representing the scene from these images. Some objects in the scene may never be represented in focus, or the scene may be imaged for parts that do not include any objects, which is not really of interest.
  • An aim of the present invention is to remedy at least one of the aforementioned drawbacks.
  • Another aim of the invention is to propose a solution making it possible to image a scene with an improved amplitude of sharpness.
  • Another aim of the invention is to propose a solution making it possible to image a scene with an improved amplitude of sharpness, in a simpler and more efficient manner.
  • the invention makes it possible to image a scene to obtain a stack of several images captured at different focusing distances.
  • a stack of images makes it possible to represent the scene with a greater depth of field since each image clearly represents different parts of the scene.
  • the invention proposes to choose the smallest focusing distance, respectively the largest focusing distance, as a function of a low distance, respectively a high distance, which is predetermined.
  • the invention makes it possible to image a scene while ensuring sharpness from a low distance, respectively up to a high distance, chosen and not determined randomly or as a function of a depth map of the scene, the determination of which is a complex operation and potentially a source of error.
  • the invention makes it possible to image a scene with an improved sharpness amplitude, and this in a simpler and faster manner since it does not require determining a depth map of the scene.
  • image we mean a digital image, and in particular a matrix image, and more particularly an RGB matrix image for example.
  • focusing distance is meant the distance at which an optical lens is focused, with reference to the position of said lens.
  • the focusing distance for taking an image is generally adjusted by modifying the distance between the image sensor and the optical lens.
  • depth of field is meant the extent of the area of sharpness which appears on an image, that is to say the area between the sharp foreground and the sharpest ground of the image.
  • extent of sharpness is meant the distance over which the sharp part of the image extends, or the depth of field, that is to say the distance from the sharp foreground to the sharp last plane of the image.
  • the focusing distance can be 15 meters.
  • the range of sharpness can be 1.50 meters and the depth of field can be 14.50 meters - 16 meters.
  • the image will clearly represent all the objects, or parts of the scene, located at a distance of between 14.5m and 16m from the optical objective.
  • the predetermined low distance can be selected by the user.
  • the predetermined low distance may correspond to the distance of the closest object in the scene, in particular the distance between the imaging module and the closest object in the scene.
  • This embodiment makes it possible to adapt the smallest focusing distance used to image the scene, to the composition of the scene and in particular to the objects located in the scene.
  • the scene is imaged by ensuring that the objects/parts of the scene which are closest to the camera module will be imaged clearly, at least one of the images in the image stack.
  • this embodiment makes it possible to avoid taking images with depths of field which do not correspond to any object in the scene, in particular below the most distant object in the scene.
  • the predetermined low distance may correspond to the smallest sharpness distance permitted by the at least one camera module, and in particular to the lower limit of the smallest focusing distance permitted by the at least one camera module.
  • Such an embodiment provides the possibility of making maximum use of the capacity of the at least one camera module used to image the scene, in particular for the objects/areas closest to the scene.
  • the method according to the invention may further comprise a step of determining the distance of the closest object to the scene.
  • the distance to the nearest object can be measured/estimated.
  • Measuring/estimating the distance to the nearest object can be done in different ways:
  • a sensor for example a LIDAR or time-of-flight camera type sensor
  • the distance of an object in a scene can be measured using for example a triangulation distance measurement technique
  • the predetermined high distance can be chosen by the user.
  • the predetermined high distance may correspond to the distance of the most distant object in the scene.
  • This embodiment makes it possible to adapt the greatest focusing distance used to image the scene, to the composition of the scene and in particular to the objects located in the scene.
  • the scene is imaged by ensuring that the objects/parts of the scene which are located furthest from the camera module will be imaged clearly.
  • this embodiment makes it possible to avoid taking images with depths of field which do not correspond to any object in the scene, in particular beyond the most distant object in the scene.
  • the predetermined upper distance may correspond to the greatest sharpness distance permitted by the at least one camera module, and in particular to the upper limit of the greatest focusing distance permitted by the at least one camera module.
  • Such an embodiment provides the possibility of making maximum use of the capacity of the at least one camera module used to image the scene, in particular for the objects/areas furthest from the scene.
  • the method according to the invention may further comprise a step of determining the distance of the object furthest from the scene.
  • the distance to the farthest object can be measured/estimated.
  • a sensor for example a LIDAR or time-of-flight camera type sensor
  • the distance of an object in a scene can be measured using, for example, a triangulation distance measurement technique
  • the depth of field associated with said focusing distance may be contiguous, or overlap, with the depth of field associated with the next focusing distance, in ascending or descending order of focusing distances.
  • a continuity of sharpness is obtained at least between two images of the scene acquired at two focusing distances which follow one another in increasing or decreasing order.
  • the sharpness of the scene is continuous on these two images captured at different focusing distances so that there is no area of the scene which is blurred, or which is not sharp, between said two focusing distances.
  • the depth of field associated with said focusing distance may be contiguous, or overlap, with the depth of field associated with the following focusing distance, in the increasing or decreasing order of the focusing distances.
  • the depth of field associated with said focusing distance can be contiguous with the depth of field associated with the following focusing distance.
  • the images IMi and IMi+i acquired respectively at the focusing distances DFi and DFi+i represent the scene clearly over the entire depth from PCi,min to PCi + l,max, and this in a continuous manner.
  • the depth of field associated with said focusing distance overlaps with the depth of field associated with the following focusing distance.
  • the focusing distances DFi and DFi+i, with DFi ⁇ DFi+i can be chosen so that, PCi,max> PCi + l,min .
  • the images IMi and IMi+i acquired respectively at the focusing distances DFi and DFi+i represent the scene clearly over the entire depth going from PCi,min to PCi + l,max, and this in a continuous manner, with in addition an overlap of sharpness on the two images IMi and IMi+i.
  • the parts of the scene located at the depths included in the interval [ PCi + l,min PCi,max] are represented clearly both on the image I Mi and on the image IMi+i.
  • At least two, in particular all, images can be acquired with the same camera module.
  • the imaging device used to image the scene comprises several camera modules, only one of these modules is used to acquire said images.
  • At least two, in particular all, images can be acquired with different camera modules.
  • at least two camera modules are used to acquire said images.
  • the images acquired by several camera modules can be acquired simultaneously or in turn.
  • the use of several camera modules makes it possible to image the scene over a greater total depth of field.
  • the camera modules equipping a device for example a Smartphone, make it possible to image a scene with different focusing distances.
  • a smartphone can be equipped, among other things, with a wide-angle camera module and a telephoto camera module which make it possible to image the scene with different focusing distances.
  • the depth of field, PG ⁇ PG, min; PG, max ⁇ associated with it is known and given by the imaging module. Indeed, the depth of field is determined by the hardware making up the camera module, and depends on the physical properties of said camera module.
  • the depth of field, PG ⁇ PG, min; PG, max ⁇ which is associated with it can be measured and stored in association with said focusing distance.
  • the camera module is configured to acquire an image of a reference scene at said focusing distance
  • At least one image of the scene may be a 2D image.
  • At least one image of the scene may be a 3D image.
  • a computer program comprising executable instructions which, when executed by a computer device, implement all the steps of the method according to the invention.
  • the computer program can be in any computer language, such as for example machine language, C, C++, JAVA, Python, etc.
  • Such a computer program may be in the form of an individual application. Alternatively, such a computer program may be integrated into a photo or video acquisition application.
  • an apparatus comprising:
  • At least one computing unit configured to implement all the steps of the method according to the invention.
  • the device may be a user device of the Smartphone, tablet, etc. type comprising a display screen.
  • the user device may further comprise a display screen, a capacitive sensing surface, etc.
  • the device may be a computer-type user device.
  • the computer-type user device may comprise a display screen, a touch-sensitive surface, in particular integrated into, or associated with, the display screen of said computer, etc.
  • the device may be a television.
  • the device may be a virtual reality headset or an augmented reality headset.
  • the helmet may comprise a display screen, one or more sensors, particularly optical sensors, etc.
  • the apparatus may be a medical imaging device.
  • the medical imaging device may be an endoscope, an ultrasound device, etc.
  • a vehicle comprising:
  • At least one computing unit configured to implement all the steps of the method according to the invention.
  • the vehicle may be a land vehicle, such as a car, autonomous, semi-autonomous or non-autonomous.
  • the vehicle may be a flying vehicle, such as a drone, an airplane, a helicopter, autonomous, semi-autonomous or non-autonomous.
  • the vehicle may be a maritime vehicle, such as a boat or a submarine, autonomous, semi-autonomous or non-autonomous.
  • FIGURE 1 is a schematic representation of a non-limiting example of different quantities used in the present invention.
  • FIGURE 2-5 are schematic representations of non-limiting exemplary embodiments of a method according to the invention.
  • FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the invention.
  • FIGURES 7-9 are schematic representations of non-limiting exemplary embodiments of apparatuses according to the invention.
  • FIGURE 10 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the invention.
  • variants of the invention comprising only a selection of characteristics described below isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art.
  • This selection comprises at least one preferably functional characteristic without structural details, or with only a part of the structural details if it is this part which is only sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art.
  • all the variants and all the embodiments described can be combined with each other if nothing prevents this combination from a technical point of view.
  • FIGURE 1 is a schematic representation of a non-limiting example of different quantities used in the present invention.
  • FIGURE 1 shows a camera module 102.
  • the camera module 102 includes an optical lens 104, also called an optical system, comprising one or more optical elements such as lenses.
  • the camera module 102 further includes an image sensor 106, such as a CCD or CMOS sensor, disposed opposite the optical lens 104.
  • the optical lens 104 has the function of directing light from different parts of a scene to be imaged towards the image sensor 106.
  • the distance between the optical lens 104 and the image sensor 106 can be adjusted to change the area of the scene which will be clearly perceived on the image sensor 106.
  • This distance DOC can be adjusted in different ways, for example by a mechanism (not shown) which varies said distance DOC by moving the image sensor 106, or the optical lens 104 or even both.
  • changing the distance DOC makes it possible to modify the focusing point 110 of the camera module 102.
  • the distance between the camera module 102 and the focusing point 110 is called the focusing distance, and denoted DF, in the following.
  • the focusing point 110 located at the focusing distance DF appears sharply on the image sensor 106.
  • the image sensor 106 also receives sharply, to a certain extent, some points located after the focusing point 110 and other points located before the focusing point 110.
  • the image sensor receives sharply an area including the focusing point 110.
  • FIGURE 2 is a schematic representation of a non-limiting exemplary embodiment of a method according to the present invention.
  • the method 200 of FIGURE 2 can be used to obtain, with at least one camera module, a stack of images of the scene, comprising images acquired at different focusing distances, and therefore different depths of field.
  • At least one camera module may comprise an image sensor associated with an optical lens, such as for example the camera module 202 of FIGURE 2.
  • the imaging apparatus used to image the scene may comprise a single camera module. Alternatively, the imaging apparatus may comprise several camera modules.
  • the method 200 comprises a step 202 of determining focusing distance(s) for acquiring images of the scene as a function of a predetermined minimum distance Dmin and/or a predetermined maximum distance Dmax.
  • the focusing distances can be chosen in the following manner:
  • a last focusing distance DF n ⁇ PCn,min PCn,max ⁇ , is chosen so that the upper limit PCn,miax of the depth of field PCn is equal to or slightly greater than said maximum distance Dmax ;
  • one or more focusing distances DFi can be chosen between the focusing distances DFi and DF n This embodiment does not necessarily ensure continuity of sharpness between the images which will be acquired.
  • the focusing distances can be chosen starting from the minimum distance Dmin:
  • the focusing distances can be chosen by starting with the maximum distance Dmax, instead of starting with the minimum distance Dmin.
  • Dmoy located at an equal distance from the minimum distance Dmin and the maximum distance Dmax.
  • step 202 determines focusing distances to obtain continuity of sharpness for all the acquired images.
  • step 202 provides the focusing distances DFi-DFn at which images of the scene must be acquired.
  • the method 200 comprises a step 204 of acquiring images IMi-IM n at said focusing distances DFi-DF n .
  • Some of the images IMi-IM n can be acquired by the same camera module, one after the other.
  • some of the images IMi-IM n can be acquired by at least two camera modules, simultaneously or one after the other.
  • the focusing distance DF of a camera module can be modified in several ways. According to an exemplary embodiment, the focusing distance DF of a camera module can be modified by changing the distance DOC between the image sensor and the optical lens of the camera module. [0099]
  • the depth of field associated with a focusing distance is an optical quantity dependent on the architecture of the camera module, and in particular on the optical lens. Generally, the depth of field associated with a focusing distance is provided by the manufacturer or previously measured, and stored in association with the camera module, for example in the imaging device integrating the camera module.
  • FIGURE 3 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 300 of FIGURE 3 can be used to obtain, with at least one camera module, a stack of images of the scene, comprising images acquired at different focusing distances, and therefore different depths of field.
  • Method 300 includes all of the steps of method 200 of FIGURE 2.
  • the method 300 comprises, before steps 202-204, a step 302 for determining, for at least, and in particular each, focusing distance DFi of a camera module, the depth of field PCi associated with said focusing distance DFi.
  • the measurement of the depth of field for a focusing distance is carried out in the following manner:
  • the camera module is adjusted to obtain the DFi focusing distance, for example by changing the distance between the image sensor and the optical lens of the camera module;
  • the known distance of this first sharp plane corresponds to the lower limit PFi,min of the depth of field PFi;
  • the known distance of this second sharp plane corresponds to the upper limit PFi, max of the depth of field PFi.
  • step 302 can be repeated for each camera module in turn or at the same time.
  • step 302 we obtain, for each focusing distance DFi of each camera module the depth of field PG associated with said focusing distance DFi.
  • Step 302 can be performed just before steps 202-204.
  • step 302 can be carried out well before steps 202-204, for example during the manufacture of the camera module, or during the integration of the camera module into the imaging device, or even during a calibration operation of the camera module and/or the imaging device, or even a calibration operation of an imaging application installed in the imaging device.
  • FIGURE 4 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 400 of FIGURE 4 can be used to obtain, with at least one camera module, a stack of images of the scene, comprising images acquired at different focusing distances, and therefore different depths of field.
  • Method 400 includes all of the steps of method 200 of FIGURE 2. Alternatively, method 400 could include all of the steps of method 300 of FIGURE 3.
  • the method 400 further comprises a step 402 of measuring the distance, denoted DSmin, between the camera module and the object/area of the scene which is closest to said camera module.
  • a measurement can be carried out in different ways.
  • a lidar sensor can be used to carry out said measurement.
  • the smallest focusing distance DFi can be chosen so as to clearly image the object (area) closest to the scene in the corresponding image acquired at said focusing distance.
  • the method 400 further comprises a step 404 of measuring the distance, denoted DSmax, between the camera module and the object/area of the scene which is the furthest from said camera module.
  • a measurement can be carried out in different ways.
  • a lidar sensor can be used to carry out said measurement.
  • the largest focusing distance DF n is chosen so as to clearly image the object (the area) furthest from the scene in the corresponding image acquired at said focusing distance DF n .
  • the method 400 may comprise only one of the steps 402 and 404.
  • the method 400 may optionally comprise the step 302 of determining a depth of field for at least one focusing distance.
  • FIGURE 5 is a schematic representation of another non-limiting exemplary embodiment of a method according to the present invention.
  • the method 500 of FIGURE 5 can be used to obtain, with at least one camera module, a stack of images of the scene, comprising images acquired at different focusing distances, and therefore different depths of field.
  • Method 500 includes all of the steps of method 200 of FIGURE 2.
  • method 400 could include all of the steps of method 300 of FIGURE 3.
  • the method 500 further comprises a step 502 of choosing the minimum distance Dmin.
  • This minimum distance can be chosen by the user or by a manufacturer or even by an imaging application used. This minimum distance can be a function of the scene or not. This minimum distance can be a function of an imaging mode chosen from several imaging modes, such as for example landscape mode, portrait mode, etc. In the example given, and without loss of generality, the choice of the minimum distance Dmin is made manually.
  • the minimum distance Dmin can be indicated through a numeric keypad or using a cursor, or any other user interface.
  • the method 500 further comprises a step 504 of choosing the maximum distance Dmax.
  • This maximum distance can be chosen by the user or by a manufacturer or even by an imaging application. used. This maximum distance may or may not be a function of the scene. This maximum distance may be a function of an imaging mode chosen from several imaging modes, such as landscape mode, portrait mode, etc. In the example given, and without loss of generality, the choice of the maximum distance Dmax is made manually.
  • the maximum distance Dmax can be indicated through a numeric keypad or using a cursor, or any other user interface.
  • the method 500 may comprise only one of the steps 502 and 504.
  • method 500 may optionally include step 302 of FIGURE 3 to determine at least one depth of field for at least one focusing distance.
  • step 202 takes into account a predetermined minimum distance Dmin to determine the focusing distances.
  • step 202 may determine the focusing distances by taking into account, not a minimum distance Dmin, but by taking into account the smallest focusing distance technically achievable with the at least one camera module.
  • the choice of the focusing distances may begin, or end, with said smallest focusing distance and the depth of field associated therewith.
  • the minimum distance Dmin is chosen as being the lower bound of the smallest focusing distance technically achievable with the at least one camera module.
  • step 202 takes into account a predetermined maximum distance Dmax to determine the focusing distances.
  • step 202 may determine the focusing distances by taking into account, not a maximum distance Dmax, but by taking into account the greatest focusing distance technically achievable with the at least one camera module.
  • the choice of the focusing distances may begin, or end, with said greatest focusing distance and the depth of field associated therewith.
  • the maximum distance Dmax is chosen as the upper bound of the greatest large focusing distance technically achievable with at least one camera module.
  • FIGURE 6 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
  • the apparatus 600 of FIGURE 6 may be used to obtain a stack of images of the scene, comprising images acquired at different focusing distances, and therefore at different depths of field.
  • the device 600 of FIGURE 6 can be used to implement a method according to the invention, and in particular any one of the methods 200, 300, 400 or 500 of FIGURES 2-5.
  • the apparatus 600 comprises at least one camera module.
  • the apparatus 600 comprises K camera modules 602I-602K, with K>1.
  • the reference 602 designates a camera module.
  • Each camera module 602 comprises an optical lens associated with an image sensor, and possibly a mechanism for changing the focusing distance of said camera module.
  • At least two camera modules may have identical focusing distances.
  • At least two camera modules may have different focusing distances: in other words, one of the camera modules may produce an image of a scene at a focusing distance that the other camera module does not allow.
  • the apparatus 600 further comprises a calculation unit 604 configured to carry out different steps of the method according to the invention.
  • the calculation unit 604 comprises an optional module 606 for determining a depth of field for at least one focusing distance, for example from a reference scene. This module 606 can for example be configured/programmed to carry out step 302 of the methods 300, 400 and 500. [0134]
  • the calculation unit 604 further comprises an optional module 608 for determining the distance of at least one object in the scene, in particular the distance of the closest object and/or the distance of the most distant object. This optional module 608 may for example be configured/programmed to carry out at least one of the steps 402 and 404 of the method 400.
  • the calculation unit 604 further comprises an optional module 610 for choosing at least one distance, in particular a minimum distance and/or a maximum distance, in order to determine the focusing distances for imaging the scene.
  • This optional module 610 can for example be configured/programmed to carry out at least one of the steps 502 and 504 of the method 500.
  • the calculation unit 604 further comprises a module 612 for choosing/determining focusing distances for imaging the scene.
  • This module 612 can for example be configured/programmed to carry out at least step 202 of any one of the methods 200, 300, 400 and 500.
  • the calculation unit 604 further comprises a module 614 for controlling at least one camera module for acquiring images of the scene at different focusing distances.
  • This module 614 can for example be configured/programmed to carry out at least step 204 of any one of the methods 200, 300, 400 and 500.
  • At least one of the modules 606-614 may be a module independent of the others.
  • At least two of the modules 606-614 can be integrated within the same module.
  • the computing unit 604, and/or at least one of the modules 606-614 may be a hardware module, such as a processor, an electronic chip, etc.
  • the computing unit 604, and/or at least one of the modules 606-614 may be a software module, such as a computer program.
  • the computing unit 604, and/or at least one of the modules 606-614 may be a combination of at least one software module and at least one hardware module.
  • the calculation unit 604 or at least one of the modules 606-614 can be integrated into an electronic chip, or even into an application installed in a user device.
  • the device 600 may further comprise, optionally, an image storage means 616, for storing the acquired images.
  • This module 616 may for example be configured to store at least one of the images acquired during step 204 of the methods 200, 300, 400 and 500.
  • FIGURE 7 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
  • the apparatus 700 of FIGURE 7 comprises means configured to implement the invention, and in particular any one of the methods 200, 300, 400 and 500.
  • the apparatus 700 of FIGURE 7 may include all of the elements of the apparatus 600 of FIGURE 6.
  • the device 700 is a smartphone, or a tablet, comprising all the elements of the device 600 of FIGURE 6.
  • the device 700 of FIGURE 7 comprises a camera module 602 and the computing unit 604.
  • the apparatus 700 comprises a display screen 702 equipped with a detection surface 704, for example capacitive.
  • the apparatus 700 may comprise other members than those indicated above.
  • FIGURE 8 is a schematic representation of another non-limiting exemplary embodiment of an apparatus according to the present invention.
  • the apparatus 800 of FIGURE 8 comprises means configured to implement the invention, and in particular any one of the methods 200, 300, 400 and 500. [0153]
  • the apparatus 800 of FIGURE 8 may include all of the elements of the apparatus 600 of FIGURE 6.
  • the device 800 is a virtual reality, VR, headset, or an augmented reality headset, comprising all the elements of the device 600 of FIGURE 6.
  • the headset 800 of FIGURE 8 comprises in particular a camera module 602 and the computing unit 604.
  • the helmet 800 includes a display screen 802 in/on a visor of said helmet 800.
  • the helmet 800 may include other members than those indicated above.
  • FIGURE 9 is a schematic representation of a non-limiting exemplary embodiment of an apparatus according to the present invention.
  • the apparatus 900 of FIGURE 9 comprises means configured to implement the invention, and in particular any one of the methods 200, 300, 400 and 500.
  • the apparatus 900 of FIGURE 9 may include all of the elements of the apparatus 600 of FIGURE 6.
  • the apparatus 900 is a medical imaging apparatus, such as an endoscope, an ultrasound apparatus, etc.
  • the medical imaging apparatus 900 comprises a camera module 602 and the computing unit 604.
  • the medical imaging device 900 comprises a display screen 902 equipped with a detection surface 904, for example capacitive.
  • the medical imaging device 900 may include other organs than those indicated above.
  • FIGURE 10 is a schematic representation of a non-limiting exemplary embodiment of a vehicle according to the present invention.
  • the vehicle 1000 of FIGURE 10 comprises means configured to implement the invention, and in particular any one of the methods 200, 300, 400 and 500.
  • the vehicle 1000 of FIGURE 10 may include all of the elements of the apparatus 600 of FIGURE 6.
  • the vehicle 1000 is a land vehicle, in particular a car, comprising all the elements of the apparatus 600 of FIGURE 6.
  • the vehicle 1000 comprises a camera module 602 and the computing unit 604.
  • the vehicle 1000 comprises a display screen 1002 equipped with a detection surface 1004, for example capacitive, arranged in the passenger compartment of the vehicle 1000.
  • vehicle 1000 may include other components than those indicated above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

L'invention concerne un procédé (200) pour imager une scène avec au moins un module caméra, ledit procédé comprenant une acquisition de plusieurs images (IM1-IMn) de ladite scène à différentes distances de focalisation discrètes, DFi, chacune avec une profondeur de champ respective, PCi={PCi,min;PCi,max}, comprenant ladite distance de focalisation respective et s'étendant sur une étendue de netteté respective, NETi =PCi,max-PCi,min, ledit procédé comprenant en outre une étape (202) de détermination : - de la plus petite distance de focalisation (DF1) de sorte que la borne basse (PC1,min) de la profondeur de champ (PC1) qui lui associée est inférieure ou égale à une distance basse prédéterminée (Dmin); et/ou - de la plus grande distance de focalisation (DF1) de sorte que la borne haute (PCn,max) de la profondeur de champ (PCn) qui lui associée est supérieure à une distance haute prédéterminée (Dmax). Elle concerne également un programme d'ordinateur, un appareil et un véhicule mettant en œuvre un tel procédé.

Description

DESCRIPTION
Titre : Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée
[0001] La présente invention concerne un procédé d'obtention d'une pile d'images d'une scène dont l'amplitude de netteté est ajustée. Elle concerne également un programme d'ordinateur et un dispositif mettant en œuvre un tel procédé. Elle concerne en outre un appareil et un véhicule mettant en œuvre un tel procédé.
[0002] Le domaine de l'invention est le domaine de l'obtention d'une pile d'images d'une scène comprenant des images acquises à des distances de focalisation différentes.
État de la technique
[0003] Une image d'une scène est acquise avec un module caméra à une distance de focalisation, DF, avec une profondeur de champ, PC={PCmin- PCmax}, définissant une étendue de netteté, NET=PCmax-PCmin, autour de ladite distance de focalisation DF. Ainsi, l'image représente de manière nette une partie limitée de la scène, et en particulier tous les objets de la scène, se trouvant à une distance du module caméra comprise dans la profondeur de champ, c'est-à-dire entre PG™ et PCmax. PG™ correspond la distance entre le module caméra et le plan plus proche de la scène qui est nette sur l'image, et PCmax correspond la distance entre le module caméra et le plan le plus éloigné de la scène qui est nette sur l'image.
[0004] On connaît la technique, appelée focus bracketing, ou focus stacking, « empilement de mises au point » en langue française, qui permet de capter une pile d'images d'une scène, chaque image étant captée à une distance de focalisation différente. La pile d'images peut être exploitée pour obtenir une image consolidée représentant de manière nette une plus grande partie de la scène, et donc présentant une plus grande profondeur de champ. [0005] Dans certaines techniques de focus bracketing, les images de la scène sont acquises à des distances de focalisation choisies au hasard, ce qui donne un résultat aléatoire lors de la représentation de la scène à partir de ces images. Certains objets de la scène peuvent ne jamais être représentés de manière nette, ou alors la scène peut être imagée pour des parties ne comprenant aucun objet, ce qui n'a pas vraiment d'intérêt.
[0006] D'autres techniques, réalisent une acquisition d'images à des distances de focalisation correspondant aux distances des objets de la scène, préalablement mesurées. Ces techniques ont pour but de caler les zones nettes de la scène aux objets qui s'y trouvent. Cependant, ces techniques sont complexes car elles nécessitent de réaliser une détection de tous les objets dans la scène et de mesurer leurs distances/profondeurs par rapport au module caméra. De plus, ces techniques ne sont pas efficaces, car elles dépendent d'une détection efficace des objets se trouvant dans la scène, ce qui n'est pas toujours possible. En outre, certaines zones de la scène, qui ne comportent pas d'objets, ne sont pas nettes dans les images acquises, ce qui constitue une limitation importante.
[0007] Un but de la présente invention est de remédier à au moins un des inconvénients précités.
[0008] Un autre but de l'invention est de proposer une solution permettant d'imager une scène avec une amplitude de netteté améliorée.
[0009] Un autre but de l'invention est de proposer une solution permettant d'imager une scène avec une amplitude de netteté améliorée, de manière plus simple et plus efficace.
Exposé de l'invention
[0010] L'invention propose d'atteindre au moins l'un des buts précités par un procédé pour imager une scène avec au moins un module caméra, chaque module caméra comportant un objectif optique associé à un capteur d'image ; ledit procédé comprenant une acquisition de plusieurs images, notées IMi-IMn dans la suite, de ladite scène à différentes distances de focalisation discrètes, notées DFi dans la suite, chacune avec une profondeur de champ respective, notée PCi={PCi,min ; PG, max}, comprenant ladite distance de focalisation respective, DFi, et s'étendant sur une étendue de netteté respective, N ETi = PCi,max“ PG, min une image acquise à une distance de focalisation, DFi, représentant de manière nette des parties de la scène se trouvant à des distances comprises dans la profondeur de champ PG associée à ladite distance de focalisation, DFi ; caractérisé en ce qu'il comprend en outre une étape de détermination :
- de la plus petite distance de focalisation de sorte que la borne basse de la profondeur de champ qui lui associée est inférieure ou égale à une distance basse prédéterminée ; et/ou
- une étape de détermination de la plus grande distance de focalisation de sorte que la borne haute de la profondeur de champ qui lui associée est supérieure à une distance haute prédéterminée.
[0011] Ainsi, à l'instar des techniques connues, l'invention permet d'imager une scène pour obtenir une pile de plusieurs images captées à des distances de focalisation différentes. Une telle pile d'images permet de représenter la scène avec une plus grande profondeur de champ puisque chaque image représente de manière nette différentes parties de la scène.
[0012] De plus, et à la différence des soutions connues, l'invention propose de choisir la plus petite distance de focalisation, respectivement la plus grande distance de focalisation, en fonction d'une distance basse, respectivement d'une distance haute, qui est prédéterminée. Ainsi, l'invention permet d'imager une scène tout en s'assurant d'une netteté à partir d'une distance basse, respectivement jusqu'à une distance haute, choisie et non pas déterminée au hasard ou en fonction d'une carte de profondeurs de la scène dont la détermination est une opération complexe et potentiellement source d'erreur. Ainsi, l'invention permet d'imager une scène avec une amplitude de netteté améliorée, et ce de manière plus simple et plus rapide puisqu'elle ne nécessite pas de déterminer une carte de profondeurs de la scène.
[0013] Par image, on entend une image numérique, et en particulier une image matricielle, et plus particulièrement une image matricielle RGB par exemple. [0014] Par distance de focalisation, on entend la distance à laquelle un objectif optique est focalisé, en référence à la position dudit objectif. La distance de focalisation pour la prise d'une image est ajustée généralement en modifiant la distance entre le capteur d'image et l'objectif optique. Ainsi, une première image d'une scène acquise à une première distance de focalisation représentera de manière nette une première partie de la scène, et une deuxième image d'une scène acquise à une deuxième distance de focalisation représentera de manière nette une deuxième partie de la scène.
[0015] Par « profondeur de champ », on entend l’étendue de la zone de netteté qui figure sur une image, c'est-à-dire la zone entre le premier plan net et le dernier plan net de l'image.
[0016] Par « étendue de netteté », on entend la distance sur laquelle s'étend la partie nette de l'image, ou la profondeur de champ, c'est-à-dire la distance allant du premier plan net et au dernier plan net de l'image.
[0017] Suivant un exemple de réalisation non limitatif, donné à titre d'illustration des définitions indiquées ci-dessus, la distance de focalisation peut être de 15 mètres. L'étendue de netteté peut être de 1.50 mètre et la profondeur de champ peut être de 14,50 mètres - 16 mètres. Dans ce cas, l'image représentera de manière nette tous les objets, ou les parties de la scène, se trouvant à une distance comprise entre 14,5m et 16m de l'objectif optique.
[0018] Suivant des modes de réalisation, la distance basse prédéterminée peut être choisie par l'utilisateur.
[0019] Cela permet de donner la possibilité à l'utilisateur de fixer une borne basse de netteté pour imager la scène, indépendamment de l'appareil d'imagerie, ou de l'au moins un module caméra, utilisé pour imager la scène. Ainsi, l'invention permet d'imager la scène de manière personnalisable en fonction du souhait et/ou de l'intention de chaque utilisateur.
[0020] Alternativement, la distance basse prédéterminée peut correspondre à la distance de l'objet le plus proche de la scène, en particulier la distance entre le module d'imagerie et l'objet le plus proche de la scène. [0021] Ce mode de réalisation permet d'adapter la plus petite distance de focalisation utilisée pour imager la scène, à la composition de la scène et en particulier aux objets se trouvant dans la scène. Ainsi, la scène est imagée en s'assurant que les objets/parties de la scène qui se trouvent le plus proche du module caméra seront bien imagé(e)s de manière nette, au moins une des images de la pile d'images. De plus, ce mode de réalisation permet d'éviter de prendre des images avec des profondeurs de champ qui ne correspondent à aucun objet de la scène, en particulier en deçà de l'objet le plus éloigné de la scène.
[0022] Alternativement, la distance basse prédéterminée peut correspondre à la plus petite distance de netteté permise par l'au moins un module caméra, et en particulier à la borne basse de la plus petite distance de focalisation permise par l'au moins un module caméra.
[0023] Un tel mode de réalisation donne la possibilité d'exploiter au maximum la capacité de l'au moins un module caméra utilisé pour imager la scène, en particulier pour les objets/zones les plus proches de la scène.
[0024] Lorsque la distance basse prédéterminée correspond à la distance de l'objet le plus proche de la scène, le procédé selon l'invention peut en outre comprendre une étape de détermination de la distance de l'objet le plus proche de la scène.
[0025] La distance de l'objet le plus proche peut être mesurée/estimée.
[0026] La mesure/estimation de la distance de l'objet le plus proche peut être réalisée de différentes manières :
- en utilisant un capteur, par exemple un capteur de type LIDAR ou caméra temps de vol ;
- à partir du signal reçu par l'au moins un module caméra dont la focalisation est augmentée progressivement en partant de la plus petite distance de focalisation permise par ledit au moins un module caméra ;
- à partir d'une ou plusieurs images prises par ledit au moins un module caméra. En effet, la distance d'un objet d'une scène peut être mesurée en utilisant par exemple une technique de mesure de distance par triangulation ;
- à partir d'une image prise par un module caméra et de fonctions de transfert optique, et en particulier de fonctions PSF (pour « Point Spread Function »), dudit au module caméra ; ou
- à partir d'une image prise par un module caméra entrée dans un modèle d'intelligence artificielle préalablement entraîné pour fournir ladite distance.
Bien entendu, d'autres exemples de réalisation sont possibles et l'invention n'est pas limitée à ces exemples qui ne sont donnés qu'à titre indicatif.
[0027] Suivant des modes de réalisation, la distance haute prédéterminée peut être choisie par l'utilisateur.
[0028] Cela permet de donner la possibilité à l'utilisateur de fixer une borne haute de netteté pour imager la scène, indépendamment de l'appareil d'imagerie, ou de l'au moins un module caméra, utilisé pour imager la scène. Ainsi, l'invention permet d'imager la scène de manière personnalisable en fonction du souhait et/ou de l'intention de chaque utilisateur.
[0029] Alternativement, la distance haute prédéterminée peut correspondre à la distance de l'objet le plus éloigné de la scène.
[0030] Ce mode de réalisation permet d'adapter la plus grande distance de focalisation utilisée pour imager la scène, à la composition de la scène et en particulier aux objets se trouvant dans la scène. Ainsi, la scène est imagée en s'assurant que les objets/parties de la scène qui se trouvent le plus loin du module caméra seront bien imagé(e)s de manière nette. De plus, ce mode de réalisation permet d'éviter de prendre des images avec des profondeurs de champ qui ne correspondent à aucun objet de la scène, en particulier au-delà de l'objet le plus éloigné de la scène.
[0031] Alternativement, la distance haute prédéterminée peut correspondre à la plus grande distance de netteté permise par l'au moins un module caméra, et en particulier à la borne haute de la plus grande distance de focalisation permise par l'au moins un module caméra. [0032] Un tel mode de réalisation donne la possibilité d'exploiter au maximum la capacité de l'au moins un module caméra utilisé pour imager la scène, en particulier pour les objets/zones les plus éloignés de la scène.
[0033] Lorsque la distance basse prédéterminée correspond à la distance de l'objet le plus éloigné de la scène, le procédé selon l'invention peut en outre comprendre une étape de détermination de la distance de l'objet le plus éloigné de la scène.
[0034] La distance de l'objet le plus éloigné peut être mesurée/estimée.
[0035] La mesure/estimation de la distance de l'objet le plus éloigné peut être réalisée de différentes manières :
- en utilisant un capteur, par exemple un capteur de type LIDAR ou caméra temps de vol ;
- à partir du signal reçu par l'au moins un module caméra dont la focalisation est diminuée progressivement en partant de la plus grande distance de focalisation permise par ledit au moins un module caméra ;
- à partir d'une ou plusieurs images prises par ledit au moins un module caméra. En effet, la distance d'un objet d'une scène peut être mesurée en utilisant par exemple une technique de mesure de distance par triangulation ;
- à partir d'une image prise par un module caméra et de fonctions de transfert optique, et en particulier de fonctions PSF (pour « Point Spread Function »), dudit au module caméra ; ou
- à partir d'une image prise par un module caméra entrée dans un modèle d'intelligence artificielle préalablement entraînée pour fournir ladite distance.
Bien entendu, d'autres exemples de réalisation sont possibles et l'invention n'est pas limitée à ces exemples qui ne sont donnés qu'à titre indicatif.
[0036] Suivant des modes de réalisation, pour au moins une distance de focalisation, la profondeur de champ associée à ladite distance de focalisation peut être jointive, ou se chevaucher, avec la profondeur de champ associée à la distance de focalisation suivante, dans l'ordre croissant ou décroisant des distances de focalisation.
[0037] Dans ce cas, une continuité de netteté est obtenue au moins entre deux images de la scène acquises à deux distances de focalisation qui se suivent dans l'ordre croissant ou décroissant. En d'autres termes, la netteté de la scène est continue sur ces deux images captées à différentes distances de focalisation de sorte que qu'il n'existe aucune zone de la scène qui est floue, ou qui n'est pas nette, entre lesdites deux distances de focalisation.
[0038] Suivant des modes de réalisation, pour chaque distance de focalisation, la profondeur de champ associée à ladite distance de focalisation peut être jointive, ou se chevaucher, avec la profondeur de champ associée à la distance de focalisation suivante, dans l'ordre croissant ou décroisant des distances de focalisation.
[0039] Dans ce cas, une continuité de netteté est obtenue pour toutes les images de la scène acquises à différentes distances de focalisation. En d'autres termes, la netteté de la scène est continue sur toutes les images captées aux différentes distances de focalisation. Ainsi, il n'existe aucune zone de la scène qui est floue, ou qui n'est pas nette, entre les distances de focalisation utilisées pour l'acquisition des images, et en particulier entre la borne basse de la petite distance de focalisation et la borne haute de la plus grande distance de focalisation.
[0040] Ce mode de réalisation permet de maximiser l'amplitude de netteté avec laquelle la scène est représentée sur les images puisqu'en utilisant toutes les images IMi-IMn acquises, il est possible de représenter la scène de manière nette sur toutes les distances allant de PCi,min à PCn.max, en ayant une amplitude de netteté totale égale à N ETtotaie= PCn,max- PCi,min.
[0041] Suivant des modes de réalisation, pour au moins une, en particulier chaque, distance de focalisation, la profondeur de champ associée à ladite distance de focalisation peut être jointive avec la profondeur de champ associée à la distance de focalisation suivante.
[0042] Dans ce cas, il n'y a pas de chevauchement entre les profondeurs de champ respectives. Cela permet de choisir les distances de focalisation de sorte à minimiser le nombre total d'images à acquérir tout en permettant une continuité de netteté entre les images de la scène.
[0043] Par exemple, les distances de focalisation DFi et DFi+i, avec DFi<DFi+i, peuvent être choisies de sorte que, PCi,max= PCi + l,min . Ainsi, les images IMi et IMi+i acquises respectivement aux distances de focalisation DFi et DFi+i représentent la scène de manière nette sur toute la profondeur allant de PCi,min a PCi + l,max, et ce de manière continue.
[0044] Suivant des modes de réalisation, pour au moins une, en particulier chaque, distance de focalisation, la profondeur de champ associée à ladite distance de focalisation se chevauche avec la profondeur de champ associée à la distance de focalisation suivante.
[0045] Dans ce cas, il y a chevauchement entre les profondeurs de champ respectives. Cela permet de choisir les distances de focalisation de sorte à assurer une continuité de netteté entre les images de la scène.
[0046] Par exemple, les distances de focalisation DFi et DFi+i, avec DFi < DFi+i, peuvent être choisies de sorte que, PCi,max> PCi + l,min . Ainsi, les images IMi et IMi+i acquises respectivement aux distances de focalisation DFi et DFi+i représentent la scène de manière nette sur toute la profondeur allant de PCi,min a PCi + l,max, et ce de manière continue, avec en plus un chevauchement de netteté sur les deux images IMi et IMi+i. En effet, les parties de la scène se trouvant aux profondeurs comprises dans l'intervalle [ PCi + l,min PCi,max] sont représentées de manière nette à la fois sur l'image I Mi et sur l'image IMi+i.
[0047] Suivant des modes de réalisation, au moins deux, en particulier toutes les, images peuvent être acquises avec le même module caméra.
[0048] Dans ce cas, même si l'appareil d'imagerie utilisé pour imager la scène comprend plusieurs modules caméra, seul un de ces modules est utilisé pour acquérir lesdites images.
[0049] Dans ce cas, lesdites images sont acquises à tour de rôle.
[0050] Suivant des modes de réalisation, au moins deux, en particulier toutes les, images peuvent être acquises avec des modules caméra différents. [0051] Dans ce cas, au moins deux modules caméra sont utilisés pour acquérir lesdites images. Dans ce cas, les images acquises par plusieurs modules caméras peuvent être acquises simultanément ou à tour de rôle.
[0052] Pour un nombre d'images donné, l'utilisation de plusieurs modules caméra permet d'imager la scène de manière plus rapide, comparé à une situation où un seul module caméra est utilisé.
[0053] De plus, l'utilisation de plusieurs modules caméra permet d'imager la scène sur une profondeur de champ totale plus grande. En effet, les modules caméra équipant un appareil, par exemple un Smartphone, permettent d'imager une scène avec des distances de focalisation différentes. Par exemple, un smartphone peut être équipé, entre autres, d'un module caméra grand angle et d'un module caméra téléobjectif qui permettent d'imager la scène avec des distances de focalisation différentes.
[0054] Suivant des modes de réalisation, pour au moins une distance de focalisation, DFi, la profondeur de champ, PG = { PG, min ; PG, max} qui lui est associé est connue et donnée par le module d'imagerie. En effet, la profondeur de champ est déterminée par le matériel composant le module caméra, et dépend des propriétés physiques dudit module caméra.
[0055] Suivant des modes de réalisation, pour au moins une distance de focalisation, DFi, la profondeur de champ, PG = { PG, min ; PG, max} qui lui est associée peut être mesurée et mémorisée en association avec ladite distance de focalisation.
[0056] Une telle mesure peut être réalisée de différentes manières.
[0057] Par exemple, la profondeur de champ PG={PG,min ; PG, max} associée à une distance de focalisation DFi peut être mesurée de la manière suivante :
- le module de caméra est configuré pour acquérir une image d'une scène de référence à ladite distance de focalisation,
- une image de la scène de référence est prise à ladite distance de focalisation,
- le premier objet net sur l'image prise est identifié et sa distance est mesurée : cette distance correspond à PG, min ; - le dernier objet net sur l'image prise est identifié et sa distance est mesurée : cette distance correspond à PG, max ;
Ainsi, la profondeur de champ PG associée à la distance de focalisation est déterminée. Il est aussi possible de déterminer l'étendue de netteté NE = PG, max- PG, min associée à ladite distance de focalisation.
[0058] Suivant des modes de réalisation, au moins une image de la scène peut être une image 2D.
[0059] Suivant des modes de réalisation, au moins une image de la scène peut être une image 3D.
[0060] Suivant un autre aspect de la même invention, il est proposé un programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en œuvre toutes les étapes du procédé selon l'invention.
[0061] Le programme d'ordinateur peut être en tout langage informatique, tel que par exemple en langage machine, en C, C++, JAVA, Python, etc.
[0062] Un tel programme d'ordinateur peut se présenter sous la forme d'une application individuelle. Alternativement, un tel programme d'ordinateur peut être intégré dans une application d'acquisition photo ou vidéo.
[0063] Selon un autre aspect de l'invention, il est proposé un appareil comprenant :
- au moins un module caméra,
- au moins une unité de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention.
[0064] En particulier, l'appareil peut être un appareil utilisateur de type Smartphone, tablette, etc. comprenant un écran d'affichage. [0065] Dans ce cas, l'appareil utilisateur peut en outre comprendre un écran d'affichage, une surface de détection capacitive, etc.
[0066] En particulier, l'appareil peut être un appareil utilisateur de type ordinateur.
[0067] Dans ce cas, l'appareil utilisateur de type ordinateur peut comprendre un écran d'affichage, une surface tactile, en particulier intégrée dans, ou associée à, l'écran d'affichage dudit ordinateur, etc.
[0068] En particulier, l'appareil peut être une télévision.
[0069] En particulier, l'appareil peut être un casque de réalité virtuelle ou un casque de réalité augmentée.
[0070] Dans ce cas, le casque peut comprendre un écran d'affichage, un ou des capteurs en particulier optiques, etc.
[0071] En particulier, l'appareil peut être un dispositif d'imagerie médicale.
[0072] En particulier, le dispositif d'imagerie médicale peut être un endoscope, un appareil d'échographie, etc.
[0073] Bien entendu, l'appareil selon l'invention n'est pas limité aux exemples qui viennent d'être donnés.
[0074] Suivant un autre aspect de la présente invention, il est proposé un véhicule comprenant :
- au moins un module caméra, et
- au moins une unité de calcul ; configurés pour mettre en œuvre toutes les étapes du procédé selon l'invention.
[0075] Suivant des modes de réalisation, le véhicule peut être un véhicule terrestre, tel qu'une voiture, autonome, semi-autonome ou non-autonome. [0076] Suivant des modes de réalisation, le véhicule peut être un véhicule volant, tel qu'un drone, un avion, un hélicoptère, autonome, semi-autonome ou non-autonome.
[0077] Suivant des modes de réalisation, le véhicule peut être un véhicule maritime, tel qu'un bateau ou un sous-marin, autonome, semi-autonome ou non-autonome.
Description des figures et modes de réalisation
[0078] D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée de modes de réalisation nullement limitatifs, et des dessins annexés sur lesquels :
- la FIGURE 1 est une représentation schématique d'un exemple non limitatif de différentes grandeurs utilisées dans la présente invention ;
- la FIGURE 2-5 sont des représentations schématiques d'exemples de réalisation non limitatifs d'un procédé selon l'invention ;
- la FIGURE 6 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon l'invention ;
- les FIGURES 7-9 sont des représentations schématiques d'exemples de réalisation non limitatifs d'appareils selon l'invention ; et
- la FIGURE 10 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon l'invention.
[0079] Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si c’est cette partie qui est uniquement suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. [0080] En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique.
[0081] Sur les figures et dans la suite de la description, les éléments communs à plusieurs figures conservent la même référence.
[0082] La FIGURE 1 est une représentation schématique d'un exemple non limitatif de différentes grandeurs utilisées dans la présente invention.
[0083] La FIGURE 1 représente un module caméra 102. Le module caméra 102 comprend un objectif optique 104, également appelé système optique, comprenant un ou plusieurs éléments optiques tels que des lentilles. Le module caméra 102 comprend en outre un capteur d'image 106, tel qu'un capteur CCD ou CMOS, disposé en regard de l'objectif optique 104. L'objectif optique 104 a pour fonction de diriger la lumière provenant de différentes parties d'une scène à imager vers le capteur d'image 106.
[0084] La distance entre l'objectif optique 104 et le capteur d'image 106, noté DOC, peut être ajustée pour changer la zone de la scène qui sera perçue de manière nette sur le capteur d'image 106. Cette distance DOC peut être ajustée de différentes manières, par exemple par un mécanisme (non représenté) qui fait varier ladite distance DOC en bougeant le capteur d'image 106, ou l'objectif optique 104 ou encore les deux.
[0085] En particulier le changement de la distance DOC permet de modifier le point de focalisation 110 du module caméra 102. La distance entre le module caméra 102 et le point de focalisation 110 est appelé distance de focalisation, et noté DF, dans la suite.
[0086] Lorsque le module caméra 102 est ajusté sur une distance de focalisation donnée DF, le point de focalisation 110 se trouvant à la distance de focalisation DF apparaît de manière nette sur le capteur d'image 106. De plus, le capteur d'image 106 reçoit également de manière nette, dans une certaine mesure, certains points se trouvant après le point de focalisation 110 et d'autres points se trouvant avant le point de focalisation 110. Ainsi, le capteur d'image reçoit de manière nette une zone comprenant le point de focalisation 110. L'intervalle de distance comprenant le point de focalisation 110 et reçu de manière nette sur le capteur d'image 102 est appelé profondeur de champ, noté PC, avec PC= { PCmin ; PCmax} , avec
- PCmin : la distance entre le module caméra 102 et le plan de la scène le plus proche reçu de manière nette sur le capteur d'image 106 ; et
- PCmax : la distance entre le module caméra 102 et le plan de la scène le plus éloigné reçu de manière nette sur le capteur d'image 106.
De plus, la largeur de la profondeur de champ PCmax-PCmin est noté étendue de netteté et notée NET= PCmax- PCmin
[0087] Lorsque plusieurs images IMi-IMn sont acquises à des distances de focalisation différentes, respectivement DFrDFn, chaque image IMi prise à la distance de focalisation DFi représente la scène de manière nette en ce qui concerne les objets/zones de ladite scène se trouvant à des distances (par rapport au capteur d'image) comprises dans la profondeur de champ PCi = { PCi,min ; PCi,max} associée à ladite distance de focalisation DFi . L'image I Mi a une étendue de netteté NETi = PG, max- PG, min .
[0088] La FIGURE 2 est une représentation schématique d'un exemple de réalisation non limitatif d'un procédé selon la présente invention.
[0089] Le procédé 200 de la FIGURE 2 peut être utilisé pour obtenir, avec au moins un module caméra, une pile d'images de la scène, comprenant des images acquises à des distances de focalisations différentes, et donc des profondeurs de champ différents.
[0090] Au moins un module caméra peut comporter un capteur d'image associé à un objectif optique, tel que par exemple le module caméra 202 de la FIGURE 2. L'appareil d'imagerie utilisé pour imager la scène peut comprendre un unique module caméra. Alternativement, l'appareil d'imagerie peut comprendre plusieurs modules caméra.
[0091] Le procédé 200 comprend une étape 202 de détermination de distance(s) de focalisation pour acquérir des images de la scène en fonction d'une distance minimale Dmin prédéterminée et/ou d'une distance maximale Dmax prédéterminée. [0092] Suivant un exemple de réalisation les distances de focalisation peuvent être choisies de la manière suivante :
- une première distance de focalisation DFi, avec une première profondeur de champ PCi= { PCi,min ; PCi,max}, est choisie de sorte que la borne basse PCi,min de la profondeur de champ PCi est égale ou légèrement inférieure à ladite distance minimale Dmin ;
- une dernière distance de focalisation DFn, avec une dernière profondeur de champ PCn= { PCn,min PCn,max } , est choisie de sorte que la borne haute PCn,miax de la profondeur de champ PCn est égale ou légèrement supérieure à ladite distance maximale Dmax ;
- et éventuellement, une ou plusieurs distances de focalisation DFi peuvent être choisies entre les distances de focalisation DFi et DFn Ce mode de réalisation n'assure pas forcément une continuité de netteté entre les images qui seront acquises.
[0093] Suivant un autre exemple de réalisation, les distances de focalisation peuvent être choisies en partant de la distance minimale Dmin :
- une première distance de focalisation DFi, avec une première profondeur de champ PCi= { PCi,min ; PCi,max}, est choisie de sorte que la borne basse PCi,min de la profondeur de champ PCi est égale ou légèrement inférieure à ladite distance minimale Dmin ;
- ensuite, la deuxième distance de focalisation suivante DF2, avec une deuxième profondeur de champ PC2= { PC2,min ; PC2,max} , est choisie de sorte que la borne basse PC2,min de la profondeur de champ PC2 est égale ou légèrement inférieure à la borne haute PCi,max de la profondeur de champ PCi associée à la distance de focalisation DFi ;
- ainsi de suite jusqu'à une distance de DFn, avec une profondeur de Champ PCn = { PCn,min PCn, max } dont la borne supérieure PCn, max est égale, ou légèrement supérieure, à la distance maximale Dmax.
[0094] Alternativement à ce qui vient d'être décrit, les distances de focalisation peuvent être choisies en commençant par la distance maximale Dmax, au lieu de commencer par la distance minimale Dmin . Suivant encore une autre alternative, il est possible de commencer par une distance moyenne, Dmoy, se trouvant à égale distance des distances minimale Dmin et maximale Dmax. Bien entendu ces exemples ne sont nullement limitatifs.
[0095] Ce mode de réalisation permet de s'assurer d'une continuité de netteté entre les images qui seront acquises : en particulier deux images acquises à deux distances de focalisation qui se suivent dans l'ordre croissant, ou dans l'ordre décroissant, permettront de représenter la scène sur deux profondeurs de champ qui sont jointives ou qui se chevauchent. Dans l'exemple donné, et sans perte de généralité, l'étape 202 détermine des distances de focalisation pour obtenir une continuité de netteté pour toutes les images acquises.
[0096] Dans tous les cas, l'étape 202 fournit les distances de focalisation DFi-DFn auxquelles des images de la scène doivent être acquises.
[0097] Ensuite, le procédé 200 comprend une étape 204 d'acquisition d'images IMi-IMn auxdites distances de focalisation DFi-DFn. Certaines des images IMi-IMn peuvent être acquises par un même module caméra, les unes après les autres. Alternativement, ou en plus, certaines des images IMi-IMn peuvent être acquise par au moins deux modules caméra, simultanément ou les unes après les autres.
[0098] La distance de focalisation DF d'un module caméra peut être modifiée de plusieurs façons. Suivant un exemple de réalisation, la distance de focalisation DF d'un module caméra peut être modifiée en changeant la distance DOC entre le capteur d'image et l'objectif optique du module caméra. [0099] La profondeur de champ associée à une distance de focalisation est une grandeur optique dépendant de l'architecture du module caméra, et en particulier de l'objectif optique. Généralement, la profondeur de champ associée à une distance de focalisation est fournie par le fabricant ou préalablement mesurée, et mémorisée en association avec le module caméra, par exemple dans l'appareil d'imagerie intégrant le module caméra.
[0100] La FIGURE 3 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention. [0101] Le procédé 300 de la FIGURE 3 peut être utilisé pour obtenir, avec au moins un module caméra, une pile d'images de la scène, comprenant des images acquises à des distances de focalisations différentes, et donc des profondeurs de champ différentes.
[0102] Le procédé 300 comprend toutes les étapes du procédé 200 de la FIGURE 2.
[0103] De plus, le procédé 300 comprend, avant les étapes 202-204, une étape 302 pour déterminer, pour au moins, et en particulier chaque, distance de focalisation DFi d'un module caméra, la profondeur de champ PCi associée à ladite distance de focalisation DFi.
[0104] Une telle mesure peut être réalisée de différentes manières.
[0105] Suivant un exemple de réalisation non limitatif, et sans perte de généralité, la mesure de la profondeur de champ pour une distance de focalisation est réalisée de la manière suivante :
- le module caméra est réglé pour obtenir la distance de focalisation DFi, par exemple en changeant la distance entre le capteur d'image et l'objectif optique du module caméra ;
- une scène de référence, au sein de laquelle les distances sont connues, est imagée avec ledit module caméra à ladite distance de focalisation pour obtenir une image de calibration ;
- le premier plan net, c'est-à-dire le plan de la scène le plus proche du module caméra qui est net, dans ladite image de calibration est identifiée : la distance connue de ce premier plan net correspond à la borne basse PFi,min de la profondeur de champ PFi ;
- le dernier plan net, c'est-à-dire le plan de la scène le plus éloigné du module caméra qui est net, dans ladite image de calibration est identifiée : la distance connue de ce deuxième plan net correspond à la borne haute PFi, max de la profondeur de champ PFi.
[0106] Cette opération peut être réalisée pour toutes les distances de focalisation du module caméra lors de l'étape 302. Si l'appareil d'imagerie comprend plusieurs modules caméra, l'étape 302 peut être répétée pour chaque module caméra à tour de rôle ou en même temps. Ainsi, à la fin de l'étape 302, on obtient, pour chaque distance de focalisation DFi de chaque module caméra la profondeur de champ PG associée à ladite distance de focalisation DFi.
[0107] L'étape 302 peut être réalisée juste avant les étapes 202-204.
[0108] Alternativement, l'étape 302 peut être réalisée bien avant les étapes 202-204, par exemple lors de la fabrication du module caméra, ou lors de l'intégration du module caméra dans l'appareil d'imagerie, ou encore lors d'une opération de calibration du module caméra et/ou de l'appareil d'imagerie, ou encore d'une opération de calibration d'une application d'imagerie installée dans l'appareil d'imagerie.
[0109] La FIGURE 4 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention.
[0110] Le procédé 400 de la FIGURE 4 peut être utilisé pour obtenir, avec au moins un module caméra, une pile d'images de la scène, comprenant des images acquises à des distances de focalisations différentes, et donc des profondeurs de champ différentes.
[OUI] Le procédé 400 comprend toutes les étapes du procédé 200 de la FIGURE 2. Alternativement, le procédé 400 pourrait comprendre toutes les étapes du procédé 300 de la FIGURE 3.
[0112] Le procédé 400 comprend en outre une étape 402 de mesure de la distance, notée DSmin, entre le module caméra et l'objet/la zone de la scène qui est le plus proche dudit module caméra. Une telle mesure peut être réalisée de différentes manières. Par exemple, un capteur lidar peut être utilisé pour réaliser ladite mesure. La distance DSmin ainsi mesurée est utilisée comme distance minimale Dmin lors de l'étape 202, de sorte que Dmin = DSmin . Ainsi, la plus petite distance de focalisation DFi peut être choisie de sorte à imager de manière nette l'objet (la zone) le plus proche de la scène dans l'image correspondante acquise à ladite distance de focalisation.
[0113] Le procédé 400 comprend en outre une étape 404 de mesure de la distance, notée DSmax, entre le module caméra et l'objet/la zone de la scène qui est le plus éloigné dudit module caméra. Une telle mesure peut être réalisée de différentes manières. Par exemple, un capteur lidar peut être utilisé pour réaliser ladite mesure. La distance DSmax ainsi mesurée est utilisée comme distance maximale Dmax lors de l'étape 202, de sorte que Dmax= DSmax. Ainsi, la plus grande distance de focalisation DFn est choisie de sorte à imager de manière nette l'objet (la zone) le plus éloigné(e) de la scène dans l'image correspondante acquise à ladite distance de focalisation DFn.
[0114] Bien entendu, le procédé 400 peut ne comprendre qu'une seule des étapes 402 et 404.
[0115] En outre, le procédé 400 peut optionnellement comprendre l'étape 302 de détermination d'une profondeur de champs pour au moins une distance de focalisation.
[0116] La FIGURE 5 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un procédé selon la présente invention.
[0117] Le procédé 500 de la FIGURE 5 peut être utilisé pour obtenir, avec au moins un module caméra, une pile d'images de la scène, comprenant des images acquises à des distances de focalisations différentes, et donc des profondeurs de champ différents.
[0118] Le procédé 500 comprend toutes les étapes du procédé 200 de la FIGURE 2. Alternativement, le procédé 400 pourrait comprendre toutes les étapes du procédé 300 de la FIGURE 3.
[0119] Le procédé 500 comprend en outre une étape 502 de choix la distance minimale Dmin. cette distance minimale peut être choisie par l'utilisateur ou par un fabricant ou encore par une application d'imagerie utilisée. Cette distance minimale peut être fonction de la scène ou non. Cette distance minimale peut être fonction d'un mode d'imagerie choisi parmi plusieurs modes d'imageries, tels que par exemple mode paysage, mode portrait, etc. Dans l'exemple donné, et sans perte de généralité, le choix de la distance minimale Dmin est réalisée manuellement. La distance minimale Dmin peut être indiquée au travers d'un pavé numérique ou à l'aide d'un curseur, ou tout autre interface utilisateur.
[0120] Le procédé 500 comprend en outre une étape 504 de choix de la distance maximale Dmax. Cette distance maximale peut être choisie par l'utilisateur ou par un fabricant ou encore par une application d'imagerie utilisée. Cette distance maximale peut être fonction de la scène ou non. Cette distance maximale peut être fonction d'un mode d'imagerie choisi parmi plusieurs modes d'imageries, tels que par exemple mode paysage, mode portrait, etc. Dans l'exemple donné, et sans perte de généralité, le choix de la distance maximale Dmax est réalisée manuellement. La distance maximale Dmax peut être indiquée au travers d'un pavé numérique ou à l'aide d'un curseur, ou tout autre interface utilisateur.
[0121] Bien entendu, le procédé 500 peut ne comprendre qu'une des étapes 502 et 504.
[0122] En outre, le procédé 500 peut optionnellement comprendre l'étape 302 de la FIGURE 3 pour déterminer au moins une profondeur de champs pour au moins une distance de focalisation.
[0123] Dans tous les exemples décrits, l'étape 202 prend en compte une distance minimale Dmin prédéterminée pour déterminer les distances de focalisation. Alternativement, l'étape 202 peut déterminer les distances de focalisation en prenant en compte, non pas une distance minimale Dmin, mais en prenant en compte la plus petite distance de focalisation techniquement atteignable avec l'au moins un module caméra. Dans ce cas, le choix des distances de focalisation peut commencer, ou se terminer, par ladite plus petite distance de focalisation et la profondeur de champ qui lui est associée. Dans ce cas, la distance minimale Dmin est choisie comme étant la borne basse de la plus petite distance de focalisation techniquement atteignable avec l'au moins un module caméra.
[0124] Dans tous les exemples décrits, l'étape 202 prend en compte une distance maximale Dmax prédéterminée pour déterminer les distances de focalisation. Alternativement à ce qui est décrit en référence à la FIGURE 2, l'étape 202 peut déterminer les distances de focalisation en prenant en compte, non pas une distance maximale Dmax, mais en prenant en compte la plus grande distance de focalisation techniquement atteignable avec l'au moins un module caméra. Dans ce cas, le choix des distances de focalisation peut commencer, ou se terminer, par ladite plus grande distance de focalisation et la profondeur de champ qui lui est associée. Dans ce cas, la distance maximale Dmax est choisie comme étant la borne haute de la plus grande distance de focalisation techniquement atteignable avec l'au moins un module caméra.
[0125] La FIGURE 6 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention.
[0126] L'appareil 600 de la FIGURE 6 peut être utilisé pour obtenir une pile d'images de la scène, comprenant des images acquises à des distances de focalisation différentes, et donc à des profondeurs de champ différentes.
[0127] Le dispositif 600 de la FIGURE 6 peut être utilisé pour mettre en œuvre un procédé selon l'invention, et en particulier l'un quelconque des procédés 200, 300, 400 ou 500 des FIGURES 2-5.
[0128] L'appareil 600 comprend au moins un module caméra. Dans l'exemple décrits, et de manière nullement limitatif, l'appareil 600 comprend K modules caméras 602I-602K, avec K>1. Dans la suite, la référence 602 désigne un module caméra.
[0129] Chaque module caméra 602 comprend un objectif optique associé à un capteur d'image, et éventuellement un mécanisme permettant de changer la distance de focalisation dudit module caméra.
[0130] Au moins deux modules caméra peuvent présenter des distances de focalisation identiques.
[0131] Alternativement, ou en plus, au moins deux modules caméra peuvent présenter des distances de focalisation différentes : en d'autres termes l'un des modules caméra peut réaliser une image d'une scène à une distance de focalisation que l'autre module caméra ne permet de pas.
[0132] L'appareil 600 comprend en outre une unité de calcul 604 configuré pour réaliser différentes étapes du procédé selon l'invention.
[0133] L'unité de calcul 604 comprend un module optionnel 606 pour réaliser une détermination d'une profondeur de champ pour au moins une distance de focalisation, par exemple à partir d'une scène de référence. Ce module 606 peut par exemple être configuré/programmé pour, réaliser l'étape 302 des procédés 300, 400 et 500. [0134] L'unité de calcul 604 comprend en outre un module optionnel 608 de détermination de la distance d'au moins un objet de la scène, en particulier de la distance de l'objet le plus proche et/ou de la distance de l'objet le plus éloigné. Ce module optionnel 608 peut par exemple être configuré/programmé pour réaliser au moins l'une des étapes 402 et 404 du procédé 400.
[0135] L'unité de calcul 604 comprend en outre un module optionnel 610 de choix d'au moins une distance, en particulier d'une distance minimale et/ou d'une distance maximale, en vue de déterminer les distances de focalisation pour imager la scène. Ce module optionnel 610 peut par exemple être configuré/programmé pour réaliser au moins l'une des étapes 502 et 504 du procédé 500.
[0136] L'unité de calcul 604 comprend en outre un module 612 de choix/détermination de distances de focalisation pour imager la scène. Ce module 612 peut par exemple être configuré/programmé pour réaliser au moins l'étape 202 de l'un quelconque des procédés 200, 300, 400 et 500.
[0137] L'unité de calcul 604 comprend en outre un module 614 de commande d'au moins un module caméra pour acquérir des images de la scène à différentes distances de focalisation. Ce module 614 peut par exemple être configuré/programmé pour réaliser au moins l'étape 204 de l'un quelconque des procédés 200, 300, 400 et 500.
[0138] Au moins un des modules 606-614 peut être un module indépendant des autres.
[0139] Au moins deux des modules 606-614 peuvent intégrés au sein d'un même module.
[0140] L'unité de calcul 604, et/ou au moins un des modules 606-614, peut être un module matériel, tel qu'un processeur, une puce électronique, etc.
[0141] L'unité de calcul 604, et/ou au moins un des modules 606-614, peut être un module logiciel, tel qu'un programme d'ordinateur.
[0142] L'unité de calcul 604, et/ou au moins un des modules 606-614, peut être une combinaison d'au moins un module logiciel et d'au moins un module matériel. [0143] En particulier, l'unité de calcul 604 ou au moins un des modules 606- 614 peut être intégré dans une puce électronique, ou encore dans une application installée dans un appareil utilisateur.
[0144] Le dispositif 600 peut en outre comprendre, de manière optionnelle, un moyen de mémorisation 616 d'images, pour mémoriser les images acquises. Ce module 616 peut par exemple être configuré pour mémoriser au moins une des images acquises lors de l'étape 204 des procédés 200, 300, 400 et 500.
[0145] La FIGURE 7 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention.
[0146] L'appareil 700 de la FIGURE 7 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 200, 300, 400 et 500.
[0147] L'appareil 700 de la FIGURE 7 peut comprendre tous les éléments de l'appareil 600 de la FIGURE 6.
[0148] Dans l'exemple représenté sur la FIGURE 7, l'appareil 700 est un smartphone, ou une tablette, comprenant tous les éléments du dispositif 600 de la FIGURE 6. De manière non exhaustive, l'appareil 700 de la FIGURE 7 comprend un module caméra 602 et l'unité de calcul 604.
[0149] De plus, l'appareil 700 comprend un écran d'affichage 702 équipé d'une surface de détection 704, par exemple capacitive.
[0150] Bien entendu, l'appareil 700 peut comprendre d'autres organes que ceux indiqués ci-dessus.
[0151] La FIGURE 8 est une représentation schématique d'un autre exemple de réalisation non limitatif d'un appareil selon la présente invention.
[0152] L'appareil 800 de la FIGURE 8 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 200, 300, 400 et 500. [0153] L'appareil 800 de la FIGURE 8 peut comprendre tous les éléments de l'appareil 600 de la FIGURE 6.
[0154] Dans l'exemple représenté sur la FIGURE 8, l'appareil 800 est un casque de réalité virtuelle, VR, ou un casque de réalité augmentée, comprenant tous les éléments du dispositif 600 de la FIGURE 6. Le casque 800 de la FIGURE 8 comprend en particulier un module caméra 602 et l'unité de calcul 604.
[0155] De plus, le casque 800 comprend un écran d'affichage 802 dans/sur une visière dudit casque 800.
[0156] Bien entendu, le casque 800 peut comprendre d'autres organes que ceux indiqués ci-dessus.
[0157] La FIGURE 9 est une représentation schématique d'un exemple de réalisation non limitatif d'un appareil selon la présente invention.
[0158] L'appareil 900 de la FIGURE 9 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 200, 300, 400 et 500.
[0159] L'appareil 900 de la FIGURE 9 peut comprendre tous les éléments de l'appareil 600 de la FIGURE 6.
[0160] Dans l'exemple représenté sur la FIGURE 9, l'appareil 900 est un appareil d'imagerie médicale, tel qu'un endoscope, un appareil d'échographie, etc. En particulier, l'appareil d'imagerie médicale 900 comprend un module caméra 602 et l'unité de calcul 604.
[0161] De plus, l'appareil d'imagerie médicale 900 comprend un écran d'affichage 902 équipé d'une surface de détection 904, par exemple capacitive.
[0162] Bien entendu, l'appareil d'imagerie médicale 900 peut comprendre d'autres organes que ceux indiqués ci-dessus.
[0163] La FIGURE 10 est une représentation schématique d'un exemple de réalisation non limitatif d'un véhicule selon la présente invention. [0164] Le véhicule 1000 de la FIGURE 10 comprend des moyens configurés pour mettre en œuvre l'invention, et en particulier l'un quelconque des procédés 200, 300, 400 et 500.
[0165] Le véhicule 1000 de la FIGURE 10 peut comprendre tous les éléments de l'appareil 600 de la FIGURE 6.
[0166] Dans l'exemple représenté sur la FIGURE 10, le véhicule 1000 est un véhicule terrestre, en particulier une voiture, comprenant tous les éléments de l'appareil 600 de la FIGURE 6. En particulier, le véhicule 1000 comprend un module caméra 602 et l'unité de calcul 604. [0167] De plus, le véhicule 1000 comprend un écran d'affichage 1002 équipé d'une surface de détection 1004, par exemple capacitive, agencé dans l'habitacle du véhicule 1000.
[0168] Bien entendu, le véhicule 1000 peut comprendre d'autres organes que ceux indiqués ci-dessus.
[0169] Bien entendu l'invention n'est pas limitée aux exemples qui viennent d'être décrits.

Claims

REVENDICATIONS
1. Procédé (200;300;400;500) pour imager une scène avec au moins un module caméra, chacun comportant un objectif optique associé à un capteur d'image ; ledit procédé comprenant une acquisition de plusieurs images (IMi-IMn) de ladite scène à différentes distances de focalisation discrètes, DFi, chacune avec une profondeur de champ respective, PCi = {PCi,min ; PG, max}, comprenant ladite distance de focalisation respective, DFi, et s'étendant sur une étendue de netteté respective, NET = PG, max- PG, min ; une image acquise à une distance de focalisation, DFi, représentant de manière nette des parties de la scène se trouvant à des distances comprises dans la profondeur de champ, PG, associée à ladite distance de focalisation, DFi ; caractérisé en ce qu'il comprend en outre une étape (202) de détermination : - de la plus petite distance de focalisation (DFi) de sorte que la borne basse (PCi,min) de la profondeur de champ (PCi) qui lui associée est inférieure ou égale à une distance basse prédéterminée (Dmin) ; et/ou
- de la plus grande distance de focalisation (DFi) de sorte que la borne haute (PCn,max) de la profondeur de champ (PG.) qui lui associée est supérieure à une distance haute prédéterminée ( Dmax) .
2. Procédé (200;300;400;500) selon l'une quelconque des revendications précédentes, caractérisé en ce que la distance basse prédéterminée ( Dmin) :
- est choisie par un utilisateur ; ou
- correspond à la distance de l'objet le plus proche de la scène ; ou
- correspond à la plus petite distance de netteté permise par l'au moins un module caméra (602I-602K) .
3. Procédé (400) selon la revendication précédente, caractérisé en ce qu'il comprend en outre une étape (402) de détermination de la distance de l'objet le plus proche de la scène.
4. Procédé (200;300;400;500) selon l'une quelconque des revendications précédentes revendication précédente, caractérisé en ce que la distance haute prédéterminée (D max) :
- est choisie par un utilisateur ; ou
- correspond à la distance de l'objet le plus éloigné de la scène ;
- correspond à la plus grande distance de netteté permise par l'au moins un module caméra (602I-602K) .
5. Procédé (200;300;400;500) selon la revendication précédente, caractérisé en ce qu'il comprend en outre une étape (404) de détermination de la distance de l'objet le plus éloigné de la scène.
6. Procédé (200;300;400;500) selon l'une quelconque des revendications précédentes, caractérisé en ce que, pour au moins une distance de focalisation, la profondeur de champ associée à ladite distance de focalisation est jointive, ou se chevauche, avec la profondeur de champ associée à la distance de focalisation suivante.
7. Procédé (200;300;400;500) selon la revendication précédente, caractérisé en ce que, pour chaque distance de focalisation, la profondeur de champ associée à ladite distance de focalisation est jointive, ou se chevauche, avec la profondeur de champ associée à la distance de focalisation suivante.
8. Procédé (200;300;400;500) selon l'une quelconque des revendications 6 ou 7, caractérisé en ce que, pour au moins une distance de focalisation, la profondeur de champ associée à ladite distance de focalisation est jointive avec la profondeur de champ associée à la distance de focalisation suivante.
9. Procédé (200;300;400;500) selon l'une quelconque des revendications 6 à 8, caractérisé en ce que, pour au moins une distance de focalisation, la profondeur de champ associée à ladite distance de focalisation se chevauche avec la profondeur de champ associée à la distance de focalisation suivante.
10. Procédé (200;300;400;500) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'au moins deux, en particulier toutes les, images sont acquises avec le même module caméra (602).
11. Procédé selon l'une quelconque des revendications précédentes revendication précédente, caractérisé en ce qu'au moins deux images sont acquises avec des modules caméra (602I-602K) différents.
12. Programme d'ordinateur comprenant des instructions exécutables qui, lorsqu'elles sont exécutées par un appareil informatique, mettent en en œuvre toutes les étapes du procédé (200;300;400;500) selon l'une quelconque des revendications précédentes.
13. Appareil (600;700;800;900) comprenant :
- au moins un module caméra (602),
- au moins une unité de calcul (604) ; configurés pour mettre en œuvre toutes les étapes du procédé (200;300;400;500) selon l'une quelconque des revendications 1 à 11.
14. Appareil (1000) comprenant :
- au moins un module caméra (602),
- au moins une unité de calcul (604) ; configurés pour mettre en œuvre toutes les étapes du procédé (200;300;400;500) selon l'une quelconque des revendications 1 à 11.
PCT/FR2024/050096 2024-01-24 2024-01-24 Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée Pending WO2025158112A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/FR2024/050096 WO2025158112A1 (fr) 2024-01-24 2024-01-24 Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FR2024/050096 WO2025158112A1 (fr) 2024-01-24 2024-01-24 Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée

Publications (1)

Publication Number Publication Date
WO2025158112A1 true WO2025158112A1 (fr) 2025-07-31

Family

ID=90473290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2024/050096 Pending WO2025158112A1 (fr) 2024-01-24 2024-01-24 Procédé et dispositif d'acquisition d'une pile d'images d'une scène à amplitude de netteté ajustée

Country Status (1)

Country Link
WO (1) WO2025158112A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150358542A1 (en) * 2014-06-06 2015-12-10 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing
US20160227094A1 (en) * 2008-03-05 2016-08-04 Applied Minds, Llc Automated extended depth of field imaging apparatus and method
JP6391304B2 (ja) * 2014-06-05 2018-09-19 キヤノン株式会社 撮像装置、制御方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160227094A1 (en) * 2008-03-05 2016-08-04 Applied Minds, Llc Automated extended depth of field imaging apparatus and method
JP6391304B2 (ja) * 2014-06-05 2018-09-19 キヤノン株式会社 撮像装置、制御方法およびプログラム
US20150358542A1 (en) * 2014-06-06 2015-12-10 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing

Similar Documents

Publication Publication Date Title
EP2926162A1 (fr) Procede de production d&#39;images avec information de profondeur et capteur d&#39;image
WO2025158112A1 (fr) Procédé et dispositif d&#39;acquisition d&#39;une pile d&#39;images d&#39;une scène à amplitude de netteté ajustée
WO2025158111A1 (fr) Procédé et dispositif d&#39;acquisition d&#39;une pile d&#39;images d&#39;une scéne à netteté continue
EP2420052B1 (fr) Procédé et système d&#39;imagerie active á champ large
EP3170205B1 (fr) Dispositif de détection de mouvement
EP3274913B1 (fr) Dispositif et procede pour l&#39;acquisition biometrique de l&#39;iris
WO2025012531A1 (fr) Procede d&#39;acquisition d&#39;une pile d&#39;images d&#39;une scene
WO2025257479A1 (fr) Procede et dispositif de determination d&#39;une carte de profondeur d&#39;une scene a partir d&#39;une pile d&#39;images de ladite scene
WO2025253054A1 (fr) Procede et dispositif de determination d&#39;une carte de profondeur d&#39;une scene a partir d&#39;images de ladite scene
WO2025253055A1 (fr) Procede et dispositif de determination d&#39;une carte de profondeur d&#39;une scene
FR3125894A1 (fr) Procédé d’acquisition d’image d’au moins un astre et appareil pour la mise en œuvre du procédé
WO2025153777A1 (fr) Procédé et dispositif d&#39;acquisition d&#39;une pile d&#39;images d&#39;une scène a luminosite améliorée
EP3072110B1 (fr) Procédé d&#39;estimation du mouvement d&#39;un objet
WO2025012528A1 (fr) Procede d&#39;obtention d&#39;une pile d&#39;images, produit programme d&#39;ordinateur, dispositif de traitement et appareil electronique associes
WO2025163253A1 (fr) Procédé de commande d&#39;au moins un module caméra, programme d&#39;ordinateur, dispositif de commande et système d&#39;imagerie associés
WO2025012526A1 (fr) Procede de representation d&#39;une scene sur un support d&#39;affichage, programme d&#39;ordinateur, dispositif, appareil et vehicule mettant en œuvre un tel procede
FR2997258A1 (fr) Systeme de detection et de mesure comprenant un senseur optique, et procedes de detection et de mesure associe
WO2025229262A1 (fr) Procédé et dispositif de navigation dans une représentation d&#39;une scéne à partir d&#39;au moins une image de ladite scéne
EP4684362A1 (fr) Procede et dispositif de determination d&#39;information de profondeur d&#39;une scene avec des images de ladite scene prises par au moins deux cameras
WO2025012530A1 (fr) Procede pour obtenir une pile d&#39;images, produit programme d&#39;ordinateur mettant en œuvre un tel procede
WO2025099365A1 (fr) Procede et dispositif de representation dynamique et enrichie d&#39;une scene a partir d&#39;au moins une image de ladite scene
WO2024194535A1 (fr) Procede et dispositif de determination d&#39;information de profondeur d&#39;une scene avec des images de ladite scene prises par au moins deux cameras au sein d&#39;un appareil utilisateur
CA2955368C (fr) Procede et dispositif de traitement de mouvements de hautes frequences dans un systeme optronique
WO2025012522A1 (fr) Procede et dispositif d&#39;affichage personnalise d&#39;une scene a partir d&#39;image(s) de ladite scene
FR3116977A1 (fr) Dispositif de compensation du mouvement d’un capteur événementiel, systèmes et procédés associés

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24714224

Country of ref document: EP

Kind code of ref document: A1