WO2016034408A1 - Method and device for the simplified detection of a depth image - Google Patents
Method and device for the simplified detection of a depth image Download PDFInfo
- Publication number
- WO2016034408A1 WO2016034408A1 PCT/EP2015/068963 EP2015068963W WO2016034408A1 WO 2016034408 A1 WO2016034408 A1 WO 2016034408A1 EP 2015068963 W EP2015068963 W EP 2015068963W WO 2016034408 A1 WO2016034408 A1 WO 2016034408A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- pulse
- signal
- signals
- light pulse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/491—Details of non-pulse systems
- G01S7/4912—Receivers
- G01S7/4915—Time delay measurement, e.g. operational details for pixel components; Phase measurement
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
Definitions
- the invention relates to an apparatus and a method for detecting a three-dimensional depth image based on image information from an image sensor with one or two-dimensional pixel arrangement.
- digital cameras are used for the electronic capture of images nowadays.
- Such a digital camera is described, for example, in US4131919A and in EP2367360A2 and is hereinafter referred to as a conventional digital camera.
- Brightness images are taken using conventional digital cameras. In such a brightness image, brightness values are assigned to the pixels.
- Fig. 1 shows a schematic construction of a conventional digital camera 10 which captures a scene 11 consisting of objects 17, in which the image is captured by means of an optical system 12, e.g. is imaged by means of a lens on at least one image sensor 13, whose signals are converted by an electronic image processing device 14 into a digital image, which is output by means of an interface 15 via a signal transmission line 16.
- an optical system 12 e.g. is imaged by means of a lens on at least one image sensor 13, whose signals are converted by an electronic image processing device 14 into a digital image, which is output by means of an interface 15 via a signal transmission line 16.
- a storage it is possible for a storage to take place beforehand in the electronic image processing device 14 or for the signal transmission line 16 to lead to a storage medium (not shown) in which the image is stored.
- Fig. 2 shows a schematic structure of an image sensor 170 for conventional cameras, which will be referred to as a conventional image sensor.
- image sensors usually consist of a periodic arrangement of pixels 171 (hereinafter referred to as pixels).
- pixels Predominantly one-dimensional arrays are referred to as line sensors, and predominantly two-dimensional arrays are referred to as area sensors.
- the image sensor shown in FIG. 2 is thus an area sensor with conventional pixels 171.
- the pixels 171 have in common that they each have a photosensitive area 172, typically a photodiode (PD) or a so-called pinned Photodiode (PPD), which is designed so that during an exposure time in response to the incident light generates an electrical variable that is a measure of the amount of light received by the pixel in question.
- This electrical quantity may be a charge, a voltage, a current or even a time-coded signal, such as a pulse train.
- CCD charge-coupled device
- inter-line displacement CCDs Inter-line Transfer CCDs
- CMOS Complementary Metal-Oxide-Semiconductor
- ERS Electronic Rolling Shutter
- GS Global Shutter
- pixels for conventional image sensors regardless of the technology in which they are performed that is CCD or CMOS, referred to as conventional pixels.
- GS pixels typically have a signal memory 173, as shown in FIG. 2, in which charges or voltages can be stored.
- CMOS pixels are what is known as floating diffusion (FD), while charge storage in CCDs often takes place in metal-oxide semiconductor (MOS) diodes.
- FD floating diffusion
- MOS metal-oxide semiconductor
- pixels which are equipped with more than one signal memory, for example to perform a so-called Correlated Double Sampling (CDS), or to achieve an extended dynamic range (HDR).
- CDS Correlated Double Sampling
- HDR extended dynamic range
- control path 175 does not form a second signal path to a latch, but merely connects the photosensitive area to a supply voltage so that the charge is removed from the pixel outside the exposure time.
- monochrome cameras There are monochrome cameras called monochrome. Monochrome cameras do not have the capability in the To distinguish image capture between different colors. In addition, there are also color cameras that can detect such a distinction between different colors. For example, they can use an image sensor having a so-called mosaic filter with different colors, as described in US3971065.
- 3D cameras which generate so-called distance images or depth images in which distance values are assigned to the pixels, which represent a measure of the distance between the camera and the object.
- the depth images are output directly, or that further processing steps are carried out internally, for example the production of so-called point clouds from 3D coordinates or the interpretation of the depth images, for example as a gesture of a hand.
- time-of-flight cameras which perform a light-time-based distance measurement and are referred to as time-of-flight cameras (TOF cameras), as disclosed, for example, in DE102011089636A1.
- FIG. 3 shows a schematic structure of a ToF camera 20, which has a synchronization unit 21, which controls an electronic control device 22 for a light source 23 by means of a control signal 33 in such a way that this light source 23 transmits light or light pulses modulated in time.
- the emitted light beams 34 and 36 are scattered or reflected by objects 25 and 26 and partly pass back to the camera as object light beams 35 and 37, being delayed because they travel the necessary distance at approximately the speed of light.
- There they are with an optics 27, eg with a Lens, imaged on the image sensor 28.
- the image sensor 28 is in turn driven by means of a drive signal 32 from the synchronization unit 21 so that it performs a demodulation of the object light beams.
- From the raw data supplied by the image sensor 28, depth images are then generated in a computing unit 29 which are output via an interface 30 to a transmission line 31.
- ToF cameras often have special ToF image sensors for measuring distances, as are known, for example, from DE19704496C2, US8115158 or US20120176476A1.
- These image sensors often work with pixels that are equipped with so-called photonic mixer detectors (PMD) or work on a related principle.
- PMD photonic mixer detectors
- These pixels will hereinafter be referred to as demodulation pixels and the image sensors as demodulation sensors.
- FIG. 4 shows a schematic structure of a ToF demodulation sensor 180 with demodulation pixels 282.
- demodulation pixels 181 have the common feature that there is in each case a photosensitive area 182 which is connected to at least two different signal stores 183 and 184 via at least two different signal paths 185 and 186 is connected.
- the read-out electronics for the at least two signal memories are present more than once per pixel.
- Demodulation pixels are predominantly used together with light sources which are in so-called continuous wave operation
- Sinusoidally modulated light is used very often or light with a pulse-pause ratio of approx. 50%.
- Such image sensors with demodulation pixels are manufactured especially for ToF applications. They are generally more expensive and therefore more expensive than comparable conventional image sensors, or they have fewer pixels at the same price and thus lower spatial resolution.
- demodulation pixels require more sophisticated electronics for their characteristic plurality of signal paths than conventional pixels. As a result, they have an increased space requirement compared to the conventional pixels, which leads to a higher resource requirement, for example chip area.
- the area fraction of the total area of the pixel which is available for the photosensitive area is reduced compared to a conventional pixel.
- conventional pixels are generally more sensitive to light than demodulation pixels.
- conventional image sensors are currently produced in far greater numbers than ToF image sensors, resulting in a further price advantage for the conventional image sensors. For these reasons, it would be advantageous to be able to provide conventional image sensors with conventional pixels also for ToF cameras.
- the conventional pixels in conventional image sensors usually have only one signal path and often only one signal memory. Even with such image sensors, however, ToF range images can basically be recorded.
- Another method for capturing a ToF image by means of a conventional CMOS image sensor is known from EP1040366B1.
- sensor signals three different raw images (referred to there as sensor signals) for determining a distance image, namely a first image with dark current and ambient light, a second raw image in which, depending on the light transit time, a part of the received light is integrated, and a third signal with a higher integration time.
- dark current and ambient light are recorded twice, with short and with a long integration time.
- a pixel architecture can be found, for example, for a CCD image sensor in US8576319A and for a CMOS image sensor in EP2109306A2.
- the invention has for its object to provide a light cycle camera, which can provide depth data with high measurement quality and high image resolution.
- the light source of the time of flight camera for emitting at least one light pulse and the image sensor for demodulating the received light signal are controlled by means of an electrical shutter associated with each pixel of the image sensor, the electrical shutter being clocked at least three times in fixed phase relation to the at least one light pulse (ie opened and closed) to detect at least three signals, wherein the time duration of the opening of the electrical closing device is equal to each, and wherein the phase shift between the first opening and the second opening is equal to the phase shift between the second opening and the third opening ,
- the shutter being clocked such that the phase shift between the light pulse and the shutter is varied by the different phase positions of the timing between the subimages.
- the solution according to the invention can provide image processing with only one signal path per pixel of the image sensor, whereby the conventional image sensor-dependent advantages of low complexity, low noise, high lateral resolution and high frame rate can be maintained even in light-time cameras.
- Due to the inventive possibility of using conventional image sensors in ToF cameras it is possible to record both conventional images and distance images with one and the same camera.
- color image sensors can also be used. Since the color filters used in the Bayer pattern are usually transparent to infrared light, a distance image can also be recorded with the conventional use of an infrared light source with a conventional color image sensor. This has the advantage of making it possible to record both color images and distance images with one and the same ToF camera.
- the phase shift between the first control signal and the second control signal and the phase shift between the second control signal and the third control signal with respect to the period of the light pulse can each be 120 °.
- the phase shift between the time of opening of the electrical closing device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be -60 °.
- the time duration of the pulse-shaped control signals for the opening of the electrical closure device with respect to the period of the pulse of light can correspond to a phase angle of 180 ° and the duration of the light pulse with respect to the period of the light pulse can correspond to a phase angle of 60 °.
- the phase shift between the time of opening of the electrical closing device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be 0 °.
- the time duration of the pulse-shaped control signals for the opening of the electrical closure device with respect to the period of the light pulse a phase angle of 60 ° and the duration of the light pulse with respect to the period of the light pulse corresponding to a phase angle of 180 °. This allows a high measurement quality with a smaller measuring range.
- an advantageous avoidance of the undesired depth aliasing can be achieved by increasing the period duration of the light pulse signal.
- This enables high measurement quality with low nonlinear errors.
- the phase shift between the time of opening of the electrical closure device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be 0 °, but now the time duration of the pulse-shaped Control signals for the opening of the electric shutter with respect to the period of the light pulse corresponds to a phase angle of 120 ° and also the duration of the light pulse with respect to the period of the light pulse corresponds to a phase angle of 120 °.
- This modification of the phase relationships makes it possible to determine the distance with a particularly low computational outlay and associated lower resources.
- the proposed time of flight camera may include calculating means for calculating the distance information of the three-dimensional image based on the values of the three signals based on case discrimination for different ranges determined by mutual size ratios of the values of the three signals.
- the computing device can advantageously be configured such that the validity of the calculated distance information is determined on the basis of a ratio between signal quality and noise. Additionally or alternatively, the computing device can be designed so that a decision about the validity of the calculated distance information based on the degree of saturation of the three signals.
- a pulse-pause ratio which is smaller or even very much less than 50% can be used for the emitted light signal. This results in a lower sensitivity to ambient light and thus an improved measurement quality. This allows camera applications in strong ambient light, such as sunlight or studio spotlights.
- the components of the device or time-of-flight camera proposed for achieving the above-mentioned object can be used individually or jointly as discrete circuits, integrated circuits (eg application-specific integrated circuits (ASICs)), programmable circuits (eg field programmable gate arrays (FPGAs). ) be realized.
- the arithmetic unit can be realized by an FPGA as a central component.
- the steps of the method claim can be realized as a software program or software routine for controlling the processor of a computer device for its execution.
- Fig. 1 shows a schematic structure of a conventional
- FIG. 3 shows a schematic structure of a ToF camera
- FIG. 4 shows a schematic structure of a ToF demodulation sensor with demodulation pixels
- 5 (a) - (d) are schematic timing charts for a ToF camera according to a first embodiment
- Fig. 6 (a) - (e) are schematic timing charts for explaining the timing for light and control signals according to the first embodiment
- FIGS. 9 (a) and (b) show trajectories of S vectors in S space according to FIG.
- Fig. 14 shows a diagram with signal curves taking into account the law of distance;
- Fig. 15 is a formula for calculating the depth noise;
- Fig. 16 is a formula for determining the validity of distance values
- FIG. 17 is a diagram illustrating an approximation of FIG.
- FIG. 20 shows time charts with a time controller according to a second embodiment
- FIG. 21 (a) and (b) are diagrams showing resultant waveforms according to the second embodiment
- Fig. 22 is a formula for determining the distance d in the second embodiment
- Figs. 23 (a) and (b) are timing charts showing the peak value and average value of a pulse frequency modulated signal at different pulse repetition frequencies;
- Fig. 25 is a formula for calculating the depth noise in the third embodiment
- G. Fig. 26 is a formula for determining the validity of dependency values of the third embodiment
- FIG. 27 shows time charts with a timing according to a fourth embodiment
- FIG. 28 is a timing chart showing a timing according to a fifth embodiment
- Figs. 30 (a) and (b) show a trajectory of the S vectors for the fifth
- Embodiment from two different directions of view Embodiment from two different directions of view
- Fig. 31 is a formula for determining the distance from the
- FIG. 32 shows a curve of a real measured distance as a function of the time difference for the fifth exemplary embodiment
- FIG. 34 is a graph showing resulting waveforms according to the sixth embodiment.
- Fig. 35 is a formula for determining the distance in the sixth
- Fig. 36 timing diagrams with a timing according to
- FIG. 37 is diagrams showing resultant waveforms according to the seventh embodiment.
- Figs. 38 (a) and (b) show a trajectory of the S vectors for the seventh
- Embodiment from two different directions of view Embodiment from two different directions of view
- Fig. 39 is a formula for determining the distance in the seventh
- Fig. 40 is a formula for calculating the depth noise in the seventh embodiment
- FIG. 42 are diagrams showing resultant waveforms according to the eighth embodiment.
- Fig. 43 is a formula for determining the distance in the eighth
- FIG. 5 (a) to (d) are timing charts showing waveforms according to a first embodiment of operating a ToF camera of FIG. 3 with an image sensor 28, which is preferably a conventional image sensor of FIG. 5 (a) shows the timing for emitting light L from the light source 23 in the camera 20 with two different intensity levels "0" and "1" over time t. For example, at level “1" light is emitted and No light is emitted at the "0" level, the light is emitted as a time-limited light pulse 40 having a temporal pulse length t1 and having a period tp after a dead time to optional as a second light pulse 60 and a third light pulse 61, and so on.
- the period tp is here equated to 360 °
- incident light D is detected by the image sensor 28.
- the associated waveform is also shown in Fig. 5 (a).
- the incident light initially only consists of the ambient light 43 with the intensity level B assumed to be constant.
- the incident light pulse 42 is added to this ambient light, resulting in the time profile of D shown. This has traveled between emission and incidence from the light source 23 to the objects 25, 26 and back to the image sensor 28 a distance at about the speed of light and is therefore delayed by a time difference td.
- the light pulse 40 is also reduced by the propagation in space in accordance with the law of distance and the incomplete reflection on the object in its intensity, so that the received light pulse 42 is generally less intense than the emitted light pulse 40th
- the image sensor 28 is driven by the synchronization unit 21 by means of the drive signal 32, so that it carries out a demodulation of the object light beams.
- This control signal 32 is formed in the following exemplary embodiments by three control signals CO, C1 and C2.
- the control The image sensor 28 takes place by means of an electric shutter (Shutters) of the type mentioned.
- control signal CO for controlling the electric shutter of the image sensor 28 shown in Fig. 3 is shown over the time t for obtaining a first raw image.
- control signal CO assumes states “0" and “1” with the electric shutter in the "0" state closed and the image sensor 28 unable to receive light while in the "1" state and the image sensor 28 light can receive.
- the control signal CO is applied in parallel to the emitted light pulses 40, 60 and 61 with fixed phase relation phi0 shown in Fig. 5 (a) to obtain a first raw image.
- the opening time is 180 °.
- a signal component 47 of the ambient light 43 is detected by the image sensor 28 during the opening time of the electrical shutter, while another signal component 48 of the ambient light 43 is not detected outside the opening time of the electrical shutter.
- a signal component 45 of the incident light pulse 42 is additionally detected, while another signal component 46 of the incident light pulse is not detected. This can be realized, for example, by removing the charge from the photosensitive region 172 via the electrical shutter (not shown) of FIG. 2 connected to the signal path 175 when the control signal CO becomes "0", and then when the control signal CO is in the "1" state assumes the charge from the photosensitive area 172 is cumulatively supplied to the memory 173 via the signal path 174.
- a signal is formed, for example a charge, a voltage, a current or a digital number. If several light pulses 40, 60 and 61 have been emitted and the electrical shutter has been opened several times, the signals of the individual openings of the shutter become analogous, as charges in the memory 173, i. as charge packets, added or cumulated, which is symbolized by the adding function 49, and finally form a signal SO. This signal is assigned to one pixel each. Together with further signals SO from other pixels, a first raw image is produced for the signal SO.
- the adding function 49 could also be realized in the arithmetic unit 29 shown in FIG. 3, if signals of the individual shutter openings are separately digitized and processed. The same applies to the (symbolic) adding functions 54 and 59 mentioned below.
- a second control signal Gl for controlling the electric shutter over the time t for obtaining a second raw image is shown.
- the terms used correspond to those of Fig. 5 (b).
- another phase relation is used.
- the opening time is 180 °.
- a signal is again formed from the incident light, and if several light pulses 40, 60 and 61 have been emitted and the electrical shutter has been opened several times, the signals of the individual apertures of the shutter are analogously represented by a symbolic addition function 54 as charges in the memory 173, i. as charge packets, added or accumulated and finally form a signal Sl.
- This signal is also assigned to one pixel. Together with further signals Sl from other pixels, a second raw image is produced for the signal S1.
- the adder function 54 could also be implemented in the arithmetic unit 29 shown in FIG. 3 if signals of the individual shutter openings are separately digitized and processed.
- a third control signal C2 for controlling the electrical closure over time t is shown for obtaining a third raw image.
- the terms used correspond to those of Figs. 5 (b) and (c).
- phi2 120 °, as well as phil.
- the opening time is again 180 °.
- the adding function 59 could also be realized in the arithmetic unit 29 shown in FIG. 3, if signals of the individual shutter openings are separately digitized and processed.
- the control signals CO, C1 and C2 have the same period tp as the light L.
- Figs. 6 (a) to (e) are diagrams for explaining the occurrence of the signals by using the timing for light and control signals. Specifically, Figs. 6 (a) to (e) show how the phase relationship between the incident light D and the control signal C results in a waveform of the signal S over the time difference td.
- the incident light pulse 70 arrives so that a signal portion 71 of the received light pulse is before the rising edge 73 of the control signal C and is not received, while another signal portion 72 is behind the rising edge 73 and received accordingly becomes.
- the later now the incident light pulse 70 arrives the smaller is the non-received signal component 71 of the incident light pulse and the greater is the received signal component 72.
- an increasing profile 74 of the signal S results over the time difference td.
- the incident light pulse 75 arrives and the control signal C becomes "1" during the entire time of arrival, thereby receiving the incident light pulse as the completely received light pulse 76.
- a constant high value 77 for the signal S is the case.
- the incident light pulse 78 arrives so that a signal portion 79 of the received light pulse is before the falling edge 81 of the control signal C and is received, while another signal component 80 is behind the falling edge 81 and accordingly not received.
- a falling curve 82 of the signal S over the time difference td results in the case shown, a falling curve 82 of the signal S over the time difference td.
- the incident light pulse 75 arrives at a time when the control signal continuously assumes the state "0.” This completely suppresses the received light pulse 84. As long as this is the case, the signal S results a constant low value 85.
- Figs. 7 (a) and (b) are diagrams showing waveforms for the first embodiment. More specifically, Fig. 7 (a) shows the signals SO, Sl and S2, and Fig. 7 (b) shows the value for the distance d determined therefrom.
- the waveform shown in FIG. 7 (a) is obtained for the signals SO, S1 and S2.
- the signals thereby move between a background signal Sb, which results only from the contribution of the received ambient light 58 to the signals SO, S1 and S2, and the peak signal Sp, which is the sum of the contribution of the received ambient light and the received light pulses 51 and 52 to the signals SO, Sl and S2.
- An S-space can be defined as space, which is spanned from the unit vectors SO, Sl and S2 as a basis.
- the value triples of the signals SO, Sl and Sl define an S-vector having as components the values of the signals SO, Sl and S2.
- the time difference td exceeds the period tp, then there are, for example, in the area 96 values for the signals SO, S1 and S2 which can not be distinguished from those in the area 90 and in the area 97 values which are not distinguished from those in the area 91 can.
- This effect is called depth aliasing. If one looks at the origin of the S-space along the unit diagonal, this division corresponds to a segmentation along the unit diagonal with six pie-shaped segments of 60 ° each.
- a periodic repetition of the proportional increase in the distance d ensues.
- both the precipitous drop 101 and the periodic repetition are measurement errors due to depth aliasing.
- the proportionality factor for the proportional increase in the first region 100 results from the speed of light c and the pulse length t1, the latter namely the slope of the within the ranges in Fig. 7 (a) respectively increasing or decreasing signal influenced.
- the proportionality factor is c * tl 12.
- FIG. 8 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2.
- the distinction between regions 90 to 95 shown in FIG. 7 (a) results in a linear signal curve within each region, so that in each region the distance d can be determined using a linear equation.
- Fig. 8 gives a formula by means of which linear equations for the regions 90 to 95 can be combined by means of a case distinction into a single piecewise linear formula.
- d is the distance to be measured
- c is the speed of light
- tl is the pulse length.
- the six case discriminations by inequalities are made to determine to which of the six regions 90 to 95 the S vector belongs and with which linear equation a distance is to be calculated from its components. For each area, a linear equation is given. By adding the numbers 0, 1, 2, 3, 4, 5 a continuity in the determined distance d is achieved.
- a value for the distance d shown in Fig. 7 (b) can be correctly determined.
- the values of the signals SO, S1 and S2 are thus supplied to an operator, which is constructed analogously to a Hue operator and a rotation angle about the spatial diagonal of the S0-S1-S2 space determined. By means of a proportionality constant, this is then converted into the distance information.
- the proposed method makes it possible to achieve a particularly large measuring range for a given pulse width t1.
- FIGS. 9 (a) and (b) show a trajectory of S vectors in S space according to the prior art and the first embodiment, respectively.
- FIG. 9 an S-space is shown as a cube and the trajectory of the S-vectors is plotted with increasing time difference td.
- Fig. 9 (a) shows a trajectory according to the prior art
- Fig. 9 (b) shows a trajectory according to the first embodiment.
- One way of measuring the time difference td by means of the three signals SO, Sl and S2 is to measure the ambient light as a constant signal S2, partially receive an incident light pulse and measure as rising signal Sl and the ambient light plus the full incident light pulse to measure SO as a constant signal. This results in a linear course in S-space, as shown by way of example in FIG. 9 (a), the trajectory drawn here assuming an ambient light of zero.
- Fig. 9 (b) shows the trajectory of the S vectors in S space resulting from the waveform shown in Fig. 7 (a) assuming that the intensity of the ambient light is zero.
- a 6 times as long trajectory is achieved.
- the selected trajectory has a maximum length under the given boundary conditions.
- the given boundary conditions consist of the requirement that the time difference td and thus the distance d can be determined independently of the intensity of the ambient light and of the intensity of the incident light pulse. This particularly long trajectory makes it possible to achieve a particularly large measuring range.
- the measurement range having a certain range of distances given by the period tp does not start from zero at a distance d from the camera, but at a different, selectable distance.
- a possible reason for this is that objects from which distance images are to be created, for example parcels on a conveyor belt, on which a camera mounted above is directed from above, can not exceed a certain height and the measuring range can be optimally adapted to the actually occurring quantities should.
- Another possible reason is that objects in too close proximity cause the signals of the image sensor to saturate the signals and therefore the distance can not be measured correctly anyway, so that it is advantageous to adapt the measuring range to correctly measurable distances , This circumstance will be explained in more detail in the discussion of FIG. 14.
- Figs. 10 (a) and (b) show waveforms when the measuring range is shifted to a minimum distance dmin by 120 °, as an example of a multiple of 60 °.
- the waveform in Fig. 10 (a) is also shown. with respect to the waveform in Fig. 7 (a) unchanged.
- the shifted distance values shown in Fig. 7 (b) are calculated here.
- the range of the distance ranges from a minimum distance dmin, which is greater than zero, to almost a maximum distance dmax, which is advantageously greater than dp.
- the small values of the time difference td which belong to a rising distance value 103 lying ahead of the measuring range, are then subject to a depth aliasing and do not occur according to the changed task.
- the signals are converted correctly into an increasing distance d in a first area 105. Behind the falling edge 106 of the distance d, a further increase occurs in a second area 107 of the distance, which however subject to a depth aliasing.
- FIG. 11 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 with a measuring range shifted by the two signal ranges 90 and 91.
- the formula according to FIG. 11 can be realized with the shifted measuring range shown in FIG. Compared to FIG. 7, it can be seen that the signal regions 90 and 91 result in a different distance interpretation for the same signals SO, Sl and S2, which is found in the formula in the offset values "6" and "7". Generally speaking, for the regions affected by an increased interpretation of the distance, the offset value is increased by "6.” In principle, this process can also be carried out several times, so that a minimum distance dmin beyond dp can also be realized.
- Figs. 12 (a) and (b) show waveforms when the measuring range is shifted to a minimum distance dmin by 150 ° as an example of a multiple of 60 ° Value.
- the signal curves shown here are represented as a function of a time difference, ie for each value of td, a separate time diagram must run and then supplies the signal value as a result.
- This shift of the measuring range allows various distance interpretations to be made in different parts of a distance range.
- the left-hand part of the signal region 92 is interpreted differently than the right-hand part, and a falling edge 108 of the value for the distance d results in the middle of the signal region 92.
- the correct measurement range 109 begins within the signal range 92.
- FIG. 13 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 with a measuring range shifted by the two signal ranges 90 and 91 and a part of the signal range 92.
- This formula indicates the distance interpretation shown in FIG.
- FIG. 14 shows a signal course for the signals SO, S1 and S2, taking into account the law of distance and starting from the aforementioned explanations.
- the waveform for the signals SO, Sl and S2 shown with increasing distance d.
- the spacing law superimposes a 1 / r 2 function on the waveform of FIG. 10 (a).
- the signal moves between the background signal Sb and the saturation signal Ss.
- the latter arises from the fact that image sensors usually can store only a finite maximum signal in the pixel, which is referred to here as the saturation signal Ss.
- FIG. 15 shows a formula used in the calculation unit 29 for calculating the depth noise Nd, which was calculated using the formula according to FIG. 8.
- NSO is the noise of the signal SO
- NS1 the noise of the signal Sl
- NS2 the noise of the signal S2 and tl the pulse length and c the speed of light.
- the operator max () denotes a maximum operator and min () a minimum operator.
- the noise values NSO, NS1 and NS2 can either be measured or calculated. In the latter case, for example, the formulas of standard EMVA1288 release A3.0 can be used. There, the calculation of the temporal noise is determined from the dark noise of the image sensor and from the shot noise of the charge carriers and from the so-called conversion gain. If necessary, the quantization noise can still be considered.
- the distance noise Nd obtained with the first embodiment is directly proportional to the pulse length t1.
- a simple way Therefore, to make a high-quality depth measurement with a low noise, it is to select the pulse length tl short. Since the length of the measuring range from "0" to dp or from dmin to dmax is in turn proportional to t1, the measuring range is shortened with a shortening of the pulse length t1. Since, as mentioned above, the measuring range in the first exemplary embodiment is particularly In addition, the distance range can be optimally adjusted by the possibility of shortening the pulse length t1 and thus reducing the distance noise Nd, as explained in FIGS. 10 to 13.
- FIG. 16 shows a formula used in the arithmetic unit 29 for determining the validity of range values calculated from the signals SO, S1 and S2.
- SO, S1 and S2 are the already explained signals as digital values
- o is the offset value of the camera as digital value
- Nd is the dark noise of the camera, which can be determined according to EMVA1288 and given in electrons e- K
- tl the pulse length in a unit of time
- c the speed of light in a unit of length per time
- Lim a freely selectable parameter for setting a limit value for the depth noise in units of length, eg Meter.
- the formula of FIG. 16 is constructed of terms 210 to 213.
- Term 210 provides a limit value, Term 211 a proportionality factor, Term 212 a measure of the signal quality in digital Numbers and Terra 213 an estimate for the noise.
- the formula can be explained as follows: If the signal quality is higher than the noise by an adjustable limit value, the corresponding measured value is valid. This makes it possible to differentiate between valid and invalid measured values.
- Another criterion for the validity of measured values is that all three signals SO, S1 and S2 are not saturated, that is to say are smaller than the saturation signal Ss.
- Fig. 17 shows a diagram with an approximation of the noise by means of a simplified approximation function.
- the depth noise Nd over the distance d is shown as graph 160.
- This course was calculated from the formula according to FIG. 15. Since the resulting formula is complex and leads to a high computational effort in practical use, an alternative approximation graph 161 with an approximate formula was calculated.
- This approximation formula results if instead of the three noise values NSO, NS1 and NS2 only one noise value is used for the mean value of the signals SO, S1 and S2. This approach is based on the formula according to FIG. 16.
- Fig. 18 shows a time course of an ideal and a real light pulse.
- the ideal light pulse 140 has a steep turn-on edge 141 in which the intensity rises from “0" to "1” and a steep turn-off edge 142, in which the intensity drops from “1” to "0", without any relevant increase - or fall time would be needed.
- the real light pulse 143 has a steady turn-on edge 144 and a steady turn-off edge 145 and thus does not generate one ideal temporal intensity curve, which differs significantly from the curve of the ideal light pulse 140.
- This deviation leads to deviations of the real course of the signals SO, S1 and S2 as a function of the time difference td from the signal profile shown in FIG. 7 (a), for example, and consequently also from the distance d determined therefrom, which in FIG. 7 (b) is shown.
- FIG. 19 shows a curve of a real measured distance d as a function of the time difference td.
- a real, determined by measurement course of the measured distance d has compared to the ideal proportional increase in the range 100 in Fig. 7 (b) non-linear deviations.
- the measured distance can be linearized by means of a nonlinear correction function. This can be done, for example, in analytical form using an analytic function f (d) whose input variable is the measured distance d and which as a result yields a linearized distance f.
- a function can be determined, for example, by mathematical modeling by means of a periodic function in which the selectable parameters are adjusted by Fit.
- Fit refers to an iterative approximation method.
- a numerical correction function which associates the measured distance d with a correct, linearized distance.
- the distance d can be measured for a plurality of known locations and a memory table can be created from the known correct distances of these locations and the measured distance.
- the arithmetic unit 29 in FIG. 3 can then read out a correct distance value for a measured value of a distance d.
- an interpolation between two measuring points can be carried out, wherein the interpolation can be carried out, for example, linear, quadratic, cubic or with an even higher order.
- Such a non-linear correction function can be used to correct measurement errors that result from deviations of the pulse shape of a real light pulse from the pulse shape of an ideal light pulse.
- Fig. 20 shows waveforms for a timing according to a second embodiment.
- This timing controller has the same pulse length t1, the same opening time ts and the same phase shifts phil and phi2 as the timing shown in Fig. 5, whereas the dead time to, the phase shift phiO and the period tp are changed.
- the values for the phase shift are used here in such a way that their values in degrees still correspond to the original definition in the first exemplary embodiment in relation to refer to there period tp.
- the light pulses follow one another with the increased value for the period tp more than 360 ° apart, while the duration of a light pulse continues to be 60 °, the shutter opening time still 180 °, and ph.il and phi2 still 120 ° ,
- Figs. 21 (a) and (b) show waveforms of the signals SO, Sl and S2 resulting from the timing of the second embodiment. These signal waveforms have signal range 220 to 229. Compared to Fig. 7 (a), the signal areas 223 to 226 of Fig. 21 (a) qualitatively correspond to the signal areas 90 to 93 of Fig. 7 (a), respectively, but shifted along the axis of time difference td. In addition, new signal areas 220, 221, 222, 227, 228 and 229 show that have a fundamentally different signal course.
- This curve has two areas 154 and 158 in which no distance can be calculated because the three signals SO, S1 and S2 are constant and identical there, so that on the basis of which small equation can be resolved after the distance.
- the curve also has two regions 155 and 157 with a piecewise constant value for the distance d, and a region 156 in which the value for the distance increases linearly with an increasing time difference td and in which the time difference td is correctly set in a value for the distance d can be implemented.
- FIG. 22 shows a distance calculation formula used in the arithmetic unit 29 for the second embodiment.
- the formula is largely identical to that given in FIG. 8, but an additional offset value dmin has been added from the value of phiO, which differs significantly from that in FIG. 5 in the illustration of FIG.
- dmin has been added from the value of phiO, which differs significantly from that in FIG. 5 in the illustration of FIG.
- the second embodiment has the following advantages over the first embodiment. Since the period tp in FIG. 20 is significantly greater than in FIG. 5, a periodicity of the value of the distance d, as shown for example in FIG. 7, occurs only at significantly higher values for the time difference tp and thus only in significant greater distances between the camera 20 and the objects 25 and 26 of FIG. In practice, it is even possible to set the value for the period tp to be so great that practically no depth aliasing occurs because it is shifted to such great time differences td with such great distances that due to the law of distance from this distance practically no measurable light returns to the camera 20 or is so much weakened that the values determined therefrom can be recognized as invalid, for example by using the formula shown in FIG.
- the design of the profile with the regions 154, 155, 157 and 158 in FIG. 21 (b) achieves a uniqueness of the distance values determined in the linear value range 156. That is, if one of the values for the distance is measured from the range of 156, it can be ensured that this value for the distance is also correct. If a value from the value range 155 or 157 is measured, it can be seen that the measured value lies outside the linear value range for the distance 156 and it is even recognizable whether it lies in the value range 155 before or in the value range 157 behind the linear value range 156.
- a disadvantage is that in the second embodiment, the linear value range with the correctly determined distance d, which includes the four signal areas 223 to 226, is shorter than in the first execution area, where it includes the six signal areas 90 to 95.
- Figures 23 (a) and (b) show peak and average waveforms of a pulse frequency modulated signal at different pulse repetition rates. From these waveforms, a further advantage of the first embodiment over the prior art and the second embodiment over the first embodiment can be removed. There, the relation between peak and mean value is shown for a pulse width or pulse frequency modulated signal.
- the peak value Pmax and the mean value Pmean of such a signal are linked via the pulse-duty ratio (duty cycle).
- the average value is 50% of the peak value
- a pulse-pause ratio of 1/6 as in Fig. 23 (b)
- the average value is 1 / 6 of the peak.
- Light sources for ToF cameras usually work with light sources that emit invisible wavelengths to the human eye from the near infrared range (NIR).
- NIR near infrared range
- coherent or non-coherent radiation is used.
- the usable power is limited in each case, for example by the requirements set out in Directive 2006/25 / EC.
- the mean value is the decisive factor. That is, the light source 23 must not exceed a certain average power.
- it is desirable to emit the highest possible light output so that the light emitted by the light source 23 is brighter or at least of the same order of magnitude as the ambient light.
- the limits are primarily related to the average power, and the ratio to the ambient to the peak power, the performance of a ToF camera can be increased by choosing a low duty cycle.
- a high peak value and a low mean value are achieved in the light intensity at the same time, as a result of which both of the aforementioned requirements can be implemented jointly in an advantageous manner.
- a particularly high peak value for the intensity can be achieved in comparison with the first exemplary embodiment, with a mean value that is particularly low at the same time.
- this embodiment is suitable for the use of so-called pulse laser diodes, which are usually optimized for a pulse-duty ratio of 1/1000.
- This is a great advantage in particular with respect to all ToF cameras with demodulation image sensors. The advantage comes especially where there is a high intensity of the ambient light, for example in strong sunlight or strong studio headlights.
- Fig. 24 shows waveforms for a timing according to a third embodiment. This is a modification of the first exemplary embodiment according to FIG.
- the advantage of the third embodiment is that a larger ratio between the pulse length t1 and the period tp can be realized.
- the customary pulsable light sources for example light-emitting diodes, laser diodes or even pulse laser diodes, have a finite switch-on time and a finite switch-off time, so that their pulse length can not be reduced below a certain level.
- a certain minimum size of a measuring range can not be undershot, and thus only a limited measuring accuracy can be achieved.
- the third embodiment allows to further reduce the measuring range by a factor of three while also achieving a further increase in measurement accuracy.
- FIG. 25 shows a formula used in the arithmetic unit 29 for calculating the depth noise Nd in the third embodiment.
- the first factor in the denominator has a "6" instead of a "2" and thus the noise is basically smaller by a factor of "3.”
- the actually achievable reduction of the noise falls with the same exposure
- time is somewhat smaller, since only a signal portion of the light can be received by the short opening times of the shutter in comparison with the light pulses, and thus the signals SO, S1 and S2 are smaller than in the first exemplary embodiment - Searing effect that the shorter opening time, even a smaller part of the ambient light is received.
- FIG. 26 shows a formula used in the arithmetic unit 29 for determining the validity of distance values obtained from the signals SO, S1 and S2 of the third embodiment.
- this formula is derived from the formula for the depth noise Nd using a simplification.
- the different factors in the formula of the depth noise namely the value "6" in Fig. 25 and the value "2" in Fig. 15, give a different factor in the counter of the term 171 in Fig. 26, namely, "108" instead of "12 ".
- the validity of measured values can also be determined for the third exemplary embodiment.
- the saturation can be used as a criterion.
- FIG. 27 shows waveforms for a timing according to a fourth embodiment.
- the fourth of the third can be derived from the first by increasing the period tp, so that the same formulas and measures can also be used for the fourth exemplary embodiment.
- the fourth embodiment has the same advantages over the third, as the second compared to the first.
- Fig. 28 shows waveforms for a timing according to a fifth embodiment.
- both the pulse length tl and the opening times of the control signals CO, C1 and C2 are each 180 °, phiO is 0 ° and phil and phi2 each 120 °.
- a particularly short opening time of the shutter was used to achieve a high measurement accuracy with a low noise level.
- the opening time of the shutter is extended by a factor of "3.” As a result, a larger portion of the emitted light can also be received, resulting in further improvement of the measurement accuracy.
- Fig. 29 shows waveforms of the signals SO, Sl and S2 for the timing according to the fifth embodiment.
- the course of the signals results from the timing according to FIG. 28 with the considerations mentioned in the discussion of FIG. 6 and differs significantly from that in FIG. 7.
- Figs. 30 (a) and (b) show the trajectory of the S vectors in S space for the fifth embodiment from different angles.
- the fifth embodiment is based on the idea of guiding the signal course in S-space on a polygonal line which comes as close as possible to a circular path around the unit diagonal.
- An S-space having such a polygon line consisting of lines 130 to 135 is shown in Figs. 30 (a) and (b).
- FIGS. 30 (a) and (b) show the same polygonal line for a better understanding of the three-dimensional course from a viewing angle rotated by 90 ° relative to one another.
- the lines connect points on the outer surfaces of the cube, which represents the S-space.
- FIG. 31 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 for the fifth embodiment.
- FIG. 32 shows a graph of a real measured distance d as a function of the time difference td for the fifth exemplary embodiment.
- FIG. 32 shows a course of the measured distance d determined by measurement as a function of the time difference td for the fifth exemplary embodiment.
- the nonlinear deviations are particularly small here. This is due to the fact that the effect of the deviations of the real switch-on edge on the ideal switch-off edge and the real switch-off edge on the ideal switch-off edge compensate each other in a particularly favorable manner. The remaining non-linear deviation can be corrected by the same means as proposed for the first embodiment.
- the noise for the fifth embodiment may be determined by the formula of FIG. 25. Since more light can be received by the longer opening time of the shutter than in the third embodiment, the denominator is generally larger, so that the noise tends to be smaller as a result.
- Fig. 33 shows signals of a timing according to a sixth embodiment.
- FIG. 34 shows a profile of the signals S0, S1 and S2 corresponding to the illustration in FIG. 12 at a time control according to the sixth exemplary embodiment.
- FIG. 35 shows a formula used in the arithmetic unit 29 for determining the distance d in the sixth embodiment.
- This formula indicates how a correct distance d can be determined from the signals shown in FIG. Compared to the formula in FIG. 31, significant differences are evident both in the domain-defining conditions and in the linear terms which are valid within the ranges, which are due to the signal curve from FIG. 34. It can be seen that with the sixth embodiment, in comparison to the second and fourth embodiments, a particularly large measuring range can be covered with particularly good linearity, without losing the advantages listed there.
- Fig. 36 shows waveforms of a timing according to a seventh exemplary embodiment.
- the pulse length and the length of the opening times of the shutter are each 120 °, phil and phi2 also 120 ° and phiO is chosen here with 0 °.
- FIG. 37 shows the course of the signals SO, S1 and S2 at a timing according to the seventh embodiment.
- the signal profile shown in FIG. 37 results for the seventh exemplary embodiment on the basis of the considerations discussed with reference to FIG. In contrast to the previous exemplary embodiments, only three different signal regions 200, 201 and 202 result here.
- the fourth signal region 203 already represents a periodic repetition of the first signal region 200. The smaller number of regions reduces the number of case distinctions and thus also the number of regions Calculation effort in the arithmetic unit 29 of FIG. 3 for determining the distance.
- Fig. 38 (a) and (b) show a trajectory of S vectors in S space for the seventh embodiment from different angles.
- the seventh exemplary embodiment is based on the idea of guiding the signal course in S-space on a polygonal line which has a trajectory curve that can be described mathematically as simply as possible.
- a trajectory forms, for example, a triangle which, together with the basis vectors of the S-space, spans a triangular pyramid.
- Figs. 38 (a) and (b) show for better spatial understanding exactly the same polygonal line from a rotated by 90 ° to each other angle.
- FIG. 9 and in FIG. 30 it is assumed in this illustration that no ambient light is present.
- 39 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 at a timing according to the seventh embodiment.
- FIGS. 8, 11, 13, 22 and 31 it is noticeable that this formula is structured in a simpler way, and in particular in the realization of the hardware of the arithmetic unit 29 according to FIG. 3, for example in a field -Programmable Gated Array (FPGA), a particularly low resource consumption required.
- 40 shows a formula used in the arithmetic unit 29 for calculating the depth noise Nd from the signals SO, S1 and S2 for the seventh embodiment.
- the parameters NS0, NS1 and NS2 characterize the noise values of the signals SO, S1 and S2, which can be measured directly or also calculated according to the formulas of the EMVA 1288 standard. From this formula, a criterion for the validity of measured values can be derived with the same considerations that were discussed in connection with FIGS. 16 and 17.
- FIG. 41 shows waveforms for a timing according to an eighth embodiment.
- Fig. 42 shows waveforms of the signals SO, S1 and S2 at a timing according to the eighth embodiment.
- the waveform shown in Fig. 42 is obtained in accordance with the time difference td.
- the distance d within the regions 241 and 242 can be determined correctly, can be determined within the regions 240 and 243 as being in front of or behind the measuring region, and can not be determined in the region 244. From region 245, a periodic repetition occurs.
- a formula can be formulated as in the previous examples.
- FIG. 43 shows such a formula used in the arithmetic unit 29 for the eighth embodiment.
- the formula is also very compact and requires little resource expenditure when implemented in hardware.
- image sensor 28 in Fig. 3 now a conventional image sensor can be used, which has only one signal path per pixel.
- the image sensor 28 can be produced in a particularly simple and therefore cost-effective manner and is sensitive to light or low in noise. Furthermore, it can have a particularly high lateral resolution or can be read out particularly quickly. Since considerably more conventional image sensors are available on the market than demodulation image sensors, it is easy to find a corresponding image sensor which has the corresponding advantage.
- a color image sensor can be used, so that the distance and color of objects can be detected with only a single image sensor.
- an apparatus and a method for controlling a time of flight camera have been described in which a distance information for a three-dimensional image from a transit time difference or a phase shift between a light emitted by a light source of the runtime camera light signal and one of an image sensor of the runtime camera by scattering or reflection of the emitted light signal light signal is detected. At least three subimages are recorded. In this case, at least one light pulse is emitted and a shutter (shutter) is clocked by means of at least three control signals so that the phase shift between the light pulse and shutter is varied by the different phase angles of the control signals between the subimages. This gives three readings per pixel. These can be supplied to an operator, which is constructed analogously to a Hue operator and determines a rotation angle about the spatial diagonal of the SO-S1-S2 space. By means of a proportionality constant this can then be converted into the distance information.
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
Verfahren und Vorrichtung zur vereinfachten Erfassung eines Method and device for simplified detection of a
Tiefenbildes depth image
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Erfassung eines dreidimensionalen Tiefenbildes basierend auf einer Bildinformation aus einem Bildsensor mit ein- oder zweidimensionaler Bildpunktanordnung. Zum elektronischen Erfassen von Bildern werden heutzutage meist digitale Kameras eingesetzt. Eine solche digitale Kamera ist beispielsweise in der US4131919A und in der EP2367360A2 beschrieben und wird hier nachfolgend als konventionelle digitale Kamera bezeichnet. Mit Hilfe konventioneller digitaler Kameras werden Hel- ligkeitsbilder aufgenommen. In einem solchen Helligkeitsbild sind den Pixeln Helligkeitswerte zugeordnet. The invention relates to an apparatus and a method for detecting a three-dimensional depth image based on image information from an image sensor with one or two-dimensional pixel arrangement. For the electronic capture of images nowadays mostly digital cameras are used. Such a digital camera is described, for example, in US4131919A and in EP2367360A2 and is hereinafter referred to as a conventional digital camera. Brightness images are taken using conventional digital cameras. In such a brightness image, brightness values are assigned to the pixels.
Fig. 1 zeigt einen schematischen Aufbau einer konventionellen Digitalkamera 10, die eine aus Objekten 17 bestehende Szene 11 aufnimmt, indem das Bild mittels einer Optik 12, z.B. mittels eines Objektivs, auf mindestens einen Bildsensor 13 abgebildet wird, dessen Signale von einer elektronischen Bildverarbeitungseinrichtung 14 in ein digitales Bild gewandelt werden, das mittels einer Schnittstelle 15 über eine Signalübertragungsleitung 16 ausgegeben wird. Dabei ist es möglich, dass in der elektronischen Bildverarbeitungseinrichtung 14 zuvor eine Speicherung erfolgt oder dass die Signalübertragungsleitung 16 zu einem Speichermedium (nicht gezeigt) führt, in dem das Bild gespeichert wird. Fig. 1 shows a schematic construction of a conventional digital camera 10 which captures a scene 11 consisting of objects 17, in which the image is captured by means of an optical system 12, e.g. is imaged by means of a lens on at least one image sensor 13, whose signals are converted by an electronic image processing device 14 into a digital image, which is output by means of an interface 15 via a signal transmission line 16. In this case, it is possible for a storage to take place beforehand in the electronic image processing device 14 or for the signal transmission line 16 to lead to a storage medium (not shown) in which the image is stored.
Fig. 2 zeigt einen schematischen Aufbau eines Bildsensors 170 für konventionelle Kameras, der nachfolgend als konventioneller Bildsensor bezeichnet wird. Solche Bildsensoren bestehen meist aus einer periodischen Anordnung von Bildpunkten 171 (nachfolgend als Pixel bezeichnet) . Vorwiegend eindimensionale Anordnungen werden als Zeilensensoren und vorwiegend zweidimensionale Anordnungen werden als Flächensensoren bezeichnet. Bei dem in Fig. 2 gezeigten Bildsensor handelt es sich somit um einen Flächensensor mit konventionellen Pixeln 171. Unabhängig von der Technologie ist den Pixeln 171 dabei gemeinsam, dass sie jeweils einen lichtempfindlichen Bereich 172, typischerweise eine Photodiode (PD) oder eine sogenannte Pinned-Photo-Diode (PPD) aufweisen, welche so ausgestaltet ist, dass sie während einer Belichtungszeit in Abhängigkeit des einfallenden Lichts eine elektrische Größe erzeugt, die ein Maß für die Menge des von dem betreffenden Pixel empfangenen Lichts darstellt. Diese elektrische Größe kann eine Ladung, eine Spannung, ein Strom oder auch ein zeitcodiertes Signal, wie beispielsweise eine Impulsfolge, sein. Fig. 2 shows a schematic structure of an image sensor 170 for conventional cameras, which will be referred to as a conventional image sensor. Such image sensors usually consist of a periodic arrangement of pixels 171 (hereinafter referred to as pixels). Predominantly one-dimensional arrays are referred to as line sensors, and predominantly two-dimensional arrays are referred to as area sensors. The image sensor shown in FIG. 2 is thus an area sensor with conventional pixels 171. Regardless of the technology, the pixels 171 have in common that they each have a photosensitive area 172, typically a photodiode (PD) or a so-called pinned Photodiode (PPD), which is designed so that during an exposure time in response to the incident light generates an electrical variable that is a measure of the amount of light received by the pixel in question. This electrical quantity may be a charge, a voltage, a current or even a time-coded signal, such as a pulse train.
Häufig sind solche Bildsensoren als sogenannte ladungsgekoppelte Anordnung (Charge-Coupled Device, CCD) aufgebaut, wie beispielsweise in der US4194213A beschrieben. Eine besondere Form von CCDs bilden die sogenannten Zwischenzeilen-Verschiebungs- CCDs (In- terline-Transfer-CCDs) , die beispielsweise in der US4656519A oder in der EP2150039A1 erläutert werden. Often, such image sensors are constructed as a so-called charge-coupled device (CCD), as described for example in US4194213A. A special form of CCDs are the so-called inter-line displacement CCDs (Inter-line Transfer CCDs), which are explained, for example, in US Pat. No. 4,665,659A or in EP2150039A1.
Eine aktuellere Technologie bilden die sogenannten Complementary Metal-Oxide-Semiconductor (CMOS) Bildsensoren. Diese verfügen heutzutage zumeist über aktive Pixel, wie sie beispielsweise in der US5471515A beschrieben werden. Es sind zahlreiche verschie- dene Schaltkreise für aktive Pixel für CMOS-Bildsensoren bekannt, unter anderem solche, die einen rollenden elektronischen Verschluss, einen sogenannten Electronic Rolling Shutter (ERS) aufweisen. Ein Schaltkreis für einen solchen Pixel ist in der US5841126 gezeigt. Andere aktive Pixel können einen sogenannten Global Shutter (GS) bilden, wie beispielsweise in der US6667768 offenbart ist. Hier werden Pixel für konventionelle Bildsensoren ungeachtet der Technologie, in der sie ausgeführt sind, also CCD oder CMOS, als konventionelle Pixel bezeichnet. A more recent technology is the so-called Complementary Metal-Oxide-Semiconductor (CMOS) image sensors. These nowadays usually have active pixels, as described for example in US5471515A. Numerous different active-pixel circuits for CMOS image sensors are known, including those which include a rolling electronic shutter, called an Electronic Rolling Shutter (ERS). A circuit for such a pixel is shown in US5841126. Other active pixels may form a so-called Global Shutter (GS), as disclosed for example in US6667768. Here are pixels for conventional image sensors regardless of the technology in which they are performed, that is CCD or CMOS, referred to as conventional pixels.
In GS-Pixeln gibt es darüber hinaus typischerweise einen Signal- Speicher 173, wie in Fig. 2 gezeigt, in dem Ladungen oder Span- nungen gespeichert werden können. Oftmals handelt es sich dabei in CMOS-Pixeln um eine sogenannte Floating Diffusion (FD) , während die Speicherung der Ladung in CCDs häufig in sogenannten Metal-Oxide Semiconductor (MOS) Dioden erfolgt. In addition, GS pixels typically have a signal memory 173, as shown in FIG. 2, in which charges or voltages can be stored. Frequently, CMOS pixels are what is known as floating diffusion (FD), while charge storage in CCDs often takes place in metal-oxide semiconductor (MOS) diodes.
Es gibt in Bildsensoren für konventionelle Kameras auch solche Pixel, die mit mehr als einem Signalspeicher ausgestattet sind, beispielsweise um eine sogenannte korrelierte Doppelabtastung (Correlated Double Sampling, CDS) auszuführen, oder um einen erweiterten Dynamikbereich (HDR) zu erzielen. Ein Beispiel dazu ist in der US2012/0193516A offenbart. Den vorgenannten Pixelarchitekturen gemäß Fig. 2 ist gemeinsam, dass es jeweils nur höchstens einen Signalweg 174 gibt, mit dem die elektrische Größe vom lichtempfindlichen Bereich zu dem mindestens einen zugehörigen Signalspeicher übertragen wird, sofern dieser von dem lichtempfindlichen Bereich baulich getrennt ist. In manchen Fällen, wie beispielsweise in der US6667768 ist der lichtempfindliche Bereich zwar noch über einen Steuerweg 175 an einen elektrischen Verschluss angeschlossen, beispielsweise an einen sogenannten Rücksetz-Transistor (Reset-Transistor) , jedoch bildet dieser Steuerweg 175 keinen zweiten Signalweg zu einem Signalspeicher, sondern verbindet den lichtempfindlichen Bereich lediglich mit einer VersorgungsSpannung, damit die Ladung außerhalb der Belichtungszeit aus dem Pixel entfernt wird. In image sensors for conventional cameras, there are also pixels which are equipped with more than one signal memory, for example to perform a so-called Correlated Double Sampling (CDS), or to achieve an extended dynamic range (HDR). An example of this is disclosed in US2012 / 0193516A. The aforementioned pixel architectures according to FIG. 2 have in common that there is only one signal path 174 in each case with which the electrical variable is transmitted from the photosensitive area to the at least one associated signal memory, provided that it is structurally separated from the photosensitive area. Although in some cases, such as in US6667768, the photosensitive area is still connected to an electrical shutter via a control path 175, for example to a so-called reset transistor, this control path 175 does not form a second signal path to a latch, but merely connects the photosensitive area to a supply voltage so that the charge is removed from the pixel outside the exposure time.
Es gibt einfarbige Kameras, die als monochrom bezeichnet werden. Monochrome Kameras verfügen nicht über die Fähigkeit, bei der Bildaufnahme zwischen verschiedenen Farben zu unterscheiden. Daneben gibt es auch Farbkameras, die eine solche Unterscheidung zwischen verschiedenen Farben erkennen können. Beispielsweise können sie einen Bildsensor verwenden, der einen sogenannten Mo- saikfilter mit verschiedenen Farben aufweist, wie er in der US3971065 beschrieben ist. There are monochrome cameras called monochrome. Monochrome cameras do not have the capability in the To distinguish image capture between different colors. In addition, there are also color cameras that can detect such a distinction between different colors. For example, they can use an image sensor having a so-called mosaic filter with different colors, as described in US3971065.
Weiterhin gibt es dreidimensionale (3D) Kameras, die sogenannte Entfernungsbilder oder Tiefenbilder erzeugen bei denen den Pixeln Entfernungswerte zugeordnet werden, die ein Maß für die Entfer- nung zwischen der Kamera und dem Objekt darstellen. Furthermore, there are three-dimensional (3D) cameras which generate so-called distance images or depth images in which distance values are assigned to the pixels, which represent a measure of the distance between the camera and the object.
Dabei ist es möglich, dass die Tiefenbilder direkt ausgegeben werden, oder dass intern weitere Verarbeitungsschritte erfolgen, beispielsweise das Erzeugen sogenannter Punktwolken aus 3D-Koor- dinaten oder die Interpretation der Tiefenbilder beispielsweise als Geste einer Hand. In this case, it is possible that the depth images are output directly, or that further processing steps are carried out internally, for example the production of so-called point clouds from 3D coordinates or the interpretation of the depth images, for example as a gesture of a hand.
In letzter Zeit werden vermehrt dreidimensional aufnehmende Lichtlaufzeitkameras angeboten, die eine lichtlaufzeitbasierte Entfernungsmessung vornehmen und als Time-of-Flight-Kameras (TOF- Kameras) bezeichnet werden, wie beispielsweise in der DE102011089636A1 offenbart. Recently, there are increasingly offered three-dimensionally receiving time-of-flight cameras which perform a light-time-based distance measurement and are referred to as time-of-flight cameras (TOF cameras), as disclosed, for example, in DE102011089636A1.
Fig. 3 zeigt einen schematischen Aufbau einer ToF-Kamera 20, die eine Synchronisationseinheit 21 aufweist, welche eine elektronische Steuereinrichtung 22 für eine Lichtquelle 23 mittels eines Steuersignals 33 dergestalt ansteuert, dass diese Lichtquelle 23 zeitlich moduliertes Licht oder Lichtimpulse aussendet. Die ausgesandten Lichtstrahlen 34 und 36 werden von Objekten 25 und 26 gestreut oder reflektiert und gelangen teils als Objektlichtstrahlen 35 und 37 zurück zur Kamera, wobei sie verzögert werden, da sie die notwendige Strecke mit etwa Lichtgeschwindigkeit zu- rücklegen. Dort werden sie mit einer Optik 27, z.B. mit einem Objektiv, auf den Bildsensor 28 abgebildet. Der Bildsensor 28 wird seinerseits mittels eines Ansteuersignais 32 von der Synchronisationseinheit 21 so angesteuert, dass er eine Demodulation der Objektlichtstrahlen vornimmt. Aus den vom Bildsensor 28 ge- lieferten Rohdaten werden dann in einer Recheneinheit 29 Tiefenbilder erzeugt, die über eine Schnittstelle 30 an eine Übertragungsleitung 31 ausgegeben werden. 3 shows a schematic structure of a ToF camera 20, which has a synchronization unit 21, which controls an electronic control device 22 for a light source 23 by means of a control signal 33 in such a way that this light source 23 transmits light or light pulses modulated in time. The emitted light beams 34 and 36 are scattered or reflected by objects 25 and 26 and partly pass back to the camera as object light beams 35 and 37, being delayed because they travel the necessary distance at approximately the speed of light. There they are with an optics 27, eg with a Lens, imaged on the image sensor 28. The image sensor 28 is in turn driven by means of a drive signal 32 from the synchronization unit 21 so that it performs a demodulation of the object light beams. From the raw data supplied by the image sensor 28, depth images are then generated in a computing unit 29 which are output via an interface 30 to a transmission line 31.
Solche ToF-Kameras verfügen häufig über besondere ToF-Bildsenso- ren zur Messung von Entfernungen, wie sie beispielsweise aus der DE19704496C2, der US8115158 oder der US20120176476A1 bekannt sind. Diese Bildsensoren arbeiten häufig mit Pixeln, die mit sogenannten Photomischdetektoren (PMD) ausgestattet sind oder nach einem verwandten Prinzip arbeiten. Diese Pixel werden nachfolgend als Demodulationspixel bezeichnet und die Bildsensoren als Demodulationssensoren. Such ToF cameras often have special ToF image sensors for measuring distances, as are known, for example, from DE19704496C2, US8115158 or US20120176476A1. These image sensors often work with pixels that are equipped with so-called photonic mixer detectors (PMD) or work on a related principle. These pixels will hereinafter be referred to as demodulation pixels and the image sensors as demodulation sensors.
Fig. 4 zeigt einen schematischen Aufbau eines ToF-Demodulations- sensors 180 mit Demodulationspixeln 282. Solche Demodulationspixel 181 weisen die Gemeinsamkeit auf, dass darin jeweils ein lichtempfindlicher Bereich 182 vorhanden ist, der mit mindestens zwei verschiedenen Signalspeichern 183 und 184 über mindestens zwei verschiedene Signalwege 185 und 186 verbunden ist. Häufig ist in solchen Demodulationspixeln auch die Ausleseelektronik für die mindestens zwei Signalspeicher mehr als einmal pro Pixel vorhanden. Demodulationspixel werden überwiegend zusammen mit Lichtquellen verwendet, die im sogenannten Dauerstrichbetrieb4 shows a schematic structure of a ToF demodulation sensor 180 with demodulation pixels 282. Such demodulation pixels 181 have the common feature that there is in each case a photosensitive area 182 which is connected to at least two different signal stores 183 and 184 via at least two different signal paths 185 and 186 is connected. Frequently, in such demodulation pixels, the read-out electronics for the at least two signal memories are present more than once per pixel. Demodulation pixels are predominantly used together with light sources which are in so-called continuous wave operation
(„Continuous Wave" (C ) Betrieb) arbeiten. Dabei kommt sehr häufig sinusförmig moduliertes Licht zum Einsatz oder Licht mit einem Puls-Pausen-Verhältnis von ca. 50%. Sinusoidally modulated light is used very often or light with a pulse-pause ratio of approx. 50%.
Solche Bildsensoren mit Demodulationspixel werden speziell für ToF-Anwendungen hergestellt. Sie sind im Allgemeinen aufwändiger und damit teurer als vergleichbare konventionelle Bildsensoren oder sie weisen bei gleichem Preis weniger Pixel und somit eine geringere räumliche Auflösung auf. Ein Grund dafür liegt darin, dass Demodulationspixel für ihre charakteristische Mehrzahl an Signalwegen eine aufwändigere Elektronik benötigen, als konventionelle Pixel. Dadurch weisen sie gegenüber den konventionellen Pixeln einen erhöhten Platzbedarf auf, der zu einem höheren Ressourcenbedarf, beispielsweise an Chipfläche, führt. Weiterhin sinkt dadurch bei einem Demodulationspixel gegenüber einem konventionellen Pixel der für den lichtempfindlichen Bereich zur Verfügung stehende Flächenanteil an der Gesamtfläche des Pixels. Dadurch sind konventionelle Pixel im Allgemeinen lichtempfindlicher als Demodulationspixel. Schließlich werden derzeit konventionelle Bildsensoren in weit höherer Stückzahl produziert als ToF-Bildsensoren, woraus sich ein weiterer Preisvorteil für die konventionellen Bildsensoren ergibt. Aus diesen Gründen wäre es vorteilhaft, konventionelle Bildsensoren mit konventionellen Pixeln auch für ToF-Kameras bereitstellen zu können. Such image sensors with demodulation pixels are manufactured especially for ToF applications. They are generally more expensive and therefore more expensive than comparable conventional image sensors, or they have fewer pixels at the same price and thus lower spatial resolution. One reason for this is that demodulation pixels require more sophisticated electronics for their characteristic plurality of signal paths than conventional pixels. As a result, they have an increased space requirement compared to the conventional pixels, which leads to a higher resource requirement, for example chip area. Furthermore, in the case of a demodulation pixel, the area fraction of the total area of the pixel which is available for the photosensitive area is reduced compared to a conventional pixel. As a result, conventional pixels are generally more sensitive to light than demodulation pixels. Finally, conventional image sensors are currently produced in far greater numbers than ToF image sensors, resulting in a further price advantage for the conventional image sensors. For these reasons, it would be advantageous to be able to provide conventional image sensors with conventional pixels also for ToF cameras.
Die konventionellen Pixel in konventionelle Bildsensoren weisen hingegen, wie oben erwähnt, meist nur einen Signalweg und häufig auch nur einen Signalspeicher auf. Auch mit solchen Bildsensoren können jedoch grundsätzlich ToF-Entfernungsbilder aufgenommen werden . The conventional pixels in conventional image sensors, however, as mentioned above, usually have only one signal path and often only one signal memory. Even with such image sensors, however, ToF range images can basically be recorded.
Aus der US5081530 ist ein Verfahren bekannt, bei dem ein ToF-Bild mit einem konventionellen Interline-CCD (ILCCD) Bildsensor aufgenommen wird. Dieses Verfahren weist jedoch den Nachteil auf, dass es nur bei dunklen Szenen ohne Umgebungslicht anwendbar ist (abgesehen vom Pulslicht) . Ursache dafür ist, dass die in dem CCD gesammelte Elektronenzahl Nl und N2 durch das Umgebungslicht um die Zahl NU additiv erhöht werden, also zu Nl+NU und N2+NU, sodass dann die Entfernung unter Verwendung der Formel R/2 * (Nl- N2)/(N1+N2) + R/2 fälschlicherweise als R/2 * (Nl- N2) / (N1+N2+2*NU) + R/2 berechnet wird. Die mit dem Umgebungsoder Hintergrundlicht verbundene Problematik wird beispielsweise in der DE19704496C2 als Gleichanteil und in der EP1040366B1 als Umgebungslicht diskutiert. Weiterhin erfordert die Tatsache, dass in der US5081530A nur ein einziger Lichtimpuls pro Bild verwendet wird, eine sehr leistungsstarke und somit auch teure Pulslichtquelle . From US5081530 a method is known in which a ToF image is taken with a conventional interline CCD (ILCCD) image sensor. However, this method has the disadvantage that it is applicable only to dark scenes without ambient light (except for the pulse light). The reason for this is that the number of electrons N1 and N2 collected in the CCD are additively increased by the ambient light by the number NU, ie to N1 + NU and N2 + NU, so that the distance is then calculated using the formula R / 2 * (N1 + N2). N2) / (N1 + N2) + R / 2 is erroneously calculated as R / 2 * (Nl-N2) / (N1 + N2 + 2 * NU) + R / 2. The problem associated with ambient or background light is discussed for example in DE19704496C2 as DC component and in EP1040366B1 as ambient light. Furthermore, the fact that only a single light pulse per image is used in US5081530A requires a very powerful and therefore expensive pulse light source.
Ein weiteres Verfahren zum Aufnehmen eines ToF-Bilds mittels ei- nes konventionellen CMOS-Bildsensors ist aus der EP1040366B1 bekannt. Hier wird unter anderem vorgeschlagen, zur Ermittlung eines Entfernungsbildes drei verschiedene Rohbilder (dort als Sensorsignale bezeichnet) aufzunehmen, nämlich ein erstes Bild mit Dunkelstrom und Umgebungslicht, ein zweites Rohbild, bei dem ab- hängig von der Lichtlaufzeit ein Teil des empfangenen Lichts integriert wird, und ein drittes Signal mit einer höheren Integrationszeit. In einer anderen Ausführungsform werden Dunkelstrom und Umgebungslicht zweimal aufgenommen, nämlich mit kurzer und mit langer Integrationszeit. Darüber hinaus gibt es auch konventionelle Bildsensoren mit Pixeln, die nicht mehr als einen Signalweg, jedoch mehr als einen Signalspeicher, aufweisen. Ein Beispiel für eine solche Pixelarchitektur findet sich beispielsweise für einen CCD-Bildsensor in der US8576319A und für einen CMOS Bildsensor in der EP2109306A2. Der Erfindung liegt die Aufgabe zugrunde, eine Lichtlaufzeitkamera bereitzustellen, welche Tiefendaten mit hoher Messqualität und hoher Bildauflösung liefern kann. Another method for capturing a ToF image by means of a conventional CMOS image sensor is known from EP1040366B1. Here, among other things, it is proposed to record three different raw images (referred to there as sensor signals) for determining a distance image, namely a first image with dark current and ambient light, a second raw image in which, depending on the light transit time, a part of the received light is integrated, and a third signal with a higher integration time. In another embodiment, dark current and ambient light are recorded twice, with short and with a long integration time. In addition, there are also conventional image sensors with pixels having not more than one signal path but more than one latch. An example of such a pixel architecture can be found, for example, for a CCD image sensor in US8576319A and for a CMOS image sensor in EP2109306A2. The invention has for its object to provide a light cycle camera, which can provide depth data with high measurement quality and high image resolution.
Diese Aufgabe wird erfindungsgemäß gelöst durch eine Vorrichtung nach Anspruch 1, eine Lichtlaufzeitkamera nach Anspruch 9, ein Verfahren nach Anspruch 13 und ein Computerprogramm nach Anspruch 14. This object is achieved by a device according to claim 1, a light transit time camera according to claim 9, a A method according to claim 13 and a computer program according to claim 14.
Dementsprechend werden die Lichtquelle der Lichtlaufzeitkamera zur Abgabe von zumindest einem Lichtimpuls und der Bildsensors zur Demodulation des empfangenen Lichtsignals mittels einer jedem Bildpunkt des Bildsensor zugeordneten elektrischen Verschluss- einrichtung gesteuert, wobei die elektrische Verschlusseinrichtung mindestens dreimal mit fester Phasenbeziehung zu dem zumindest einen Lichtimpuls getaktet (d.h. geöffnet und geschlossen) wird, um mindestens drei Signale zu erfassen, wobei die zeitliche Dauer des Öffnens der elektrischen Verschlusseinrichtung jeweils gleich ist, und wobei die Phasenverschiebung zwischen dem ersten Öffnen und dem zweiten Öffnen gleich der Phasenverschiebung zwischen dem zweiten Öffnen und dem dritten Öffnen ist. Es werden also zumindest drei Subbilder aufgenommen, wobei die Verschluss - einrichtung (Shutter) so getaktet ist, dass die Phasenverschiebung zwischen Lichtimpuls und Shutter durch die verschiedenen Phasenlagen der Taktung zwischen den Subbildern variiert wird. Dadurch werden pro Bildpunkt drei Messwerte erhalten. Diese können einem Operator zugeführt werden, der bspw. analog zu einem Hue-Operator aufgebaut sein kann und einen Drehwinkel um die Raumdiagonale des SO-Sl-S2-Raumes ermittelt. Mittels einer Proportionalitätskonstante kann dieser dann in die gewünschte Entfernungsinformation umgerechnet werden. Accordingly, the light source of the time of flight camera for emitting at least one light pulse and the image sensor for demodulating the received light signal are controlled by means of an electrical shutter associated with each pixel of the image sensor, the electrical shutter being clocked at least three times in fixed phase relation to the at least one light pulse (ie opened and closed) to detect at least three signals, wherein the time duration of the opening of the electrical closing device is equal to each, and wherein the phase shift between the first opening and the second opening is equal to the phase shift between the second opening and the third opening , Thus, at least three subimages are recorded, the shutter being clocked such that the phase shift between the light pulse and the shutter is varied by the different phase positions of the timing between the subimages. As a result, three measured values per pixel are obtained. These can be supplied to an operator who, for example, can be constructed analogously to a hue operator and determines a rotation angle about the spatial diagonal of the SO-Sl-S2 space. By means of a proportionality constant this can then be converted into the desired distance information.
Somit kann durch die erfindungsgemäße Lösung eine Bildverarbeitung mit lediglich einem Signalpfad pro Bildpunkt des Bildsensors bereitgestellt werden, wodurch die herkömmlichen bildsensorab- hängigen Vorteile der geringen Komplexität, der Rauscharmut, der hohen lateralen Auflösung und der hohen Bildrate auch bei Licht- laufzeitkameras beibehalten werden können. Durch die erfindungsgemäße Möglichkeit der Verwendung konventioneller Bildsensoren in ToF-Kameras ist es möglich, mit ein und derselben Kamera sowohl konventionelle Bilder als auch Entfernungsbilder aufzunehmen. Optional können auch Farbbildsensoren verwendet werden. Da üblicherweise die im Bayer-Pattern verwendeten Farbfilter für infrarotes Licht transparent sind, kann bei der heutzutage üblichen Verwendung einer infraroten Lichtquelle auch mit einem konventionellen Farbbildsensor ein Entfernungsbild aufgenommen werden. Dieses bietet den Vorteil, dass es dadurch möglich wird, mit ein und derselben ToF-Kamera sowohl Farbbilder als auch Entfernungs- bilder aufzunehmen. Thus, the solution according to the invention can provide image processing with only one signal path per pixel of the image sensor, whereby the conventional image sensor-dependent advantages of low complexity, low noise, high lateral resolution and high frame rate can be maintained even in light-time cameras. Due to the inventive possibility of using conventional image sensors in ToF cameras, it is possible to record both conventional images and distance images with one and the same camera. Optionally, color image sensors can also be used. Since the color filters used in the Bayer pattern are usually transparent to infrared light, a distance image can also be recorded with the conventional use of an infrared light source with a conventional color image sensor. This has the advantage of making it possible to record both color images and distance images with one and the same ToF camera.
Vorzugsweise kann die Phasenverschiebung zwischen dem ersten Steuersignal und dem zweiten Steuersignal und die Phasenverschie- bung zwischen dem zweiten Steuersignal und dem dritten Steuersignal in Bezug auf die Periodendauer des Lichtimpulses jeweils 120° betragen. Preferably, the phase shift between the first control signal and the second control signal and the phase shift between the second control signal and the third control signal with respect to the period of the light pulse can each be 120 °.
Gemäß einer ersten vorteilhaften Weiterbildung kann die Phasenverschiebung zwischen dem Zeitpunkt des Öffnens der elektrischen Verschlusseinrichtung durch das erste der drei Steuersignale und dem Zeitpunkt der Abgabe des LichtImpulses in Bezug auf die Periodendauer des Lichtimpulses -60° betragen. Ferner kann die zeitliche Dauer der impulsförmigen Steuersignale für das Öffnen der elektrischen Verschlusseinrichtung in Bezug auf die Perio- dendauer des Lichtimpulses einem Phasenwinkel von 180° und die Dauer des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 60° entsprechen. Hierdurch kann für die Impulslänge des Lichtimpulses ein besonders großer Entfernungsmessbereich erzielt werden. Unter Beibehaltung der vorgenannten Zeitverhältnisse kann bei einer Erhöhung der Periodendauer des Lichtimpulssignals eine vorteilhafte Vermeidung des unerwünschten Tiefenaliasing erreicht werden. According to a first advantageous development, the phase shift between the time of opening of the electrical closing device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be -60 °. Furthermore, the time duration of the pulse-shaped control signals for the opening of the electrical closure device with respect to the period of the pulse of light can correspond to a phase angle of 180 ° and the duration of the light pulse with respect to the period of the light pulse can correspond to a phase angle of 60 °. In this way, a particularly large distance measuring range can be achieved for the pulse length of the light pulse. While maintaining the The aforementioned time relationships can be achieved with an increase in the period of the light pulse signal advantageous avoidance of unwanted Tiefenaliasing.
Gemäß einer zweiten vorteilhaften Weiterbildung kann die Phasen- Verschiebung zwischen dem Zeitpunkt des Öffnens der elektrischen Verschlusseinrichtung durch das erste der drei Steuersignale und dem Zeitpunkt der Abgabe des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses 0° betragen. Ferner kann die zeitliche Dauer der impulsförmigen Steuersignale für das Öffnen der elektrischen Verschlusseinrichtung in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 60° und die zeitliche Dauer des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 180° entsprechen. Dies ermöglicht eine hohe Messqualität bei allerdings verkleinertem Messbereich. Auch hier kann unter Beibehaltung der vorgenannten Zeitverhältnisse bei einer Erhöhung der Periodendauer des Lichtimpulssignals eine vorteilhafte Vermeidung des unerwünschten Tiefenaliasing erreicht werden. According to a second advantageous development, the phase shift between the time of opening of the electrical closing device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be 0 °. Furthermore, the time duration of the pulse-shaped control signals for the opening of the electrical closure device with respect to the period of the light pulse, a phase angle of 60 ° and the duration of the light pulse with respect to the period of the light pulse corresponding to a phase angle of 180 °. This allows a high measurement quality with a smaller measuring range. Here too, while maintaining the above-mentioned time relationships, an advantageous avoidance of the undesired depth aliasing can be achieved by increasing the period duration of the light pulse signal.
Gemäß einer dritten vorteilhaften Weiterbildung kann die Phasen- Verschiebung zwischen dem Zeitpunkt des Öffnens der elektrischenAccording to a third advantageous development, the phase shift between the time of opening the electric
Verschlusseinrichtung durch das erste der drei Steuersignale und dem Zeitpunkt der Abgabe des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses 0° betragen, wobei aber hier die zeitliche Dauer der impulsförmigen Steuersignale für das Öffnen der elektrischen Verschlusseinrichtung in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 180° und auch die Dauer des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 180° entsprechen kann. Dies ermöglicht eine hohe Messqualität mit geringen nichtlinearen Feh- lern. Wiederum kann unter Beibehaltung der vorgenannten Zeitver- hältnisse bei einer Erhöhung der Periodendauer des Lichtimpulssignals eine vorteilhafte Vermeidung des unerwünschten Tiefen- aliasing erreicht werden. Locking means by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse 0 °, but here the time duration of the pulse-shaped control signals for opening the electric shutter with respect to the period of the light pulse a phase angle of 180 ° and also the duration of the light pulse with respect to the period of the light pulse can correspond to a phase angle of 180 °. This enables high measurement quality with low nonlinear errors. Again, while maintaining the aforementioned time When the period of the light pulse signal is increased, an advantageous avoidance of the undesired depth aliasing can be achieved.
Gemäß einer vierten vorteilhaften Weiterbildung kann die Phasen- Verschiebung zwischen dem Zeitpunkt des Öffnens der elektrischen Verschlusseinrichtung durch das erste der drei Steuersignale und dem Zeitpunkt der Abgabe des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses 0° betragen, wobei aber nunmehr die zeitliche Dauer der impulsförmigen Steuersignale für das Öffnen der elektrischen Verschlusseinrichtung in Bezug auf die Periodendauer des LichtImpulses einem Phasenwinkel von 120° und auch die Dauer des Lichtimpulses in Bezug auf die Periodendauer des Lichtimpulses einem Phasenwinkel von 120° entspricht. Diese Modifikation der Phasenverhältnisse ermöglicht ein Ermitteln der Entfernung mit besonders geringem Rechenaufwand und damit verbundenen geringeren Ressourcen. Schließlich kann auch hier unter Beibehaltung der vorgenannten Zeitverhältnisse bei einer Erhöhung der Periodendauer des Lichtimpulssignals eine vorteilhafte Vermeidung des unerwünschten Tiefenaliasing erreicht werden. Vorzugsweise kann die vorgeschlagene Lichtlaufzeitkamera eine Recheneinrichtung aufweisen zur Berechnung der Entfernungsinformation des dreidimensionalen Bilds anhand der Werte der drei Signale basierend auf einer Fallunterscheidung für verschiedene durch gegenseitige Größenverhältnisse der Werte der drei Signale festgelegte Bereiche. Die Recheneinrichtung kann vorteilhaft so ausgestaltet sein, dass die Gültigkeit der berechneten Entfernungsinformation anhand eines Verhältnisses zwischen Signalqualität und Rauschen bestimmt wird. Ergänzend oder alternativ kann die Recheneinrichtung so ausgestaltet sein, dass eine Entschei- dung über die Gültigkeit der berechneten Entfernungsinformation anhand des Sättigungsgrades der drei Signale erfolgt. Erfindungsgemäß ergibt sich gegenüber Lichtlaufzeitkameras mit Demodulationssensoren als weiterer Vorteil, dass für das ausgesendete Lichtsignal ein Puls-Pausenverhältnis verwendet werden kann, das kleiner oder sogar sehr viel kleiner als 50% ist. Dadurch ergibt sich eine geringere Empfindlichkeit gegenüber Umgebungslicht und somit eine verbesserte Messqualität. Dies ermöglicht Kameraanwendungen bei starkem Umgebungslicht , z.B. durch Sonnenlicht oder Studioscheinwerfer. According to a fourth advantageous development, the phase shift between the time of opening of the electrical closure device by the first of the three control signals and the time of delivery of the light pulse with respect to the period of the light pulse can be 0 °, but now the time duration of the pulse-shaped Control signals for the opening of the electric shutter with respect to the period of the light pulse corresponds to a phase angle of 120 ° and also the duration of the light pulse with respect to the period of the light pulse corresponds to a phase angle of 120 °. This modification of the phase relationships makes it possible to determine the distance with a particularly low computational outlay and associated lower resources. Finally, an advantageous avoidance of the undesired depth aliasing can also be achieved while maintaining the above-mentioned time relationships with an increase in the period duration of the light pulse signal. Preferably, the proposed time of flight camera may include calculating means for calculating the distance information of the three-dimensional image based on the values of the three signals based on case discrimination for different ranges determined by mutual size ratios of the values of the three signals. The computing device can advantageously be configured such that the validity of the calculated distance information is determined on the basis of a ratio between signal quality and noise. Additionally or alternatively, the computing device can be designed so that a decision about the validity of the calculated distance information based on the degree of saturation of the three signals. According to the invention, in comparison to light-time cameras with demodulation sensors, it is a further advantage that a pulse-pause ratio which is smaller or even very much less than 50% can be used for the emitted light signal. This results in a lower sensitivity to ambient light and thus an improved measurement quality. This allows camera applications in strong ambient light, such as sunlight or studio spotlights.
Die Komponenten der zur Lösung der vorgenannten Aufgabe vorge- schlagene Vorrichtung bzw. Lichtlaufzeitkamera können einzeln o- der gemeinsam als diskrete Schaltkreise, integrierte Schaltkreise (z.B. Application-Specific Integrated Circuits (ASICs) ) , programmierbare Schaltkreise (z.B. Field Programmable Gate Arrays (FPGAs) ) realisiert sein. Insbesondere die Recheneinheit kann durch ein FPGA als zentrales Bauteil realisiert sein. Ferner können die Schritte des Verfahrensanspruchs als Software-Programm oder Software-Routine zur Steuerung des Prozessors einer Computervorrichtung zu deren Ausführung realisiert sein. The components of the device or time-of-flight camera proposed for achieving the above-mentioned object can be used individually or jointly as discrete circuits, integrated circuits (eg application-specific integrated circuits (ASICs)), programmable circuits (eg field programmable gate arrays (FPGAs). ) be realized. In particular, the arithmetic unit can be realized by an FPGA as a central component. Furthermore, the steps of the method claim can be realized as a software program or software routine for controlling the processor of a computer device for its execution.
Nachfolgend wird die vorliegende Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Zeichnungsfiguren näher erläutert. Es zeigen: Hereinafter, the present invention will be described with reference to preferred embodiments with reference to the drawing figures. Show it:
Fig. 1 einen schematischen Aufbau einer konventionellen Fig. 1 shows a schematic structure of a conventional
Digitalkamera; Digital camera;
Fig. 2 einen schamtischen Aufbau eines konventionel- len Bildsensors ,- 2 shows a Schamtian structure of a conventional image sensor,
Fig. 3 einen schematischen Aufbau einer ToF-Kamera; 3 shows a schematic structure of a ToF camera;
Fig. 4 eine schematischen Aufbau eines ToF-Demodulations- sensors mit Demodulationspixeln; Fig. 5 (a) - (d) schematische Zeitdiagramme für eine ToF-Kamera gemäß einem ersten Ausführungsbeispielen; 4 shows a schematic structure of a ToF demodulation sensor with demodulation pixels; 5 (a) - (d) are schematic timing charts for a ToF camera according to a first embodiment;
Fig. 6(a) -(e) schematische Zeitdiagramme zur Erläuterung der Zeitsteuerung für Licht- und Steuersignale gemäß dem ersten Ausführungsbeispiel; Fig. 6 (a) - (e) are schematic timing charts for explaining the timing for light and control signals according to the first embodiment;
Fig. 7(a) und (b) schematische Zeitdiagramme mit Signalverläufen und Entfernungsermittlung für das erste Ausführungsbeispiel ; 7 (a) and (b) are schematic timing charts showing waveforms and distance detection for the first embodiment;
Fig. 8 eine Formel zur Ermittlung der Entfernung in dem ers- ten Ausführungsbeispiel; 8 shows a formula for determining the distance in the first embodiment;
Fig. 9 (a) und (b) Bahnkurven der S-Vektoren im S-Raum gemäß dem FIGS. 9 (a) and (b) show trajectories of S vectors in S space according to FIG
Stand der Technik bzw. gemäß dem erstes Ausführungs- beispiel ; Prior art or according to the first embodiment;
Fig. 10 (a) und (b) Zeitdiagramme zur Erläuterung einer Ver- Schiebung eines Messbereichs zu einer minimalen Entfernung; 10 (a) and (b) are timing charts for explaining a shift of a measuring range to a minimum distance;
Fig. 11 eine Formel zur Ermittlung der Entfernung d bei einem verschobenem Messbereich; 11 shows a formula for determining the distance d at a shifted measuring range;
Fig. 12 (a) und (b) Signalverläufe zur Erläuterung einer an- deren Verschiebung eines Messbereichs zu einer minimalen Entfernung; 12 (a) and (b) are waveforms for explaining another shift of a measurement range to a minimum distance;
Fig. 13 eine Formel zur Ermittlung der Entfernung d bei einem weiter verschobenem Messbereich; 13 shows a formula for determining the distance d at a further shifted measuring range;
Fig. 14 ein Diagramm mit Signalverläufen unter Berücksichtigung des Abstandsgesetzes ; Fig. 15 eine Formel zur Berechnung des Tiefenrauschens; 14 shows a diagram with signal curves taking into account the law of distance; Fig. 15 is a formula for calculating the depth noise;
Fig. 16 eine Formel zur Bestimmung der Gültigkeit von Entfernungswerten; Fig. 16 is a formula for determining the validity of distance values;
Fig. 17 ein Diagramm zur Darstellung einer Approximation des 17 is a diagram illustrating an approximation of FIG
Rauschens mittels einer vereinfachten Naherungsfunk- tion; Noise by means of a simplified approximation function;
Fig. 18 ein Zeitdiagramm mit dem Signalverlauf eines idealen und eines realen Lichtimpulses; 18 shows a time diagram with the signal curve of an ideal and a real light pulse;
Fig. 19 ein Diagramm mit dem Kurvenverlauf einer real gemes- senen Entfernung in Abhängigkeit der Zeitdifferenz; 19 shows a diagram with the curve of a real measured distance as a function of the time difference;
Fig. 20 Zeitdiagramme mit einer ZeitSteuerung gemäß einem zweiten Ausführungsbeispiel; FIG. 20 shows time charts with a time controller according to a second embodiment; FIG.
Fig. 21 (a) und (b) Diagramme mit resultierenden Signalverläufen gemäß dem zweiten Ausführungsbeispiel; Fig. 22 eine Formel zur Ermittlung der Entfernung d bei dem zweiten Ausführungsbeispiel; 21 (a) and (b) are diagrams showing resultant waveforms according to the second embodiment; Fig. 22 is a formula for determining the distance d in the second embodiment;
Fig. 23 (a) und (b) Zeitdiagramme mit Spitzenwert und Mittelwert eines pulsfrequenzmodulierten Signals bei verschiedenen Pulswiederholfrequenzen; Fig. 24 Zeitdiagramme mit einer Zeitsteuerung gemäß Figs. 23 (a) and (b) are timing charts showing the peak value and average value of a pulse frequency modulated signal at different pulse repetition frequencies; Fig. 24 timing diagrams with a timing according to
dritten Ausführungsbeispiel; third embodiment;
Fig. 25 eine Formel zur Berechnung des Tiefenrauschens bei dem dritten Ausführungsbeispiel; g. 26 eine Formel zur Bestimmung der Gültigkeit von Entfei nungswerten des dritten Ausführungsbeispiels; Fig. 25 is a formula for calculating the depth noise in the third embodiment; G. Fig. 26 is a formula for determining the validity of dependency values of the third embodiment;
Fig. 27 Zeitdiagramme mit einer Zeitsteuerung gemäß einem vierten Ausführungsbeispiel; FIG. 27 shows time charts with a timing according to a fourth embodiment; FIG.
Fig. 28 Zeitdiagramme mit einer Zeitsteuerung gemäß einem fünften Ausführungsbeispiel; FIG. 28 is a timing chart showing a timing according to a fifth embodiment; FIG.
Fig. 29 Diagramme mit resultierenden Signalverläufen gemäß dem fünften Ausführungsbeispiel; 29 are diagrams showing resulting waveforms according to the fifth embodiment;
Fig. 30 (a) und (b) eine Bahnkurve der S-Vektoren für das fünfte Figs. 30 (a) and (b) show a trajectory of the S vectors for the fifth
Ausführungsbeispiel aus zwei verschiedenen Blickrichtungen; Embodiment from two different directions of view;
Fig. 31 eine Formel zur Ermittlung der Entfernung aus den Fig. 31 is a formula for determining the distance from the
Signalendes fünften Ausführungsbeispiels; Signaling of the fifth embodiment;
Fig. 32 einen Kurvenverlauf einer real gemessenen Entfernung in Abhängigkeit der Zeitdifferenz für das fünfte Aus- fuhrungsbeispiel ; FIG. 32 shows a curve of a real measured distance as a function of the time difference for the fifth exemplary embodiment; FIG.
Fig. 33 Zeitdiagramme mit einer Zeitsteuerung gemäß einem sechsten Ausführungsbeispiel; 33 shows time charts with a timing according to a sixth embodiment;
Fig. 34 Diagramme mit resultierenden Signalverläufen gemäß dem sechsten Ausführungsbeispiel; FIG. 34 is a graph showing resulting waveforms according to the sixth embodiment; FIG.
Fig. 35 eine Formel zur Bestimmung der Entfernung im sechsten Fig. 35 is a formula for determining the distance in the sixth
Ausführungsbeispiel ; Embodiment;
Fig. 36 Zeitdiagramme mit einer Zeitsteuerung gemäß Fig. 36 timing diagrams with a timing according to
siebten Ausführungsbeispiel; Fig. 37 Diagramme mit resultierenden Signalverläufen gemäß dem siebten Ausführungsbeispiel; seventh embodiment; FIG. 37 is diagrams showing resultant waveforms according to the seventh embodiment; FIG.
Fig. 38 (a) und (b) eine Bahnkurve der S-Vektoren für das siebte Figs. 38 (a) and (b) show a trajectory of the S vectors for the seventh
Ausführungsbeispiel aus zwei verschiedenen Blickrichtungen; Embodiment from two different directions of view;
Fig. 39 eine Formel zur Bestimmung der Entfernung im siebten Fig. 39 is a formula for determining the distance in the seventh
Ausführungsbeispiel ; Embodiment;
Fig. 40 eine Formel zur Berechnung des Tiefenrauschens bei dem siebten Ausführungsbeispiel; Fig. 40 is a formula for calculating the depth noise in the seventh embodiment;
Fig. 41 Zeitdiagramme mit einer ZeitSteuerung gemäß einem achten Ausführungsbeispiel; 41 shows time charts with a time control according to an eighth embodiment;
Fig. 42 Diagramme mit resultierenden Signalverläufen gemäß dem achten Ausführungsbeispiel; und FIG. 42 are diagrams showing resultant waveforms according to the eighth embodiment; FIG. and
Fig. 43 eine Formel zur Bestimmung der Entfernung im achten Fig. 43 is a formula for determining the distance in the eighth
Ausführungsbeispiel . Embodiment.
Gemäß den nachfolgenden Ausführungsbeispielen wird eine ToF-Kamera mit modifizierter und dadurch effektiverer Bildverarbeitung beschrieben. According to the following embodiments, a ToF camera with modified and thus more effective image processing will be described.
Fig. 5 (a) bis (d) zeigen Zeitdiagramme mit Signalverläufen zur Erläuterung einer Zeitsteuerung gemäß einem ersten Ausführungsbeispiel für den Betrieb einer ToF-Kamera gemäß Fig. 3 mit einem Bildsensor 28, der vorzugsweise ein konventioneller Bildsensor gemäß Fig. 2 ist. Dabei zeigt Fig 5 (a) die Zeitsteuerung für das Aussenden von Licht L von der Lichtquelle 23 in der Kamera 20 mit zwei verschiedenen Intensitätspegeln „0" und „1" über der Zeit t. Beispielsweise wird bei dem Pegel „1" Licht ausgesendet und bei dem Pegel „0" kein Licht ausgesendet. Dabei wird das Licht als zeitlich begrenzter Lichtimpuls 40 ausgesendet, der eine zeitliche Pulslänge tl besitzt und mit einer Periode tp nach einer Totzeit to optional als zweiter Lichtimpuls 60 und dritter Lichtimpuls 61, und so weiter, wiederholt wird. Zum vereinfachten Verständnis der Zeit- bzw. Phasenzusammenhänge wird hier die Periode tp mit 360° gleichgesetzt. Im gezeigten Beispiel entspricht dann die Pulslänge tl des Lichtsignals einem Phasenwert von 60°, denn tl = 1/6 * tp und entsprechend to = 5/6 * tp. 5 (a) to (d) are timing charts showing waveforms according to a first embodiment of operating a ToF camera of FIG. 3 with an image sensor 28, which is preferably a conventional image sensor of FIG. 5 (a) shows the timing for emitting light L from the light source 23 in the camera 20 with two different intensity levels "0" and "1" over time t. For example, at level "1" light is emitted and No light is emitted at the "0" level, the light is emitted as a time-limited light pulse 40 having a temporal pulse length t1 and having a period tp after a dead time to optional as a second light pulse 60 and a third light pulse 61, and so on. For a simplified understanding of the time or phase relationships, the period tp is here equated to 360 ° In the example shown, the pulse length t1 of the light signal then corresponds to a phase value of 60 °, since t1 = 1/6 * tp and corresponding to = 5/6 * tp.
In der Kamera 20 gemäß Fig. 3 wird durch den Bildsensor 28 einfallendes Licht D detektiert. Der zughörige Signalverlauf ist ebenfalls in Fig. 5 (a) gezeigt. Ohne Einfluss des ausgesandten Lichtimpulses 40 besteht das einfallende Licht zunächst nur aus dem Umgebungslicht 43 mit dem als konstant angenommenen Intensitätspegel B. Zu diesem Umgebungslicht addiert sich der einfallende Lichtimpuls 42, wodurch sich der gezeigte zeitliche Verlauf von D ergibt. Dieser hat zwischen Aussenden und Einfallen von der Lichtquelle 23 zu den Objekten 25, 26 und zurück zum Bildsensor 28 eine Strecke mit ungefähr Lichtgeschwindigkeit zurückgelegt und ist daher um eine Zeitdifferenz td verzögert. Weiterhin wird der Lichtimpuls 40 auch durch die Ausbreitung im Raum gemäß dem Abstandsgesetz und durch die unvollständige Reflektion am Objekt in seiner Intensität gemindert, so dass der empfangene Lichtimpuls 42 grundsätzlich weniger Intensität aufweist als der ausgesandte Lichtimpuls 40. In the camera 20 according to FIG. 3, incident light D is detected by the image sensor 28. The associated waveform is also shown in Fig. 5 (a). Without the influence of the emitted light pulse 40, the incident light initially only consists of the ambient light 43 with the intensity level B assumed to be constant. The incident light pulse 42 is added to this ambient light, resulting in the time profile of D shown. This has traveled between emission and incidence from the light source 23 to the objects 25, 26 and back to the image sensor 28 a distance at about the speed of light and is therefore delayed by a time difference td. Furthermore, the light pulse 40 is also reduced by the propagation in space in accordance with the law of distance and the incomplete reflection on the object in its intensity, so that the received light pulse 42 is generally less intense than the emitted light pulse 40th
Gemäß Fig. 3 wird der Bildsensor 28 mittels des Ansteuersignais 32 von der Synchronisationseinheit 21 angesteuert, so dass er eine Demodulation der Objektlichtstrahlen vornimmt. Dieses An- steuersignal 32 wird in den nachfolgenden Ausführungsbeispielen durch drei Steuersignale CO, Cl und C2 gebildet. Die Steuerung des Bildsensors 28 erfolgt dabei mittels eines elektrischen Verschlusses (Shutters) der eingangs genannten Art. According to FIG. 3, the image sensor 28 is driven by the synchronization unit 21 by means of the drive signal 32, so that it carries out a demodulation of the object light beams. This control signal 32 is formed in the following exemplary embodiments by three control signals CO, C1 and C2. The control The image sensor 28 takes place by means of an electric shutter (Shutters) of the type mentioned.
In Fig. 5 (b) ist das erste Steuersignal CO zur Steuerung des elektrischen Verschlusses des in Fig. 3 gezeigten Bildsensors 28 über der Zeit t für den Erhalt eines ersten Rohbildes dargestellt. Im Einzelnen nimmt Steuersignal CO nimmt Zustände „0" und „1" an, wobei der elektrische Verschluss im Zustand „0" geschlossen ist und der Bildsensor 28 kein Licht empfangen kann, während er im Zustand „1" offen ist und der Bildsensor 28 Licht empfangen kann. Das Steuersignal CO wird parallel zu den in Fig. 5 (a) gezeigten ausgesandten Lichtimpulsen 40, 60 und 61 mit fester Phasenrelation phiO zum Erhalt eines ersten Rohbildes angewandt. Dabei beträgt die Phasenrelation zwischen dem Öffnen des elektrischen Verschlusses in Bezug auf das Aussenden des Lichtimpulses 40 phiO, im gezeigten ersten Ausführungsbeispiel ist phiO = -60°. Die Öffnungszeit beträgt jeweils 180°. In Fig. 5 (b), the first control signal CO for controlling the electric shutter of the image sensor 28 shown in Fig. 3 is shown over the time t for obtaining a first raw image. Specifically, control signal CO assumes states "0" and "1" with the electric shutter in the "0" state closed and the image sensor 28 unable to receive light while in the "1" state and the image sensor 28 light can receive. The control signal CO is applied in parallel to the emitted light pulses 40, 60 and 61 with fixed phase relation phi0 shown in Fig. 5 (a) to obtain a first raw image. In this case, the phase relation between the opening of the electric shutter with respect to the emission of the light pulse 40 is phiO, in the first exemplary embodiment shown phiO = -60 °. The opening time is 180 °.
Dadurch wird während der Öffnungszeit des elektrischen Verschlusses ein Signalanteil 47 des Umgebungslichts 43 vom Bildsensor 28 erfasst, während ein anderer Signalanteil 48 des Umgebungslichts 43 außerhalb der Öffnungszeit des elektrischen Verschlusses nicht erfasst wird. Entsprechend seiner Verzögerung wird zusätzlich ein Signalanteil 45 des einfallenden Lichtimpulses 42 erfasst, während ein anderer Signalanteil 46 des einfallenden Lichtimpulses nicht erfasst wird. Dies kann beispielsweise dadurch realisiert werden, dass dann, wenn das Steuersignal CO den Zustand „0" annimmt, die Ladung aus dem lichtempfindlichen Bereich 172 über den mit dem Signalweg 175 verbundenen elektrischen Verschluss (nicht gezeigt) gemäß Fig. 2 entfernt wird, und dann, wenn das Steuersignal CO den Zustand „1" annimmt, die Ladung aus dem lichtempfindlichen Bereich 172 über den Signalweg 174 kumulierend dem Speicher 173 zugeführt wird. As a result, a signal component 47 of the ambient light 43 is detected by the image sensor 28 during the opening time of the electrical shutter, while another signal component 48 of the ambient light 43 is not detected outside the opening time of the electrical shutter. In accordance with its delay, a signal component 45 of the incident light pulse 42 is additionally detected, while another signal component 46 of the incident light pulse is not detected. This can be realized, for example, by removing the charge from the photosensitive region 172 via the electrical shutter (not shown) of FIG. 2 connected to the signal path 175 when the control signal CO becomes "0", and then when the control signal CO is in the "1" state assumes the charge from the photosensitive area 172 is cumulatively supplied to the memory 173 via the signal path 174.
Aus dem einfallenden Licht wird ein Signal gebildet, beispielsweise eine Ladung, eine Spannung, ein Strom oder eine digitale Zahl. Sofern mehrere LichtImpulse 40, 60 und 61 ausgesandt wurden und der elektrische Verschluss mehrfach geöffnet wurde, werden die Signale der einzelnen Öffnungen des Verschlusses als Ladungen im Speicher 173 analog, d.h. als Ladungspakete, addiert oder kumuliert, was durch die Addierfunktion 49 symbolisiert ist, und bilden schließlich ein Signal SO. Dieses Signal ist jeweils einem Pixel zugeordnet. Gemeinsam mit weiteren Signalen SO von anderen Pixeln entsteht ein erstes Rohbild für das Signal SO . Optional könnte die Addierfunktion 49 auch in der in Fig. 3 gezeigten Recheneinheit 29 realisiert sein, falls Signale der einzelnen Verschlussöffnungen separat digitalisiert und verarbeitet werden. Gleiches gilt auch für die nachfolgend erwähnten (symbolischen) Addierfunktionen 54 und 59. From the incident light, a signal is formed, for example a charge, a voltage, a current or a digital number. If several light pulses 40, 60 and 61 have been emitted and the electrical shutter has been opened several times, the signals of the individual openings of the shutter become analogous, as charges in the memory 173, i. as charge packets, added or cumulated, which is symbolized by the adding function 49, and finally form a signal SO. This signal is assigned to one pixel each. Together with further signals SO from other pixels, a first raw image is produced for the signal SO. Optionally, the adding function 49 could also be realized in the arithmetic unit 29 shown in FIG. 3, if signals of the individual shutter openings are separately digitized and processed. The same applies to the (symbolic) adding functions 54 and 59 mentioned below.
In Fig. 5 (c) ist ein zweites Steuersignal Gl zu Steuerung des elektrischen Verschlusses über der Zeit t für den Erhalt eines zweiten Rohbildes dargestellt. Die verwendeten Bezeichnungen entsprechen denen aus Fig. 5 (b) . Hier wird nun eine andere Phasenrelation verwendet. Die Phasenrelation zwischen der steigenden Flanke 44 des Signals CO und der steigenden Flanke 50 des Signals Gl beträgt phil und hat im gezeigten Beispiel den Wert phil = 120°. Die Öffnungszeit beträgt 180°. In Fig. 5 (c), a second control signal Gl for controlling the electric shutter over the time t for obtaining a second raw image is shown. The terms used correspond to those of Fig. 5 (b). Here now another phase relation is used. The phase relation between the rising edge 44 of the signal CO and the rising edge 50 of the signal Gl is phil and in the example shown has the value phil = 120 °. The opening time is 180 °.
Dadurch wird während der Öffnungszeit des elektrischen Verschlusses ein Signalanteil 52 des Umgebungslichts 43 empfangen, während ein anderer Signalanteil 53 des Umgebungslichts 43 außerhalb der Öffnungszeit des elektrischen Verschlusses nicht empfangen wird. Entsprechend seiner Verzögerung wird in diesem Fall der gesamte Signalanteil 51 des einfallenden Lichtimpulses 42 empfangen. Thereby, a signal portion 52 of the ambient light 43 is received during the opening time of the electric shutter, while another signal portion 53 of the ambient light 43 is not received outside the opening time of the electric shutter. In this case, according to its delay, the entire signal component 51 of the incident light pulse 42 is received.
Aus dem einfallenden Licht wird wiederum ein Signal gebildet und sofern mehrere Lichtimpulse 40, 60 und 61 ausgesandt wurden und der elektrische Verschluss mehrfach geöffnet wurde, werden die Signale der einzelnen Öffnungen des Verschlusses durch eine symbolische Addierfunktion 54 als Ladungen im Speicher 173 analog, d.h. als Ladungspakete, addiert oder kumuliert und bilden schließlich ein Signal Sl . Auch dieses Signal ist jeweils einem Pixel zugeordnet. Gemeinsam mit weiteren Signalen Sl von anderen Pixeln entsteht ein zweites Rohbild für das Signal Sl. Optional könnte die Addierfunktion 54 auch in der in Fig. 3 gezeigten Recheneinheit 29 realisiert sein, falls Signale der einzelnen Verschlussöffnungen separat digitalisiert und verarbeitet werden. A signal is again formed from the incident light, and if several light pulses 40, 60 and 61 have been emitted and the electrical shutter has been opened several times, the signals of the individual apertures of the shutter are analogously represented by a symbolic addition function 54 as charges in the memory 173, i. as charge packets, added or accumulated and finally form a signal Sl. This signal is also assigned to one pixel. Together with further signals Sl from other pixels, a second raw image is produced for the signal S1. Optionally, the adder function 54 could also be implemented in the arithmetic unit 29 shown in FIG. 3 if signals of the individual shutter openings are separately digitized and processed.
Schließlich ist in Fig 5 (d) ein drittes Steuersignal C2 zur Steuerung des elektrischen Verschlusses über der Zeit t für den Erhalt eines dritten Rohbildes dargestellt. Die verwendeten Bezeichnungen entsprechen wiederum denen aus Fig. 5 (b) und (c) . Im gezeigten Beispiel ist phi2 = 120°, ebenso wie phil. Die Öffnungszeit beträgt wiederum 180° . Finally, in FIG. 5 (d), a third control signal C2 for controlling the electrical closure over time t is shown for obtaining a third raw image. Again, the terms used correspond to those of Figs. 5 (b) and (c). In the example shown phi2 = 120 °, as well as phil. The opening time is again 180 °.
Dadurch wird während der Öffnungszeit des elektrischen Verschlusses lediglich ein Signalanteil 58 des Umgebungslichts 43 empfangen, während ein anderer Signalanteil 57 des Umgebungslichts 43 außerhalb der Öffnungszeit des elektrischen Verschlusses nicht empfangen wird. Entsprechend seiner Verzögerung wird in diesem Fall der gesamte Signalanteil 56 des einfallenden Lichtimpulses 42 nicht empfangen. Die Signale der einzelnen Öffnungen des Verschlusses werden auch hier durch eine symbolische Addierfunktion 59 als Ladungen im Speicher 173 analog, d.h. als Ladungspakete, addiert oder kumuliert und bilden schließlich ein Signal S2. Auch dieses Signal ist jeweils einem Pixel zugeordnet. Gemeinsam mit weiteren Signalen S2 von anderen Pixeln entsteht ein drittes Rohbild für das Signal S2. Optional könnte die Addierfunktion 59 auch in der in Fig. 3 gezeigten Recheneinheit 29 realisiert sein, falls Signale der einzelnen Verschlussöffnungen separat digitalisiert und verarbeitet werden.. As a result, only one signal component 58 of the ambient light 43 is received during the opening time of the electrical shutter, while another signal component 57 of the ambient light 43 is not received outside the opening time of the electrical shutter. In this case, according to its delay, the entire signal component 56 of the incident light pulse 42 is not received. The signals of the individual openings of the shutter are also added or accumulated here analogously by means of a symbolic adding function 59 as charges in the memory 173, ie as charge packets, and finally form a signal S2. Also this signal is assigned to one pixel each. Together with further signals S2 from other pixels, a third raw image is produced for the signal S2. Optionally, the adding function 59 could also be realized in the arithmetic unit 29 shown in FIG. 3, if signals of the individual shutter openings are separately digitized and processed.
Die Steuersignale CO, Cl und C2 weisen die gleiche Periode tp auf wie das Licht L. The control signals CO, C1 and C2 have the same period tp as the light L.
Durch Kombination der drei Rohbilder für jeden Pixel liegen schließlich drei Signale SO, Sl und S2 vor. Unter der Annahme, dass das Objekt während der Aufnahme der drei Rohbilder keine wesentlichen Bewegungen ausgeführt hat und für jeden Pixel jeweils das Umgebungslicht 43 und die Intensität des empfangenen Lichtimpulses 42 gleich sind, kann für jeden Pixel aus den drei Signalen SO, Sl und S2 die Zeitdifferenz td und durch mit Kenntnis der Lichtgeschwindigkeit die Entfernung des von auf diesem Pixel abgebildeten Signalanteils des Objektes 25 rechnerisch ermittelt werden. Daraus kann ein Entfernungsbild errechnet werden, bei dem den Pixeln Entfernungswerte zugeordnet sind. By combining the three raw images for each pixel, there are finally three signals SO, Sl and S2. Assuming that the object has not made any significant movements during the recording of the three raw images and the ambient light 43 and the intensity of the received light pulse 42 are the same for each pixel, for each pixel of the three signals SO, S1 and S2, the Time difference td and by with knowledge of the speed of light, the distance of the imaged on this pixel signal component of the object 25 are calculated. From this a distance image can be calculated in which distance values are assigned to the pixels.
Die Auswahl der Anzahl von drei Steuersignalen und Signalen erfolgt dabei auf Grundlage der nachfolgenden Überlegungen. Bei der Ermittlung der Entfernung eines Objekts über die Laufzeit des Lichts liegen drei Unbekannte vor, nämlich die Entfernung, die Intensität des Umgebungslichts und die Intensität des einfallenden Lichtimpulses. Zur Bestimmung dieses Problems mit drei Freiheitsgraden werden also mindestens drei verschiedene Signale benötigt. Gleichzeitig ist es zur Erzeugung hoher Bildraten geboten, die Anzahl der Rohbilder so klein wie möglich zu halten. Daher kann die Anzahl der Rohbilder und die damit verbundene Anzahl von Steuersignalen als drei gewählt werden. Fig. 6 (a) bis (e) zeigen Diagramme zur Erläuterung des Zustandekommens der Signale durch Anwendung der Zeitsteuerung für Licht und Steuersignale. Im Einzelnen zeigen die Fig. 6 (a) bis (e) , wie sich aus der Phasenbeziehung zwischen dem einfallenden Licht D und dem Steuersignal C ein Verlauf des Signals S über der Zeitdifferenz td ergibt. The selection of the number of three control signals and signals is based on the following considerations. In determining the distance of an object over the duration of the light three unknowns are present, namely the distance, the intensity of the ambient light and the intensity of the incident light pulse. To determine this problem with three degrees of freedom at least three different signals are needed. At the same time, to produce high frame rates, it is necessary to keep the number of raw images as small as possible. Therefore, the number of raw images and the associated number of control signals can be selected as three. Figs. 6 (a) to (e) are diagrams for explaining the occurrence of the signals by using the timing for light and control signals. Specifically, Figs. 6 (a) to (e) show how the phase relationship between the incident light D and the control signal C results in a waveform of the signal S over the time difference td.
In Fig. 6 (a) trifft der einfallende Lichtimpuls 70 so ein, dass ein Signalanteil 71 des empfangenen Lichtimpulses vor der steigenden Flanke 73 des Steuersignals C liegt und nicht empfangen wird, während ein anderer Signalanteil 72 hinter der steigenden Flanke 73 liegt und entsprechend empfangen wird. Je später nun der einfallende Lichtimpuls 70 eintrifft, desto kleiner wird der nicht empfangene Signalanteil 71 des einfallenden Lichtimpulses und desto größer wird der empfangene Signalanteil 72. Somit ergibt sich im gezeigten Fall ein ansteigender Verlauf 74 des Signals S über der Zeitdifferenz td. In Fig. 6 (a), the incident light pulse 70 arrives so that a signal portion 71 of the received light pulse is before the rising edge 73 of the control signal C and is not received, while another signal portion 72 is behind the rising edge 73 and received accordingly becomes. The later now the incident light pulse 70 arrives, the smaller is the non-received signal component 71 of the incident light pulse and the greater is the received signal component 72. Thus, in the case shown, an increasing profile 74 of the signal S results over the time difference td.
In Fig. 6 (b) trifft der einfallende Lichtimpuls 75 ein und das Steuersignal C nimmt während der gesamten Zeit des Eintreffens den Zustand „1" ein. Dadurch wird der einfallende Lichtimpuls als vollständig empfangener Lichtimpuls 76 empfangen. Solange dies der Fall ist, ergibt sich für das Signal S ein konstanter hoher Wert 77. In Fig. 6 (b), the incident light pulse 75 arrives and the control signal C becomes "1" during the entire time of arrival, thereby receiving the incident light pulse as the completely received light pulse 76. As long as this is the case a constant high value 77 for the signal S.
In Fig. 6 (c) trifft der einfallende Lichtimpuls 78 so ein, dass ein Signalanteil 79 des empfangenen Lichtimpulses vor der fal- lenden Flanke 81 des Steuersignals C liegt und empfangen wird, während ein anderer Signalanteil 80 hinter der fallenden Flanke 81 liegt und entsprechend nicht empfangen wird. Je später nun der einfallende Lichtimpuls 78 eintrifft, desto kleiner wird der empfangene Signalanteil 79 des einfallenden Lichtimpulses und desto größer wird der nicht empfangene Signalanteil 80. Somit ergibt sich ein im gezeigten Fall ein fallender Verlauf 82 des Signals S über der Zeitdifferenz td. In FIG. 6 (c), the incident light pulse 78 arrives so that a signal portion 79 of the received light pulse is before the falling edge 81 of the control signal C and is received, while another signal component 80 is behind the falling edge 81 and accordingly not received. The later now the incident light pulse 78 arrives, the smaller the received signal portion 79 of the incident light pulse and the greater is the non-received signal component 80. Thus results in the case shown, a falling curve 82 of the signal S over the time difference td.
In Fig. 6 (d) trifft der einfallende Lichtimpuls 75 zu einer Zeit ein, zu der das Steuersignal durchgehend den Zustand „0" annimmt. Dadurch wird der empfangene Lichtimpuls 84 vollständig unterdrückt. Solange dies der Fall ist, ergibt sich für das Signal S ein konstanter niedriger Wert 85. In Fig. 6 (d), the incident light pulse 75 arrives at a time when the control signal continuously assumes the state "0." This completely suppresses the received light pulse 84. As long as this is the case, the signal S results a constant low value 85.
Daraus ergibt sich in Kombination der vorgenannten Fälle der in Fig. 6 (e) gezeigte Signalverlauf 86 des Signals S über der Zeitdifferenz td, welches sich stückweise aus einer steigenden Flanke, einem hohen konstanten Wert, einer fallenden Flanke und einem niedrigen konstanten Wert zusammensetzt. This results in combination of the aforementioned cases of the waveform shown in Fig. 6 (e) 86 of the signal S over the time difference td, which is piecewise composed of a rising edge, a high constant value, a falling edge and a low constant value.
Fig. 7 (a) und (b) zeigen Diagramme mit Signalverläufen für das erste Ausführungsbeispiel. Im Einzelnen zeigt Fig. 7 (a) die Signale SO, Sl und S2 und Fig. 7 (b) den daraus ermittelte Wert für die Entfernung d. Figs. 7 (a) and (b) are diagrams showing waveforms for the first embodiment. More specifically, Fig. 7 (a) shows the signals SO, Sl and S2, and Fig. 7 (b) shows the value for the distance d determined therefrom.
Dementsprechend ergibt sich aus den in den Fig. 5 (a) bis (d) gezeigten Verläufen der Steuersignale der in Fig. 7 (a) dargestellte Verlauf für die Signale SO, Sl und S2. Die Signale bewegen sich dabei zwischen einem Hintergrundsignal Sb, das sich nur aus dem Beitrag des empfangenen ümgebungslichts 58 zu den Signalen SO, Sl und S2 ergibt, und dem Spitzensignal Sp, das sich aus der Summe des Beitrags des empfangenen Umgebungslichts und der empfangenen Lichtimpulse 51 und 52 zu den Signalen SO, Sl und S2 ergibt . Accordingly, from the waveforms of the control signals shown in FIGS. 5 (a) to (d), the waveform shown in FIG. 7 (a) is obtained for the signals SO, S1 and S2. The signals thereby move between a background signal Sb, which results only from the contribution of the received ambient light 58 to the signals SO, S1 and S2, and the peak signal Sp, which is the sum of the contribution of the received ambient light and the received light pulses 51 and 52 to the signals SO, Sl and S2.
Es lässt sich ein S-Raum definieren als Raum, der aus den Einheitsvektoren SO, Sl und S2 als Basis aufgespannt wird. Gleichermaßen lässt sich jeweils aus den Wertetripeln der Signale SO, Sl und Sl ein S-Vektor definieren, der als Komponenten die Werte der Signale SO, Sl und S2 aufweist. An S-space can be defined as space, which is spanned from the unit vectors SO, Sl and S2 as a basis. Similarly, the value triples of the signals SO, Sl and Sl define an S-vector having as components the values of the signals SO, Sl and S2.
Durch Größenvergleich der Signale in Fig. 7 (a) lassen sich im S-Raum sechs verschiedene Bereiche für die Zeitdifferenz td un- terscheiden, nämlich der Bereich 90 mit S2<=S1<S0, der Bereich 91 mit S2<S0<=S1, der Bereich 92 mit S0<=S2<S1, der Bereich 93 mit S0<S1<=S2, der Bereich 94 mit S1<=S0<S2 und der Bereich 95 mit S1<S2<=S0. Übersteigt die Zeitdifferenz td die Periode tp, so ergeben sich beispielsweise im Bereich 96 Werte für die Signal SO, Sl und S2 , die nicht von denen im Bereich 90 unterschieden werden können und im Bereich 97 Werte, die nicht von denen im Bereich 91 unterschieden werden können. Dieser Effekt wird als Tiefenaliasing bezeichnet. Blickt man entlang der Einheitsdiagonale auf den Ursprung des S-Raumes so entspricht diese üntertei- lung einer Segmentierung entlang der Einheitsdiagonale mit 6 tor- tenstückförmigen Segmenten zu je 60°. By comparing the magnitude of the signals in FIG. 7 (a), six different ranges for the time difference td can be distinguished in S-space, namely the range 90 with S2 <= S1 <S0, the range 91 with S2 <S0 <= S1 , the area 92 with S0 <= S2 <S1, the area 93 with S0 <S1 <= S2, the area 94 with S1 <= S0 <S2 and the area 95 with S1 <S2 <= S0. If the time difference td exceeds the period tp, then there are, for example, in the area 96 values for the signals SO, S1 and S2 which can not be distinguished from those in the area 90 and in the area 97 values which are not distinguished from those in the area 91 can. This effect is called depth aliasing. If one looks at the origin of the S-space along the unit diagonal, this division corresponds to a segmentation along the unit diagonal with six pie-shaped segments of 60 ° each.
Es ist zu erkennen, dass in Fig. 7 (a) immer genau eines der drei Signale SO, Sl und S2 einen steigenden oder fallenden Verlauf annimmt, während ein zweites der drei Signale einen konstanten hohen Wert und ein drittes der Signale einen konstanten tiefen Wert annimmt. Dabei wurde der in Fig. 5 gezeigte Verlauf der Steuersignale CO, Cl und C2 mit Bezug auf den Verlauf des Lichts L im ersten Ausführungsbeispiel mit Bedacht genau so gewählt, dass diese Bedingung erfüllt ist und sich der in Fig. 7 (a) gezeigte Signalverlauf ergibt. It can be seen that in Fig. 7 (a) always exactly one of the three signals SO, Sl and S2 assumes a rising or falling course, while a second of the three signals has a constant high value and a third of the signals has a constant low value accepts. In this case, the course of the control signals CO, C1 and C2 shown in FIG. 5 with respect to the course of the light L in the first exemplary embodiment was carefully chosen so that this condition is fulfilled and the signal course shown in FIG. 7 (a) results.
Dieser Signalverlauf bietet mehrere Vorteile. Zunächst ist es möglich, innerhalb eines Intervalls von 0 <= td < tp den Wert von den td aus den Signalen SO, Sl und S2 eindeutig zu bestimmen. Dafür sind folgende Voraussetzungen erfüllt: Zu jedem Zeitpunkt sind mindestens zwei der Signale SO, Sl und S2 verschieden. Und zu jedem Zeitpunkt ändert sich mindestens eines der Signale SO, Sl und S2 auf eine andere Art und Weise als die anderen beiden der Signale SO, Sl und S2 in Abhängigkeit von der Zeitdifferenz td. Da sich jeweils nur ein Signal ändert und alle steigenden und fallenden Flanken der Steuersignale zur Erzeugung eines steigenden oder fallenden Signalverlaufs genutzt wurden, ist erkenntlich, dass sich so der größtmögliche Messbereich für die Zeitdifferenz td für eine gegebene Pulslänge tl erzielen lässt. This waveform offers several advantages. First, it is possible to uniquely determine the value of the td from the signals SO, S1 and S2 within an interval of 0 <= td <tp. The following prerequisites are fulfilled for this: At any given time, at least two of the signals SO, S1 and S2 are different. And At any given time, at least one of the signals S0, S1 and S2 changes in a different way than the other two of the signals S0, S1 and S2 as a function of the time difference td. Since only one signal changes at a time and all rising and falling Flanks of the control signals were used to generate a rising or falling waveform, it is recognizable that so can achieve the largest possible measuring range for the time difference td for a given pulse length tl.
Aus den in Fig. 7(a) gezeigten Signalen kann die in Fig. 7(b) gezeigte Entfernung d von Objekten 25, 26 von der ToF-Kamera 20 in Fig. 3 bestimmt werden. Dabei wird angenommen, dass sich der Messbereich so nah wie möglich an der ToF-Kamera 20 befindet und daher mit der Entfernung d = 0 startet. Wird eine Kombination der Signale SO, Sl und S2 gemessen, die einer Zeitdifferenz td von 0 entspricht, so entspricht dies einer Entfernung d von 0. Mit linear zunehmender Zeitdifferenz td ergibt sich ein erster Bereich 100 mit proportionaler Zunahme der Entfernung d, bis schließlich kurz vor der Zeitdifferenz td = tp fast ein maximaler Entfernungswert dp gemessen wird. Ab dem Zeitpunkt tp wiederholen sich die Signale SO, Sl und S2 periodisch, so dass die Kombination der Signale SO, Sl und S2 zum Zeitpunkt td = tp mit der Kombination der Signale SO, Sl und S2 zum Zeitpunkt td = 0 übereinstimmt und somit ein sprunghafter Abfall 101 zum Entfernungswert d = 0 erfolgt. Ab dem Zeitpunkt tp folgt in einem zweiten Bereich 102 eine periodische Wiederholung der proportionalen Zunahme der Entfernung d. Dadurch kann die Entfernung d im Zeitraum 0 <= td < tp korrekt bestimmt werden. Sowohl der sprunghafte Abfall 101 als auch die periodische Wiederholung sind hingegen Messfehler durch Tiefenaliasing . Der Proportionalitätsfaktor für die proportionale Zunahme im ersten Bereich 100 ergibt sich aus der Lichtgeschwindigkeit c und der Pulslänge tl, wobei letztere nämlich die Steigung des innerhalb der Bereiche in Fig. 7(a) jeweils steigenden oder fallenden Signals beeinflusst. Der Proportionalitätsfaktor beträgt c * tl 12. Fig.8 zeigt eine in der Recheneinheit 29 verwendete Formel zur Ermittlung der Entfernung d aus den Signalen SO, Sl und S2. Durch die in Fig. 7 (a) gezeigte Unterscheidung in die Bereiche 90 bis 95 ergibt sich innerhalb eines jeden Bereichs ein linearer Signalverlauf, so dass in jedem Bereich die Entfernung d mit einer linearen Gleichung bestimmt werden kann. Fig. 8 gibt eine Formel an, mittels der lineare Gleichungen für die Bereiche 90 bis 95 mittels einer Fallunterscheidung zu einer einzigen stückweise linearen Formel vereint werden können. Dabei ist d die zu messende Entfernung, c die Lichtgeschwindigkeit und tl die Pulslänge. Die sechs Fallunterscheidungen durch Ungleichungen werden vorgenommen, um festzustellen, welchem der sechs Bereiche 90 bis 95 der S-Vektor angehört und mit welcher linearen Gleichung aus seinen Komponenten eine Entfernung errechnet werden soll. Für jeden Bereich ist eine lineare Gleichung angegeben. Durch die Addition der Zahlen 0, 1, 2, 3, 4, 5 wird eine Stetigkeit in der ermittelten Entfernung d erreicht. Der Ausdruck „NaN" bedeutet „not a number" und besagt, dass im Fall S0=S1=S2 eine Entfernungsberechnung grundsätzlich nicht möglich ist, da in diesem Fall die drei Unbekannten nicht ermittelt werden können. Durch die in Fig. 8 gezeigte Formel lässt sich aus den in Fig 7 (a) gezeigten Signalen ein Wert für die in Fig. 7 (b) gezeigte Entfernung d korrekt bestimmen . From the signals shown in Fig. 7 (a), the distance d of objects 25, 26 shown in Fig. 7 (b) from the ToF camera 20 in Fig. 3 can be determined. It is assumed that the measuring range is as close as possible to the ToF camera 20 and therefore starts with the distance d = 0. If a combination of the signals SO, Sl and S2 is measured, which corresponds to a time difference td of 0, this corresponds to a distance d of 0. With a linearly increasing time difference td results in a first region 100 with proportional increase of the distance d, to finally short before the time difference td = tp almost a maximum distance value dp is measured. From the time tp, the signals SO, S1 and S2 repeat periodically, so that the combination of the signals SO, S1 and S2 at the time td = tp coincides with the combination of the signals SO, S1 and S2 at the time td = 0 and thus a sudden drop 101 to the distance value d = 0. From time t.sub.p, in a second area 102, a periodic repetition of the proportional increase in the distance d ensues. As a result, the distance d in the period 0 <= td <tp can be correctly determined. However, both the precipitous drop 101 and the periodic repetition are measurement errors due to depth aliasing. The proportionality factor for the proportional increase in the first region 100 results from the speed of light c and the pulse length t1, the latter namely the slope of the within the ranges in Fig. 7 (a) respectively increasing or decreasing signal influenced. The proportionality factor is c * tl 12. FIG. 8 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2. The distinction between regions 90 to 95 shown in FIG. 7 (a) results in a linear signal curve within each region, so that in each region the distance d can be determined using a linear equation. Fig. 8 gives a formula by means of which linear equations for the regions 90 to 95 can be combined by means of a case distinction into a single piecewise linear formula. Where d is the distance to be measured, c is the speed of light, and tl is the pulse length. The six case discriminations by inequalities are made to determine to which of the six regions 90 to 95 the S vector belongs and with which linear equation a distance is to be calculated from its components. For each area, a linear equation is given. By adding the numbers 0, 1, 2, 3, 4, 5 a continuity in the determined distance d is achieved. The expression "NaN" means "not a number" and states that in the case S0 = S1 = S2 a distance calculation is fundamentally not possible, since in this case the three unknowns can not be determined. By the formula shown in Fig. 8, from the signals shown in Fig. 7 (a), a value for the distance d shown in Fig. 7 (b) can be correctly determined.
Die Werte der Signale SO, Sl und S2 werden also einem Operator zugeführt werden, der analog zu einem Hue-Operator aufgebaut ist und einen Drehwinkel um die Raumdiagonale des S0-Sl-S2-Raumes ermittelt. Mittels einer Proportionalitätskonstante wird dieser dann in die Entfernungsinformation umgerechnet. The values of the signals SO, S1 and S2 are thus supplied to an operator, which is constructed analogously to a Hue operator and a rotation angle about the spatial diagonal of the S0-S1-S2 space determined. By means of a proportionality constant, this is then converted into the distance information.
Durch das vorgeschlagene Verfahren lässt sich ein besonders großer Messbereich für eine gegebene Pulsbreite tl erzielen. Der Messbereich reicht von einer Entfernung d von Null bis zu einer maximalen Entfernung dp, die sich aus der Periode tp ergibt durch die Formel dp = c/2 * tp. The proposed method makes it possible to achieve a particularly large measuring range for a given pulse width t1. The measuring range extends from a distance d from zero to a maximum distance dp resulting from the period tp by the formula dp = c / 2 * tp.
Fig. 9 (a) und (b) zeigen eine Bahnkurve der S-Vektoren im S-Raum gemäß dem Stand der Technik bzw. gemäß dem ersten Ausführungs- beispiel . FIGS. 9 (a) and (b) show a trajectory of S vectors in S space according to the prior art and the first embodiment, respectively.
Die anhand des ersten Ausführungsbeispiels gewonnene Erkenntnis lässt sich folgendermaßen visualisieren . In Fig. 9 ist jeweils ein S-Raum als Würfel dargestellt und die Bahnkurve der S-Vektoren mit zunehmender Zeitdifferenz td eingezeichnet. Dabei zeigt Fig. 9 (a) eine Bahnkurve gemäß dem Stand der Technik und Fig. 9 (b) eine Bahnkurve gemäß dem ersten Ausführungsbeispiel. The knowledge gained from the first embodiment can be visualized as follows. In FIG. 9, an S-space is shown as a cube and the trajectory of the S-vectors is plotted with increasing time difference td. Here, Fig. 9 (a) shows a trajectory according to the prior art and Fig. 9 (b) shows a trajectory according to the first embodiment.
Eine Möglichkeit der Messung der Zeitdifferenz td mittels der drei Signale SO, Sl und S2 besteht darin, das UmgebungsIicht als ein konstantes Signal S2 zu messen, einen einfallenden Lichtimpuls teilweise zu empfangen und als ansteigendes Signal Sl zu messen und das Umgebungslicht plus den vollständigen einfallenden Lichtimpuls als konstantes Signal SO zu messen. Daraus ergibt sich im S-Raum ein linearer Verlauf, wie er in beispielhafter Weise in Fig. 9 (a) dargestellt ist, wobei die hier eingezeichnete Bahnkurve ein Umgebungslicht von Null annimmt. One way of measuring the time difference td by means of the three signals SO, Sl and S2 is to measure the ambient light as a constant signal S2, partially receive an incident light pulse and measure as rising signal Sl and the ambient light plus the full incident light pulse to measure SO as a constant signal. This results in a linear course in S-space, as shown by way of example in FIG. 9 (a), the trajectory drawn here assuming an ambient light of zero.
Fig. 9 (b) zeigt die sich aus dem in Fig. 7 (a) dargestellten Signalverlauf ergebende Bahnkurve der S-Vektoren im S-Raum unter der Annahme, dass die Intensität des UmgebungsIichts Null beträgt. Im Vergleich zu Fig. 9 (a) wird deutlich, dass durch das erste Ausführungsbeispiel eine 6 -mal so lange Bahnkurve erzielt wird. Gleichzeitig wird ersichtlich, warum die gewählte Bahnkurve unter den gegebenen Randbedingungen eine maximale Länge aufweist. Die gegebenen Randbedingungen bestehen aus der Forderung, dass sich die Zeitdifferenz td und somit die Entfernung d unabhängig von der Intensität des Umgebungslichts und von der Intensität des einfallenden Lichtimpulses bestimmen lässt. Durch diese besonders lange Bahnkurve lässt sich ein besonders großer Messbereich erzielen . In bestimmten Anwendungen kann es zweckmäßig sein, dass der Messbereich, der einen bestimmten, durch die Periode tp gegebenen Entfernungsbereich aufweist, nicht in einer Entfernung d von der Kamera von Null beginnt, sondern in einer anderen, wählbaren Entfernung. Ein möglicher Grund dafür ist, dass Objekte, von denen Entfernungsbilder erstellt werden sollen, beispielsweise Paketsendungen auf einem Förderband, auf die eine darüber montierte Kamera von oben gerichtet ist, eine bestimmte Höhe nicht überschreiten können und der Messbereich optimal auf die tatsächlich vorkommenden Größen angepasst werden soll. Ein anderer mög- licher Grund besteht darin, dass Objekte in zu großer Nähe durch die Eigenschaften des Bildsensors zu einer Sättigung der Signale führen und daher die Entfernung ohnehin nicht korrekt gemessen werden kann, so dass es vorteilhaft ist, den Messbereich auf korrekt messbare Entfernungen anzupassen. Dieser Umstand wird bei der Diskussion von Fig. 14 näher erläutert. Fig. 9 (b) shows the trajectory of the S vectors in S space resulting from the waveform shown in Fig. 7 (a) assuming that the intensity of the ambient light is zero. Compared to FIG. 9 (a), it is clear that the first embodiment, a 6 times as long trajectory is achieved. At the same time, it becomes apparent why the selected trajectory has a maximum length under the given boundary conditions. The given boundary conditions consist of the requirement that the time difference td and thus the distance d can be determined independently of the intensity of the ambient light and of the intensity of the incident light pulse. This particularly long trajectory makes it possible to achieve a particularly large measuring range. In certain applications, it may be appropriate that the measurement range having a certain range of distances given by the period tp does not start from zero at a distance d from the camera, but at a different, selectable distance. A possible reason for this is that objects from which distance images are to be created, for example parcels on a conveyor belt, on which a camera mounted above is directed from above, can not exceed a certain height and the measuring range can be optimally adapted to the actually occurring quantities should. Another possible reason is that objects in too close proximity cause the signals of the image sensor to saturate the signals and therefore the distance can not be measured correctly anyway, so that it is advantageous to adapt the measuring range to correctly measurable distances , This circumstance will be explained in more detail in the discussion of FIG. 14.
Fig. 10 (a) und (b) zeigen Signalverläufe bei einer Verschiebung des Messbereichs zu einer minimalen Entfernung dmin um 120°, als Beispiel für ein Vielfaches von 60°. Figs. 10 (a) and (b) show waveforms when the measuring range is shifted to a minimum distance dmin by 120 °, as an example of a multiple of 60 °.
Da für die Verschiebung die Zeitsteuerung aus Fig. 5 (a) bis (d) nicht verändert wurde, ist auch der Signalverlauf in Fig. 10 (a) gegenüber dem Signalverlauf in Fig. 7 (a) unverändert. Allerdings werden hier aus diesen gleichen Signalwerten die in Fig. 7 (b) gezeigten verschobenen Entfernungswerte errechnet . Der Bereich der Entfernung reicht von einer minimalen Entfernung dmin, welche größer ist als Null, bis fast zu einer maximalen Entfernung dmax, welche auf vorteilhafte Weise größer ist als dp. Die geringen Werte der Zeitdifferenz td, welche zu einem vor dem Messbereich liegenden ansteigenden Entfernungswert 103 gehören, unterliegen dann einem Tiefenaliasing und kommen gemäß der veränderten Auf- gabenstellung nicht vor. Innerhalb des Messbereichs in den Signalbereichen 92 bis 97 erfolgt eine korrekte Umsetzung der Signale in eine ansteigende Entfernung d in einem ersten Bereich 105. Hinter der fallenden Flanke 106 der Entfernung d tritt ein weiteren Anstieg in einem zweiten Bereich 107 der Entfernung auf, der jedoch wiederum einem Tiefenaliasing unterliegt. Since the timing of Fig. 5 (a) to (d) has not been changed for the displacement, the waveform in Fig. 10 (a) is also shown. with respect to the waveform in Fig. 7 (a) unchanged. However, from these same signal values, the shifted distance values shown in Fig. 7 (b) are calculated here. The range of the distance ranges from a minimum distance dmin, which is greater than zero, to almost a maximum distance dmax, which is advantageously greater than dp. The small values of the time difference td, which belong to a rising distance value 103 lying ahead of the measuring range, are then subject to a depth aliasing and do not occur according to the changed task. Within the measuring range in the signal areas 92 to 97, the signals are converted correctly into an increasing distance d in a first area 105. Behind the falling edge 106 of the distance d, a further increase occurs in a second area 107 of the distance, which however subject to a depth aliasing.
Fig. 11 zeigt eine in der Recheneinheit 29 verwendete Formel zur Ermittlung der Entfernung d aus den Signalen SO, Sl und S2 mit einem um die zwei Signalbereiche 90 und 91 verschobenen Messbereich. Die Formel gemäß Fig. 11 kann mit dem in Fig. 10 gezeigten verschobenen Messbereich realisiert werden. Im Vergleich zu Fig. 7 ist erkennbar, dass die Signalbereiche 90 und 91 bei gleichen Signalen SO, Sl und S2 zu einer anderen Entfernungsinterpretation führen, die sich in der Formel in den Offsetwerten „6" und „7" wiederfindet. Generell gesprochen wurde für die von einer erhöhten Interpretation der Entfernung betroffenen Bereiche der Offsetwert jeweils um „6" erhöht. Dieser Vorgang kann grundsätzlich auch mehrfach ausgeführt werden. Damit lässt sich auch eine minimale Entfernung dmin realisieren, die jenseits von dp liegt. FIG. 11 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 with a measuring range shifted by the two signal ranges 90 and 91. The formula according to FIG. 11 can be realized with the shifted measuring range shown in FIG. Compared to FIG. 7, it can be seen that the signal regions 90 and 91 result in a different distance interpretation for the same signals SO, Sl and S2, which is found in the formula in the offset values "6" and "7". Generally speaking, for the regions affected by an increased interpretation of the distance, the offset value is increased by "6." In principle, this process can also be carried out several times, so that a minimum distance dmin beyond dp can also be realized.
Fig. 12 (a) und (b) zeigen Signalverläufe bei einer Verschiebung des Messbereichs zu einer minimalen Entfernung dmin um 150° als Beispiel für einen von einem Vielfachen von 60° abweichenden Wert. Die gezeigten Signalverläufe sind dabei in Abhängigkeit einer Zeitdifferenz dargestellt, d.h. für jeden Wert von td muss ein eigenes Zeitdiagramm ablaufen und liefert dann als Ergebnis den Signalwert. Durch diese Verschiebung des Messbereichs können in verschiedenen Teilen eines Entfernungsbereiches verschiedene Entfernungsinterpretationen vorgenommen werden. Dazu wird hier der linke Teil des Signalbereichs 92 anders interpretiert als der rechte Teil und es ergibt sich in der Mitte des Signalereichs 92 eine fallende Flanke 108 des Werts für die Entfernung d. Somit beginnt der korrekte Messbereich 109 innerhalb des Signalbereichs 92. Figs. 12 (a) and (b) show waveforms when the measuring range is shifted to a minimum distance dmin by 150 ° as an example of a multiple of 60 ° Value. The signal curves shown here are represented as a function of a time difference, ie for each value of td, a separate time diagram must run and then supplies the signal value as a result. This shift of the measuring range allows various distance interpretations to be made in different parts of a distance range. For this purpose, the left-hand part of the signal region 92 is interpreted differently than the right-hand part, and a falling edge 108 of the value for the distance d results in the middle of the signal region 92. Thus, the correct measurement range 109 begins within the signal range 92.
Fig. 13 zeigt eine in der Recheneinheit 29 verwendete Formel zur Ermittlung der Entfernung d aus den Signalen SO, Sl und S2 mit einem um die zwei Signalbereiche 90 und 91 und einen Teil des Signalbereichs 92 verschobenen Messbereich. Diese Formel gibt die in Fig. 12 gezeigte Entfernungsinterpretation an. Dabei wurde gegenüber der Formel in Fig. 11 in die Bedingung der ersten Zeile zusätzlich zur bereits vorhandenen Ungleichung S0<=S2<S1 mit einem logischen UND die weitere Ungleichung S2-S0>=0.5 * (S1-S0) aufgenommen. Durch diese weitere Ungleichung wird nur der rechteFIG. 13 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 with a measuring range shifted by the two signal ranges 90 and 91 and a part of the signal range 92. This formula indicates the distance interpretation shown in FIG. In this case, in comparison with the formula in FIG. 11, the condition of the first row has been recorded in addition to the already existing inequality S0 <= S2 <S1 with a logical AND and the further inequality S2-S0> = 0.5 * (S1-S0). By this further inequality only the right one becomes
Teil des Bereichs 92 berücksichtigt und mit einem Offsetwert von „2" versehen. Auf gleiche Weise wird in der vorletzten Zeile die dazu komplementäre Ungleichung S2-S0<0.5 * (S1-S0) aufgenommen, durch die der linke Teil des Bereichs 92 berücksichtigt und mit einem Offsetwert von „8" versehen wird. Hierbei wird ein Faktor von „0.5" verwendet, um eine Teilung des Bereichs 92 in der Mitte zu erzielen. Durch einen anderen Faktor zwischen „0" und „1" lässt sich auch eine Teilung an einer beliebigen anderen Stelle erzielen und zwar mit Werten für den Faktor, die kleiner als „0.5", sind mehr auf der linken und mit Werten, die größer alsIn the same way, in the penultimate line, the inequality S2-S0 <0.5 * (S1-S0) complementary to it is taken into account, by which the left-hand part of the area 92 is taken into account and is provided with an offset value of "8". Here, a factor of "0.5" is used to obtain a division of the center area 92. Another factor between "0" and "1" can also be used to obtain a division at any other location, with values for the factor smaller than "0.5" are more on the left and with values greater than
„0.5" sind, mehr auf der rechten Seite des Bereichs. Dies lässt sich direkt auch auf andere Bereiche betragen, wobei zu beachten ist, dass im gezeigten Fall in Fig. 12 (a) im Signalbereich 92 ein Anstieg des Signals S2 erfolgt, während die anderen Signale SO und S2 jeweils konstant sind. Wird eine solche Teilung in einem anderen Bereich vorgenommen, in dem statt dessen ein fal- lendes Signal vorliegt, so sind die Ungleichungszeichen umzukehren und ferner entsprechen dann Werte für den Faktor, die kleiner als „0.5" sind, der rechten Seite und Werte, die größer als „0.5" sind, der linken Seite. Außerdem müssen die Signale SO, Sl und S2 so gegeneinander ausgetauscht werden, dass sich eine gleiche mathematische Bedeutung ergibt. "0.5" are more to the right of the area, which can be applied directly to other areas as well is that in the case shown in Fig. 12 (a) in the signal region 92, an increase of the signal S2, while the other signals SO and S2 are respectively constant. If such a division is made in a different region in which there is a falling signal instead, then the inequality signs should be reversed, and then values for the factor smaller than "0.5", the right side, and values corresponding to are greater than "0.5", the left side. In addition, the signals SO, Sl and S2 must be exchanged for each other, that results in a similar mathematical meaning.
Fig. 14 zeigt einen Signalverlauf für die Signale SO, Sl und S2 unter Würdigung des Abstandsgesetzes und ausgehend von den vorgenannten Erläuterungen. Hier ist der Signalverlauf für die Signale SO, Sl und S2 mit zunehmender Entfernung d dargestellt. Durch das Abstandsgesetz ist dem Signalverlauf aus Fig. 10 (a) eine 1/r2 -Funktion überlagert. Das Signal bewegt sich zwischen dem Hintergrundsignal Sb und dem Sättigungssignal Ss. Letzteres ergibt sich aus dem Umstand, dass Bildsensoren üblicherweise nur ein endlich großes maximales Signal im Pixel speichern können, welches hier als Sättigungssignal Ss bezeichnet wird. FIG. 14 shows a signal course for the signals SO, S1 and S2, taking into account the law of distance and starting from the aforementioned explanations. Here is the waveform for the signals SO, Sl and S2 shown with increasing distance d. The spacing law superimposes a 1 / r 2 function on the waveform of FIG. 10 (a). The signal moves between the background signal Sb and the saturation signal Ss. The latter arises from the fact that image sensors usually can store only a finite maximum signal in the pixel, which is referred to here as the saturation signal Ss.
Dadurch ergibt sich zwischen einer Entfernung d von Null und der Sättigungsentfernung ds ein Entfernungsbereich, in dem mindestens eines der Signale SO, Sl oder S2 gesättigt ist. In diesem Sättigungsbereich kann kein korrekter Entfernungswert ermittelt wer- den. Wo genau die Sättigungsentfernung ds liegt, ist unter anderem von der Intensität der Lichtimpulse, den Reflektionseigen- schaften des Objekts und der Zeit der Belichtung abhängig. Da dieser Sättigungsbereich ohnehin nicht zur Bestimmung der Entfernung d genutzt werden kann, ist es vorteilhaft, auf eine Nutzung dieses Bereichs zu verzichten und stattdessen bis zu einer größeren maximalen Entfernung dmax messen zu können. Fig. 15 zeigt eine in der Recheneinheit 29 verwendete Formel zur Berechnung des Tiefenrauschens Nd, welches anhand der Formel gemäß Fig. 8 errechnet wurde. Dabei ist NSO das Rauschen des Signals SO, NS1 das Rauschen des Signals Sl, und NS2 das Rauschen des Signals S2 sowie tl die Pulslänge und c die Lichtgeschwindigkeit. Der Operator max () bezeichnet einen Maximumoperator und min () einen Minimumoperator. This results in a distance range between a distance d of zero and the saturation distance ds, in which at least one of the signals SO, S1 or S2 is saturated. In this saturation range, no correct distance value can be determined. Where exactly the saturation distance ds lies depends, among other things, on the intensity of the light pulses, the reflection properties of the object and the time of the exposure. Since this saturation region can not be used to determine the distance d anyway, it is advantageous to be able to dispense with a use of this range and instead to be able to measure dmax up to a greater maximum distance. FIG. 15 shows a formula used in the calculation unit 29 for calculating the depth noise Nd, which was calculated using the formula according to FIG. 8. Here NSO is the noise of the signal SO, NS1 the noise of the signal Sl, and NS2 the noise of the signal S2 and tl the pulse length and c the speed of light. The operator max () denotes a maximum operator and min () a minimum operator.
Zur Herleitung der Formel wurde nach dem Grundgedanken der bekannten Fehlerfortpflanzung vorgegangen. Eine experimentelle Überprüfung der Ergebnisse zeigte, dass zum Erzielen eines kor- rekten Ergebnisses nicht die Summe aus den Beträgen der partiellen Ableitungen der verschiedenen Eingangsgrößen jeweils multipliziert mit den Fehlern der verschiedenen Eingangsgrößen verwendet werden darf, sondern die Wurzel der Summe der Quadrate. For the derivation of the formula was proceeded to the basic idea of the known error propagation. An experimental verification of the results showed that, to obtain a correct result, one should not use the sum of the amounts of the partial derivatives of the different input quantities multiplied by the errors of the different input quantities, but the root of the sum of the squares.
Die Rauschwerte NSO, NS1 und NS2 lassen sich entweder messen oder errechnen. Im letzteren Fall können beispielsweise die Formeln der Norm EMVA1288 Release A3.0 verwendet werden. Dort wird die Berechnung des zeitlichen Rauschens aus dem Dunkelrauschen des Bildsensors und aus dem Schrotrauschen (Shot Noise) der Ladungsträger und aus dem sogenannten Wandlungsgewinn (Conversion Gain) bestimmt. Sofern dies erforderlich ist, kann auch das Quantisierungsrauschen noch berücksichtigt werden. The noise values NSO, NS1 and NS2 can either be measured or calculated. In the latter case, for example, the formulas of standard EMVA1288 release A3.0 can be used. There, the calculation of the temporal noise is determined from the dark noise of the image sensor and from the shot noise of the charge carriers and from the so-called conversion gain. If necessary, the quantization noise can still be considered.
Basierend auf der Formel gemäß Fig. 15 ist zu erkennen, dass das mit dem ersten Ausführungsbeispiel erzielte Entfernungsrauschen Nd direkt proportional zur Pulslänge tl ist. Ein einfacher Weg darin, eine qualitativ hochwertige Tiefenmessung mit einem geringen Rauschen vorzunehmen, besteht also darin, die Pulslänge tl kurz zu wählen. Da die Länge des Messbereichs von „0" bis dp bzw. von dmin bis dmax seinerseits proportional zu tl ist, ver- kürzt sich der Messbereich bei einer Verkürzung der Pulslänge tl. Da, wie oben erwähnt, der Messbereich im ersten Ausführungsbei- spiel besonders groß ist, ist dort eine besonders starke Verkürzung der Pulslänge tl möglich, die ihrerseits dann wiederum zu einem besonders niedrigen Entfernungsrauschen führt. Des Weiteren kann der Entfernungsbereich durch die Möglichkeit der Verkürzung der Pulslänge tl und der damit erzielten Verringerung des Entfernungsrauschens Nd optimal angepasst werden, wie in Fig. 10 bis Fig. 13 erläutert wurde. Based on the formula of FIG. 15, it can be seen that the distance noise Nd obtained with the first embodiment is directly proportional to the pulse length t1. A simple way Therefore, to make a high-quality depth measurement with a low noise, it is to select the pulse length tl short. Since the length of the measuring range from "0" to dp or from dmin to dmax is in turn proportional to t1, the measuring range is shortened with a shortening of the pulse length t1. Since, as mentioned above, the measuring range in the first exemplary embodiment is particularly In addition, the distance range can be optimally adjusted by the possibility of shortening the pulse length t1 and thus reducing the distance noise Nd, as explained in FIGS. 10 to 13.
Fig. 16 zeigt eine in der Recheneinheit 29 verwendete Formel zur Bestimmung der Gültigkeit von Entfernungswerten, die aus den Signalen SO, Sl und S2 errechnet werden. FIG. 16 shows a formula used in the arithmetic unit 29 for determining the validity of range values calculated from the signals SO, S1 and S2.
Die Kenntnis des Rauschens kann dazu genutzt werden, über die Gültigkeit von aus Signalen SO, Sl und S2 errechneten Entfernungswerten d zu entscheiden. In der Formel gemäß Fig. 16 sind SO, Sl und S2 die bereits erläuterten Signale als digitale Werte, o ist der Offsetwert der Kamera als digitaler Wert, Nd das Dunkelrauschen der Kamera, welches nach der EMVA1288 bestimmt werden kann und in Elektronen e- angegeben wird, K der Conversion Gain nach EMVA 1288 in DN/e-, tl die Impulslänge in einer Zeiteinheit, c die Lichtgeschwindigkeit in einer Längeneinheit pro Zeit und Lim ein frei wählbarer Parameter zur Festsetzung eines Grenzwertes für das Tiefenrauschen in Längeneinheiten, z.B. Meter. The knowledge of the noise can be used to decide on the validity of distance values d calculated from signals SO, S1 and S2. In the formula according to FIG. 16, SO, S1 and S2 are the already explained signals as digital values, o is the offset value of the camera as digital value, Nd is the dark noise of the camera, which can be determined according to EMVA1288 and given in electrons e- K, is the conversion gain according to EMVA 1288 in DN / e-, tl the pulse length in a unit of time, c the speed of light in a unit of length per time and Lim a freely selectable parameter for setting a limit value for the depth noise in units of length, eg Meter.
Die Formel gemäß Fig. 16 ist aus Termen 210 bis 213 aufgebaut. Term 210 liefert einen Grenzwert, Term 211 einen Proportionali - tätsfaktor, Term 212 ein Maß für die Signalqualität in digitalen Zahlen und Terra 213 einen Schätzwert für das Rauschen. Somit lässt sich die Formel wie folgt erklären: Wenn die Signalqualität um einen einstellbaren Grenzwert höher ist als das Rauschen, ist der entsprechende Messwert gültig. Damit lässt sich zwischen gül- tigen und ungültigen Messwerten unterscheiden. The formula of FIG. 16 is constructed of terms 210 to 213. Term 210 provides a limit value, Term 211 a proportionality factor, Term 212 a measure of the signal quality in digital Numbers and Terra 213 an estimate for the noise. Thus, the formula can be explained as follows: If the signal quality is higher than the noise by an adjustable limit value, the corresponding measured value is valid. This makes it possible to differentiate between valid and invalid measured values.
Zur Herleitung der Formel wurde eine nachfolgend im Zusammenhang mit Fig. 17 erläuterte Vereinfachung verwendet. For the derivation of the formula, a simplification explained below in connection with FIG. 17 was used.
Ein weiteres Kriterium für die Gültigkeit von Messwerten ist, dass alle drei Signale SO, Sl und S2 nicht gesättigt sind, also kleiner sind als das Sättigungssignal Ss . Another criterion for the validity of measured values is that all three signals SO, S1 and S2 are not saturated, that is to say are smaller than the saturation signal Ss.
Fig. 17 zeigt ein Diagramm mit einer Approximation des Rauschens mittels einer vereinfachten Näherungsfunktion . Hier ist das Tiefenrauschen Nd über der Entfernung d als Graph 160 dargestellt. Dieser Verlauf wurde aus der Formel gemäß Fig. 15 errechnet. Da die sich daraus ergebende Formel komplex ist und im praktischen Einsatz zu einem hohen Berechnungsaufwand führt, wurde ein alternativer Näherungsgraph 161 mit einer Näherungsformel errechnet. Diese Näherungsformel ergibt sich, wenn anstelle der drei Rauschwerte NSO, NSl und NS2 nur ein Rauschwert für den Mittelwert der Signale SO, Sl und S2 verwendet wird. Dieser Näherungsansatz liegt der Formel gemäß Fig. 16 zugrunde. Fig. 17 shows a diagram with an approximation of the noise by means of a simplified approximation function. Here, the depth noise Nd over the distance d is shown as graph 160. This course was calculated from the formula according to FIG. 15. Since the resulting formula is complex and leads to a high computational effort in practical use, an alternative approximation graph 161 with an approximate formula was calculated. This approximation formula results if instead of the three noise values NSO, NS1 and NS2 only one noise value is used for the mean value of the signals SO, S1 and S2. This approach is based on the formula according to FIG. 16.
Fig. 18 zeigt einen zeitlichen Verlauf eines idealen und eines realen Lichtimpulses. Der ideale Lichtimpuls 140 hat eine steile Einschaltflanke 141, in der die Intensität von „0" auf „1 "ansteigt und eine steile Ausschaltflanke 142, in der die Intensität von „1" auf „0 "abfällt, ohne dass dazu jeweils eine relevante Anstiegs- oder Abfallzeit benötigt würde. Im Gegensatz dazu besitzt der reale Lichtimpuls 143 eine stetige Einschaltflanke 144 und eine stetige Ausschaltflanke 145 und erzeugt somit einen nicht idealen zeitlichen Intensitätsverlauf, der von der Kurve des idealen Lichtimpulses 140 deutlich abweicht. Durch diese Abweichung kommt es zu Abweichungen des realen Verlaufs der Signale SO, Sl und S2 in Anhängigkeit der Zeitdifferenz td von dem beispiels- weise in Fig. 7 (a) gezeigten Signalverlauf und folglich auch von der daraus ermittelten Entfernung d, welche in Fig. 7 (b) gezeigt ist . Fig. 18 shows a time course of an ideal and a real light pulse. The ideal light pulse 140 has a steep turn-on edge 141 in which the intensity rises from "0" to "1" and a steep turn-off edge 142, in which the intensity drops from "1" to "0", without any relevant increase - or fall time would be needed. In contrast, the real light pulse 143 has a steady turn-on edge 144 and a steady turn-off edge 145 and thus does not generate one ideal temporal intensity curve, which differs significantly from the curve of the ideal light pulse 140. This deviation leads to deviations of the real course of the signals SO, S1 and S2 as a function of the time difference td from the signal profile shown in FIG. 7 (a), for example, and consequently also from the distance d determined therefrom, which in FIG. 7 (b) is shown.
Fig. 19 zeigt einen Kurvenverlauf einer real gemessenen Entfernung d in Abhängigkeit der Zeitdifferenz td. Ein solcher realer, durch Messung ermittelten Verlauf der gemessenen Entfernung d weist gegenüber der idealen proportionalen Zunahme im Bereich 100 in Fig. 7 (b) nichtlineare Abweichungen auf. Die gemessene Entfernung kann aber mittels einer nichtlinearen Korrekturfunktion linearisiert werden. Dies kann beispielsweise in analytischer Form erfolgen, wobei eine analytische Funktion f (d) herangezogen wird, deren Eingangsvariable die gemessene Entfernung d ist und die als Ergebnis eine linearisierte Entfernung f liefert. Eine solche Funktion kann beispielsweise durch mathematische Modellierung mittels einer periodischen Funktion ermittelt werden, bei der die wählbaren Parameter durch Fit angepasst werden. Die Bezeichnung "Fit" bezieht sich auf ein iteratives Näherungsverfahren. FIG. 19 shows a curve of a real measured distance d as a function of the time difference td. Such a real, determined by measurement course of the measured distance d has compared to the ideal proportional increase in the range 100 in Fig. 7 (b) non-linear deviations. However, the measured distance can be linearized by means of a nonlinear correction function. This can be done, for example, in analytical form using an analytic function f (d) whose input variable is the measured distance d and which as a result yields a linearized distance f. Such a function can be determined, for example, by mathematical modeling by means of a periodic function in which the selectable parameters are adjusted by Fit. The term "fit" refers to an iterative approximation method.
Weiterhin kann auch eine numerische Korrekturfunktion verwendet werden, die der gemessenen Entfernung d eine korrekte, lineari- sierte Entfernung zuordnet. Dazu kann beispielsweise die Entfernung d für mehrere, bekannte Orte gemessen und aus den bekannten korrekten Entfernungen dieser Orte und den gemessenen Entfernung eine Speichertabelle erstellt werden. Anhand dieser Tabelle kann dann die Recheneinheit 29 in Fig. 3 für einen gemessenen Wert einer Entfernung d einen korrekter Entfernungswert auslesen. Auch kann bei diesem Auslesen eine Interpolation zwischen zwei Messpunkten vorgenommen werden, wobei die Interpolation beispielsweise linear, quadratisch, kubisch oder mit einer noch höheren Ordnung erfolgen kann. Durch eine solche nichtlineare Korrekturfunktion können Messfehler korrigiert werden, die durch Abweichungen der Impulsform eines realen Lichtimpulses von der Impulsform eines idealen Lichtimpulses entstehen. Furthermore, it is also possible to use a numerical correction function which associates the measured distance d with a correct, linearized distance. For this purpose, for example, the distance d can be measured for a plurality of known locations and a memory table can be created from the known correct distances of these locations and the measured distance. On the basis of this table, the arithmetic unit 29 in FIG. 3 can then read out a correct distance value for a measured value of a distance d. Also In this reading, an interpolation between two measuring points can be carried out, wherein the interpolation can be carried out, for example, linear, quadratic, cubic or with an even higher order. Such a non-linear correction function can be used to correct measurement errors that result from deviations of the pulse shape of a real light pulse from the pulse shape of an ideal light pulse.
Da die Signale SO, Sl und S2 zyklisch verlaufen, ist es grund- sätzlich möglich, das in Fig. 5 gezeigte Timing dahingehend zu verändern, dass mit einem anderen Wert von phiO gearbeitet wird. Wenn dies der Fall ist, erhält man die Signale SO, Sl und S2 in einer anderen Phasenlage, als die in Fig. 7 gezeigten. Die Formel gemäß Fig. 8 kann dann an diese neue Phasenlage auf die in Fig. 11 und Fig. 13 beispielhaft gezeigte Weise angepasst werden, wobei dann die Anpassung nicht an eine neue minimale Distanz dmin, sondern an eine neue Phasenlage phiO erfolgt. Ebenso kann auch eine neue Phasenlage mit einer neuen minimalen Distanz kombiniert werden. Fig. 20 zeigt Signalverläufe für eine Zeitsteuerung gemäß einem zweiten Ausführungsbeispiel. Since the signals SO, S1 and S2 run cyclically, it is fundamentally possible to modify the timing shown in FIG. 5 to operate with a different value of phi0. If this is the case, the signals SO, S1 and S2 are obtained in a different phase position than those shown in FIG. The formula according to FIG. 8 can then be adapted to this new phase position in the manner shown by way of example in FIGS. 11 and 13, in which case the adaptation does not take place to a new minimum distance dmin but to a new phase position phiO. Similarly, a new phase position can be combined with a new minimum distance. Fig. 20 shows waveforms for a timing according to a second embodiment.
Diese Zeitsteuerung besitzt gegenüber der in Fig. 5 gezeigten Zeitsteuerung die gleiche Pulslänge tl, die gleiche Öffnungszeit ts und die gleichen Phasenverschiebungen phil und phi2 , wogegen die Totzeit to, der Wert für die Phasenverschiebung phiO und die Periode tp verändert sind. This timing controller has the same pulse length t1, the same opening time ts and the same phase shifts phil and phi2 as the timing shown in Fig. 5, whereas the dead time to, the phase shift phiO and the period tp are changed.
Dabei werden die Werte für die Phasenverschiebung hier so verwendet, dass sich deren Werte in Grad weiterhin auf die ursprüngliche Definition im ersten Ausführungsbeispiel in Relation zur dortigen Periode tp beziehen. Somit folgen die Lichtimpulse in diesem zweiten Ausfuhrungsbeispiel mit dem erhöhten Wert für die Periode tp mit mehr als 360° Abstand aufeinander, während die Dauer eines Lichtimpulses weiterhin 60°, die Öffnungszeit des Verschlusses weiterhin 180° und ph.il und phi2 weiterhin 120° betragen . In this case, the values for the phase shift are used here in such a way that their values in degrees still correspond to the original definition in the first exemplary embodiment in relation to refer to there period tp. Thus, in this second exemplary embodiment, the light pulses follow one another with the increased value for the period tp more than 360 ° apart, while the duration of a light pulse continues to be 60 °, the shutter opening time still 180 °, and ph.il and phi2 still 120 ° ,
Fig. 21 (a) und (b) zeigen aus der Zeitsteuerung des zweiten Ausführungsbeispiels resultierende Verläufe der Signale SO, Sl und S2. Diese Signalverläufe weisen Signalbereich 220 bis 229 auf. Im Vergleich zu Fig. 7 (a) entsprechen die Signalbereiche 223 bis 226 aus Fig. 21 (a) qualitativ jeweils den Signalbereichen 90 bis 93 aus Fig. 7(a), sind jedoch entlang der Achse der Zeitdifferenz td verschoben. Zusätzlich zeigen sich neue Signalbereiche 220, 221, 222, 227, 228 und 229, die einen grundsätzlich anderen Signalverlauf aufweisen. Figs. 21 (a) and (b) show waveforms of the signals SO, Sl and S2 resulting from the timing of the second embodiment. These signal waveforms have signal range 220 to 229. Compared to Fig. 7 (a), the signal areas 223 to 226 of Fig. 21 (a) qualitatively correspond to the signal areas 90 to 93 of Fig. 7 (a), respectively, but shifted along the axis of time difference td. In addition, new signal areas 220, 221, 222, 227, 228 and 229 show that have a fundamentally different signal course.
Berechnet man nun aus diesen Signalen eine Entfernung, so erhält man die in Fig. 21 (b) gezeigte Kurve für die Entfernung d. Diese Kurve weist zwei Bereiche 154 und 158 auf, in denen sich keine Entfernung berechnen lässt, weil die drei Signale SO, Sl und S2 dort konstant und identisch sind, so dass sich auf deren Grundlage kleine Gleichung nach der Entfernung auflösen lässt. Die Kurve weist weiterhin zwei Bereiche 155 und 157 mit einem stückweise konstanten Wert für die Entfernung d auf, sowie einen Bereich 156, in dem der Wert für die Entfernung linear mit einer zunehmenden Zeitdifferenz td ansteigt und in dem die Zeitdifferenz td korrekt in einen Wert für die Entfernung d umgesetzt werden kann. If one now calculates a distance from these signals, one obtains the curve for the distance d shown in FIG. 21 (b). This curve has two areas 154 and 158 in which no distance can be calculated because the three signals SO, S1 and S2 are constant and identical there, so that on the basis of which small equation can be resolved after the distance. The curve also has two regions 155 and 157 with a piecewise constant value for the distance d, and a region 156 in which the value for the distance increases linearly with an increasing time difference td and in which the time difference td is correctly set in a value for the distance d can be implemented.
Fig. 22 zeigt eine in der Recheneinheit 29 verwendete Formel zur Entfernungsberechnung für das zweite Ausführungsbeispiel. Die Formel ist weitgehend identisch mit der in Fig. 8 angegebenen, es wurde jedoch ein weiterer Offsetwert dmin addiert, der sich aus dem Wert von phiO ergibt, welcher in der Darstellung von Fig. 20 erheblich von der in Fig. 5 abweicht. Weiterhin wurde in Fig. 22 gegenüber Fig. 5 auf einen Term für den Fall S1<S2<=S0 und für den Fall S1<=S0<S2 verzichtet, da diese Fälle in Fig. 21 (a) nicht auftreten. FIG. 22 shows a distance calculation formula used in the arithmetic unit 29 for the second embodiment. The formula is largely identical to that given in FIG. 8, but an additional offset value dmin has been added from the value of phiO, which differs significantly from that in FIG. 5 in the illustration of FIG. Furthermore, in FIG. 22, as compared with FIG. 5, a term is omitted for the case S1 <S2 <= S0 and for the case S1 <= S0 <S2, since these cases do not occur in FIG. 21 (a).
Das zweite Ausführungsbeispiel weist gegenüber dem ersten die nachfolgenden Vorteile auf. Da die Periode tp in Fig. 20 deutlich größer ist als in Fig. 5 tritt eine Periodizität des Wertes der Entfernung d, wie sie beispielsweise in Fig. 7 gezeigt ist, erst bei deutlich höheren Werten für die Zeitdifferenz tp auf und somit erst in deutlich größeren Entfernungen zwischen der Kamera 20 und den Objekten 25 und 26 gemäß Fig. 3 auf. Praktisch ist es sogar möglich, den Wert für die Periode tp so groß zu wählen, dass praktisch gar kein Tiefenaliasing mehr auftritt, weil dieses zu so großen Zeitdifferenzen td mit so großen Entfernungen verschoben wird, dass aufgrund des Abstandsgesetzes aus dieser Entfernung praktisch kein messbares Licht mehr zur Kamera 20 zurückkehrt oder so stark geschwächt ist, dass die daraus ermittelten Werte als ungültig erkannt werden können, beispielsweise durch Nutzung der in Fig. 16 gezeigten Formel. The second embodiment has the following advantages over the first embodiment. Since the period tp in FIG. 20 is significantly greater than in FIG. 5, a periodicity of the value of the distance d, as shown for example in FIG. 7, occurs only at significantly higher values for the time difference tp and thus only in significant greater distances between the camera 20 and the objects 25 and 26 of FIG. In practice, it is even possible to set the value for the period tp to be so great that practically no depth aliasing occurs because it is shifted to such great time differences td with such great distances that due to the law of distance from this distance practically no measurable light returns to the camera 20 or is so much weakened that the values determined therefrom can be recognized as invalid, for example by using the formula shown in FIG.
Weiterhin wird durch die Ausgestaltung des Verlaufs mit den Bereichen 154, 155, 157 und 158 in Fig. 21 (b) eine Eindeutigkeit der im linearen Wertebereich 156 ermittelten Entfernungswerte erzielt. Das heißt, wenn einer der Werte für die Entfernung aus dem Wertebereich von 156 gemessen wird, kann sichergestellt werden, dass dieser Wert für die Entfernung auch korrekt ist. Wird ein Wert aus dem Wertebereich 155 oder 157 gemessen, ist erkennbar, dass der Messwert außerhalb des linearen Wertebereiches für die Entfernung 156 liegt und es ist sogar erkennbar, ob er im Wertebereich 155 vor oder im Wertebereich 157 hinter dem linearen Wertebereich 156 liegt. Nachteilig hingegen ist, dass im zweiten Ausführungsbeispiel der lineare Wertebereich mit der korrekt ermittelten Entfernung d, welcher die vier Signalbereiche 223 bis 226 umfasst, kürzer ist als im ersten Ausführungsbereich, wo er die sechs Signalbereiche 90 bis 95 umfasst. Furthermore, the design of the profile with the regions 154, 155, 157 and 158 in FIG. 21 (b) achieves a uniqueness of the distance values determined in the linear value range 156. That is, if one of the values for the distance is measured from the range of 156, it can be ensured that this value for the distance is also correct. If a value from the value range 155 or 157 is measured, it can be seen that the measured value lies outside the linear value range for the distance 156 and it is even recognizable whether it lies in the value range 155 before or in the value range 157 behind the linear value range 156. A disadvantage, however, is that in the second embodiment, the linear value range with the correctly determined distance d, which includes the four signal areas 223 to 226, is shorter than in the first execution area, where it includes the six signal areas 90 to 95.
Fig. 23 (a) und (b) zeigen Signalverläufe mit Spitzen- und Mittelwert eines Pulsfrequenzmodulierten Signals bei verschiedenen Pulswiederholfrequenzen. Aus diesen Signalverläufen ist ein weiterer Vorteil des ersten Ausführungsbeispiels gegenüber dem Stand der Technik und des zweiten Ausführungsbeispiels gegenüber dem ersten Ausführungsbeispiel entnehmbar. Dort ist für ein pulsbreiten- oder pulsfrequenzmoduliertes Signal die Relation zwischen Spitzen- und Mittelwert dargestellt. Der Spitzenwert Pmax und der Mittelwert Pmean eines solchen Signals sind über das Puls-Pausen- Verhältnis (Duty Cycle) verknüpft. Bei einem Puls-Pausen-Verhältnis von 50% wie in Fig. 23 (a) beträgt der Mittelwert 50% des Spitzenwertes, bei einem Puls-Pausen-Verhältnis von 1/6 wie in Fig. 23 (b) beträgt der Mittelwert 1/6 des Spitzenwertes. Figures 23 (a) and (b) show peak and average waveforms of a pulse frequency modulated signal at different pulse repetition rates. From these waveforms, a further advantage of the first embodiment over the prior art and the second embodiment over the first embodiment can be removed. There, the relation between peak and mean value is shown for a pulse width or pulse frequency modulated signal. The peak value Pmax and the mean value Pmean of such a signal are linked via the pulse-duty ratio (duty cycle). With a pulse-pause ratio of 50% as in Fig. 23 (a), the average value is 50% of the peak value, with a pulse-pause ratio of 1/6 as in Fig. 23 (b), the average value is 1 / 6 of the peak.
Lichtquellen für ToF Kameras arbeiten meist mit Lichtquellen, welche für das menschliche Auge unsichtbare Wellenlängen aus dem nahen Infrarotbereich (NIR) aussenden. Dabei kommt wahlweise kohärente oder nichtkohärente Strahlung zum Einsatz. Um eine Gefährdung des menschlichen Auges auszuschließen ist die dabei verwendbare Leistung jeweils begrenzt, beispielsweise durch die in der Richtlinie 2006/25/EG genannten Vorgaben. Im üblichen Zeitbereich der für ToF-Kameras benutzen Lichtimpulse, zumeist mehrere Nanosekunden, ist dabei vor allem der Mittelwert ausschlaggebend. Das heißt, die Lichtquelle 23 darf eine gewisse mittlere Leistung nicht überschreiten. Andererseits ist dagegen wünschenswert, eine möglichst hohe Lichtleistung auszusenden, damit das durch die Lichtquelle 23 ausgestrahlte Licht heller ist oder sich zumindest in der gleichen Größenordnung bewegt, wie das ümgebungslicht . Haben die Lichtimpulse hingegen auf den Objekten deutlich weniger Intensität als das ümgebungsIicht , so führt das in dem ümgebungsIicht aufgrund der Photonenstatistik vorhandene Rauschen zu einem schlechten bis sehr schlechten Signal-Rausch-Verhältnis , so dass die Entfernung d nicht mehr mit einer hinreichenden Genauigkeit ermittelt werden kann. Light sources for ToF cameras usually work with light sources that emit invisible wavelengths to the human eye from the near infrared range (NIR). Optionally, coherent or non-coherent radiation is used. In order to exclude a hazard to the human eye, the usable power is limited in each case, for example by the requirements set out in Directive 2006/25 / EC. In the usual time range of the light pulses used for ToF cameras, usually several nanoseconds, the mean value is the decisive factor. That is, the light source 23 must not exceed a certain average power. On the other hand, on the other hand, it is desirable to emit the highest possible light output so that the light emitted by the light source 23 is brighter or at least of the same order of magnitude as the ambient light. On the other hand, if the light pulses have significantly less intensity on the objects than the ambient light, the noise present in the environment due to the photon statistics results in a poor to very poor signal-to-noise ratio, so that the distance d is no longer determined with sufficient accuracy can.
Da sich die Grenzwerte in erste Linie auf die mittlere Leistung, das Verhältnis zum ümgebungsIicht hingegen auf die Spitzenleistung beziehen, kann die Leistungsfähigkeit einer ToF Kamera dadurch gesteigert werden, dass ein niedriges Puls-Pausen-Ver- hältnis gewählt wird. Dadurch werden in der Lichtintensität gleichzeitig ein hoher Spitzenwert und ein niedriger Mittelwert erzielt, wodurch sich beide vorgenannten Forderungen auf vorteilhafte Weise gemeinsam realisieren lassen. On the other hand, since the limits are primarily related to the average power, and the ratio to the ambient to the peak power, the performance of a ToF camera can be increased by choosing a low duty cycle. As a result, a high peak value and a low mean value are achieved in the light intensity at the same time, as a result of which both of the aforementioned requirements can be implemented jointly in an advantageous manner.
Durch das zweite Ausführungsbeispiel lässt sich im Vergleich zum ersten Ausführungsbeispiel ein besonders hoher Spitzenwert für die Intensität bei einem gleichzeitig besonders niedrigen Mittelwert erzielen. Insbesondere eignet sich dieses Ausfuhrungsbeispiel für den Einsatz sogenannter Pulslaserdioden, welche üblicherweise für ein Puls-Pausenverhältnis von 1/1000 optimiert sind. Dies stellt insbesondere auch gegenüber allen ToF-Kameras mit Demodulationsbildsensoren einen großen Vorteil dar. Der Vorteil kommt besonders dort zu tragen, wo eine hohe Intensität des ümgebungslichts vorliegt, beispielsweise bei starker Sonneneinstrahlung oder starken Studioscheinwerfern. Fig. 24 zeigt Signalverläufe für eine Zeitsteuerung gemäß einem dritten Ausführungsbeispiel. Hier handelt es sich um eine Modifikation des ersten Ausführungsbeispiels gemäß Fig. 5 ff dahingehend, dass die Dauer der Lichtimpulse von 60° auf 180° verlän- gert ist, während im Gegenzug die Impulse der Steuersignale CO, Cl und C2 von 180° auf 60° verkürzt sind und phiO auf 0°eingestellt ist. Die Phasenverschiebungen phil und phi2 betragen weiterhin jeweils 120°. Durch Anwendung dieser Zeitsteuerung ergibt sich ein identischer Signalverlauf wie im ersten Ausführungsbei- spiel in Fig. 7, so dass zur Ermittlung der Entfernung d die gleichen Formeln und Maßnahmen mit den gleichen Ausführungsopti- onen angewandt werden können. As a result of the second exemplary embodiment, a particularly high peak value for the intensity can be achieved in comparison with the first exemplary embodiment, with a mean value that is particularly low at the same time. In particular, this embodiment is suitable for the use of so-called pulse laser diodes, which are usually optimized for a pulse-duty ratio of 1/1000. This is a great advantage in particular with respect to all ToF cameras with demodulation image sensors. The advantage comes especially where there is a high intensity of the ambient light, for example in strong sunlight or strong studio headlights. Fig. 24 shows waveforms for a timing according to a third embodiment. This is a modification of the first exemplary embodiment according to FIG. 5 ff in that the duration of the light pulses is extended from 60 ° to 180 °, while in return the pulses of the control signals CO, C1 and C2 are changed from 180 ° to 60 ° ° are shortened and phiO is set to 0 °. The phase shifts phil and phi2 continue to be 120 ° each. By applying this time control, an identical signal pattern is obtained as in the first exemplary embodiment in FIG. 7, so that the same formulas and measures with the same design options can be used to determine the distance d.
Der Vorteil des dritten Ausführungsbeispiels liegt darin, dass ein größeres Verhältnis zwischen der Pulslänge tl und der Periode tp realisiert werden kann. Um mit dem ersten Ausführungsbeispiel einen kurzen Messbereich mit einer hohen Genauigkeit zu realisieren, war es notwendig, eine kurze Pulslänge tl zu wählen. Nun ist es allerdings so, dass die üblichen pulsbaren Lichtquellen, beispielsweise Leuchtdioden, Laserdioden oder sogar Pulslaserdi- oden eine endliche Einschalt- und eine endliche Ausschaltzeit besitzen, so dass ihre Pulslänge nicht bis unter ein gewisses Maß reduziert werden kann. Somit kann mit dem ersten Ausführungsbei- spiel auch eine gewisse Mindestgröße eines Messbereichs nicht unterschritten und somit auch nur eine begrenzte Messgenauigkeit erreicht werden. Das dritte Ausführungsbeispiel erlaubt jedoch, den Messbereich weiter um einen Faktor drei zu verkleinern und dabei auch eine weitere Steigerung der Messgenauigkeit zu erzielen . The advantage of the third embodiment is that a larger ratio between the pulse length t1 and the period tp can be realized. In order to realize a short measurement range with high accuracy with the first embodiment, it was necessary to select a short pulse length t1. However, it is the case that the customary pulsable light sources, for example light-emitting diodes, laser diodes or even pulse laser diodes, have a finite switch-on time and a finite switch-off time, so that their pulse length can not be reduced below a certain level. Thus, with the first exemplary embodiment, a certain minimum size of a measuring range can not be undershot, and thus only a limited measuring accuracy can be achieved. However, the third embodiment allows to further reduce the measuring range by a factor of three while also achieving a further increase in measurement accuracy.
Fig. 25 zeigt eine in der Recheneinheit 29 verwendete Formel zur Berechnung des Tiefenrauschens Nd bei dem dritten Ausführungs- beispiel . Im Vergleich zu Fig. 15 ist zu erkennen, dass der erste Faktor im Nenner eine „6" statt einer „2" aufweist und somit das Rauschen grundsätzlich um einen Faktor „3" kleiner ist. Die real erzielbare Verminderung des Rauschens fällt bei gleicher Belichtungs- zeit allerdings etwas kleiner aus, da durch die im Vergleich zu den Lichtimpulsen kurzen Öffnungszeiten des Verschlusses nur einen Signalanteil des Lichts empfangen werden kann und somit die Signale SO, Sl und S2 kleiner ausfallen, als im ersten Ausführungsbeispiel. Demgegenüber steht jedoch der teilweise kompen- sierende Effekt, dass durch die kürzere Öffnungszeit auch nur ein geringerer Teil des Umgebungslichts empfangen wird. FIG. 25 shows a formula used in the arithmetic unit 29 for calculating the depth noise Nd in the third embodiment. In comparison with FIG. 15, it can be seen that the first factor in the denominator has a "6" instead of a "2" and thus the noise is basically smaller by a factor of "3." The actually achievable reduction of the noise falls with the same exposure However, time is somewhat smaller, since only a signal portion of the light can be received by the short opening times of the shutter in comparison with the light pulses, and thus the signals SO, S1 and S2 are smaller than in the first exemplary embodiment - Searing effect that the shorter opening time, even a smaller part of the ambient light is received.
Fig. 26 zeigt eine in der Recheneinheit 29 verwendete Formel zur Bestimmung der Gültigkeit von anhand der Signale SO, Sl und S2 des dritten Ausführungsbeispiels gewonnenen Entfernungswerten. Ebenso wie die Formel in Fig. 15 ist diese Formel aus der Formel für das Tiefenrauschen Nd unter Verwendung einer Vereinfachung hergeleitet. Die unterschiedlichen Faktoren in der Formel des Tiefenrauschens, nämlich der Wert „6" in Fig. 25 und der Wert „2" in Fig. 15 ergeben in Fig. 26 einen unterschiedlichen Faktor im Zähler des Terms 171, nämlich „108" statt „12". Mit dieser Formel kann die Gültigkeit von Messwerten auch für das dritte Ausführungsbeispiel ermittelt werden. Natürlich kann ebenso wie im ersten Ausführungsbeispiel auch die Sättigung als Kriterium herangezogen werden. Fig. 27 zeigt Signalverläufe für eine Zeitsteuerung gemäß einem vierten Ausführungsbeispiel. FIG. 26 shows a formula used in the arithmetic unit 29 for determining the validity of distance values obtained from the signals SO, S1 and S2 of the third embodiment. Like the formula in Fig. 15, this formula is derived from the formula for the depth noise Nd using a simplification. The different factors in the formula of the depth noise, namely the value "6" in Fig. 25 and the value "2" in Fig. 15, give a different factor in the counter of the term 171 in Fig. 26, namely, "108" instead of "12 ". With this formula, the validity of measured values can also be determined for the third exemplary embodiment. Of course, just as in the first embodiment, the saturation can be used as a criterion. FIG. 27 shows waveforms for a timing according to a fourth embodiment. FIG.
Ebenso wie das zweite Ausführungsbeispiel sich aus dem ersten durch Vergrößerung der Periode tp ableiten lässt, lässt sich durch die gleiche Maßnahme das vierte aus dem dritten ableiten. Es ergeben sich die gleichen Signalformen, wie im zweiten Ausführungsbeispiel, sodass auch für das vierte Ausführungsbeispiel die gleichen Formeln und Maßnahmen angewandt werden können. Das vierte Ausführungsbeispiel weist gegenüber dem dritten die glei- chen Vorzüge auf, wie das zweite gegenüber dem ersten. Just as the second embodiment can be derived from the first by increasing the period tp, can be derived by the same measure, the fourth of the third. The same signal forms result as in the second exemplary embodiment, so that the same formulas and measures can also be used for the fourth exemplary embodiment. The fourth embodiment has the same advantages over the third, as the second compared to the first.
Fig. 28 zeigt Signalverläufe für eine Zeitsteuerung gemäß einem fünften Ausführungsbeispiel . Fig. 28 shows waveforms for a timing according to a fifth embodiment.
Hier betragen sowohl die Pulslänge tl als auch die Öffnungszeiten der Kontrollsignale CO, Cl und C2 jeweils 180°, phiO beträgt 0° und phil und phi2 jeweils 120°. Here, both the pulse length tl and the opening times of the control signals CO, C1 and C2 are each 180 °, phiO is 0 ° and phil and phi2 each 120 °.
Beim dritten und vierten Ausführungsbeispiel wurde zur Erzielung einer hohen Messgenauigkeit mit einem geringen Tiefenrauschen eine besonders kurze Öffnungszeit des Verschlusses verwendet. Es gibt jedoch Kameras mit Bildsensoren, bei denen diese besonders kurze Öffnungszeit des Verschlusses nicht realisiert werden kann. Dort ist es vorteilhaft, mit einer längeren Öffnungszeit des Verschlusses arbeiten zu können. Beim fünften Ausführungsbeispiel ist im Vergleich zum dritten und vierten Ausführungsbeispiel die Öffnungszeit des Verschlusses um einen Faktor „3" verlängert. Dadurch kann auch ein größerer Anteil des ausgesandten Lichtes empfangen werden, wodurch sich eine weitere Verbesserung der Messgenauigkeit ergibt. In the third and fourth embodiments, a particularly short opening time of the shutter was used to achieve a high measurement accuracy with a low noise level. However, there are cameras with image sensors in which this particularly short opening time of the shutter can not be realized. There, it is advantageous to be able to work with a longer opening time of the closure. In the fifth embodiment, as compared with the third and fourth embodiments, the opening time of the shutter is extended by a factor of "3." As a result, a larger portion of the emitted light can also be received, resulting in further improvement of the measurement accuracy.
Fig. 29 zeigt Verläufe der Signale SO, Sl und S2 für die Zeitsteuerung gemäß dem fünften Ausführungsbeispiel. Der Verlauf der Signale ergibt sich aus der Zeitsteuerung gemäß Fig. 28 mit den bei der Diskussion von Fig. 6 genannten Überlegungen und unterscheidet sich deutlich von dem in Fig. 7. Fig. 30 (a) und (b) zeigt die Bahnkurve der S-Vektoren im S-Raum für das fünfte Ausführungsbeispiel aus verschiedenen Blickwinkeln . Fig. 29 shows waveforms of the signals SO, Sl and S2 for the timing according to the fifth embodiment. The course of the signals results from the timing according to FIG. 28 with the considerations mentioned in the discussion of FIG. 6 and differs significantly from that in FIG. 7. Figs. 30 (a) and (b) show the trajectory of the S vectors in S space for the fifth embodiment from different angles.
Dem fünften Ausführungsbeispiel liegt die Überlegung zugrunde, den Signalverlauf im S-Raum auf einer Polygonlinie zu führen, die einer Kreisbahn um die Einheitsdiagonale möglichst nahe kommt. Ein S-Raum mit einer solchen Polygonlinie bestehend aus Linien 130 bis 135 ist in Fig. 30 (a) und (b) gezeigt. Dabei zeigen Fig. 30 (a) und (b) dieselbe Polygonlinie zum besseren Verständnis des dreidimensionalen Verlaufs aus einem um 90° gegeneinander gedrehten Blickwinkel. Die Linien verbinden dabei jeweils Punkte auf den Außenflächen des Würfels, der den S-Raum darstellt. Ebenso wie in Fig. 9 wird bei dieser Darstellung davon ausgegangen, dass kein Umgebungslicht vorhanden ist. Fig. 31 zeigt eine in der Recheneinheit 29 verwendete Formel zur Ermittlung der Entfernung d aus den Signalen SO, Sl und S2 für das fünfte Ausführungsbeispiel. The fifth embodiment is based on the idea of guiding the signal course in S-space on a polygonal line which comes as close as possible to a circular path around the unit diagonal. An S-space having such a polygon line consisting of lines 130 to 135 is shown in Figs. 30 (a) and (b). In this case, FIGS. 30 (a) and (b) show the same polygonal line for a better understanding of the three-dimensional course from a viewing angle rotated by 90 ° relative to one another. The lines connect points on the outer surfaces of the cube, which represents the S-space. As in FIG. 9, in this illustration it is assumed that no ambient light is present. FIG. 31 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 for the fifth embodiment.
Bis auf einen Faktor 1/3 zeigt sich eine Übereinstimmung mit der Formel aus Fig. 8 für das erste Ausführungsbeispiel. Somit können unter Beachtung dieses anderen Faktors alle weiteren Erkenntnisse und Ausführungsoptionen zum ersten Ausführungsbeispiel, beispielsweise auch nach Fig. 10 bis Fig. 13, auf das fünfte Ausführungsbeispiel übertragen werden. Up to a factor of 1/3, a match with the formula of Fig. 8 for the first embodiment. Thus, taking into account this other factor, all further insights and execution options for the first exemplary embodiment, for example also according to FIGS. 10 to 13, can be transferred to the fifth exemplary embodiment.
Fig. 32 zeigt einen Kurvenverlauf einer real gemessenen Entfer- nung d in Abhängigkeit der Zeitdifferenz td für das fünfte Aus- führungsbeispiel . FIG. 32 shows a graph of a real measured distance d as a function of the time difference td for the fifth exemplary embodiment.
Analog zu Fig. 19 zeigt Fig. 32 einen durch Messung ermittelten Verlauf der gemessenen Entfernung d in Abhängigkeit der Zeitdifferenz td für das fünfte Ausführungsbeispiel. Dabei tritt ein besonderer Vorteil des fünften Ausführungsbeispiels zutage. Hier sind nämlich die nichtlinearen Abweichungen besonders klein. Das liegt daran, dass sich hier die Wirkung der Abweichungen der realen Einschaltflanke von der idealen Einschaltflanke und der realen Ausschaltflanke von der idealen Ausschaltflanke auf besonders günstige Weise gegenseitig kompensieren. Die verbleibende nichtlineare Abweichung kann mit den gleichen Mitteln korrigiert werden, wie sie für das erste Ausführungsbeispiel vorgeschlagen wurden . Das Rauschen für das fünfte Ausführungsbeispiel kann nach der Formel gemäß Fig. 25 bestimmt werden. Da gegenüber dem dritten Ausführungsbeispiel durch die längere Öffnungszeit des Verschlusses mehr Licht empfangen werden kann, fällt der Nenner im Allgemeinen größer aus, so dass das Rauschen im Ergebnis meist kleiner ausfällt. Analogous to FIG. 19, FIG. 32 shows a course of the measured distance d determined by measurement as a function of the time difference td for the fifth exemplary embodiment. This occurs particular advantage of the fifth embodiment. The nonlinear deviations are particularly small here. This is due to the fact that the effect of the deviations of the real switch-on edge on the ideal switch-off edge and the real switch-off edge on the ideal switch-off edge compensate each other in a particularly favorable manner. The remaining non-linear deviation can be corrected by the same means as proposed for the first embodiment. The noise for the fifth embodiment may be determined by the formula of FIG. 25. Since more light can be received by the longer opening time of the shutter than in the third embodiment, the denominator is generally larger, so that the noise tends to be smaller as a result.
Da sich für das Rauschen die gleiche Formel anwenden lässt wie im dritte Ausführungsbeispiel, kann auch die Gültigkeit von Entfernungswerten auf die gleiche Weise ermittelt werden wie für das dritte Ausführungsbeispiel in Fig. 26 dargelegt ist. Fig. 33 zeigt Signale einer Zeitsteuerung gemäß einem sechsten Ausführungsbeispiel . Since the same formula can be applied to the noise as in the third embodiment, the validity of range values can also be determined in the same way as set forth in the third embodiment in FIG. 26. Fig. 33 shows signals of a timing according to a sixth embodiment.
Ebenso wie im zweiten und vierten Ausführungsbeispiel wurde auch hier die Periodendauer gegenüber dem fünften Ausführungsbeispiel verlängert. Es ergeben sich gegenüber dem fünften Ausführungs- beispiel gleiche oder ähnliche Vorteile, wie im zweiten gegenüber dem ersten und im vierten gegenüber dem dritten Ausführungsbeispiel . Fig. 34 zeigt einen Verlauf der Signale SO, Sl und S2 entsprechend der Darstellung in Fig. 12 bei einer Zeitsteuerung gemäß dem sechsten Ausführungsbeispiel. As in the second and fourth embodiments, the period length was also extended here compared to the fifth embodiment. The same or similar advantages arise compared with the fifth exemplary embodiment, as in the second in comparison to the first and in the fourth in comparison with the third embodiment. FIG. 34 shows a profile of the signals S0, S1 and S2 corresponding to the illustration in FIG. 12 at a time control according to the sixth exemplary embodiment.
Hier ergibt sich ein Bereich 230, in dem die Signale Sl und S2 gleich sind und eine exakte Bestimmung einer Entfernung d nicht möglich ist. Jedoch lässt sich dort, wo S0>S1, S0>S2 und S1=S2 schließen, dass die Entfernung geringer ist als in den nachfolgenden Bereichen 231 bis 237. In den Bereichen 231 bis 236 ist eine Bestimmung der Entfernung möglich. Im Bereich 237 dagegen wiederum nicht, doch lässt sich hier anhand der Relation S2>S1, S2>S0 und S0=S1 feststellen, dass die Entfernung d größer ist als in den Bereichen 231 bis 236. Im Bereich 238 lässt sich wegen S0=S1=S2 keine Entfernung ermitteln und gleichzeitig lässt sich die Aussage treffen, dass sich dort keine Entfernung ermitteln lässt. Ab Bereich 239 folgt eine periodische Wiederholung des Bereichs 230. This results in a region 230 in which the signals S1 and S2 are equal and an exact determination of a distance d is not possible. However, where S0> S1, S0> S2 and S1 = S2 close, the distance is smaller than in the subsequent areas 231 to 237. In the areas 231 to 236, determination of the distance is possible. In contrast, in the region 237, again, it can not be determined, but it can be determined here from the relation S2> S1, S2> S0 and S0 = S1 that the distance d is greater than in the regions 231 to 236. In the region 238, because of S0 = S1 = S2 does not determine a distance and at the same time it is possible to make the statement that no distance can be determined there. From region 239 follows a periodic repetition of region 230.
Fig. 35 zeigt eine in der Recheneinheit 29 verwendete Formel zur Bestimmung der Entfernung d im sechsten Ausführungsbeispiel. FIG. 35 shows a formula used in the arithmetic unit 29 for determining the distance d in the sixth embodiment.
Diese Formel gibt an, wie aus den in Fig. 34 gezeigten Signalen eine korrekten Entfernung d ermittelt werden kann. Im Vergleich zu der Formel in Fig. 31 zeigen sich sowohl in den bereichsdefinierenden Bedingungen als auch in den innerhalb der Bereiche geltenden linearen Termen deutliche Unterschiede, die dem Signalverlauf aus Fig. 34 geschuldet sind. Es ist ersichtlich, dass mit dem sechsten Ausführungsbeispiel im Vergleich zu dem zweiten und vierten Ausführungsbeispiel ein besonders großer Messbereich bei besonders guter Linearität abdeckbar ist, ohne Verlust der dort aufgeführten Vorteile. This formula indicates how a correct distance d can be determined from the signals shown in FIG. Compared to the formula in FIG. 31, significant differences are evident both in the domain-defining conditions and in the linear terms which are valid within the ranges, which are due to the signal curve from FIG. 34. It can be seen that with the sixth embodiment, in comparison to the second and fourth embodiments, a particularly large measuring range can be covered with particularly good linearity, without losing the advantages listed there.
Fig. 36 zeigt Signalverläufe einer Zeitsteuerung gemäß einem siebten Ausfuhrungsbeispiel . Hier betragen die Pulslänge sowie die Länge der Öff ungszeiten des Verschlusses jeweils 120°, phil und phi2 ebenfalls 120° und phiO wird hier mit 0° gewählt. Fig. 36 shows waveforms of a timing according to a seventh exemplary embodiment. Here, the pulse length and the length of the opening times of the shutter are each 120 °, phil and phi2 also 120 ° and phiO is chosen here with 0 °.
Fig. 37 zeigt Verlauf der Signale SO, Sl und S2 bei einer Zeitsteuerung gemäß dem siebten Ausführungsbeispiel. FIG. 37 shows the course of the signals SO, S1 and S2 at a timing according to the seventh embodiment.
Aus der Zeitsteuerung gemäß Fig. 36 ergibt sich für das siebte Ausführungsbeispiel auf Grundlage der anhand Fig. 6 diskutierten Überlegungen der in Fig. 37 gezeigte Signalverlauf. Im Gegensatz zu den vorherigen Ausführungsbeispielen ergeben sich hier nur drei verschiedene Signalbereiche 200, 201 und 202. Der vierte Signalbereich 203 stellt bereits eine periodische Wiederholung des ersten Signalbereichs 200 dar. Durch die geringere Anzahl an Bereichen reduziert sich die Anzahl an Fallunterscheidungen und somit auch der Berechnungsaufwand in der Recheneinheit 29 gemäß Fig. 3 zum Ermitteln der Entfernung. From the time control according to FIG. 36, the signal profile shown in FIG. 37 results for the seventh exemplary embodiment on the basis of the considerations discussed with reference to FIG. In contrast to the previous exemplary embodiments, only three different signal regions 200, 201 and 202 result here. The fourth signal region 203 already represents a periodic repetition of the first signal region 200. The smaller number of regions reduces the number of case distinctions and thus also the number of regions Calculation effort in the arithmetic unit 29 of FIG. 3 for determining the distance.
Fig. 38 (a) und (b) zeigt eine Bahnkurve der S-Vektoren im S-Raum für das siebte Ausführungsbeispiel aus verschiedenen Blickwinkeln . Fig. 38 (a) and (b) show a trajectory of S vectors in S space for the seventh embodiment from different angles.
Dem siebten Ausführungsbeispiel liegt die Überlegung zugrunde, den Signalverlauf im S-Raum auf einer Polygonlinie zu führen, die eine mathematisch möglichst einfach beschreibbare Bahnkurve aufweist. Eine solche Bahnkurve bildet beispielsweise ein Dreieck, welches gemeinsam mit den Basisvektoren des S -Raumes eine Drei- eckspyramide aufspannt. Dieses ist in Fig. 38 (a) und (b) gezeigt und die Linien 190, 191 und 192 bilden das Dreieck. Fig. 38 (a) und (b) zeigen beide zum besseren räumlichen Verständnis genau dieselbe Polygonlinie aus einem um 90° gegeneinander gedrehten Blickwinkel. Ebenso wie in Fig. 9 und in Fig. 30 wird bei dieser Darstellung davon ausgegangen, dass kein Umgebungslicht vorhanden ist . Fig. 39 zeigt eine in der Recheneinheit 29 verwendete Formel zur Ermittlung der Entfernung d aus den Signalen SO, Sl und S2 bei einer Zeitsteuerung gemäß dem siebten Ausführungsbeispiel. The seventh exemplary embodiment is based on the idea of guiding the signal course in S-space on a polygonal line which has a trajectory curve that can be described mathematically as simply as possible. Such a trajectory forms, for example, a triangle which, together with the basis vectors of the S-space, spans a triangular pyramid. This is shown in Figs. 38 (a) and (b), and lines 190, 191 and 192 form the triangle. Fig. 38 (a) and (b) both show for better spatial understanding exactly the same polygonal line from a rotated by 90 ° to each other angle. As in FIG. 9 and in FIG. 30, it is assumed in this illustration that no ambient light is present. 39 shows a formula used in the arithmetic unit 29 for determining the distance d from the signals SO, S1 and S2 at a timing according to the seventh embodiment.
Im Vergleich zu Fig. 8, Fig. 11, Fig. 13, Fig. 22 und Fig. 31 fällt auf, dass diese Formel einfacher strukturiert ist und insbesondere bei der Realisierung der Hardware der Recheneinheit 29 gemäß Fig. 3, beispielsweise in einem Field-Programmable Gated Array (FPGA) , einen besonders geringen Ressourcenaufwand benötigt . Fig. 40 zeigt eine in der Recheneinheit 29 verwendete Formel zur Berechnung des Tiefenrauschens Nd anhand der Signale SO, Sl und S2 für das siebte Ausführungsbeispiel. Compared to FIGS. 8, 11, 13, 22 and 31, it is noticeable that this formula is structured in a simpler way, and in particular in the realization of the hardware of the arithmetic unit 29 according to FIG. 3, for example in a field -Programmable Gated Array (FPGA), a particularly low resource consumption required. 40 shows a formula used in the arithmetic unit 29 for calculating the depth noise Nd from the signals SO, S1 and S2 for the seventh embodiment.
Auch hier kennzeichnen die Parameter NS0, NS1 und NS2 die Rauschwerte der Signale SO, Sl und S2, welche direkt gemessen oder auch nach den Formeln der Norm EMVA 1288 berechnet werden können. Aus dieser Formel lässt sich mit den gleichen Überlegungen, die im Zusammenhang mit Fig. 16 und Fig. 17 diskutiert wurden, ein Kriterium für die Gültigkeit von Messwerten herleiten. Here, too, the parameters NS0, NS1 and NS2 characterize the noise values of the signals SO, S1 and S2, which can be measured directly or also calculated according to the formulas of the EMVA 1288 standard. From this formula, a criterion for the validity of measured values can be derived with the same considerations that were discussed in connection with FIGS. 16 and 17.
Fig. 41 zeigt Signalverläufe für eine Zeitsteuerung gemäß einem achten Ausführungsbeispiel. FIG. 41 shows waveforms for a timing according to an eighth embodiment. FIG.
Hier wird auch das siebte Ausführungsbeispiel durch Erhöhung der Periode tp dahingehend weiterentwickelt, dass die Vorteile des zweiten, vierten und sechsten Ausführungsbeispiels erhalten werden . Fig. 42 zeigt Verläufe der Signale SO, Sl und S2 bei einer Zeitsteuerung gemäß dem achten Ausführungsbeispiel. Wird die in Fig. 41 gezeigte Zeitsteuerung angewandt, so wird der in Fig. 42 dargestellte Signalverlauf in Abhängigkeit der Zeitdifferenz td erhalten. Dabei ist die Entfernung d innerhalb der Bereiche 241 und 242 korrekt bestimmbar, innerhalb der Bereiche 240 und 243 als vor bzw. hinter dem Messbereich bestimmbar, und im Bereich 244 nicht bestimmbar. Ab dem Bereich 245 findet eine periodische Wiederholung statt. Für die innerhalb der Bereiche linear verlaufenden Signale kann ebenso wie in den vorhergegangenen Beispielen eine Formel formuliert werden. Here, too, the seventh embodiment is further developed by increasing the period tp to obtain the advantages of the second, fourth, and sixth embodiments. Fig. 42 shows waveforms of the signals SO, S1 and S2 at a timing according to the eighth embodiment. When the timing shown in Fig. 41 is applied, the waveform shown in Fig. 42 is obtained in accordance with the time difference td. In this case, the distance d within the regions 241 and 242 can be determined correctly, can be determined within the regions 240 and 243 as being in front of or behind the measuring region, and can not be determined in the region 244. From region 245, a periodic repetition occurs. For the linearly extending signals within the ranges, a formula can be formulated as in the previous examples.
Fig. 43 zeigt eine solche in der Recheneinheit 29 verwendete Formel für das achte Ausführungsbeispiel . FIG. 43 shows such a formula used in the arithmetic unit 29 for the eighth embodiment.
Ebenso wie im siebten Ausführungsbeispiel ist auch hier die Formel sehr kompakt und erfordert bei einer Realisierung in Hardware besonders wenig Ressourcenaufwand. As in the seventh embodiment, the formula is also very compact and requires little resource expenditure when implemented in hardware.
Den geschilderten Ausführungsbeispielen ist gemeinsam, dass als Bildsensor 28 in Fig. 3 nunmehr ein konventioneller Bildsensor eingesetzt werden kann, welcher über nur einen Signalpfad pro Pixel verfügt. Dadurch kann der Bildsensor 28 besonders einfach und damit kostengünstig hergestellt werden und ist lichtempfindlich oder rauscharm. Ferner kann eine besonders hohe laterale Auflösung aufweisen oder sich besonders schnell auslesen lassen. Da am Markt erheblich mehr konventionelle Bildsensoren verfügbar sind als Demodulationsbildsensoren, ist es einfach, einen entsprechenden Bildsensor zu finden, der den entsprechenden Vorteil aufweist. Schließlich kann auch ein Farbbildsensor verwendet werden, sodass mit nur mit einem einzigen Bildsensor Entfernung und Farbe von Objekten erfasst werden können. The described embodiments have in common that as image sensor 28 in Fig. 3 now a conventional image sensor can be used, which has only one signal path per pixel. As a result, the image sensor 28 can be produced in a particularly simple and therefore cost-effective manner and is sensitive to light or low in noise. Furthermore, it can have a particularly high lateral resolution or can be read out particularly quickly. Since considerably more conventional image sensors are available on the market than demodulation image sensors, it is easy to find a corresponding image sensor which has the corresponding advantage. Finally, a color image sensor can be used, so that the distance and color of objects can be detected with only a single image sensor.
In den vorgenannten Ausführungsbeispielen wurden jeweils drei Signale erfasst, zu deren Aufnahme jeweils Licht ausgesandt und ein Verschluss mit gegebener und jeweils verschiedener Phasenlage zum ausgesandten Licht geöffnet und geschlossen wird. Die Dauer ts der Öffnung des Verschlusses für die Gewinnung der drei Signale wurde jeweils gleich gewählt. Auch wurden jeweils Phasenverschiebungen phi2 = phi3 gewählt. Die vorgestellten Lösungsalternativen gemäß den Ausführungsbei- spielen können im Zusammenhang mit verschiedensten Bildaufnahmegeräten und Kameras nach dem TOF-Prinzip eingesetzt werden. In the aforementioned embodiments, in each case three signals were detected, for the reception of which in each case light was emitted and a shutter with a given and respectively different phase position to the emitted light is opened and closed. The duration ts of the opening of the shutter for the recovery of the three signals were each chosen equal. In each case phase shifts phi2 = phi3 were chosen. The presented alternative solutions according to the exemplary embodiments can be used in connection with a wide variety of image recording devices and cameras according to the TOF principle.
Zusammenfassend wurden eine Vorrichtung und ein Verfahren zur Steuerung einer Lichtlaufzeitkamera beschrieben, bei der eine Entfernungsinformation für ein dreidimensionales Bild aus einem Laufzeitunterschied oder einer Phasenverschiebung zwischen einem von einer Lichtquelle der Laufzeitkamera emittierten Lichtsignal und einem von einem Bildsensor der Laufzeitkamera durch Streuung oder Reflektion des emittierten Lichtsignals empfangen Lichtsig- nal ermittelt wird. Es werden zumindest drei Subbilder aufgenommen. Dabei wird zumindest ein Lichtpuls ausgesendet und eine Verschlusseinrichtung (Shutter) wird mittels zumindest dreier Steuersignale so getaktet, dass die Phasenverschiebung zwischen Lichtimpuls und Shutter durch die verschiedenen Phasenlagen der Steuersignale zwischen den Subbildern variiert wird. Dadurch werden pro Pixel drei Messwerte erhalten. Diese können einem Operator zugeführt werden, der analog zu einem Hue-Operator aufgebaut ist und einen Drehwinkel um die Raumdiagonale des SO-S1-S2 -Raumes ermittelt . Mittels einer Proportionalitätskonstante kann dieser dann in die Entfernungsinformation umgerechnet werden. In summary, an apparatus and a method for controlling a time of flight camera have been described in which a distance information for a three-dimensional image from a transit time difference or a phase shift between a light emitted by a light source of the runtime camera light signal and one of an image sensor of the runtime camera by scattering or reflection of the emitted light signal light signal is detected. At least three subimages are recorded. In this case, at least one light pulse is emitted and a shutter (shutter) is clocked by means of at least three control signals so that the phase shift between the light pulse and shutter is varied by the different phase angles of the control signals between the subimages. This gives three readings per pixel. These can be supplied to an operator, which is constructed analogously to a Hue operator and determines a rotation angle about the spatial diagonal of the SO-S1-S2 space. By means of a proportionality constant this can then be converted into the distance information.
Claims
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017512300A JP2017530344A (en) | 2014-09-03 | 2015-08-18 | Method and device for simplified detection of depth images |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102014013099.1 | 2014-09-03 | ||
| DE102014013099.1A DE102014013099B4 (en) | 2014-09-03 | 2014-09-03 | Method and device for simplified acquisition of a depth image |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2016034408A1 true WO2016034408A1 (en) | 2016-03-10 |
Family
ID=54064290
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2015/068963 Ceased WO2016034408A1 (en) | 2014-09-03 | 2015-08-18 | Method and device for the simplified detection of a depth image |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP2017530344A (en) |
| DE (1) | DE102014013099B4 (en) |
| WO (1) | WO2016034408A1 (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111465870A (en) * | 2017-12-18 | 2020-07-28 | 苹果公司 | Time of flight sensing using an addressable transmitter array |
| US11205279B2 (en) | 2019-12-13 | 2021-12-21 | Sony Semiconductor Solutions Corporation | Imaging devices and decoding methods thereof |
| US12117286B2 (en) | 2019-02-11 | 2024-10-15 | Apple Inc. | Depth sensing using a sparse array of pulsed beams |
| US12140708B2 (en) | 2019-12-03 | 2024-11-12 | Apple Inc. | Configurable array of single-photon detectors |
| US12196860B2 (en) | 2021-03-02 | 2025-01-14 | Apple Inc. | Depth sensor calibration using internal reflections |
| US12306307B2 (en) | 2019-06-10 | 2025-05-20 | Apple Inc. | Selection of pulse repetition intervals for sensing time of flight |
| US12442926B2 (en) | 2021-02-04 | 2025-10-14 | Apple Inc. | Time-of-flight depth sensing with improved linearity |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102017115385B4 (en) | 2017-07-10 | 2022-08-11 | Basler Ag | Apparatus and method for acquiring a three-dimensional depth image |
| EP3572832B1 (en) * | 2017-12-22 | 2025-02-12 | Sony Semiconductor Solutions Corporation | Pulse generator and signal generating device |
| CN110192121B (en) | 2017-12-22 | 2024-10-25 | 索尼半导体解决方案公司 | Signal generating device |
| WO2019123830A1 (en) | 2017-12-22 | 2019-06-27 | ソニーセミコンダクタソリューションズ株式会社 | Signal generator |
| KR102196035B1 (en) * | 2018-12-26 | 2020-12-29 | (주)미래컴퍼니 | Nonlinear distance error correction method for three dimensional distance measurement camera using pulse phase shift |
| US20250044428A1 (en) * | 2021-12-23 | 2025-02-06 | Sony Semiconductor Solutions Corporation | Distance measuring device and electronic device |
| US20250052902A1 (en) * | 2021-12-24 | 2025-02-13 | Koito Manufacturing Co., Ltd. | Measurement device |
| JP7791719B2 (en) * | 2022-01-11 | 2025-12-24 | トヨタ自動車株式会社 | Information processing device, vehicle, information processing method, and information processing program |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003016944A2 (en) * | 2001-08-06 | 2003-02-27 | Siemens Aktiengesellschaft | Method and device for recording a three-dimensional distance-measuring image |
| WO2005036372A2 (en) * | 2003-10-09 | 2005-04-21 | Honda Motor Co., Ltd. | Systems and methods for determining depth using shuttered light pulses |
| WO2008152647A2 (en) * | 2007-06-15 | 2008-12-18 | Ben Gurion University Of The Negev Research And Development Authority | Three-dimensional imaging method and apparatus |
| US7554652B1 (en) * | 2008-02-29 | 2009-06-30 | Institut National D'optique | Light-integrating rangefinding device and method |
| DE102008018718A1 (en) * | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical distance meter and method for optical distance measurement |
Family Cites Families (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4194213A (en) | 1974-12-25 | 1980-03-18 | Sony Corporation | Semiconductor image sensor having CCD shift register |
| US3971065A (en) | 1975-03-05 | 1976-07-20 | Eastman Kodak Company | Color imaging array |
| US4131919A (en) | 1977-05-20 | 1978-12-26 | Eastman Kodak Company | Electronic still camera |
| US4656519A (en) | 1985-10-04 | 1987-04-07 | Rca Corporation | Back-illuminated CCD imagers of interline transfer type |
| US5081530A (en) | 1987-06-26 | 1992-01-14 | Antonio Medina | Three dimensional camera and range finder |
| US5841126A (en) | 1994-01-28 | 1998-11-24 | California Institute Of Technology | CMOS active pixel sensor type imaging system on a chip |
| US5471515A (en) | 1994-01-28 | 1995-11-28 | California Institute Of Technology | Active pixel sensor with intra-pixel charge transfer |
| DE19704496C2 (en) | 1996-09-05 | 2001-02-15 | Rudolf Schwarte | Method and device for determining the phase and / or amplitude information of an electromagnetic wave |
| DE59809883D1 (en) | 1997-12-23 | 2003-11-13 | Siemens Ag | METHOD AND DEVICE FOR RECORDING A THREE-DIMENSIONAL DISTANCE IMAGE |
| US6667768B1 (en) | 1998-02-17 | 2003-12-23 | Micron Technology, Inc. | Photodiode-type pixel for global electronic shutter and reduced lag |
| JP2001337166A (en) * | 2000-05-26 | 2001-12-07 | Minolta Co Ltd | Method and device for three-dimensional input |
| US7408627B2 (en) * | 2005-02-08 | 2008-08-05 | Canesta, Inc. | Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture |
| ATE390715T1 (en) | 2005-10-19 | 2008-04-15 | Suisse Electronique Microtech | DEVICE AND METHOD FOR DEMODULATION OF MODULATED ELECTROMAGNETIC WAVE FIELDS |
| JP5098331B2 (en) * | 2006-12-28 | 2012-12-12 | 株式会社豊田中央研究所 | Measuring device |
| JP5486150B2 (en) * | 2007-03-30 | 2014-05-07 | 富士フイルム株式会社 | Ranging device, ranging method and ranging system |
| EP2260325B1 (en) * | 2008-02-29 | 2015-08-05 | Leddartech Inc. | Light-integrating rangefinding device and method |
| US8569671B2 (en) | 2008-04-07 | 2013-10-29 | Cmosis Nv | Pixel array capable of performing pipelined global shutter operation including a first and second buffer amplifier |
| EP2150039A1 (en) | 2008-07-28 | 2010-02-03 | Basler AG | Method for imaging objects moving relative to each other |
| JP5448617B2 (en) * | 2008-08-19 | 2014-03-19 | パナソニック株式会社 | Distance estimation device, distance estimation method, program, integrated circuit, and camera |
| US8576319B2 (en) | 2009-12-25 | 2013-11-05 | Japan Atomic Energy Agency | Image sensor, semiconductor device and image sensing method |
| DE102010003039A1 (en) | 2010-03-18 | 2011-09-22 | Basler Ag | Saturation Setting |
| DE102011089636A1 (en) | 2010-12-22 | 2012-06-28 | PMD Technologie GmbH | Light propagation time camera system, has evaluation unit connected with light propagation time sensor and photosensor and designed to start distance measurement depending on signals of photosensor |
| EP2477043A1 (en) | 2011-01-12 | 2012-07-18 | Sony Corporation | 3D time-of-flight camera and method |
| GB2487740A (en) | 2011-02-01 | 2012-08-08 | Cmosis Nv | High Dynamic Range Pixel Structure |
-
2014
- 2014-09-03 DE DE102014013099.1A patent/DE102014013099B4/en not_active Expired - Fee Related
-
2015
- 2015-08-18 WO PCT/EP2015/068963 patent/WO2016034408A1/en not_active Ceased
- 2015-08-18 JP JP2017512300A patent/JP2017530344A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2003016944A2 (en) * | 2001-08-06 | 2003-02-27 | Siemens Aktiengesellschaft | Method and device for recording a three-dimensional distance-measuring image |
| WO2005036372A2 (en) * | 2003-10-09 | 2005-04-21 | Honda Motor Co., Ltd. | Systems and methods for determining depth using shuttered light pulses |
| WO2008152647A2 (en) * | 2007-06-15 | 2008-12-18 | Ben Gurion University Of The Negev Research And Development Authority | Three-dimensional imaging method and apparatus |
| US7554652B1 (en) * | 2008-02-29 | 2009-06-30 | Institut National D'optique | Light-integrating rangefinding device and method |
| DE102008018718A1 (en) * | 2008-04-14 | 2009-10-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Optical distance meter and method for optical distance measurement |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN111465870A (en) * | 2017-12-18 | 2020-07-28 | 苹果公司 | Time of flight sensing using an addressable transmitter array |
| CN111465870B (en) * | 2017-12-18 | 2023-08-29 | 苹果公司 | Time-of-flight sensing using an array of addressable emitters |
| US11852727B2 (en) | 2017-12-18 | 2023-12-26 | Apple Inc. | Time-of-flight sensing using an addressable array of emitters |
| US12117286B2 (en) | 2019-02-11 | 2024-10-15 | Apple Inc. | Depth sensing using a sparse array of pulsed beams |
| US12306307B2 (en) | 2019-06-10 | 2025-05-20 | Apple Inc. | Selection of pulse repetition intervals for sensing time of flight |
| US12140708B2 (en) | 2019-12-03 | 2024-11-12 | Apple Inc. | Configurable array of single-photon detectors |
| US11205279B2 (en) | 2019-12-13 | 2021-12-21 | Sony Semiconductor Solutions Corporation | Imaging devices and decoding methods thereof |
| US11380004B2 (en) | 2019-12-13 | 2022-07-05 | Sony Semiconductor Solutions Corporation | Imaging devices and decoding methods thereof for determining distances to objects |
| US11741622B2 (en) | 2019-12-13 | 2023-08-29 | Sony Semiconductor Solutions Corporation | Imaging devices and multiple camera interference rejection |
| US12442926B2 (en) | 2021-02-04 | 2025-10-14 | Apple Inc. | Time-of-flight depth sensing with improved linearity |
| US12196860B2 (en) | 2021-03-02 | 2025-01-14 | Apple Inc. | Depth sensor calibration using internal reflections |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102014013099B4 (en) | 2019-11-14 |
| DE102014013099A1 (en) | 2016-03-03 |
| JP2017530344A (en) | 2017-10-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102014013099B4 (en) | Method and device for simplified acquisition of a depth image | |
| DE112018006021B4 (en) | SINGLE-CHIP RGB-D CAMERA | |
| DE102008018718B4 (en) | Optical distance meter and method for optical distance measurement | |
| DE102011089629B4 (en) | Time-of-flight camera and method for operating one | |
| EP1423731B1 (en) | Method and device for recording a three-dimensional distance-measuring image | |
| DE102010061382B4 (en) | Opto-electronic sensor and method for detection and distance determination of objects | |
| EP2240797B1 (en) | Optical-electronic distance measuring device | |
| DE112020001783T5 (en) | Time-of-flight sensor | |
| DE112017001112T5 (en) | Method and apparatus for an actively pulsed 4D camera for image acquisition and analysis | |
| WO2007134730A1 (en) | Distance measuring method and distance measuring element for detecting the spatial dimension of a target | |
| DE112005003698B4 (en) | Detection of optical radiation | |
| DE102013208802A1 (en) | Time-of-flight (TOF) light sensor of TOF camera for use in three-dimensional-TOF (3D-TOF) camera system, has light transit time pixels that includes different color filters which are distributed in predetermined pattern on sensor area | |
| EP1636610B1 (en) | Detection of electromagnetic radiation | |
| DE102014215972B4 (en) | Pixel structure for optical distance measurement on an object and distance detection system with such a pixel structure | |
| EP2978216B1 (en) | Method for the detection of motion blur | |
| DE10153742A1 (en) | Recording system for three-dimensional distance-measurement image for surface of object measures time for propagating light with short-term integrated photodetector | |
| EP2682777A1 (en) | Method for detecting pulsed laser radiation and imaging laser detector | |
| DE10103861A1 (en) | Object space scanning and recording method based on optical pulse transit time, employs pulse burst packets for each raster element and computer to calculate range | |
| WO2024126743A1 (en) | Optical measuring device and method | |
| DE102013208804B4 (en) | Light transit time sensor with switchable background light suppression | |
| DE102013203088A1 (en) | Light running time camera system has lighting elements which are operated with different phases, and integration time varies in length for various phase positions, while integration time lasts longer than modulation time of illumination | |
| WO2018065146A1 (en) | Detector unit and a method for detecting an optical detection signal | |
| DE102016219170A1 (en) | Time of flight camera system | |
| EP1596221A1 (en) | Method and apparatus for measuring distance | |
| WO2021037560A1 (en) | Multipath and noise reduction for time-of-flight cameras |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| DPE2 | Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101) | ||
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 15759672 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2017512300 Country of ref document: JP Kind code of ref document: A |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 15759672 Country of ref document: EP Kind code of ref document: A1 |