[go: up one dir, main page]

WO2022050279A1 - 三次元計測装置 - Google Patents

三次元計測装置 Download PDF

Info

Publication number
WO2022050279A1
WO2022050279A1 PCT/JP2021/031990 JP2021031990W WO2022050279A1 WO 2022050279 A1 WO2022050279 A1 WO 2022050279A1 JP 2021031990 W JP2021031990 W JP 2021031990W WO 2022050279 A1 WO2022050279 A1 WO 2022050279A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
interest
region
light receiving
receiving unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2021/031990
Other languages
English (en)
French (fr)
Inventor
文和 藁科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to DE112021004793.0T priority Critical patent/DE112021004793T5/de
Priority to CN202180054641.3A priority patent/CN116134289B/zh
Priority to JP2022546928A priority patent/JP7549025B2/ja
Priority to US18/040,815 priority patent/US20230296373A1/en
Publication of WO2022050279A1 publication Critical patent/WO2022050279A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object

Definitions

  • the present invention relates to a three-dimensional measurement technique, and particularly to an optical scanning type three-dimensional measurement device.
  • optical projection methods such as an optical cutting method, a phase shift method, and a spatial code method have been proposed.
  • the optical cutting method a band-shaped slit light is projected onto the object while scanning the object, the object is imaged from an imaging position different from the projection position, the projection angle of the slit light and the slit to the imaging surface are obtained.
  • the distance to the object is calculated by triangulation based on the incident angle of light, the baseline length between the projection position and the imaging position.
  • the projection angle of the slit light is obtained, for example, from the command value to the scanner or the detection time of the emission line of the slit light appearing on the image pickup surface, and the incident angle of the slit light is obtained, for example, from the incident position of the slit light on the image pickup surface.
  • the optical cutting method is said to have good accuracy, but compared to the phase shift method and the spatial code method, there is a problem that it takes a long time to measure because the number of images required for one measurement is large. ..
  • event-based image sensors based on ideas different from general frame-based image sensors have been proposed.
  • the frame-based image sensor outputs a frame image at a predetermined cycle by opening and closing the shutter for a predetermined time to expose it, whereas the event-based image sensor independently and asynchronously monitors each pixel from moment to moment.
  • an event for example, a change in brightness of a predetermined value or more
  • the position, time, and polarity for example, whether it becomes brighter (positive electrode) or darker (negative electrode)
  • the event-based image sensor has a wider dynamic range than the frame-based image sensor, and has the characteristics of high speed because it outputs only event information. Therefore, it is considered that the optical cutting method can be speeded up by using an event-based image sensor.
  • Noise events may occur due to factors other than scanning of slit light.
  • distance measurement by the optical cutting method has a problem of multiple reflection of slit light. Focusing on a certain pixel of the image sensor, we originally want to receive only the primary reflected light of the slit light that is emitted toward a specific part of the object reflected in that pixel, but it is irradiated toward another part. The primary reflected light of the slit light may be secondarily reflected at the specific part and incident on the pixel.
  • the pixel cannot determine whether the slit light directly reflected (single-reflected) at the specific portion is imaged or the slit light reflected multiple times is imaged, so that the correct distance cannot be measured. Since the multiple reflected light is light reflected a plurality of times, it is weaker than the single reflected light unless the reflectance of any reflecting surface is 100%. Therefore, the frame-based image sensor uses the luminance information to reduce the influence of the multiple reflected reference light, but the event-based image sensor does not output the luminance information, so that the same method cannot be adopted. Further, the noise includes not only noise caused by reference light repeatedly reflected on an object but also noise caused by an optical system or an image sensor (for example, flare, ghost, aberration, etc.). As a technique related to the present application, for example, the following documents are known.
  • Patent Document 1 images are simultaneously imaged by two image sensors while scanning an object with slit light, and a frame number in which the maximum brightness is detected for each pixel of each image sensor is stored and stored in the frame number.
  • a three-dimensional input device that associates pixels based on the above and calculates a distance based on the associated pixels is disclosed.
  • Patent Document 2 describes that in three-dimensional distance measurement based on the optical cutting method, when scanning is started and counting of the number of frames of the sensor is started at the same time, the number of frames in which the slit light is detected is known. It is stated that the swing angle is determined and the distance from the sensor to the object is determined.
  • Patent Document 3 in a shape measuring device that scans an object to be measured with an optical beam, the beam spot light reflected from the reference surface or the surface of the object to be measured is photoelectrically converted, and the light is photoelectrically converted when the reference surface is scanned. It is described that the surface shape of the object to be measured is determined based on the time difference between the rising timing of the electric signal and the rising timing of the electric signal photoelectrically converted when the object to be measured is scanned.
  • Patent Document 4 the inspection area on the upper surface of the substrate is irradiated with scanning light while the substrate is conveyed, the scanning light reflected by the substrate and electronic components on the substrate is received, and the light receiving surface is reflected by the upper surface of the substrate.
  • the incident light on the light receiving surface is predetermined. It is described that the influence of multiple reflections and transmitted reflections is reduced by limiting the light transmission openings set by the incident width.
  • Patent Document 5 in a fillet weld sensing device that irradiates a fillet welded portion between members including a glossy member with slit light, the angle is set so that the image of the slit light and the image of the secondary reflected light are separated from each other. It describes setting the angle between the light source and the camera.
  • Patent Document 6 in a contour shape measuring device based on an optical cutting method, the depth of field is extremely reduced, and an image from two or more reflection points is not captured to the same extent as an image from one reflection point. It is described that erroneous measurement due to multiple reflections is suppressed.
  • Patent Document 7 in a distance measuring device using a pattern light projection method, an object in which a line pattern in a direction substantially parallel to an epipolar line is projected is imaged, and the direction of the line is calculated from the captured image. It is described that the multiple reflected light region is detected based on the calculated angle difference between the line direction and the epipolar line direction.
  • Patent Document 8 in an event-based image processing apparatus, whether or not a predetermined event has occurred in each of a plurality of pixels is detected, an event signal is output according to the detection, and at least one corresponding to the event signal is provided. It is described that time stamp information is generated by mapping one pixel and the time when the event signal is output, and light flow is generated based on the time stamp information.
  • Patent Document 9 in a method of three-dimensionally reconstructing a scene, a first continuous event is received from the first sensor for each pixel, and a second continuous event is received from the second sensor for each pixel to minimize the cost function. It is described that the first event in the first consecutive event is matched with the second event in the second consecutive event accordingly.
  • Patent Document 10 a slit light and a camera are integrally moved along the length direction of an object to obtain cross-sectional data for each predetermined pitch, and three-dimensional measurement is performed to measure the object three-dimensionally from each cross-sectional data. It is described that in the method and the device, a narrow window intersecting the slit light at right angles is set on the image sensor, and the brightness data in which the brightness is maximized in the window and the coordinate data in the Y-axis direction at that time are detected. ing.
  • an ROI (region of interest) corresponding to an object of interest is set based on the result of pattern recognition, and by tracking the object of interest, the amount of event data becomes enormous and the latency of event processing increases. It is described that it suppresses a long period of time.
  • Patent Document 12 describes a method of synchronizing an image sensor and a structure light in a distance measuring system that measures a distance to a subject by using an event detection sensor and a structured light method, particularly synchronizing with switching of pattern light. It is described that the image sensor is reset.
  • One aspect of the present disclosure is a light projecting unit that projects light onto an object while scanning the reference light, a light receiving unit that receives the reference light reflected by the object, and a ranging range for each predetermined section of the light receiving unit.
  • a time range setting unit that sets the scanning time range of the reference light according to the above, and a three-dimensional information calculation unit that calculates the three-dimensional information of the object by triangulation based on the information of the light receiving unit of the set scanning time range.
  • Another aspect of the present disclosure comprises a light projecting unit that projects light onto an object while scanning the reference light, and a function that receives the reference light reflected by the object and outputs only information in the region of interest.
  • Three-dimensional measurement including a light receiving unit that moves the light receiving area in response to scanning of light and a three-dimensional information calculation unit that calculates three-dimensional information of an object by triangular measurement based on the information of the light receiving unit in the light receiving area. Provide the device.
  • the light receiving unit other than the set scanning time range is received.
  • the range-finding range means a range that can be measured in advance according to the required specifications. According to another aspect of the present disclosure, it is possible to reduce the influence of noise caused by the multiple reflected reference light or the like by measuring the distance by excluding the information of the light receiving portion other than the region of interest.
  • the light receiving unit outputs information only in the region of interest, the deterioration of the latency of the light receiving unit due to excessive noise is improved as compared with the case where the information of the light receiving unit is limited only by the scanning time range of the reference light.
  • FIG. 1 is a plan view of a stereo camera 1 showing a measurement principle of the stereo method.
  • the stereo camera 1 includes, for example, a left light receiving unit 2 and a right light receiving unit 3 corresponding to two cameras.
  • the left light receiving unit 2 and the right light receiving unit 3 are arranged so as to be parallel to each other, for example.
  • both light receiving portions are separated by the base line length B, the optical axes of both light receiving portions are arranged in parallel, the left light receiving surface 4 and the right light receiving surface 5 are arranged in a plane orthogonal to both optical axes, and each light receiving surface is arranged.
  • the x-direction and the y-direction are oriented in the same direction.
  • Each light receiving surface is, for example, an image sensor in which a plurality of pixels are two-dimensionally arranged, but a line sensor or the like in which a plurality of pixels are arranged one-dimensionally (for example, arranged only in the x direction) may be used.
  • the position of the pixel of the left light receiving surface 4 that captures the image of the point P of the object existing in the target space is x l and the position of the pixel of the right light receiving surface 5 is x r , the left light receiving unit 2 and the right light receiving portion 2
  • the origin of the XYZ coordinate system representing the three-dimensional space is set to the right focal length
  • the focal lengths of both light receiving portions are f
  • the pixel-to-pixel pitches of both light receiving surfaces are 1, the distance Z to the point P of the object ( The depth to the point P; the same applies hereinafter) can be obtained from the following equation.
  • the image of the point P on the right light receiving surface 5 corresponding to the image of the point P on the left light receiving surface 4 is detected by image processing such as pattern matching. If possible, it can be seen that the parallax D can be obtained and the distance Z to the point P of the object can be obtained.
  • the light cutting system is, for example, a system in which the left light receiving unit 2 of the stereo camera 1 is replaced with a light emitting unit.
  • FIG. 2 is a plan view of the optical cutting system 6 showing the measurement principle of the optical cutting method.
  • the light cutting system 6 includes, for example, a light projecting unit 7 corresponding to a projector.
  • the light projecting unit 7 projects light on the object while scanning the band-shaped slit light, and the right light receiving unit 3 receives the slit light reflected from the object.
  • the virtual left light receiving surface 4 of the light projecting unit 7 The position x l of the pixel of is obtained from the following equation.
  • the light projecting unit 7 rotationally irradiates the band-shaped slit light from the light projecting point around the Y axis perpendicular to the XZ plane at an equiangular velocity ⁇ , and the slit light passes through the left light axis at time t 0 and at time t.
  • the projection angle ⁇ can be obtained from the following equation.
  • Equation 2 and Equation 3 are substituted into Equation 1 as shown in the following equation, the object is an object.
  • the distance Z to the point P will be obtained.
  • the three-dimensional measuring device of the present embodiment utilizes the configuration and measurement principle of such an optical cutting method.
  • the above configuration and measurement principle are examples, and the design can be appropriately changed according to the design of the system configuration, layout, and the like.
  • the light emitting unit 7 and the right light receiving unit 3 may be laid out without being parallelized to the same position, and the left light receiving unit 2 and the right light receiving unit 2 may be laid out instead of replacing the left light receiving unit 2 with the light emitting unit 7.
  • a light projecting unit 7 may be prepared, and a system configuration in which a stereo method and a light cutting method are combined may be adopted.
  • a light projecting unit 7 that projects beam-shaped spot light or block check-shaped pattern light onto an object instead of band-shaped slit light may be adopted. It should be noted that the calculation method of 3D information also changes according to such design changes.
  • FIG. 3 is a block diagram of the three-dimensional measuring device 8 of the first embodiment.
  • the three-dimensional measuring device 8 includes a light projecting unit 7 that projects light onto the object W while scanning the reference light, and a light receiving unit 3 that receives the reference light reflected by the object W.
  • the light emitting unit 7 corresponds to, for example, a projector
  • the light receiving unit 3 corresponds to, for example, a camera. It is assumed that the times of the light emitting unit 7 and the light receiving unit 3 are synchronized.
  • the light projecting unit 7 projects reference light such as slit light, spot light, and pattern light onto the object W.
  • the light projecting unit 7 may project a plurality of reference lights while maintaining a predetermined projection angle interval. Since the measurement time of the three-dimensional measuring device 8 is determined by the time required to scan the object W with the reference light, it is common to increase the scanning speed to shorten the measurement time, but the response of the light receiving unit 3 Speed is a constraint. Therefore, by projecting a plurality of reference lights, it is possible to shorten the measurement time while maintaining a high scanning speed under the constraint of the response speed of the light receiving unit 3.
  • the light receiving unit 3 includes, for example, an image sensor in which a plurality of pixels are two-dimensionally arranged, but may include a line sensor in which a plurality of pixels are arranged one-dimensionally.
  • the image sensor of the light receiving unit 3 is, for example, an event-based sensor.
  • the light receiving unit 3 independently and asynchronously monitors each pixel from moment to moment, and when an event of a predetermined value or more (for example, a change in brightness of a predetermined value or more) is detected, the pixel with the event occurs.
  • Event information including the position, time, polarity (for example, whether it became brighter or darker), etc. is output.
  • the image sensor of the light receiving unit 3 may be a general frame-based image sensor.
  • the light receiving unit 3 opens and closes the shutter for a predetermined time to expose the image, thereby outputting a frame image at a predetermined cycle.
  • the frame image includes, for example, a frame number, luminance information of each pixel, and the like.
  • the three-dimensional measuring device 8 includes a three-dimensional information calculation unit 9 that calculates the three-dimensional information of the object W by triangulation based on the information of the light receiving unit 3.
  • the sensor of the light receiving unit 3 is an event-based sensor
  • the pixel having an event captures the image of the reference light, so that the three-dimensional information calculation unit 9 is output from the light receiving unit 3.
  • Distance measurement is performed based on the event information (for example, the position, time, and polarity of the pixel whose brightness has changed).
  • the intermediate time between the time when the pixel starts to brighten and the time when the pixel finishes darkening is obtained.
  • Distance measurement may be performed.
  • the sensor of the light receiving unit 3 is a frame-based sensor
  • the three-dimensional information calculation unit 9 uses the position and frame number (corresponding to the time) of the pixel having the maximum brightness from the plurality of frame images output from the light receiving unit 3. ) Is detected, and distance measurement is performed based on these detection information.
  • the three-dimensional measuring device 8 corresponds to the ranging range for each predetermined section of the light receiving unit 3 (a plurality of pixels constituting the light receiving surface of the light receiving unit 3). Further, a time range setting unit 10 for setting a scanning time range of the reference light is provided.
  • the three-dimensional information calculation unit 9 excludes the information of the light receiving unit 3 other than the set scanning time range, and performs distance measurement based on the information of the light receiving unit 3 in the set scanning time range to perform multiple reflection reference. Suppresses erroneous distance measurement due to noise caused by light and the like.
  • FIG. 4A is a plan view of the three-dimensional measuring device 8 showing a method of setting a scanning time range.
  • the range-finding range in the figure is a range-finding range predetermined according to the required specifications. For example, when the depth of field of the three-dimensional measuring device 8 is designed so that the distance can be measured from 1000 mm to 2000 mm, the distance measuring range is 1000 mm to 2000 mm. Since the light entering the pixel 11 of the light receiving unit 3 is always incident through the line of sight V, the incident light is the single reflected light of the reference light, and the point P of the single reflected object W is within the range of the ranging range.
  • the scanning time range is set by geometrically calculating the scanning time range in which the reference light scans the crossing line segment QR between the line-of-sight V of the pixel 11 and the ranging range.
  • the slit light is scanned with the flat plate arranged at a distance of 1000 mm to record the time when the image of the slit light passes through each pixel, and the flat plate is further 2000 mm.
  • the slit light may be scanned at a distance to record the time when the image of the slit light passes through each pixel, and the two obtained times may be set as the maximum value and the minimum value in the scanning time range. Since measurement variations may occur, it is practically advisable to set the scanning time range by measuring multiple times and taking the average, or by adding a slight margin.
  • FIG. 4B is a plan view of the three-dimensional measuring device 8 showing how the influence of the multiple reflected reference light is reduced.
  • the reference light primaryly reflected on a certain surface S of the object W is secondarily reflected at the point P of the object W and is incident on the pixel 11, there is a possibility that the reference light is incident on the pixel 11 outside the set scanning time range. Will be higher. Therefore, by performing distance measurement by excluding the information of the light receiving unit 3 other than the set scanning time range, it is possible to suppress erroneous distance measurement by the multiple reflected reference light.
  • This scanning time range may be set for each pixel by setting one pixel of the plurality of pixels constituting the light receiving unit 3 as one section, but for the purpose of saving the setting memory and shortening the measurement time, the light receiving unit 3 A group of pixels in the vicinity of a plurality of pixels constituting the above may be collectively set as one section for each section.
  • 5A to 5C are plan views of the light receiving surface 5 showing an example of the setting section of the scanning time range. Assuming that the assembly error of the three-dimensional measuring device 8 and the lens distortion can be ignored, the image I of the slit light is parallel to the y-axis of the light receiving surface 5 when the flat plate is scanned in the x direction by the slit light as shown in FIG. 5A.
  • the scanning time range (for example, 0.2 s to 0.4 s) may be set by grouping a group of pixels in a row or a plurality of rows that simultaneously capture the image I of the slit light as one section. Further, as shown in FIG. 5B, when the flat plate is scanned in the x direction with the block check-shaped pattern light and the image I of the pattern light is formed parallel to the y-axis of the light receiving surface 5, the image of the pattern light is formed.
  • a scanning time range (for example, 0.15s to 0.4s) may be set by grouping two rows or a plurality of rows of pixels that simultaneously capture I as one section.
  • a scanning time range (for example, 0.2 s to 0.4 s) may be set by grouping four nearby pixel groups that simultaneously capture I as one section.
  • the scanning time range set in this way may be the scanning time range elapsed from the start of scanning in the case of an event-based image sensor, but may be the frame number range elapsed from the start of scanning in the case of a frame-based image sensor. good.
  • the three-dimensional measuring device 8 sets the projection angle interval setting unit 12 for setting the projection angle interval according to the set scanning time range. You may be prepared.
  • the projection angle interval is set to be wider than the scanning angle ⁇ scanned by the slit light in the scanning time range set as shown in FIGS. 4A and 4B, for example.
  • each pixel of the section in which the scanning time range of the scanning angle ⁇ is set receives a plurality of slit lights in the scanning time range. Therefore, a method for identifying which slit light is received is required.
  • each pixel in the section receives only one slit light in the scanning time range, so that the slit light is received. No need to identify.
  • the projection angle interval may be set in the same manner.
  • the image sensor of the light receiving unit 3 may have a function of outputting only information in the region of interest. ..
  • the region of interest may be a known region of interest (ROI), but the "region of interest" in this document is not necessarily limited to a general ROI.
  • ROI region of interest
  • the three-dimensional measuring device 8 may include a region of interest moving unit 14 that moves the region of interest in response to scanning of the reference light.
  • the light receiving unit 3 moves in the region of interest based on an input signal (for example, a movement command) from the region of interest moving unit 14.
  • the region of interest moves with the passage of time so as to include a section (pixel or pixel group) in which a scanning time range including a certain time t being measured is set. It is not necessary that the section (pixel or pixel group) in which the scanning time range is set and the region of interest completely match. As a result, the region of interest does not miss the occurrence of an event or the output of the maximum brightness.
  • the three-dimensional information calculation unit 9 measures the distance based on the event information restricted in the restricted region of interest, or detects the position and frame number of the pixel having the maximum brightness in the restricted region of interest. Since the distance is measured, the measurement time can be significantly shortened. Further, since the noise caused by the multiple reflected reference light or the like is also limited by the region of interest, it is possible to suppress erroneous distance measurement due to the noise.
  • the three-dimensional information calculated by the three-dimensional information calculation unit 9 is output to the outside of the three-dimensional measuring device 8.
  • the three-dimensional information is used, for example, by an external device 13 such as a robot control device or a vehicle control device, in addition to a so-called image processing device.
  • the external device 13 can perform image processing based on three-dimensional information that reduces the influence of noise caused by multiple reflected reference light and the like, and can perform, for example, position control, speed control, acceleration control, and the like.
  • the above three-dimensional information calculation unit 9, time range setting unit 10, projection angle interval setting unit 12, and interest area movement unit 14 are integrated with, for example, an ASIC (application specific integrated circuit), FPGA (field-programmable gate array), or the like. It may be implemented in a circuit, or it may be implemented as a program executed by a processor such as a CPU (central processing unit) or MPU (microprocessing unit).
  • ASIC application specific integrated circuit
  • FPGA field-programmable gate array
  • a processor such as a CPU (central processing unit) or MPU (microprocessing unit).
  • FIG. 6 is a flowchart showing the operation of the three-dimensional measuring device 8.
  • the time range setting unit 10 sets the scanning time range of the reference light according to the ranging range for each predetermined section of the plurality of pixels constituting the light receiving unit 3.
  • the user may input the ranging range via a user interface unit (not shown) such as a touch panel display or a keyboard.
  • a ranging range stored in advance in the memory may be used.
  • the projection angle interval is set according to the scanning time range set by the projection angle interval setting unit 12 in step S2.
  • the three-dimensional information calculation unit 9 calculates the three-dimensional information of the object by triangulation based on the information of the light receiving unit 3 in the scanning time range set in step S4. do.
  • the image sensor of the light receiving unit 3 is an event-based image sensor
  • the three-dimensional information of the object is calculated based on the position, time, and polarity of the pixel where the event occurred in the set scanning time range.
  • the image sensor of the light receiving unit 3 is a frame-based image sensor
  • the position and frame number of the pixel having the maximum brightness are detected from a plurality of frame images in the set frame number range, and the position of the detected pixel and the frame number are detected.
  • the three-dimensional information of the object is calculated based on the frame number.
  • steps S1 to S5 are described as a series of processes, but the processes of steps S1 and S2 are performed at the time of installing the three-dimensional measuring device, at the time of calibration, etc., and the processes of steps S3 to S5. May be performed at the time of measurement. Also, note that steps S2 and S5 are not necessarily essential steps.
  • the reference light directly reflected at a specific part of the object W is always received in the scanning time range corresponding to the distance measuring range, so that the light is not in the set scanning time range.
  • FIG. 7A is a plan view of the three-dimensional measuring device 8 showing the region of interest of the first embodiment
  • FIG. 7B is a plan view of the three-dimensional measuring device 8 showing the region of interest of the second embodiment.
  • the region of interest is the scanning of the reference light L while the reference light L scans the projection angle range ⁇ max of the entire ranging range at the scanning speed ⁇ . It moves in the moving direction d according to (following).
  • the three-dimensional measuring device 8 of the first embodiment and the second embodiment are different in the following points.
  • the time of the reference light L imaged on the pixel 11 is set to the point R on the farthest side of the ranging range. It should be in the scanning time range of the reference light L (that is, the scanning time range of the reference light L according to the ranging range) between the irradiation time t1 and the time t2 irradiated to the point Q on the nearest side of the ranging range. Under the assumption that, the region of interest moves over time to include a section in which a scan time range containing a certain time during measurement is set.
  • the image of the reference light L irradiated at a certain time t during measurement is a distance measuring range.
  • the region of interest is the imaging of the reference light L corresponding to the ranging range at a certain time t during measurement. It moves with the passage of time so as to include a range (for example, a pixel group from pixel 11 to pixel 15).
  • FIG. 8 is a block diagram of the three-dimensional measuring device 8 of the second embodiment.
  • the region of interest moves in synchronization with the scanning of the reference light, but in the first embodiment, the region of interest moving unit 14 moves the distance.
  • the region of interest moving unit 14 moves the distance.
  • the three-dimensional measuring device 8 includes a region of interest setting unit 16 for setting a region of interest in advance, and the region of interest setting unit 16 refers to a reference range according to a distance measurement range at a certain time t during measurement.
  • the region of interest is set so as to include the imaging range of light, and the light receiving unit 3 itself moves the set region of interest based on the input signal (for example, the trigger signal) from the light projecting unit 7.
  • the region of interest setting unit 16 sets at least one of the initial position, size (width and height), moving direction, and moving speed of the region of interest, and the light receiving unit 3 sets the region of interest of the set size.
  • the light receiving unit 3 may input an input signal (for example, a trigger signal) when the projection angle of the reference light L reaches a predetermined angle, and move the region of interest. Further, when moving the region of interest, the light receiving unit 3 may move the region of interest in synchronization with the clock signal of the image sensor (light receiving surface 5).
  • a predetermined speed for example, a constant speed.
  • FIG. 9A is an image diagram showing an example of setting the region of interest.
  • the initial position p 0 of the region of interest, the size (width w and height h), the moving direction d, and the moving speed v are set based on the design information of the three-dimensional measuring device 8.
  • the design information of the three-dimensional measuring device 8 includes, for example, the arrangement of the light emitting unit 7 and the light receiving unit 3 (for example, their respective positions and orientations), the ranging range, the scanning direction of the reference light L, the scanning speed of the reference light L, and the reference. Includes the projection angle range of light L, the clock frequency of the image sensor, and the like.
  • the region of interest setting unit 16 When setting the region of interest, the region of interest setting unit 16 first obtains the imaging range i of the reference light L.
  • the area of interest setting unit 16 is provided with design information (arrangement of each position and light receiving unit 3) of the three-dimensional measuring device 8 via a user interface unit (not shown) such as a touch panel display and a mouse. It may be provided with a function of geometrically calculating the imaging range i of the reference light L based on the design information by inputting the posture), the distance measuring range, etc., or actually using the reference light L. It may have a function of scanning and calculating the image formation range i of the reference light L. In the latter case, for example, to explain with reference to FIG.
  • a flat plate is arranged on the most recent side of the ranging range, the reference light L is scanned, and the position of the imaging point (for example, pixel 11) in which the reference light L is imaged is formed. And the time is recorded, and a flat plate is placed on the farthest side of the ranging range, the reference light L is scanned, and the position and time of the imaging point (for example, pixel 15) in which the reference light L is imaged are recorded. Keep it. Since the imaging range i of the reference light L according to the ranging range becomes larger toward the end side of the light receiving surface 5 and is not constant through the scanning of the reference light L, the region of interest setting unit 16 is set for each time.
  • the number of pixels from the image formation point of the reference light L (for example, pixel 11) on the most recent side of the range-finding range to the image formation point (for example, pixel 15) of the reference light L on the farthest side of the range-finding range is calculated and measured.
  • the maximum value of the number of pixels over the entire distance range may be calculated as the imaging range i of the reference light L.
  • the region of interest setting unit 16 sets the width w of the region of interest based on the imaging range i of the reference light L.
  • the width w of the region of interest is the size of the region of interest in the scanning direction of the reference light L.
  • the initial value of the width w of the region of interest may be the imaging range i of the reference light L (for example, the maximum value of the number of pixels from the pixels 11 to the pixels 15 over the entire ranging range) itself, but the scanning of the reference light L. Even if the speed is an equiangular speed, the scanning speed of the reference light L imaged on the light receiving surface 5 is not constant, so it is preferable to allow a margin in the width w of the region of interest.
  • the region of interest setting unit 16 may set the size of the imaging range i of the reference light L plus a predetermined margin m as the width w of the region of interest.
  • the margin m of the width of the region of interest may be a predetermined constant.
  • the area of interest setting unit 16 sets the height h of the area of interest based on the size of the light receiving surface 5.
  • the height h of the region of interest is the size of the region of interest in the direction orthogonal to the scanning direction of the reference light L.
  • the initial value of the height h of the region of interest may be the number of pixels of the light receiving surface 5 in the direction orthogonal to the scanning direction of the reference light L, but the region of interest setting unit 16 may use the reference light L via the user interface unit or the like.
  • the height h of the region of interest may be specified and set by any numerical value equal to or less than the number of pixels of the light receiving surface 5 in the direction orthogonal to the scanning direction of. For example, when measuring the three-dimensional shape of an object reflected in a known region on the light receiving surface 5, the height h of the region of interest can be limited to the region where the object exists, and the influence of noise can be reduced.
  • the area of interest setting unit 16 sets the moving direction d of the area of interest based on the scanning direction of the reference light L.
  • the area of interest setting unit 16 may arbitrarily specify and set the moving direction d of the area of interest via the user interface unit or the like, or scan the reference light L to form an imaging range of the reference light L.
  • the scanning direction of the reference light L may be obtained, and the scanning direction of the reference light L may be automatically set as the moving direction d of the region of interest.
  • the reference light slit light
  • the moving direction d of the region of interest is set to be upward or downward.
  • the moving direction d of the region of interest is set to the left direction or the right direction.
  • the region of interest setting unit 16 sets the initial position p0 of the region of interest with the coordinate values of an orthogonal coordinate system (for example, a camera coordinate system (for example, the xy coordinate system shown in the figure)) fixed on the same plane as the light receiving surface 5 . ..
  • an orthogonal coordinate system for example, a camera coordinate system (for example, the xy coordinate system shown in the figure)
  • the initial position p0 of the region of interest may be the coordinate value of the upper left corner of the rectangle.
  • the region of interest setting unit 16 automatically sets the initial position p0 of the region of interest based on the scanning direction (or the moving direction d of the region of interest) of the reference light L and the size (width and height) of the region of interest. You may. For example, in the example of FIG.
  • the reference light L (slit light) is arranged so as to be horizontally reflected on the light receiving surface 5, and the reference light L scans upward or downward on the light receiving surface 5, so that the region of interest setting unit 16 It is preferable that the position of the upper left corner portion of the region of interest with the pixel row at the lowest or highest position of the light receiving surface 5 as the center line is automatically set as the initial position p0 of the region of interest.
  • the reference light L slit light
  • the reference light L scans to the right or left of the light receiving surface 5
  • the leftmost position of the light receiving surface 5 or The position of the upper left corner of the region of interest with the rightmost pixel row as the center line may be set as the initial position p0 of the region of interest.
  • the region of interest setting unit 16 may arbitrarily specify and set the initial position p0 of the region of interest via the user interface unit or the like.
  • the reference light L (slit light) is arranged so as to be reflected sideways with respect to the light receiving surface 5, the reference light L is scanned downward of the light receiving surface 5, and the tertiary of the object is reflected in a known area of the light receiving surface 5.
  • the initial position p 0 of the region of interest is automatically set as the initial position p 0 of the region of interest with the position of the upper left corner of the region of interest centered on the pixel row at the top of the region where the work exists. It is good to set it as a target.
  • the scanning of the region of interest can be limited to the region where the object exists, and the influence of noise can be reduced.
  • the region of interest setting unit 16 sets the moving speed v of the region of interest based on the scanning speed ⁇ of the reference light L.
  • the region of interest setting unit 16 operates the image sensor for the time it takes for the reference light L to move the light receiving surface 5 by one pixel based on the movement speed v.
  • the light receiving unit 3 may move the region of interest by one pixel for each number of clocks required for the reference light L to move the light receiving surface 5 by one pixel in order to determine how many clocks correspond to the clock.
  • the light receiving unit 3 moves the region of interest by one pixel for each clock number c required for the reference light L to move the light receiving surface 5 by one pixel.
  • the light receiving unit 3 arranges the region of interest of the set size (width w and height h) at the initial position p0 based on the input signal (for example, the trigger signal) from the light emitting unit 7, and moves in the moving direction d. Move at speed v. The region of interest moves from the initial position p0 to the position p1 over time.
  • the three-dimensional information calculation unit 10 calculates the three-dimensional information of the object by triangulation based on the information (event information or luminance image) of the light receiving unit 3 in the region of interest.
  • the three-dimensional information calculation unit 10 can reduce the influence of noise caused by the multiple reflected reference light or the like by excluding the information of the light receiving unit 3 other than the region of interest and measuring the distance.
  • FIG. 9B is an image diagram showing a modified example of the setting of the region of interest.
  • the area of interest setting unit 16 determines the initial positions p of the plurality of interest areas 1 and 2 based on the projection angle interval. It is advisable to set 10 and p 20 separately.
  • the settings (size (width w and height h), movement direction d, movement speed v, etc.) other than the initial positions p10 and p20 of the plurality of interest areas 1 and 2 may be the same as each other.
  • the light receiving unit 3 inputs an input signal (for example, a trigger signal) from the light projecting unit 7 when the projection angles of the reference lights L1 and L2 become predetermined angles, respectively, and the set size (width w and height h).
  • the regions of interest 1 and 2 of the above are arranged at the initial positions p10 and p20 , respectively, and are moved in the moving direction d at the moving speed v.
  • the light receiving unit 3 is not limited, but is limited to information (event information or luminance image) in a logical product (AND) region between the section in which the scanning time range of the reference light described in the first embodiment is set and the region of interest. ) Should be output.
  • the three-dimensional information calculation unit 9 calculates the three-dimensional information of the object by triangulation based on the information.
  • the region of interest setting unit 16 includes a region of interest on the supplier side set by the supplier side of the three-dimensional measuring device 8 and a region of interest on the user side set by the user side of the three-dimensional measuring device 8. It may have a function to set.
  • the area of interest setting unit 16 specifies and sets the area of interest on the supplier side and the area of interest on the user side via the user interface unit and the like.
  • the region of interest setting unit 16 sets the logical product (AND) region of the region of interest on the supplier side and the region of interest on the user side as the region of interest, in addition to the section in which the scanning time range of the reference light is set. You may.
  • the influence of noise caused by the multiple reflected reference light or the like can be reduced by measuring the distance by excluding the information of the light receiving unit 3 other than the region of interest.
  • the light receiving unit 3 that is, the image sensor
  • the image sensor outputs information (event information or luminance information) only in the region of interest, compared with the case where the information output from the image sensor is limited only by the scanning time range of the reference light.
  • the deterioration of the processing time of the image sensor due to excessive noise is improved.
  • event-based image sensors have low latency in the first place because they output only event information, but by outputting event information only in the area of interest, the latency (delay time) of the image sensor deteriorates due to excessive events. It will be improved and will be able to enjoy or maintain the benefits of event-based image sensors.
  • the program executed by the above-mentioned processor, integrated circuit, or the like may be recorded and provided on a computer-readable non-temporary recording medium such as a CD-ROM, or WAN via a wired or wireless device. Please note that it may be distributed and provided from a server device on a (wide area network) or LAN (local area network).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

三次元計測装置は、参照光を走査しながら対象物に投光する投光部と、対象物で反射した参照光を受光する受光部と、受光部のうちの所定区画毎に測距レンジに応じた参照光の走査時刻範囲を設定する時刻範囲設定部と、設定された走査時刻範囲の受光部の情報に基づいた三角測量によって対象物Wの三次元情報を算出する三次元情報算出部と、を備える。

Description

三次元計測装置
 本発明は、三次元計測技術に関し、特に光走査式の三次元計測装置に関する。
 構造化照明を使用した三角測量に基づく測距方法として、光切断法、位相シフト法、空間コード法等の光投影法が提案されている。光切断法は、対象物を走査しながら帯状のスリット光を対象物に投光し、投光位置とは異なる撮像位置から対象物を撮像し、スリット光の投射角度と、撮像面へのスリット光の入射角度と、投光位置と撮像位置との間の基線長と、に基づいた三角測量によって対象物までの距離を算出する。スリット光の投射角度は例えばスキャナへの指令値や撮像面上に現れるスリット光の輝線の検出時刻から求められ、スリット光の入射角度は例えば撮像面上のスリット光の入射位置から求められる。光切断法は、精度が良いと言われているが、位相シフト法や空間コード法等に比べると、一回の計測で必要な画像の枚数が多くなるため、計測時間が掛かるという問題がある。
 近年、一般的なフレームベースのイメージセンサとは異なる発想に基づいたイベントベースのイメージセンサが提案されている。フレームベースのイメージセンサは所定時間シャッタを開閉して露光することでフレーム画像を所定周期で出力するのに対し、イベントベースのイメージセンサは、各画素を独立して非同期に時々刻々と監視し、イベント(例えば所定以上の輝度変化)を検知したときに、イベントのあった画素の位置、時刻、及び極性(例えば明るくなったのか(正極性)又は暗くなったのか(負極性))等をイベント情報として出力する。イベントベースのイメージセンサは、フレームベースのイメージセンサに比べてダイナミックレンジが広い上、イベント情報しか出力しないため高速という特徴を有している。従って、イベントベースのイメージセンサを用いることで光切断法の高速化が可能になると考えられている。
 しかし、イベントベースのイメージセンサから発生するイベントは、スリット光の走査に起因したものだけであるのが理想だが、実際のシーンを撮影していると必ずしも理想的なイベントだけが発生するわけではなく、スリット光の走査以外の要因によるノイズイベントが発生することがある。例えば光切断法による測距にはスリット光の多重反射の問題が付きまとう。イメージセンサの或る画素に注目すると、本来はその画素に写る対象物の特定部位に向けて照射されたスリット光の一次反射光のみを受光したい訳であるが、別の部位に向けて照射されたスリット光の一次反射光がその特定部位で二次反射してその画素に入射することがある。この現象が発生すると、その画素はその特定部位で直接反射(単反射)したスリット光を撮像したのか、多重反射したスリット光を撮像したのかを判別できないため、正しい距離を計測できなくなる。多重反射光は複数回反射した光であるため、どの反射面の反射率も100%でない限り、単反射光よりも弱くなる。従って、フレームベースのイメージセンサでは輝度情報を用いて多重反射した参照光の影響を軽減することが行われているが、イベントベースのイメージセンサでは輝度情報を出力しないため同様の方法を採用できない。また、ノイズは、物体上で多重反射した参照光に起因したノイズだけではなく、光学系やイメージセンサに起因したノイズ(例えばフレア、ゴースト、収差等)もある。本願に関連する技術としては、例えば後述の文献が公知である。
 特許文献1には、スリット光で物体を走査しながら二つのイメージセンサで画
像を同期して撮像し、夫々のイメージセンサの各画素について最大輝度を検出したフレーム番号を記憶し、そのフレーム番号に基づいて画素の対応付けを行い、対応付けられた画素に基づいて距離を算出する三次元入力装置が開示されている。
 特許文献2には、光切断法に基づく三次元距離計測において、スキャンの開始とセンサのフレーム数のカウント開始を同時にした場合、何フレーム目でスリット光が検出されたかを知ることにより、スキャナの振り角度が決定され、センサから物体までの距離が決まることが記載されている。
 特許文献3には、光ビームで被測定物を走査する形状測定装置において、基準面又は被測定物の表面から反射したビームスポット光を光電変換し、基準面を走査した場合に光電変換された電気信号の立ち上がりタイミングと、被測定物を走査した場合に光電変換された電気信号の立ち上がりタイミングとの時間差に基づいて被測定物の表面形状を決定することが記載されている。
 特許文献4には、基板を搬送しながら基板の上面の検査領域に走査光を照射し、基板や基板上の電子部品で反射した走査光を受光し、基板の上面で反射した場合の受光面上の受光位置と、電子部品の上面で反射した場合の受光面上の受光位置との差から電子部品の高さを求める三次元画像認識装置において、反射光の受光面への入射を所定の入射幅で設定された透光開口部のみに限定することで、多重反射や透過反射の影響を軽減することが記載されている。
 特許文献5には、光沢のある部材を含む部材間の隅肉溶接部にスリット光を照射する隅肉溶接センシング装置において、スリット光の像とその二次反射光の像が離れるような角度に光源とカメラの角度を設定することが記載されている。
 特許文献6には、光切断法に基づく輪郭形状測定装置において、被写界深度を極度に小さくし、2回以上の反射点からの画像を1回反射点からの画像と同程度に撮像しないようにし、多重反射による誤測定を抑制することが記載されている。
 特許文献7には、パターン光投影法を用いた距離計測装置において、エピポーララインと略平行な方向のラインパターンが投影された対象物を撮像し、撮像された画像からラインの方向を算出し、算出したラインの方向とエピポーラライン方向との角度差に基づいて多重反射光領域を検出することが記載されている。
 特許文献8には、イベントベースイメージ処理装置において、予め定めたイベントが複数の画素の各々で発生したか否かを検出し、検出に応じてイベント信号を出力し、イベント信号に対応する少なくとも一つの画素とイベント信号が出力された時間をマッピングさせることでタイムスタンプ情報を生成し、タイムスタンプ情報に基づいて光流を生成することが記載されている。
 特許文献9には、シーンを三次元再構成する方法において、第一センサから各画素について第一連続イベントを受取り、第二センサから各画素について第二連続イベントを受取り、費用関数の最小化に応じて第一連続イベント中の第一イベントを第二連続イベント中の第二イベントにマッチングさせることが記載されている。
 特許文献10には、スリット光とカメラを一体として対象物の長さ方向に沿って移動させることにより、所定ピッチ毎の断面データを求め、各断面データから対象物を三次元計測する三次元計測方法及びその装置において、スリット光と直角に交わる幅の狭いウインドがイメージセンサ上に設定され、ウインド内における輝度が最大となる輝度データ及びその時のY軸方向の座標データを検出することが記載されている。
 特許文献11には、パターン認識の結果に基づき、注目物体に相当するROI(region of interest)を設定し、注目物体を追跡することにより、イベントのデータ量が膨大になってイベント処理のレイテンシが長時間になるのを抑制することが記載されている。
 特許文献12には、イベント検出センサとストラクチャード・ライト方式の技術を用いて被写体までの距離を測定する測距システムにおいて、イメージセンサとストラクチャライトの同期を取る方法、特にパターン光の切り替えに同期してイメージセンサをリセットすることが記載されている。
特開2000-088539号公報 特開2006-333493号公報 特開2003-329419号公報 特開2013-148353号公報 特開平11-33725号公報 特開2001-227923号公報 特開2012-141964号公報 特開2014-002744号公報 特開2018-516395号公報 特開平7-260444号公報 特開2020-136958号公報 特開2021-032763号公報
 本発明は、従来の問題点に鑑み、光走査による測距を行う際に多重反射した参照光等のノイズの影響を軽減することを目的とする。
 本開示の一態様は、参照光を走査しながら対象物に投光する投光部と、対象物で反射した参照光を受光する受光部と、受光部のうちの所定区画毎に測距レンジに応じた参照光の走査時刻範囲を設定する時刻範囲設定部と、設定された走査時刻範囲の受光部の情報に基づいた三角測量によって対象物の三次元情報を算出する三次元情報算出部と、を備える、三次元計測装置を提供する。
 本開示の他の態様は、参照光を走査しながら対象物に投光する投光部と、対象物で反射した参照光を受光し、関心領域内の情報のみを出力する機能を備え、参照光の走査に応じて関心領域を移動させる受光部と、関心領域の受光部の情報に基づいた三角測量によって対象物の三次元情報を算出する三次元情報算出部と、を備える、三次元計測装置を提供する。
 本開示の一態様によれば、対象物の特定部位で直接反射する参照光は測距レンジに応じた参照光の走査時刻範囲で必ず受光されるため、設定された走査時刻範囲以外の受光部の情報を除外して測距することで多重反射した参照光等に起因するノイズの影響を軽減できる。なお、測距レンジとは、要求される仕様に応じて予め定めた測距可能範囲のことを意味する。
 本開示の他の態様によれば、関心領域以外の受光部の情報を除外して測距することで多重反射した参照光等に起因するノイズの影響を軽減できる。また、受光部は関心領域のみの情報を出力するため、参照光の走査時刻範囲のみによって受光部の情報を制限する場合に比べ、ノイズの過多による受光部のレイテンシの悪化が改善される。
ステレオ法の計測原理を示すステレオカメラの平面図である。 光切断法の計測原理を示す光切断システムの平面図である。 第一実施形態の三次元計測装置のブロック図である。 走査時刻範囲の設定方法を示す三次元計測装置の平面図である。 多重反射した参照光等のノイズの影響が軽減される様子を示す三次元計測装置の平面図である。 走査時刻範囲の設定区画の一例を示す受光面の平面図である。 走査時刻範囲の設定区画の一例を示す受光面の平面図である。 走査時刻範囲の設定区画の一例を示す受光面の平面図である。 第一実施形態の三次元計測装置のフローチャートである。 第一実施形態の関心領域を示す三次元計測装置の平面図である。 第二実施形態の関心領域を示す三次元計測装置の平面図である。 第二実施形態の三次元計測装置のブロック図である。 関心領域の設定の一例を示す画像図である。 関心領域の設定の変形例を示す画像図である。
 以下、添付図面を参照して本開示の実施形態を詳細に説明する。各図面において、同一又は類似の構成要素には同一又は類似の符号が付与されている。また、以下に記載する実施形態は請求の範囲に記載される発明の技術的範囲及び用語の意義を限定するものではない。
 本実施形態の三次元計測装置の計測原理について説明する。理解を容易にするため、先ずステレオ法及び光切断法の計測原理について説明する。図1はステレオ法の計測原理を示すステレオカメラ1の平面図である。ステレオカメラ1は例えば2台のカメラに相当する左受光部2と右受光部3を備えている。左受光部2と右受光部3は例えば等位平行化して配置される。つまり、両受光部を基線長Bだけ離し、両受光部の光軸を平行に配置し、両光軸に直交する面内に左受光面4と右受光面5を配置し、各受光面のx方向及びy方向を同一方向に配向する。各受光面は、例えば複数の画素を二次元配列したイメージセンサであるが、複数の画素を一次元配列(例えばx方向にのみ配列)したラインセンサ等でもよい。
 ここで、対象空間に存在する対象物の点Pの像を写す左受光面4の画素の位置をxlとし右受光面5の画素の位置をxrとすると、左受光部2と右受光部3の間の視差はD=xl-xrとなる。三次元空間を表すXYZ座標系の原点を右焦点に置き、両受光部の焦点距離を夫々fとし、両受光面の画素間ピッチを夫々1とすると、対象物の点Pまでの距離Z(点Pまでの深度。以下同じ)は下記式から求められることになる。
Figure JPOXMLDOC01-appb-M000001
 基線長Bと焦点距離fはステレオカメラ1の設計で決まる定数であるため、左受光面4の点Pの像に対応する右受光面5の点Pの像をパターンマッチング等の画像処理で検出できれば、視差Dが求まり、対象物の点Pまでの距離Zが求まることが分かる。
 光切断システムは、例えばステレオカメラ1の左受光部2を投光部に置換えたものになる。図2は光切断法の計測原理を示す光切断システム6の平面図である。光切断システム6は例えばプロジェクタに相当する投光部7を備えている。投光部7は帯状のスリット光を走査しながら対象物に投光し、右受光部3は対象物から反射したスリット光を受光する。ここで、投光起点(回転中心)がステレオカメラ1における左焦点の位置にあり、ステレオカメラ1における左光軸からの投射角度をθとすると、投光部7の仮想的な左受光面4の画素の位置xlは下記式から求められることになる。
Figure JPOXMLDOC01-appb-M000002
 また、投光部7がXZ平面に垂直なY軸回りに投光起点から帯状のスリット光を等角速度ωで回転照射し、スリット光が時刻t0で左光軸を通過し、時刻tのときに投射角度θで対象物の点Pに投光されたとすると、投射角度θは下記式から求められる。
Figure JPOXMLDOC01-appb-M000003
 従って、スリット光の点Pでの反射光を右受光面5の画素の位置xrで受光したとすると、下記の式で示すように式2、式3を式1に代入すれば、対象物の点Pまでの距離Zが求められることになる。
Figure JPOXMLDOC01-appb-M000004
 基線長B、焦点距離f、角速度ω、及び時刻t0は光切断システム6の設計で決まる定数であるため、スリット光の像を写す右受光面5の画素の位置xrと、そのスリット光の像を検出した時刻tとを求めれば、対象物の点Pまでの距離Zを求められることが分かる。
 本実施形態の三次元計測装置はこのような光切断法の構成及び計測原理を利用する。但し、上記の構成及び計測原理は一例であり、システム構成、レイアウト等の設計に応じて適宜設計変更できることに留意されたい。例えば投光部7及び右受光部3を等位平行化せずレイアウトしてもよいし、また、左受光部2を投光部7に置換えるのではなく、左受光部2及び右受光部3に加えて投光部7を用意し、ステレオ法と光切断法を組み合わせたシステム構成を採用してもよい。さらに、帯状のスリット光ではなく、ビーム状のスポット光やブロックチェック状のパターン光を対象物に投光する投光部7を採用してもよい。このような設計変更に応じて三次元情報の算出方法も変わることに留意されたい。
 以下、第一実施形態の三次元計測装置の構成について説明する。図3は第一実施形態の三次元計測装置8のブロック図である。三次元計測装置8は、参照光を走査しながら対象物Wに投光する投光部7と、対象物Wで反射した参照光を受光する受光部3と、を備えている。投光部7は例えばプロジェクタに相当し、受光部3は例えばカメラに相当する。投光部7と受光部3の時刻は同期されているものとする。
 投光部7は、例えばスリット光、スポット光、パターン光等の参照光を対象物Wに投光する。投光部7は所定の投射角度間隔を保って複数の参照光を投光してもよい。三次元計測装置8の計測時間は対象物Wを参照光で走査するのに掛かる時間で決まるため、走査速度を高速化して計測時間を短縮するのが一般的であるが、受光部3の応答速度が制約条件になる。従って、複数の参照光を投光することにより、受光部3の応答速度の制約下で高速化した走査速度を維持しつつ計測時間を短縮可能である。
 受光部3は、例えば複数の画素を二次元配列したイメージセンサを備えているが、複数の画素を一次元配列したラインセンサを備えていてもよい。受光部3のイメージセンサは例えばイベントベースのセンサである。イベントベースのイメージセンサの場合、受光部3は、各画素を独立して非同期に時々刻々と監視し、所定以上のイベント(例えば所定以上の輝度変化)を検知したときに、イベントのあった画素の位置、時刻、極性(例えば明るくなったのか又は暗くなったのか)等を含むイベント情報を出力する。或いは、受光部3のイメージセンサは一般的なフレームベースのイメージセンサでもよい。フレームベースのイメージセンサの場合、受光部3は所定時間シャッタを開閉して露光することでフレーム画像を所定周期で出力する。フレーム画像は、例えばフレーム番号、各画素の輝度情報等を含んでいる。
 また三次元計測装置8は、受光部3の情報に基づいた三角測量によって対象物Wの三次元情報を算出する三次元情報算出部9を備えている。受光部3のセンサがイベントベースのセンサの場合、イベント(例えば所定以上の輝度変化)のあった画素が参照光の像を捉えているため、三次元情報算出部9は受光部3から出力されたイベント情報(例えば輝度変化のあった画素の位置、時刻、及び極性)に基づいて測距を行う。スリット光のスリット幅やスポット光のスポット径が複数の画素サイズに相当する場合もあるため、画素が明るくなり始めたときの時刻と暗くなり終わったときの時刻との間の中間時刻を求めて測距を行ってもよい。一方、受光部3のセンサがフレームベースのセンサの場合、三次元情報算出部9は、受光部3から出力された複数のフレーム画像から最大輝度になった画素の位置及びフレーム番号(時刻に相当)を検出し、これら検出情報に基づいて測距を行う。
 三次元計測装置8は、参照光の多重反射等に起因するノイズの影響を軽減するため、受光部3(の受光面を構成する複数の画素)のうちの所定区画毎に測距レンジに応じた参照光の走査時刻範囲を設定する時刻範囲設定部10をさらに備えている。三次元情報算出部9は、設定された走査時刻範囲以外の受光部3の情報を除外し、設定された走査時刻範囲の受光部3の情報に基づいて測距を行うことで多重反射した参照光等に起因するノイズによる誤った測距を抑制する。
 この走査時刻範囲の設定方法について詳述する。図4Aは走査時刻範囲の設定方法を示す三次元計測装置8の平面図である。図中の測距レンジは、要求される仕様に応じて予め定めた測距可能範囲である。例えば1000mm~2000mmを測距できるように三次元計測装置8の被写界深度等を設計した場合は、測距レンジは1000mm~2000mmとなる。受光部3の画素11に入る光は必ず視線Vを通って入射するので、入射した光が参照光の単反射光であり、かつ、単反射した対象物Wの点Pが測距レンジの範囲にあるのであれば、視線Vと測距レンジとの交差線分QRを参照光が走査する走査時刻範囲に必ず受光される。従って、画素11の視線Vと測距レンジとの交差線分QRを参照光が走査する走査時刻範囲を幾何学的に計算することで走査時刻範囲を設定するとよい。
 或いは、測距レンジが1000mm~2000mmであれば、例えば平板を1000mmの距離に配置した状態でスリット光を走査してスリット光の像が各画素を通過する時刻を記録し、さらに平板を2000mmの距離に配置した状態でスリット光を走査してスリット光の像が各画素を通過する時刻を記録し、得られた2つの時刻を走査時刻範囲の最大値と最小値としてもよい。測定バラツキも発生し得るため、実用上は複数回測定して平均を採ったり、多少マージンを乗せたりして走査時刻範囲を設定するとよい。このように設定した走査時刻範囲の受光部3の情報に基づいて測距を行うことで、多重反射した参照光等に起因するノイズによる誤った測距を抑制できるようになる。
 図4Bは多重反射した参照光の影響が軽減される様子を示す三次元計測装置8の平面図である。対象物Wの或る面Sで一次反射した参照光が対象物Wの点Pで二次反射して画素11に入射する場合、設定された走査時刻範囲以外でその画素11に入射する可能性が高くなる。従って、設定された走査時刻範囲以外の受光部3の情報を除外して測距を行うことで多重反射した参照光による誤った測距を抑制できることになる。
 この走査時刻範囲は、受光部3を構成する複数の画素のうちの一画素を一区画として画素毎に設定してもよいが、設定メモリの節約や計測時間の短縮を目的として、受光部3を構成する複数の画素のうちの近傍の画素群を纏めて一区画として区画毎に設定してもよい。図5A~図5Cは走査時刻範囲の設定区画の一例を示す受光面5の平面図である。三次元計測装置8の組立誤差やレンズ歪み等を無視できるとすると、図5Aに示すように平板をスリット光でx方向に走査した場合にスリット光の像Iが受光面5のy軸と平行に結像されるときは、スリット光の像Iを同時に捉える一列又は複数列の画素群を一区画として纏めて走査時刻範囲(例えば0.2s~0.4s)を設定してもよい。また、図5Bに示すように平板をブロックチェック状のパターン光でx方向に走査した場合にパターン光の像Iが受光面5のy軸と平行に結像されるときは、パターン光の像Iを同時に捉える二列又は複数列の画素群を一区画として纏めて走査時刻範囲(例えば0.15s~0.4s)を設定してもよい。
 さらに、図5Cに示すように平板をスポット光でx方向及びy方向に走査した場合にスポット光の像Iが受光面5の4近傍の画素群に結像されるときは、スポット光の像Iを同時に捉える4近傍の画素群を一区画として纏めて走査時刻範囲(例えば0.2s~0.4s)を設定してもよい。このように設定される走査時刻範囲は、イベントベースのイメージセンサの場合には走査開始から経過した走査時刻範囲でよいが、フレームベースのイメージセンサの場合には走査開始から経過したフレーム番号範囲でもよい。
 図3を再び参照すると、投光部7が複数のスリット光を投光する場合、三次元計測装置8は設定された走査時刻範囲に応じて投射角度間隔を設定する投射角度間隔設定部12を備えていてもよい。投射角度間隔は、例えば図4A及び図4Bに示すように設定された走査時刻範囲にスリット光が走査する走査角度φよりも広い角度間隔に設定される。この走査角度φよりも狭い投射角度間隔を保って複数のスリット光を投光すると、その走査角度φの走査時刻範囲を設定された区画の各画素はその走査時刻範囲に複数のスリット光を受光することになるため、どのスリット光を受光したのかを識別する方法が必要になる。しかし、複数のスリット光の投射角度間隔を走査角度φよりも広い角度間隔に設定することで、その区画内の各画素はその走査時刻範囲に一つのスリット光しか受光しなくなるため、スリット光を識別する必要がなくなる。図5Bに示すようなブロックチェック状のパターン光を複数投光する場合も、投射角度間隔を同様に設定するとよい。
 また、受光部3がイベントベースのイメージセンサを備えるか又はフレームベースのイメージセンサを備えるかに拘わらず、受光部3のイメージセンサは関心領域内の情報のみを出力する機能を備えているとよい。関心領域とは、公知のregion of interest(ROI)でよいが、本書における「関心領域」とは、必ずしも一般的なROIに限定されるものではないことに留意されたい。例えばフレームベースのイメージセンサの場合は、関心領域内の撮像画像のみを出力し、イベントベースのイメージセンサの場合は、関心領域内で発生したイベント情報のみを出力する。受光部3が関心領域内の情報のみを出力する機能を備える場合、三次元計測装置8は、参照光の走査に応じて関心領域を移動する関心領域移動部14を備えているとよい。受光部3は、関心領域移動部14からの入力信号(例えば移動指令)に基づき、関心領域を移動する。例えば関心領域は、計測中のある時刻tを含む走査時刻範囲が設定された区画(画素又は画素群)を含むように、時間の経過とともに移動する。この走査時刻範囲が設定された区画(画素又は画素群)と関心領域は完全に一致している必要はない。これにより、関心領域がイベントの発生や最大輝度の出力を取りこぼさなくなる。このような関心領域により、イベントが発生する画素や最大輝度を出力する画素を限定できるため、受光部3から出力されるデータ量を削減できる。その後、三次元情報算出部9は、関心領域で制限されたイベント情報に基づいて測距を行うか、又は制限された関心領域の中から最大輝度になった画素の位置及びフレーム番号を検出して測距を行うため、計測時間を大幅に短縮できる。また、多重反射した参照光等に起因したノイズも関心領域によって制限されるため、ノイズによる誤った測距も抑制できる。
 図3を再び参照すると、三次元情報算出部9によって算出された三次元情報は三次元計測装置8の外部に出力される。三次元情報は、例えば、いわゆる画像処理装置の他、ロボット制御装置や車両制御装置等の外部装置13によって利用される。外部装置13は、多重反射した参照光等に起因したノイズの影響を軽減した三次元情報に基づき画像処理を行い、例えば位置制御、速度制御、加速度制御等を行うことが可能になる。
 以上の三次元情報算出部9、時刻範囲設定部10、投射角度間隔設定部12、及び関心領域移動部14は、例えばASIC(application specific integrated circuit)、FPGA(field-programmable gate array)等の集積回路で実装してもよいし、又はCPU(central processing unit)、MPU(micro processing unit)等のプロセッサで実行されるプログラムとして実装してもよい。
 以下、三次元計測装置8の動作について説明する。図6は三次元計測装置8の動作を示すフローチャートである。ステップS1では時刻範囲設定部10が受光部3を構成する複数の画素のうちの所定区画毎に測距レンジに応じた参照光の走査時刻範囲を設定する。この際、幾何学的に参照光の走査時刻範囲を算出する場合は、例えばタッチパネルディスプレイ、キーボード等のユーザインタフェース部(図示せず)を介して測距レンジをユーザが入力してもよいし、又はメモリに予め記憶した測距レンジを用いてもよい。複数の参照光を投光する場合は、ステップS2において投射角度間隔設定部12が設定された走査時刻範囲に応じて投射角度間隔を設定する。
 ステップS3において参照光の投光及び走査を開始すると、ステップS4において三次元情報算出部9が設定された走査時刻範囲の受光部3の情報に基づいた三角測量によって対象物の三次元情報を算出する。受光部3のイメージセンサがイベントベースのイメージセンサの場合は、設定された走査時刻範囲でイベントのあった画素の位置、時刻、及び極性に基づいて対象物の三次元情報を算出する。受光部3のイメージセンサがフレームベースのイメージセンサの場合は、設定されたフレーム番号範囲の複数のフレーム画像から最大輝度になった画素の位置及びフレーム番号を検出し、検出された画素の位置及びフレーム番号に基づいて対象物の三次元情報を算出する。ステップS5において三次元情報を外部に出力すると、処理が終了する。
 なお、このフローチャートでは、ステップS1~S5が一連の処理として記載されているが、ステップS1とステップS2の処理は三次元計測装置の設置時、校正時等に行い、ステップS3~ステップS5の処理は計測時に行ってもよい。また、ステップS2とステップS5は必ずしも必須のステップでないことに留意されたい。
 第一実施形態の三次元計測装置8によれば、対象物Wの特定部位で直接反射する参照光は測距レンジに応じた走査時刻範囲で必ず受光されるため、設定された走査時刻範囲以外の受光部3の情報を除外して測距することで多重反射した参照光等のノイズの影響を軽減できる。
 以下、第二実施形態の三次元計測装置8について説明する。第一実施形態の三次元計測装置8と同一の構成及び動作については、説明を省略することに留意されたい。図7Aは第一実施形態の関心領域を示す三次元計測装置8の平面図であり、図7Bは第二実施形態の関心領域を示す三次元計測装置8の平面図である。第一実施形態と第二実施形態のいずれの三次元計測装置8においても、参照光Lが測距範囲全体の投射角度範囲θmaxを走査速度ωで走査する間、関心領域は参照光Lの走査に応じて(追従して)移動方向dへ移動する。しかし、第一実施形態と第二実施形態の三次元計測装置8は、次の点で相違する。
 図7Aに示すように第一実施形態の三次元計測装置8では、一つの画素11に着目し、画素11に結像する参照光Lの時刻は、測距レンジの最遠側の点Rに照射した時刻t1と、測距レンジの最近側の点Qに照射した時刻t2との間の参照光Lの走査時刻範囲(つまり測距レンジに応じた参照光Lの走査時刻範囲)にあるはずであるという推測の下、関心領域は、計測中のある時刻を含む走査時刻範囲が設定された区画を含むように、時間の経過とともに移動する。
 対照的に、図7Bに示すように第二実施形態の三次元計測装置8では、一つの時刻tに着目し、計測中のある時刻tに照射された参照光Lの像は、測距レンジの最近側の点Qで反射した場合の結像点(例えば画素11)と、測距レンジの最遠側の点Rで反射した場合の結像点(例えば画素15)との間の結像範囲(つまり測距レンジに応じた参照光Lの結像範囲)にあるはずであるという推測の下、関心領域は、計測中のある時刻tにおいて測距レンジに応じた参照光Lの結像範囲(例えば画素11から画素15までの画素群)を含むように、時間の経過とともに移動する。
 図8は第二実施形態の三次元計測装置8のブロック図である。第一実施形態と第二実施形態のいずれの三次元計測装置8においても、関心領域は参照光の走査に同期して移動するが、第一実施形態では、関心領域移動部14が、測距レンジに応じた参照光Lの走査時刻範囲が設定された区画(例えば画素11又は画素11の近傍の画素群)を含むように、関心領域を移動する移動指令を受光部3に送出するのに対し、第二実施形態では、三次元計測装置8が関心領域を事前に設定する関心領域設定部16を備え、関心領域設定部16は、計測中のある時刻tにおいて測距レンジに応じた参照光の結像範囲を含むように関心領域を設定し、受光部3自体が、投光部7からの入力信号(例えばトリガ信号)に基づき、設定された関心領域を移動させる。関心領域設定部16は、関心領域の初期位置、サイズ(幅及び高さ)、移動方向、及び移動速度のうちの少なくとも一つを設定し、受光部3は、設定されたサイズの関心領域を初期位置に配置し、初期位置から所定方向に所定速度(例えば等速度)で移動させる。受光部3は、参照光Lの投射角度が所定角度になったときに入力信号(例えばトリガ信号)を入力し、関心領域を移動させるとよい。また、受光部3は、関心領域を移動させるに当たり、イメージセンサ(受光面5)のクロック信号に同期させて関心領域を移動させるとよい。
 図9Aは関心領域の設定の一例を示す画像図である。関心領域の初期位置p、サイズ(幅w及び高さh)、移動方向d、及び移動速度vは、三次元計測装置8の設計情報に基づき設定される。三次元計測装置8の設計情報とは、例えば投光部7と受光部3の配置(例えば各々の位置及び姿勢)、測距レンジ、参照光Lの走査方向、参照光Lの走査速度、参照光Lの投射角度範囲、イメージセンサのクロック周波数等を含む。
 関心領域設定部16は、関心領域を設定するに当たり、先ず参照光Lの結像範囲iを求める。関心領域設定部16は、タッチパネルディスプレイ、マウス等のユーザインタフェース部(図示せず)等を介して、三次元計測装置8の設計情報(投光部7と受光部3の配置(各々の位置及び姿勢)、測距レンジ等)を入力して、当該設計情報に基づき、幾何学的に参照光Lの結像範囲iを算出する機能を備えてもよいし、又は、実際に参照光Lを走査させて参照光Lの結像範囲iを算出する機能を備えてもよい。後者の場合、例えば図7Bを参照して説明すると、測距レンジの最近側に平板を配置し、参照光Lを走査させ、参照光Lを結像した結像点(例えば画素11)の位置と時刻を記録し、また、測距レンジの最遠側に平板を配置し、参照光Lを走査させ、参照光Lを結像した結像点(例えば画素15)の位置と時刻を記録しておく。測距レンジに応じた参照光Lの結像範囲iは、受光面5の端部側に向かうにつれて大きくなり、参照光Lの走査を通して一定ではないため、関心領域設定部16は、時刻毎に、測距レンジの最近側における参照光Lの結像点(例えば画素11)から測距レンジの最遠側における参照光Lの結像点(例えば画素15)までの画素数を計算し、測距範囲全体を通じた当該画素数の最大値を参照光Lの結像範囲iとして算出するとよい。
 関心領域設定部16は、参照光Lの結像範囲iに基づき、関心領域の幅wを設定する。関心領域の幅wとは、参照光Lの走査方向における関心領域のサイズである。関心領域の幅wの初期値は、参照光Lの結像範囲i(例えば測距範囲全体を通じた画素11から画素15までの画素数の最大値)それ自体でもよいが、参照光Lの走査速度が等角速度であっても受光面5に結像する参照光Lの走査速度は一定にならないため、関心領域の幅wに余裕を持たせておくとよい。例えば関心領域設定部16は、参照光Lの結像範囲iに所定のマージンmを加えたサイズを関心領域の幅wとして設定するとよい。関心領域の幅のマージンmは予め定めた定数でよい。
 関心領域設定部16は、受光面5のサイズに基づき、関心領域の高さhを設定する。関心領域の高さhとは、参照光Lの走査方向と直交する方向における関心領域のサイズである。関心領域の高さhの初期値は、参照光Lの走査方向と直交する方向の受光面5の画素数でよいが、関心領域設定部16は、ユーザインタフェース部等を介して、参照光Lの走査方向と直交する方向の受光面5の画素数以下の任意の数値で、関心領域の高さhを指定され、設定してもよい。例えば受光面5における既知の領域に写る対象物の三次元形状を計測する場合は、関心領域の高さhを対象物が存在する領域にのみ制限でき、ノイズの影響を軽減できることになる。
 関心領域設定部16は、参照光Lの走査方向に基づき、関心領域の移動方向dを設定する。関心領域設定部16は、ユーザインタフェース部等を介して、関心領域の移動方向dを任意に指定され、設定してもよいし、又は、参照光Lを走査させて参照光Lの結像範囲iを算出する前述の機能を実行する際に、参照光Lの走査方向を求めておき、参照光Lの走査方向を関心領域の移動方向dとして自動的に設定してもよい。図9Aの例では、参照光(スリット光)が受光面5に横向きに写るように配置され、関心領域の移動方向dは上方向又は下方向に設定される。一方、参照光(スリット光)が受光面5に縦向きに写るように配置される場合は、関心領域の移動方向dは左方向又は右方向に設定される。
 関心領域設定部16は、受光面5と同じ平面上に固定された直交座標系(例えばカメラ座標系等(図示するxy座標系))の座標値で、関心領域の初期位置pを設定する。例えば関心領域が矩形の場合は、関心領域の初期位置pは矩形の左上角部の座標値でよい。関心領域設定部16は、参照光Lの走査方向(又は関心領域の移動方向d)と関心領域のサイズ(幅及び高さ)とに基づき、関心領域の初期位置pを自動的に設定してもよい。例えば図9Aの例では、参照光L(スリット光)が受光面5に横向きに写るように配置され、参照光Lが受光面5の上方向又は下方向へ走査するため、関心領域設定部16は、受光面5の最下位又は最上位にある画素行を中央線とした関心領域の左上角部の位置を関心領域の初期位置pとして自動的に設定するとよい。また、参照光L(スリット光)が受光面5に縦向きに写るように配置され、参照光Lが受光面5の右方向又は左方向へ走査する場合は、受光面5の最左位又は最右位にある画素行を中央線とした関心領域の左上角部の位置を関心領域の初期位置pとして設定するとよい。或いは、関心領域設定部16は、ユーザインタフェース部等を介して、関心領域の初期位置pを任意に指定され、設定してもよい。例えば参照光L(スリット光)が受光面5に対して横向きに写るように配置され、参照光Lが受光面5の下方向へ走査し、受光面5の既知の領域に写る対象物の三次元形状を計測する場合、関心領域の初期位置pをワークが存在する領域の最上位にある画素行を中心線とした関心領域の左上角部の位置を関心領域の初期位置pとして自動的に設定するとよい。これにより、関心領域の走査を対象物が存在する領域に制限でき、ノイズの影響を軽減できる。
 関心領域設定部16は、参照光Lの走査速度ωに基づき、関心領域の移動速度vを設定する。関心領域をイメージセンサのクロック信号に同期させて移動させる場合は、関心領域設定部16は、移動速度vに基づいて、参照光Lが受光面5を1画素分移動する時間がイメージセンサの動作クロックのうちの何クロック分に相当するかを求め、受光部3は、参照光Lが受光面5を1画素分移動するのに必要なクロック数毎に関心領域を1画素移動させるとよい。例えば、測距範囲全体を参照光Lが走査するのに掛かる時間tは、投射角度範囲/走査速度(t=θmax/ω)であるため、走査方向の受光面5の画素数をnとすると、参照光Lの像が受光面5を1画素分移動するのに掛かる時間ΔtはΔt≒t/nとなる。つまり、イメージセンサのクロック周波数をFとすると、参照光Lが受光面5を1画素分移動するのに要するクロック数cはc=F/vとなる。そして、受光部3は、参照光Lが受光面5を1画素分移動するのに必要なクロック数c毎に関心領域を1画素移動させる。このように関心領域をイメージセンサのクロック信号に同期させて移動させることにより、受光部3が外部信号をトリガ信号として入力する場合に比べ、より簡単な構成で関心領域を移動させることが可能になる。
 受光部3は、投光部7からの入力信号(例えばトリガ信号)に基づき、設定されたサイズ(幅w及び高さh)の関心領域を初期位置pに配置し、移動方向dへ移動速度vで移動させる。関心領域は、初期位置pから位置pへと、時間の経過とともに移動する。三次元情報算出部10は、関心領域の受光部3の情報(イベント情報又は輝度画像)に基づいた三角測量によって対象物の三次元情報を算出する。三次元情報算出部10は、関心領域以外の受光部3の情報を除外して測距することで多重反射した参照光等に起因するノイズの影響を軽減できる。
 図9Bは関心領域の設定の変形例を示す画像図である。投光部7が所定の投射角度間隔を保って複数の参照光L1、L2を投光する場合、関心領域設定部16は、投射角度間隔に基づき、複数の関心領域1、2の初期位置p10、p20を別個に設定するとよい。複数の関心領域1、2の初期位置p10、p20以外の設定(サイズ(幅w及び高さh)、移動方向d、移動速度v等)は互いに同一でよい。受光部3は、参照光L1、L2の投射角度がそれぞれ所定角度になったときに投光部7から入力信号(例えばトリガ信号)を入力し、設定されたサイズ(幅w及び高さh)の関心領域1、2をそれぞれ初期位置p10、p20に配置し、移動方向dへ移動速度vで移動させる。そして、受光部3は、限定されないが、第一実施形態で説明した参照光の走査時刻範囲が設定された区画と、当該関心領域との論理積(AND)領域の情報(イベント情報又は輝度画像)のみを出力するとよい。三次元情報算出部9は、当該情報に基づいた三角測量によって対象物の三次元情報を算出する。
 また、関心領域設定部16は、図示しないが、三次元計測装置8の供給者側で設定する供給者側関心領域と、三次元計測装置8の利用者側で設定する利用者側関心領域と、を設定する機能を備えていてもよい。関心領域設定部16は、ユーザインタフェース部等を介して、供給者側関心領域と利用者側関心領域を指定され、設定する。この場合、関心領域設定部16は、前述の参照光の走査時刻範囲が設定された区画に加え、供給者側関心領域と利用者側関心領域の論理積(AND)領域を関心領域として設定してもよい。
 第二実施形態の三次元計測装置8によれば、関心領域以外の受光部3の情報を除外して測距することで多重反射した参照光等に起因するノイズの影響を軽減できる。また、受光部3(即ち、イメージセンサ)は関心領域のみの情報(イベント情報又は輝度情報)を出力するため、参照光の走査時刻範囲のみによってイメージセンサから出力した情報を制限する場合に比べ、ノイズの過多によるイメージセンサの処理時間の悪化が改善される。特にイベントベースのイメージセンサは、イベント情報のみを出力するため、そもそも低レイテンシであるが、関心領域のみのイベント情報を出力することにより、イベントの過多によるイメージセンサのレイテンシ(遅延時間)の悪化が改善され、イベントベースのイメージセンサのメリットを享受ないし維持できることになる。
 なお、前述のプロセッサ、集積回路等で実行されるプログラムは、コンピュータ読取り可能な非一時的記録媒体、例えばCD-ROM等に記録して提供してもよいし、或いは有線又は無線を介してWAN(wide area network)又はLAN(local area network)上のサーバ装置から配信して提供してもよいことに留意されたい。
 本明細書において種々の実施形態について説明したが、本発明は、前述の実施形態に限定されるものではなく、請求の範囲に記載された範囲内において種々の変更を行えることを認識されたい。
 1 ステレオカメラ
 2 左受光部
 3 右受光部(受光部)
 4 左受光面
 5 右受光面(受光面)
 6 光切断システム
 7 投光部
 8 三次元計測装置
 9 三次元情報算出部
 10 時刻範囲設定部
 11 画素
 12 投射角度間隔設定部
 13 外部装置
 14 関心領域移動部
 B 基線長
 D 視差
 f 焦点距離
 I 参照光の像
 L 参照光
 P 対象物の点
 Q 測距レンジの最近側の結像点
 R 測距レンジの最遠側の結像点
 QR 画素の視線と測距レンジとの交差線分
 S 対象物の面
 V 視線
 W 対象物
 Z 対象物の点Pまでの距離
 θ 投射角度
 θmax 投射角度範囲
 φ 走査角度
 ω 走査速度
 i 参照光の結像範囲
 p0、p10、p20 関心領域の初期位置
 w 関心領域の幅
 m 関心領域の幅のマージン
 h 関心領域の高さ
 d 関心領域の移動方向
 v 関心領域の移動速度
 F イメージセンサのクロック周波数

Claims (18)

  1.  参照光を走査しながら対象物に投光する投光部と、
     前記対象物で反射した前記参照光を受光する受光部と、
     前記受光部のうちの所定区画毎に測距レンジに応じた前記参照光の走査時刻範囲を設定する時刻範囲設定部と、
     設定された前記走査時刻範囲の前記受光部の情報に基づいた三角測量によって前記対象物の三次元情報を算出する三次元情報算出部と、
     を備える、三次元計測装置。
  2.  前記受光部は、複数の画素を有し、前記画素毎にイベントを監視し、少なくとも前記イベントのあった前記画素の位置、時刻、及び極性を前記情報として出力する、請求項1に記載の三次元計測装置。
  3.  前記投光部は所定の投射角度間隔を保って複数の前記参照光を投光する、請求項1又は2に記載の三次元計測装置。
  4.  前記走査時刻範囲は、前記受光部の画素の視線と前記測距レンジとの交差線分を前記参照光が走査する走査時刻範囲である、請求項1から3のいずれか一項に記載の三次元計測装置。
  5.  前記走査時刻範囲は、前記受光部のうちの一画素を一区画として画素毎に設定される、又は前記受光部のうちの近傍の画素群を一区画として区画毎に設定される、請求項1から4のいずれか一項に記載の三次元計測装置。
  6.  設定された前記走査時刻範囲に応じて前記投射角度間隔を設定する投射角度間隔設定部をさらに備える、請求項3に記載の三次元計測装置。
  7.  前記受光部は複数の画素のうちの関心領域内の前記情報のみを出力する機能を備え、前記関心領域は、計測中のある時刻を含む前記走査時刻範囲が設定された前記区画を含むように、時間の経過とともに移動する、請求項1から6のいずれか一項に記載の三次元計測装置。
  8.  前記受光部は複数の画素のうちの関心領域内の前記情報のみを出力する機能を備え、前記関心領域は、計測中のある時刻において前記測距レンジに応じた前記参照光の結像範囲を含むように、時間の経過とともに移動する、請求項1から6のいずれか一項に記載の三次元計測装置。
  9.  参照光を走査しながら対象物に投光する投光部と、
     前記対象物で反射した前記参照光を受光し、関心領域内の情報のみを出力する機能を備え、前記参照光の走査に応じて前記関心領域を移動させる受光部と、
     前記関心領域の前記受光部の情報に基づいた三角測量によって前記対象物の三次元情報を算出する三次元情報算出部と、
     を備える、三次元計測装置。
  10.  前記受光部は、複数の画素を有し、前記画素毎にイベントを監視し、少なくとも前記イベントのあった前記画素の位置、時刻、及び極性を前記情報として出力する、請求項9に記載の三次元計測装置。
  11.  前記関心領域は、計測中のある時刻において測距レンジに応じた前記参照光の結像範囲を含むように、時間の経過とともに移動する、請求項9又は10に記載の三次元計測装置。
  12.  前記関心領域の初期位置、サイズ、移動方向、及び移動速度のうちの少なくとも一つを設定する関心領域設定部を備える、請求項9から11のいずれか一項に記載の三次元計測装置。
  13.  前記関心領域のサイズは、測距レンジに応じた前記参照光の結像範囲に基づき設定される、請求項9から12のいずれか一項に記載の三次元計測装置。
  14.  前記関心領域の移動方向は、前記参照光の走査方向に基づき設定される、請求項9から13のいずれか一項に記載の三次元計測装置。
  15.  前記関心領域の移動速度は、前記参照光の走査速度に基づき設定される、請求項9から14のいずれか一項に記載の三次元計測装置。
  16.  前記受光部は、入力信号に基づき、設定されたサイズの前記関心領域を初期位置から所定方向に所定速度で移動させる、請求項9から15のいずれか一項に記載の三次元計測装置。
  17.  前記受光部は、前記参照光の投射角度が所定角度になったときに前記入力信号を入力する、請求項16に記載の三次元計測装置。
  18.  前記受光部は、前記関心領域を前記受光部のクロック信号に同期させて移動させる、請求項9から17のいずれか一項に記載の三次元計測装置。
PCT/JP2021/031990 2020-09-07 2021-08-31 三次元計測装置 Ceased WO2022050279A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112021004793.0T DE112021004793T5 (de) 2020-09-07 2021-08-31 Vorrichtung für dreidimensionale Messungen
CN202180054641.3A CN116134289B (zh) 2020-09-07 2021-08-31 三维测量装置
JP2022546928A JP7549025B2 (ja) 2020-09-07 2021-08-31 三次元計測装置
US18/040,815 US20230296373A1 (en) 2020-09-07 2021-08-31 Three-dimensional measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-149865 2020-09-07
JP2020149865 2020-09-07

Publications (1)

Publication Number Publication Date
WO2022050279A1 true WO2022050279A1 (ja) 2022-03-10

Family

ID=80491009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/031990 Ceased WO2022050279A1 (ja) 2020-09-07 2021-08-31 三次元計測装置

Country Status (5)

Country Link
US (1) US20230296373A1 (ja)
JP (1) JP7549025B2 (ja)
CN (1) CN116134289B (ja)
DE (1) DE112021004793T5 (ja)
WO (1) WO2022050279A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176127A1 (ja) * 2022-03-14 2023-09-21 株式会社デンソーウェーブ 三次元計測装置
WO2024125892A1 (en) * 2022-12-16 2024-06-20 Sony Semiconductor Solutions Corporation Depth sensor device and method for operating a depth sensor device
CN118298550A (zh) * 2024-04-16 2024-07-05 南京宜择化科技有限公司 基于三维模型的插电式预付费电表体积测量系统
WO2024162409A1 (ja) * 2023-02-01 2024-08-08 株式会社デンソーウェーブ 三次元計測装置
DE112022006794T5 (de) 2022-06-30 2025-02-13 Fanuc Corporation Gerät zur Abstandsmessung
JP2025525974A (ja) * 2022-08-04 2025-08-07 上海図漾信息科技有限公司 深度データ測定装置及びその応用方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015886A (ja) * 2021-07-20 2023-02-01 株式会社キーエンス 形状検査装置、処理装置、高さ画像処理方法および高さ画像処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (ja) * 1986-12-13 1988-06-22 Kobe Steel Ltd 作業線自動検出方法
JPH11271030A (ja) * 1998-03-25 1999-10-05 Minolta Co Ltd 3次元計測装置
JP2006098384A (ja) * 2003-12-25 2006-04-13 Purex:Kk 立体計測装置及び方法
JP2012220473A (ja) * 2011-04-14 2012-11-12 Yaskawa Electric Corp 3次元形状計測装置およびロボットシステム
CN109458928A (zh) * 2018-10-29 2019-03-12 西安知微传感技术有限公司 基于扫描振镜和事件相机激光线扫描3d检测方法及系统

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06229732A (ja) * 1993-01-29 1994-08-19 Fanuc Ltd スポット光ビーム走査型3次元視覚センサ
JPH07260444A (ja) 1994-03-24 1995-10-13 Nippon Avionics Co Ltd 光切断法による対象物の三次元計測方法およびその装置
JPH1133275A (ja) 1997-07-18 1999-02-09 Hitachi Ltd 脱水洗濯機の防振装置
JP3695169B2 (ja) * 1998-09-11 2005-09-14 コニカミノルタセンシング株式会社 3次元入力方法及び3次元入力装置
JP2000088539A (ja) 1998-09-11 2000-03-31 Minolta Co Ltd 3次元入力方法及び3次元入力装置
JP2000275024A (ja) * 1999-03-25 2000-10-06 Minolta Co Ltd 3次元入力装置
JP2000105108A (ja) * 1998-09-29 2000-04-11 Minolta Co Ltd 3次元入力装置
JP4532694B2 (ja) * 1999-08-10 2010-08-25 富士機械製造株式会社 3次元データ取得方法,装置、およびマスク印刷方法、装置
JP2001227923A (ja) 1999-12-06 2001-08-24 Kobe Steel Ltd 輪郭形状測定方法及び輪郭形状測定装置
JP2001337166A (ja) * 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
JP2002221408A (ja) * 2001-01-26 2002-08-09 Minolta Co Ltd 光学測定装置
JP4803568B2 (ja) * 2001-03-30 2011-10-26 ルネサスエレクトロニクス株式会社 半導体集積回路の検査装置および検査方法
JP4466612B2 (ja) 2001-09-20 2010-05-26 ソニー株式会社 固体撮像装置及びその制御方法
JP2003329419A (ja) 2002-05-16 2003-11-19 Mitsubishi Electric Corp 形状測定装置
JP2005043084A (ja) * 2003-07-23 2005-02-17 Dainippon Printing Co Ltd 撮影画像合成システム、撮影画像合成方法、プログラム、及び記録媒体
JP4192851B2 (ja) * 2004-06-22 2008-12-10 トヨタ自動車株式会社 車両用駆動装置の制御装置
KR20120000234A (ko) * 2010-06-25 2012-01-02 이숙윤 조도 센서를 이용한 백색광 3차원 스캐너의 자동 노출 제어 방법
US8938099B2 (en) 2010-12-15 2015-01-20 Canon Kabushiki Kaisha Image processing apparatus, method of controlling the same, distance measurement apparatus, and storage medium
JP2013148353A (ja) 2012-01-17 2013-08-01 Panasonic Corp 検査装置および3次元画像認識装置ならびに3次元画像認識方法
JP5922458B2 (ja) * 2012-03-26 2016-05-24 アンリツインフィビス株式会社 変位測定装置
KR102070562B1 (ko) 2012-06-19 2020-01-30 삼성전자주식회사 이벤트 기반 이미지 처리 장치 및 그 장치를 이용한 방법
JP6177754B2 (ja) * 2014-11-18 2017-08-09 株式会社神戸製鋼所 打抜き性と結晶粒粗大化防止特性に優れた浸炭用鋼板および機械構造部品
FR3033973A1 (fr) 2015-03-16 2016-09-23 Univ Pierre Et Marie Curie Paris 6 Procede de reconstruction 3d d'une scene
US10250833B2 (en) * 2015-04-20 2019-04-02 Samsung Electronics Co., Ltd. Timestamp calibration of the 3D camera with epipolar line laser point scanning
US9967539B2 (en) * 2016-06-03 2018-05-08 Samsung Electronics Co., Ltd. Timestamp error correction with double readout for the 3D camera with epipolar line laser point scanning
CN107607040B (zh) * 2017-08-11 2020-01-14 天津大学 一种适用于强反射表面的三维扫描测量装置及方法
JP2020136958A (ja) 2019-02-21 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 イベント信号検出センサ及び制御方法
JP7451110B2 (ja) 2019-08-27 2024-03-18 ソニーグループ株式会社 測距システム及び電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63149507A (ja) * 1986-12-13 1988-06-22 Kobe Steel Ltd 作業線自動検出方法
JPH11271030A (ja) * 1998-03-25 1999-10-05 Minolta Co Ltd 3次元計測装置
JP2006098384A (ja) * 2003-12-25 2006-04-13 Purex:Kk 立体計測装置及び方法
JP2012220473A (ja) * 2011-04-14 2012-11-12 Yaskawa Electric Corp 3次元形状計測装置およびロボットシステム
CN109458928A (zh) * 2018-10-29 2019-03-12 西安知微传感技术有限公司 基于扫描振镜和事件相机激光线扫描3d检测方法及系统

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176127A1 (ja) * 2022-03-14 2023-09-21 株式会社デンソーウェーブ 三次元計測装置
JP2023133723A (ja) * 2022-03-14 2023-09-27 株式会社デンソーウェーブ 三次元計測装置
JP7741393B2 (ja) 2022-03-14 2025-09-18 株式会社デンソーウェーブ 三次元計測装置
DE112022006794T5 (de) 2022-06-30 2025-02-13 Fanuc Corporation Gerät zur Abstandsmessung
JP2025525974A (ja) * 2022-08-04 2025-08-07 上海図漾信息科技有限公司 深度データ測定装置及びその応用方法
EP4567373A4 (en) * 2022-08-04 2025-11-05 Shanghai Percipio Tech Limited DEPTH DATA MEASURING DEVICE AND ITS APPLICATION METHOD
WO2024125892A1 (en) * 2022-12-16 2024-06-20 Sony Semiconductor Solutions Corporation Depth sensor device and method for operating a depth sensor device
WO2024162409A1 (ja) * 2023-02-01 2024-08-08 株式会社デンソーウェーブ 三次元計測装置
CN118298550A (zh) * 2024-04-16 2024-07-05 南京宜择化科技有限公司 基于三维模型的插电式预付费电表体积测量系统

Also Published As

Publication number Publication date
CN116134289B (zh) 2025-08-22
US20230296373A1 (en) 2023-09-21
CN116134289A (zh) 2023-05-16
DE112021004793T5 (de) 2023-07-06
JPWO2022050279A1 (ja) 2022-03-10
JP7549025B2 (ja) 2024-09-10

Similar Documents

Publication Publication Date Title
WO2022050279A1 (ja) 三次元計測装置
TWI585436B (zh) 深度資訊量測方法及裝置
EP2839238B1 (en) 3d scanner using merged partial images
JP6484072B2 (ja) 物体検出装置
JP4238891B2 (ja) 三次元形状測定システム、三次元形状測定方法
JP2007010346A (ja) 撮像装置
JP2008241643A (ja) 3次元形状測定装置
US20230026608A1 (en) Shape inspection device, processing device, height image processing device
JP2019056606A (ja) ステレオカメラ
JP2014130086A (ja) 距離画像センサ、処理装置、プログラム
US12078478B2 (en) Measurement apparatus, control apparatus, and control method
JP5482032B2 (ja) 距離計測装置および距離計測方法
KR20200032442A (ko) 자기보정이 가능한 3차원 정보 생성 장치 및 방법
JP7772822B2 (ja) 三次元計測装置
JP2015108582A (ja) 3次元計測方法と装置
US20230009071A1 (en) Control method for light sources of vision machine, and vision machine
JP2007093412A (ja) 3次元形状測定装置
JP2014095631A (ja) 3次元計測装置および3次元計測方法
CN118131191A (zh) 用于提供现实世界和图像传感器对应点的方法和设备
JP2011220752A (ja) 三次元形状計測装置および三次元形状計測装置のキャリブレーション方法
JP2001183120A (ja) 3次元入力方法及び3次元入力装置
KR102901195B1 (ko) 삼차원 계측용 연산 장치, 삼차원 계측용 프로그램, 기록 매체, 삼차원 계측 장치 및 삼차원 계측용 연산 방법
RU2850246C1 (ru) Трехмерный сканер, оснащенный сенсорами с перекрывающимися полями обзора
JP7767807B2 (ja) 撮像装置、撮像方法及びプログラム
WO2022113877A1 (ja) 三次元計測装置及び三次元計測プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21864336

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022546928

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 21864336

Country of ref document: EP

Kind code of ref document: A1

WWG Wipo information: grant in national office

Ref document number: 202180054641.3

Country of ref document: CN