[go: up one dir, main page]

WO2012101967A1 - 測位情報形成装置、検出装置、及び測位情報形成方法 - Google Patents

測位情報形成装置、検出装置、及び測位情報形成方法 Download PDF

Info

Publication number
WO2012101967A1
WO2012101967A1 PCT/JP2012/000116 JP2012000116W WO2012101967A1 WO 2012101967 A1 WO2012101967 A1 WO 2012101967A1 JP 2012000116 W JP2012000116 W JP 2012000116W WO 2012101967 A1 WO2012101967 A1 WO 2012101967A1
Authority
WO
WIPO (PCT)
Prior art keywords
map information
information
distance map
coordinate
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/000116
Other languages
English (en)
French (fr)
Inventor
慎 安木
洋文 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to US13/817,488 priority Critical patent/US8983130B2/en
Publication of WO2012101967A1 publication Critical patent/WO2012101967A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/18Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with one observation point at each end of the base
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a positioning information formation apparatus, a detection apparatus, and a positioning information formation method.
  • an object positioning and detecting apparatus which utilizes both a millimeter wave radar and a stereo camera.
  • the first object positioning detection device first detects a candidate for a detection target object based on camera positioning information calculated from a stereo image captured by a stereo camera.
  • the object positioning detection apparatus corrects the positioning information of the detection target object candidate with the radar positioning information obtained by the millimeter wave radar.
  • the second object positioning detection device first detects the object presence direction by the millimeter wave radar, and then uses only the object presence direction in the camera positioning information of the stereo camera to detect the detection target object. To detect.
  • an object detection apparatus disclosed in Patent Document 1 has a method similar to that of the second object positioning detection apparatus, and detects an object presence direction by a millimeter wave radar, and a camera overlaps the detected angle direction. Object detection processing is performed only on positioning information.
  • the object detection device disclosed in Patent Document 1 the object detection is performed using a stereo camera based only on the range in which the presence of the object is detected by the millimeter wave radar. Therefore, for example, when the object detection device is installed on the road shoulder and the vehicle is an object to be detected, when the object detection device is positioned obliquely rearward of the vehicle, the millimeter emitted from the object detection device and reflected by the vehicle The power intensity of the waves may be weaker than expected. In this case, even the presence of the vehicle is not detected by the millimeter wave radar, and there is a possibility that the vehicle may not be finally detected even if the stereo camera is additionally used.
  • An object of the present invention is to provide a positioning information formation device, a detection device, and a positioning information formation method which improve object detection accuracy.
  • a positioning information forming apparatus forms positioning information that is used in a detection apparatus that detects an object based on an image based on information detected by a radar and an image captured by a stereo camera.
  • Processing means camera distance map information in which a coordinate group in an image plane of an image taken by the stereo camera, and information on distance at each coordinate are associated; radar distance map information subjected to the processing;
  • the synthesizing means for forming synthetic map information by synthesizing
  • the coordinate system of the radar distance map information inputted to the factory processing means comprises a coordinate transformation means for transforming the reference coordinate system, the.
  • a positioning information forming apparatus forms positioning information that is used in a detection apparatus that detects an object based on an image based on information detected by a radar and an image captured by a stereo camera.
  • Processing means camera distance map information in which a coordinate group in an image plane of an image taken by the stereo camera, and information on distance at each coordinate are associated; radar distance map information subjected to the processing;
  • the coordinate system of the radar distance map information input to the processing means comprises a coordinate transformation means for transforming the reference coordinate system, the.
  • a positioning information forming method for forming positioning information used in a detection device for detecting an object based on an image based on information detected by a radar and an image captured by a stereo camera.
  • a method of processing radar distance map information in which a coordinate group in an image plane of an image based on the information detected by the radar and information on distance at each coordinate are associated with each other;
  • a camera distance map in which a coordinate system of the radar distance map information is converted to a reference coordinate system, and a coordinate group in an image plane of an image captured by the stereo camera is associated with information on distance at each coordinate.
  • the present invention it is possible to provide a positioning information formation device, a detection device, and a positioning information formation method that improve object detection accuracy.
  • Block diagram showing the main configuration of a positioning information forming apparatus according to Embodiment 1 of the present invention Block diagram showing the configuration of the detection apparatus according to Embodiment 1 of the present invention Diagram showing stereo image A diagram showing an example of camera distance map information Figure showing an example of radar distance map information The figure which shows the structure of the detection apparatus based on Embodiment 2 of this invention.
  • Image plane coordinate system (U ', V') when the virtual installation position of the detection device is on the road surface Block diagram showing the configuration of the information processing unit
  • Block diagram showing the configuration of the information processing unit Diagram to explain the coordinate conversion process Diagram to explain the coordinate conversion process Diagram to explain the smoothing process Diagram to explain level adjustment process
  • Block diagram showing a configuration of a detection apparatus according to Embodiment 3 of the present invention Diagram showing a table showing information processing for each object type partial area
  • a diagram schematically showing a smoothing process on a vehicle partial area of camera distance map information Diagram for explaining the reflection intensity characteristics obtained when the object to be detected is a sideways vehicle and a pedestrian
  • FIG. 1 shows a main configuration of positioning information forming apparatus 100 according to Embodiment 1 of the present invention.
  • the positioning information forming apparatus 100 receives “first distance map information” acquired by the first positioning system and “second distance map information” acquired by the second positioning system.
  • the “distance map information” is information in which a coordinate group in an image plane is associated with "information on distance” at each coordinate.
  • the first positioning system includes a stereo camera. Therefore, the first distance map information is camera distance map information calculated from a stereo image captured by the stereo camera.
  • the information regarding a distance” in camera distance map information is a parallax value or a distance value, for example.
  • the second positioning system includes a millimeter wave radar. Therefore, the second distance map information is radar distance map information calculated based on the information detected by the millimeter wave radar.
  • the “information on distance” in the radar distance map information is, for example, a distance value or a reflected power intensity.
  • the positioning information forming apparatus 100 includes a coordinate conversion unit 101, an information processing unit 102, and a combining unit 103.
  • the coordinate conversion unit 101 performs coordinate conversion on the radar distance map information to match the coordinate system of the radar distance map information with the “reference coordinate system”.
  • the “reference coordinate system” is a coordinate system that is used as a reference when combining distance map information input from a plurality of positioning systems in the combining unit 103 described later. In the first embodiment, this “reference coordinate” is a coordinate system of camera distance map information.
  • the information processing unit 102 performs smoothing processing on the radar distance map information. As a result, it is possible to moderate the change of "information on distance" in the radar distance map information.
  • the synthesizing unit 103 synthesizes the camera distance map information and the radar distance map information subjected to the processing process to generate “synthetic map information”.
  • FIG. 2 shows the configuration of a detection apparatus 200 according to Embodiment 1 of the present invention.
  • the detection device 200 includes a positioning information forming device 100.
  • the positioning information forming apparatus 100 detects the coordinate conversion unit 101, the information processing unit 102, the combining unit 103, the stereo camera 201, the millimeter wave radar 202, the distance map information calculation units 203 and 204, and And a unit 205.
  • the stereo camera 201 and the distance map information calculation unit 203 constitute a first positioning system
  • the millimeter wave radar 202 and the distance map information calculation unit 204 constitute a second positioning system.
  • the stereo camera 201 is configured by a plurality of cameras, and outputs camera images (that is, stereo images) captured by the plurality of cameras to the distance map information calculation unit 203.
  • the stereo camera 201 is configured of two cameras. Then, the two cameras are arranged in parallel at a position separated by, for example, 20 centimeters.
  • photographed the vehicle which exists in the position away about 20 meters by the stereo camera 201 of this state is shown by FIG.
  • FIG. 3A shows an image (that is, a left camera image) taken by a camera disposed on the left side toward the imaging direction
  • FIG. 3B a camera disposed on the right side toward the imaging direction
  • the captured image that is, the right camera image
  • the distance map information calculation unit 203 calculates camera distance map information based on the stereo image output from the stereo camera 201. Specifically, the distance map information calculation unit 203 sets the target and the stereo camera 201 on the basis of the shift (i.e., parallax) of the position at which the same target appears in the left camera image and the right camera image. Calculate the separation distance. The distance map information calculation unit 203 calculates camera distance map information by calculating this separation distance for all pixels of the left camera image and the right camera image.
  • the separation distance between the object and the stereo camera 201 can be calculated, for example, by the following equation (1).
  • Z is the distance from the stereo camera to the object [m]
  • B is the camera interval [m]
  • f is the camera focal length [m]
  • Px is the length per pixel in the image horizontal axis direction [M / pixel]
  • d is disparity [pixel].
  • the disparity is calculated, for example, by the following method.
  • One of the left camera image and the right camera image is a reference image, and the other is a reference image.
  • a partial image that is, a partial reference image
  • a search range of a predetermined size for example, about several tens of pixels
  • a partial reference image of the same size as the partial reference image is set while sequentially shifting its position, and the evaluation function is calculated based on the luminance values of the partial reference image and each partial reference image. , Identify a partial reference image and a corresponding partial reference image.
  • the deviation between the partial reference image and the specified partial reference image corresponds to parallax. Since the parallax is calculated by such processing, when the change in luminance value in the partial reference image and the partial reference image is small, the effective parallax can not be obtained. That is, for example, it is difficult to obtain parallax with respect to a shooting target surface with few patterns such as a ceiling or a road surface of a vehicle.
  • FIG. 4 shows an example of camera distance map information.
  • the camera distance map information shown in FIG. 4 is obtained from the right camera image and the left camera image shown in FIG.
  • disparity values are used as “information regarding distance”.
  • the magnitude of the parallax is represented as shading, and the area where the parallax can not be obtained is shown in white because the parallax value is zero.
  • U and V shown in FIG. 4 indicate image plane coordinates which are distinguished from real space coordinates (X, Y, Z). In the image plane coordinate system, each coordinate corresponds to a pixel, and the horizontal direction of the image is defined as U coordinate, and the vertical direction of the image is defined as V.
  • the millimeter wave radar 202 emits a millimeter wave and detects the emitted reflected millimeter wave. Then, the millimeter wave radar 202 outputs the detection result to the distance map information calculation unit 204.
  • the millimeter wave radar 202 is provided with an antenna to which, for example, the FMCW method is applied and which can output radio waves having a narrow beam width. Then, the millimeter wave radar 202 mechanically rotates the antenna and receives the reflected wave.
  • the FMCW method the distance and direction from the millimeter wave radar 202 to the target object, the moving speed of the target object, and the reflected power intensity from the target object can be acquired.
  • the distance map information calculation unit 204 calculates radar distance map information based on the detection result output from the millimeter wave radar 202.
  • FIG. 5 shows an example of radar distance map information.
  • a distance value is used as the "information related to the distance”.
  • distance perspective is expressed as shading.
  • the image plane coordinate system a coordinate system in which the azimuth and the depression angle of the millimeter wave radar 202 are orthogonal axes is used.
  • the coordinate conversion unit 101 performs coordinate conversion on the radar distance map information to match the coordinate system of the camera distance map information with the coordinate system of the radar distance map information.
  • the information processing unit 102 performs smoothing processing on the radar distance map information.
  • the synthesizing unit 103 synthesizes the camera distance map information and the radar distance map information subjected to the processing process to generate “synthetic map information”.
  • the detection unit 205 detects an object captured by the stereo camera 201 based on the “composite map information”.
  • the coordinate conversion unit 101 performs coordinate conversion on the radar distance map information to match the coordinate system of the camera distance map information with the coordinate system of the radar distance map information.
  • the coordinate conversion unit 101 causes the radar distance map information represented by a coordinate system in which the azimuth of the millimeter wave radar 202 and the depression angle are orthogonal axes is represented by an image plane coordinate system (U, V), Coordinate conversion.
  • This coordinate conversion is performed, for example, using the following equation (2).
  • Equation (2) f represents the focal length of the stereo camera, and ⁇ and ⁇ represent the azimuth angle and the depression angle of the millimeter wave radar, respectively.
  • the information processing unit 102 performs smoothing processing on the radar distance map information. Specifically, the information processing unit 102 performs smoothing processing on at least one of the azimuth direction and the depression angle direction of the radar distance map information. Thereby, the change in reflected power intensity in the azimuth direction or the depression angle direction can be made gentle.
  • the smoothing processing is performed on the radar distance map information which is coordinate-converted by the coordinate conversion unit 101.
  • This smoothing process is performed, for example, using a smoothing filter represented by equation (3). Further, the distance of all the coordinates included in the radar distance map information is smoothed by this smoothing process.
  • the positioning characteristic by the millimeter wave radar while the distance measurement accuracy to the object is high compared to the positioning information by the stereo camera, there are cases where it is difficult to determine the object boundary in the azimuth direction and the depression angle direction. This is due to the technical difficulty of reducing the antenna beam width. Therefore, by applying the above-described smoothing processing to the radar distance map information, it is possible to remove the information corresponding to the negative characteristic, so that the radar distance map information in which the information corresponding to the positive characteristic is dominant is acquired can do.
  • the combining unit 103 associates “information on distance” (that is, distance value or reflected power intensity) associated with each coordinate in the radar distance map information subjected to the processing process with each coordinate in the camera distance map information. It is converted to match the "information on distance” (ie, disparity value or distance value) attached. For example, when each coordinate is associated with a parallax value in the camera distance map information, the combining unit 103 converts “information about distance” (that is, distance value or reflected power intensity) into a parallax value. . That is, if necessary, the combining unit 103 matches the type of “information on distance” between the radar distance map information and the camera distance map information.
  • the combining unit 103 combines the camera distance map information and the radar distance map information by synergistically averaging the “distance related information” of the corresponding coordinates between the radar distance map information and the camera distance map information. Thereby, "composite map information" is generated.
  • the detection unit 205 detects an object captured by the stereo camera 201 based on the “composite map information”. For example, when “composite map information” is configured by a parallax distribution in image plane coordinates (U, V), V of “composite map information” is determined based on the installation conditions (installation height, installation angle, etc.) of the stereo camera. From the parallax distribution in which the axis is converted so as to be vertical to the ground, coordinates indicating a similar degree of parallax can be detected as an object. There are various methods for detecting an object from the parallax distribution, but detailed description will be omitted because it is an existing technology.
  • the object detection result obtained in this manner may be output to a display device (not shown) and displayed superimposed on the right image (or left image), for example, or a control device such as a traffic signal control device (see FIG. It may be outputted to (not shown) and utilized.
  • the combining unit 103 combines the camera distance map information and the radar distance map information to generate "combined map information".
  • the composite map information is used in the object detection process in the detection device 200.
  • object detection can be performed based on information obtained by combining camera distance map information and radar distance map information, so object detection accuracy can be improved. That is, by combining camera distance map information and radar distance map information, removal of unnecessary noise due to reflection from the ground or a wall surface can be expected, so the object detection threshold can be set low. Therefore, conventionally, even an object determined to be undetectable can be detected.
  • the combining unit 103 combines the camera distance map information and the radar distance map information by synergistically averaging “information on distance” of the corresponding coordinates between the radar distance map information and the camera distance map information.
  • the coordinate conversion process for radar map information is described as being performed at the front stage of the information processing process, the present invention is not limited to this. Coordinates after the information processing process and before the combining process A conversion process may be performed. That is, the coordinate conversion unit 101 may be provided at the output stage of the information processing unit 102 and at the input stage of the combining unit 103.
  • FIG. 6 shows the configuration of a detection apparatus 300 according to Embodiment 2 of the present invention.
  • the detection device 300 is configured to include a positioning information formation device 400.
  • the positioning information forming apparatus 400 includes coordinate conversion units 401 and 402, information processing units 403 and 404, and a combining unit 405.
  • the coordinate conversion unit 401 performs coordinate conversion on the camera distance map information to match the coordinate system of the camera distance map information with the “reference coordinate system”.
  • the “reference coordinate system” used in the coordinate conversion unit 401 is one of the coordinate axes U ′ of the image plane coordinate system (U ′, V ′) when the virtual installation position of the detection device 300 is on the road surface, and the parallax And a coordinate system defined by FIG. 7 shows an image plane coordinate system (U ', V') when the virtual installation position of the detection device 300 is on the road surface.
  • the coordinate conversion unit 401 performs coordinate conversion processing of camera distance map information in two steps. Details of this process will be described later.
  • the coordinate conversion unit 402 performs coordinate conversion on the radar distance map information to match the coordinate system of the radar distance map information with the “reference coordinate system”.
  • the “reference coordinate system” used in the coordinate conversion unit 402 also has a parallax with one coordinate axis U ′ of the image plane coordinate system (U ′, V ′) when the virtual installation position of the detection device 300 is on the road surface And a coordinate system defined by
  • the coordinate conversion unit 402 performs coordinate conversion processing of radar distance map information in two steps. Details of this process will be described later.
  • the information processing unit 403 performs smoothing processing, level adjustment processing, and normalization processing on camera distance map information that has been coordinate-transformed by the coordinate transformation unit 401.
  • the information processing unit 403 includes a smoothing processing unit 411, a level adjustment unit 412, and a normalization processing unit 413.
  • the smoothing processing unit 411 performs smoothing processing on the camera distance map information that has been coordinate-transformed by the coordinate transformation unit 401.
  • the smoothing processing unit 411 performs smoothing processing only in the parallax axis direction. That is, the smoothing processing unit 411 applies the smoothing filter in the parallax axis direction at an arbitrary U ′ coordinate, and sequentially moves the arbitrary U ′ coordinate to perform the smoothing process on the camera distance map information. Do.
  • the level adjustment unit 412 adjusts the level of camera distance map information by applying a level adjustment filter to the camera distance map information after the smoothing process.
  • the normalization processing unit 413 divides the other level value by the maximum value among the level values associated with each of the (U ′, parallax value) coordinate group included in the camera distance map information after level adjustment. Perform normalization processing.
  • the information processing unit 404 performs smoothing processing, level adjustment processing, and normalization processing on the radar distance map information that has been coordinate-transformed by the coordinate transformation unit 401.
  • the information processing unit 404 includes a smoothing processing unit 421, a level adjustment unit 422, and a normalization processing unit 423.
  • the smoothing processing unit 421 performs smoothing processing on the radar distance map information that has been coordinate-transformed by the coordinate transformation unit 402.
  • the smoothing processing unit 411 performs smoothing processing only in the U ′ axis direction. That is, the smoothing processing unit 421 applies the smoothing filter in the U ′ axis direction at arbitrary parallax coordinates, and sequentially moves the arbitrary parallax coordinates to perform the smoothing process on the radar distance map information. .
  • the level adjustment unit 422 adjusts the level of the radar distance map information by applying a level adjustment filter to the radar distance map information after the smoothing processing.
  • the normalization processing unit 423 divides the other level value by the maximum value among the level values associated with each of the (U ′, parallax value) coordinate group included in the camera distance map information after radar adjustment. Perform normalization processing.
  • the combining unit 405 combines the camera distance map information subjected to the processing and the radar distance map information subjected to the processing to generate “combined map information”.
  • the coordinate conversion unit 401 performs coordinate conversion on the camera distance map information to match the coordinate system of the camera distance map information with the “reference coordinate system”.
  • the “reference coordinate system” used in the coordinate conversion unit 401 is one of the coordinate axes U ′ of the image plane coordinate system (U ′, V ′) when the virtual installation position of the detection device 300 is on the road surface, and the parallax And a coordinate system defined by
  • the coordinate conversion unit 401 performs coordinate conversion processing of camera distance map information in the following two steps.
  • the coordinate conversion unit 401 obtains camera distance map information in image plane coordinates (U, V) obtained using an image captured from the position where the detection apparatus 300 is actually installed (see FIG. 10A). Coordinate transformation is performed by projecting) onto the image plane coordinates (U ', V').
  • a vector u ⁇ (u, v, 1, d) of a coordinate point before coordinate conversion
  • a vector u ⁇ ' (u', v ', 1, d') of a coordinate point after coordinate conversion
  • D represents a transformation matrix including installation parameters (installation height, rotation angle) of the stereo camera
  • S represents a matrix of camera correction parameters (such as camera spacing or focal distance).
  • the coordinate conversion unit 401 calculates a parallax histogram in the V ′ direction at each U ′ coordinate from camera distance map information of the image plane coordinate system (U ′, V ′). In particular, the coordinate conversion unit 401 calculates the parallax histogram by narrowing the range of the V ′ coordinate to a portion corresponding to the image above the road surface. Thereby, coordinate conversion processing to the "reference coordinate system" of camera distance map information is performed. An example of camera distance map information that has been coordinate transformed to the “reference coordinate system” is shown in FIG. 10B.
  • the coordinate conversion unit 402 performs coordinate conversion on the radar distance map information to match the coordinate system of the radar distance map information with the “reference coordinate system”.
  • the “reference coordinate system” used in the coordinate conversion unit 402 also has a parallax with one coordinate axis U ′ of the image plane coordinate system (U ′, V ′) when the virtual installation position of the detection device 300 is on the road surface And a coordinate system defined by
  • the coordinate conversion unit 402 performs coordinate conversion processing of radar distance map information in the following two steps.
  • the coordinate conversion unit 402 detects radar distance map information in which each direction (that is, a direction specified by a pair of azimuth angle and depression angle) is associated with “information about distance” in each direction. Coordinate conversion is performed by projecting onto a plane parallel to the installation plane of (including the installation plane of the detection apparatus 300). An example of the radar distance map information after this coordinate conversion is performed is shown in FIG. 11A.
  • the coordinate conversion unit 402 calculates the reflected power intensity distribution at each U ′ and parallax coordinates from the radar distance map information projected on a plane parallel to the installation plane of the detection device 300. Thereby, coordinate conversion processing to the "reference coordinate system" of radar distance map information is performed.
  • An example of the radar distance map information coordinate-converted to the “reference coordinate system” is shown in FIG. 11B.
  • the calculation process of the reflected power intensity distribution by the coordinate conversion unit 402 is performed using the camera correction parameter matrix S described above. It can be expressed as follows.
  • p ⁇ ' S -1 p ⁇
  • the information processing unit 403 performs smoothing processing, level adjustment processing, and normalization processing on camera distance map information that has been coordinate-transformed by the coordinate transformation unit 401.
  • the smoothing processing unit 411 performs smoothing processing on the camera distance map information that has been coordinate-transformed by the coordinate transformation unit 401.
  • the smoothing processing unit 411 performs smoothing processing only in the parallax axis direction. That is, as shown in FIG. 12A, the smoothing processing unit 411 applies a smoothing filter in an arbitrary U ′ coordinate in the parallax axis direction, and after application of the filter is completed at the arbitrary U ′ coordinate, the following processing is performed. By sequentially moving the filter to the U ′ coordinate, smoothing processing is performed on the entire camera distance map information. An example of the smoothing filter used here is shown in FIG. 12B.
  • the smoothing process by performing the smoothing process only in the parallax axis direction, suppressing the recessive characteristics included in the camera distance map information (that is, the characteristics in which the accuracy of the information related to the distance is lower than the radar distance map information).
  • the dominant characteristic ie, the characteristic with respect to the object boundary in the azimuth direction compared to the radar distance map information.
  • the smoothing filter 501 having a specific filter length is multiplied to the disparity value data string for each U ′ coordinate. This makes it possible to smooth the series change in the parallax axis direction in the camera distance map information.
  • the smoothing filter 501 for example, a Hanning function is used. Assuming that the filter length is ⁇ c, the smoothing filter 501 is expressed by the following equation.
  • the level adjustment unit 412 adjusts the level of camera distance map information by multiplying the camera distance map information after the smoothing processing by the level adjustment filter.
  • the level adjustment filter used here has a characteristic of increasing the coordinate value more as the parallax becomes smaller. Specifically, as shown in FIG. 13A, the level adjustment filter has a shape in which the level value (that is, the weight) of the level adjustment filter monotonously decreases as the parallax increases.
  • the purpose of performing such level adjustment is to match the level of the series corresponding to the parallax regarding each part of the same object. This is because, even between parts of the same object, the series corresponding to the parallax regarding the part far from the part close to and far from the stereo camera 201 becomes smaller.
  • the shapes of the level adjustment filter used in the level adjustment unit 412 and the level adjustment filter used in the level adjustment unit 422 are different. This is also true for the radar distance map information as well as the characteristic in the camera distance map information, even when between the parts of the same object, in the parallax regarding the far part between the near part and the far part from the millimeter wave radar 202 The corresponding reflected power intensity is smaller.
  • the reduction ratio differs between the camera distance map information and the radar distance map information. Therefore, the levels of the camera distance map information and the radar distance map information can be adjusted by performing the level adjustment of the camera distance map information and the radar distance map information using the level adjustment filters of different shapes.
  • the normalization processing unit 413 divides the other level value by the maximum value among the level values associated with each of the (U ′, parallax value) coordinate group included in the camera distance map information after level adjustment. Perform normalization processing.
  • the information processing unit 404 performs smoothing processing, level adjustment processing, and normalization processing on the radar distance map information subjected to coordinate conversion by the coordinate conversion unit 402.
  • the smoothing processing unit 421 performs smoothing processing on the radar distance map information that has been coordinate-transformed by the coordinate transformation unit 402.
  • the smoothing processing unit 421 performs smoothing processing only in the U ′ axis direction. That is, as shown in FIG. 12C, the smoothing processing unit 421 applies the smoothing filter in the U ′ axis direction at an arbitrary parallax coordinate, and after the application of the filter is completed at the arbitrary parallax coordinate, the next parallax is generated. By sequentially moving the filter to the coordinates, smoothing processing is performed on the entire radar distance map information. An example of the smoothing filter used here is shown in FIG. 12D.
  • the smoothing filter 502 having a specific filter length is multiplied to the U 'data string for each disparity coordinate. Thereby, it is possible to smooth the change in the reflected power intensity in the U 'axis direction in the radar distance map information.
  • the smoothing filter 502 for example, a Hanning function is used. Assuming that the filter length is ⁇ r, the smoothing filter 502 is expressed by the following equation.
  • the level adjustment unit 422 adjusts the level of the radar distance map information by applying a level adjustment filter to the radar distance map information after the smoothing processing. As shown in FIG. 13B, the level adjustment unit 422 multiplies the radar distance map information while sequentially shifting the level adjustment filter 601 in the U ′ axis direction. Thus, level adjustment processing is performed on the entire radar distance map information.
  • the level adjustment filter used here has a characteristic of increasing the coordinate value more as the parallax becomes smaller. Specifically, as shown in FIG. 13A, the level adjustment filter has a shape in which the level value (that is, the weight) of the level adjustment filter monotonously decreases as the parallax increases.
  • the purpose of performing such level adjustment is to match the level of the reflected power intensity corresponding to the parallax for each part of the same object. This is because, even between portions of the same object, the reflected power intensity corresponding to the parallax regarding the far portion is smaller in the portion near and far from the millimeter wave radar 202.
  • the normalization processing unit 423 divides the other level value by the maximum value among the level values associated with each of the (U ′, parallax value) coordinate group included in the camera distance map information after radar adjustment. Perform normalization processing.
  • the combining unit 405 combines the camera distance map information subjected to the processing and the radar distance map information subjected to the processing to generate “combined map information”. Specifically, the combining unit 405 multiplies the camera distance map information subjected to the processing process and the radar distance map information subjected to the processing process by multiplying the values associated with the same coordinates. , "Composite map information" is generated.
  • the coordinate conversion unit 401 performs coordinate conversion of the camera distance map information to obtain the coordinate system of the camera distance map information and the “reference coordinate system”. Make a match. Further, the coordinate conversion unit 402 performs coordinate conversion of the radar distance map information to match the coordinate system of the radar distance map information with the “reference coordinate system”.
  • the “reference coordinate system” is defined by one of the coordinate axes U ′ in the image plane coordinate system (U ′, V ′) and the parallax when the virtual installation position of the detection device 300 is on the road surface. It is a coordinate system.
  • the information processing unit 403 applies smoothing processing only to the parallax axis direction to the camera distance map information that has been subjected to coordinate conversion by the coordinate conversion unit 401. Further, the information processing unit 404 subjects the radar distance map information, which has been coordinate-transformed by the coordinate transformation unit 402, to smoothing processing only in the U′-axis direction. Then, the combining unit 405 combines the camera distance map information subjected to the processing and the radar distance map information subjected to the processing to generate “combined map information”.
  • the recessive characteristics included in the camera distance map information that is, characteristics in which the accuracy of the information related to the distance is lower than that of the radar distance map information
  • the recessive characteristics included in the radar distance map information that is, the characteristics whose accuracy regarding the object boundary in the azimuth direction is lower than that of the camera distance map information
  • the object detection accuracy can be improved by using, for object detection, composite information obtained by combining information in which the dominant characteristics are emphasized.
  • the information processing unit 403 performs the smoothing process and the like on all of the area defined by U ′ and the parallax value included in the camera distance map information.
  • the information processing unit 404 uniformly performs the smoothing process and the like on all the areas defined by U ′ and the parallax value included in the radar distance map information.
  • the area defined by U ′ and the parallax value is divided into a plurality of partial areas based on the type of the object having a high appearance frequency, and the smoothing filter Adjust the filter length etc.
  • FIG. 14 shows the configuration of a detection apparatus 700 according to Embodiment 3 of the present invention.
  • the detection device 700 is configured to include a positioning information formation device 800.
  • the positioning information forming apparatus 800 includes information processing units 801 and 802 and a memory 803.
  • the memory 803 holds area designation information.
  • the “area designation information” is each partial area obtained by dividing the area defined by U ′ and the parallax value, which is included in the camera distance map information and the radar distance map information, based on the type of the object having a high appearance frequency , And sometimes referred to as "object type classified partial area”.
  • the area designation information includes partial areas where vehicles are mainly detected (hereinafter may be referred to as “vehicle partial areas”), and pedestrians Includes a partial area (hereinafter sometimes referred to as a “pedestrian partial area”) in which
  • the information processing unit 801 has the same function as the information processing unit 403. However, the information processing unit 801 adjusts the filter length of the smoothing filter for each object type partial area indicated by the area designation information held in the memory 803. Specifically, the information processing unit 801 adjusts the smoothing filter to a filter length adapted to an average size when the vehicle is reflected in the image in the vehicle partial region, while in the pedestrian partial region , Adjust the filter length to match the average size when a person is reflected in the image. That is, the filter length of the smoothing filter in the vehicle partial region is longer than the filter length of the smoothing filter in the pedestrian partial region.
  • the information processing unit 801 may adjust the filter weight for each object type partial area.
  • the information processing unit 802 has the same function as the information processing unit 404. However, the information processing unit 802 adjusts the filter length of the smoothing filter for each object type partial area indicated by the area designation information held in the memory 803. Specifically, the information processing unit 802 adjusts the smoothing filter to a filter length adapted to an average size when the vehicle is reflected in the image in the vehicle partial region, while in the pedestrian partial region , Adjust the filter length to match the average size when a person is reflected in the image. That is, the filter length of the smoothing filter in the vehicle partial region is longer than the filter length of the smoothing filter in the pedestrian partial region.
  • the information processing unit 802 may adjust the filter weight for each object type partial area.
  • FIG. 15 is a diagram showing a table showing information processing for each object type partial area.
  • FIG. 16 is a diagram schematically showing the smoothing process on the vehicle partial area of the camera distance map information.
  • the information processing unit 801 performs smoothing processing, level adjustment processing, and normalization processing on camera distance map information that has been coordinate-converted by the coordinate conversion unit 401.
  • level adjustment processing and normalization processing since it is the same as that of Embodiment 2, the explanation is omitted.
  • the information processing unit 801 subjects the camera distance map information, which has been subjected to coordinate conversion by the coordinate conversion unit 401, to a smoothing process.
  • the information processing unit 801 performs smoothing processing only in the parallax axis direction.
  • the information processing unit 801 adjusts the filter length ⁇ c of the smoothing filter to a filter length adapted to the average size when the vehicle is reflected in the image in the vehicle partial region, while the pedestrian portion In the area, the filter length is adjusted to an average size when a person appears in the image. That is, as shown in FIG. 15, the information processing unit 802 adjusts the filter length ⁇ c long in the vehicle partial region (region (B) in FIG. 15), while the pedestrian partial region (in FIG. In A), the filter length ⁇ c is adjusted to be short.
  • the information processing unit 801 uses filter weights in the vehicle partial area (area (B) in the same figure), while pedestrian partial areas (area (A) in the same figure) Does not use filter weights. Specifically, in the vehicle partial area, as shown in FIG. 16, the information processing unit 801 adjusts the filter weight so that the weight is maximum at the center of the area and monotonously decreases toward the area end. .
  • the information processing unit 802 performs smoothing processing, level adjustment processing, and normalization processing on the radar distance map information that has been coordinate-converted by the coordinate conversion unit 402. About level adjustment processing and normalization processing, since it is the same as that of Embodiment 2, the explanation is omitted.
  • the information processing unit 802 performs smoothing processing on the radar distance map information that has been coordinate-transformed by the coordinate transformation unit 402.
  • the information processing unit 802 performs smoothing processing only in the U ′ axis direction.
  • the information processing unit 802 adjusts the filter length ⁇ r of the smoothing filter to a filter length adapted to the average size when the vehicle is reflected in the image in the vehicle partial region, while the pedestrian portion In the area, the filter length is adjusted to an average size when a person appears in the image. That is, as shown in FIG. 15, the information processing unit 802 adjusts the filter length ⁇ r long in the vehicle partial area (area (B) in FIG. 15) while the pedestrian partial area (in FIG. In A), the filter length ⁇ r is adjusted to be short.
  • the information processing unit 801 uses filter weights in the pedestrian partial area (area (A) in the same figure), while vehicle partial areas (area (B) in the same figure) Does not use filter weights.
  • the filter weights used here are increased by the commonly used equation.
  • FIG. 17 is a diagram for explaining the reflection intensity characteristics obtained when the object to be detected is a vehicle and a pedestrian.
  • FIG. 17A shows an image in which a sideways vehicle is shown
  • FIG. 17B shows an image in which a person is shown.
  • FIG. 17C shows the reflection intensity characteristics obtained from the objects shown in FIGS. 17A and 17B.
  • peak P1001 is a reflection intensity peak obtained from a vehicle
  • peak P1002 is a reflection intensity peak obtained from a person.
  • peak P1002 is considerably smaller than peak P1001. This is because the reflection cross-sectional area of a person is smaller than that of a vehicle due to the effect of large surface irregularities and the like.
  • the appearance frequency of the vehicle and the appearance frequency of the person are biased depending on the area. That is, as shown in FIG. 19, when the detection device 700 is installed at an intersection, pedestrians are hardly detected at the intersection central portion. And a pedestrian is mainly detected on a pedestrian crossing and a sidewalk. Therefore, the area near the intersection can be divided into a vehicle area (area (B) in FIG. 19) and a pedestrian area (area (A) in FIG. 19), as shown in FIG.
  • the degree of matching between the type of the detection target object and the filter length of the smoothing filter affects the accuracy of the object detection accuracy.
  • the information processing unit 801 and the information processing unit 802 adjust the filter length and the filter weight of the smoothing filter for each object type partial area indicated by the area designation information held in the memory 803. Do. By doing this, the probability of occurrence of an object detection error can be reduced. In particular, by adjusting the filter length, the occurrence of detection errors in which a plurality of pedestrians are detected as a single pedestrian or detection errors in which a single vehicle is detected as a plurality of vehicles is reduced. be able to. Further, by performing the smoothing process using the filter weights as shown in FIG. 16, it is possible to reduce detection errors in which a single vehicle is detected as a plurality of vehicles.
  • the area designation information displays a map of the location where the detection device 700 is installed on a display device (not shown), and the operator of the detection device 700 selects a pedestrian area and a vehicle area from the map displayed on the display device. And may be generated according to the selection result, or may be calculated based on map information to which area information is given in advance and location information where the detection apparatus 700 is installed.
  • the millimeter wave radar includes an antenna having a narrow beam width in a direction parallel to the road surface, and mechanically rotates the antenna parallel to the road surface to detect a reflected radio wave. Furthermore, an antenna may be provided which has a narrow beam width in the direction perpendicular to the road surface. In that case, radar distance map information similar to each of the above embodiments can be obtained by mechanically moving the antenna in the direction perpendicular to the road surface in addition to the rotation described above, and the present invention is applied. It is possible. Alternatively, the same applies to a radar whose beam width is narrower than that of a millimeter wave radar, for example, a laser radar.
  • each functional block employed in the description of the aforementioned embodiment may typically be implemented as an LSI constituted by an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include some or all. Although an LSI is used here, it may be called an IC, a system LSI, a super LSI, or an ultra LSI depending on the degree of integration.
  • the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible.
  • a programmable field programmable gate array FPGA
  • a reconfigurable processor may be used which can reconfigure connection and setting of circuit cells in the LSI.
  • the positioning information formation apparatus, the detection apparatus, and the positioning information formation method of the present invention are useful as those for improving the object detection accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

 物体検出精度を向上する測位情報形成装置。この装置において、合成部(103)が、カメラ距離マップ情報とレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。この合成マップ情報は、検出装置(200)において物体検出処理に用いられる。こうすることで、カメラ距離マップ情報とレーダ距離マップ情報とを合成した情報に基づいて物体検出することができるので、物体検出精度を向上することができる。すなわち、カメラ距離マップ情報とレーダ距離マップ情報とを合成することにより、地面又は壁面等からの反射による不要なノイズの除去が期待できるので、物体検出閾値を低く設定することができる。このため、従来では、検出不可能と判断された物体であっても、検出することができる。

Description

測位情報形成装置、検出装置、及び測位情報形成方法
 本発明は、測位情報形成装置、検出装置、及び測位情報形成方法に関する。
 従来、ミリ波レーダ及びステレオカメラの両方を利用した物体測位検出装置が提案されている。例えば、第1の物体測位検出装置は、先ず、ステレオカメラによって撮影されたステレオ画像から算出されたカメラ測位情報に基づいて検出対象物体の候補を検出する。次に、物体測位検出装置は、その検出対象物体候補の測位情報を、ミリ波レーダで得たレーダ測位情報によって補正する。一方、第2の物体測位検出装置は、最初に、ミリ波レーダによって物体存在方向を検出し、次に、ステレオカメラのカメラ測位情報の内、その物体存在方向のみを用いて、検出対象物体を検出する。
 例えば、特許文献1に開示されている物体検出装置は、後者の第2の物体測位検出装置と同様の方式であり、ミリ波レーダによって物体存在方向を検出して、検出した角度方向と重なるカメラ測位情報のみに物体検出処理を行っている。
 すなわち、従来のミリ波レーダ及びステレオカメラの両方を利用した物体検出方法では、ミリ波レーダ及びステレオカメラの一方を用いて物体を検出した後に、もう一方によって得られる情報を補足的に用いている。
特開2001-296357号公報
 しかしながら、上記した従来の物体検出方法によっては、最初の検出自体の精度が低い場合、補足情報を用いたとしても検出対象物体を検出できない可能性が高い。すなわち、例えば、上記特許文献1に開示されている物体検出装置では、ミリ波レーダによって物体の存在が検出された範囲のみに基づいて、ステレオカメラを用いて物体検出を行う。このため、例えば、物体検出装置が路肩に設置され且つ車両を検出対象物体とした場合、物体検出装置が車両斜め後方に位置しているときには、物体検出装置から放射されて車両で反射されたミリ波の電力強度が想定よりも弱くなることがある。この場合、ミリ波レーダによっては、車両の存在すら検出されないので、ステレオカメラを補足的に利用しても、最終的に車両が検出されない可能性がある。
 本発明の目的は、物体検出精度を向上する測位情報形成装置、検出装置、及び測位情報形成方法を提供することである。
 本発明の一態様の測位情報形成装置は、レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成装置であって、前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をする加工処理手段と、前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する合成手段と、前記加工処理手段の入力段に設けられ、前記加工処理手段へ入力されるレーダ距離マップ情報の座標系を、基準座標系へ変換する座標変換手段と、を具備する。
 本発明の一態様の測位情報形成装置は、レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成装置であって、前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をする加工処理手段と、前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する合成手段と、前記加工処理手段の出力段で且つ前記合成手段の入力段に設けられ、前記加工処理手段へ入力されるレーダ距離マップ情報の座標系を、基準座標系へ変換する座標変換手段と、を具備する。
 本発明の一態様の測位情報形成方法は、レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成方法であって、前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をし、前記レーダ距離マップ情報の座標系を、基準座標系へ変換し、前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する。
 本発明によれば、物体検出精度を向上する測位情報形成装置、検出装置、及び測位情報形成方法を提供することができる。
本発明の実施の形態1に係る測位情報形成装置の主要構成を示すブロック図 本発明の実施の形態1に係る検出装置の構成を示すブロック図 ステレオ画像を示す図 カメラ距離マップ情報の一例を示す図 レーダ距離マップ情報の一例を示す図 本発明の実施の形態2に係る検出装置の構成を示す図 検出装置の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)を示す図 情報加工部の構成を示すブロック図 情報加工部の構成を示すブロック図 座標変換処理の説明に供する図 座標変換処理の説明に供する図 平滑化処理の説明に供する図 レベル調整処理の説明に供する図 本発明の実施の形態3に係る検出装置の構成を示すブロック図 各物体種別別部分領域に対する情報加工処理を示すテーブルを示す図 カメラ距離マップ情報の車両部分領域に対する平滑化処理を模式的に示す図 検出対象物体が横を向いた車両、及び歩行者であるときに得られる、反射強度特性の説明に供する図 車両画像の輝度変化特性の説明に供する図 車両領域及び歩行者領域の説明に供する図
 以下、本発明の実施の形態について図面を参照して詳細に説明する。なお、実施の形態において、同一の構成要素には同一の符号を付し、その説明は重複するので省略する。
 [実施の形態1]
 [測位情報形成装置の主要構成]
 図1は、本発明の実施の形態1に係る測位情報形成装置100の主要構成を示す。測位情報形成装置100は、第1の測位系によって取得された「第1の距離マップ情報」と、第2の測位系で取得された「第2の距離マップ情報」とを入力とする。「距離マップ情報」とは、画像平面内の座標群と、各座標における「距離に関する情報」とが対応付けられた情報である。ここでは、第1の測位系は、ステレオカメラを含む。従って、第1の距離マップ情報は、そのステレオカメラによって撮影されたステレオ画像から算出されたカメラ距離マップ情報である。そして、カメラ距離マップ情報における「距離に関する情報」とは、例えば、視差値、又は、距離値である。一方、第2の測位系は、ミリ波レーダを含む。従って、第2の距離マップ情報は、そのミリ波レーダによって検出された情報に基づいて算出されたレーダ距離マップ情報である。そして、レーダ距離マップ情報における「距離に関する情報」とは、例えば、距離値、又は、反射電力強度である。
 図1において、測位情報形成装置100は、座標変換部101と、情報加工部102と、合成部103とを有する。
 座標変換部101は、レーダ距離マップ情報を座標変換することにより、レーダ距離マップ情報の座標系と「基準座標系」とを一致させる。「基準座標系」とは、後述の合成部103において、複数の測位系から入力された距離マップ情報を合成する際に基準とする座標系である。実施の形態1では、この「基準座標」は、カメラ距離マップ情報の座標系である。
 情報加工部102は、レーダ距離マップ情報に対して平滑化処理を施す。これにより、レーダ距離マップ情報における「距離に関する情報」の変化を緩やかにすることができる。
 合成部103は、カメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。
 [検出装置200の構成]
 図2は、本発明の実施の形態1に係る検出装置200の構成を示す。検出装置200は、測位情報形成装置100を含んでいる。図2において、測位情報形成装置100は、座標変換部101と、情報加工部102と、合成部103と、ステレオカメラ201と、ミリ波レーダ202と、距離マップ情報算出部203,204と、検出部205とを有する。ステレオカメラ201と距離マップ情報算出部203とは、第1の測位系を構成し、ミリ波レーダ202と距離マップ情報算出部204とは、第2の測位系を構成する。
 ステレオカメラ201は、複数のカメラから構成され、当該複数のカメラで撮影したカメラ画像(つまり、ステレオ画像)を距離マップ情報算出部203へ出力する。
 例えば、ステレオカメラ201は、2つのカメラで構成される。そして、当該2つのカメラは、例えば、20センチメートル度離れた位置に並列配置される。この状態のステレオカメラ201によって20メートル程度離れた位置に存在する車両を撮影した画像が、図3に示されている。図3Aは、撮影方向に向かって左側に配設されたカメラによって撮影された画像(つまり、左カメラ画像)が示され、図3Bには、撮影方向に向かって右側に配設されたカメラによって撮影された画像(つまり、右カメラ画像)が示されている。
 距離マップ情報算出部203は、ステレオカメラ201から出力されたステレオ画像に基づいて、カメラ距離マップ情報を算出する。具体的には、距離マップ情報算出部203は、左カメラ画像と右カメラ画像とにおいて同一対象物が映っている位置のズレ(つまり、視差)に基づいて、その対象物とステレオカメラ201との離間距離を算出する。距離マップ情報算出部203は、左カメラ画像及び右カメラ画像の全画素についてこの離間距離を算出することにより、カメラ距離マップ情報を算出する。
 対象物とステレオカメラ201との離間距離は、例えば、次の式(1)によって算出することができる。
Figure JPOXMLDOC01-appb-M000001
 ただし、Zは、ステレオカメラから対象物までの距離[m]、Bは、カメラ間隔[m]、fは、カメラの焦点距離[m]、Pxは、画像水平軸方向における1画素あたりの長さ[m/pixel]、dは、視差[pixel]である。
 より詳細には、視差は、例えば、次の方法によって算出される。左カメラ画像及び右カメラ画像の内の一方を基準画像、もう一方を参照画像とする。先ず、基準画像から所定サイズ(例えば、4×4画素)の部分画像(つまり、部分基準画像)を設定する。また、参照画像内で、所定サイズの探索範囲(例えば、数十画素程度)を設定する。そして、この探索範囲内で、部分基準画像と同じサイズの部分参照画像をその位置を順次ずらしながら設定し、部分基準画像と各部分参照画像との輝度値に基づいて評価関数を計算することにより、部分基準画像と対応する部分参照画像を特定する。この部分基準画像と特定された部分参照画像とのズレが視差に対応する。このような処理によって視差が算出されるので、部分基準画像及び部分参照画像における輝度値変化が少ない場合には、有効な視差が求まらない。すなわち、例えば、車両の天井又は路面のような模様の少ない撮影対象面に関しては、視差が得ることが難しい。
 図4は、カメラ距離マップ情報の一例を示す。図4に示されるカメラ距離マップ情報は、図3に示される右カメラ画像及び左カメラ画像から求められたものである。図4においては、「距離に関する情報」として、視差値が用いられている。そして、視差の大小が濃淡として表されており、視差の求められない領域は、視差値がゼロとされるので、白色で示されている。また、図4に示されるU,Vは、実空間座標(X,Y,Z)と区別される、画像平面座標を示している。画像平面座標系において、各座標は、ピクセルに対応し、画像横方向をU座標,画像縦方向をVと定義している。
 図2に戻り、ミリ波レーダ202は、ミリ波を放射し、当該放出されたミリ波の反射波を検出する。そして、ミリ波レーダ202は、検出結果を距離マップ情報算出部204へ出力する。
 例えば、ミリ波レーダ202は、例えば、FMCW方式が適用され、ビーム幅が狭い電波を出力できるアンテナを具備する。そして、ミリ波レーダ202は、そのアンテナを機械的に回転させた上で反射波を受信する。因みに、FMCW方式によれば、ミリ波レーダ202から対象物体までの距離及び方向、対象物体の移動速度、並びに、対象物体からの反射電力強度を取得することができる。
 距離マップ情報算出部204は、ミリ波レーダ202から出力された検出結果に基づいて、レーダ距離マップ情報を算出する。
 図5は、レーダ距離マップ情報の一例を示す。図5においては、「距離に関する情報」として、距離値が用いられている。そして、距離の遠近が濃淡として表されている。また、図5では、画像平面座標系として、ミリ波レーダ202の方位及び俯角を直交軸とした座標系が用いられている。
 図2に戻り、座標変換部101は、レーダ距離マップ情報を座標変換することにより、カメラ距離マップ情報の座標系とレーダ距離マップ情報の座標系とを一致させる。
 情報加工部102は、レーダ距離マップ情報に対して平滑化処理を施す。
 合成部103は、カメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。
 検出部205は、「合成マップ情報」に基づいて、ステレオカメラ201によって撮影された物体を検出する。
 [検出装置200の動作]
 以上の構成を有する検出装置200の動作について説明する。ここでは、特に、座標変換処理、情報加工処理、距離マップ情報合成処理、及び検出処理について主に説明する。
 <座標変換処理>
 座標変換部101は、レーダ距離マップ情報を座標変換することにより、カメラ距離マップ情報の座標系とレーダ距離マップ情報の座標系とを一致させる。具体的には、座標変換部101は、ミリ波レーダ202の方位及び俯角を直交軸とした座標系で表されたレーダ距離マップ情報を、画像平面座標系(U,V)で表すように、座標変換する。この座標変換は、例えば、以下の式(2)を用いて行われる。
Figure JPOXMLDOC01-appb-M000002
 ただし、式(2)において、fは、ステレオカメラの焦点距離を表し、θ及びφは、ミリ波レーダの方位角及び俯角をそれぞれ表す。
 <情報加工処理>
 情報加工部102は、レーダ距離マップ情報に対して平滑化処理を施す。具体的には、情報加工部102は、レーダ距離マップ情報の方位方向又は俯角方向の少なくとも一方に対して、平滑化処理を施す。これにより、方位方向又は俯角方向の反射電力強度変化を緩やかにすることができる。ここでは、座標変換部101にて座標変換されたレーダ距離マップ情報に対して平滑化処理が施される。
 この平滑化処理は、例えば、式(3)で示される平滑化フィルタを用いて行われる。また、この平滑化処理により、レーダ距離マップ情報に含まれる全座標の距離が平滑化される。
Figure JPOXMLDOC01-appb-M000003
 ここで、ミリ波レーダによる測位特性としては、ステレオカメラによる測位情報と比較して、対象物までの距離測定精度が高い一方、方位方向及び俯角方向における物体境界判別の難しいことがある。これは、アンテナビーム幅を狭める技術的な困難さに起因する。従って、上記した平滑化処理をレーダ距離マップ情報に対して施すことにより、マイナスの特性に対応する情報を除去することができるので、プラスの特性に対応する情報が優勢なレーダ距離マップ情報を取得することができる。
 <距離マップ情報合成処理>
 合成部103は、加工処理が施されたレーダ距離マップ情報において各座標と対応付けられている「距離に関する情報」(つまり、距離値又は反射電力強度)を、カメラ距離マップ情報において各座標と対応付けられている「距離に関する情報」(つまり、視差値、又は、距離値)と一致させるために変換する。例えば、カメラ距離マップ情報において各座標と視差値とが対応づけられている場合には、合成部103は、「距離に関する情報」(つまり、距離値又は反射電力強度)を、視差値に変換する。すなわち、合成部103は、必要であれば、レーダ距離マップ情報とカメラ距離マップ情報との間で、「距離に関する情報」の種類を一致させる。
 そして、合成部103は、レーダ距離マップ情報とカメラ距離マップ情報との間で対応座標の「距離に関する情報」を相乗平均することにより、カメラ距離マップ情報と、レーダ距離マップ情報とを合成する。これにより、「合成マップ情報」が生成される。
 <物体検出処理>
 検出部205は、「合成マップ情報」に基づいて、ステレオカメラ201によって撮影された物体を検出する。例えば、「合成マップ情報」が画像平面座標(U,V)における視差分布によって構成される場合には、ステレオカメラの設置条件(設置高、設置角等)に基づいて「合成マップ情報」のV軸を地面と鉛直になるように座標変換された視差分布から、同程度の視差を示す座標を、物体として検出することができる。視差分布から物体を検出する方法は種々存在するが、既存技術のため詳細な説明は省略する。こうして得られる物体検出結果は、例えば、表示装置(図示せず)に出力されて、右画像(又は左画像)と重畳されて表示されても良いし、交通信号制御装置などの制御装置(図示せず)へ出力されて活用されても良い。
 以上のように本実施の形態によれば、測位情報形成装置100において、合成部103が、カメラ距離マップ情報とレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。この合成マップ情報は、検出装置200において物体検出処理に用いられる。
 こうすることで、カメラ距離マップ情報とレーダ距離マップ情報とを合成した情報に基づいて物体検出することができるので、物体検出精度を向上することができる。すなわち、カメラ距離マップ情報とレーダ距離マップ情報とを合成することにより、地面又は壁面等からの反射による不要なノイズの除去が期待できるので、物体検出閾値を低く設定することができる。このため、従来では、検出不可能と判断された物体であっても、検出することができる。
 また、合成部103は、レーダ距離マップ情報とカメラ距離マップ情報との間で対応座標の「距離に関する情報」を相乗平均することにより、カメラ距離マップ情報と、レーダ距離マップ情報とを合成する。
 こうすることで、カメラ距離マップ情報において視差が得られた座標にのみ値が残るので、物体境界の判定が容易になる。
 なお、以上の説明では、レーダマップ情報に対する座標変換処理を情報加工処理の前段に行うものとして説明したが、これに限定されるものではなく、情報加工処理の後で且つ合成処理の前に座標変換処理が行われても良い。すなわち、座標変換部101は、情報加工部102の出力段で且つ合成部103の入力段に設けられても良い。
 [実施の形態2]
 [検出装置300の構成]
 図6は、本発明の実施の形態2に係る検出装置300の構成を示す。図6において、検出装置300は、測位情報形成装置400を含んで構成されている。
 図6において、測位情報形成装置400は、座標変換部401,402と、情報加工部403,404と、合成部405とを有する。
 座標変換部401は、カメラ距離マップ情報を座標変換することにより、カメラ距離マップ情報の座標系と「基準座標系」とを一致させる。座標変換部401において用いられる「基準座標系」は、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)の内の一方の座標軸U’と、視差とによって規定される座標系である。図7に、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)について示す。
 具体的には、座標変換部401は、2つのステップによってカメラ距離マップ情報の座標変換処理を行う。この処理の詳細については、後述する。
 座標変換部402は、レーダ距離マップ情報を座標変換することにより、レーダ距離マップ情報の座標系と「基準座標系」とを一致させる。座標変換部402において用いられる「基準座標系」も、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)の内の一方の座標軸U’と、視差とによって規定される座標系である。
 具体的には、座標変換部402は、2つのステップによってレーダ距離マップ情報の座標変換処理を行う。この処理の詳細については、後述する。
 情報加工部403は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。
 具体的には、図8に示すように、情報加工部403は、平滑化処理部411と、レベル調整部412と、正規化処理部413とを有する。
 平滑化処理部411は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理を施す。平滑化処理部411は、視差軸方向のみに平滑化処理を施す。すなわち、平滑化処理部411は、任意のU’座標において平滑化フィルタを視差軸方向に適用し、その任意のU’座標を順次移動することにより、カメラ距離マップ情報に対して平滑化処理を行う。
 レベル調整部412は、平滑化処理後のカメラ距離マップ情報に対して、レベル調整フィルタを適用することにより、カメラ距離マップ情報のレベルを調整する。
 正規化処理部413は、レベル調整後のカメラ距離マップ情報に含まれる(U’,視差値)座標群のそれぞれに対応付けられたレベル値の内の最大値によって、他のレベル値を除算することにより、正規化処理を行う。
 情報加工部404は、座標変換部401にて座標変換された、レーダ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。
 具体的には、図9に示すように、情報加工部404は、平滑化処理部421と、レベル調整部422と、正規化処理部423とを有する。
 平滑化処理部421は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、平滑化処理を施す。平滑化処理部411は、U’軸方向のみに平滑化処理を施す。すなわち、平滑化処理部421は、任意の視差座標において平滑化フィルタをU’軸方向に適用し、その任意の視差座標を順次移動することにより、レーダ距離マップ情報に対して平滑化処理を行う。
 レベル調整部422は、平滑化処理後のレーダ距離マップ情報に対して、レベル調整フィルタを適用することにより、レーダ距離マップ情報のレベルを調整する。
 正規化処理部423は、レーダ調整後のカメラ距離マップ情報に含まれる(U’,視差値)座標群のそれぞれに対応付けられたレベル値の内の最大値によって、他のレベル値を除算することにより、正規化処理を行う。
 合成部405は、加工処理が施されたカメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。
 [検出装置300の動作]
 以上の構成を有する検出装置300の動作について説明する。ここでは、主に、測位情報形成装置400の動作について説明する。
 <座標変換処理1>
 座標変換部401は、カメラ距離マップ情報を座標変換することにより、カメラ距離マップ情報の座標系と「基準座標系」とを一致させる。座標変換部401において用いられる「基準座標系」は、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)の内の一方の座標軸U’と、視差とによって規定される座標系である。
 具体的には、座標変換部401は、次の2つのステップによってカメラ距離マップ情報の座標変換処理を行う。
 (1)座標変換部401は、検出装置300が実際に設置されている位置から撮影された画像を用いて得られた、画像平面座標(U,V)内のカメラ距離マップ情報(図10A参照)を、画像平面座標(U’,V’)に投影することにより、座標変換を行う。
 具体的には、座標変換前の座標点のベクトルu^=(u,v,1,d)、座標変換後の座標点のベクトルu^’=(u’,v’,1,d’)とすると、u^’=S-1DSu^の関係が成り立つ。ここで、Dは、ステレオカメラの設置パラメータ(設置高、回転角度)を含む変換行列を表し、Sは、カメラ補正パラメータ(カメラ間隔又は焦点距離など)の行列を表す。
 (2)座標変換部401は、画像平面座標系(U’,V’)のカメラ距離マップ情報から、各U’座標におけるV’方向の視差ヒストグラムを算出する。特に、座標変換部401は、V’座標の範囲を路面より上方の画像に対応する部分に絞って、視差ヒストグラムを算出する。これにより、カメラ距離マップ情報の「基準座標系」への座標変換処理が行われる。「基準座標系」へ座標変換されたカメラ距離マップ情報の一例が、図10Bに示されている。
 (u’,v’)座標における視差をd(u’,v’)、(u’,d)座標における級数をN(u’,d)とすると、d(u’,v’)からN(u’,d)への変換は、次のように表される。
 for(i=0;i<n;i++){for(j=0;j<m;j++){N(i,d(i,j))++;}}
 ここで、n、mは、U’座標の範囲及びV’座標の範囲をそれぞれ表す。
 <座標変換処理2>
 座標変換部402は、レーダ距離マップ情報を座標変換することにより、レーダ距離マップ情報の座標系と「基準座標系」とを一致させる。座標変換部402において用いられる「基準座標系」も、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)の内の一方の座標軸U’と、視差とによって規定される座標系である。
 具体的には、座標変換部402は、次の2つのステップによってレーダ距離マップ情報の座標変換処理を行う。
 (1)座標変換部402は、各方向(つまり、方位角及び俯角のペアにより特定される方向)と各方向の「距離に関する情報」とが対応付けられたレーダ距離マップ情報を、検出装置300の設置平面と平行な面(検出装置300の設置平面も含まれる)に投影することにより、座標変換を行う。この座標変換が行われた後のレーダ距離マップ情報の一例が、図11Aに示されている。
 (2)座標変換部402は、検出装置300の設置平面と平行な面に投影されたレーダ距離マップ情報から、各U’、視差座標における反射電力強度分布を算出する。これにより、レーダ距離マップ情報の「基準座標系」への座標変換処理が行われる。「基準座標系」へ座標変換されたレーダ距離マップ情報の一例が、図11Bに示されている。
 ここで、ステレオカメラ201の設置位置及び角度及びミリ波レーダ202の設置位置及び角度が一致すると仮定すれば、座標変換部402による反射電力強度分布の算出処理は、前述のカメラ補正パラメータ行列Sを用いて、次のように表すことができる。
 p^’=S-1p^
 ここで、ベクトルp^=(x,0,z,1)は、検出装置300の設置平面と平行な面の座標(x,z)を表し、ベクトルp^’=(u’,0,1,d)は、U’と視差値とから規定される平面内の座標(u’,d)を表す。
 <情報加工処理1>
 情報加工部403は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。
 (平滑化処理)
 平滑化処理部411は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理を施す。平滑化処理部411は、視差軸方向のみに平滑化処理を施す。すなわち、平滑化処理部411は、図12Aに示すように、任意のU’座標において平滑化フィルタを視差軸方向に適用し、その任意のU’座標においてフィルタの適用が完了した後に、次のU’座標へフィルタを順次移動することにより、カメラ距離マップ情報の全体に対して平滑化処理を行う。ここで用いられる平滑化フィルタの一例が、図12Bに示されている。
 このように、視差軸方向のみに平滑化処理を施すことにより、カメラ距離マップ情報に含まれる劣性の特性(つまり、距離に関する情報の精度がレーダ距離マップ情報に比べて低い特性)を抑制することができると共に、優性の特性(つまり、方位方向の物体境界に関する精度がレーダ距離マップ情報に比べて特性)を強調することができる。
 詳細には、図12Aに示すように、特定のフィルタ長を持つ平滑化フィルタ501を、U’座標ごとの視差値データ列に対して掛け合わせる。これにより、カメラ距離マップ情報における、視差軸方向の級数変化を滑らかにすることができる。
 平滑化フィルタ501としては、例えば、ハニング関数を使用する。フィルタ長をλcとすると、平滑化フィルタ501は、次の式で表される。
Figure JPOXMLDOC01-appb-M000004
 式(4)を図示すると、図12Bのような形状になる。
 そして、平滑化前後の座標値をそれぞれ、N(u’,d)、N’(u’,d)とすると、式(5)で表せられる関係が成り立つ。
Figure JPOXMLDOC01-appb-M000005
 (レベル調整処理)
 レベル調整部412は、平滑化処理後のカメラ距離マップ情報に対して、レベル調整フィルタを掛け合わせることにより、カメラ距離マップ情報のレベルを調整する。ここで用いられるレベル調整フィルタは、視差が小さくなるに従って座標値をより増加させる特性を有している。具体的には、図13Aに示すように、レベル調整フィルタは、視差が増加するに従って、レベル調整フィルタのレベル値(つまり、重み)が単調減少する形状を有している。
 このようなレベル調整を行う目的は、同一物体の各部分に関する視差に対応する級数のレベルを合わせることである。これは、同一物体の部分の間であっても、ステレオカメラ201から近い部分と、遠い部分とでは、遠い部分に関する視差に対応する級数がより小さくなるからである。
 ここで、図13Aに示すように、レベル調整部412にて用いられるレベル調整フィルタと、レベル調整部422にて用いられるレベル調整フィルタとでは、形状が異なっている。これは、レーダ距離マップ情報においても、カメラ距離マップ情報における特性と同様に、同一物体の部分の間であっても、ミリ波レーダ202から近い部分と、遠い部分とでは、遠い部分に関する視差に対応する反射電力強度がより小さくなる。しかしながら、カメラ距離マップ情報と、レーダ距離マップ情報とでは、減少比率が異なる。従って、異なる形状のレベル調整フィルタを用いて、カメラ距離マップ情報及びレーダ距離マップ情報のレベル調整を行うことにより、カメラ距離マップ情報とレーダ距離マップ情報とのレベルを調整することができる。
 (正規化処理)
 正規化処理部413は、レベル調整後のカメラ距離マップ情報に含まれる(U’,視差値)座標群のそれぞれに対応付けられたレベル値の内の最大値によって、他のレベル値を除算することにより、正規化処理を行う。
 <情報加工処理2>
 情報加工部404は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。
 (平滑化処理)
 平滑化処理部421は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、平滑化処理を施す。平滑化処理部421は、U’軸方向のみに平滑化処理を施す。すなわち、平滑化処理部421は、図12Cに示すように、任意の視差座標において平滑化フィルタをU’軸方向に適用し、その任意の視差座標においてフィルタの適用が完了した後に、次の視差座標へフィルタを順次移動することにより、レーダ距離マップ情報の全体に対して平滑化処理を行う。ここで用いられる平滑化フィルタの一例が、図12Dに示されている。
 このように、U’軸方向のみに平滑化処理を施すことにより、レーダ距離マップ情報に含まれる劣性の特性(つまり、方位方向の物体境界に関する精度がカメラ距離マップ情報に比べて低い特性)を抑制することができると共に、優性の特性(つまり、距離に関する情報の精度がカメラ距離マップ情報に比べて高い特性)を強調することができる。
 詳細には、図12Cに示すように、特定のフィルタ長を持つ平滑化フィルタ502を、視差座標ごとのU’データ列に対して掛け合わせる。これにより、レーダ距離マップ情報における、U’軸方向の反射電力強度変化を滑らかにすることができる。
 平滑化フィルタ502としては、例えば、ハニング関数を使用する。フィルタ長をλrとすると、平滑化フィルタ502は、次の式で表される。
Figure JPOXMLDOC01-appb-M000006
 式(6)を図示すると、図12Dのような形状になる。
 そして、平滑化前後の座標値をそれぞれ、P(u’,d)、P’(u’,d)とすると、式(6)で表せられる関係が成り立つ。
Figure JPOXMLDOC01-appb-M000007
 (レベル調整処理)
 レベル調整部422は、平滑化処理後のレーダ距離マップ情報に対して、レベル調整フィルタを適用することにより、レーダ距離マップ情報のレベルを調整する。レベル調整部422は、図13Bに示すように、レベル調整フィルタ601をU’軸方向に順次ずらしながら、レーダ距離マップ情報に掛け合わせる。これにより、レーダ距離マップ情報の全体に対してレベル調整処理が施される。ここで用いられるレベル調整フィルタは、視差が小さくなるに従って座標値をより増加させる特性を有している。具体的には、図13Aに示すように、レベル調整フィルタは、視差が増加するに従って、レベル調整フィルタのレベル値(つまり、重み)が単調減少する形状を有している。
 このようなレベル調整を行う目的は、同一物体の各部分に関する視差に対応する反射電力強度のレベルを合わせることである。これは、同一物体の部分の間であっても、ミリ波レーダ202から近い部分と、遠い部分とでは、遠い部分に関する視差に対応する反射電力強度がより小さくなるからである。
 (正規化処理)
 正規化処理部423は、レーダ調整後のカメラ距離マップ情報に含まれる(U’,視差値)座標群のそれぞれに対応付けられたレベル値の内の最大値によって、他のレベル値を除算することにより、正規化処理を行う。
 <合成処理>
 合成部405は、加工処理が施されたカメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。具体的には、合成部405は、加工処理が施されたカメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報との間で、同一座標に対応付けられた値を掛け合わせることにより、「合成マップ情報」を生成する。
 以上のように本実施の形態によれば、測位情報形成装置400において、座標変換部401は、カメラ距離マップ情報を座標変換することにより、カメラ距離マップ情報の座標系と「基準座標系」とを一致させる。また、座標変換部402は、レーダ距離マップ情報を座標変換することにより、レーダ距離マップ情報の座標系と「基準座標系」とを一致させる。そして、「基準座標系」は、検出装置300の仮想設置位置を路面上とした場合の画像平面座標系(U’,V’)の内の一方の座標軸U’と、視差とによって規定される座標系である。
 そして、情報加工部403は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、視差軸方向のみに平滑化処理を施す。また、情報加工部404は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、U’軸方向のみに平滑化処理を施す。そして、合成部405は、加工処理が施されたカメラ距離マップ情報と、加工処理が施されたレーダ距離マップ情報とを合成し、「合成マップ情報」を生成する。
 こうすることで、視差軸方向のみに平滑化処理を施すことにより、カメラ距離マップ情報に含まれる劣性の特性(つまり、距離に関する情報の精度がレーダ距離マップ情報に比べて低い特性)を抑制することができると共に、優性の特性(つまり、方位方向の物体境界に関する精度がレーダ距離マップ情報に比べて特性)を強調することができる。また、U’軸方向のみに平滑化処理を施すことにより、レーダ距離マップ情報に含まれる劣性の特性(つまり、方位方向の物体境界に関する精度がカメラ距離マップ情報に比べて低い特性)を抑制することができると共に、優性の特性(つまり、距離に関する情報の精度がカメラ距離マップ情報に比べて高い特性)を強調することができる。そして、優性の特性が強調された情報同士を合成した合成情報を物体検出に用いることにより、物体検出精度を向上することができる。
 [実施の形態3]
 実施の形態2では、情報加工部403は、カメラ距離マップ情報に含まれる、U’と視差値とから規定される領域の全てに対して平滑化処理等を行った。また、情報加工部404は、レーダ距離マップ情報に含まれる、U’と視差値とから規定される領域の全てに対して一律に平滑化処理等を行った。これに対して、実施の形態3では、U’と視差値とから規定される領域を、出現頻度の高い物体の種別に基づいて複数の部分領域に分割し、部分領域ごとに平滑化フィルタのフィルタ長などを調整する。
 [検出装置700の構成]
 図14は、本発明の実施の形態3に係る検出装置700の構成を示す。図14において、検出装置700は、測位情報形成装置800を含んで構成されている。
 図14において、測位情報形成装置800は、情報加工部801,802と、メモリ803とを有する。
 メモリ803は、領域指定情報を保持する。「領域指定情報」は、カメラ距離マップ情報及びレーダ距離マップ情報に含まれる、U’と視差値とから規定される領域を、出現頻度の高い物体の種別に基づいて分割した各部分領域(以下、「物体種別別部分領域」と呼ばれることがある)を示す情報である。検出装置700が横断歩道付近又は交差点等に設置される場合、領域指定情報には、車両が主に検出される部分領域(以下、「車両部分領域」と呼ばれることがある)、及び、歩行者が主に検出される部分領域(以下、「歩行者部分領域」と呼ばれることがある)が含まれる。
 情報加工部801は、情報加工部403と同様の機能を有する。ただし、情報加工部801は、メモリ803に保持されている領域指定情報の示す物体種別別部分領域ごとに、平滑化フィルタのフィルタ長を調整する。具体的には、情報加工部801は、平滑化フィルタを、車両部分領域では、車両が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する一方、歩行者部分領域では、人物が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する。すなわち、車両部分領域における平滑化フィルタのフィルタ長は、歩行者部分領域における平滑化フィルタのフィルタ長よりも長い。
 また、情報加工部801は、物体種別別部分領域ごとにフィルタ重みを調整しても良い。
 情報加工部802は、情報加工部404と同様の機能を有する。ただし、情報加工部802は、メモリ803に保持されている領域指定情報の示す物体種別別部分領域ごとに、平滑化フィルタのフィルタ長を調整する。具体的には、情報加工部802は、平滑化フィルタを、車両部分領域では、車両が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する一方、歩行者部分領域では、人物が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する。すなわち、車両部分領域における平滑化フィルタのフィルタ長は、歩行者部分領域における平滑化フィルタのフィルタ長よりも長い。
 また、情報加工部802は、物体種別別部分領域ごとにフィルタ重みを調整しても良い。
 [検出装置700の動作]
 以上の構成を有する検出装置700の動作について説明する。ここでは、主に、測位情報形成装置800における情報加工処理について説明する。図15は、各物体種別別部分領域に対する情報加工処理を示すテーブルを示す図である。また、図16は、カメラ距離マップ情報の車両部分領域に対する平滑化処理を模式的に示す図である。
 <情報加工処理1>
 情報加工部801は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。レベル調整処理及び正規化処理については、実施の形態2と同様であるので、その説明は省略される。
 (平滑化処理)
 情報加工部801は、座標変換部401にて座標変換された、カメラ距離マップ情報に対して、平滑化処理を施す。情報加工部801は、視差軸方向のみに平滑化処理を施す。このとき、情報加工部801は、平滑化フィルタのフィルタ長λcを、車両部分領域では、車両が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する一方、歩行者部分領域では、人物が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する。すなわち、情報加工部802は、図15に示すように、車両部分領域(同図では、領域(B))では、フィルタ長λcを長く調整する一方、歩行者部分領域(同図では、領域(A))では、フィルタ長λcを短く調整する。
 また、情報加工部801は、図15に示すように、車両部分領域(同図では、領域(B))では、フィルタ重みを用いる一方、歩行者部分領域(同図では、領域(A))では、フィルタ重みを用いない。具体的には、情報加工部801は、車両部分領域では、図16に示すように、領域中央部で重みが最大となり且つ領域端に向けて重みが単調減少するように、フィルタ重みを調整する。
 <情報加工処理2>
 情報加工部802は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、平滑化処理、レベル調整処理、及び正規化処理を施す。レベル調整処理及び正規化処理については、実施の形態2と同様であるので、その説明は省略される。
 (平滑化処理)
 情報加工部802は、座標変換部402にて座標変換された、レーダ距離マップ情報に対して、平滑化処理を施す。情報加工部802は、U’軸方向のみに平滑化処理を施す。このとき、情報加工部802は、平滑化フィルタのフィルタ長λrを、車両部分領域では、車両が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する一方、歩行者部分領域では、人物が画像内に映り込むときの平均的な大きさに適合したフィルタ長に調整する。すなわち、情報加工部802は、図15に示すように、車両部分領域(同図では、領域(B))では、フィルタ長λrを長く調整する一方、歩行者部分領域(同図では、領域(A))では、フィルタ長λrを短く調整する。
 また、情報加工部801は、図15に示すように、歩行者部分領域(同図では、領域(A))では、フィルタ重みを用いる一方、車両部分領域(同図では、領域(B))では、フィルタ重みを用いない。ここで用いられるフィルタ重みは、通常用いられる式によって増加される。
 ここで、検出対象物体の種別によって、それによって得られる、反射強度特性と視差の特性との間に差が生じる。図17は、検出対象物体が横を向いた車両、及び歩行者であるときに得られる、反射強度特性の説明に供する図である。図17Aには、横を向いた車両が映し出された画像が示され、図17Bには、人物が映し出された画像が示されている。図17Cは、図17A及び図17Bに映し出された物体から得られる反射強度特性が示されている。図17Cにおいて、ピークP1001は、車両から得られる反射強度ピークであり、ピークP1002は、人物から得られる反射強度ピークである。図17Cから明らかなように、ピークP1002は、ピークP1001よりもかなり小さい。これは、人物の反射断面積は、表面の凹凸が大きい等の影響によって、車両に比べて小さいためである。
 これに対して、カメラ距離マップ情報では、車両と人物との間に、反射強度特性の様な大きな差は生じない。しかしながら、図18に示すように、車両の側面中央部では輝度変化が少ないので、その部分の画像からは視差が得られにくい特性がある(ピークP1003参照)。
 また、車両の出現頻度と人物の出現頻度とは、エリアによって偏りがある。すなわち、図19に示すように、検出装置700が交差点に設置される場合、交差点中央部では歩行者は殆ど検出されない。そして、歩行者は、横断歩道及び歩道上で主に検出される。従って、交差点付近のエリアは、図19に示すように、車両領域(図19では、領域(B))と歩行者領域(図19では、領域(A))とに分けることができる。
 また、検出対象物体の種別と平滑化フィルタのフィルタ長とのマッチ度合いは、物体検出精度の優劣に影響を与える。
 そこで、本実施の形態では、情報加工部801及び情報加工部802は、メモリ803に保持されている領域指定情報の示す物体種別別部分領域ごとに、平滑化フィルタのフィルタ長及びフィルタ重みを調整する。こうすることで、物体検出誤りの発生確率を低減することができる。特に、フィルタ長を調整することにより、複数の歩行者を単一の歩行者と検出してしまう検出誤り、又は、単一の車両を複数の車両と検出してしまう検出誤りの発生を低減することができる。また、図16に示したようなフィルタ重みを用いて平滑化処理を行うことにより、単一の車両を複数の車両と検出してしまう検出誤りを低減することができる。
 なお、領域指定情報は、表示装置(図示せず)に検出装置700を設置した場所の地図を表示し、検出装置700のオペレータが、表示装置に表示された地図上から歩行者領域と車両領域とを選択し、この選択結果に応じて生成されても良いし、又は、あらかじめ領域情報が付与された地図情報と検出装置700が設置された場所情報をもとに、算出されても良い。
 [他の実施の形態]
 (1)上記各実施の形態において、ミリ波レーダは、路面と平行な方向のビーム幅が狭いアンテナを具備し、そのアンテナを機械的に路面と平行に回転させて反射電波を検出するが、さらに、路面と垂直な方向のビーム幅も狭くしたアンテナを具備させても良い。その場合、そのアンテナを前述の回転に加えて、機械的に路面と垂直の方向にも動かすことで、上記各実施の形態同様のレーダ距離マップ情報を取得することができ、本発明を適応することが可能である。または、ミリ波レーダと比較してビーム幅が狭いレーダに関しても同様であり、例えばレーザレーダは該当する。
 (2)また、上記各実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はハードウェアとの連係においてソフトウェアでも実現することも可能である。
 また、上記実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
 2011年1月25日出願の特願2011-013174の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
 本発明の測位情報形成装置、検出装置、及び測位情報形成方法は、物体検出精度を向上するものとして有用である。
 100,400,800 測位情報形成装置
 101,401,402 座標変換部
 102,403,404,801,802 情報加工部
 103,405 合成部
 200,300,700 検出装置
 201 ステレオカメラ
 202 ミリ波レーダ
 203,204 距離マップ情報算出部
 205 検出部
 411,421 平滑化処理部
 412,422 レベル調整部
 413,423 正規化処理部
 803 メモリ
 

Claims (10)

  1.  レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成装置であって、
     前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をする加工処理手段と、
     前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する合成手段と、
     前記加工処理手段の入力段に設けられ、前記加工処理手段へ入力されるレーダ距離マップ情報の座標系を、基準座標系へ変換する座標変換手段と、
     を具備する測位情報形成装置。
  2.  前記カメラ距離マップ情報の座標系を、前記基準座標系へ変換する第2の座標変換手段と、
     前記座標変換されたカメラ距離マップ情報に対して加工処理をし、前記合成手段へ出力する第2の加工処理手段と、
     を具備し、
     前記合成手段は、前記加工処理されたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を生成し、
     前記基準座標系は、自装置の仮想設置位置を路面上とした場合の画像平面座標系の内の一方の座標軸と、視差とによって規定される座標系である、
     請求項1に記載の測位情報形成装置。
  3.  前記第1の加工処理手段は、レーダ距離マップ情報を、第1の平滑化フィルタによって平滑化する第1の平滑化処理手段を含み、
     前記第2の加工処理手段は、カメラ距離マップ情報を、第2の平滑化フィルタによって平滑化する第2の平滑化処理手段を含み、
     前記第1の平滑化処理手段は、前記第1の平滑化フィルタを前記一方の座標軸方向のみに適用する一方、前記第2の加工処理手段は、前記第2の平滑化フィルタを前記視差軸方向のみに適用する、
     請求項2に記載の測位情報形成装置。
  4.  前記平滑化されたレーダ距離マップ情報に対して第1のレベルフィルタを掛け合わせることにより、前記平滑化されたレーダ距離マップ情報のレベルを調整する第1のレベル調整手段と、
     前記平滑化されたカメラ距離マップ情報を、第2のレベルフィルタを掛け合わせることにより、前記平滑化されたカメラ距離マップ情報のレベルを調整する第2のレベル調整手段と、
     をさらに具備し、
     前記第1のレベルフィルタ及び前記第2のレベルフィルタは、前記視差軸の値が大きくなるに従ってフィルタのレベル値が単調減少する形状を有し、
     前記第1のレベルフィルタのレベル値は、前記第2のレベルフィルタのレベル値よりも大きい、
     請求項3に記載の測位情報形成装置。
  5.  前記第1の平滑化処理手段及び前記第2の平滑化処理手段は、
     前記一方の座標軸と前記視差とによって規定される領域の内、車両が主に検出される車両部分領域と、歩行者が主に検出される歩行者部分領域とを示す領域指定情報を入力とし、
     前記車両部分領域では、前記歩行者部分領域でよりもフィルタ長を長く調整する、
     請求項3に記載の測位情報形成装置。
  6.  前記第2の平滑化処理手段は、前記車両部分領域では、領域中央部で重みが最大となり且つ領域端に向けて重みが単調減少するように、フィルタ重みを調整する、
     請求項5に記載の測位情報形成装置。
  7.  前記基準座標系は、前記カメラ距離マップ情報の座標系である、
     請求項1に記載の測位情報形成装置。
  8.  請求項1に記載の測位情報形成装置を具備する検出装置。
  9.  レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成装置であって、
     前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をする加工処理手段と、
     前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する合成手段と、
     前記加工処理手段の出力段で且つ前記合成手段の入力段に設けられ、前記加工処理手段へ入力されるレーダ距離マップ情報の座標系を、基準座標系へ変換する座標変換手段と、
     を具備する測位情報形成装置。
  10.  レーダによって検出された情報に基づく画像とステレオカメラによって撮影された画像とに基づいて物体を検出する検出装置において用いられる測位情報を形成する測位情報形成方法であって、
     前記レーダによって検出された情報に基づく画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたレーダ距離マップ情報に対して、加工処理をし、
     前記レーダ距離マップ情報の座標系を、基準座標系へ変換し、
     前記ステレオカメラによって撮影された画像の画像平面内の座標群と、各座標における、距離に関する情報とが対応付けられたカメラ距離マップ情報と、前記加工処理されたレーダ距離マップ情報とを合成することにより、合成マップ情報を形成する、
     測位情報形成方法。
     
PCT/JP2012/000116 2011-01-25 2012-01-11 測位情報形成装置、検出装置、及び測位情報形成方法 Ceased WO2012101967A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/817,488 US8983130B2 (en) 2011-01-25 2012-01-11 Positioning information forming device, detection device, and positioning information forming method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011013174A JP5632762B2 (ja) 2011-01-25 2011-01-25 測位情報形成装置、検出装置、及び測位情報形成方法
JP2011-013174 2011-01-25

Publications (1)

Publication Number Publication Date
WO2012101967A1 true WO2012101967A1 (ja) 2012-08-02

Family

ID=46580547

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000116 Ceased WO2012101967A1 (ja) 2011-01-25 2012-01-11 測位情報形成装置、検出装置、及び測位情報形成方法

Country Status (3)

Country Link
US (1) US8983130B2 (ja)
JP (1) JP5632762B2 (ja)
WO (1) WO2012101967A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US9671493B1 (en) * 2014-09-19 2017-06-06 Hrl Laboratories, Llc Automated scheduling of radar-cued camera system for optimizing visual inspection (detection) of radar targets
US20180259621A1 (en) * 2015-09-30 2018-09-13 Sony Corporation Signal processing apparatus, signal processing method, program, and object detection system
CN110376577A (zh) * 2019-08-01 2019-10-25 北京市交大路通科技有限公司 一种车辆定位的方法、装置、电子设备及存储介质
JPWO2019026438A1 (ja) * 2017-08-03 2020-06-11 株式会社小糸製作所 車両用照明システム、車両システム及び車両
CN112255604A (zh) * 2020-10-29 2021-01-22 南京慧尔视智能科技有限公司 一种雷达数据准确性的判断方法、装置及计算机设备

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5863481B2 (ja) * 2012-01-30 2016-02-16 日立マクセル株式会社 車両用衝突危険予測装置
JP5995614B2 (ja) * 2012-08-31 2016-09-21 キヤノン株式会社 距離情報推定装置
US9614898B1 (en) * 2013-05-27 2017-04-04 Surround.IO Distributed event engine
SE537621C2 (sv) * 2013-09-10 2015-08-11 Scania Cv Ab Detektering av objekt genom användning av en 3D-kamera och en radar
JP6668594B2 (ja) * 2014-02-25 2020-03-18 株式会社リコー 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP6365385B2 (ja) * 2015-04-17 2018-08-01 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
CN108139475A (zh) * 2015-09-30 2018-06-08 索尼公司 信号处理设备、信号处理方法和程序
EP3358552A4 (en) * 2015-09-30 2019-04-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
KR102413579B1 (ko) * 2015-10-06 2022-06-28 주식회사 에이치엘클레무브 운전자 편의 장치 및 그의 타겟 추정 방법
US10145951B2 (en) * 2016-03-30 2018-12-04 Aptiv Technologies Limited Object detection using radar and vision defined image detection zone
KR102535598B1 (ko) * 2016-05-31 2023-05-23 한국전자통신연구원 비전기반의 융합형 물체 감지 장치 및 방법
US10816658B2 (en) * 2016-09-07 2020-10-27 OmniPreSense Corporation Radar enabled weapon detection system
JP7062878B2 (ja) * 2017-03-27 2022-05-09 沖電気工業株式会社 情報処理方法および情報処理装置
US10580144B2 (en) * 2017-11-29 2020-03-03 International Business Machines Corporation Method and system for tracking holographic object
DE102018103092A1 (de) * 2018-02-12 2019-08-14 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Fokuseinstellungs-Anzeigeeinheit
KR102629036B1 (ko) 2018-08-30 2024-01-25 삼성전자주식회사 로봇 및 그의 제어 방법
CN111257866B (zh) * 2018-11-30 2022-02-11 杭州海康威视数字技术股份有限公司 车载摄像头和车载雷达联动的目标检测方法、装置及系统
US11899099B2 (en) * 2018-11-30 2024-02-13 Qualcomm Incorporated Early fusion of camera and radar frames
EP3893194B1 (en) * 2018-12-07 2025-09-03 Sony Semiconductor Solutions Corporation Information processing device, information processing method, program, mobile body control device, and mobile body
US11403938B2 (en) 2019-04-04 2022-08-02 Geotab Inc. Method for determining traffic metrics of a road network
US11335191B2 (en) 2019-04-04 2022-05-17 Geotab Inc. Intelligent telematics system for defining road networks
US11341846B2 (en) * 2019-04-04 2022-05-24 Geotab Inc. Traffic analytics system for defining road networks
US10699564B1 (en) 2019-04-04 2020-06-30 Geotab Inc. Method for defining intersections using machine learning
US11335189B2 (en) 2019-04-04 2022-05-17 Geotab Inc. Method for defining road networks
US10928508B2 (en) * 2019-04-12 2021-02-23 Ford Global Technologies, Llc Camera and radar fusion
CN112995578B (zh) * 2019-12-02 2022-09-02 杭州海康威视数字技术股份有限公司 电子地图显示方法、装置、系统及电子设备
CN111896949B (zh) * 2020-07-15 2024-02-27 河海大学 一种高拱坝谷幅变形动态监测系统及其监测方法
KR102484691B1 (ko) * 2021-03-15 2023-01-05 주식회사 바이다 스테레오 카메라 및 레이더를 이용한 차량 감지 시스템 및 차량 감지 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0261581A (ja) * 1988-08-29 1990-03-01 Oki Electric Ind Co Ltd レーダの偽像除去装置
JPH11351862A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 前方車両検出方法及び装置
JP2008116357A (ja) * 2006-11-06 2008-05-22 Toyota Motor Corp 物体検出装置
JP2008304344A (ja) * 2007-06-08 2008-12-18 Kumamoto Univ 物標検出装置
JP2008309519A (ja) * 2007-06-12 2008-12-25 Panasonic Corp 画像処理を用いた物体検出装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3120590B2 (ja) * 1992-09-14 2000-12-25 日本電気株式会社 車載レーダの制御装置
JP3016316B2 (ja) * 1992-11-18 2000-03-06 三菱電機株式会社 車載用レーダ装置
JP3351460B2 (ja) * 1997-07-02 2002-11-25 日本電信電話株式会社 移動体の挙動解析予測装置およびそのうねり対応づけ処理方法
JP4308405B2 (ja) 2000-04-14 2009-08-05 富士通テン株式会社 物体検出装置
JP3985748B2 (ja) * 2003-07-08 2007-10-03 日産自動車株式会社 車載用障害物検出装置
JP4763250B2 (ja) * 2004-04-09 2011-08-31 株式会社デンソー 物体検出装置
JP4543904B2 (ja) * 2004-11-30 2010-09-15 パナソニック電工株式会社 距離画像センサ
JP2006252473A (ja) * 2005-03-14 2006-09-21 Toshiba Corp 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
AU2006244201B2 (en) * 2005-05-09 2012-09-06 Lockheed Martin Corporation Continuous extended range image processing
JP2007024590A (ja) * 2005-07-13 2007-02-01 Toyota Motor Corp 物体検出装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20080306666A1 (en) * 2007-06-05 2008-12-11 Gm Global Technology Operations, Inc. Method and apparatus for rear cross traffic collision avoidance
US8264542B2 (en) * 2007-12-31 2012-09-11 Industrial Technology Research Institute Methods and systems for image processing in a multiview video system
JP5278728B2 (ja) * 2008-02-28 2013-09-04 アイシン精機株式会社 距離画像センサの校正装置及び校正方法
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0261581A (ja) * 1988-08-29 1990-03-01 Oki Electric Ind Co Ltd レーダの偽像除去装置
JPH11351862A (ja) * 1998-06-09 1999-12-24 Yazaki Corp 前方車両検出方法及び装置
JP2008116357A (ja) * 2006-11-06 2008-05-22 Toyota Motor Corp 物体検出装置
JP2008304344A (ja) * 2007-06-08 2008-12-18 Kumamoto Univ 物標検出装置
JP2008309519A (ja) * 2007-06-12 2008-12-25 Panasonic Corp 画像処理を用いた物体検出装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9671493B1 (en) * 2014-09-19 2017-06-06 Hrl Laboratories, Llc Automated scheduling of radar-cued camera system for optimizing visual inspection (detection) of radar targets
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JPWO2017057056A1 (ja) * 2015-09-30 2018-07-19 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US20180259621A1 (en) * 2015-09-30 2018-09-13 Sony Corporation Signal processing apparatus, signal processing method, program, and object detection system
US10670697B2 (en) * 2015-09-30 2020-06-02 Sony Corporation Signal processing apparatus, signal processing method, and object detection system
US11047976B2 (en) 2015-09-30 2021-06-29 Sony Corporation Information processing apparatus, information processing method and program
US11061111B2 (en) 2015-09-30 2021-07-13 Sony Corporation Signal processing apparatus, signal processing method, and object detection system
JPWO2019026438A1 (ja) * 2017-08-03 2020-06-11 株式会社小糸製作所 車両用照明システム、車両システム及び車両
JP7222892B2 (ja) 2017-08-03 2023-02-15 株式会社小糸製作所 車両用照明システム、車両システム及び車両
CN110376577A (zh) * 2019-08-01 2019-10-25 北京市交大路通科技有限公司 一种车辆定位的方法、装置、电子设备及存储介质
CN110376577B (zh) * 2019-08-01 2020-03-13 北京市交大路通科技有限公司 一种车辆定位的方法、装置、电子设备及存储介质
CN112255604A (zh) * 2020-10-29 2021-01-22 南京慧尔视智能科技有限公司 一种雷达数据准确性的判断方法、装置及计算机设备

Also Published As

Publication number Publication date
JP2012154731A (ja) 2012-08-16
JP5632762B2 (ja) 2014-11-26
US20130148855A1 (en) 2013-06-13
US8983130B2 (en) 2015-03-17

Similar Documents

Publication Publication Date Title
JP5632762B2 (ja) 測位情報形成装置、検出装置、及び測位情報形成方法
JP5503578B2 (ja) 物体検出装置及び物体検出方法
JP6825569B2 (ja) 信号処理装置、信号処理方法、およびプログラム
JP6244407B2 (ja) 深度測定の品質の向上
JP3759429B2 (ja) 障害物検出装置及びその方法
US8917929B2 (en) Image processing apparatus, method, program, and recording medium
CN105551020B (zh) 一种检测目标物尺寸的方法及装置
CN110826512B (zh) 地面障碍物检测方法、设备及计算机可读存储介质
JP2008185375A (ja) Sar画像の3d形状算出装置及びsar画像の歪補正装置
JP2004117078A (ja) 障害物検出装置及び方法
EP3324359B1 (en) Image processing device and image processing method
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
JP2009014445A (ja) 測距装置
CN109520480B (zh) 基于双目立体视觉的测距方法及测距系统
JP2011254128A (ja) 平面図生成装置及び平面図生成方法
JP2016200557A (ja) 校正装置、距離計測装置及び校正方法
JP2008309637A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
EP4064206A1 (en) Three-dimensional model generation method and three-dimensional model generation device
WO2020095549A1 (ja) 撮像装置
JP5501084B2 (ja) 平面領域検出装置及びステレオカメラシステム
JPWO2022239573A5 (ja)
EP2911392B1 (en) Parallax calculation system, information processing apparatus, information processing method, and program
JP6243758B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP2009086882A (ja) 物体検出装置
EP4443383A1 (en) Three-dimensional model generation method and three-dimensional model generation device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12739443

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13817488

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12739443

Country of ref document: EP

Kind code of ref document: A1