[go: up one dir, main page]

WO1996034363A1 - Image processor for vehicle - Google Patents

Image processor for vehicle Download PDF

Info

Publication number
WO1996034363A1
WO1996034363A1 PCT/JP1996/001133 JP9601133W WO9634363A1 WO 1996034363 A1 WO1996034363 A1 WO 1996034363A1 JP 9601133 W JP9601133 W JP 9601133W WO 9634363 A1 WO9634363 A1 WO 9634363A1
Authority
WO
WIPO (PCT)
Prior art keywords
lane
image
color
data
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP1996/001133
Other languages
English (en)
French (fr)
Inventor
Kazuto Nakamura
Kazuaki Takano
Tatsuhiko Monji
Eiryo Ondo
Yasunari Tanaka
Kazuhiko Hanawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP7102441A external-priority patent/JPH08297023A/ja
Priority claimed from JP7119857A external-priority patent/JPH08315117A/ja
Priority claimed from JP07119856A external-priority patent/JP3084208B2/ja
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to DE19680415T priority Critical patent/DE19680415C2/de
Priority to US08/750,988 priority patent/US5987174A/en
Publication of WO1996034363A1 publication Critical patent/WO1996034363A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to an image processing apparatus that selects a specific image showing a straight line or a curve based on image information obtained by imaging, and more particularly, to an image processing apparatus for an own vehicle based on image information captured by a vehicle-mounted camera.
  • the present invention relates to a device for accurately recognizing a lane for a traveling lane. Background art
  • a scanning means for extracting a roadway edge from image information input by an image input means, and for scanning the extracted image of the roadway edge from a specific reference point from the bottom of the image in the left-right direction; Means for setting the center of the scan area as a specific reference point in the horizontal direction of the next scan, and extracts the travel path area based on the area scanned by the scan means.
  • the area surrounded by a specific color is defined as the forward road area.
  • the area surrounded by the specific color alone is surrounded by the road end (corresponding to the lane).
  • the presence of a lane is determined based on the color representing the lane, that is, yellow or white.
  • the color of the road is gray here, so it is certainly possible to separate the road from the yellow lane.
  • white lanes and gray roads cannot be separated by color, but must be separated by brightness.
  • This device has a solid-state imaging unit with a low-magnification optical system, a solid-state imaging unit with a high-magnification optical system, and image data obtained by the solid-state imaging unit with a low-magnification optical system, and a high-magnification optical system.
  • a first object of the present invention is to recognize the lane for the traveling lane of the own vehicle based on image information captured by an on-vehicle camera in view of the problems of the prior art described in the above document (1). In doing so, it is an object of the present invention to provide a device for accurately recognizing a lane even when an edge other than the lane such as noise exists in the road area ahead.
  • a second object of the present invention is to determine the change in the brightness and color of the road surface immediately before the subject vehicle in consideration of the problems of the conventional device described in the above reference (2), and to separate the road surface and the lane by the brightness and color. It is an object of the present invention to provide a running road surface monitoring device by image processing, which makes it possible to reliably recognize lanes.
  • a third object of the present invention is to provide a method for recognizing a lane for a traveling lane of an own vehicle based on image information captured by an on-vehicle camera in view of the problem of the conventional device described in the above document (3).
  • An edge pixel extraction unit for examining a boundary between a specific color and another color and extracting a pixel having the specific color as an edge pixel; connecting the extracted edge pixels to form a straight line;
  • a line image extraction unit for obtaining a line image composed of: a line image selection unit for selecting two line images from among a plurality of extracted line images according to a predetermined rule;
  • the image processing device is mounted on a vehicle, captures an image in front of the vehicle, and obtains an image information; and an imaging unit for scanning the obtained image information line by line.
  • An edge pixel extraction unit for examining a boundary between a specific color and another color and extracting a pixel having the specific color as an edge pixel; constructing a straight line by referring to position coordinates of the extracted edge pixel Assuming that edge pixels are classified in this way, a candidate lane extraction unit that finds a straight line connecting edge pixels corresponding to each classification as a candidate lane; And a lane selection unit for selecting a lane and a right lane.
  • the lane selection unit when selecting one lane, when the lane selection unit assumes the center vertical line of the forward image information, the lane selection unit has the most left or right of the center vertical line.
  • the candidate lane including the edge pixels is selected as the lane.
  • an image in front of the vehicle is captured by an imaging unit mounted on the vehicle to obtain image information.
  • the edge pixel extraction unit scans the image information obtained by imaging for each line, checks a boundary between a specific color and another color, and sets a pixel having the specific color as an edge. Extract as pixels.
  • the candidate lane extraction unit is configured by connecting the edge pixels corresponding to each classification when assuming that the edge pixels are classified so as to form a straight line by referring to the position coordinates of the extracted edge pixels. Is determined as a candidate lane.
  • the lane selection unit selects a left lane and a right lane in front of the vehicle from a plurality of candidate lanes, and obtains a left lane and a right lane.
  • the lane selection unit has the largest number of edge pixels at either the left or right of the center vertical line, assuming the center vertical line of the front image information. It is not conceivable to select a candidate lane composed of two lanes.
  • the left and right lanes can be accurately detected from the plurality of candidate lanes based on information such as the arrangement of the lanes, and as a result, the road surface area on which the vehicle can travel can be accurately recognized. It becomes possible.
  • an image processing apparatus for identifying a lane applied to a traveling road surface based on color image data of the traveling road surface includes: A color imaging unit for photographing the front in the traveling direction of the car; scanning the image data taken by the color imaging means line by line, and examining the boundary between a specific color and other colors; An edge pixel extraction unit that obtains a pixel having a specific color as an edge pixel and extracts a pixel satisfying a predetermined extraction color condition from the obtained edge pixel; and is determined from within the screen based on the image data.
  • a color sampling unit for sampling the color data of the pixel; an extraction condition determining means for determining the above-mentioned extracted color condition based on the sampled color data;
  • the line image extraction Interview two Tsu Bok obtained as lane a constructed line images by connecting to formation, the image processing apparatus comprising a are provided.
  • the pixel extraction unit extracts pixels satisfying the determined extraction color condition from within the screen based on the image data, and the color sampling unit extracts color data from the pixels extracted by the pixel extraction unit.
  • the extraction condition determination unit is operative to determine the above extraction condition based on the sampled color data.
  • an imaging unit for capturing an image and obtaining image information, and an image for enlarging the size of the captured image information The enlargement processing unit and the enlarged image information are scanned for each horizontal line, the boundary between a specific color and other colors is examined, and the pixel that becomes the boundary is extracted as an edge pixel.
  • a line image extraction unit for obtaining a line image formed by connecting edge pixels so as to form a straight line, an enlargement ratio that is an amount of enlargement of image information defined for each horizontal line, and an image information Expansion
  • an image processing apparatus including an enlargement condition storage unit for storing enlargement center coordinates indicating a reference position for performing processing.
  • the image enlargement processing unit refers to the storage content of the enlargement condition storage unit, and for each horizontal line, with the magnification indicated by the enlargement ratio centered on the enlargement center coordinates. A process of expanding the size is performed.
  • the image processing device is mounted on a vehicle, captures an image in front of the vehicle, and obtains image information; and an image enlargement processing unit that enlarges the size of the captured image information. Scanning the enlarged image information for each horizontal line, examining the boundary between a specific color and the other colors, extracting the pixel that is the boundary as an edge pixel, and calculating the position coordinates of the extracted edge pixel.
  • a lane extraction unit that obtains the left and right lanes that are connected to form an image; an enlargement factor, which is the amount of image information enlargement, and an image information enlargement process defined for each horizontal line And an enlargement condition storage unit for storing enlargement center coordinates indicating a reference position for performing the enlargement.
  • the image enlargement processing unit refers to the storage content of the enlargement condition storage unit, and for each horizontal line, with the magnification indicated by the enlargement ratio centered on the enlargement center coordinate, A process of expanding the size is performed.
  • the image enlarging processing unit adjusts the size of the captured image information to Processing for enlarging only in the horizontal direction is performed.
  • an image in front of the vehicle is captured by an imaging unit mounted on the vehicle to obtain image information.
  • the enlargement condition storage unit stores an enlargement ratio, which is an amount of enlargement of image information, and enlargement center coordinates indicating a reference position at which image information enlargement processing is performed, which is defined for each horizontal line. .
  • the size of the captured image information is enlarged by the image enlargement processing unit.
  • the image enlargement processing unit refers to the storage contents of the enlargement condition storage means, and for each horizontal line, with the magnification indicated by the enlargement ratio centered on the enlargement center coordinate, the image information size The process of expanding the size is performed. At this time, the image enlargement processing unit performs a process of enlarging the size of the captured image information only in the 7k horizontal direction. Furthermore, the edge pixel coordinate detection unit scans the enlarged image information line by line, examines a boundary between a specific color and another color, and extracts a pixel serving as the boundary as an edge pixel. Then, the position coordinates of the extracted edge pixels are obtained, and the edge pixel coordinate conversion unit converts the position coordinates of the extracted edge pixels into coordinates before the enlargement processing.
  • the lane extraction unit refers to the transformed coordinates of the edge pixels, and obtains the left and right lanes formed by connecting the edge pixels so as to form a straight line.
  • the image information captured by the photographing unit is enlarged (hereinafter, simply referred to as “image zoom” as appropriate), so that the traveling lane is obtained based on the enlarged image data. Can be accurately recognized.
  • FIG. 1 is a block diagram showing the overall configuration of the first embodiment of the image processing apparatus of the present invention.
  • FIG. 2 is a flowchart for explaining the overall processing of the embodiment shown in FIG.
  • FIGS. 3A and 3B are diagrams for explaining the edge detection operation in the embodiment of FIG.
  • FIG. 4 is a flowchart illustrating operations of a lane calculation process and a lane estimation process in the embodiment of FIG.
  • FIGS. 5A and 5B are diagrams showing an example of extraction of edge data for explaining the lane estimation process.
  • FIG. 5C is a flowchart illustrating the lane recognition processing in FIG. 5B.
  • FIG. 5D is a diagram for explaining the lane recognition processing in FIG. 5B.
  • FIG. 6 is a diagram showing an example of extraction of edge data for explaining another example of the lane estimation processing.
  • FIG. 7 is a flowchart illustrating the lane estimation processing in FIG.
  • FIGS. 8A and 8B are diagrams illustrating the ideal lane width.
  • FIG. 9 is a diagram showing an example of edge data extraction for explaining still another example of the lane estimation process.
  • FIG. 10 is a flowchart illustrating the lane estimation processing in FIG.
  • FIG. 11 is a flowchart illustrating a modification of the lane estimation process in the embodiment of FIG.
  • FIG. 12 is a diagram showing an example of edge data extraction for explaining the lane estimation process in the modification of FIG.
  • FIG. 13 is a block diagram showing the overall configuration of the second embodiment of the image processing apparatus of the present invention.
  • FIG. 14 is a flowchart for explaining the overall processing of the embodiment in FIG.
  • FIG. 15 is a flowchart illustrating the condition setting process in the embodiment of FIG.
  • FIG. 16 is a diagram showing the positions of sampling pixels at the time of initial setting in the embodiment of FIG.
  • FIG. 17G to FIG. 17G are diagrams for explaining the setting and updating of the extraction color condition in the initial setting in the embodiment of FIG.
  • FIG. 18 is a view for explaining the positions of sampling pixels when setting the extraction color conditions in the embodiment of FIG.
  • FIG. 19 is a diagram illustrating a screen area used for calculating the distribution ratio in the embodiment of FIG.
  • FIG. 20 is a diagram for explaining a method of updating the extraction color condition in the embodiment of FIG.
  • FIG. 21 is a flowchart for explaining the process of updating the extraction color condition in the embodiment of FIG.
  • FIGS. 22A and 22B are diagrams illustrating the process of reducing the set color area of the extraction color condition in the embodiment of FIG.
  • FIGS. 23A and 23B are diagrams illustrating the process of reducing the luminance area set for the extraction color condition in the embodiment of FIG.
  • FIGS. 24A and 24B are diagrams for explaining the enlargement processing of the set color area of the extraction color condition in the embodiment of FIG.
  • FIGS. 25A and 25B are diagrams for explaining the process of expanding the set luminance area of the extraction color condition in the embodiment of FIG.
  • FIG. 26 is a diagram showing the setting characteristics of the color enhancement gain in the embodiment of FIG.
  • FIG. 27 is a block diagram showing the overall configuration of the third embodiment of the image processing apparatus of the present invention.
  • FIG. 28 is a flowchart for explaining the overall processing of the embodiment of FIG.
  • FIGS. 29A to 29E are diagrams illustrating the lane recognition processing in the embodiment of FIG.
  • FIG. 30 is a flowchart showing edge extraction processing in the embodiment of FIG.
  • FIGS. 31A and 31B are diagrams for explaining the principle of the edge coordinate conversion process.
  • FIG. 32 is a flowchart illustrating the electronic zoom processing.
  • FIGS. 33A and 33B are diagrams for explaining a method of obtaining the zoom center coordinates in a certain image.
  • FIG. 34 is a view for explaining a method of obtaining the zoom center coordinates in a certain image.
  • FIG. 35 is a diagram for explaining a method of obtaining the zoom center coordinates in a certain image c .
  • FIGS. 36A and 36B are diagrams for explaining the principle of the enlargement process.
  • FIGS. 37A to 37C are diagrams illustrating images before and after enlargement processing and enlargement ratios.
  • FIGS. 38A to 38D are diagrams illustrating edge discrimination processing.
  • FIGS. 39A to 39D are diagrams for explaining the edge determination processing.
  • FIGS. 40A to 40C are diagrams illustrating images before and after the enlargement process and the enlargement ratio when the enlargement ratio changes discontinuously.
  • FIGS. 41A to 41C are diagrams illustrating zoom center coordinates when the enlargement ratio changes discontinuously.
  • FIGS. 42A to 42D are diagrams for explaining processing results by the replacement circuit.
  • FIG. 1 shows a configuration diagram of a first embodiment of an image processing apparatus according to the present invention.
  • the present apparatus is configured to include an imaging unit 2, a processing unit 4, and a memory 6, and the processing unit 4 further includes an image processing unit 402 and a determination unit 404. Signals are exchanged between the vehicle state sensor 8, the vehicle motion control device 10 and the alarm device 12, and the determination unit 404.
  • a display unit may be connected to the output side of the photographing unit (imaging unit).
  • the CCD camera 202 is an imaging unit that captures a front image and obtains image information, and has a function of obtaining image information of a front subject and converting it into a color analog signal.
  • the CCD camera 202 may be installed, for example, in a location near the grill on the front side of the vehicle where there is little dirt or the like and a favorable environment.
  • the A / D converter 204 performs a process of converting an analog image signal output from the CCD camera 202 into a digital signal.
  • the color difference conversion circuit 206 receives the digital signal output from the AZD converter 204.
  • Signal that is, the three primary colors (R (red), G (green), and B (blue)) of the subject are multiplied by the color enhancement gain ( ⁇ R, rG, ⁇ B), and then the luminance signal Y and color difference
  • ⁇ R, rG, ⁇ B the color enhancement gain
  • processing for multiplying by the color enhancement gain is not necessarily required, but is preferably performed.
  • the image pickup signals (Y, R- ⁇ , ⁇ - ⁇ ) are defined as follows using RGB signals. First, R ', G', and B 'are defined by the RGB signal and the color enhancement gain ( ⁇ R, 7G, 7B) as shown in the following equation.
  • the luminance signal and the chrominance signal are defined as follows.
  • the color difference conversion circuit 206 multiplies the three primary colors (R (red), G (green), and B (blue)) digital signals of the subject by the color enhancement gain ( ⁇ R, rG. 7B). Then, the image signal is converted into an image pickup signal of a luminance signal Y and a color difference signal “R-—, ⁇ - ⁇ ”, and the converted signal is sent to the image processing unit 402.
  • the processing unit 4 includes an image processing unit 402 and a determination unit 404.
  • the extraction processing circuit 4202 is a circuit having roughly two functions.
  • the extracted color condition data (described later) transferred from the extracted color condition determination unit 4002 for each horizontal line.
  • the pixel corresponding to is extracted, and on one horizontal line, This function transfers the position coordinate data (edge coordinate data) to the edge determination unit 4206.
  • the captured image signal may be supplied to the extraction processing circuit 402 through a buffer (not shown).
  • the extracted color condition data is satisfied.
  • a pixel is called a rising edge, and its coordinate data is called edge coordinate data of the rising edge.
  • the extracted color condition data is satisfied.
  • the falling pixel is called a falling edge, and its coordinate data is called edge coordinate data of the falling edge. It is assumed that the edge coordinate data includes, in addition to the coordinate information, information indicating whether the edge coordinate is a rising edge or a falling edge.
  • Another function of this circuit is to sample color data (Y, R-—, ⁇ - ⁇ ) of a specific pixel (pixel at a specific position in one frame) from the captured image information. The function is to transfer the data to the extraction color condition determination unit 402.
  • the extraction color condition determination unit 4002 4 determines the data (Y, R- ⁇ , ⁇ - ⁇ ) corresponding to the road color, which is stored in advance in the control data unit 604 of the memory 6. Based on the color data (Y, R- ⁇ , ⁇ - ⁇ ) sampled by the extraction processing circuit 402, the extraction color condition data is determined and transferred to the extraction processing circuit 402.
  • the extracted color condition data is the color data of the pixel.
  • the extraction processing circuit 4202 extracts the pixels satisfying the extracted color condition data according to the data, and converts the edge coordinate data. Ask.
  • the method of determining the extraction color condition data immediately after the device is started, data corresponding to the road color stored in advance is adopted, and after a predetermined time has elapsed, sampling is performed by the extraction processing circuit 402. A method of using the color data obtained is considered, but a more specific example of the determination method will be described later.
  • the edge judging unit 4202 sets each of the edge coordinate data (edge coordinate data of the rising edge and the falling edge) sent from the extraction processing circuit 402 to be strong.
  • the other edge coordinate data is, for example, edge coordinate data extracted from image information of a preceding vehicle.
  • edge coordinate data considered to form the left and right lanes is transmitted to the lane calculating section 4208, and other edge coordinate data is transmitted to the risk determining section 4404.
  • the lane calculating unit 4208 determines the linearity based on the edge coordinate data sent from the edge determining unit 402, which is considered to constitute the left and right lanes. Then, a straight line composed of the edge coordinate data of each lane is calculated as a candidate lane.
  • the number of candidate lanes may be one or more per lane. The determination of linearity will be described later.
  • the ideal lane width data fetching section 420210 has a function of fetching predetermined ideal lane width data and the like into the ideal lane width data section 602 of the memory 6.
  • the ideal lane width data is data indicating the width of a driving lane composed of left and right lanes.
  • the lane estimating unit 4 0 2 1 2 is a candidate lane transmitted from the lane calculating unit 4 0 2 8 based on the ideal lane width data etc.
  • the left and right lanes to be recognized are determined from among the above, and edge coordinate data and the like corresponding to the left and right lanes are transmitted to the danger determination unit 44044.
  • the determining unit 404 is an example in which the present embodiment is applied to a driver's alert device, and the determining unit itself does not form a main part of the present embodiment.
  • the vehicle state determination unit 44042 determines the traveling state of the vehicle based on the signal sent from the vehicle state sensor 8, and transfers the determination result to the danger determination unit 44044.
  • the vehicle state sensor 8 is a means for detecting the momentum of the own vehicle, the driver's intention to operate, and the like.
  • a vehicle speed sensor for measuring the speed of the own vehicle, other direction indicators, and a steering angle And the like.
  • the left and right sent from the lane estimation section 4 Recognizes the traveling lane of the vehicle based on the data of the recognized lane, and recognizes the presence of a preceding vehicle, obstacle, etc., based on the edge coordinate data transmitted from the edge determination unit 402 and the vehicle status determination unit. Recognize the degree of danger of running the vehicle from the data transmitted from 4 0 4 2 c
  • the speed of the vehicle is detected by a vehicle speed sensor, and the speed of the vehicle is higher than or equal to a predetermined value, and the identification in the forward image information If it is possible to recognize the presence of a vehicle ahead in the position, this is determined to be a dangerous state, and the vehicle motion control device 10 and the alarm device 12 are driven.
  • the vehicle motion control device 10 is a device that controls a drive system, a braking system, a steering system, and the like. A specific example is an automatic brake.
  • any means may be used as long as it appeals to the driver's hearing or vision and draws attention to the driver, such as a chime driving operation and LED display. Can be considered.
  • the memory 6 also stores an ideal lane width data section 602 for storing ideal lane width data used when determining lanes, various data for controlling the apparatus, and data corresponding to road colors (Y, R — A control data section 604 for storing ⁇ , ⁇ - ⁇ ) and the like, and a calculation data section 606 for temporarily storing data calculated and estimated by each circuit.
  • the apparatus is turned on to activate the apparatus (S2).
  • the initial setting is, for example, processing such as clearing the work area of the calculation data section 606.
  • a signal corresponding to image information ahead of the vehicle which is captured by the CCD camera 202, is output as an analog RGB signal (S6).
  • the analog RGB signal is converted to a digital RGB signal by the A / D converter 204 (S8).
  • the color difference conversion circuit 206 converts the RGB signal into a luminance signal Y, a color difference signal R- ⁇ , and ⁇ - ⁇ based on the above-described conversion formula (S10), and an extraction processing circuit 40 Transfer to 202.
  • the use of the luminance signal and the color difference signal is different from the simple RGB This is because the difference from the lane becomes a large signal.
  • the extraction color condition is a condition of color data for extracting a pixel on a road surface.
  • the extraction processing circuit 4202 supplies color data (Y, R- ⁇ , ⁇ - ⁇ ) of a specific pixel (a pixel at a road position on the screen) from the captured image information. Sample.
  • the extraction color condition determination unit 4002 stores the sampling data and the data (Y, R- ⁇ , ⁇ ) corresponding to the road color stored in the control data unit 604 of the memory 6 in advance. -Use ⁇ ) to determine the extraction color condition data.
  • the extracted color condition data determined here is determined, for example, as follows. In the following, the “minimum” is the smaller of the data corresponding to the road color stored in advance as the sampling data, and the “maximum” is the road data stored in advance as the sampling data. A larger one of the data corresponding to the colors may be adopted to determine the extraction color condition data.
  • the extraction color condition data is determined based on the sampled data and the preset data. However, only the preset data is used, and (It is set in advance according to the conditions, etc.) It is also possible to determine the extraction color condition data.
  • the extraction processing circuit 4202 adds, to the captured image information, the pixels having the color information corresponding to the extracted color condition data transferred from the extracted color condition determination unit 4002.
  • the processing is performed to extract the edge coordinate data of the rising edge, the edge coordinate data of the falling edge in the evening, and to transfer the edge coordinate data of the falling edge to the edge determination unit 4206 (S14).
  • edge points sandwiching the road area (own lane) The rising edge and the falling edge are extracted.
  • the extracted rising edge and falling edge (indicated by circles) are referred to as rising edge data and falling edge data, respectively.
  • the extraction method detects all pixels in one frame having a color belonging to the range of the extraction color condition data in the imaging signal (Y, R- ⁇ , ⁇ - ⁇ ). In this method, the detected pixels are set to a high level value of “1”, and the other pixels are set to a low level value of “0”.
  • This process is performed for each horizontal line.
  • N-column horizontal line Pixels whose pixel data changes from Low “0” to High “1” or High “1” to Low “0” are searched for every horizontal line. That is, a rising edge 14 from Low “0” to High “1” and a falling edge 16 from High “1” to Low “0” are detected. If such a pixel exists, the position of the pixel is used as edge coordinate data. From the edge coordinate data, the existence of pixels corresponding to the extracted color condition data can be grasped in one horizontal line, and the area sandwiched by the edge coordinate data is the road area (road color area) of the driving lane of the vehicle. Become. A left lane and a right lane exist on both sides of a screen center line 18 which is a vertical line passing through a screen lower center point 20 which is a point indicating a horizontal center position of a screen lower part.
  • the left lane is determined from the rising edge data
  • the right lane is the force determined from the falling edge data ⁇ If there are multiple types of edge data for objects other than the lane, In this way, lanes cannot be recognized easily.
  • the edge judging unit 4202 adds, to the edge coordinate data sent from the extraction processing circuit 402, the edge data force considered to be in charge of the left lane, It is determined whether it is edge data that is considered to be in charge or other edge data, and a process of sorting is performed (S16).
  • the type of edge data is determined based on the edge coordinate data transmitted from the extraction processing circuit 402.
  • the edge coordinate The data consists of coordinate information of each edge and information of rising or falling.
  • the rising edge becomes the edge indicating the left lane
  • the falling edge becomes the edge indicating the right lane.
  • edge data other than the lane will be incorrectly recognized as lane edge data.
  • the rising edge existing on the left side of the screen center line 18 in Fig. 3 is the left lane edge data 14 and the falling edge on the right side is the right lane edge data 16 and the other edge data is It may be determined as edge data other than the lane of the preceding vehicle.
  • the left and right lanes are determined using the screen center line 18, but the vertical line passing through the center of the two intersections where the left and right lanes intersect the horizontal line at the bottom of the screen is defined as the screen center line. It is also possible to use instead of 18.
  • edge coordinate data 14 and 16 of the left and right lanes are transmitted to the lane calculating section 402 and the other edge coordinate data are transmitted to the risk determining section 4404.
  • the lane calculating unit 4208 determines the linearity of the edge data based on the edge coordinate data 14 and 16 of the left and right lanes transferred from the edge determining unit 400206. And calculate a lane using each edge coordinate data, and use this as a candidate lane.
  • the lane estimating unit 4002 From the candidate lanes, the original left and right lanes (recognized lanes) are estimated, and the estimation result is transmitted to the risk determination unit 44044 (S20). This processing is also an important processing in the present embodiment, and will be described later in detail.
  • the traveling state (vehicle speed, etc.) of the own vehicle is determined from the signal from the vehicle state sensor (for example, vehicle speed sensor) 8, and the determination result and the above-described Estimating whether or not the host vehicle is in danger from the relationship between the road surface that can be traveled recognized by the lane estimating unit 402 and the front vehicle edge data transmitted from the edge determining unit 402 I do.
  • vehicle state sensor for example, vehicle speed sensor
  • the speed of the own vehicle detected by the vehicle speed sensor is equal to or higher than a predetermined value, and If it is possible to recognize the presence of a vehicle ahead at a specific position in the image information, it is determined that this is a dangerous state.
  • the warning device 12 is driven to inform the driver of the vehicle.
  • the configuration may be such that the vehicle motion control device 10 is driven when it is determined that the driver's operation has been insufficient even for the warning of the danger state.
  • the apparatus operates by repeating these series of processes (S6 to S26).
  • the edge data 14a (1401a to 141 la) for the left lane and the edge data for the right lane, which were obtained in the edge determination process (S16). Evening 1 6 a (1 6 0 1 a to 1 6 1 1 a) is judged for linearity, respectively (S 1 8 0 2)
  • the lane calculating unit 4202 sets the coordinates of the edge data for the left lane located at the lower part of the screen information as the start point, and then sets the coordinates of the edge data located at the top of the screen as the end point.
  • the direction of the vector is determined sequentially.
  • the reason why the coordinates of the edge data located at the lower part of the screen are set as the starting point is that the upper part of the screen has many images other than the road surface, and therefore has many noise factors.
  • a vector having a starting point of 141a and an ending point of 140a is assumed first. In this way, the values indicating the direction of each vector are sequentially stored in the calculation data section 606.
  • FIGS. 5B, 5C, and 5D show details of such a vehicle lane recognition method.
  • a vector connecting the cluster points P 0 and P 1 is L
  • a vector connecting the cluster points p 1 and P 2 is L 1
  • vectors 2 to L 5 are sequentially created in the same manner.
  • the vector L 0 is registered in the group 1, and the number of points constituting the group is two.
  • the comparison vector is L 1
  • the angle between the reference vector and 1 is obtained. If this angle is, for example, 10 degrees or less, they are regarded as the same straight line.
  • the vector (L 0 + L 1) that is, the vector connecting P 0 and P 2 is re-registered in group 1 and the number of points in this group is set to 3.
  • the next comparison vector is assumed to be L0-10L1, and is compared with the reference vector 2, which is also determined to be a straight line.
  • group 1 is updated, and the vector L 0 + .- + L 2, that is, the vector connecting P 0 and P 3 is re-registered as group 1, and as a result, the number of members of the group is set to 4. .
  • the next comparison vector is L 0 +--+ L 2, and since these angles are more than 10 degrees when compared with the reference vector 3, a new group 2 is created.
  • the vector L3, that is, the vector connecting P3 and P4 is registered in group 2, and the number of points constituting this group is set to two.
  • the vectors are determined as 0 +--+ L2 + L3, that is, the vector M0 connecting P0 and P4. Is registered in group 3 and the number of points in this group is 2.
  • the comparison vector is determined using the newly created vector M0 as the reference vector, but since this M0 includes the processing start point P0, it is processed as the reference vector. Is not performed.
  • the next comparison vector is M0 and 3, which are two. Compared to the reference vector L4, both are more than 10 degrees, so Group 4 is newly created. As a result, the vector L4, that is, the vector connecting P4 and P5 is registered. This group has two points. Further, here, the adjacent reference vectors (L 3 and L 4) were determined to be different groups, so the vector L 3 + L 4, that is, the vector M 1 connecting P 3 and P 5 was assigned to the group 5. Register and set the number of points in this group to 2.
  • the comparison vector is determined using the newly created vector Ml as the reference vector. Then, L 0 + L 1 + L 2 becomes the comparison vector, and when the angle is obtained, since it is less than 10 degrees, group 1 is updated and the vector L 0 +-+ L 2 + M 1 That is, the vector connecting P0 and P5 is re-registered as group 1, and as a result, the number of members of the group is set to 5. Then, the number of constituent points of Ml is set to 0 (zero).
  • the next comparison vector is L 0 +-+ L 2 + M 1 and L 4 .
  • both angles are less than 10 degrees, so the angle is large.
  • the small angles L5 and L0 ++ L2 + M1 are determined to be straight lines.
  • the group 1 is updated, the vector is re-registered as 0 +-+ L 2 + M 1 + L 5, that is, the vector connecting P 0 and P 6, and the number of points in this group is 6 become.
  • each group is rearranged in descending order of the score.
  • the groups are grouped in the order of 2, 3, 4, and 5, and the four straight lines excluding group 5, which has 0 (zero) points, are recognized as candidate lanes for the own vehicle.
  • Such grouping processing is similarly performed on edge data for the right lane.
  • the lane calculating section 42008 obtains a straight line from the edge coordinate data of each group using the least square method or the like, and sets the obtained lane as a candidate lane (1804).
  • straight lines 22 and 24 are candidate lanes for the left lane
  • straight lines 26, 28 and 30 are candidate lanes for the right lane.
  • a candidate lane composed of the largest number of edge data is obtained and selected (S2002).
  • a straight line 22 which is one of the candidate lanes of the left lane is selected, and a straight line 26 which is one of the candidate lanes of the right lane is similarly selected.
  • the left lane candidate lane (straight line 2), which is composed of the largest number of edge data 2)
  • the number of edge data (9 points of 1401a, 1403a to 1406a, 14408a to 141a), and the number of other edge data (14 0 2 a, 1 4 0 7a) (S 2 0 4).
  • the edge data of the left candidate lane (straight line 22) composed of the largest number of edges is 1 for the entire edge data number 1 for the left candidate lanes 22 and 24.
  • 9 points, and the ratio of the number of edge data in the left candidate lane 22 to the number of edge data in the entire left lane is “82%”.
  • this ratio is determined to be higher than a predetermined ratio “70%” (such a ratio may be set in advance and stored in the control data section 604), and this ratio is determined to be higher.
  • the candidate lane (straight line 22) is set as the left lane (left recognition lane) to be confirmed (S206).
  • the number of edge data of the right candidate lane (straight line 26) composed of the largest number of edge data among the right candidate lanes 26, 28, and 30 (1 6 0 2 a to 16 0 4 a, 16 0 7 a to 16 1 la 8 points) and other edge data points (1 6 0 1 a, 1 6 0 5, 1 6 0 6 a 3 points) (S 2 0 8).
  • the edge data of the right candidate lane (straight line 26) consisting of the most edges is 8 points for 1 point of edge data of the entire right candidate lane. The ratio becomes “73%”.
  • this ratio is determined to be higher than a predetermined ratio “70%” (such a ratio may be predetermined and stored in the control data section 604), and the right candidate is determined.
  • the lane (straight line 26) is defined as the right lane (right recognition lane) to be recognized (S210).
  • the number of edge data (1402b, 1407b) is determined (S204), and the number of edge data for the left candidate lane is 1
  • the edge data of the left candidate lane (straight line 32) composed of 9 points is 9 points, and the ratio between them is “8 2%”.
  • this ratio is determined to be higher than a predetermined ratio (for example, 70%), and the left candidate lane (straight line 32) is regarded as the left lane to be recognized (left recognition lane). Yes (S206).
  • the number of edge data of the right-hand traffic lane (straight line 38) composed of the largest number of edge data (1601b, 1603b, 1660) 5 b, 16 06 b, 14 09 b, 16 11 b) and other edge data points (i 60 2 b, 160 4 b, 16 07) (5 points of b, 16608b, 1610b) (S2108), and composed of the largest number of edge data for 1 point of edge data of the entire right candidate lane
  • the number of edge data for the left-hand traffic lane (straight line 38) is 6 points, and the ratio between them is “55%”, which is judged to be lower than the predetermined ratio (for example, 70%). I do.
  • the predetermined ratio for example, 70%
  • the right candidate lane (straight line 36, straight line 38, straight line 40) is used by utilizing the arrangement relationship between the left and right lanes. ), The process (S2102) of determining the right recognition lane is performed.
  • FIG. 7 is a flowchart showing the details of the processing of S201 in FIG.
  • this distance W is set in the ideal lane width data section 602 in advance as the ideal lane width W50.
  • the ideal lane width W50 can be determined and updated by image processing based on the recognized lane information for each processing cycle.
  • L (3) 48 is determined to be the closest
  • the right candidate lane 40 corresponding to L (3) is determined to be the right lane to be recognized (the right recognition lane) (S 20 1 2 1 2)
  • the left and right recognized lane data are transmitted to the danger judgment section 4404, and then the process proceeds to step S22.
  • the horizontal line at the bottom of the screen is used in the example shown in FIG. 6, the horizontal line constituting the screen information does not have to be the horizontal line at the bottom, and the area of the screen information extends beyond the horizontal line.
  • lane calculation process (S 18) and the lane estimation process (S 20) in the example shown in FIG. 9 will be described with reference to FIG. 4 and FIG. It is assumed that the processing of steps S16, S1802, S1804, S2002, and S204 has been performed.
  • the example shown in Fig. 9 shows that the ratio of the number of edge data in each of the candidate lanes (straight line 52, straight line 58) composed of the largest number of edge data to the left and right lanes is This is the case where it is determined that the ratio is lower than the predetermined ratio (S204, S204).
  • the straight line 50, the straight line 52, the straight line 54, and the straight line 56, the straight line 58, and the straight line 60 of the left candidate lane are recognized by using the arrangement relation of the two lanes. It is necessary to determine whether or not the lane should be.
  • FIG. 10 is a flowchart illustrating the details of the processing of S 2 0 2 0. It should be noted that these processes are configured to be performed by the lane estimation section 402.
  • this process first, the intersection points P r (1) 50 p, P r (2) of each left candidate lane (straight line 50, straight line 52, straight line 54) and the horizontal line 42 at the bottom of the screen 52 p, P r (3) 54 p are obtained (S 202 0 2).
  • the intersection P1 (1) 56p, PI (2) 58p, PI of each right candidate lane on the right (straight line 56, straight line 58, straight line 60) and the horizontal line 42 at the bottom of the screen (3) Obtain 60p (S202204).
  • the number of edge data of the left and right candidate lanes composed of the straight line 52 and the straight line 60 is larger than that of the edge data of the left and right candidate lane composed of the straight line 50 and the straight line 56.
  • the left and right lanes to be recognized are determined to be straight line 52 and straight line 60 (S 2 0 2 0 1 2), and the left and right recognized lane data are determined by the risk determination unit 4. Transmit to 0404 and perform the following processing (S22).
  • the left and right recognition lanes may be determined as follows. That is, first, all combinations of left and right weather lanes are narrowed down to a plurality (for example, 3 or more) of combinations of edge data in descending order of the number of edge data. The intersection with the horizontal line is found, and the distance between the intersections for the combination of multiple left and right candidate lanes is found. Then, a plurality of (eg, two) distances closest to the ideal lane width among the distances between the obtained intersections are obtained. Then, the left and right candidate lanes having a large number of edge data among the combinations of the left and right weather capturing lanes constituting the plurality of distances are set as the left and right recognition lanes.
  • a plurality of (eg, two) distances closest to the ideal lane width among the distances between the obtained intersections are obtained.
  • the left and right candidate lanes having a large number of edge data among the combinations of the left and right weather capturing lanes constituting the plurality of distances are set as the left and
  • the difference between the angle of the latest candidate lane and the recognition result on the previous screen is calculated.If the difference is large, the wrong lane is considered as a candidate, and another selection process is performed. Is to do.
  • FIG. 11 is a flowchart illustrating the present modified example
  • FIG. 12 is a diagram illustrating an example of extraction of edge data for describing a lane estimation process in the modified example of FIG. 11.
  • the processing of steps S16 to S202 is the same as that of FIG.
  • step S2002 in the example shown in FIG. 5A, the number of edge data of the candidate lane (straight line 2 2) of the left lane (1441a, 14 0 3 a to 14 0 6 a, 14 0 8 a to 14 11 a 9 points) and other edge data numbers (1 4 0 2 a, 1 4 0 7 a (2 points) is obtained (S204).
  • the left candidate lane composed of the most
  • the edge data of (straight line 2 2) is 9 points, and the ratio of the number of edge data of the left candidate lane 22 to the number of edge data of the entire left candidate lane is “8 2%”.
  • this ratio is higher than a predetermined ratio “70%” (such a ratio may be set in advance and stored in the control data section 604), and This is the left candidate lane
  • the angle difference between this candidate lane and the left lane obtained on the previous screen is obtained (S205).
  • the angle difference between the candidate lane and the left lane obtained on the previous screen is 4 degrees.
  • it is determined that the angle is smaller than a predetermined angle, for example, “20 degrees” (such an angle may be predetermined and stored in the control data section 604), and the left candidate lane is determined.
  • a predetermined angle for example, “20 degrees” (such an angle may be predetermined and stored in the control data section 604)
  • the edge data number (1) of the right candidate lane (straight line 26) composed of the largest number of edge data among the right candidate lanes 26, 28, and 30 6 0 2 a to 16 0 4 a, 16 0 7 a to 16 11 a 8 points) and other edge data points (16 0 1 a, 16 0 5, 16 0 6 (3 points of a)
  • the edge data of the right candidate lane (straight line 26) consisting of the most edges is 8 points for one edge data of the entire right candidate lane, and the ratio between them is Becomes “73%”.
  • this ratio is determined to be higher than a predetermined ratio “70%” (such a ratio may be predetermined and stored in the control data section 604), and is determined as a right candidate.
  • the angle difference between the candidate lane and the right lane obtained on the previous screen is 4 degrees.
  • it is determined that the angle is smaller than a predetermined angle, for example, “20 degrees” (such an angle may be predetermined and stored in the control data section 604), and the right candidate lane is determined.
  • a predetermined angle for example, “20 degrees” (such an angle may be predetermined and stored in the control data section 604)
  • Edge data of the left-hand traffic lane (straight line 3 2) composed of the largest number of edge data for 1 point 9 points, and the ratio between them is “82%”.
  • this ratio is determined to be higher than a predetermined ratio (for example, 70%), and is set as the left candidate lane (straight line 32).
  • the angle difference between the candidate lane and the left lane obtained on the previous screen is calculated (S2005), and a predetermined angle, for example, "20 degrees" (such an angle is determined in advance) If it is determined that the left candidate lane (straight line 3 2) is smaller than the left lane (left recognition lane) to be recognized (S 2 0 0 6).
  • the number of edge data of the right candidate lane (straight line 38) composed of the largest number of edge data (1 6 0 1 b, 1 6 0 3 b, 1 6 0 5 b, 1606 b, 1409 b, 16 1 lb (6 points) and other edges Evening points (1602 b, 1604 b, 1607 b, 16) (5 points of 08b, 1610b)) (S2008), and the number of edge data in the entire right candidate lane is 1.
  • the left candidate consisting of the largest number of edge data
  • the number of edge data on the lane (straight line 38) is 6, and the ratio between them is “55%”, which is judged to be lower than the predetermined ratio (for example, 70%).
  • the predetermined ratio for example, 70%
  • the angle difference between the right candidate lane and the right lane obtained in the previous screen is calculated. (S 2 0 9).
  • a predetermined angle for example, “20 degrees” (such an angle may be predetermined and stored in the control data section 604)
  • the right candidate lane (straight line 36, straight line 38, straight line 40) is used by utilizing the arrangement relationship between the left and right lanes. ), The processing (S2102) for determining the right recognition lane is performed.
  • Fig. 9 shows the ratio power of the number of edge data in each of the candidate lanes (straight line 52, straight line 58) composed of the largest number of edge data for the left and right lanes. This is the case where it is determined that the ratio is lower than the ratio (S204, S214). In this case, recognition is performed for all of the left candidate lane line 50, line 52, line 54, and right-hand catch line line 56, line 58, line 60 using the relationship of the two lanes. It is necessary to determine whether or not the lane should be used.
  • the left and right candidate If it is determined that the angle difference between the lane and the left and right recognition lanes on the previous screen is larger than a predetermined angle (S205, S205), the following processing is performed. Do. That is, for all of the left candidate lane and all of the right candidate lane, it is determined whether or not the lane to be recognized is based on the arrangement relationship of both lanes.
  • the present embodiment when recognizing the lane to the traveling lane of the own vehicle based on the image information captured by the on-board camera, By referring to information such as the arrangement of lanes from among the candidate lanes, it is possible to accurately recognize the lane of the vehicle in the traveling lane. This makes it possible to accurately grasp the road surface ahead of the vehicle.
  • FIG. 13 shows a second embodiment of the present invention.
  • This embodiment is roughly divided into an imaging section A, a display section B, and a processing section C, as shown in FIG. It consists of an image processing unit D and a judgment unit E.
  • the display section B may be omitted.
  • the configuration of the imaging unit A is as follows.
  • the zoom lens mechanism 1002 and the zoom adjuster 1004 control the focal length of the optical system based on the optical system magnification signal specified by the extraction condition determiner 10038 (described later), and the captured image It works to enlarge or reduce the size.
  • the iris mechanism unit 106 and the iris adjustment unit 1008 close the aperture of the optical system when the captured image including the subject is too bright according to the instruction of the thorough extraction condition unit 108, and close the subject. If the captured image is too dark, open the aperture so that the brightness of the subject image becomes an appropriate value.
  • the CCD camera 110 functions to convert an optical image into a color image signal.
  • the AZD converter 101 converts the color image signal into a digital color signal.
  • the color difference conversion circuit 1 0 1 4 is a circuit that receives a digitized color image signal and converts it into a color separation color image signal composed of a luminance signal Y and a color difference signal R-Y, B- ⁇ .
  • this color separation color image signal is defined as follows using the respective color components R (red), G (green), and ⁇ (blue) constituting the three primary colors of the color image.
  • yR, rG.yB are conversion gains specified by the extraction condition determining unit 1038.
  • the delay circuit 106 is a circuit that delays image output while performing various processes in the processing unit C, and synchronizes the processing result with the captured image.
  • the replacement circuit 11018 is a circuit that superimposes the processing result from the processing unit C on the captured image.
  • the encoder circuit 102 is a circuit that receives the processed image signal processed by the replacement circuit 108 and converts it into an NTSSC signal.
  • the monitor 102 is composed of, for example, an image display device such as a color cathode ray tube, and serves to receive an NTSSC signal and display a processed image.
  • an image display device such as a color cathode ray tube
  • the processing unit C includes the image processing unit D and the determination unit E as described above.
  • the configuration of the image processing unit D is as follows.
  • the color sampling circuit 1034 samples the color data from the captured image signal for the sampling pixel designated by the extraction condition determination unit 1038, and then outputs the sampled color data (the luminance signal Y and the color difference signal). R — ⁇ , ⁇ - ⁇ ⁇ ) are transferred to the extraction condition determination unit 103 4.
  • the extraction processing circuit 11036 identifies a pixel that satisfies the extraction color condition (described later) for the captured image, and transfers the coordinate data (extraction coordinate data) of the pixel to the replacement circuit 11018. And the coordinate data (edge coordinate data) of the edge pixels (pixels satisfying the extraction color condition and pixels not satisfied, pixels at the boundary with the pixel) for the group of pixels satisfying the extraction color condition are extracted from the road surface recognition unit 1.
  • a circuit that transfers the number of pixels satisfying the extraction color condition to the pixels within the designated area, and transfers the count value to the extraction condition determination unit 1038. Have been.
  • the extraction condition determining unit 1103 8 determines a sampling pixel position necessary for sampling the color data determined based on the road surface data transferred from the road surface recognition unit 104 4 by a color sampling circuit 10 34 The extraction color condition based on the circuit instructed by the color sampling circuit 1034, the color data transferred from the color sampling circuit 10, and the distribution ratio calculated from the count value transferred from the extraction processing circuit 1036. And a circuit for determining the adjustment value for the zoom adjustment unit 1004 and the iris adjustment unit 1008, and a color difference conversion circuit 1014. And a circuit for instructing a conversion gain (7R, rG. RB).
  • the road surface recognition unit 104 recognizes a road surface on which the vehicle can travel based on the edge coordinate data transferred from the extraction processing circuit 106, and uses the road surface data obtained as a result of the recognition as a risk level. It serves to transfer the data to the decision section 104 and the extraction condition decision section 103.
  • the configuration of the judgment unit E is as follows.
  • the vehicle state determination unit 1042 determines the traveling state of the vehicle based on the signal from the vehicle state sensor 1056, and the determination result is extracted by the extraction condition determination unit 11038 and the risk determination unit 1 It works to transfer to 0 4 4.
  • the risk determination unit 1044 estimates the risk from the relationship between the traveling state of the vehicle and the road surface on which the vehicle can travel, and notifies the driver of the estimated risk via the alarm device 1052. Notify.
  • the danger determining unit 1044 supplies a control signal to the vehicle motion control device 1054, To do the necessary work to avoid danger.
  • the memory 150 serves to hold the extraction conditions determined by the extraction condition determination unit 108, and further includes an extraction condition determination unit 108 and a road surface recognition unit 104. In addition, it functions as a storage location for data that needs to be temporarily stored in the processing performed by the vehicle state determination unit 1042 and the risk determination unit 104.
  • the warning device 1052 is a means for notifying the driver of the risk estimated by the risk determining unit 1044.
  • the vehicle operation control device 1054 is a control device for a drive system, a braking system, and a steering system.
  • the vehicle state sensor 10056 is a means for detecting the amount of exercise of the own vehicle, the driver's intention to operate, and the like, and the detected signal is output to the vehicle state determination unit 1042.
  • the first processing is the CCD camera 1010, AZD converter 1012, color difference conversion circuit 1014, delay circuit 1016, replacement circuit 11018, ENCO This is a process of a captured image flowing through the integrated circuit 10020 and the monitor 1022. This will be described below with reference to FIGS. 14 and 15.
  • a color image signal of the subject captured by the CCD camera 101 is captured (S306), and then converted to a digital signal by the A / D converter 104. 8) o
  • the color difference conversion circuit 11010 converts this digital signal into a color-separated color image signal (S310).
  • the delay circuit 101 2 receives the color-separated color image signal, delays the time required for processing by the processing unit C (S 312), and synchronizes the captured image with the processing result.
  • the replacement circuit 11014 superimposes the processing result of the processing section C on the color-separated color image signal that has not been processed (S314).
  • the encoder circuit 106 converts the superimposed image signal into an NTSC signal (S316).
  • the monitor 118 captures the NTSC signal, and displays the processed captured image (S318).
  • the second process is a process of setting extraction conditions in FIG. 14 (S320).
  • the edge extraction processing may be performed in the same manner as in the first embodiment.
  • the extracted image signal is received by making the extraction condition correspond to the change of the environment, and the pixel of the same color as the road surface is extracted by the extraction processing circuit 106. That is, the extraction color conditions Y M , ⁇ , ( ⁇ - ⁇ ) ⁇ , ⁇ , ( ⁇ - ⁇ ) ⁇ , (RY) ⁇ , ⁇ , (R- ⁇ ) MAX for extracting the pixels on the road surface,
  • the color data Y, ⁇ - ⁇ , and R- Y of the pixel on the imaging screen are compared with each other, and a pixel in the captured image that satisfies the relationship of the following equation (1) is extracted (S320).
  • the boundary coordinate data of the group of extracted pixels is transferred to the road surface recognition unit 104 (S322).
  • a plurality of straight lines or curves are calculated from the transferred edge coordinate data, and a road surface on which the vehicle can travel is estimated from the positional relationship (S328).
  • the road surface estimation that is, the lane estimation process may be performed in the same manner as in the first embodiment.
  • the vehicle speed, deceleration, lane change intention, steering amount, etc. are determined based on signals from the vehicle status sensor 106, which is composed of a vehicle speed sensor, brake pedal operation sensor, turn signal operation sensor, and steering angle sensor. Judgment of the traveling state of the own vehicle, and the distance from the preceding vehicle, relative speed, presence / absence of a side vehicle, based on the relationship between the result of the judgment and the road surface recognized by the above-mentioned road surface recognition unit 104. Then, the degree of danger to the own vehicle such as the wobble of the own vehicle is estimated (S336).
  • the danger level estimated by the danger level determination section 1044 is used as a warning device (for example, indike, voice, alarm sound, LED, etc.) 1052, or the monitor of the display section B (vehicle TV, The driver of the own vehicle is notified using the head-up display (102) (S338).
  • a warning device for example, indike, voice, alarm sound, LED, etc.
  • the monitor of the display section B vehicle TV
  • the driver of the own vehicle is notified using the head-up display (102) (S338).
  • a warning device for example, a character display board, inter-vehicle communication, etc. 1052 is also used to notify the driver of a nearby vehicle.
  • the risk level determining section 1044 controls the vehicle motion control device 1054.
  • Characteristics Avoid danger by changing or automatically operating (S340) o
  • a screen has a plurality of fixed waterside lines, for example, a lower part (near) and a middle part (distant), and a part (intermediate part) between these parts. 3) Set three fixed waterside lines La, Lb, and Lc in advance.
  • the point at which the intersection between the fixed horizontal line and the straight line of the approximate left and right lane obtained in the previous processing is divided into a plurality of equal parts, for example, three equal points, is determined, and the obtained six points are used as sampling pixel positions.
  • Set to. There shall be at least one sampling pixel for each fixed horizontal line.
  • the color data (Y, B_Y, RY) of the specified six sampling pixels are obtained from the captured image signal to which the color data of all the pixels of the captured image are sequentially transferred. Sampling is performed by color sampling times g.
  • the above extracted color conditions ( ⁇ ⁇ 1 , ⁇ , ( ⁇ - ⁇ ) ⁇ , ⁇ , ( ⁇ — ⁇ ) ⁇ , (R— ⁇ ) ⁇ ⁇ ⁇ , (R— ⁇ ) ⁇ ) and the color data ( ⁇ , ⁇ —Y, RY) of the pixels within the specified range on the imaging screen shown in FIG. That is, immediately after satisfying the relationship of the above expression (1), the pixels satisfying the extraction color condition are counted.
  • the target distribution ratio which indicates the ratio of the number of pixels excluding the area of the vehicle in front, is calculated by the following equations. Number of pixels that satisfy the extraction color condition within the specified range
  • the number of pixels satisfying the extraction color condition within the specified range is the number of pixels on the road surface excluding the lanes within the specified range.
  • the total number of pixels within the designated range is the number of pixels on the road surface including the lane.
  • the “number of pixels of the recognized lane or the area of the preceding vehicle” may be a predetermined value or a variable value according to the road environment. Also, an estimated value from the previous screen may be used.
  • the target distribution rate is usually 80% to 90%.
  • the “specified range”, “the number of pixels of the recognized lane or the area of the vehicle in front”, and the target distribution ratio may be stored as preset values in the extraction condition determination unit 38, or set from outside. It may be done.
  • day / night discrimination processing (S207) is performed on the six sampled color data.
  • a plurality of sampled color data on the same horizontal line, here two color data are compared, and if the absolute value of the difference between these two data is larger than a threshold value stored in the memory, the sampling pixel position is set. This data is not used because it is judged that there is a preceding vehicle or a display on the road surface.
  • the average value (H s ) of all the sampled data of the three horizontal lines L a, L b, and L c and the average value of the data on each horizontal line L a, L b, and L c (H, , H h , H,).
  • day / night judgment is performed as follows. When it is judged that it is noon, it is when the following conditions (2) and (4) or (3) and (4) are satisfied.
  • the reason for determining daytime as described above is that in the daytime, the brightness is equal between near and far, or farther than nearer, because of the angle of incidence of natural light (sunlight). is there.
  • the reason for judging night as described above is that, in the case of night, the nearer is brighter than the farther due to the light of the vehicle.
  • the set threshold will be described. If the environment of the road is different, for example, if the pavement of the road surface is different, it may be determined that day or night. For example, a new pavement is dark in the daytime, and the distant brightness of the new pavement in the daytime is almost 40. On the other hand, the luminance of a normal road surface in the daytime is almost 100, and the luminance of a distant road at night is almost 0 irrespective of the road surface condition. Therefore, if the set threshold value is set to 50, the daytime judgment formula ((2) and (4) or (3) and (4)) is not satisfied in the daytime, and the nighttime judgment formula (( Neither 5) and (7) nor (6) and (7)) are satisfied. Therefore, in such a case, the erroneous judgment is prevented by using the previous judgment result as it is.
  • a daylight offset value is added to set a luminance area S1d that satisfies the luminance signal conditions for a daytime road surface.
  • the color signal is almost close to the achromatic color already stored in the memory, and the area is the night road surface, as shown in Figure 15C.
  • the maximum value and the minimum value of the above-mentioned four or six points of sampled color data are obtained, and the night offset stored in the memory for each value is obtained.
  • a luminance area S 1 n that satisfies the luminance signal condition of the night road surface is set by adding a value.
  • the reason why the “set color area that satisfies the color signal conditions of the road at daytime” is substantially a square is that, in the daytime, the light that forms the image is mainly natural light.
  • the outside light mainly consists of light from a vehicle or other light at night, and the light from the light or the like usually has a larger yellow component than natural light. Things.
  • the offset value (night offset value) in the “set luminance area that satisfies the luminance signal condition on the night road surface” is the offset value (daytime offset value) in the “set luminance area that satisfies the luminance signal condition on the daytime road surface”. (Offset value) is greater because the brightness at night is more affected by external light (street lights, etc.) than at daytime (it fluctuates greatly due to external light).
  • a predetermined range for example, ⁇ 0.0
  • Five ranges are provided, and three types of regions, for example, an “enlarged” region, a “hold” region, and a “reduced” region are set with the range as a boundary.
  • the method of updating the extraction color condition is determined as follows according to where in the three types of regions the calculated distribution ratio obtained in the process of S 206 is located.
  • the color signal will be described.
  • the average values C a, C b, and C c of the color signals of the data on the three horizontal lines L a, L b, and L c are obtained, and all the average values C a, C b, and C c are used as the extraction color condition.
  • Setting color area When the value is within the range of S cd (for daytime) or S en (for night), the range of the setting color area is obtained by adding the margin set in the memory to the maximum and minimum values of the sample data. Update.
  • the luminance signal when the calculated distribution ratio is in the “enlarged” region will be described.
  • FIG. when the minimum value of the brightness of the sample data is smaller than the minimum values of the set brightness areas S 1 d (for daytime) and S 1 n (for nighttime) of the extraction color condition, FIG. As shown in the figure, the value obtained by subtracting the margin set in the memory from the minimum value of the sample data is set as the minimum value of the new extraction color condition, and the setting area is updated. On the other hand, if the maximum value of the brightness of the sample data is within the set brightness area of the extraction color condition, S 1 d or S 1 n, the maximum value of the set brightness area of the extraction color condition is the set value in the memory.
  • the calculated distribution rate is in the “reduced” area.
  • the average values C a, C b, of the color signals of the data on the three horizontal lines L a, L b, L c If Cc is found and all the average values C a, C b, and C c are within the range of the color area set in the extraction color condition, the minimum and maximum of those average values C a, C b, and C c The value obtained by adding the margin set in the memory to the value is used as the new maximum and minimum values of the set color area, and the range of the set color area is updated. At this time, if at least one of Ca, Cb, and Cc is out of the range of the set color area, the range of the set color area is not updated.
  • the maximum value and minimum value of the luminance of the sample data are obtained. If this minimum value is outside the range of the luminance range set in the extraction color condition, the minimum value of the sample data is set to the set margin in the memory. The value obtained by adding only the values is set as a new minimum value of the luminance area set in the extraction color condition.
  • the minimum value of the brightness of the sample data is larger than the minimum value of the set brightness area of the extraction color condition, the value obtained by adding the margin set in the memory to the minimum value of the sample data is used for the set brightness area.
  • the updated minimum value If the maximum value of the luminance of the sample data is outside the range of the luminance setting area of the extraction color condition, the maximum value of the luminance setting area of the extracting color condition is reduced by the setting value in the memory.
  • the maximum value of the brightness of the sample data is smaller than the maximum value of the set brightness area of the extraction color condition, the half value of the difference between the maximum value of the brightness of the sample data and the maximum value of the set brightness area of the extraction color condition is determined.
  • the maximum value of the set brightness area is updated by subtracting L from the maximum value of the set brightness area of the extraction color condition.
  • the extraction color condition is relaxed to expand the area extracted as the road surface, and thereby it is intended to detect the lane accurately.
  • the areas Al, A2, and A3 of the screen brightness are the brightness areas of the road surface, such as lanes and ruts
  • the distribution rate is the "enlarged” area.
  • the setting area S 1 d (for daytime) or S 1 n (for nighttime) is expanded to a part of the areas A 1 and A 3.
  • the extraction color conditions are strictly (restricted) to reduce the area that is extracted as the road surface, thereby trying to detect the lane accurately. Things.
  • the sampled data is applied to the preset area.
  • the processing is performed in two states as shown in FIGS. That is, when at least one of the sample data is outside the area as shown in FIG. 22A, the set area does not change.
  • the circumscribed rectangle maximum and minimum values of the color data
  • the circumscribed rectangle is set to the set value in the memory. (Offset value) widen (add the offset value to the maximum value of the color data and subtract the offset value from the minimum value) to create a new setting area.
  • the sampled data is processed in a preset area in two states as shown in FIGS. 23A and 23B. That is, as shown in Fig. 23A, when all the sample data are within the preset area, the maximum value and the minimum value of the luminance data of the sample data are obtained, and the maximum value of the sample luminance data is set to the sample luminance data.
  • the set value (offset value) in the memory is subtracted from the maximum value of the set area to obtain the minimum value of the set area.
  • the setting value (offset value) in the memory is added to, and a new setting area is created.
  • the sampled data is divided into two states as shown in Figs. 24A and 24B for the set area. That is, when all the sample data are in the preset area as shown in FIG. 24A, the set area does not change. If even one of the sample data is outside the area as shown in Fig. 24B, a new set area is created by adding the set value (offset value) in the memory to the sample data. .
  • the sampled data is thus, as shown in FIGS. 25A and 25B, processing is performed in two states.
  • the minimum value of the preset area is added to the maximum value of the preset area and the preset value (offset value) in the memory.
  • the set value (offset value) in the memory is subtracted from the value to create a new set area. Also, as shown in Fig.
  • the luminance data of the sample data is The maximum value and minimum value of the sample luminance data are calculated, and the maximum value of the sample luminance data is added to the value of 1 Z 2 which is the difference between the maximum value of the sample luminance data and the maximum value of the preset area, and the minimum value of the sample luminance data Subtract the set value (offset value) in the memory from the value to create a new set area.
  • the zoom magnification is determined based on the recognized road surface data so that the lane width matches the screen width at the lower part of the screen.
  • the reference value of the auto iris mechanism is set to the aperture value during normal use of the video camera (close the aperture so that it does not saturate even when the sky is partially photographed, that is, the aperture value In contrast, when it is determined that it is night, the aperture is opened slightly, that is, the aperture value is set to be large.
  • the extraction conditions are changed according to the change, so that the extraction condition is always changed.
  • the road surface area can be reliably recognized.
  • the road surface is represented.
  • a monitoring device for a traveling road surface capable of reliably recognizing an area of a road surface that can be traveled by changing extraction color conditions in response to environmental changes (day and night, differences in solar radiation, before and after a tunnel, etc.). Can be done.
  • FIG. 27 shows a configuration diagram of the image processing apparatus of the present embodiment.
  • the present apparatus is configured to include a photographing unit 2001, a processing unit 20005, a memory 20023, and a display unit 1004. And a judging unit 2000. Signals are exchanged between the vehicle state sensor 202, the vehicle motion control device 202, and the alarm device 2021, and the determination unit 2007.
  • the display unit may be omitted.
  • the CCD camera 2002 is an imaging means for capturing a forward image and obtaining image information, and has a function of converting the image information of the forward object into a color analog signal.
  • it when mounted on a vehicle, it may be installed near a gully in the front of the vehicle, in a location with little dirt, or in a room with a wide front view such as a room mirror or sun visor in the vehicle interior.
  • the 870 converter 203 converts the analog image signal output from the CCD camera 2002 into a digital signal.
  • the color difference conversion circuit 204 corresponds to the digital signal output from the AZD converter 203, that is, the three primary colors (R (red), G (green), and B (blue)) of the subject.
  • the digital signal to be converted is converted into a luminance signal Y and a color difference signal “R-Y, ⁇ - ⁇ ” defined by the following equation.
  • the luminance signal and the color difference signal obtained by the conversion are input to the delay circuit 210 and stored in the buffer 220.
  • the processing section 2000 will be described. The operation of the processing section will be described later, and the function of each component will be outlined here.
  • the processing unit 2000 includes an image processing unit 2000 and a determination unit 2000.
  • the buffer 205 is a means for storing the image information sent from the color difference converter 204, but does not necessarily need to have a capacity for one frame. For example, if the processing unit of the image processing is 3 lines, it may be configured to have a capacity of 3 lines.
  • the image zoom circuit 209 receives the image information from the buffer 225, and determines the zoom conditions (zoom center coordinates and enlargement) determined for each horizontal line by the zoom condition determination unit 209 described later. After performing the process of enlarging the image information only in the horizontal direction (for example, for each horizontal line) according to (ratio), the image information subjected to the enlarging process is transferred to the extraction processing circuit 210.
  • the buffer 1002 may be omitted, and the color difference conversion circuit 4 may send image information for each horizontal line to the image processing unit 106.
  • the zoom center coordinate is a parameter indicating the position of a reference point at which enlargement processing is performed when the image information is enlarged
  • the enlargement ratio is a parameter indicating the magnification at which the image information is enlarged.
  • the extraction processing circuit 210 extracts a pixel corresponding to predetermined extraction color condition data from the enlarged image information, performs image processing for removing noise and the like, and then executes one horizontal line. Above, the position coordinate data (edge coordinate data) for the extracted pixel is transferred to the edge coordinate conversion unit 11.
  • the extracted color condition data is data of a specific luminance and color difference. Usually, data of the luminance and color difference of a road color (traveling lane) is adopted and stored in the memory 2023 in advance.
  • the extraction processing circuit 210 may be configured to extract the data when necessary.
  • edge coordinate data of a rising edge pixel When examining one horizontal line, assuming a transition point from a pixel not satisfying the extracted color condition data to a pixel satisfying the extracted color condition data, a pixel satisfying the extracted color condition data is determined. , The rising edge pixel, and its coordinate data Is called edge coordinate data of a rising edge pixel. Similarly, when examining one horizontal line, assuming a transition point from a pixel that satisfies the extraction color condition data to a pixel that does not satisfy the extraction color condition data overnight, the extraction color condition A pixel that satisfies the data is called a falling edge pixel, and its coordinate data is called edge coordinate data of the falling edge pixel. It is assumed that the edge coordinate data includes, in addition to the coordinate information, information indicating whether the edge coordinate is a rising edge or a falling edge.
  • the edge coordinate conversion unit 201 determines the edge coordinates transferred from the extraction processing circuit 210 based on the zoom center coordinates and the enlargement ratio transferred from the zoom condition determination unit 209.
  • the data is converted into the coordinate data before the enlargement processing and transmitted to the lane recognition unit 201.
  • the zoom center coordinates and the enlargement ratio will be described in detail later in the image zoom processing.
  • the lane recognition unit 201 determines the edge coordinates for the left and right lanes with respect to the traveling lane in which the vehicle travels.
  • the data is extracted, and the left and right lanes are recognized based on the extracted edge coordinate data, and the recognition result is used as the zoom condition determination unit 200, the danger determination unit 201, and the replacement circuit 200. 1 Transfer to 5.
  • the detection of the edge coordinates and the recognition of the lane may be performed in the same manner as in the first embodiment.
  • the zoom condition determining unit 20009 receives the lane information recognized from the lane recognizing unit 201, calculates the zoom center coordinate and the enlargement ratio, and converts the edge coordinate conversion unit 201, image The data is transferred to the zoom circuit 208.
  • the zoom conditions ie, the coordinates of the zoom center and the enlargement ratio, may be set in advance for each horizontal line, and the image enlargement process may be performed.
  • the delay circuit 201 has a function of delaying the input image information by a time corresponding to various processing times in the processing unit 205 and outputting the delayed image information. This is a circuit for synchronizing a signal output from the lane recognition unit 201 with a processing result output from the lane recognition unit 201 when inputting the signal to the replacement circuit 210.
  • the replacement circuit 2 0 15 adds the processing unit 20 0 to the image delayed by the delay circuit 20 16.
  • the processing results from 5 are superimposed.
  • the lane recognition unit 201 shown in FIG. 42B is added to the photographed image shown in FIG. 42A output from the delay circuit 210 without any image processing.
  • the image information of the recognized lane is obtained by superimposing the image information of the lane recognized in step 2 on the captured image as shown in Fig. 42C.
  • the superimpose information for displaying the alarm information on the monitor 210 is also replaced by a replacement circuit 2. It suffices if it is configured to give 0 15.
  • FIG. 42D shows this alarm information displayed on the monitor 210.
  • the encoder circuit 201 is a circuit for converting the image information output from the replacement circuit 205 into an NTSC signal.
  • the monitor 208 receives the NTSC signal and displays the corresponding image information on the display screen.
  • the determining unit 2000 is an example in which the present embodiment is applied to a driver's alert device, and the determining unit itself does not form a main part of the present embodiment.
  • the vehicle state determination unit 201 determines the traveling state of the vehicle based on the signal sent from the vehicle state sensor 220, and transfers the determination result to the danger determination unit 201.
  • the vehicle state sensor 2008 is a means for detecting the momentum of the own vehicle, the driver's intention to operate, and the like.
  • a vehicle speed sensor for measuring the speed of the own vehicle, and other direction indicators And a steer angle sensor.
  • the danger judgment unit 201 recognizes the driving lane of the vehicle based on the edge coordinate data for the left and right lanes sent from the lane recognition unit 201, and the lane recognition unit 201 Edge coordinate data for objects other than the left and right lanes transmitted from the vehicle recognizes the presence of vehicles ahead, obstacles, etc., and data transmitted from the vehicle state determination unit 201. Recognize the degree.
  • the vehicle motion control device 202 is a device that controls a drive system, a braking system, a steering system, and the like. Ingredient An example of such a body is an automatic brake.
  • any means may be used as long as it appeals to the driver's hearing and vision and alerts the driver, such as a chime driving operation and LED. May be displayed.
  • the memory 202 stores and holds the zoom condition determined by the zoom condition determining unit 200, and further functions as a work area when the lane recognition unit 201 and the like perform processing. .
  • the “first processing” is that the AZD converter 203 converts the image information obtained by the CCD camera 2002 from analog to digital, and further, the color difference conversion circuit 204 And a color difference signal, a predetermined time is delayed by a delay circuit 210, and image processing is performed by a function of the replacement circuit 210.
  • the image processing result is then processed by an encoder circuit 201. This is a series of processing in which the processing result is displayed on the monitor 210 as an NTSC signal.
  • initialization is performed (S404).
  • the initial setting includes, for example, processing such as clearing the work area area of the memory 202.
  • the operations performed by humans include initial adjustment of the photographing unit 200 and display unit 214 and the initial values of the extraction color conditions and zoom conditions used in the second processing described later. ⁇ £ by the department.
  • a signal corresponding to image information in front of the vehicle which is captured by the CCD camera 2002, is output as an analog RGB signal (S406).
  • the analog RGB signal is converted into a digital RGB signal by the A / D converter 203 (S408), and the color difference conversion circuit further converts the digital RGB signal into the digital RGB signal according to the above-described conversion formula. Is converted into luminance and color difference signals (S410).
  • the delay circuit 210 receives the image signal output from the color difference conversion circuit 4 as an input signal. The input signal is delayed by the processing time required by the processing section 205 (S412) to synchronize with the signal processed by the processing section 5.
  • the replacement circuit 210 performs a process of superimposing the processing result of the processing unit 205 on the unprocessed original image information (S 414), and the encoder circuit 210. 17 converts the output signal of the replacement circuit 210 into an NTSC signal (S416), and displays a display image corresponding to the NTSC signal on the monitor 210 (S418) ) o
  • step (S406) the process branches to step (S406) in order to obtain image information of the subject in the next cycle.
  • a frame rate for example, 16.7 ms
  • Image zoom processing (S 420) will be described in detail later.
  • Image zoom circuit 200 0 8 Force Image information obtained by shooting is enlarged only in the horizontal direction according to the set zoom conditions. Then, it is the process of enlarging the image such as the road surface and the white line. For example, a process of enlarging the original image shown in FIG. 29A as shown in FIG. 29B is performed.
  • the extraction processing circuit 210 extracts the edge pixels. This is shown in Figure 29C. Of course, the edge coordinates are also extracted.
  • FIG. 30 is a flowchart showing the processing contents of the edge extraction processing (S422).
  • the set extraction color condition and the color data of all pixels Compare with the evening and extract the pixels that satisfy the extraction color condition.
  • edge point discrimination processing in order to remove noise, smoothing processing using, for example, spatial filtering of “3 pixels ⁇ 3 pixels” is performed, and half of the nine pixels are used. If the above pixels are a group of pixels that satisfy the extraction color condition, these nine pixels are pixels that satisfy the extraction color condition.
  • a pixel that satisfies the extracted color condition data is defined as a rising edge pixel, and its coordinate data is defined as the edge coordinate data of the rising edge pixel.
  • a pixel that satisfies the extraction color condition data changes from a pixel that satisfies the extraction color condition data to a pixel that does not satisfy the extraction color condition data, a pixel that satisfies the extraction color condition data Is the falling edge pixel, and its coordinate data is the edge coordinate data of the falling edge pixel.
  • the edge coordinate data is transferred to the edge coordinate conversion unit 201.
  • the image information includes a road surface and a lane. However, when another vehicle or the like exists on the road surface, edge pixels that do not form the lane are extracted.
  • the edge coordinate data is shown in FIG. 29D by referring to the zoom center coordinate and the enlargement ratio transferred from the zoom condition determination unit 2010.
  • the data is converted into the coordinate data before the enlargement and transferred to the lane recognition unit 201.
  • FIGS. 31A and 31B show image information before and after the enlargement process, respectively.
  • the edge coordinate data P ′ in FIG. 31B can be converted into the edge coordinate data P before enlargement by the following equation.
  • W is the horizontal width of a set of pixels constituting the image information.
  • the lane recognition unit 201 performs the following processing.
  • the lane recognition unit 2 0 1 2 sends the edge sent from the edge coordinate conversion unit 2 0 1 1 Based on the coordinate data, an edge pixel that is considered to be for the left lane, an edge pixel that is considered to be for the right lane, and other edge pixels are determined and subjected to classification processing.
  • the type of the edge pixel is determined based on the edge coordinate data sent from the edge coordinate conversion unit 201.
  • the edge coordinate data is composed of coordinate information of each edge pixel and information of rising or falling.
  • the rising edge pixel indicates the left lane
  • the falling edge pixel indicates the right lane.
  • edge pixels other than the lane are also recognized as edge pixels of the lane.
  • the rising edge pixel existing on the left side of the screen center line in Fig. 29-29E is the left lane edge pixel
  • the falling edge pixel on the right side is the right lane edge pixel.
  • the pixel may be determined as an edge pixel of a vehicle ahead or the like.
  • an approximate straight line is obtained by, for example, the least squares method or the like, and this is set as a recognition lane.
  • the edge coordinate data of the edge pixels other than the edge pixels for the left and right lanes is determined to be a pixel indicating the vehicle ahead, and the edge coordinate data closest to the position of the own vehicle is determined by the presence of the front vehicle. Position.
  • the traveling state (vehicle speed, etc.) of the own vehicle is determined from a signal from a vehicle state sensor (for example, a vehicle speed sensor) 202, and the determination result is obtained. And the relationship between the road surface that can be driven by the lane and the location of the preceding vehicle, and whether or not the own vehicle is in danger.
  • a vehicle state sensor for example, a vehicle speed sensor
  • the speed of the own vehicle detected by the vehicle speed sensor is equal to or higher than a predetermined value and the position of the preceding vehicle is within a predetermined range, this is determined as a dangerous state.
  • the alarm device 202 is driven to notify the driver of the own vehicle.
  • the danger determination unit 21013 drives the vehicle base and the vehicle motion control device 2022 determined to be in a dangerous state. It should be noted that the configuration may be such that the vehicle motion control device 2022 is driven when it is determined that the driver's operation has been insufficient even for the danger state alarm.
  • the apparatus operates by repeating these series of processes.
  • FIG. 32 shows a flowchart for explaining the processing contents of the image zoom processing (S420).
  • the zoom condition determining unit 2109 determines the zoom center coordinates and the enlargement ratio for each horizontal line. (S502).
  • the zoom center coordinate is a parameter indicating a position of a reference point at which an enlargement process is performed when the image information is enlarged
  • the enlargement ratio is a parameter indicating a magnification at which the image information is enlarged.
  • the zoom center coordinate is, for example, the center position of the driving lane between the recognized left and right lanes, and the enlargement ratio is such that the enlarged lane does not protrude from the screen (for example, 80% of the screen width W). Degree).
  • Such a determination is made between the recognized left and right lanes with reference to the edge coordinate data and the like constituting the lane sent from the lane recognition unit 201 and the zoom condition determination unit 200 This is done by ascertaining the center position of the running lane and the running lane width.
  • it is not necessary to sequentially update the zoom center coordinates and the enlargement ratio they may be determined in advance for each horizontal line and stored in the zoom condition determination unit 2909.
  • Figure 33A shows an example of lane recognition results obtained by processing in the previous cycle. Assuming that the left lane coordinate is xl and the right lane coordinate is xr on the y-th horizontal line from the top edge of the screen, the zoom center coordinate C and the magnification R are expressed by the following equations.
  • is a coefficient for preventing the lane after the enlargement process from protruding from the screen.
  • is a coefficient for preventing the lane after the enlargement process from protruding from the screen.
  • a is the lower limit
  • FIG. 34 shows an example of a lane recognition result when a scene on a curved road is assumed and the recognized left lane force is only partially present in the screen.
  • the zoom center coordinate C and the enlargement ratio R are expressed by the following equations.
  • FIG. 35 shows an example of a lane recognition result when a scene on a curved road is assumed and the recognized right lane is only partially present in the screen.
  • the left lane coordinate is X1
  • the right lane coordinate does not exist in the screen. Therefore, the zoom center coordinate C and the enlargement ratio R are expressed by the following equations.
  • the image zoom circuit 208 performs a process of enlarging the image according to the determined zoom center coordinates and the enlargement ratio (S504).
  • the enlargement processing for one horizontal line will be described with reference to the zooms 36A and 36B.
  • the data of 8 pixels (assuming that one horizontal line is composed of 8 pixels) is enlarged at a magnification of "2x" using the position indicated by the arrow as the zoom center coordinate. The case of processing will be described.
  • select the pixel data to be enlarged It is assumed that four pixels are selected around the zoom center coordinates. Then, the size of the image information for the selected pixel is doubled and assigned to eight pixels forming one horizontal line.
  • FIG. 36A the image information shown in FIG. 36A is enlarged as shown in FIG. 36B.
  • the entire screen information can be enlarged in the horizontal direction.
  • Figure 38A is a detailed view of section A (part of the right lane) shown in Figure 37A.
  • Fig. 38B shows the result of image enlargement processing (magnification: 2x) of Fig. 38A.
  • image enlargement processing magnification: 2x
  • FIG. 30: S504 spatial filtering of “3 pixels ⁇ 3 pixels” is performed to remove noise.
  • FIG. 37C shows the state of change of the enlargement ratio set for each horizontal line. Specifically, although the enlargement ratio of the horizontal line located above the Nth horizontal line is constant, The enlargement ratio is determined so that the enlargement ratio continuously decreases for horizontal lines located below the Nth horizontal line.
  • FIG. 38A shows an example of three image data P 1, P 2, and P 3 when the magnification is 1 ⁇ , and each image data is formed by a total of 9 pixels of 3 pixels ⁇ 3 pixels.
  • Figure 3 In the example of 8A, In each of the image data PI and P3, out of the nine pixels, three pixels indicate a white lane and six pixels indicate a road surface. On the other hand, in the image data P2, all of the nine pixels are pixels indicating a white lane line. Accordingly, in the edge point discriminating process, as shown in FIG. 38C, the image data Pl, P2, and P3 are respectively composed of a road surface pixel P 1 ′, a white line pixel P 2 ′, and a road surface pixel P 3 ′. Be considered. Fig.
  • 38B is an image obtained by enlarging the image of Fig. 38A by a factor of two and consists of six image data P la, P 1b, P 2a, P 2b, P 3a, and P 3b. Have been.
  • the image data PIa and P3b out of the nine pixels, one pixel indicating the white line of the lane, eight pixels indicating the road surface, and nine pixels in each of the image data P1b and P3a.
  • five images indicate the lane white line
  • four pixels indicate the road surface
  • all nine pixels in the image data P2a and P2b indicate the white line of the lane. Therefore, in the edge point discriminating process, as shown in FIG.
  • the image data P la and P 3b are regarded as road surface pixels P 1 a ′ and P 3 b ′, respectively, and the image data P 1 b, P2a, P2b, and P3a are regarded as white line pixels Plb ', P2a', P2b ', and P3a', respectively. Therefore, in the image enlarged as shown in Fig. 38D, the ratio of the white line in the area A (see Fig. 37) is "2Z3". The percentage of white lines is larger than “1/3”. For this reason, white lines that cannot be recognized without enlargement processing can be recognized by performing enlargement processing and increasing the percentage of white lines in the image information. Therefore, by the enlargement processing, it is possible to recognize the lane with respect to the traveling lane in which the own vehicle travels farther.
  • FIG. 39A shows an example of three pieces of image data P 11, P 12, and P 13 when the magnification is 1 ⁇ , and each image data is formed by a total of 9 pixels of 3 pixels ⁇ 3 pixels.
  • each of the image data PI1 out of the nine pixels, there are two pixels indicating a white lane and seven pixels indicating a road surface.
  • the image data P 12 three pixels indicate a white line of a lane, and six pixels indicate a road surface.
  • the image data P13 all of the nine pixels are pixels indicating the road surface. Accordingly, in the edge point discrimination processing, as shown in FIG. 39C, the image data P 11 ′,
  • FIG. 39B is an image obtained by enlarging the image of FIG. 39A by a factor of 2, and the six image data P 11 a, P llb, P 12 a, P
  • the image data P 12 a is regarded as the pixel P 12 a ′ of the white line
  • the other image data P lla, P llb, P 1 2b, P 1 3a, P 1 3b are the pixels P 1 1a ', PI lb', P 1 2b ', P 1 3a', P
  • an enlargement factor larger than a predetermined value 1 is set for a horizontal line (including the M-th horizontal line) positioned above the M-th horizontal line, Also, for horizontal lines located below the M-th horizontal line, an enlargement ratio different from the above-mentioned predetermined enlargement ratio (in the case of FIG. ) Is set in advance.
  • FIG. 40B shows a processing example when the enlargement ratio is discontinuous.
  • Figure 4OA shows the original image before enlargement.
  • a horizontal line located above a specific horizontal line is enlarged at a certain enlargement ratio, and a horizontal line located below is not distant. Can be accurately and reliably recognized. It should be noted that a specific horizontal line may be set to one of the enlargement ratios.
  • the calculation amount is smaller than the method of calculating the enlargement ratio for each horizontal line. It can be significantly reduced.
  • the simplest method is to set the horizontal line for changing the enlargement ratio and the enlargement ratio in advance, and refer to this to make the image zoom circuit 2008 perform image enlargement processing.
  • the center coordinates of the own vehicle traveling lane sandwiched between the left and right lanes of the horizontal line for changing the enlargement ratio may be used as the zoom center coordinates.
  • the present embodiment by performing a process of expanding the pixel information captured by the image capturing device in the horizontal direction, it is possible to secure a wide field of view with a simple configuration and to control a distant traveling road. On the other hand, it is possible to realize a device that can accurately recognize lanes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

明 細 書 車両用の画像処理装置 技術分野
本発明は、 撮像によって得た画像情報に基づいて、 特定の、 直線又は曲線を示 す画像を選択する画像処理装置に係り、 特に、 車載カメラにより撮影された画像 情報に基づいて、 自車両の走行レーンに対する車線を正確に認識する装置に関す る。 背景技術
車載カメラにより撮影された画像情報に基づいて、 走行路領域を認識する装置 としては、 例えば、 特開平 4 - 1 3 4 5 0 3号公報 (文献 (1)) に開示されたもの がある。
この装置では、 画像入力手段によって入力した画像情報から、 走行路端を抽出 し、 該走行路端を抽出した画像について、 画像下方より特定基準点から左右方向 に走査する走査手段と、 前回の走査の走査領域の中心を、 次の走査の左右方向に 関する特定基準点として設定する手段とを備えて、 走査手段にて走査した領域に 基づいて、 走行路領域を抽出するものであった。
すなわち、 画像情報を構成する画素であって、 画面の下部に位置する画素に対 する色を特定色 (路面色) とし、 該特定色に相当する色情報を有する画素の集合 から構成される領域を調べ、 該特定色で囲まれた領域を、 車両の前方の道路領域 として判断していた。
しかしながら、 上記のような文献 (1 )の従来技術によれば、 特定色で囲まれた領 域を、 前方道路領域としているが、 これだけでは、 走行路端 (車線に相当する) に囲まれた道路領域を、 正確に抽出できない事態が発生する等の問題が存在して いた。
例えば、 前方道路領域内に、 わだち等が存在することにより道路領域の形状が 複雑になってくると、 道路領域内に車線以外の走行路端が存在すると判断してし まい、 走行路端の正確な認識が行なえず、 ひいては、 正確な道路領域の認識を行 うことができなし、事態が頻繁に発生していた。
一方、 自動車など、 道路を走行する車両では、 所定の走行路に沿って車両が走 行して行くように、 常に適切な操舵をしなければならない。
従って、 操縦者は、 常に走行路面を監視し、 路面の状態や他の車両の存在や障 害物の存在に注意を払っている必要があり、 このため、 操縦者には心理的にも、 肉体的にも多大の負担が掛る。
そして、 この結果、 集中力が失われたり、 注意力が散漫になって、 みだりに走 行車線を越えた運転状態になると、 重大な事故に繋がり兼ねない。
特に、 一般の道路のように、 対向車線がある場合に、 車両が中心車線を越えて 対向車線に入ってしまうと、 極めて深刻な事態になり兼ねない。
そこで、 特開昭 6 2 - 2 2 1 8 0 0号公報 (文献 (2)) によれば、 カラ一撮像装 置により車両前方の路面を撮影し、 そのカラー画像信号から、 車線と路面の色の 違いにより車線の存在を判断し、 必要な警報を発することにより、 運転者に報知 するようにした装置について開示している。
上記文献 (2)に記載の従来技術は、 車線を表現する色、 すなわち黄色又は白色に より車線の存在を判断している。
ここで路面の色は灰色であり、 従って確かに路面と黄色の車線との分離は可能 である。 しかしながら、 白色の車線と灰色の路面では色による分離は出来ず、 輝 度による分離を行わなければならない。
そこで、 道路周辺の状況、 即ち環境が変わった場合、 例えば、 トンネルの中 (黄色の照明により全体的に黄色に見える) や夜間の照明により輝度が変化する 場合、 この状況の変化に適応して車線を認識するのが困難である。
一方、 車載カメラにより撮影された画像データに基づいて、 走行車線を認識す る装置としては、 一般には、 カメラ 1台で前方の状況を撮影する方法がある。 し かし、 このような装置では、 広い範囲を認識するために、 広角のレンズを備えた 構成にすると、 遠方の車線の認識が困難となり、 一方、 遠方の車線を認識するた めに、 光学系のズーム機構を利用すると、 認識可能な視野が狭くなる、 という問 題が存在する。 これを改良する装置として、 例えば特開平 0 6 — 2 2 9 7 6 0号公報 (文献 (3)) に開示されたものが挙げられる。
この装置は、 低倍率光学系を備える固体撮像部と、 高倍率光学系を備える固体 撮像部を有し、 低倍率光学系を備える固体撮像部によって得られる画像データと、 高倍率光学系を備える固体撮像部により得られる画像データとを比較処理するに よって、 車両前方の比較的遠方の走行路の形状が曲走路であることや、 曲走路へ 移行する状態にあることを認識する装置である。
し力、しな力 ら、 上述したような文献 (3)の従来技術によれば、 比較的遠方の車線 の形状を認識する際に、 高倍率光学系を備えた固体撮像部を設けた構成としてい る。 このため、 低倍率光学系および高倍率光学系の双方の光学系と、 各光学系に 対する固体撮像部が必要となり、 装置構成が大きくなり、 必ずしも車載に適した 装置であるとはいえず、 また、 コストの増大は、 免れないという問題点がある。 また、 車載環境を考慮したとき、 高温下や振動振幅の大きな環境下では、 極力 光学系を少なく した、 装置構成にすることが切望されていた。
そこで、 本発明の第 1の目的は、 上記文献 ( 1 )の従来技術の問題点に鑑み、 車載 カメラにより撮影された画像情報に基づ 、て、 自車両の走行レ一ンに対する車線 を認識するにあたり、 前方道路領域内にノイズ等の車線以外のエツジが存在して も、 正確に車線を認識する装置を提供することである。
本発明の第 2の目的は、 上記文献 (2)の従来装置の問題点に鑑み、 自車直前の路 面の輝度と色の変化を判断し、 輝度と色による路面と車線との分離を可能にし、 確実に車線の認識が得られるようにした画像処理による走行路面の監視装置を提 供することである。
本発明の第 3の目的は、 上記文献 (3)の従来装置の問題点に鑑み、 車載カメラに より撮影された画像情報に基づいて、 自車両の走行レーンに対する車線を認識す るにあたり、 複数の光学系を備えた構成とならないような装置構成とし、 さらに、 広 、視野を確保しながら比較的遠方の走行レーンに対しても、 正確に車線を認識 可能な装置を提供することを目的とする。 発明の開示 本発明の一面によれば、 上記第 1の目的を達成するために、 画像を撮像し、 画 像情報を得るための撮像ュニッ 卜と ;撮像して得た画像情報を 1 ライン毎に走査 し、 ある特定の色と、 それ以外の色との境界を調べ、 該特定の色を有する画素を エツジ画素として抽出するエツジ画素抽出ュニッ 卜と ;抽出したエツジ画素を、 直線を構成するように結んで構成される線画像を求める線画像抽出ュニッ 卜と ; 抽出した複数の線画像のうちから、 2つの線画像を、 予め定めた規則によって選 択する線画像選択ュニッ 卜と、 を備える画像処理装置が提供される。
好ましくは、 該画像処理装置は、 車両に搭載され、 車両前方の画像を撮像し、 画像情報を得るための撮像ュニッ 卜と ;撮像して得た画像情報を 1 ライン毎に走 査し、 ある特定の色と、 それ以外の色との境界を調べ、 該特定の色を有する画素 をエツジ画素として抽出するエツジ画素抽出ュニッ トと ;抽出したエツジ画素の 位置座標を参照し、 直線を構成するようにエツジ画素を分類することを想定した とき、 各分類に対応するエッジ画素を結んで構成される直線を、 候補車線として 求める候補車線抽出ュニッ 卜と ;候補車線のうちから、 車両前方の左車線および 右車線を選択するための車線選択ユニッ トと、 を備える。
なお、 この装置において、 好ましくは前記車線選択ュニッ 卜は、 一方の車線を 選択する際に、 前方画像情報の中心垂直線を想定したとき、 該中心垂直線の左、 右いずれかにおいて、 最も多くのエッジ画素を有して構成される候補車線を、 車 線として選択する。
更に、 好ましくは、 車両に搭載された撮像ュニッ 卜によって、 車両前方の画像 を撮像し、 画像情報を得る。
好ましくは、 ェッジ画素抽出ュニッ 卜は、 撮像して得た画像情報を 1ライン毎 に走査し、 ある特定の色と、 それ以外の色との境界を調べ、 該特定の色を有する 画素をエッジ画素として抽出する。 さらに、 候補車線抽出ュニッ トは、 抽出した ェッジ画素の位置座標を参照し、 直線を構成するようにェッジ画素を分類するこ とを想定したとき、 各分類に対応するエッジ画素を結んで構成される直線を、 候 補車線として求める。
好ましくは、 車線選択ュニッ 卜は、 複数の候補車線のうちから、 車両前方の左 車線および右車線を選択して、 左車線、 右車線を求める。 好ましくは、 車線選択ュニッ 卜は、 車線を選択する際に、 前方画像情報の中心 垂直線を想定したとき、 該中心垂直線の左、 右いずれかにおいて、 最も多くのェ ッジ画素を有して構成される候補車線を、 車線として選択すること等が考えられ な。
このように、 本発明によれば、 複数の候補車線の中から、 車線の配置関係等の 情報に基づき、 正確に左右車線を検出でき、 その結果、 走行可能な路面領域を、 正確に認識することが可能となる。
本発明の別の一面によれば、 上記第 2の目的を達成するために、 走行路面の力 ラー画像データに基づいて、 走行路面に施されている車線を識別する画像処理装 置において、 車両の走行方向の前方を撮影するカラー撮像ュニッ 卜と ;該カラ一 撮像手段で撮像した画像データを 1ライン毎に走査し、 ある特定の色と、 それ以 外の色との境界を調べ、 該特定の色を有する画素をエッジ画素として求め、 該求 めたエツジ画素から所定の抽出色条件を満たす画素を抽出するエツジ画素抽出ュ ニッ トと ;上記画像データによる画面内から、 決定されている画素の色データを サンプリングする色サンプリングュニッ 卜と ;サンプリングされた色データに基 づいて上記抽出色条件を決定する抽出条件決定手段と ;抽出したエツジ画素を直 線を構成するように結んで構成される線画像を車線として求める線画像抽出ュニ ッ 卜と、 を備える画像処理装置が提供される。
好ましくは、 上記サンプリングされた色データに基づいて走行路面の照明条件 を判断するユニッ トを設け、 この判断結果により上記カラー撮像ユニッ トが有す る光学系の絞りの大きさと、 画像データ処理系での色変換ゲインが制御される。 好ましくは、 画素抽出ュニッ トは、 画像データによる画面内から、 決定されて いる抽出色条件を満たす画素を抽出し、 色サンプリングュニッ トは、 該画素抽出 ュニッ トにより抽出された画素から色データをサンプリングし、 さらに抽出条件 決定ユニッ トは、 サンプリングされた色データに基づいて上記抽出条件を決定す るように信力く。
この様に、 上記抽出された画素に基づいて車線の認識が行なわれるので、 道路 周辺の状況の変化に適応して、 輝度と色による路面と車線との分離を図ることが でき、 的確に車線の認識を得ることができる。 本発明の更に別の一面によれば、 上記第 3の目的を達成するために、 画像を撮 像し、 画像情報を得るための撮像ュニッ 卜と、 撮像した画像情報の大きさを拡大 する画像拡大処理ュニッ 卜と、 拡大した画像情報を水平 1 ライン毎に走査し、 あ る特定の色と、 それ以外の色との境界を調べ、 その境界となる画素をエッジ画素 として抽出し、 抽出したエッジ画素の位置座標を求めるエッジ画素座標検出ュニ ッ 卜と、 抽出したエッジ画素の位置座標を、 拡大処理前の座標に変換するエッジ 画素座標変換ュニッ 卜と、 エッジ画素の変換座標を参照し、 エッジ画素を、 直線 を構成するように結んで構成される線画像を求める線画像抽出ュニッ 卜と、 各水 平ライン毎に定めた、 画像情報の拡大量である拡大率、 および、 画像情報の拡大 処理を行なう基準位置を示す拡大中心座標を記憶する拡大条件記憶ュニッ 卜とを 備える画像処理装置が提供される。
好ましくは、 前記画像拡大処理ュニッ 卜は、 前記拡大条件記憶ュニッ 卜の記憶 内容を参照し、 各水平ライン毎に、 前記拡大中心座標を中心として、 前記拡大率 で示される倍率で、 画像情報の大きさを拡大していく処理を行なう。
好ましくは、 上記画像処理装置は、 車両に搭載され、 車両前方の画像を撮像し、 画像情報を得るための撮像ュニッ 卜と ;撮像した画像情報の大きさを拡大する画 像拡大処理ュニッ 卜と ;拡大した画像情報を水平 1 ライン毎に走査し、 ある特定 の色と、 それ以外の色との境界を調べ、 その境界となる画素をエッジ画素として 抽出し、 抽出したエッジ画素の位置座標を求めるエッジ画素座標検出ュニッ 卜 と :抽出したエッジ画素の位置座標を、 拡大処理前の座標に変換するエッジ画素 座標変換ュニッ 卜と ;エッジ画素の変換座標を参照し、 エッジ画素を、 直線を構 成するように結んで構成される左右車線を求める車線抽出ュニッ 卜と ;各水平ラ イン毎に定めた、 画像情報の拡大量である拡大率、 および、 画像情報の拡大処理 を行なう基準位置を示す拡大中心座標を記憶する拡大条件記憶ュニッ 卜とを備え る。
好ましくは、 前記画像拡大処理ュニッ トは、 前記拡大条件記憶ュニッ 卜の記憶 内容を参照し、 各水平ライン毎に、 前記拡大中心座標を中心として、 前記拡大率 で示される倍率で、 画像情報の大きさを拡大していく処理を行なう。
好ましくは、 前記画像拡大処理ュニッ 卜は、 撮影した画像情報の大きさを、 水 平方向にのみに拡大する処理を行なう。
好ましくは、 車両に搭載された撮像ュニッ 卜によって、 車両前方の画像を撮像 し、 画像情報を得る。
好ましくは、 拡大条件記憶ュニッ 卜には、 各水平ライン毎に定めた、 画像情報 の拡大量である拡大率、 および、 画像情報の拡大処理を行なう基準位置を示す拡 大中心座標が記憶される。
好ましくは、 画像拡大処理ュニッ 卜によって、 撮像した画像情報の大きさを拡 大する。
具体的には、 画像拡大処理ュニッ トは、 拡大条件記憶手段の記憶内容を参照し、 各水平ライン毎に、 前記拡大中心座標を中心として、 前記拡大率で示される倍率 で、 画像情報の大きさを拡大していく処理を行なう。 この際、 画像拡大処理ュニ ッ トは、 撮影した画像情報の大きさを、 7k平方向にのみに拡大する処理を行なう。 さらに、 エッジ画素座標検出ュニッ トは、 拡大した画像情報を水平 1ライン毎 に走査し、 ある特定の色と、 それ以外の色との境界を調べ、 その境界となる画素 をエッジ画素として抽出し、 抽出したエッジ画素の位置座標を求め、 また、 エツ ジ画素座標変換ュニッ トは、 抽出したエッジ画素の位置座標を、 拡大処理前の座 標に変換する。
また、 車線抽出ュニッ トは、 エッジ画素の変換座標を参照し、 エッジ画素を、 直線を構成するように結んで構成される左右車線を求める。
以上のように、 本発明では、 撮影ュニッ 卜によって撮影された画像情報を拡大 する (以下、 適宜、 単に、 「画像ズーム」 と称する) ことにより、 拡大処理され た画像データに基づいて、 走行車線を正確に認識することができる。
即ち、 画像ズームを採用することにより、 車線の幅を拡大した状態で、 路面と 車線の境界を示す画素 (エッジ画素) を抽出することができるため、 より遠方の 車線を正確に認識することが可能となる。 図面の簡単な説明
図 1は、 本発明の画像処理装置の第 1実施例の全体構成を示すプロック図であ る。 図 2は、 図〗の実施例の全体の処理を説明するフローチヤ一トである。
図 3 A、 図 3 Bは、 図 1の実施例においてエッジ検出動作を説明するための図 である。
図 4は、 図 1の実施例において、 車線算出処理、 車線推定処理の動作を説明す るフローチャートである。
図 5 A、 図 5 Bは、 車線の推定処理を説明するためのエッジデータの抽出例を 示す図である。
図 5 Cは、 図 5 Bでの車線認識処理を説明するフローチヤ一卜である。
図 5 Dは、 図 5 Bでの車線認識処理を説明するための図である。
図 6は、 車線の推定処理の別の例を説明するためのェッジデータの抽出例を示 す図である。
図 7は、 図 6における車線推定処理を説明するフローチヤ一トである。
図 8 A、 図 8 Bは、 理想レーン幅を説明する図である。
図 9は、 車線の推定処理の更に別の例を説明するためのエツジデータの抽出例 を示す図である。
図 1 0は、 図 9における車線の推定処理を説明するフローチャー トである。 図 1 1は、 図 1の実施例における車線推定処理の変形例を説明するフローチヤ ―トである。
図 1 2図は、 図 1 1の変形例における車線の推定処理を説明するためのエツジ データの抽出例を示す図である。
図 1 3は、 本発明の画像処理装置の第 2実施例の全体構成を示すプロック図で ある。
図 1 4は、 図 1 3の実施例の全体の処理を説明するフローチャー トである。 図 1 5は、 図 1 3の実施例における条件設定処理を説明するフローチャートで ある。
図 1 6は、 図 1 3の実施例における初期設定時のサンプリ ング画素の位置を示 す図である。
図 1 7八〜図 1 7 Gは、 図 1 3の実施例における初期設定での抽出色条件の設 定、 更新を説明するための図である。 図 1 8は、 図 1 3の実施例における抽出色条件設定の際のサンプリ ング画素の 位置を説明する図である。
図 1 9は、 図 1 3の実施例における分布率の算出に用いられる画面領域を説明 する図である。
図 2 0は、 図 1 3の実施例における抽出色条件の更新の方法を説明する図であ 。
図 2 1は、 図 1 3の実施例における抽出色条件の更新処理を説明するフローチ ヤー卜でめる。
図 2 2 A、 2 2 Bは、 図 1 3の実施例における抽出色条件の設定色領域の縮小 処理を説明する図である。
図 2 3 A、 2 3 Bは、 図 1 3の実施例における抽出色条件の設定輝度領域の縮 小処理を説明する図である。
図 2 4 A、 2 4 Bは、 図 1 3の実施例における抽出色条件の設定色領域の拡大 処理を説明する図である。
図 2 5 A、 2 5 Bは、 図 1 3の実施例における抽出色条件の設定輝度領域の拡 大処理を説明する図である。
図 2 6は、 図 1 3の実施例における色強調ゲインの設定特性を示す図である。 図 2 7は、 本発明の画像処理装置の第 3実施例の全体構成を示すプロック図で ある。
図 2 8は、 図 2 7の実施例の全体の処理を説明するフローチャートである。 図 2 9 A〜2 9 Eは、 図 2 7の実施例においての車線認識処理を説明する図で ある。
図 3 0は、 図 2 7の実施例におけるエツジ抽出処理を示すフローチヤ一トであ る。
図 3 1 A、 3 1 Bは、 エッジ座標変換処理の原理を説明する図である。
図 3 2は、 電子ズーム処理を説明するフローチャー トである。
図 3 3 A、 3 3 Bは、 ある画像におけるズーム中心座標を求める方法を説明す る図である。
図 3 4は、 ある画像におけるズーム中心座標を求める方法を説明する図である。 図 3 5は、 ある画像におけるズーム中心座標を求める方法を説明する図である c 図 3 6 A、 3 6 Bは、 拡大処理の原理を説明する図である。
図 3 7 A〜3 7 Cは、 拡大処理前後の画像及び拡大率を説明する図である。 図 3 8 A〜3 8 Dは、 エツジ判別処理を説明する図である。
図 3 9 A〜3 9 Dは、 エッジ判別処理を説明する図である。
図 4 0 A〜4 0 Cは、 拡大率が不連続に変化する場合の拡大処理前後の画像及 び拡大率を説明する図である。
図 4 1 A〜4 1 Cは、 拡大率が不連続に変化する場合のズーム中心座標を説明 する図である。
図 4 2 A〜4 2 Dは、 置換回路により処理結果を説明する図である。
発明を実施するための最良の形態
以下、 本発明にかかる画像処理装置の実施例について、 図面を参照しつつ説明 する。
図 1に、 本発明にかかる画像処理装置の第 1実施例の構成図を示す。
本装置は、 撮像部 2と処理部 4とメモリ 6とを有して構成され、 さらに、 処理 部 4は、 画像処理部 4 0 2と判断部 4 0 4とを備えている。 そして、 車両状態セ ンサ 8、 車両運動制御装置 1 0および警報装置 1 2と、 判断部 4 0 4との間で信 号がやりとりされている。 尚、 本実施例においても図 1 1 Fを示す実施例と同様 に撮影部 (撮像部) の出力側に表示部を接続するようにしても良い。
以下、 各構成要素について説明する。
まず、 撮像部 2の構成要素について説明する。
C C Dカメラ 2 0 2は、 前方の画像を撮像し、 画像情報を得るための撮像手段 であり、 前方の被写体の画像情報を得て、 カラ一アナログ信号に変換する機能を 有する。 車載装置においては、 C C Dカメラ 2 0 2を、 例えば、 車両前側のグリ ル付近で汚れ等の少ない、 良好な環境を有する箇所に設置すれば良い。
次に、 Aノ D変換器 2 0 4は、 C C Dカメラ 2 0 2から出力されたアナログ画 像信号を、 デジタル信号に変換する処理を行なう。
次に、 色差変換回路 2 0 6は、 A Z D変換器 2 0 4から出力されたデジタル信 号、 即ち、 被写体の三原色 (R (赤) 、 G (緑) 、 B (青) ) デジタル信号に、 色強調ゲイン (ァ R、 r G, ァ B) を乗じ、 その後、 輝度信号 Y、 色差信号 「R— Υ、 Β— Υ」 の画像撮像信号に変換する機能を有する回路である。
なお、 色強調ゲインを乗ずる処理は必ずしも必要としないが、 行なっておくの が好ましい。
画像撮像信号 (Y、 R— Υ、 Β-Υ) は、 RGB信号を用いて、 以下のように 定義される。 まず、 R' 、 G' 、 B' を、 RGB信号と色強調ゲイン (ァ R、 7 G, 7 B) によって、 次式に示すように定義する。
R' =R - 7 R
G' =G · ァ G
B' =B · r B
このように定義された、 R' 、 G' 、 B' を用いると、 輝度信号および色差信 号は、 以下のように定義される。
Y= 0. 3 R' + 0. 6 G' + 0. I B'
R - Y= 0. 7 R' - 0. 6 G' - 0. I B'
B - Y =— 0. 3 R' - 0. 6 G' + 0. 9 B'
このように、 色差変換回路 2 0 6は、 被写体の三原色 (R (赤) 、 G (緑) 、 B (青) ) デジタル信号に、 色強調ゲイン (ァ R、 r G. 7 B) を乗じ、 その後、 輝度信号 Y、 色差信号 「R— Υ、 Β— Υ」 の画像撮像信号に変換し、 変換した信 号を画像処理部 4 0 2に送る。
次に、 処理部 4について説明する力 その詳しい動作内容は後に説明するため、 ここでは、 各構成要素の機能を概説しておくことにする。
図 1に示すように、 処理部 4は、 画像処理部 4 0 2と判断部 4 0 4とを備えて いる。
まず、 画像処理部 4 0 2の構成要素について説明する。
抽出処理回路 4 0 2 0 2は、 大きく 2つの機能を有する回路である。
1つは、 色差変換回路 2 0 6から送られてきた撮像画像信号について、 1水平 ライン毎に、 抽出色条件決定部 4 0 2 0 4から転送された抽出色条件データ (後 に説明する) に該当する画素を抽出し、 1つの水平ライン上で、 その抽出画素に 対する位置座標データ (エッジ座標データ) を、 エッジ判断部 4 0 2 0 6に転送 する機能である。 尚、 撮像画像信号は図示しないバッファを介して抽出処理回路 4 0 2 0 2に与えるようにしても良い。
なお、 1つの水平ラインを調べていったとき、 抽出色条件デ一夕を満足しない 画素から、 抽出色条件データを満足する画素への変化点を想定した場合、 該抽出 色条件データを満足する画素を、 立ち上がりエッジと称し、 その座標データは、 立ち上がりエッジの、 エッジ座標データという。 同様に、 1つの水平ラインを調 ベていったとき、 抽出色条件データを満足する画素から、 抽出色条件データを満 足しない画素への変化点を想定した場合、 該抽出色条件データを満足する画素を、 立ち下がりエッジと称し、 その座標データは、 立ち下がりエッジの、 エッジ座標 データという。 なお、 エッジ座標データは、 座標情報の他に、 当該エッジ座標は、 立ち上りなのか、 または、 立ち下がりなのかを示す情報も含んでいるものとする。 本回路の、 他の 1つの機能は、 撮像された画像情報の中から、 特定画素 (1フ レームの特定の位置の画素) の色データ (Y、 R— Υ、 Β - Υ ) をサンプリング し、 そのデータを抽出色条件決定部 4 0 2 0 4に転送する機能である。
次に、 抽出色条件決定部 4 0 2 0 4は、 メモリ 6が備える制御データ部 6 0 4 に予め記憶してある、 道路色に相当するデータ (Y、 R— Υ、 Β - Υ ) と、 抽出 処理回路 4 0 2 0 2でサンプリングした色データ (Y、 R— Υ、 Β— Υ ) に基づ いて、 抽出色条件データを決定し、 抽出処理回路 4 0 2 0 2に転送する。
抽出色条件データとは、 画素の有する色データであり、 前述したように抽出処 理回路 4 0 2 0 2は、 このデータに従って、 抽出色条件データを満足する画素を 抽出し、 エッジ座標データを求める。 なお、 抽出色条件データの決定法としては、 装置起動の直後は、 予め記憶してある、 道路色に相当するデータを採用し、 所定 時間の経過後に、 抽出処理回路 4 0 2 0 2でサンプリングした色データを採用す る等の方法が考えられるが、 さらに具体的な決定方法例については、 後に述べる。 次に、 エッジ判断部 4 0 2 0 6は、 抽出処理回路 4 0 2 0 2より送られた各ェ ッジ座標データ (立ち上がりエツジおよび立ち下がりエツジのエツジ座標データ) 力く、 自車両の走行レーンの左車線を構成すると考えられるエッジ座標データ、 自 車両の走行レーンの右車線を構成すると考えられるエツジ座標データ、 および、 それ以外のエツジ座檩データのいずれに該当するかを、 予め定めたアルゴリズム によって判断しする回路である。 このアルゴリズムについては、 後に述べる。 な お、 それ以外のエッジ座標データとは、 例えば、 前方車の画像情報に対して抽出 したエツジ座標データ等が挙げられる。
そして、 左、 右車線を構成すると考えられるエッジ座標データを、 車線算出部 4 0 2 0 8に、 それ以外のエツジ座標データを、 危険度判断部 4 0 4 0 4に送信 する。
次に、 車線算出部 4 0 2 0 8は、 エッジ判断部 4 0 2 0 6より送られてきた左、 右車線を構成すると考えられるエツジ座標デー夕に基づ 、て、 直線性の判断を行 い、 各車線のエッジ座標データによって構成される直線を、 候補車線として算出 する。 候補車線は、 1車線に対して、 1個のこともあれば、 これより多いことも ある、 なお、 直線性の判断については、 後に述べる。
理想レーン幅データ取込部 4 0 2 1 0は、 メモリ 6の理想レーン幅データ部 6 0 2に予め定められている理想レーン幅データ等を取り込む機能を有する。 こ こで、 理想レーン幅データとは、 左右車線から構成される走行レーンの幅を示す データである。
車線推定部 4 0 2 1 2は、 理想レーン幅データ取込部 4 0 2 1 0が取り込んだ、 理想レーン幅データ等に基づいて、 車線算出部 4 0 2 0 8から送信された候補車 線の中から、 認識すべき左右車線 (認識車線) を決定し、 左、 右車線に対応する エッジ座標データ等を危険判断部 4 0 4 0 4に送信する。
次に、 判断部 4 0 4の構成要素について説明する。
なお、 判断部 4 0 4は、 本実施例を運転者の注意喚起装置に応用した一例であ り、 本判断部自体は、 本実施例の主要部をなすものではない。
車両状態判断部 4 0 4 0 2は、 車両状態センサ 8から送られる信号により、 自 車両の走行状態を判断し、 その判断結果を危険判断部 4 0 4 0 4に転送する。 ここで、 車両状態センサ 8は、 自車両の運動量、 運転者の操作意志等を検出す る手段であり、 例えば、 自車両の速度を計測する車速度センサ等や、 その他方向 指示器、 ステア角センサ等が挙げられる。
危険判断部 4 0 4 0 4では、 車線推定部 4 0 2 1 2より送られてきた、 左右の 認識車線のデータによって、 自車の走行レーンを認識し、 エッジ判断部 4 0 2 0 6より送信された、 エッジ座標データで、 前方車、 障害物等の存在を認識し、 車 両状態判断部 4 0 4 0 2より送信されたデータで、 自車の走行危険度を認識する c 例えば、 車速度センサが検出した、 自車両の速度が所定値以上で、 かつ、 前方 の画像情報中の特定位置に、 前方車等の存在を認識できた場合、 これを危険状態 と判断し、 車両運動制御装置 1 0や警報装置 1 2を駆動する。 車両運動制御装置 1 0は、 駆動系、 制動系、 操舵系等の制御を行なう装置である。 具体例としては、 自動ブレーキ等が考えられる。
また、 警報装置 1 2としては、 運転者の聴覚や視覚に訴えて、 運転者に注意を 喚起する手段であれば、 どのような手段でも良く、 例えば、 チャイムの駆動動作 や L EDの表示等が考えられる。
以上のような判断部 4 0の構成例については、 様々な態様が考えられる。
また、 メモリ 6は、 車線を決定する際に用いる理想レーン幅データを格納する 理想レーン幅データ部 6 0 2と、 本装置を制御するための各種データ、 道路色に 相当するデータ (Y、 R— Υ、 Β-Υ) 等を格納する制御データ部 6 0 4と、 各 回路で算出、 推定したデータを一時的に格納する算出データ部 6 0 6とを備えて いる。
次に、 本実施例にかかる装置の動作について図 2を参照して説明する。
まず、 本装置を起動すべく、 装置電源をオン状態にする (S 2) 。
次に、 初期設定を行う (S 4) 。 ここで、 初期設定とは、 例えば、 算出データ 部 6 0 6のワークエリアのクリア等の処理である。
次に、 CCDカメラ 2 0 2で撮像した、 車両前方の画像情報に対する信号をァ ナログ RGB信号として出力する (S 6) 。
次に、 A/D変換器 2 0 4によって、 アナログ RGB信号をデジタル RGB信 号に変換する (S 8) 。
次に、 色差変換回路 2 0 6は、 前述した変換式に基づいて、 RGB信号を輝度 信号 Y、 色差信号 R - Υ、 Β - Υに変換して (S 1 0) 、 抽出処理回路 4 0 2 0 2に転送する。
なお、 輝度信号、 色差信号を採用するのは、 単なる RGB信号と比べ、 道路と 車線との差が大きな信号となるからである。
次に、 抽出色条件データを決定する処理を行う (S 1 2 ) 。 抽出色条件とは、 ここでは道路面の画素を抽出するための色データの条件である。
この処理は、 まず、 抽出処理回路 4 0 2 0 2において、 撮像した画像情報中よ り特定画素 (画面上の道路位置の画素) の色データ (Y、 R— Υ、 Β - Υ) をサ ンプリングする。
次に、 抽出色条件決定部 4 0 2 0 4は、 このサンプリングデータと、 メモリ 6 の制御データ部 6 0 4に予め記憶してある道路の色に相当するデータ (Y、 R— Υ、 Β - Υ) を用いて、 抽出色条件データを決定する。 ここで決めた抽出色条件 データは、 例えば、 以下のように定める。 なお、 以下の 「最小」 は、 サンプリン グデータと予め記憶してある道路の色に相当するデータのうちで、 より小さなも の、 また、 「最大」 は、 サンプリ ングデータと予め記憶してある道路の色に相当 するデータのうちで、 より大きなものを採用して、 抽出色条件データを決定する ようにすれば良い。
Υ (最小) < Υ く Υ (最大)
R - Y (最小) < R— Y < R— Υ (最大)
B - Y (最小) < B— Y < B - Y (最大)
このように、 値の幅を持った条件を設定しておき、 前方の道路の色が、 この条 件を満足するが、 車線や前方の車の色は、 この条件を満足しないように設定して おく。 これにより車線や前方の車を識別できる。
なお、 本実施例では、 サンプリングしたデータと、 予め設定しておいたデータ とに基づ L、て抽出色条件デ一夕を決定したが、 予め設定したデータのみを用 L、て、 (輝度条件に合わせて予め設定しておく等) 抽出色条件データを決定することも 可能である。
次に、 抽出処理回路 4 0 2 0 2は、 撮像された画像情報に対して、 抽出色条件 決定部 4 0 2 0 4より転送された、 抽出色条件データに相当する色情報を有する 画素を、 1水平ライン毎に抽出し、 前述した、 立ち上がりエッジのエッジ座標デ —夕、 立ち下がりエッジのエッジ座標データを、 エッジ判断部 4 0 2 0 6に転送 する処理を行う (S 1 4 ) 。 すなわち、 道路領域 (自車レーン) を挟むエッジ点 である、 立ち上がりエッジおよび立ち下がりエッジを抽出する。 なお、 図 3に示 すように、 抽出された立ち上がりエッジ、 立ち下がりエッジ (丸で示す) を、 夫 々、 立ち上がりエッジデータ、 立ち下がりエッジデータと称する。
さて、 ここでの処理を、 図 3を参照して詳細に説明する。 図 3に示すように、 その抽出法は、 撮像信号 (Y、 R— Υ、 Β - Υ) の中に、 抽出色条件データの範 囲に属する色を有する 1 フレーム内の全ての画素を検出し、 検出された画素を H i g hレベルの値 「 1」 、 それ以外の画素を L o wレベルの値 「 0」 とした、 2値化データを与える手法である。
この処理は、 1水平ライン毎に行なう。 ここでは図 3に示すように、 一例とし て、 N番目の水平ライン (N列水平ライン) についての処理を説明している。 画素デ一夕が L o w 「 0」 から H i g h 「 1」 に、 あるいは H i g h 「 1」 力、 ら L o w 「0」 に変化する画素を 1水平ライン毎に検索する。 すなわち、 L o w 「 0」 から H i g h 「 1」 への立ち上がりエツジ 1 4と、 H i g h 「 1」 から L o w 「0」 への立ち下がりエッジ 1 6を検出する。 この様な画素が存在する場 合、 当該画素の位置をエッジ座標データとする。 エッジ座標データによって、 1 水平ラインにおいて、 抽出色条件データに該当する画素の存在が把握でき、 エツ ジ座標データに挟まれた領域が、 自車両の走行レーンの道路領域 (道路色の領域) となる。 画面下部の水平方向中心位置を示す点である画面下部中心点 2 0を通り、 垂直方向の線である画面中心線 1 8の両側に、 左車線と右車線が存在する。
そして、 通常、 左車線は、 立ち上がりエッジデータから決定され、 また、 右車 線は、 立ち下がりエッジデータから決定される力 <、 車線以外の物に対するエッジ データが、 複数種類存在する場合には、 このように簡単には、 車線を認識できな い。
次に、 エッジ判断部 4 0 2 0 6は、 抽出処理回路 4 0 2 0 2から送られたエツ ジ座標データに対して、 左車線に担当するものと考えられるエッジデータ力、、 右 車線に担当するものと考えられるエツジデータか、 それ以外のエツジ点デ一夕で あるかを判断し、 分別する処理を行う (S 1 6 ) 。
この処理 (S 1 6 ) では、 抽出処理回路 4 0 2 0 2から送られてきたエッジ座 標デ一夕に基づいて、 エッジデ一夕の種類を判定する。 ここで、 エッジ座標デ一 タは、 各エッジの座標情報と、 立ち上がりまたは立ち下がりの情報で構成されて いる。 一般に、 道路色を抽出色条件データに設定すると、 立ち上がりエッジが左 車線を示すエッジとなり、 立ち下がりエッジが右車線を示すエッジとなる。 しか しながら、 前方道路領域に、 前方車、 障害物等が存在する場合、 車線以外のエツ ジデータも、 車線エッジデータとして誤って認識してしまう。
そこで、 図 3の画面中心線 1 8より左側に存在する立ち上がりエッジを左車線 のエッジデータ 1 4、 右側に存在する立ち下がりエッジを右車線エッジデータ 1 6と仮定し、 それ以外のエッジデータを、 前方車等の車線以外のエッジデータ として判別すればよい。 ここで、 図 3に示す実施例では、 画面中心線 1 8を用い て左右車線を判別したが、 左右車線が画面下部の水平線と交わる 2つの交点の中 心を通る垂直線を、 画面中心線 1 8の代わりに用いることも可能である。
そして、 左右車線のェッジ座標デー夕 1 4、 1 6を車線算出部 4 0 2 0 8に、 それ以外のエッジ座標データを危険度判断部 4 0 4 0 4に送信する。
次に、 車線算出部 4 0 2 0 8は、 エッジ判断部 4 0 2 0 6より転送された、 左 右車線のェッジ座標データ 1 4、 1 6をもとに、 エッジデータの直線性の判断を 行い、 各エッジ座標データを用いて車線を算出し、 これを候補車線とする
( S 1 8 ) 。 なお、 本処理は、 本実施例においては重要な処理であるので、 後に 詳細に述べる。
次に、 車線推定部 4 0 2 1 2は、 理想レーン幅データ取込部 4 0 2 1 0が取り 込んだ、 理想レーン幅データに基づいて、 車線算出部 4 0 2 0 8から送信された 候補車線の中から、 本来の左右車線 (認識車線) を推定し、 推定した結果を危険 度判断部 4 0 4 0 4に送信する (S 2 0 ) 。 なお、 この処理も、 本実施例におい ては重要な処理であるため、 後に詳細に述べる。
次に、 危険判定処理 (S 2 2 ) では、 車両状態センサ (例えば、 車速度センサ) 8からの信号より、 自車両の走行状態 (車速等) を判断し、 その判断結果と、 前 述の車線推定部 4 0 2 1 2によって認識された走行可能な路面と、 エッジ判断部 4 0 2 0 6より送信された前方車エッジデータの関係から、 自車両が危険状態に あるか否かを推定する。
例えば、 車速度センサが検出した、 自車両の速度が所定値以上で、 かつ、 前方 の画像情報中の特定位置に、 前方車等の存在を認識できた場合、 これを危険状態 と判断する。
次に、 警報処理 (S 2 4 ) では、 危険度判断部 4 0 4 0 4で危険状態と判断し た場合、 警報装置 1 2を駆動して、 自車両の運転者に伝える。
次に、 回避処理 (S 2 6) では、 危険度判断部 4 0 4 0 4で危険状態と判断し た場合、 車両運動制御装置 1 0を駆動する。
なお、 危険状態の警告に対しても運転者の操作が不十分であつたと判断した場 合に、 車両運動制御装置 1 0を駆動するような構成にしても良い。
そして、 これらの一連の処理 (S 6〜S 2 6) を繰り返すことにより、 装置が 動作することになる。
次に、 車線算出処理 (S 1 8) と車線推定処理 (S 2 0 ) について、 図 4から 図 1 0を参照して詳細に説明する。
始めに、 図 5 A、 5 Bを参照して、 処理内容について説明する。
まず、 図 4に示すように、 エッジ判定処理 (S 1 6 ) で求めた、 左車線に対す るエッジデータ 1 4 a ( 1 4 0 1 a〜 1 4 1 l a) と、 右車線に対するエッジデ 一夕 1 6 a ( 1 6 0 1 a〜 1 6 1 1 a) に対して、 夫々、 直線性を判定する (S 1 8 0 2 )
この処理では、 直線性を判定するために各エッジデータに対してべク トルを求 める。
すなわち、 車線算出部 4 0 2 0 8は、 左車線に対するエッジデータにうち、 画 面情報中下に位置するものの座標を始点とし、 その次に、 画面上部に位置するも のの座標を終点とするべク トルを想定して、 べク トルの方向を順次、 求めていく。 ここで、 画面下部に位置するエッジデータの座標を始点とする理由は、 画面上 部は路面以外の画像が多く、 従ってノイズ要因が多いからである。 図 5 Aの例で は、 最初に、 始点 1 4 1 1 a、 終点 1 4 1 0 aとするべク トルが想定されること になる。 このようにして、 各べク トルの方向を示す値を、 順次、 算出データ部 6 0 6に格納する。 そして、 同方向を示す複数のべク トル、 即ち、 互いに例えば 1 0度以内の角度差を有する複数のべク トルの始点、 終点を構成するエッジデータ を一^ ^のグループとしてまとめる。 このような自車走行車線認識手法の詳細を図 5 B、 5 C、 5 Dに示す。
初期設定としてクラスタ点 P 0と P 1を結ぶべク トルを L 0、 クラスタ点 p 1 と P 2を結ぶべク トルを L 1、 同様にして順次べク トル 2〜L 5を作成する。 ここで、 グループ 1にベク トル L 0を登録し、 グループ構成点数を 2とする。 次に比較べク トルを L 0として、 基準べク トルし 1 とのなす角度を求める。 こ の角度が例えば 1 0度以下であれば同一直線とする。 図 5 Bの場合、 直線と判断 し、 ベク トル (L 0 + L 1 ) 、 すなわち P 0と P 2を結ぶべク トルはグループ 1 に再登録し、 このグループの構成点数を 3とする。
次の比較べク トルは L 0十 L 1 として、 基準べク トルし 2と比較して、 これも 同様に直線と判断する。 この結果、 グループ 1が更新され、 ベク トル L 0 + . - + L 2、 すなわち P 0と P 3を結ぶベク トルがグループ 1 として再登録し、 この結 果、 グループの構成点数を 4とする。
次の比較べク トルは L 0 + - - + L 2として、 基準べク トル 3と比較すると、 こ れらの角度は 1 0度以上であるため、 グループ 2を新規に作成する。 この結果、 ベク トル L 3すなわち P 3と P 4を結ぶベク トルをグループ 2に登録し、 このグ ループの構成点数を 2とする。 さらに、 隣り合う基準ベク トル (L 2、 L 3 ) 力く 違うグループとして判断したとき、 べク トルし 0 + - - + L 2 + L 3すなわち P 0 と P 4を結ぶべク トル M 0をグループ 3に登録し、 このグループの構成点数を 2 とする。
ここで、 新たに作成したべク トル M 0を基準べク トルとして比較べク トルを決 定するのだが、 この M 0は、 処理の開始点 P 0を含むため基準べク トルとしての 処理は行わない。
次の比較べク トルは M 0とし 3の 2つとして、 基準べク トル L 4と比較して、 両方とも 1 0度以上であるため、 グループ 4が新規に作成される。 この結果、 ベ ク トル L 4すなわち P 4と P 5を結ぶべク トルが登録される。 このグループの構 成点数は 2となる。 さらに、 ここでも隣り合う基準ベク トル (L 3、 L 4 ) が違 うグループとして判断したので、 べク トル L 3 + L 4すなわち P 3と P 5を結ぶ べク トル M 1をグループ 5に登録し、 このグループの構成点数を 2とする。
ここで、 新たに作成したべク トル M lを基準べク トルとして比較べク トルを決 定すると、 L 0 +L 1 +L 2が比較ベク トルとなり、 角度を求めると、 1 0度以 下であるため、 グループ 1が更新され、 ベク トル L 0 +-- + L 2 +M 1、 すなわ ち P 0と P 5を結ぶベク トルをグループ 1として再登録し、 この結果、 グループ の構成点数を 5とする。 そして、 M lの構成点数を 0 (ゼロ) とする。
次の比較べク トルは L 0 +-- + L 2 +M 1と L 4の 2つとして、 基準べク トル L 5と比較すると両方とも角度が 1 0度以下であるので、 角度の大きさを比べ、 小さい角度である L 5と L 0 + + L 2 +M1が直線と判断される。 この結果、 グループ 1が更新され、 べク トルし 0 + --+L 2 +M 1 +L 5すなわち P 0と P 6を結ぶべク トルに再登録し、 このグループの構成点数は 6となる。
上記の処理のように全ベク トルについて行った後、 各グループの直線の傾きと y切片を求める。
最後に各グループの直線を構成する点数の多い順に並べ変える。 図 5 Cの場合 には、 グループし 2, 3, 4, 5の順番となり、 構成点数が 0 (ゼロ) である グループ 5を除いた 4本の直線を自車走行車線候補直線として認識する。
例えば、 図 5 Aの左車線に対するエッジデータでは、 「 1 4 0 1 a、 1 4 0 3 a~ 1 4 0 6 a、 1 4 0 8 a〜 1 4 1 1 a」 のグループと、 「 1 4 0 2 a、 1 4 0 4 a 1 4 0 7 a」 のグループに分かれる。 このようなグループ分けの処理は、 同様に右車線に対するエツジデータに対しても行なう。 右車線に対しては、 「 1 6 0 1 a、 1 6 0 5 a」 のグループと、 「 1 6 0 2 a、 1 6 0 6 a」 のグル —プと、 「 1 6 0 2 b、 1 6 0 3 b、 1 6 0 4 b、 1 6 0 7 b〜 1 6 1 l b」 の グループに分かれる、
次に、 車線算出部 4 0 2 0 8は、 各グループのエッジ座標データに対して、 最 小二乗法等を用いて直線を求め、 求めた車線を候補車線とする ( 1 8 0 4 ) 。 図 5 Aに示す例では、 直線 2 2、 直線 2 4が左車線の候補車線となり、 また、 直線 2 6、 直線 2 8、 直線 3 0が右車線の候補車線となる。
次に、 最も多くの数のエッジデータで構成されている候補車線を求め、 これを 選択する (S 2 0 0 2 ) 。 図 5 Aに示す例では、 左車線の候補車線の 1つである 直線 2 2を選択し、 同様に、 右車線の候補車線の 1つである直線 2 6を選択する。 そして、 最も多い数のエッジデータで構成される、 左車線の候補車線 (直線 2 2 ) のエッジデータ数 ( 1 4 0 1 a、 1 4 0 3 a〜 1 4 0 6 a、 1 4 0 8 a〜1 4 1 1 aの 9点) と、 それ以外のエツジデータ数 ( 1 4 0 2 a、 1 4 0 7 aの 2 点) を求める (S 2 0 0 4 ) 。 図 5 Aに示す例では、 左候補車線 2 2, 2 4の全 体のエッジデータ数 1 1点に対して、 最多のエッジで構成される左候補車線 (直 線 2 2 ) のエッジデータが 9点となり、 左候補車線 2 2のエツジデータ数の左候 捕車線全体のエッジデータ数に対する比率が 「8 2 %」 となる。 ここで、 この比 率は予め定めた比率 「7 0 %」 (このような比率は、 予め定めておき制御データ 部 6 0 4に格納しておけば良い) より、 高いと判断し、 この左候補車線 (直線 2 2) を、 確認すべき左車線 (左認識車線) とする (S 2 0 0 6 ) 。
次に、 右車線に対しても同様に、 右候補車線 2 6, 2 8, 3 0のうち最も多く の数のエッジデータで構成される右候補車線 (直線 2 6 ) のエッジデータ数 ( 1 6 0 2 a〜 1 6 0 4 a、 1 6 0 7 a〜 1 6 1 l aの 8点) と、 それ以外のエツジ データ点数 ( 1 6 0 1 a、 1 6 0 5、 1 6 0 6 aの 3点) を求める (S 2 0 0 8 ) 。 図 5 Aに示す例では、 右候補車線全体のエッジデータ数 1 1点に対して、 最多のエッジで構成される右候補車線 (直線 2 6) のエッジデータが 8点となり、 それらの間の比率が 「7 3 %」 となる。 ここで、 この比率は予め定めた比率 「7 0 %」 (このような比率は、 予め定めておき制御データ部 6 0 4に格納しておけ ば良い) より、 高いと判断し、 この右候補車線 (直線 2 6 ) を認識すべき右車線 (右認識車線) とする (S 2 0 1 0) 。
そして、 この様に、 左、 右認識車線を構成するエッジデータ数の比率が高い場 合、 両車線に対して正常に認識を行ったと判断し、 その認識車線データを、 危険 判断部 4 0 4 0 4に送信する。 その後、 危険判定処理が行なわれる (S 2 2 ) 。 次に、 図 6に示す例における、 車線算出処理 (S 1 8) および車線推定処理 (S 2 0 ) について、 図 4、 図 7、 8を参照して説明する。 なお、 ステップ S 1 6、 S 1 8 0 2、 S 1 8 0 4、 S 2 0 0 2の処理は、 図 5 Aの場合と同様に行な つたものとする。
図 6に示す例では、 左車線に対しては、 図 5 Aと同様に、 最も多い数のエッジ データで構成される左候補車線 (直線 3 2 ) のエッジデータの数 (1 4 0 1 b、 1 4 0 3 b〜 1 4 0 6 b、 1 4 0 8 b〜 1 4 1 l bの 9点) と、 それ以外のェッ ジデータの数 ( 1 4 0 2 b、 1 4 0 7 bの 2点) を求め (S 2 0 0 4 ) 、 左候補 車線全体のエッジデータ数 1 1点に対して、 最も多い数のエッジデータで構成さ れる左候補車線 (直線 3 2) のエッジデータ 9点となり、 それらの間の比率は 「8 2%」 となる。 ここで、 この比率は、 予め定めた比率 (例えば、 7 0 %) よ り、 高いと判断して、 この左候補車線 (直線 3 2) を、 認識すべき左車線 (左認 識車線) とする (S 2 0 0 6 ) 。
しかしながら、 右車線に対しては、 最も多くの数のエッジデータで構成される 右候捕車線 (直線 3 8) のエッジデータの数 ( 1 6 0 1 b、 1 6 0 3 b, 1 6 0 5 b、 1 6 0 6 b, 1 4 0 9 b、 1 6 1 1 bの 6点) と、 それ以外のエッジデ一 タ点数 ( i 6 0 2 b、 1 6 0 4 b、 1 6 0 7 b、 1 6 0 8 b、 1 6 1 0 bの 5点) を求め (S 2 0 0 8 ) 、 右候補車線全体のエッジデータ数 1 1点に対して、 最も 多い数のエッジデータで構成される左候捕車線 (直線 3 8) のエッジデータの数 が 6点であり、 それらの間の比率は 「5 5%」 となり、 予め定めた比率 (例えば、 7 0 %) より低いと判断する。 このような事態は、 右車線側に、 わだち等が存在 していたり、 車線が薄くなつていたりする場合に発生する。 この場合、 右候補車 線の直線 3 6、 直線 3 8、 直線 4 0の全てに対して、 認識すべき車線であるか否 かを判断する必要がある。
そこで、 本実施例では、 安定して認識することができた左認識車線をもとに、 左右両車線の配置関係を利用して、 右候補車線 (直線 3 6、 直線 3 8、 直線 4 0) の中から、 右認識車線を決定する処理 (S 2 0 1 2) を行う。
ここで、 図 4の S 2 0 1 2の処理内容を詳細に示したフローチヤ一トを、 図 7 に示す。
なお、 これらの処理は、 車線推定部 4 0 2 1 2が行なうように構成しておく。 この処理では、 まず、 左認識車線 3 2と、 図 6中の画面下部の水平ライン 4 2 との交点 P r (3 2 p) を求める ( S 2 0 1 2 0 2 ) 。 右側の候補車線に対して も同様に、 各右候補車線 (直線 3 6、 直線 3 8、 直線 4 0) と、 画面下部水平ラ イン 4 2との交点 P 1 ( 1 ) (3 6 p) 、 P I (2) (3 8 p) 、 P I (3) ( 4 0 p) を求める (S 2 0 1 2 0 4 ) 。
そして、 左側の交点 P r (3 2 p) と、 右側の各交点 P 1 ( 1 ) ( 3 6 p) 、 P 1 (2) (3 8 p) 、 P I (3) (4 0 p) との距離 L ( 1 ) 4 4、 L (2) 4 6、 L (3) 4 8を求める (S 2 0 1 2 0 8 ) 。
さて、 ここで、 図 8に示すように、 カメラの画角、 向き、 レーン幅等が変化し ない場合には、 走行レーンの中央を走行している状態 (図 8 A) と、 走行レーン の右側に寄って走行している状態 (図 8 B) とでは、 車両の走行位置が変化して も、 左、 右車線と画面下部水平ラインとの 2つの交点間の距離 Wは、 変化しない という特徴がある。
そこで、 この距離 Wを理想レーン幅 W5 0として、 予め理想レーン幅データ部 6 0 2に設定しておく。 もちろん、 処理サイクル毎に、 認識した車線情報に基づ いて、 画像処理によって、 理想レーン幅 W5 0を求め、 更新していくようにして おくことも可能である。
次に、 S 2 0 1 2 0 8で求めた距離 L ( 1 ) 4 4、 L (2) 4 6、 L (3) 4 8の中で、 最も理想レーン幅 W 5 0に近い距離を求める (S 2 0 1 2 1 0) 。 こ の例では、 L (3) 4 8が最も近いと判断され、 L (3) に対応する右候補車線 4 0力 認識すべき右車線 (右認識車線) であると判断し (S 2 0 1 2 1 2) 、 左、 右認識車線データを危険判断部 4 0 4 0 4に送信され、 次に、 ステップ S 2 2に進む。
なお、 図 6に示す例では、 画面最下部の水平ラインを利用したが、 画面情報を 構成する水平ラインであれば、 最下部の水平ラインでなくても良く、 また、 画面 情報のエリアをはみ出す、 仮想的な水平ラインを利用することも可能である。 そ の場合には、 夫々の水平ラインに対応する、 理想レーン幅 Wを求めて設定してお けば良い。
このようにして、 両車線の配置関係を利用し、 一方の車線しか安定して認識さ れな 、場合でも、 他方の車線を認識することが可能となる。
次に、 図 9に示す例における、 車線算出処理 (S 1 8) および車線推定処理 (S 2 0 ) について、 図 4と図 1 0を参照して説明する。 なお、 ステップ S 1 6、 S 1 8 0 2 , S 1 8 0 4、 S 2 0 0 2、 S 2 0 0 4の処理は行なったものとする。 図 9に示す例は、 左、 右車線に対して、 最も多い数のエッジデータで構成され る候補車線 (直線 5 2、 直線 5 8) の各々において、 エッジデータの数の比率が、 予め定めた比率より低いと判断された場合である (S 2 0 0 4、 S 2 0 1 4) 。 この場合、 左候補車線の直線 5 0、 直線 5 2、 直線 5 4、 右候補車線の直線 5 6、 直線 5 8、 直線 6 0の全てに対して、 両車線の配置関係を用いて、 認識すべき車 線であるか否かを判断する必要がある。
そこで、 左候補車線 (直線 5 0、 直線 5 2、 直線 5 4) 、 右候補車線 (直線 5 6、 直線 5 8、 直線 6 0) の中から、 車線を認識する処理を行なう (S 2 0 2
0)
S 2 0 2 0の処理内容を、 詳細に説明したフローチヤ一トを、 図 1 0に示す。 なお、 これらの処理は、 車線推定部 4 0 2 1 2が行なうように構成しておく。 この処理では、 まず、 各左候補車線 (直線 5 0、 直線 5 2、 直線 5 4) と、 画 面下部の水平ライン 4 2との交点 P r ( 1 ) 5 0 p、 P r (2) 5 2 p、 P r (3) 5 4 pを求める (S 2 0 2 0 0 2 ) 。 同様に、 右側の各右候補車線 (直線 5 6、 直線 5 8、 直線 6 0) と画面下部水平ライン 4 2との交点 P 1 ( 1 ) 5 6 p、 P I (2) 5 8 p、 P I (3) 6 0 pを求める (S 2 0 2 0 0 4 ) 。
そして、 図 9に示すように、 交点 P r (1) 5 0 p、 P r (2) 5 2 . P r (3) 5 4 pの夫々に対する、 交点 P I (1) 5 6 p、 P I (2) 5 8 p、 P I (3 ) 6 0 pとの距離 L ( 1 ) 6 2〜L (9) 7 8を求める (S 2 0 2 0 0 6 ) 。 次に、 S 2 0 2 0 0 6で求めた距離 L ( 1 ) 6 2〜L (9) 7 8の中で、 最も 理想レーン幅 W 5 0に近い複数、 例えば 2つの距離を求める (S 2 0 2 0 0 8 ) 。 図 9に示す例では、 L (1 ) 6 2とし (6) 7 2力 <、 最も近いと判断される。 そこで、 L (1 ) 6 2を構成している左、 右候捕車線 (直線 5 0と直線 5 6) のエッジデータ数と L (6) 7 2を構成している左、 右候補車線 (直線 5 2と直 線 6 0) のエッジデータの数を比較する (S 2 0 2 0 1 0 ) 。
その結果、 直線 5 2と直線 6 0から成る左、 右候補車線のエツジデータ数の方 力く、 直線 5 0と直線 5 6から成る左、 右候補車線のエッジデータの数より多いと 判断され、 認識すべき左、 右車線 (左右認識車線) は、 直線 5 2と直線 6 0であ ると判断し (S 2 0 2 0 1 2 ) 、 その左、 右認識車線データを危険度判断部 4 0 4 0 4に送信し、 次の処理 (S 2 2) を行なう。
〔3— 0 1 1 3〕 尚、 左右認識車線を以下のように判定しても良い。 即ち、 先ず、 全ての左右候 捕車線の組み合わせに対してエッジデータ数の多い順に複数 (例えば、 3以上) の組み合わせに絞り込み、 これら絞り込まれた複数の左右候補車線の組み合わせ に対して画面下部の水平ラインとの交点を求め、 複数の左右候補車線の組み合わ せに対して交点間の距離を求める。 そして、 該求めた交点間の距離のうち最も理 想レーン幅に近い複数 (例えば、 2つ) の距離を求める。 そして、 これら複数の 距離を構成する左右候捕車線の組み合わせのうちエッジデータ数の多い左右候補 車線を左右認識車線とする。
このようにして、 両車線の配置関係を利用し、 左右の車線が安定して認識され ない場合でも、 左右車線を認識することが可能となる。
なお、 以上の説明では、 図 4のステップ S 2 0 1 4、 S 2 0 1 6、 S 2 0 1 8 を通る処理について、 説明していないが、 S 2 0 1 4、 S 2 0 1 6、 S 2 0 1 8 は、 夫々、 ステップ S 2 0 0 8、 S 2 0 1 0、 S 2 0 1 2の内容と変わる点がな いので、 再度説明することは避ける。
以上の車線算出処理 (S 1 8) と車線推定処理 (S 2 0) を行なうことによつ て、 車線近辺に、 わだちが存在していたり、 車線が薄くなつていたりする場合等 に発生する、 車線の誤認識を避けることができる。
ここで、 上記実施例の車線推定処理の変形例について説明する。 本変形例にお いては、
左右車線を認識する際に、 最新の候補車線と前画面の認識結果との角度の差を 求めて、 大きく異なっている場合には誤った車線を候補としていると考えて、 別 の選択処理を行うというものです。
図 1 1は、 本変形例を説明するフローチャートであり、 図 1 2は、 図 1 1の変 形例における車線の推定処理を説明するためのエツジデータの抽出例を示す図で ある。 図 1 1の処理において、 ステップ S 1 6〜S 2 0 0 2迄の処理は図 4の場 合と同じであるため省略する。 ステップ S 2 0 0 2においては、 図 5 Aに示す例 においては、 最も多い数のエッジデータで構成される、 左車線の候補車線 (直線 2 2 ) のエッジデータ数 ( 1 4 0 1 a、 1 4 0 3 a〜 1 4 0 6 a、 1 4 0 8 a〜 1 4 1 1 aの 9点) と、 それ以外のェッジデータ数 ( 1 4 0 2 a、 1 4 0 7 aの 2点) を求める (S 2 0 0 4 ) 。 図 5 Aに示す例では、 左候補車線 2 2, 2 4の 全体のエッジデータ数 1 1点に対して、 最多のエッジで構成される左候補車線
(直線 2 2) のエッジデータが 9点となり、 左候補車線 2 2のエッジデータ数の 左候補車線全体のエッジデータ数に対する比率が 「8 2 %」 となる。 ここで、 こ の比率は予め定めた比率 「 7 0 %」 (このような比率は、 予め定めておき制御デ 一夕部 6 0 4に格納しておけば良い) より、 高いと判断し、 これを左候補車線
(直線 2 2) とする。
次に、 この候補車線と前画面で求めた左車線との角度差を求める (S 2 0 0 5 ) 。 図 1 2に示す例では、 候補車線と前画面で求めた左車線との角度差が 4度 となる。 ここで、 予め定めた角度、 例えば 「2 0度」 (このような角度は、 予め 定めておき制御データ部 6 0 4に格納しておけば良い) より小さいと判断し、 こ の左候補車線 (直線 2 2) を、 認識すべき左車線 (左認識車線) とする (S 2 0 0 6) o
次に、 右車線に対しても同様に、 右候補車線 2 6, 2 8, 3 0のうち最も多く の数のエッジデータで構成される右候補車線 (直線 2 6) のエッジデータ数 (1 6 0 2 a〜 1 6 0 4 a、 1 6 0 7 a〜 1 6 1 1 aの 8点) と、 それ以外のェッジ データ点数 ( 1 6 0 1 a、 1 6 0 5、 1 6 0 6 aの 3点) を求める (S 2 0 0
8 ) 。 図 5 Aに示す例では、 右候補車線全体のエッジデータ数 1 し に対して、 最多のエッジで構成される右候補車線 (直線 2 6) のエッジデータが 8点となり、 それらの間の比率が 「7 3 %」 となる。 ここで、 この比率は予め定めた比率 「7 0 %」 (このような比率は、 予め定めておき制御データ部 6 0 4に格納しておけ ば良い) より、 高いと判断しこれを右候補車線 (直線 2 6) とする。
次に、 この候補車線と前画面で求めた右車線との角度差を求める (S 2 0 0
9 ) 。 図 1 1に示す例では、 候補車線と前画面で求めた右車線との角度差が 4度 となる。 ここで、 予め定めた角度、 例えば 「2 0度」 (このような角度は、 予め 定めておき制御データ部 6 0 4に格納しておけば良い) より小さいと判断し、 こ の右候補車線 (直線 2 6) を、 認識すべき右車線 (右認識車線) とする (S 2 0
1 0) o
そして、 この様に、 左、 右認識車線を構成するエッジデータの比率が高く、 力、 つ前画面の認識車線との角度差が小さい場合、 両車線に対して正常に認識を行つ たと判断し、 その認識車線データを、 危険判断部 4 0 4 0 4に送信する。 この後、 危険判定処理が行なわれる (S 2 2) 。
次に、 図 6に示す例における、 車線算出処理 (S 1 8) および車線推定処理 (S 2 0) について、 図 4、 図 7、 8を参照して説明する。 なお、 ステップ S 1 6、 S 1 8 0 2、 S 1 8 04、 S 2 0 0 2の処理は、 図 5 Aの場合と同様に行な つたものとする。
図 6に示す例では、 左車線に対しては、 図 5 Aと同様に、 最も多い数のエッジ データで構成される左候捕車線 (直線 3 2) のエッジデータの数 ( 1 4 0 1 b、 1 4 0 3 b〜 1 4 0 6 b、 1 4 0 8 b〜 1 4 1 l bの 9点) と、 それ以外のエツ ジデータの数 (1 4 0 2 b、 1 4 0 7 bの 2点) を求め (S 2 0 0 4 ) 、 左候補 車線全体のエッジデータ数 1 1点に対して、 最も多い数のエッジデータで構成さ れる左候捕車線 (直線 3 2) のエッジデータ 9点となり、 それらの間の比率は 「8 2%」 となる。 ここで、 この比率は、 予め定めた比率 (例えば、 7 0%) よ り、 高いと判断して、 これを左候補車線 (直線 3 2) とする。
次に、 この候補車線と前画面で求めた左車線との角度差を求め (S 2 0 0 5 ) 、 予め定めた角度、 例えば 「2 0度」 (このような角度は、 予め定めておき制御デ 一夕部 6 0 4に格納しておけば良い) より小さいと判断した場合、 この左候補車 線 (直線 3 2) を、 認識すべき左車線 (左認識車線) とする (S 2 0 0 6 ) 。
しかしながら、 右車線に対しては、 最も多くの数のエッジデータで構成される 右候補車線 (直線 3 8) のエッジデータの数 (1 6 0 1 b、 1 6 0 3 b、 1 6 0 5 b、 1 6 0 6 b、 1 4 0 9 b、 1 6 1 l bの 6点) と、 それ以外のエツジデー 夕点数 ( 1 6 0 2 b、 1 6 04 b、 1 6 0 7 b、 1 6 0 8 b、 1 6 1 0 bの 5点) を求め (S 2 0 0 8 ) 、 右候補車線全体のエッジデータ数 1 1点に対して、 最も 多い数のエッジデータで構成される左候補車線 (直線 3 8) のエッジデータの数 が 6点であり、 それらの間の比率は 「5 5%」 となり、 予め定めた比率 (例えば、 7 0%) より低いと判断する。 このような事態は、 右車線側に、 わだち等が存在 していたり、 車線が薄くなつていたりする場合に発生する。 この場合、 右候補車 線の直線 3 6、 直線 3 8、 直線 4 0の全てに対して、 認識すべき車線であるか否 かを判断する必要がある。
また、 右候補車線のエッジデータ点数と、 それ以外のエッジデータ点数の比率 力、 予め定めた比率よりも高い場合には、 この右候補車線と前画面で求めた右車 線との角度差を求める (S 2 0 0 9 ) 。
そして何らかの理由で、 予め定めた角度、 例えば 「2 0度」 (このような角度 は、 予め定めておき制御データ部 6 0 4に格納しておけば良い) より大きいと判 断した場合には、 他の全ての右候補車線に対して、 認識すべき右車線であるか否 かを判断する必要がある。
そこで、 本実施例では、 安定して認識することができた左認識車線をもとに、 左右両車線の配置関係を利用して、 右候補車線 (直線 3 6、 直線 3 8、 直線 4 0 ) の中から、 右認識車線を決定する処理 (S 2 0 1 2 ) を行う。
図 9に示す例は、 左、 右車線に対して、 最も多い数のエッジデータで構成され る候補車線 (直線 5 2、 直線 5 8 ) の各々において、 エッジデータの数の比率力 予め定めた比率より低いと判断された場合である (S 2 0 0 4、 S 2 0 1 4 ) 。 この場合、 左候補車線の直線 5 0、 直線 5 2、 直線 5 4、 右候捕車線の直線 5 6、 直線 5 8、 直線 6 0の全てに対し、 両車線の配置関係を用いて、 認識すべき車線 であるか否かを判断する必要がある。
また、 左、 右車線に対して、 最も多い数のエッジデータで構成される候補車線 において、 エッジデータの数の比率が、 予め定めた比率より高いと判断された場 合でも、 左、 右候補車線に対して、 前画面の左、 右認識車線との角度差が、 予め 定めた角度より大きいと判断された場合 (S 2 0 0 5、 S 2 0 1 5 ) には、 次の 処理を行う。 すなわち、 左候補車線の全てと、 右候補車線の全てに対して、 両車 線の配置関係を用いて、 認識すべき車線であるか否かを判断する。
以上述べてきたように、 本実施例によれば、 簡易な構成で、 自車両走行レーン に対する、 左右車線を、 誤り少なく認識することが可能になる。 また、 この情報 に基づいて、 走行する道路領域等を把握でき、 危険警告装置への応用も可能とな る。
以上説明してきたように、 本実施例によれば、 車載カメラにより撮影された画 像情報に基づいて、 自車両の走行レーンに対する車線を認識するにあたり、 複数 の候補車線の中から、 車線の配置関係等の情報を参照して、 正確に、 自車両の走 行レーンに対する車線を認識できる。 これによつて、 自車両に対する前方道路面 を正確に把握することも可能となる。
以下、 本発明による画像処理装置の第 2の実施例を詳細に説明する。
図 1 3は、 本発明の第 2実施例で、 この実施例は、 図示のように、 大別して撮 像部 Aと、 表示部 B、 それに処理部 Cからなり、 さらにこの処理部 Cは、 画像処 理部 Dと、 判断部 Eで構成されている。 尚、 本実施例では表示部 Bを省略しても 良い。
撮像部 Aの構成は以下の通りである。
ズームレンズ機構部 1 0 0 2とズーム調整部 1 0 0 4は、 抽出条件決定部 1 0 3 8 (後述する) から指示された光学系倍率信号により光学系の焦点距離を制御 し、 撮像画像を拡大したり、 縮小したりする働きをする。
アイリス機構部 1 0 0 6とァイリス調整部 1 0 0 8は、 抽出条件徹底部 1 0 3 8の指示により被写体を含めた撮像画像が明るすぎる場合には光学系の絞りを閉 じ、 被写体を含めた撮像画像が暗すぎる場合には絞りを開くことにより、 被写体 像の明るさが適正な値となるようにする。
CCDカメラ 1 0 1 0は、 光画像をカラー画像信号に変換する働きをする。
AZD変換器 1 0 1 2は、 カラ一画像信号をデジタルカラー信号に変換する働 きをする。
色差変換回路 1 0 1 4は、 デジタル化されたカラー画像信号を入力し、 これを 輝度信号 Yと色差信号 R— Y、 B— Υからなる色分解力ラ一画像信号に変換する 回路であり、 ここで、 この色分解カラー画像信号は、 カラー画像の三原色を構成 する各色成分 R (赤) 、 G (緑) 、 Β (青) を用いて、 以下のように定義される。 なお、 ここで yR、 r G. y Bは、 抽出条件決定部 1 0 3 8により指示される 変換ゲインである。
Y= 0. 3 R · r R+ 0. 6 G · r G+ 0. 1 B · r B
R- Y= 0. 7 R · r R- 0. 6 G · r G- 0. 1 B · r B
B - Y = - 0. 3 R · r R- 0. 6 G · r G+ 0. 9 B · r B
次に、 表示部 Bの構成は以下の通りである。 遅延回路 1 0 1 6は、 処理部 Cで様々な処理を行う間、 画像出力を遅らせ、 処 理結果と撮像画像との同期を取る回路である。
置換回路 1 0 1 8は、 撮像画像に対して、 処理部 Cからの処理結果を重ね合わ せる回路である。
エンコーダ回路 1 0 2 0は、 置換回路 1 0 1 8で処理された処理画像信号を受 け取り、 N T S C信号に変換する回路である。
モニタ 1 0 2 2は、 例えばカラーブラウン管などの画像表示装置で構成され、 N T S C信号を受け取り、 処理画像を表示する働きをするものである。
処理部 Cは、 上記したように画像処理部 Dと判断部 Eにより構成されており、 まず、 画像処理部 Dの構成は以下の通りである。
色サンプリング回路 1 0 3 4は、 抽出条件決定部 1 0 3 8から指定されたサン プリング画素について撮像画像信号から色データのサンプリングを行い、 そのサ ンプリングされた色データ (輝度信号 Y、 色差信号 R— Υ、 Β - Υ) を抽出条件 決定部 1 0 3 4に転送する働きをする。
抽出処理回路 1 0 3 6は、 撮像画像に対して抽出色条件 (後に説明する) を満 足する画素を識別し、 その画素の座標データ (抽出座標データ) を置換回路 1 0 1 8に転送する回路と、 抽出色条件を満足する画素の集まりに対するエッジ画素 (抽出色条件を満足する画素と満足しなし、画素との境界の画素) の座標デー夕 (エッジ座標データ) を路面認識部 1 0 4 0に転送する回路と、 さらに、 指定颌 域内の画素に対して抽出色条件を満足する画素数をカウントし、 カウント値を抽 出条件決定部 1 0 3 8に転送する回路とで構成されている。
抽出条件決定部 1 0 3 8は、 路面認識部 1 0 4 0より転送された路面データに より決定された色データをサンプリングするのに必要なサンプリング画素位置を、 色サンプリ ング回路 1 0 3 4に指示する回路と、 色サンプリング回路 1 0 3 4力、 ら転送された色テ一タ及び抽出処理回路 1 0 3 6から転送されたカウン ト値より 求めた分布率とに基づいて抽出色条件を決定し、 抽出処理回路に転送する回路と、 ズーム調整部 1 0 0 4とァイリス調整部 1 0 0 8に対して調整値を指定する回路 と、 さらには、 色差変換回路 1 0 1 4に対して変換ゲイン (7 R、 r G . r B ) を指示する回路とで構成されている。 路面認識部 1 0 4 0は、 抽出処理回路 1 0 3 6から転送されたエッジ座標デー タをもとにして自車両が走行可能な路面を認識し、 認識結果として得られる路面 データを危険度判断部 1 0 4 4と抽出条件決定部 1 0 3 8に転送する働きをする。 判断部 Eの構成は以下の通りである。
車両状態判断部 1 0 4 2は、 車両状態センサ 1 0 5 6からの信号により、 自車 両の走行状態を判断し、 その判断結果を抽出条件決定部 1 0 3 8と危険度判断部 1 0 4 4に転送する働きをする。
そこで、 危険度判断部 1 0 4 4では、 自車両の走行状態と走行可能な路面との 関係から危険度を推定し、 推定された危険度を警報装置 1 0 5 2を介して運転者 に報知する。
そして、 この報知の結果にもかかわらず、 運転者の操作が不十分であった場合 には、 危険度判断部 1 0 4 4は車両運動制御装置 1 0 5 4に制御信号を供給し、 これに危険を回避させるのに必要な働きをさせる。
メモリ 1 0 5 0は、 抽出条件決定部 1 0 3 8により決定された抽出条件を保持 する働きをするものものであり、 さらに、 抽出条件決定部 1 0 3 8や路面認識部 1 0 4 0、 車両状態判断部 1 0 4 2、 それに危険度判断部 1 0 4 4での処理を行 う上で、 一時保持しておく必要があるデータの記憶場所としても機能する。
警報装置 1 0 5 2は、 危険度判断部 1 0 4 4で推定された危険度を運転者に報 知するための手段である。
車両運転制御装置 1 0 5 4は、 駆動系、 制動系、 操舵系の制御装置である。 車両状態センサ 1 0 5 6は、 自車両の運動量や運転者の操作意志等を検出する 手段であり、 検出された信号は車両状態判断部 1 0 4 2に出力される。
次に、 この実施例の動作について説明する。
この実施例では、 大分して、 第 1 と第 2の 2種の処理が並列に実行されるよう になっている。
まず、 第 1の処理は、 C C Dカメラ 1 0 1 0力、ら、 A Z D変換器 1 0 1 2、 色 差変換回路 1 0 1 4、 遅延回路 1 0 1 6、 置換回路 1 0 1 8、 ェンコ一ダ回路 1 0 2 0、 モニタ 1 0 2 2と流れる撮像画像の処理であり、 以下、 これについて、 図 1 4と図 1 5により説明する。 図 1 4において、 まず、 装置全体の動作に必要な電源が入れられると (S 3 0 2 ) 、 初期設定が行われる (S 3 0 4 ) 。
次に、 C C Dカメラ 1 0 1 0により撮像された被写体のカラー画像信号が取り 込まれ (S 3 0 6 ) 、 次に A/D変換器 1 0 0 4でデジタル信号に変換されるS 3 0 8 ) o
次に色差変換回路 1 0 1 0で、 このデジタル信号は色分解カラー画像信号に変 換される (S 3 1 0 ) 。
次に遅延回路 1 0 1 2は、 色分解カラー画像信号を入力し、 処理部 Cで処理に 要する時間分の遅延を行い (S 3 1 2 ) 、 撮像画像と処理結果との同期をとる。 次に置換回路 1 0 1 4は、 処理を行っていない色分解カラー画像信号の上に、 処理部 Cでの処理結果を重ね合わせる (S 3 1 4 ) 。
次にエンコーダ回路 1 0 1 6は重ね合わされた画像信号を N T S C信号に変換 する (S 3 1 6 ) 。
次にモニタ 1 0 1 8は N T S C信号を取り込み、 処理を行った撮像画像を表示 する (S 3 1 8 ) 。
そして次の周期の被写体の撮像のために (S 3 0 6 ) に処理が戻るのである。 以上の処理は、 画像信号のフィールド周期 Uフィールド 1 6 . 7 m s ) で行 なわれる。
次に、 第 2の処理は、 図 1 4において、 抽出条件の設定を行なう処理 (S 3 2 0 ) 力、ら、 撮像部 Aよりの撮像画像信号よりエツジを抽出する処理 (S 3 2 2 ) 、 エッジ座標データより自車両の走行可能な路面を認識する処理 (S 3 2 8 ) 、 自 車両に対する危険度を推測する処理 (S 3 3 6 ) 、 運転者への警報処理 (S 3 3 8 ) 、 さらには危険を回避する処理 (S 3 4 0 ) までの処理である。 尚、 エッジ 抽出処理は上記第 1実施例と同様にして行って良 、。
初めに、 初期設定 (S 3 0 4 ) において、 図 1 6に示すように、 予め走行路画 像上で自車両の直前の複数の、 例えば 4個所に設定してあるサンプリング用の画 素に対して色データのサンプリングを行う。 次いでサンプリングされた色データ より、 後述する車両周囲の環境、 例えば昼夜の判別処理を行い、 その結果に従い、 予めメモリに記憶してある設定値により抽出色条件を設定するのである。 なお、 この場合の抽出色条件の設定の仕方は後述する。
その後、 抽出条件を環境の変化に対応させて、 撮像画像信号を受け取り、 抽出 処理回路 1 0 3 6で路面と同じ色の画素を抽出する。 すなわち、 路面の画素を抽 出するための抽出色条件 YM 、 ΥΜΛΧ 、 (Β -Υ) Μ,Ν 、 (Β -Υ) ΜΛΧ 、 (R-Y) Μ,Ν 、 (R— Υ) MAX と、 撮像画面上の画素の色データ Y、 Β— Υ、 R— Υとの比較を行い、 次式 (1 ) の関係を満たす撮像画像中の画素を抽出する (S 3 2 0 ) 。
ΥΜΙΝ < Υ< Υ MAX 、
(B -Y) M L、: < B -Y< (B - Y) MAX .一 (1 ) (R-Y) M,N < R-Y< (R-Y) ΜΛχ '
さらに、 抽出した画素の集まりの境界座標データ、 すなわちエッジ座標データ を路面認識部 1 0 4 0に転送する ( S 3 2 2 ) 。
次に、 転送されたエッジ座標データから複数の直線、 或いは曲線を算出し、 そ れらの位置関係から走行可能な路面を推定する (S 3 2 8 ) 。 路面の推定、 即ち、 車線の推定処理は上記第 1実施例と同様に行なって良い。
次に、 車速センサ、 ブレーキペダル操作センサ、 方向指示器操作センサ、 ステ ァ角センサなどからなる車両状態センサ 1 0 5 6からの信号により、 車速、 減速 度、 車線変更意志、 ステア操舵量などの自車両の走行状態を判断し、 その判断結 果と前述の路面認識部 1 0 4 0により認識された走行可能な路面との関係から、 前方車との距離、 相対速度、 側方車の有無、 自車両のふらつきなどの自車両に対 する危険度を推定する (S 3 3 6 ) 。
次に危険度判断部 1 0 4 4で推定された危険度を警報装置 (例えば、 インジケ 一夕、 音声、 警報音、 L E D等) 1 0 5 2、 或いは表示部 Bのモニタ (車載テレ ビ、 へッ ドアップディスプレイ) 1 0 2 2を用いて自車両の運転者に報知する ( S 3 3 8 ) 。
このとき、 場合によっては、 警報装置 (例えば、 文字表示板、 車車間通信等) 1 0 5 2を用いて周辺の車両の運転者へも報知する。
次に危険度判断部 1 0 4 4で推定された危険度に対して運転者の操作が不十分 であった場合、 危険度判断部 1 0 4 4は車両運動制御装置 1 0 5 4の制御特性を 変えたり、 或いは自動動作させることにより、 危険を回避するようにする (S 3 4 0) o
次に上記抽出条件設定処理 (S 3 2 0 ) について、 図 1 5により詳細に説明す る。
サンプリング画素位置設定処理 (S 2 0 2 ) では、 まず図 1 6に示すように、 画面に複数の固定水辺線、 例えば下部 (近方) と中部 (遠方) と、 これらの間の 部分 (中間) に 3本の固定水辺線 L a、 L b、 L cを設定しておく。
そして、 これらの固定水平線と、 前回処理で求めた左右の近似車線の直線との 交点間を複数に等分する点、 例えば 3等分する点を求め、 この求めた 6点をサン プリング画素位置に設定する。 サンプリング画素は各固定水平線について少なく とも 1つとする。
色データサンプリング処理 (S 2 0 4 ) では、 撮像画像の全画素の色データが 逐次転送されている撮像画像信号から、 指定された 6点のサンプリング画素の色 データ (Y、 B_Y、 R-Y) を、 色サンプリング回 g各 1 0 3 4によりサンプリ ングする。
次に分布率算出処理 (S 2 0 6 ) では、 上記した抽出色条件 (ΥΜ 1 、 ΥΜΛΧ 、 (Β-Υ) Μ,Ν , (Β— Υ) ΜΛΧ 、 (R— Υ) Μ Ι Ν 、 (R— Υ) ΜΛΧ ) と、 図 1 9に示す撮像画面上の指定範囲内の画素の色データ (Υ、 Β— Y、 R-Y) との 比較を行い、 指定範囲内の画素のうち次式即ち、 上記式 (1 ) の関係を満たす即 ち、 抽出色条件を満たす画素をカウントする。
"\ M i N 、 / ! ^AX
(B-Y) Μ , Ν < B-Y< (B-Y) MAX
(R-Y) M I N <R-Y< (R-Y) MAX
そして、 指定範囲内の全画素に対する指定範囲内の抽出色条件を満たす画素数 の割合を示す算出分布率と、 指定範囲内の全画素に対して指定範囲内の画素のう ち認識された車線や前方車の領域を除く画素数の割合を示す目標分布率を、 それ ぞれ次式により求める。 指定範囲内の抽出色条件を満たす画素数
算出分布率:
指定範囲内の全画素数
指定範囲内の全画素数一認識された車線や前方車の領域の画素数 目標分布率 =
指定範囲内の全画素数
ここで、 "指定範囲内の抽出色条件を満たす画素数" とは、 指定範囲内の車線 を除いた路面の画素数である。 また、 "指定範囲内の全画素数" とは、 車線を含 んだ路面の画素数である。 また、 "認識された車線や前方車の領域の画素数" は 所定値でもよく、 また道路の環境に応じた可変値でも良い。 また、 前の画面から の推測値でも良い。 また、 目標分布率は通常 8 0%〜9 0%である。 "指定範 囲" 、 "認識された車線や前方車の領域の画素数" 、 目標分布率は抽出条件決定 部 3 8において予め設定値としてストアしておいても良く、 または、 外部から設 定されるようにしても良い。
次に 6点のサンプリングされた色データに対して昼夜判別処理 (S 2 0 7 ) を 行う。
ここでは、 図 1 6に示す 4点、 或いは図 1 8に示す 6点のサンプリ ングされた 色データによる昼夜判別処理について説明する。
サンプリングされた色データで同一水平線上の複数、 ここでは 2つの色データ を比較し、 これら 2つのデータの差の絶対値がメモリに格納されているしきい値 より大きければ、 サンプリ ング画素位置に先行車、 或いは路面上に表示物がある ものと判断して、 このデータは使用しない。
しきい値より小さければ、 3本の水平線 L a、 Lb、 L cのサンプリングされ た全データの平均値 (Hs ) と各水平線 L a、 Lb、 L c上のデータの平均値 (H, 、 Hh 、 H, ) を求める。
そして、 これらの平均値の関係から、 以下のようにして昼夜の判断を行う。 昼と判断する場合は、 下記条件 (2) と (4) 又は (3) と (4 ) が満足され た場合である。
: Η,, ≥Η„ ≥Η, (6点の場合) 一一 (2) : H a ≥ H t, (4点の場合) —一 ( 3 )
: H, 〉設定しきい値—— (4)
夜と判断する場合は、 下記条件 (5) と (7) 又は (6) と (7) が満足され た場合である。
: H a < H t < H c (6点の場合) —— ( 5 )
Ha <Hb (4点の場合) 一一 (6)
Ha く設定しきい値—一 (7)
上記のように昼を判断する理由は、 昼の場合は自然光 (太陽光) の入射角の関 係から、 明るさは近方と遠方とで等しいか、 近方より遠方の方が明るいためであ る。 また、 上記のように夜を判断する理由は、 夜の場合は車輛のライ トにより近 方の方が遠方より明るいためである。
ここで、 設定閾値について説明する。 道路の環境が異なると、 例えば、 道路の 路面の舗装状態が異なると、 昼でも夜と判断してしまう場合がある。 例えば、 新 しい舗装路面は昼でも暗く、 昼における新しい舗装路面の遠方の輝度はほぼ 4 0 である。 一方、 昼の普通の路面の遠方の輝度はほぼ 1 0 0であり、 夜においては 路面状態に無関係に遠方の輝度はほぼ 0である。 従って、 設定閾値を 5 0とする と、 昼においては上記の昼の判断式 ( (2) 及び (4) 又は (3) 及び (4) ) は満たされず、 また上記の夜の判断式 ( (5) 及び (7) 又は (6) 及び (7) ) も満たされない。 従って、 このような場合には前回の判断結果をそのまま使用す ることとして、 誤った判断を防止する。
次に、 初期設定での路面画素の抽出色条件の設定の仕方について説明する。 上記した昼夜判断処理で昼と判断された場合、 色信号については、 図 1 5八に 示すように、 既にメモリに格納されている、 無彩色に近い領域を昼の路面の色信 号条件を満たす色領域 S c dとして設定する。 次に輝度信号については、 図 1 5 Bに示すように、 上記のサンプリングされた 4点又は 6点の色データの最大値、 最小値を求め、 それぞれ最大値、 最小値にメモリに格納されている昼用オフセッ ト値を付加して昼の路面の輝度信号条件を満たす輝度領域 S 1 dを設定する。 一方、 昼夜判断処理で夜と判断された場合には、 色信号については、 図 1 5 C に示すように、 既にメモリに格納されている無彩色にほぼ近 、領域を夜の路面の 色信号条件を満たす色領域 S e nとして設定する。 輝度信号については、 図 1 5 Dに示すように、 上記サンプリングされた 4点又は 6点の色データの最大値と最 小値を求め、 それぞれの値にメモリに格納されている夜用オフセッ 卜値を付加し て夜の路面の輝度信号条件を満たす輝度領域 S 1 nを設定する。
尚、 図 1 7 A、 図 1 7 Bのように "昼及び夜の路面の色信号条件を満たす設定 色領域" を無彩色領域に設定するのは、 路面が無彩色だからである。 また、 "昼 の路面の色信号条件を満たす設定色領域" を実質的に正方形とするのは、 昼にお いては画像を形成する光が自然光が主体であるからである。
一方、 図 1 7 Cのように "夜の路面の色信号条件を満たす設定色領域" 力く "昼 の路面の色信号条件を満たす設定色領域" に比べて図 1 5 Cにおいて右下方向に 大きいのは、 夜においては外部光としては車輛等のライ 卜の光等が主体であり、 該ライ ト等の光は通常、 自然光より黄色成分が多いため、 黄色側に大きく領域を 設定したものである。
また、 "夜の路面の、 輝度信号条件を満たす設定輝度領域" におけるオフセッ ト値 (夜用オフセッ ト値) が "昼の路面の輝度信号条件を満たす設定輝度領域" におけるオフセッ ト値 (昼用オフセッ 卜値) より大きいのは、 夜は昼に比べて輝 度が外部光 (街灯等) に大きく影響される (外部光により大きく変動する) から である。
従って、 図 1 7八と図 1 7 Cとを比較してみれば明らかなように、 設定領域が、 夜の色信号条件の方が広くなつており、 同様に、 図 1 7 8と図 1 7 Dでは、 夜用 オフセッ ト値の方が大きくなっていることが判る。
次に抽出色条件の更新 (S 2 0 8 ) では、 上記 S 2 0 6の処理で求めた目標分 布率を中心として、 図 2 0に示すように、 所定の範囲、 例えば ± 0 . 0 5の範囲 を設け、 この範囲を境界として例えば計 3種類の領域、 すなわち、 「拡大」 領域、 「保持」 領域、 「縮小」 領域を設定する。
そして、 同じく上記 S 2 0 6の処理で求めた算出分布率が、 これら 3種類の領 域のどこに存在するかにより、 抽出色条件の更新の仕方を以下のようにして決定 するのである。
まず、 算出分布率が、 「保持」 領域にある場合には、 どのような色データがサ ンプルされても、 抽出色条件の更新は行わない。
次に、 算出分布率が低く、 即ち現在の抽出色条件の元で路面として抽出された 画素数が少なく、 「拡大」 領域になっていた場合について説明する。 まず、 色信 号について説明する。 3つの水平線 L a、 L b、 L c上のデータの色信号の平均 値 C a、 C b、 C cをそれぞれ求め、 全ての平均値 C a、 C b、 C cが抽出色条 件の設定色領域 S c d (昼の場合) 又は S e n (夜の場合) の範囲内に存在した ときには、 サンプルデータの最大値、 最小値にメモリに設定されているマージン を加えて設定色領域の範囲の更新を行う。 一方平均値 C a、 C b、 C cのいずれ かに設定色領域の範囲外のデータがあれば、 その範囲外の平均値にメモリで設定 されているマージン (一定値) を加えた範囲を新しい色範囲とし図 1 7 A (昼の 場合) 又は図 1 7 C (夜の場合) の設定領域 (S c d又は S c n ) を更新即ち、 拡大する。
次に、 算出分布率が 「拡大」 領域にある場合の、 輝度信号について説明する。 先ずサンプルデータの輝度の最大値、 最小値を求め、 この最小値が抽出色条件の 設定輝度領域 S 1 d又は S 1 n範囲内であれば、 図 1 7 Eに示す様にメモリ内の 設定値 (オフセッ ト値) だけ抽出色条件の設定領域 S 1 d (昼の場合) 又は S 1 n (夜の場合) の最小値 S 1 d 又は S 1 n m , n を下げるのである。
また、 ここで、 サンプルデータの輝度の最小値が抽出色条件の設定輝度領域 S 1 d (昼の場合) 、 S 1 n (夜の場合) の最小値よりも小さいときには、 図 1 7 Fに示す様にサンプルデータの最小値からメモリで設定されているマージンを 引いた値を新たな抽出色条件の最小値とし、 設定領域を更新する。 一方、 サンプ ルデータの輝度の最大値が抽出色条件の設定輝度領域、 S 1 d又は S 1 nの範囲 内であれば、 メモリ内の設定値だけ抽出色条件の設定輝度領域の最大値
S 1 d 又は S 1 n m a )< を上げる。 さらに、 サンプルデータの輝度の最大値が 抽出色条件の領域の最大値よりも大きいときには、 サンプルデータの最大値と抽 出色条件の設定輝度領域の最大値との差の半分の値を抽出色条件の設定輝度領域 の最大値に足して設定輝度領域の最大値を更新するのである。
また、 算出分布率が、 「縮小」 領域になった場合について説明する。 色信号に ついては 3つの水平線 L a、 L b、 L c上のデータの色信号の平均値 C a、 C b、 C cを求め、 全ての平均値 C a、 C b、 C cが抽出色条件の設定色領域の範囲内 に存在すれば、 それらの平均値 C a、 C b、 C cの最小値と最大値にメモリで設 定されているマージンを加えた値を設定色領域の新最大値、 最小値として、 該設 定色領域の範囲を更新する。 このとき、 C a、 C b、 C cのうち 1個でも設定色 領域の範囲外のデータがあれば設定色領域の範囲の更新は行わない。
他方、 輝度信号については、 サンプルデータの輝度の最大値、 最小値を求め、 この最小値が抽出色条件の設定輝度領域の範囲外であれば、 サンプルデータの最 小値にメモリ内の設定マージン値だけ加算した値を抽出色条件の設定輝度領域の 新たな最小値とする。
このときも、 サンプルデータの輝度の最小値が抽出色条件の設定輝度領域の最 小値よりも大きいときには、 サンプルデータの最小値にメモリで設定されている マージンを足した値を設定輝度領域の更新された最小値とする。 サンプルデー夕 の輝度の最大値が抽出色条件の設定輝度領域の範囲外であれば、 メモリ内の設定 値だけ抽出色条件の設定輝度領域の最大値を下げる。 またサンプルデータの輝度 の最大値が抽出色条件の設定輝度領域の最大値よりも小さいときには、 サンプル データの輝度の最大値と抽出色条件の設定輝度領域の最大値との差の半分の値を 抽出色条件の設定輝度領域の最大値から引 L、て設定輝度領域の最大値を更新する のである。
こうして、 算出された分布率が 「拡大」 領域にある場合は、 抽出色条件を緩和 して路面として抽出される領域を拡大するもので、 これにより車線を正確に検出 しょうとするものである。 例えば、 図 1 7 Gに示すように、 画面の輝度のうち、 領域 A l、 A 2、 A 3がそれぞれ車線、 わだち等、 路面の輝度領域であるとする と、 分布率が 「拡大」 領域にある場合は、 設定領域 S 1 d (昼の場合) 又は S 1 n (夜の場合) を領域 A 1、 A 3の一部に迄拡大する。
他方、 算出された分布率が 「縮小」 領域にある場合は、 抽出色条件を厳しく (制限) して路面として抽出される領域を縮小するもので、 これにより車線を正 確に検出しょうとするものである。
次に、 このような抽出色条件更新処理を図 2 1〜図 2 5を参照して詳細に説明 する。 算出分布率が図 2 0に示す 3種類の領域のどこに存在するかにより、 図 2 1に 示すフローにより各処理を行う。
縮小領域の処理について、 図 2 2 A、 2 2 B、 2 3 A、 2 3 Bにより説明する c まず、 色データ縮小処理では、 サンプルされたデータが既設定領域に対して、 図 2 2 A、 2 2 Bに示すように 2つの状態に分けて処理が行われる。 すなわち、 図 2 2 Aのようにサンプルデータのうち 1つでも領域外にあるとき、 設定領域は 変化しない。 また、 図 2 2 Bのようにサンプルデータがすべて既設定領域内にあ るとき、 サンプルデータの外接四角形 (色データの最大値と最小値) を求め、 こ の外接四角形をメモリ内の設定値 (オフセッ ト値) だけ広げて (色データの最大 値にオフセッ ト値を加え、 最小値からオフセッ ト値を引く) 新たに設定領域を作 成する。
つぎに、 輝度データ縮小処理では、 サンプルされたデータが既設定領域に対し て、 図 2 3 A、 2 3 Bに示すように 2つの状態に分けて処理が行われる。 すなわ ち、 図 2 3 Aのようにサンプルデータがすべて既設定領域内にあるとき、 サンプ ルデータの輝度データの最大値と最小値を求め、 サンプル輝度データの最大値に は、 サンプル輝度デー夕の最大値と既設定領域の最大値との差の 1 Z 2の値を加 え、 サンプル輝度データの最小値からメモリ内の設定値 (オフセッ ト値) を引い て、 新たに設定領域を作成する。 また、 図 2 3 Bのようにサンプルデータのうち 1つでも領域外にあるとき、 既設定領域の最大値からメモリ内の設定値 (オフセ ッ ト値) を引いて、 既設定領域の最小値にメモリ内の設定値 (オフセッ ト値) を 加えて、 新たに設定領域を作成する。
拡大領域の処理について、 図 2 4 A、 2 4 B、 2 5 A、 2 5 Bにより説明する。 まず、 色データ拡大処理では、 サンプルされたデータが既設定領域に対して、 図 2 4 A、 2 4 Bに示すように 2つの状態に分けて処理が行われる。 すなわち、 図 2 4 Aのようにサンプルデータがすべて既設定領域内にあるとき、 設定領域は 変化しない。 また、 図 2 4 Bのようにサンプルデータのうち 1つでも領域外にあ るとき、 そのサンプルデータに対してメモリ内の設定値 (オフセッ 卜値) を加え て、 新たに設定領域を作成する。
つぎに、 輝度データ拡大処理では、 サンプルされたデータが既設定領域に対し て、 図 2 5 A、 2 5 Bに示すように 2つの状態に分けて処理が行われる。 すなわ ち、 図 2 5 Aのようにサンプルデータがすべて既設定領域内にあるとき、 既設定 領域の最大値にメモリ内の設定値 (オフセッ ト値) を加えて、 既設定領域の最小 値からメモリ内の設定値 (オフセッ ト値) を引いて、 新たに設定領域を作成する また、 図 2 5 Bのようにサンプルデータのうち 1つでも領域外にあるとき、 サン プルデータの輝度デ一夕の最大値と最小値を求め、 サンプル輝度データの最大値 には、 サンプル輝度データの最大値と既設定領域の最大値との差の 1 Z 2の値を 加え、 サンプル輝度データの最小値からメモリ内の設定値 (オフセッ ト値) を引 いて、 新たに設定領域を作成する。
次に、 光学系ズーム設定 (S 2 1 0 ) では、 認識された路面データにより、 画 面下部で車線幅が画面幅と一致するようにズーム倍率を決定する。
アイリス設定 (S 2 1 2 ) では、 ォートアイリス機構におけるリファレンス値 を、 ビデオカメラの通常使用時での絞り値 (空を一部撮影した時でも飽和しない ように絞りを閉じ気味に、 即ち絞り値を小さく してある) に対し、 夜と判断され たとき、 絞りを開け気味に即ち、 絞り値を大きくなるように設定する。
このことにより、 輝度の高いもの (路面上の白線、 対抗車のライ ト等) は飽和 することがあるが、 輝度の低いものについては色データが明確になる。
一方、 昼と判断されたときには、 通常使用時のリファレンス値を使用するので ある。
色協調ゲイン設定 (S 2 1 4 ) では、 夜と判断されたとき、 図 2 6に示すよう に色差変換回路 1 0 1 4の変換ゲインを強調ゲインに変更する。
このことにより低輝度の色を強調させることができ、 無彩色と有彩色の分離を しゃすくすることができる。
一方、 昼と判断されたときには、 ノーマルゲインを使用するのである。
従って、 この実施例によれば、 路面の照明状態が、 昼と夜、 日差しの違い、 ト ンネルの前後などにより変化した場合でも、 その変化に追従して抽出条件が変え られてゆくので、 常に確実に路面領域を認識することができる。
以上詳述したように、 本実施例によれば無彩色である路面とその他の有彩色の ものとの分離を事前に施し、 さらに路面の認識の処理を行う場合、 路面を表わす 抽出色条件を環境の変化 (昼と夜、 日射の違い、 トンネルの前後等) に対応させ、 変更することにより、 確実に走行可能な路面の領域が認識できる走行路面の監視 装置を提供することが出来る。
以下、 本発明にかかる画像処理装置の第 3実施例について、 図面を参照しつつ 説明する。
図 2 7に、 本実施例の画像処理装置の構成図を示す。
本装置は、 撮影部 2 0 0 1と処理部 2 00 5とメモリ 2 0 2 3と表示部 1 0 1 4とを有して構成されて、 さらに、 処理部 2 0 0 5は、 画像処理部 2 0 0 6と判 断部 2 0 0 7とを備えている。 そして、 車両状態センサ 2 0 2 0、 車両運動制御 装置 2 0 2 2および警報装置 2 0 2 1 と、 判断部 2 0 0 7との間で信号がやりと りされている。 尚、 本実施例では表示部を省略しても良い。
以下、 本実施例の装置の各構成要素について説明する。
まず、 撮影部 200 1について説明する。
CCDカメラ 2 0 0 2は、 前方の画像を撮像し、 画像情報を得るための撮像手 段であり、 前方の被写体の画像情報を、 カラーアナログ信号に変換する機能を有 する。 例えば、 車載時には、 車両前部のグルリ付近で、 汚れの少ない箇所、 ある いは、 車室内のルームミラーやサンバイザー等の前方視界の広い箇所に設置すれ ば良い。
次に、 八70変換器2 0 0 3は、 CCDカメラ 2 0 0 2から出力されたアナ口 グ画像信号を、 デジタル信号に変換する処理を行なう。
次に、 色差変換回路 2 0 0 4は、 AZD変換器 2 0 0 3から出力されたデジタ ル信号、 即ち、 被写体の三原色 (R (赤) 、 G (緑) 、 B (青) ) に相当するデ ジ夕ル信号を、 次式で定義する、 輝度信号 Yと色差信号 「R— Y、 Β— Υ」 とに 変換する処理を行なう。
Υ = 0. 3 R+ 0. 6 G+ 0. 1 Β
R - Υ = 0. 7 R- 0. 6 G - 0. 1 Β
Β- Υ = - 0. 3 R- 0. 6 G+ 0. 9 Β
上式にて、 変換されて求まった輝度信号および色差信号は、 遅延回路 2 0 1 6 に入力されるとともに、 バッファ 2 0 2 5に格納される。 次に、 処理部 2 0 0 5について説明するが、 その動作内容は後に説明するため、 ここでは、 各構成要素の機能を概説しておくことにする。
図 2 7に示すように、 処理部 2 0 0 5は、 画像処理部 2 0 0 6と判断部 2 0 0 7とを備えている。
まず、 画像処理部 2 0 0 6の構成要素について説明する。
バッファ 2 0 2 5は、 色差変換器 2 0 0 4から送られた画像情報を記憶する手 段であるが、 必ずしも、 1フレーム分の容量を有している必要はない。 例えば、 画像処理の処理単位が、 3ラィンであれば、 3ラィン分の容量を有するように構 成しておけば良い。
画像ズーム回路 2 0 0 8は、 バッファ 2 0 2 5から画像情報を受け取り、 後に 説明するズーム条件決定部 2 0 0 9によって、 1水平ライン毎に決定されたズー ム条件 (ズーム中心座標及び拡大率) に従って、 画像情報を水平方向にのみ拡大 する処理を (例えば、 1水平ライン毎に) 行なった後、 拡大処理された画像情報 を、 抽出処理回路 2 0 1 0に転送する処理を行なう。 尚、 バッファ 1 0 2 5を省 き、 色差変換回路 4から 1水平ライン分毎の画像情報を画像処理部 1 0 0 6に送 るようにしても良い。
ここで、 ズーム中心座標は、 画像情報を拡大する際に、 拡大処理を行なう基準 点の位置を示すパラメータであり、 拡大率は、 画像情報を拡大する倍率を示すパ ラメ一夕である。
抽出処理回路 2 0 1 0は、 拡大処理された画像情報の中から、 予め定めた抽出 色条件データに該当する画素を抽出し、 ノイズ等を除去する画像処理を施した後、 1つの水平ライン上で、 その抽出画素に対する位置座標データ (エッジ座標デ一 夕) を、 エッジ座標変換部 1 1に転送する。 なお、 抽出色条件データとは、 特定 の輝度および色差のデータであり、 通常、 道路色 (走行レーン) の輝度および色 差のデータを採用して、 メモリ 2 0 2 3に予め格納しておき、 抽出処理回路 2 0 1 0は、 必要時に、 該データを取り出すように構成しておけば良い。
なお、 1つの水平ラインを調べていったとき、 抽出色条件データを満足しない 画素から、 抽出色条件データを満足する画素への変化点を想定した場合、 該抽出 色条件データを満足する画素を、 立ち上がりエッジ画素と称し、 その座標データ は、 立ち上がりエッジ画素の、 エッジ座標データという。 同様に、 1つの水平ラ インを調べていったとき、 抽出色条件データを満足する画素から、 抽出色条件デ 一夕を満足しな 、画素への変化点を想定した場合、 該抽出色条件データを満足す る画素を、 立ち下がりエッジ画素と称し、 その座標データは、 立ち下がりエッジ 画素の、 エッジ座標データという。 なお、 エッジ座標データは、 座標情報の他に、 当該エッジ座標は、 立ち上りなのか、 または、 立ち下がりなのかを示す情報も含 んでいるものとする。
次に、 エツジ座標変換部 2 0 1 1は、 ズーム条件決定部 2 0 0 9から転送され たズーム中心座標と拡大率に基づいて、 抽出処理回路 2 0 1 0から転送されたェ ッジ座標データを、 拡大処理前の座標データに変換し、 車線認識部 2 0 1 2に転 送する。 なお、 ズーム中心座標や拡大率については、 後に、 画像ズーム処理のと ころで詳しく説明する。
次に、 車線認識部 2 0 1 2は、 エッジ座標変換部 2 0 1 1から転送されたエツ ジ座標データをもとに、 自車両が走行する走行レーンに対する左、 右車線に対す るエッジ座標データを抽出し、 抽出したエッジ座標データに基づいて、 左、 右車 線を認識し、 認識結果を、 ズーム条件決定部 2 0 0 9、 危険判断部 2 0 1 3、 お よび置換回路 2 0 1 5に転送する。 尚、 エッジ座標の検出、 車線の認識について は第 1実施例と同様に行うようにして良い。
次に、 ズーム条件決定部 2 0 0 9は、 車線認識部 2 0 1 2から認識された車線 情報を受け取って、 ズーム中心座標と拡大率を算出し、 エッジ座標変換部 2 0 1 1、 画像ズーム回路 2 0 0 8に転送する。 なお、 ズーム条件である、 ズーム中心 座標、 拡大率を、 各水平ライン毎に予め設定しておいて、 画像拡大処理を行なわ せるようにしても良い。
次に、 表示部 2 0 1 4の構成要素について説明する。
遅延回路 2 0 1 6は、 処理部 2 0 0 5での種々の処理時間に対応する時間だけ、 入力された画像情報を遅延させて出力する機能を有し、 色差変換回路 2 0 0 4か ら出力される信号と、 車線認識部 2 0 1 2から出力される処理結果とを、 置換回 路 2 0 1 5に入力する際に同期合わせを行なうための回路である。
次に、 置換回路 2 0 1 5は、 遅延回路 2 0 1 6で遅延された画像に処理部 2 0 0 5からの処理結果を重ね合わせる。 具体的には、 何ら画像処理を行なっていな い、 遅延回路 2 0 1 6から出力された図 4 2 Aに示すような撮影画像に、 図 4 2 Bに示すような車線認識部 2 0 1 2で認識された車線の画像情報を、 重ねあわせ て図 4 2 Cに示すような撮影画像上に認識車線を描いた画像情報を得る。 また、 危険判定部 2 0 1 3力 警報装置 2 0 2 1を駆動する際には、 これと同時に、 警 報情報をモニタ 2 0 1 8に表示させるための、 スーパインポーズ情報を置換回路 2 0 1 5に与えるように構成しておけば良い。 この警報情報がモニタ 2 0 1 8に 表示された様子を、 図 4 2 Dに示す。
次に、 エンコーダ回路 2 0 1 7は、 置換回路 2 0 1 5から出力される画像情報 を、 N T S C信号に変換するための回路である。
そして、 モニタ 2 0 1 8は、 N T S C信号を入力し、 これに対応する画像情報 を表示画面に表示する。
次に、 判断部 2 0 0 7の構成要素について説明する。
なお、 判断部 2 0 0 7は、 本実施例を運転者の注意喚起装置に応用した一例で あり、 本判断部自体は、 本実施例の主要部をなすものではない。
車両状態判断部 2 0 1 9は、 車両状態センサ 2 0 2 0から送られる信号により、 自車両の走行状態を判断し、 その判断結果を危険判断部 2 0 1 3に転送する。 ここで、 車両状態センサ 2 0 0 8は、 自車両の運動量、 運転者の操作意志等を 検出する手段であり、 例えば、 自車両の速度を計測する車速度センサ等や、 その 他方向指示器、 ステア角センサ等が挙げられる。
危険判断部 2 0 1 3では、 車線認識部 2 0 1 2より送られてきた、 左右の車線 に対するエッジ座標データによって、 自車の走行レーンを認識し、 また、 車線認 識部 2 0 1 2より送信された、 左右の車線以外の物に対するエッジ座標データで、 前方車、 障害物等の存在を認識し、 車両状態判断部 2 0 1 9より送信されたデー 夕で、 自車の走行危険度を認識する。
例えば、 車速度センサが検出した、 自車両の速度が所定値以上で、 かつ、 前方 の画像情報中の特定位置に、 前方車等の存在を認識できた場合、 これを危険状態 と判断し、 車両運動制御装置 2 0 2 2や警報装置 2 0 2 1を駆動する。 車両運動 制御装置 2 0 2 2は、 駆動系、 制動系、 操舵系等の制御を行なう装置である。 具 体例としては、 自動ブレーキ等が考えられる。
また、 警報装置 2 0 2 1としては、 運転者の聴覚や視覚に訴えて、 運転者に注 意を喚起する手段であれば、 どのような手段でも良く、 例えば、 チャイムの駆動 動作や L EDの表示等が考えられる。
以上のような判断部 2 0 0 7の構成例については、 様々な態様が考えられる。 また、 メモリ 2 0 2 3は、 ズーム条件決定部 2 0 0 9により決定されたズーム 条件を格納保持し、 さらに、 車線認識部 2 0 1 2等が処理を行う際のワークエリ ァとしても機能する。
次に、 本実施例にかかる装置の動作について説明する。
なお、 本装置においては、 大別して二つの処理が別周期で、 並列に実行される。 「第 1の処理」 は、 C CDカメラ 2 0 0 2で得た画像情報を、 AZD変換器 2 0 0 3にてアナログ 'デジタル変換し、 さらに、 色差変換回路 2 0 0 4にて、 輝 度、 色差信号に変換し、 遅延回路 2 0 1 6、 によって所定時間の遅延を与え、 置 換回路 2 0 1 5の有する機能によって画像処理した後、 エンコーダ回路 2 0 1 7 によって画像処理結果を NTS C信号にして、 モニタ 2 0 1 8に処理結果を表示 する、 一連の処理である。
まず、 この 「第 1の処理」 について、 図 2 7、 2 8を参照して説明する。
本装置を操作することによって、 装置電源がオン状態になると (S 4 0 2 ) 、 初期設定が行われる (S 4 0 4 ) 。 ここで、 初期設定とは、 例えば、 メモリ 2 0 2 3のワークエリア領域のクリア等の処理が挙げられる。 また、 人間が行なう操 作としては、 撮影部 2 0 0 表示部 2 0 1 4の初期調整や、 後述する第二の処 理で用いられる抽出色条件やズーム条件の初期値を、 図示しない入力部によって Ι £する。
次に、 C CDカメラ 2 0 0 2によって撮影した、 車両前方の画像情報に対する 信号をアナログ RGB信号として出力する (S 4 0 6 ) 。
次に、 A/D変換器 2 0 0 3によって、 アナログ RGB信号をデジタル RGB 信号に変換し (S 4 0 8 ) 、 さらに、 色差変換回路が、 前述した変換式にしたが つて、 デジタル RGB信号を、 輝度および色差信号に変換する (S 4 1 0) 。 次に、 遅延回路 2 0 1 6は、 色差変換回路 4から出力された画像信号を入力信 号とし、 処理部 2 0 0 5で必要とする処理時間だけ、 入力信号に遅延を与え (S 4 1 2) 、 処理部 5で処理された信号との同期を合わせを行なう。
次に、 置換回路 2 0 1 5は、 処理を行っていない原画像情報の上に、 処理部 2 0 0 5での処理結果を重ね合わせる処理を行ない (S 4 1 4 ) 、 エンコーダ回路 2 0 1 7によって、 置換回路 2 0 1 5の出力信号を NTS C信号に変換し (S 4 1 6) 、 モニタ 2 0 1 8に、 NTS C信号に対応する表示画像を表示する (S 4 1 8) o
その後、 次周期における被写体の画像情報を得るために、 ステップ (S 4 0 6 ) にブランチする。 なお、 以上の処理は、 フレームレート (例えば、 1 6. 7 m s ) を周期として順次行われる。
次に、 「第 2の処理」 について説明する。
第 2の処理は、 撮影部 2 0 0 1から送られてくる画像情報を、 画像ズーム (画 像拡大) 処理 (S 4 2 0 ) により、 水平方向に拡大処理した後、 前記エッジ画素 を抽出し (S 4 2 2 ) 、 自車両が走行する走行レーンに対する車線を認識し (S 4 2 8 ) 、 自車両が危険状態にあるか否かを判定し (S 4 3 6 ) 、 警報装置 2 0 2 1の駆動 (警報) ( S 4 3 8 ) や、 車両運動制御装置 2 0 2 2の駆動 (回 避) (S 4 4 0 ) までの、 一連の処理である。
これらの各処理について、 図 2 7、 2 8、 2 9 A~2 9 D、 3 0を参照して説 明する。
画像ズーム処理 (S 4 2 0 ) については、 後に詳細に説明するが、 画像ズーム 回路 2 0 0 8力 設定されたズーム条件に従って、 撮影して得た画像情報を、 水 平方向にのみ拡大処理し、 路面や白線等の画像を拡大する処理である。 例えば、 図 2 9 Aに示す原画像を、 図 2 9 Bのように、 拡大する処理を行なう。
エツジ抽出処理 (S 4 2 2 ) では、 前述したように、 抽出処理回路 2 0 1 0力く エッジ画素を抽出する。 この様子を、 図 2 9 Cに示す。 もちろん、 エッジ座標デ —夕も抽出する。
ここで、 図 3 0に、 エツジ抽出処理 (S 4 2 2 ) の処理内容をフローチヤ一ト で示す。
画素判別処理 (S 2 2 2 ) では、 設定した抽出色条件と、 全ての画素の色デー 夕との比較を行い、 抽出色条件を満たす画素を抽出する。
そして、 エッジ点判別処理 (S 2 2 4 ) では、 ノイズを除去するために、 例え ば 「 3画素 X 3画素」 の空間フィルタリングを用いた平滑処理を行い、 この 9つ の画素のうち、 半数以上の画素が抽出色条件を満たす画素の集まりであれば、 こ の 9つの画素については、 抽出色条件を満たす画素とする。
そして、 図 2 9 Bのように拡大処理された画像情報を、 1水平ラィン毎に調べ ていったとき、 抽出色条件データを満足しない画素から、 抽出色条件データを満 足する画素へと変化した場合、 該抽出色条件データを満足する画素を、 立ち上が りエッジ画素とし、 その座標デ一夕を、 立ち上がりエッジ画素の、 エッジ座標デ —夕とする。 同様に、 1つの水平ライン毎に調べていったとき、 抽出色条件デ一 夕を満足する画素から、 抽出色条件データを満足しない画素へと変化した場合、 該抽出色条件データを満足する画素を、 立ち下がりエッジ画素とし、 その座標デ 一夕を、 立ち下がりエッジ画素の、 エッジ座標データとする。
そして、 エッジ座標データを、 エッジ座標変換部 2 0 1 1に転送する。 なお、 図 3 0に示す例では、 路面と車線からなる画像情報であるが、 路面上に他の車両 等が存在する場合には、 車線を構成しないエツジ画素が抽出されてしまう。
次に、 エッジ座標変換処理 (S 4 2 4 ) では、 エッジ座標データを、 ズーム条 件決定部 2 0 0 9から転送された、 ズーム中心座標と拡大率を参照し、 図 2 9 D に示すように、 拡大前の座標データに変換し、 車線認識部 2 0 1 2に転送する。 なお、 図 3 1 A、 3 1 Bには、 夫々、 拡大処理前後の画像情報を示す。 画面上 端から y番目の水平ラインのズーム中心座標 C、 拡大率 Rの場合、 次式によって、 図 3 1 Bのエッジ座標データ P ' は、 拡大前のエッジ座標データ Pに変換できる。 ここで、 Wは、 画像情報を構成する画素の集合の、 水平方向の幅である。
Ρ = ( Ρ ' 一 W/ 2 ) / R + C
次に、 車線認識処理 (S 4 2 8 ) では、 転送されたエッジ座標データから、 第 1実施例の図 9等に示す方法で複数の近似直線を求め、 図 2 9 Eに示すように、 自車の走行する走行レーンに対する車線を推定する。
すなわち、 車線認識部 2 0 1 2は、 以下のような処理を行なう。
次に、 車線認識部 2 0 1 2は、 エッジ座標変換部 2 0 1 1から送られたエッジ 座標データに対して、 左車線に対するものと考えられるエッジ画素、 右車線に対 するものと考えられるエッジ画素、 それ以外のエッジ画素であるかを判断し、 分 別する処理を行う。
この処理では、 エッジ座標変換部 2 0 1 1から送られてきたエッジ座標データ に基づいて、 エッジ画素の種類を判定する。 ここで、 エッジ座標データは、 各ェ ッジ画素の座標情報と、 立ち上がりまたは立ち下がりの情報で構成されている。 一般に、 路面色を抽出色条件データにすると、 立ち上がりエッジ画素が左車線を 示し、 立ち下がりエッジ画素が右車線を示す。 しかしながら、 前方路面領域に、 前方車、 障害物等が存在する場合、 車線以外のエッジ画素も、 車線のエッジ画素 として認識してしまう。
そこで、 図2 9八ー 2 9 Eの画面中心線より左側に存在する立ち上がりエッジ 画素を左車線のエツジ画素、 右側に存在する立ち下がりエツジを右車線エツジ画 素と仮定し、 それ以外のエッジ画素を、 前方車等のエッジ画素として判別すれば よい。
次に、 左、 右車線に対するエッジ画素のエッジ座標データをもとに、 例えば、 最小 2乗法等によって、 近似直線を求め、 これを認識車線とする。 なお、 左、 右 車線に対するエツジ画素以外のエツジ画素のエツジ座標データは、 前方車両を示 す画素と判断し、 そのエッジ座標データで、 自車両の位置に最も近いものを、 前 方車両の存在位置とする。
次に、 危険判定処理 (S 4 3 6 ) では、 車両状態センサ (例えば、 車速度セン サ) 2 0 2 0からの信号より、 自車両の走行状態 (車速等) を判断し、 その判断 結果と、 車線によって定められる走行可能な路面と、 前方車両の存在位置の関係 力、ら、 自車両が危険状態にあるか否かを推定する。
例えば、 車速度センサが検出した、 自車両の速度が所定値以上で、 かつ、 前方 車両の存在位置が所定範囲内であるとき、 これを危険状態と判断する。
次に、 警報処理 (S 4 3 8 ) では、 危険判断部 2 0 1 3で危険状態と判断した 場合、 警報装置 2 0 2 1を駆動して、 自車の運転者に伝える。
次に、 回避処理 (S 4 4 0 ) では、 危険判断部 2 0 1 3で危険状態と判断した 場台、 車両運動制御装置 2 0 2 2を駆動する。 なお、 危険状態の警報に対しても運転者の操作が不十分であつたと判断した場 合に、 車両運動制御装置 2 0 2 2を駆動するような構成にしても良い。
そして、 これらの一連の処理を繰り返すことにより、 装置が動作することにな る。
次に、 本実施例における主要な処理である画像ズーム処理 (S 4 2 0 ) につい て、 詳細に説明する。
図 3 2に、 画像ズーム処理 (S 4 2 0 ) の処理内容を説明するための、 フロー チヤ一トを示す。
まず、 前の周期で処理して得られた認識車線の座標データ等を参照して、 ズ一 ム条件決定部 2 0 0 9力 <、 各水平ライン毎に、 ズーム中心座標および拡大率を決 定する (S 5 0 2 ) 。
ここで、 ズーム中心座標は、 画像情報を拡大する際に、 拡大処理を行なう基準 点の位置を示すパラメータであり、 拡大率は、 画像情報を拡大する倍率を示すパ ラメータである。 ズーム中心座標は、 例えば、 認識された左右車線に挟まれた自 車走行レーンの中心位置とし、 拡大率については、 拡大後の車線が画面からはみ 出さない (例えば、 画面幅 Wの 8割程度になる) ように決定すればよい。 このよ うな決定は、 ズーム条件決定部 2 0 0 9力 <、 車線認識部 2 0 1 2から送られた、 車線を構成するエツジ座標データ等を参照して、 認識された左右車線に挟まれた 自車走行レ一ンの中心位置や走行レ一ン幅を把握することによつて行なう。 もち ろん、 ズーム中心座標および拡大率を、 順次更新する必要がない場合には、 水平 ライン毎に、 予め定めておき、 ズーム条件決定部 2 0 0 9に格納しておいても良 い。
次に、 実際のシーンを図示した画面を参照して説明をする。
図 3 3 Aに、 前の周期で処理して得られた車線認識の結果の一例を示す。 画面 上端から y番目の水平ラインにおいて、 左車線座標が x l、 右車線座標が x rと した時、 ズーム中心座標 Cおよび拡大率 Rは、 次式で表される。
ズーム中心座標: C = ( x r + x l ) / 2
拡大率: R =ひ x W/ ( X r— X 1 )
ただし、 (X r— X 1 ) ZWく a < 1 ここで、 αは、 拡大処理後の車線が、 画面からはみ出さないようにするための 係数である。 が 1の時は車線幅は画面一杯となる。 ただし、 aが、 下限値
( (x r - x 1 ) /W) より小さい場合には、 R力く 「 1」 より小さくなり、 画像 情報が縮小されることになるため、 この場合には、 a二 (x r -x 1 ) /W、 即 ち、 拡大率 R= 1とする。 なお、 Wは画面幅を示す。
図 3 3 Bに、 α= 0. 8とした時の、 拡大処理された画像情報の一例を示す。 この場合、 拡大率 Rは y 番目の水平ラインから下部が R= 1、 上部が R= 0. 8 X ( (x r - X 1 ) /W) である。 即ち、 y t 番目の水平ラインから上部は車 線幅が画面の 8 0 %を占める様に設定される。
次に、 図 3 4に、 曲線路のシーンを想定した場合であって、 認識された左車線 力^ 画面内に部分的にしか存在しない場合の、 車線認識結果の一例を示す。 この 場合、 画面上端から y番目の水平ラインにおいて、 左車線座標が画面内に存在せ ず、 右車線座標を X rとすると、 ズーム中心座標 Cおよび拡大率 Rは、 次式で表 される。
ズーム中心座標: C = x rZ2
拡大率: R=a xWZx r
これは、 図 3 3 A、 3 3 Bに対する、 ズーム中心座標 C、 拡大率 Rを求める式 において、 X 1 = 0とした場合に、 相当する。
さらに、 図 3 5に、 曲線路のシーンを想定した場合であって、 認識された右車 線が、 画面内に部分的にしか存在しない場合の、 車線認識結果の一例を示す。 こ の場合、 画面上端から y番目の水平ラインにおいて、 左車線座標を X 1 とし、 右 車線座標が画面内に存在しないので、 ズーム中心座標 Cおよび拡大率 Rは、 次式 で表される。
ズーム中心座標: C= (W+x 1 ) /2
拡大率: R= a XW/ (W— x l )
これは、 図 3 3 A、 3 3 Bに対する、 ズーム中心座標 (:、 拡大率 Rを求める式 において、 x r =Wとした場合に、 相当する。
次に、 画像ズーム回路 2 0 0 8は、 決定したズーム中心座標と拡大率に従って、 画像を拡大する処理を行なう (S 5 0 4 ) 。 ここで、 ズーム 3 6 A、 3 6 Bを参照して、 1水平ラインについての拡大処理 について説明する。
図 3 6 Aに示すように、 8画素のデータ (1水平ラインは、 8画素から構成さ れると仮定する) を、 矢印で示す位置をズーム中心座標として、 拡大率 「2倍」 で、 拡大処理する場合について説明する。
まず、 拡大する画素の数を求める。 この時には、 拡大処理後の画素の数も 8画 素でなければならないので、 拡大率 「2倍」 を考慮して、 拡大する画素の数は、 4画素となる。
次に、 拡大する画素データを選ぶ。 ズーム中心座標を中心として、 4画素を選 ぶことを想定する。 そして、 選ばれた画素に対する画像情報の大きさを 2倍にし て、 1水平ラインを構成する 8画素に割り当てる。
このような処理によって、 図 3 6 Aに示す画像情報は、 図 3 6 Bに示すように 拡大処理される。
上述した処理を、 総ての水平ラインに対して行うことで、 画面情報全体を水平 方向に拡大することができることになる。
以下、 画像の拡大処理による、 車線認識の具体例を、 図 3 7 A〜3 7 C、 図 3 8 A〜3 8 D、 3 9 A〜 3 9 Dを参照して説明する。
図 3 8 Aは、 図 3 7 Aに示す A部 (右車線の一部) の詳細図である。 また、 図 3 8 Bは、 図 3 8 Aを、 画像拡大処理 (拡大率: 2倍) した結果を示す図である。 上述したように、 エッジ点判別処理 (図 3 0 : S 5 0 4 ) では、 ノイズ除去のた め、 「 3画素 X 3画素」 の空間フィル夕リングを施している。
即ち、 各画像データ 〜P 3 においてその 9画素のうち、 半数以上、 即ち 5 画素以上が抽出色条件を満たせば、 この 9画素は、 抽出色条件を満たしているも のと判断する。 なお、 図 3 7 Cは、 水平ライン毎に設定された、 拡大率の変化の 状態を示し、 具体的には、 第 N水平ラインより上方に位置する水平ラインの拡大 率は一定であるが、 第 N水平ラインより下方に位置する水平ラインに対しては拡 大率が連続的に減少するように、 拡大率が定められている。
図 3 8 Aは拡大率 1倍の場合の 3つの画像データ P 1、 P 2、 P 3の例であり、 各画像データは 3画素 X 3画素の計 9画素で形成されている。 図 3 8 Aの例では、 各画像データ P I、 P 3においては、 9画素のうち、 車線の白線を示す画素が 3 つ、 路面を示す画素が 6つである。 一方、 画像データ P 2においては、 9画素の うちすべてが車線の白線を示す画素である。 従って、 エッジ点判別処理において は、 図 38 Cに示すように、 画像データ P l、 P 2、 P 3はそれぞれ路面の画素 P 1 ' 、 白線の画素 P 2 ' 、 路面の画素 P 3 ' と見なされる。 また、 図 38 Bは 図 38 Aの画像を 2倍に拡大処理した画像であり、 6つの画像データ P l a、 P 1 b、 P 2 a、 P 2 b、 P 3 a、 P 3 bで構成されている。 各画像データ P I a、 P 3 bにおいては、 9画素のうち、 車線の白線を示す画素が 1つ、 路面を示す画 素が 8つ、 各画像データ P 1 b、 P 3 aにおいては、 9画素のうち、 車線の白線 を示す画像が 5つ、 路面を示す画素が 4つ、 各画像データ P 2 a、 P 2 bにおい ては 9画素全てが車線の白線を示す画素となる。 従って、 エッジ点判別処理にお いては、 図 38 Dに示すように、 画像データ P l a、 P 3 bはそれぞれ路面の画 素 P 1 a ' 、 P 3 b ' と見なされ、 画像データ P 1 b、 P 2 a、 P 2 b、 P 3 a はそれぞれ白線の画素 P l b' 、 P 2 a' 、 P 2 b' 、 P 3 a' と見なされる。 したがって、 図 38 Dに示す様に拡大処理された画像においては、 領域 A (図 3 7参照) における白線の割合が 「2Z3」 となり、 図 3 8 Cの様に拡大処理し ていない場合の 「 1/3」 に比べ、 白線の割合が大きくなる。 このため、 拡大処 理していない場合には認識できない白線も、 拡大処理し、 画像情報に占める白線 の割合を大きくすることにより、 白線の認識が可能になる。 よって、 拡大処理に よって、 自車両が走行する走行レーンに対する車線を、 より遠方まで認識するこ とが可能となる。
図 39 Aは拡大率 1倍の場合の 3つの画像データ P 1 1、 P 1 2、 P 1 3の例 であり、 各画像データは 3画素 X 3画素の計 9画素で形成されている。 図 39 A の例では、 各画像データ P I 1においては、 9画素のうち、 車線の白線を示す画 素が 2つ、 路面を示す画素が 7つである。 一方、 画像データ P 1 2においては、 車線の白線を示す画素が 3つ、 路面を示す画素が 6つである。 一方、 画像データ P 1 3においては、 9画素のうちすべてが路面を示す画素である。 従って、 エツ ジ点判別処理においては、 図 3 9 Cに示すように、 画像データ P 1 1 ' 、
P 1 2 ' 、 P 1 3 ' はそれぞれ路面の画素 P 1 1 ' 、 P 1 2 ' 、 P 1 3 ' と見な されてしまい、 白線は検出されない。 一方、 図 39 Bは図 3 9 Aの画像を 2倍に 拡大処理した画像であり、 6つの画像データ P 1 1 a、 P l l b、 P 1 2 a、 P
1 2 b、 P 1 3 a、 P 1 3 bで構成されている。 画像データ P 1 1 bにおいては、 9画素のうち、 車線の白線を示す画素が 4つ、 路面を示す画素が 5つ、 画像デー 夕 P 1 2 aにおいては、 9画素のうち、 車線の白線を示す画素が 5つ、 路面を示 す画素が 4つ、 画像データ P 1 2 bにおいては 9画素のうち、 車線の白線を示す 画素が 1つ、 路面を示す画素が 8つ、 各画像データ P l l a、 P 1 3 a、 P 1 3 bにおいては 9画素全てが路面を示す画素である。 従って、 エッジ点判別処理に おいては、 図 3 9 Dに示すように、 画像データ P 1 2 aは白線の画素 P 1 2 a' と見なされ、 他の画像データ P l l a、 P l l b、 P 1 2 b、 P 1 3 a、 P 1 3 bはそれぞれ路面の画素 P 1 1 a' 、 P I l b' , P 1 2 b' 、 P 1 3 a' 、 P
1 3 b' と見なされる。 このように、 拡大処理することで、 白線を認識できる。 以下、 画像拡大処理の他の処理方法について列挙する。
上述したように、 画像拡大処理の一例として、 拡大率を各水平ライン毎に計算 して求める方法について述べた。 しかしながら、 画像拡大処理において、 図 40 Bに示すように、 拡大率を、 ある水平ラインを境にして、 不連続に変化させるこ とも考えられる。
具体的には、 図 4 0 Cに示すように、 第 M水平ラインより上方に位置する水平 ライン (第 M水平ラインを含める) に対して、 所定の 1より大きい拡大率を設定 しておき、 また、 第 M水平ラインより下方に位置する水平ラインに対しては、 前 記所定の拡大率とは異なる値の拡大率 (図 4 0 Bの場合、 拡大率二 1より、 拡大 処理しないことになる) を設定しておく。 なお、 このように、 拡大率を不連続に した場合の処理例を、 図 40 Bに示す。 また、 図 4 O Aに、 拡大前の原画像を示 す。
このように、 特定の水平ラインより上方に位置する水平ラインに対しては、 あ る所定の拡大率で拡大し、 下方に位置する水平ラインには、 拡大処理を行わない ようにすると遠方の白線を正確、 かつ確実に認識できることとなる。 なお、 特定 の水平ラインは、 いずれかの拡大率が設定されるようにしておけば良い。
この方法によれば、 各水平ライン毎に拡大率を計算する方法に比べ、 計算量を 大幅に減らすことが可能である。
また、 拡大率を変化させる水平ライン、 その拡大率の設定法には、 次のような ものが考えられる。 最も簡単な方法としては、 拡大率を変化させる水平ライン、 および、 その拡大率を予め設定しておき、 これを参照して、 画像ズーム回路 2 0 0 8が画像拡大処理を行なうことが、 挙げられる。
また、 拡大率のみ固定とし、 拡大率を切り換える水平ラインを 2の水平ライン での車線幅が所定幅となる水平ラインで行うように、 拡大率を変化させる水平ラ ィンを可変にする方法も考えられる。
なお、 ズーム中心座標は、 図 4 1 A〜4 1 Cに示すように、 拡大率を変化させ る水平ラインにおける左右車線に挟まれた自車走行レーンの中心位置を採用すれ ば良い。
以上述べてきたように、 本実施例によれば、 画像を拡大する処理によって、 簡 易な構成で、 遠方の車線の認識を正確に行なうことを可能にする装置を実現でき る。
以上述べたように、 本実施例によれば、 撮影装置によって撮影された画素情報 を、 水平方向に拡大する処理を行なうことによって、 簡易な構成で、 広い視野を 確保しながら遠方の走行路に対しても車線を正確に認識できる装置を実現するこ とが可能となる。

Claims

請求の範囲
1. 画像を撮像し、 画像情報を得るための撮像手段と、
該撮像手段により撮像して得た画像情報を 1ライン毎に走査し、 ある特定の色 と、 それ以外の色との境界を調べ、 該特定の色を有する画素をエッジ画素として 抽出するエツジ画素抽出手段と、
抽出したェッジ画素を、 直線を構成するように結んで構成される線画像を求め る線画像抽出手段と、
抽出した複数の線画像のうちから、 二つの線画像を、 予め定めた規則によって 選択する線画像選択手段と、 を備える画像処理装置。
2. 車両に搭載され、 車両前方の画像を撮像し、 画像情報を得るための撮像手 段と、
該撮像手段により撮像して得た画像情報を 1ライン毎に走査し、 ある特定の色 と、 それ以外の色との境界を調べ、 該特定の色を有する画素をエッジ画素として 抽出するエッジ画素抽出手段と、
抽出したェッジ画素の位置座標を参照し、 直線を構成するようにェッジ画素を 分類することを想定したとき、 各分類に対応するェッジ画素を結んで構成される 直線を、 候補車線として求める候補車線抽出手段と、
候補車線のうちから、 車両前方の左車線および右車線を選択するための車線選 択手段と、 を備える画像処理装置。
3. 前記車線選択手段は、 一方の車線を選択する際に、 前方画像情報の中心垂 直線を想定したとき、 該中心垂直線の左、 右いずれかにおいて、 最も多くのエツ ジ画素を有して構成される候補車線を、 車線として選択する手段を有する、 請求 項 2の画像処理装置。
4. 前記車線選択手段は、 左車線および右車線を選択する際に、 特定の配置関 係を成立させる 2つの候補車線を、 左車線および右車線として選択する手段を有 する、 請求項 2の画像処理装置。
5. 前記車線選択手段は、 左車線および右車線を選択する際に、 前方画像情報 の水平方向に平行な、 特定の長さを有する特定の水平線を想定したとき、 該水平 線の両端に接するように配置する、 2つの候補車線を、 左車線および右車線とし て選択する手段を有する、 請求項 4の画像処理装置。
6. 前記車線選択手段は、 前方画像情報の中心垂直線を想定したとき、 該中心 垂直線の左、 右いずれかにおいて、 最も多くのエッジ画素を有して構成される候 捕車線を、 一方の車線即ち選択車線として選択し、 さらに、 他方の車線を選択す る際に、 前方画像情報の水平方向に平行な、 特定の長さを有する特定の水平線を 想定したとき、 該水平線の一端に前記選択車線が接したとき、 他端に接するよう に配置する候補車線を、 他方の車線として選択する手段を有する、 請求項 2の画 像処理装置。
7. 走行路面のカラー画像データに基づいて、 走行路面に施されている車線を 識別する画像処理装置において、
車両の走行方向の前方を撮影するカラ一撮像手段と、
該カラー撮像手段で撮像した画像データを 1 ライン毎に走査し、 ある特定の色 と、 それ以外の色との境界を調べ、 該特定の色を有する画素をエッジ画素として 求め、 該求めたエッジ画素から所定の抽出色条件を満たす画素を抽出するエッジ 画素抽出手段と、
上記画像データによる画面内から、 決定されている画素の色データをサンプリ ングする色サンプリング手段と、
サンプリングされた色データに基づいて上記抽出色条件を決定する抽出条件決 定手段と、
抽出したエッジ画素を直線を構成するように結んで構成される線画像を車線と して求める線画像抽出手段と、 を備える画像処理装置。
8. 上記抽出条件決定手段が、 認識した車線を表わす路面データに基づいて上 記サンプル画素位置を決定する手段を有する請求項 7の画像処理装置。
9. 更に、 上記サンプリングされた色データに基づいて走行路面の照明環境を 判断する手段と、
この判断結果により上記カラ一撮像手段が有する光学系の絞りの大きさと、 画 像データ処理系での色変換ゲインを制御する手段とを備える、 請求項 7の画像処
10. 更に、 サンプリングされた色データの状態と抽出色条件を満たす画素の数 に応じて、 上記抽出色条件を更新する手段を備える請求項 7の画像処理装置。
11. 画像を撮像し、 画像情報を得るための撮像手段と、
撮像した画像情報の大きさを拡大する画像拡大処理手段と、
拡大した画像情報を水平 1 ライン毎に走査し、 ある特定の色と、 それ以外の色 との境界を調べ、 その境界となる画素をエッジ画素として抽出し、 抽出したエツ ジ画素の位置座標を求めるエツジ画素座標検出手段と、
抽出したェッジ画素の位置座標を、 拡大処理前の座標に変換するエツジ画素座 標変換手段と、
エッジ画素の変換座標を参照し、 エッジ画素を、 直線を構成するように結んで 構成される線画像を求める線画像抽出手段と、
各水平ライン毎に定めた、 画像情報の拡大量である拡大率、 および、 画像情報 の拡大処理を行なう基準位置を示す拡大中心座標を記憶する拡大条件記憶手段と を備え、
前記画像拡大処理手段は、 前記拡大条件記憶手段の記憶内容を参照し、 各水平 ライン毎に、 前記拡大中心座標を中心として、 前記拡大率で示される倍率で、 画 像情報の大きさを拡大する手段を有する画像処理装置。
12. 車両に搭載され、 車両前方の画像を撮像し、 画像情報を得るための撮像手 段と、
撮像した画像情報の大きさを拡大する画像拡大処理手段と、
拡大した画像情報を水平 1 ライン毎に走査し、 ある特定の色と、 それ以外の色 との境界を調べ、 その境界となる画素をエッジ画素として抽出し、 抽出したエツ ジ画素の位置座標を求めるエツジ画素座標検出手段と、
抽出したエツジ画素の位置座標を、 拡大処理前の座標に変換するエツジ画素座 標変換手段と、
ェッジ画素の変換座標を参照し、 ェッジ画素を、 直線を構成するように結んで 構成される左右車線を求める車線抽出手段と、 各水平ライン毎に定めた、 画像情 報の拡大量である拡大率、 および、 画像情報の拡大処理を行なう基準位置を示す 拡大中心座標を記憶する拡大条件記憶手段とを備え、 前記画像拡大処理手段は、 前記拡大条件記憶手段の記憶内容を参照し、 各水平 ライン毎に、 前記拡大中心座標を中心として、 前記拡大率で示される倍率で、 画 像情報の大きさを拡大する手段を有する画像処理装置。
13. 前記画像拡大処理手段は、 撮影した画像情報の大きさを、 水平方向にのみ に拡大する手段を有する請求項 1 1又は 1 2の画像処理装置。
14. 前記拡大条件記憶手段は、 拡大率を、 各水平ライン毎に、 連続して変化す るような値にして予め記憶する、 請求項 1 し 1 2又は 1 3の画像処理装置。
15. 前記車線抽出手段は、 前の車線抽出周期で処理して得られた抽出車線の座 標データに基づいて、 各水平ライン毎の拡大率および拡大中心座標を求め、 前記 拡大条件記憶手段に記憶する手段を有する請求項 1 2又は 1 3の画像処理装置。
16. 前記車線抽出手段は、 予め定められた画面幅を、 各水平ラインにおける左 右車線で挟まれる自車走行レーンの幅で除した値に基づき、 各水平ライン毎の拡 大率を求め、 前記拡大条件記憶手段に記憶する手段を有する請求項 1 2又は 1 3 の画像処理装置。
17. 前記車線抽出手段は、 各水平ラインにおける左右車線で挟まれる自車走行 レーンの中心位置を、 各水平ライン毎の拡大中心座標として求め、 前記拡大条件 記憶手段に記憶する手段を有する請求項 1 2、 1 3又は 1 4の画像処理装置。
18. 前記拡大条件記憶手段は予め記憶しておく、 拡大率として、 ある特定の水 平ラインより垂直方向において上に存在する水平ラインに対する拡大率の値と、 前記ある特定の水平ラインを含み、 該水平ラインより垂直方向において下に存在 する水平ラインに対する拡大率の値とを、 異ならせる、 請求項 1 1、 1 2又は 1 3の画像処理装置。
PCT/JP1996/001133 1995-04-26 1996-04-25 Image processor for vehicle Ceased WO1996034363A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19680415T DE19680415C2 (de) 1995-04-26 1996-04-25 Bildbearbeitungsvorrichtung für Fahrzeuge
US08/750,988 US5987174A (en) 1995-04-26 1996-04-25 Image processing apparatus for vehicles

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP7102441A JPH08297023A (ja) 1995-04-26 1995-04-26 画像処理による走行路面の監視装置
JP7/102441 1995-04-26
JP7119857A JPH08315117A (ja) 1995-05-18 1995-05-18 画像処理装置
JP7/119856 1995-05-18
JP7/119857 1995-05-18
JP07119856A JP3084208B2 (ja) 1995-05-18 1995-05-18 画像処理装置

Publications (1)

Publication Number Publication Date
WO1996034363A1 true WO1996034363A1 (en) 1996-10-31

Family

ID=27309709

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1996/001133 Ceased WO1996034363A1 (en) 1995-04-26 1996-04-25 Image processor for vehicle

Country Status (3)

Country Link
US (1) US5987174A (ja)
DE (1) DE19680415C2 (ja)
WO (1) WO1996034363A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859501A (zh) * 2019-03-08 2019-06-07 鲁东大学 一种信号交叉口可变导向车道行驶方向转换智能控制方法

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3373773B2 (ja) * 1998-01-27 2003-02-04 株式会社デンソー レーンマーク認識装置、車両走行制御装置および記録媒体
JP3219053B2 (ja) * 1998-05-01 2001-10-15 日本電気株式会社 道路領域検出方法及びシステム
JP4672094B2 (ja) * 1999-01-22 2011-04-20 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP2000295604A (ja) * 1999-04-06 2000-10-20 Yazaki Corp 車両用後側方監視装置
KR100305797B1 (ko) * 1999-07-08 2001-09-13 이계안 차량용 차선이탈 경보장치의 잡음 제거방법
JP4205825B2 (ja) * 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
JP2001134772A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
AU2001253619A1 (en) * 2000-04-14 2001-10-30 Mobileye, Inc. Generating a model of the path of a roadway from an image recorded by a camera
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
JP3651387B2 (ja) * 2000-11-22 2005-05-25 日産自動車株式会社 白線検出装置
KR100435650B1 (ko) * 2001-05-25 2004-06-30 현대자동차주식회사 카메라가 장착된 차량의 도로정보 추출 및 차간거리 탐지방법
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
DE10247563A1 (de) * 2002-10-11 2004-04-22 Valeo Schalter Und Sensoren Gmbh Verfahren und System zur Unterstützung des Fahrers
KR100471268B1 (ko) * 2002-10-28 2005-03-10 현대자동차주식회사 차간거리 측정 방법
DE102004003502B3 (de) * 2004-01-23 2005-08-11 Audi Ag Verfahren und Vorrichtung zum Assistieren beim Führen eines Kraftfahrzeugs
US7406182B2 (en) * 2004-03-31 2008-07-29 Fujifilm Corporation Image capturing apparatus, image capturing method, and machine readable medium storing thereon image capturing program
DE502005003754D1 (de) 2004-05-25 2008-05-29 Vdo Automotive Ag Überwachungseinheit nebst assistenzsystem für kraftfahrzeuge
WO2006014974A2 (en) 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
JP4616046B2 (ja) * 2005-03-22 2011-01-19 本田技研工業株式会社 車両用画像処理システム、車両用画像処理方法、車両用画像処理プログラム、及び車両
CN102074007B (zh) * 2005-05-20 2012-07-18 丰田自动车株式会社 车辆用图像处理装置
JP4822766B2 (ja) * 2005-08-18 2011-11-24 富士通株式会社 路面標示認識装置及びシステム
DE102005044979A1 (de) * 2005-09-20 2007-03-22 Adc Automotive Distance Control Systems Gmbh Verfahren zur Erkennung von Fahrspurmarkierungen
JP4248558B2 (ja) * 2006-03-24 2009-04-02 トヨタ自動車株式会社 道路区画線検出装置
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP4232794B2 (ja) * 2006-05-31 2009-03-04 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP4222411B2 (ja) * 2006-11-08 2009-02-12 日本電気株式会社 消失点検出システム、消失点検出方法および消失点検出用プログラム
WO2008091565A1 (en) * 2007-01-23 2008-07-31 Valeo Schalter & Sensoren Gmbh Method and system for universal lane boundary detection
JP4955471B2 (ja) * 2007-07-02 2012-06-20 株式会社デンソー 画像表示装置及び車載用画像表示装置
DE102007061658A1 (de) * 2007-12-18 2009-06-25 Adc Automotive Distance Control Systems Gmbh Klassifikation der Fahrzeugumgebung
US7898400B2 (en) * 2008-04-15 2011-03-01 Autoliv Asp, Inc. Enhanced vision road detection system
US8060280B2 (en) 2008-04-15 2011-11-15 Autoliv Asp, Inc. Vision system for deploying safety systems
JP4710981B2 (ja) * 2009-01-23 2011-06-29 トヨタ自動車株式会社 区画線認識装置、及び当該装置で用いられる区画線認識方法
DE112009005401B4 (de) * 2009-11-27 2021-01-28 Toyota Jidosha Kabushiki Kaisha Fahrunterstützungsvorrichtung und fahrunterstützungsverfahren
JP5462609B2 (ja) * 2009-12-09 2014-04-02 富士重工業株式会社 停止線認識装置
JP5350297B2 (ja) * 2010-03-17 2013-11-27 クラリオン株式会社 車両姿勢角算出装置及びそれを用いた車線逸脱警報システム
JP5276637B2 (ja) * 2010-09-08 2013-08-28 富士重工業株式会社 車線推定装置
JP5854774B2 (ja) * 2011-11-11 2016-02-09 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5822664B2 (ja) 2011-11-11 2015-11-24 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5871571B2 (ja) 2011-11-11 2016-03-01 株式会社Pfu 画像処理装置、矩形検出方法及びコンピュータプログラム
US8824733B2 (en) 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US8768007B2 (en) 2012-03-26 2014-07-01 Tk Holdings Inc. Method of filtering an image
WO2014070448A1 (en) 2012-10-31 2014-05-08 Tk Holdings, Inc. Vehicular path sensing system and method
WO2014152470A2 (en) 2013-03-15 2014-09-25 Tk Holdings, Inc. Path sensing using structured lighting
DE102014210411A1 (de) * 2013-09-06 2015-03-12 Robert Bosch Gmbh Verfahren und Steuer- und Erfassungseinrichtung zum Plausibilisieren einer Falschfahrt eines Kraftfahrzeugs
WO2016035211A1 (ja) 2014-09-05 2016-03-10 堺ディスプレイプロダクト株式会社 画像生成装置、画像生成方法及びコンピュータプログラム
CN105528588B (zh) * 2015-12-31 2019-04-23 百度在线网络技术(北京)有限公司 一种车道线识别方法及装置
US10872419B2 (en) * 2018-09-04 2020-12-22 GM Global Technology Operations LLC Method and apparatus for evaluating a vehicle travel surface
CN110909711B (zh) * 2019-12-03 2022-08-02 阿波罗智能技术(北京)有限公司 检测车道线位置变化的方法、装置、电子设备和存储介质
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
DE102021114935A1 (de) 2021-06-10 2022-12-15 Connaught Electronics Ltd. Verfahren zum Bestimmen von zumindest einer Fahrstreifenbegrenzung einer Fahrbahn in einem Bild mittels eines Assistenzsystems, omputerprogrammprodukt, computerlesbares Speichermedium sowie Assistenzsystem
CN113591618B (zh) * 2021-07-14 2024-02-20 重庆长安汽车股份有限公司 前方道路形状估算方法、系统、车辆及存储介质
CN113933293A (zh) * 2021-11-08 2022-01-14 中国联合网络通信集团有限公司 浓度检测方法及装置
CN114485409A (zh) * 2022-04-18 2022-05-13 深圳市元硕自动化科技有限公司 原料板质量检测方法、装置、设备及可读存储介质
CN118876962B (zh) * 2024-09-29 2025-01-21 山东科技大学 基于照明灯曲线对车道线补偿的车辆姿态调整方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03194670A (ja) * 1989-12-22 1991-08-26 Honda Motor Co Ltd 走行路判別方法
JPH04273587A (ja) * 1991-02-28 1992-09-29 N T T Data Tsushin Kk 物体検出装置
JPH06124340A (ja) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd 車両用画像処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2560702B2 (ja) * 1985-12-11 1996-12-04 日本電装株式会社 路面上の車線認識装置
JPH07111734B2 (ja) * 1989-03-30 1995-11-29 本田技研工業株式会社 走行路判別方法
JP2962797B2 (ja) * 1990-09-27 1999-10-12 マツダ株式会社 移動車の環境認識装置
US5307419A (en) * 1990-11-30 1994-04-26 Honda Giken Kogyo Kabushiki Kaisha Control device of an autonomously moving body and evaluation method for data thereof
JP3229687B2 (ja) * 1993-02-02 2001-11-19 マツダ株式会社 走行路認識装置
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03194670A (ja) * 1989-12-22 1991-08-26 Honda Motor Co Ltd 走行路判別方法
JPH04273587A (ja) * 1991-02-28 1992-09-29 N T T Data Tsushin Kk 物体検出装置
JPH06124340A (ja) * 1992-07-21 1994-05-06 Nissan Motor Co Ltd 車両用画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109859501A (zh) * 2019-03-08 2019-06-07 鲁东大学 一种信号交叉口可变导向车道行驶方向转换智能控制方法

Also Published As

Publication number Publication date
US5987174A (en) 1999-11-16
DE19680415T1 (de) 1997-05-22
DE19680415C2 (de) 2003-02-06

Similar Documents

Publication Publication Date Title
WO1996034363A1 (en) Image processor for vehicle
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
US10078789B2 (en) Vehicle parking assist system with vision-based parking space detection
JP4491453B2 (ja) 赤外画像と視覚画像を周辺部に依存して融合させることにより車両の周辺部を可視化するための方法及び装置
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
JP5115792B2 (ja) 画像処理装置および方法、並びに、プログラム
US11967158B2 (en) Image processor and image processing method
JP2011076214A (ja) 障害物検出装置
JP4717073B2 (ja) 風景解析装置及び方法
JP5152019B2 (ja) 車両用制御装置
US20200118280A1 (en) Image Processing Device
JP3606223B2 (ja) 車両側方映像生成方法及び車両側方映像生成装置
US11620908B2 (en) Image processor and image processing method
JPH1114346A (ja) 車両用障害物検出装置
JP2005285011A (ja) 人間認識システム、及び画像処理装置
JP3413745B2 (ja) 画像処理による走行路面の監視装置
JP5434277B2 (ja) 走行支援装置および走行支援方法
JP3084208B2 (ja) 画像処理装置
JP2003248895A (ja) 画像式車両感知システム及び画像式車両感知方法
JP2008098858A (ja) 車両周辺監視装置
JP2014059642A (ja) 路上映像情報システム
JP2006024120A (ja) 車両用画像処理システム及び画像処理装置
JPH08297023A (ja) 画像処理による走行路面の監視装置
JP2019061314A (ja) 物体距離検出装置
JP4099011B2 (ja) 監視装置および監視方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): DE US

WWE Wipo information: entry into national phase

Ref document number: 08750988

Country of ref document: US

RET De translation (de og part 6b)

Ref document number: 19680415

Country of ref document: DE

Date of ref document: 19970522

WWE Wipo information: entry into national phase

Ref document number: 19680415

Country of ref document: DE