DE102008020007A1 - Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients - Google Patents
Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients Download PDFInfo
- Publication number
- DE102008020007A1 DE102008020007A1 DE102008020007A DE102008020007A DE102008020007A1 DE 102008020007 A1 DE102008020007 A1 DE 102008020007A1 DE 102008020007 A DE102008020007 A DE 102008020007A DE 102008020007 A DE102008020007 A DE 102008020007A DE 102008020007 A1 DE102008020007 A1 DE 102008020007A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- lane
- evaluation
- roadside
- gray value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
Die Erfindung betrifft Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung nach dem Oberbegriff von Anspruch 1.The The invention relates to methods for assisting a driver when driving with a vehicle with lane detection the preamble of claim 1.
1. Stand der Technik1. State of the art
Aus dem Stand der Technik sind verschiedene Systeme bekannt, die den Fahrer eines Fahrzeuges darin unterstützen, das Fahrzeug in seiner Fahrspur zu halten. Diese Systeme werden auch als LKS-Systeme (LKS: Lane Keeping Support) bezeichnet. Bekannte LKS-Systeme umfassen ein Fahrspurerkennungssystem, wie z. B. einem Videosystem, mit der die Krümmung der Fahrspur und die relative Position des Fahrzeugs in der Fahrspur, die sogenannte Ablage und Orientierung, bestimmt werden können. Wenn der vom Fahrer gewählte Lenkwinkel von dem durch den Fahrspurverlauf vorgegebenen Soll-Lenkwinkel zu stark abweicht, werden mit Hilfe eines Lenkstellers, wie z. B. eines Servomotors, künstliche Lenkkräfte auf die Lenkung des Fahrzeugs ausgeübt. Diese Lenkkräfte sind so stark, dass sie vom Fahrer haptisch erfasst werden können und den Fahrer darauf hinweisen, wie er die Lenkung betätigen müsste, um das Fahrzeug in seiner Fahrspur zu halten.Out In the prior art, various systems are known which the Driver of a vehicle in assist the vehicle to keep in his lane. These systems are also called LKS systems (LKS: Lane Keeping Support). Known LKS systems include a lane detection system, such. B. a video system, with the the curvature of the lane and the relative position of the lane Vehicle in the lane, the so-called filing and orientation, can be determined. If the one chosen by the driver Steering angle of the predetermined by the lane course target steering angle Too strong, with the help of a steering actuator, such. B. a servomotor, artificial steering forces on the Steering of the vehicle exercised. These steering forces are so strong that they can be touched by the driver and tell the driver how to operate the steering would need to keep the vehicle in its lane.
Das Fahrspurerkennungssystem kann beispielsweise als Videosystem realisiert sein, dessen Videosignale von einer Signalverarbeitungssoftware verarbeitet werden, die die gewünschten geometrischen Daten (Ablage, Orientierung, Fahrspurkrümmung) liefert. Andere Fahrspurerkennungssysteme umfassen z. B. einen Magnetsensor, der die Fahrzeugposition in Verbindung mit in der Fahrbahn integrierten Magneten bestimmt, oder wahlweise auch Radarsensoren. Aus den geometrischen Ablagedaten und einer Information über die Fahrspurkrümmung wird dann mittels eines mathematischen Referenzmodells (Algorithmus) ein Referenz-Lenkwinkel berechnet, der an der Lenkung eingeschlagen werden müsste, um das Fahrzeug optimal in seiner Fahrspur zu halten. Bei einer Abweichung des Fahrer-Lenkwinkels vom Referenzlenkwinkel wird dann mit Hilfe eines Lenkstellers ein Unterstützungsmoment auf die Lenkung aufgebracht. Das Unterstützungsmoment wird dabei anhand einer vorgegebenen Kennlinie berechnet.The Lane detection system can be realized as a video system, for example be whose video signals from a signal processing software processing the desired geometrical data (storage, Orientation, lane curvature). Other lane detection systems include, for. B. a magnetic sensor, the vehicle position in conjunction with magnets integrated in the roadway, or optional also radar sensors. From the geometrical filing data and a Information about the lane curvature then becomes by means of a mathematical reference model (algorithm) a reference steering angle calculated, which would have to be taken at the steering, to keep the vehicle optimally in its lane. At a Deviation of the driver steering angle from the reference steering angle is then with Help of a steering actuator a support torque on the Steering applied. The support moment becomes thereby calculated on the basis of a given characteristic curve.
Es sind Abstandssensoren bekannt, die dem Fahrer ein vor oder hinter dem Fahrzeug befindliches Objekt melden. Solche Sensoren könnten auch seitlich am Fahrzeug verwendet werden. Allerdings würden solche Sensoren ständig ansprechen, wenn sich Objekte, insbesondere Bordsteine, seitlich am Fahrzeug befinden, obwohl bei Geradeausfahrt keinerlei Gefahr besteht, diese zu überrollen. Würde bei solchen Hindernissen eine Anzeige oder Warnung an den Fahrer ausgegeben, würde er die Aufmerksamkeit verlieren und den Verkehr zusätzlich gefährden.It Distance sensors are known to give the driver a front or back Report the object to the vehicle. Such sensors could also be used on the side of the vehicle. However such sensors constantly respond when objects, especially curbs, located on the side of the vehicle, although at Driving straight ahead there is no danger of rolling over them. Would with such obstacles an ad or warning issued to the driver, he would lose the attention and additionally endanger traffic.
Aus
der
Aus
der
Aus
der Druckschrift
Um Unfällen vorzubeugen, die entstehen, wenn man während der Fahrt von der eigentlichen Fahrspur abweicht, sind heutzutage Systeme im Einsatz, die die von der Fahrspur abweichenden Fahrer warnen (ASIL – Spurassistent bei Citroen). Diese Systeme erkennen die Linien auf der Straßenoberfläche, seien es unterbrochene oder gezogene Linien und deren Farben und Breiten.Around Prevent accidents that occur when you are during The drive away from the actual lane are nowadays Systems in use, which deviate from the lane driver warn (ASIL - lane assistant at Citroen). These systems recognize the lines on the road surface, be it broken or drawn lines and their colors and Wide.
Dabei ist es erforderlich, dass die Straßen mit Linien versehen sind, wie es auch der Gesetzgeber vorschreibt, da sonst solche Spurassistenten nicht eingesetzt werden können. Überquert das Fahrzeug eine solche Linie z. B. ohne die Betätigung eines Blinkersignal, wird ein Warnsignal durch ein Vibrieren des Sitzes ausgegeben.there It is necessary that the roads are lined are, as required by the law, otherwise such lane assistants can not be used. Cross that Vehicle such a line z. B. without the operation of a Turn signal, which is a warning signal by a vibration of the seat output.
Da die Voraussetzung, dass die Straßen mit gut sichtbaren Linien markiert sind, nicht immer gegeben ist, zum Beispiel bei schmalen Landstraßen, neuen Straßen noch ohne Markierung, abgenutzten Markierungen und dergleichen, liegt der Erfindung die Aufgabe zugrunde, ein Verfahren für einen verbesserten Spurassistenten anzugeben.There the requirement that the roads with well visible Lines are marked, not always given, for example at narrow country roads, new roads still without Mark, worn marks and the like, is the Invention, the object of a method for a to specify improved Lane Assistant.
Bekannt sind Verfahren zur Erkennung von Fahrbahnränder mittels Sensoren, wie Infrarotsensoren, optischer Einrichtungen, wie einer Kamera oder bildgebender Abstandsmessung mit zum Beispiel Radar- oder Laserscannern, durchgeführt wird und eine Erkennung eines Fahrspurwechsels anhand der Auswertung der Sensorsignale nach Merkmalen, die die oberflächliche Beschaffenheit der Straße und des Straßenrandes repräsentieren, erfolgt.Known are methods for detecting road edges by means of Sensors, such as infrared sensors, optical devices, such as a Camera or imaging distance measurement with, for example, radar or laser scanners, is performed and a detection a lane change based on the evaluation of the sensor signals after Characteristics that the superficial nature of the road and the roadside, takes place.
Aufgabe der Erfindung ist es ein Verfahren anzugeben, dass die bisherigen Verfahren zur Erkennung eines Fahrspurwechsels verbessern.task The invention is to provide a method that the previous Improve lane change detection process.
Die Aufgabe wird gelöst durch die Merkmale des unabhängigen Anspruchs 1. Vorteilhafte Ausgestaltungen werden in den abhängigen Ansprüchen angegeben.The Task is solved by the characteristics of the independent Claim 1. Advantageous embodiments are in the dependent Claims specified.
2. Beschreibung und Vorteile der Erfindung2. Description and advantages the invention
Vorteilhaft wird mit der Erfindung ein Verfahren geschaffen, wodurch eine Erkennung der Fahrbahnoberfläche, die Fahrbahnmarkierung und des Straßenrandes erfolgt. Hierbei wird ebenfalls erkannt, wenn ein Fahrer von der Fahrspur abweicht, wobei die Fahrbahnoberfläche permanent die Fahrbahnoberfläche durch die Sensoren abgetastet wird.Advantageous the invention provides a method whereby a recognition the road surface, the road marking and the Roadside done. This is also recognized when a driver deviates from the lane, with the road surface permanently scanned the road surface through the sensors becomes.
Vorteilhaft wird mit dem Verfahren auch die Fahrbahnoberfläche erkannt und somit auch der Straßenzustand. Dies wird dann vorteilhaft von den im Fahrzeug befindlichen Fahrzeugsicherheitssystem wie z. B. von einem ESP-System genutzt, um den Fahrer frühzeitig vor potentiellen Gefahren zu warnen.Advantageous The process also recognizes the road surface and therefore also the road condition. This will be advantageous from the in-vehicle safety system such. B. used by an ESP system to the driver early to warn of potential dangers.
Es wird auch durch das erfindungsgemäße Verfahren eine Geschwindigkeitsschwelle vorteilhaft bestimmt, mittels dieser der eine automatische Deaktivierung von im Fahrzeug befindlichen Fahrerassistenzsystemen ermöglicht wird.It is also by the inventive method a speed threshold advantageously determined by means of this the automatic deactivation of in-vehicle Driver assistance systems is enabled.
3. Zeichnungen3. Drawings
Weitere Vorteile und Zweckmäßige Ausführungen sind den weiteren Ansprüchen, der Figurenbeschreibung und den Zeichnungen zu entnehmen.Further Advantages and expedient designs are the other claims, the description of the figures and to take the drawings.
Das erfindungsgemäße Verfahren wird anhand der Zeichnungen erläutert und im Folgenden näher beschrieben.The inventive method is based on the drawings explained and described in more detail below.
Es zeigenIt demonstrate
4. Beschreibung von Ausführungsbeispielen4. Description of exemplary embodiments
Die Erfindung stellt ein Verfahren dar, mittels dessen eine Erkennung der Fahrbahnoberfläche, der Fahrbahnmarkierung und des Straßenrandes ermöglicht werden kann.The Invention is a method by which a recognition the road surface, the road marking and the Roadside can be made possible.
Gemäß einer
Ausführungsform des erfindungsgemäßen
Verfahrens werden die Straßenerkennungssensorelemente
Generell erkennen Infrarotsensoren licht-reflektierende Objekte in ihrer unmittelbaren Umgebung. Sie besitzen in einfachster Ausführungsform mindestens eine Sendediode, die Licht im infraroten Spektrum aussendet, und mindestens eine Empfängerdiode, welche die Intensität des reflektierten Lichts misst.As a general rule Infrared sensors detect light-reflecting objects in theirs immediate surroundings. You own in the simplest embodiment at least one emitting diode that emits light in the infrared spectrum, and at least one receiver diode which determines the intensity of the reflected light.
Die
beiden Elemente
Die abzutastenden Regionen werden zum einen durch den jeweiligen Öffnungswinkel der jeweiligen Sendediode des Infrarotsensorelementes und zum anderen durch die geometrische Positionierung der Infrarotsensorelemente zueinander am jeweiligen Stoßfänger bestimmt. Fallen auf die beiden Infrarotsensorelemente, die an der vorderen rechten Ecke angebracht sind, Strahlung gleicher Intensität, ist das resultierende Ausgangssignal der Elementgruppe gleich Null. Unterschiedliche Strahlungsintensitäten auf beiden empfindlichen Infrarotsensorelementen führen dagegen zu einem Ausgangssignal der jeweiligen Elementgruppe, das der Differenz der Ausgangssignale der einzelnen Sensorelemente entspricht.The be scanned regions on the one hand by the respective opening angle the respective transmitting diode of the infrared sensor element and the other by the geometric positioning of the infrared sensor elements determined to each other on each bumper. Falling on the two infrared sensor elements, which at the front right corner are attached, radiation of equal intensity, the resulting output of the element group is zero. Different radiation intensities on both sensitive In contrast, infrared sensor elements lead to an output signal the respective element group, the difference of the output signals corresponds to the individual sensor elements.
Verlässt
das Fahrzeug die Fahrspur bei einer nicht markierten Fahrbahnen
bzw. beginnt das Fahrzeug auf den Straßenrand zuzusteuern,
besitzen die Ausgangssignale der Infrarotsensoren, die zur Fahrzeugquerseite
ausgerichtet unterschiedliche Eigenschaften, wie zum in
Vorne
rechts
Nach einem weiteren Ausführungsbeispiel ist vorgesehen, dass das Fahrzeug mit einem Radarscanner ausgerüstet, der die Randbebauung oder Randbepflanzung bildgebend abscannt und entsprechend der Abstandsmessung den Fahrer beim Verlassen der Fahrspur warnt. Dabei können die Informationen der bildgebenden Abstandsmessung über den Radarscanner zum Beispiel mit Fahrsituationsdaten des Fahrzeugs, die in Fahrzeugsicherheits- und/oder Fahrerassistenzsystemen vorhanden sind, kombiniert und plausibilisiert werden.To Another embodiment provides that the vehicle is equipped with a radar scanner, which the Peripheral development or marginal planting image-scanned and accordingly the distance measurement warns the driver when leaving the lane. In this case, the information of the imaging distance measurement via the radar scanner, for example, with driving situation data of the vehicle, the present in vehicle safety and / or driver assistance systems be combined, and made plausible.
Fahrzeugsicherheitssysteme können als Electronic Break System (EBS), Engine Management System (EMS), Antiblockiersystem (ABS), Antriebs-Schlupf-Regelung (ASR), Elektronisches Stabilitätsprogramm (ESP), Elektronische Differentialsperre (EDS), Traction Control System (TCS), Elektronische Bremskraftverteilung (EBV) und/oder Motor-Schleppmomenten-Regelung (MSR) ausgeführt werden.Vehicle Safety Systems can be called Electronic Break System (EBS), Engine Management System (EMS), Antilock Braking System (ABS), Traction Control (ASR), Electronic Stability Program (ESP), Electronic Differential lock (EDS), Traction Control System (TCS), Electronic Brake force distribution (EBV) and / or engine drag torque control (MSR) are executed.
Fahrerassistenzsysteme sind als elektronische Zusatzeinrichtungen in Fahrzeugen zur Unterstützung des Fahrers in bestimmten Fahrsituationen implementiert. Hierbei stehen oft Sicherheitsaspekte, aber vornämlich die Steigerung des Fahrkomforts im Vordergrund. Diese Systeme greifen teilautonom oder autonom in Antrieb, Steuerung (z. B. Gas, Bremse) oder Signalisierungseinrichtungen des Fahrzeuges ein oder warnen durch geeignete Mensch-Maschine-Schnittstellen den Fahrer kurz vor oder während kritischer Situationen. Solche Fahrassistenzsysteme sind beispielsweise Einparkhilfe (Sensorarrays zur Hinderniss- und Abstandserkennung), Bremsassistent (BAS), Tempomat, Adaptive Cruise Control oder Abstandsregeltempomat (ACC), Abstandswarner, Abbiegeassistent, Stauassistent, Spurerkennungssystem, Spurhalteassistent/Spurassistent (Querführungsunterstützung, lane departure warning (LDW)), Spurhalteunterstützung (lane keeping support)), Spurwechselassistent (lane change assistance), Spurwechselunterstützung (lane change support), Intelligent Speed Adaption (ISA), Adaptives Kurvenlicht, Reifendruckkontrollsystem, Fahrerzustandserkennung, Verkehrszeichenerkennung, Platooning, Automatische Notbremsung (ANB), Auf- und Abblendassistent für das Fahrlicht, Nachtsichtsystem (Night Vision).Driver assistance systems are used as auxiliary electronic devices in vehicles in support of the Driver implemented in certain driving situations. Stand here often safety aspects, but especially the increase the ride comfort in the foreground. These systems are partially autonomous or autonomous in drive, control (eg gas, brake) or signaling devices of the vehicle or warn by means of suitable man-machine interfaces the driver just before or during critical situations. Such Driver assistance systems are, for example, parking aid (sensor arrays obstacle and distance detection), Brake Assist (BAS), cruise control, Adaptive Cruise Control or Adaptive Cruise Control (ACC), distance warning, Turn Assistant, Traffic Jam Assistant, Lane Detection System, Lane Keeping Assist / Lane Assistant (Transverse Guidance Assist, lane departure warning (LDW)), lane keeping assistance (lane keeping support)), lane change assistant, Lane change support, Intelligent Speed Adaptation (ISA), adaptive headlights, tire pressure monitoring system, Driver status detection, traffic sign recognition, platooning, automatic Emergency braking (ANB), up and dimming assistant for the driving light, Night vision system.
Als eine weitere bevorzugte Ausführungsform werden die in einem ESP-Regelgerät vorhandenen Signale für die Giergeschwindigkeitsdifferenz oder die Lenkwinkelsignale mit den bildgebenden Abstandssignalen des Radarscanners zusammen ausgewertet und bei über oder unterschreiten von bestimmtem vorgegeben Sollwerten durch die zusätzliche Auswertung der aus der Bilderkennung gewonnen Abstandssignalen und den hieraus ermittelte n Point of Interest (POI) eine Überprüfung und Plausibilisierung zwischen der Sollfahrspur und der Istfahrspur des Fahrzeugs durchgeführt werden.When Another preferred embodiment is that in a ESP controller existing signals for the yaw rate difference or the steering angle signals with the imaging distance signals of the radar scanner evaluated together and over or fall below certain given setpoints by the additional Evaluation of the distance signals obtained from the image recognition and the From this point of interest (POI) determined a review and plausibility between the desired lane and the actual lane of the vehicle.
Die bildgebenden Sensoren liefern Bilder in digitaler Form und mit bestimmter Frequenz. Nach Lieferung der Bilder in digitaler Form dient die Bildverarbeitung zu einer weitergehenden maschinellen Bearbeitung (Bildverstehen).The Imaging sensors provide images in digital form and with specific Frequency. After delivery of the pictures in digital form, the Image processing for further machine processing (image comprehension).
Ein
digitales Bild besteht aus vielen einzelnen Bildpunkten (Pixel)
und wird in ein zweidimensionales Feld mit x- und y-Koordinaten
dargestellt
Ein digitales Bild liegt in Form von Zahlenwerten (ein oder mehrere Farbwerte pro Pixel) vor. Jedes Pixel repräsentiert einen bestimmten Helligkeitswert als Funktion g(x, y). Dabei stellt der Grauwert eines Pixels sein reiner Helligkeitswert dar. Bei einem üblichen 8-Bit-Graustufenbild können Werte zwischen 0 (Schwarz) und 255 (weiß) angenommen werden.One digital image is in the form of numerical values (one or more Color values per pixel). Each pixel represents one determined brightness value as function g (x, y). It represents the Gray value of a pixel is its pure brightness value. In a conventional 8-bit grayscale image can have values between 0 (black) and 255 (white).
Es
sollen z. B. Infrarotsensoren unter mindestens einem vorderen und
mindestens einem hinteren Stoßfänger angebracht
werden, wobei an jedem einzelnen Stoßfänger mindestens
zwei Infrarotsensoren mit mindestens zwei unterschiedlichen Abstrahlöffnungswinkel
zur Abtastung eines relevanten Bereichs der Fahrbahnoberfläche
(
Es wird als erstes die Signale z. B. der Infrarotsensoren zur Abtastung des Straßenrandes (äußere Sensorelemente) verarbeitet und danach die von den einzelnen Infrarotsensoren (innere und äußere Sensorelemente) ermittelten Signale werden miteinander in Bezug gesetzt.It is the first signals z. B. the infrared sensors for scanning the roadside (outer sensor elements) processed and then by the individual infrared sensors (inner and outer sensor elements) detected signals are related to each other.
Die
inneren Sensorelemente tasten die Fahrbahnoberfläche ab
und liefern meistens homogene Bilder (meist eine einheitliche Fläche).
Die von den äußeren Sensorelementen gelieferten
digitalen Bilder können aus mehreren Flächen bestehen
wie in
Da die Bilder aus den äußeren Sensorelementen meistens aus mehreren Flächen bestehen, soll ein Verfahren zur Kantendetektion zum Einsatz kommen (Teil einer Segmentierung), wobei es versucht wird, flächige Bereiche in dem digitalen Bild von einander zu trennen.There the pictures from the outer sensor elements mostly consist of several surfaces, a method for edge detection to be used (part of a segmentation) while trying becomes, areal areas in the digital image of each other to separate.
Mit einem Kantenoperator werden die Übergänge zwischen den flächigen Bereichen erkannt und als Kanten markiert Der Kantenoperator berechnet aus dem digitalen Bild sein entsprechendes Kantenbild, in dem alle auf dem Bild befindlichen Kanten zu erkennen sind, Hierfür wird jedes Pixel (Bildpunkt aus dem Eingangsbild) mit Hilfe einer Faltungsmatrix berechnet und neu gesetzt (der Bildpunkt im Ausgangsbild).With An edge operator becomes the transitions between recognized the areal areas and marked as edges The edge operator calculates its corresponding one from the digital image Edge image in which to detect all the edges on the image are, for each pixel (pixel from the input image) calculated and reset using a convolution matrix (the pixel in the output picture).
Es kann als Kantendetektionsfilter (Kantenoperator) der Bildverarbeitung z. B. der Sobel-Operator eingesetzt werden. Hier wird der Grauwertgradient jedes Bildpunktes in horizontaler und vertikaler Richtung bestimmt. Für die Erzeugung eines Gradienten-Bildes nutzt der Sobel-Operator zur Faltung eine 3×3-Matrix (Faltungsmatrix).It can as image detection filter (edge operator) of image processing z. B. the Sobel operator can be used. Here is the gray scale gradient each pixel in the horizontal and vertical directions. For the generation of a gradient image, the Sobel operator uses for convolution, a 3 × 3 matrix (convolution matrix).
Der Grauwertgradient ist dort groß, wo die Helligkeit sich am stärksten ändert (Übergang von hell nach dunkel oder umgekehrt), was für die Kantenübergänge typisch ist. Es wird nach der Faltung eine Schwellwert-Funktion angewandt.Of the Gray gradient is great where the brightness is strongest changes (transition from bright to dark or vice versa), what the edge transitions typical. It becomes a threshold function after convolution applied.
Für
die Bestimmung der Kanten im Bild werden die zwei Faltungsmatrizen
Sx und Sy benutzt, um den Grauwertgradient in horizontaler und vertikaler
Richtung zu berechnen, wie in
Die Maske wird auf jedes Pixel des Eingangsbildes angewendet. Als Beispiel wird das Pixel E22 (Bildpunkt mit den Koordinaten (2, 2) aus dem Eingangsbild) betrachtet, das im Bild 8 im Zentrum der Maske liegt. Das zugehörige Pixel im Ausgangsbild A22 (Bildpunkt mit den Koordinaten (2, 2) aus dem Ausgangsbild) lässt sich in horizontaler und vertikaler Richtung wie folgt berechnen:The Mask is applied to each pixel of the input image. As an an example becomes the pixel E22 (pixel with the coordinates (2, 2) from the Input image), which is shown in Figure 8 in the center of the mask. The associated pixels in the output image A22 (pixel with the Coordinates (2, 2) from the source image) can be in calculate the horizontal and vertical directions as follows:
A22-Bildpunkt im Ausgangsbild in horizontaler Richtung:A22 pixel in the output image in horizontal Direction:
Der
horizontale Sobel-Operator Tautet:
Wobei Gx(x, y) der Grauwertgradient in horizontaler Richtung ist. Das Eingangsbild wird auf dieser Weise mit horizontalem Sobel-Operator gefaltet. Da auch negative Werte entstehen, wird der Nullpunkt als mittleres Grau dargestelltIn which Gx (x, y) is the gray scale gradient in the horizontal direction. The Input image becomes in this way with horizontal Sobel operator folded. Since negative values also arise, the zero point is used as a mean Shown in gray
A22-Bildpunkt im Ausgangsbild in vertikaler Richtung:A22 pixel in the output image in vertical Direction:
Der
vertikale Sobel-Operator lautet
Wobei Gy(x, y) der Grauwertgradient in vertikaler Richtung ist. Das Eingangsbild wird auf dieser Weise mit vertikalem Sobel-Operator gefaltet. Da auch negative Werte entstehen, wird der Nullpunkt als mittleres Grau dargestelltIn which Gy (x, y) is the gray scale gradient in the vertical direction. The input image is folded in this way with a vertical Sobel operator. There even if negative values emerge, the zero point is considered medium gray shown
Die Starke der Kante ist der Betrag von der horizontalen und vertikalen Grauwertgradienten:The Strong of the edge is the amount of horizontal and vertical gray value gradients:
Wobei G(x, y) der Grauwertgradient in horizontaler und vertikaler Richtung ist.In which G (x, y) the gray scale gradient in the horizontal and vertical directions is.
Die Richtung eines Gradienten erhält man wie folgt: The direction of a gradient is obtained as follows:
Der Wert Θ = 0 beschreibt eine vertikale Kante und positive Werte beschreiben eine Drehung gegen den Uhrzeigersinn.Of the Value Θ = 0 describes a vertical edge and positive Values describe a counterclockwise rotation.
Nach
der Faltung wird der Betrag der einzelnen Bildpunkte des Ausgangsbildes
(Ausgangsbild mit horizontalern und vertikalem Sobel gefaltet und
kombiniert) mit einem Schwellwert verglichen. Bei Warten größer als
der Schwellwert wird eine Kante angenommen und die Bildpunkte können
z. B. als weiße Bildpunkte in einem Kantenbild kodiert
werden. Bei Werten kleiner als der Schwellwert werden die Bildpunkte
z. B. als schwarze Bildpunkte kodiert. Dadurch entsteht ein Binärbild
in dem sich Kanten durch weiße Pixel vom schwarzen Hintergrund
abheben wie in
Mittels
der Kantendetektion sind die flächigen Bereiche aus den
binären Bildern erkennbar. Ein Kantenübergang
besteht in der Regel aus mehreren Pixeln, daher kann eine Kante
im kodierten Bild mehrere Bildpunkte umfassen. An einem Beispiel
einer Geradeausfahrt mit einem Fahrzeug auf einer Fahrbahn mit Linienmarkierung
sind mit Hilfe des Kantendetektionsverfahrens vier rechteckige Bereiche
erkennbar wie in
Zu
den einzelnen Bereichen gehören die Bildpunkte p(x, y)
mit den Koordinaten x und y wie folgt:
Es wird hier senkrechte
Kanten angenommen, was auch hoch wahrscheinlich ist
Bereich
1: p1(x, y) mit 0 ≤ x ≤ i1 – 1 und 0 ≤ y ≤ m,
Breite = i1 – 1, Höhe
= m
Bereich 2: p2(x, y) mit i2 + 1 ≤ x ≤ i3 – 1
und 0 ≤ y ≤ m, Breite = i3 – i2 – 2, Höhe = m
Bereich
3: p3(x, y) mit i4 +
1 ≤ x ≤ i5 – 1
und 0 ≤ y ≤ m, Breite = i5 – i4 – 2, Höhe = m
Bereich
3: p4(x, y) mit i6 +
1 ≤ x ≤ n und 0 ≤ y ≤ m, Breite
= n – i6 – 1, Höhe
= mThe individual areas include the pixels p (x, y) with the coordinates x and y as follows:
It is assumed here vertical edges, which is also highly likely
Range 1: p 1 (x, y) with 0 ≤ x ≤ i 1 - 1 and 0 ≤ y ≤ m, width = i 1 - 1, height = m
Range 2: p 2 (x, y) with i 2 + 1 ≤ x ≤ i 3 - 1 and 0 ≤ y ≤ m, width = i 3 - i 2 - 2, height = m
Range 3: p 3 (x, y) with i 4 + 1 ≤ x ≤ i 5 - 1 and 0 ≤ y ≤ m, width = i 5 - i 4 - 2, height = m
Range 3: p 4 (x, y) with i 6 + 1 ≤ x ≤ n and 0 ≤ y ≤ m, width = n - i 6 - 1, height = m
Die
Bildpunkte der Kanten sind wie folgt:
pKante1(x,
y) mit i1 ≤ x ≤ i2 und 0 ≤ y ≤ m, Breite
= i2 – i1,
Höhe = m
pKante2(x, y) mit
i3 ≤ x ≤ i4 und
0 ≤ y ≤ m, Breite = i4 –i3, Höhe = m
pKante3(x,
y) mit i5 ≤ x ≤ i8 und 0 ≤ y ≤ m, Breite
= i6 – i5,
Höhe = mThe pixels of the edges are as follows:
p edge1 (x, y) with i 1 ≤ x ≤ i 2 and 0 ≤ y ≤ m, width = i 2 - i 1 , height = m
p edge2 (x, y) with i 3 ≤ x ≤ i 4 and 0 ≤ y ≤ m, width = i 4 -i 3 , height = m
p edge3 (x, y) with i 5 ≤ x ≤ i 8 and 0 ≤ y ≤ m, width = i 6 - i 5 , height = m
Mit Hilfe einer Klassifizierung kann aufgrund des breiten Informationsspektrums des digitalen Bildes durch Einteilung von Grau- bzw. Farbwerten in Klassen vereinfacht werden. Damit werden die Flächen mit gleichen bzw. ähnlichen Eigenschaften ermittelt und in verschiedenen Klassen zugeordnet.With Help of a classification can be due to the wide information spectrum of the digital image by division of gray or color values be simplified in classes. This will be the surfaces determined with the same or similar properties and assigned in different classes.
Also nach der Segmentierung folgt ein Klassifikationsverfahren, dass die flächigen Bereiche in den binären Kantenbildern aus den digitalen Bildern der äußeren Sensorelemente zu den Hauptklassen „Fahrbahnoberfläche", „Fahrbahnmarkierung" und „Fahrbahnrand" zuordnet. Das Verfahren nutzt dazu die digitalen Bilder der inneren Sensorelemente, in der z. B. die Histogramme der Bilder der inneren Sensorelemente mit den Histogrammen der einzelnen Bereiche der Bilder der äußeren Sensorelemente miteinander verglichen werden.So after the segmentation follows a classification method that the area areas in the binary edge images from the digital images of the outer sensor elements to the main classes "lane For this, the method uses the digital images of the inner sensor elements, in which, for example, the histograms of the images of the inner sensor elements are compared with the histograms of the individual regions of the images of the outer sensor elements ,
Nachdem die Bereiche nun erkannt sind, sollen die Histogramme der Eingangsbilder und nicht der Ausgangsbilder (Kantenbilder) aller Bereiche erstellt werden. An diesem Beispiel werden Histogramme, von den vier Bereichen des digitalen Bildes eines rechten äußeren Sensorelementes. Diese Histogramme werden mit dem Histogramm von dem digitalen Bildes des rechten inneren Sensorelementes.After this the areas are now recognized, should the histograms of the input images and not the source images (edge images) of all areas created become. Here are histograms of the four areas the digital image of a right outer sensor element. These histograms are combined with the histogram of the digital image of the right inner sensor element.
Ist das Histogramm eines Bildbereiches dem Histogramm des Bildes des rechten inneren Sensorelementes vergleichbar, dann wird dieser Bereich der Klasse „Fahrbahnoberfläche" zugeordnet. Der Bereich 2 hat z. B. die Breite einer realen Linienmarkierungsbreite und häuft im Bereich2-Histogramm die weiße Farbe, dann wird dieser Bereich als Fahrbahnlinie angenommen und der Klasse Fahrbahnmarkierung" zugeordnet. Ist der Bereich4-Histogramm mit dem Histogramm des Bildes des rechten inneren Sensorelementes nicht vergleichbar, dann wird der Bereich als Fahrbahnrand angenommen und der Klasse „Fahrbahnrand" zugeordnet.is the histogram of an image area matches the histogram of the image of the image right inner sensor element comparable, then this area assigned to the class "road surface" Area 2 has z. B. the width of a real line marking width and accumulates the white color in the area2 histogram, then this area is assumed to be the lane line and the class Lane marking. "Is the area 4-histogram with the histogram of the image of the right inner sensor element not comparable, then the area is assumed as the roadside and the class "lane edge" assigned.
Ein Histogramm H(g) ist die statistische Häufigkeit der Grauwerte bzw. der Farbwerte in einem digitalen Bild und visualisiert die Verteilung der Helligkeitswerte eines Bildes. Zur Berechnung des Histogrammes eines Bildes werden die einzelnen Bildpunkte einer bestimmten Graustufe in ihrer Häufigkeit H abgezählt und über der Grauwertskala g aufgetragen.One Histogram H (g) is the statistical frequency of gray values or the color values in a digital image and visualizes the Distribution of the brightness values of an image. To calculate the Histogram of an image, the individual pixels of a certain gray levels are counted in their frequency H and plotted over the gray scale g.
Für den Vergleich der Histogramme miteinander soll z. B. die Häufigkeit der einzelnen Grauwerte oder die Grauwerthäufigkeit bestimmter hochwahrscheinlich vorkommenden Grauwerte herangezogen werden. Es kann hier verschiedene Verfahren eingesetzt werden z. B. die Bestimmung des Mittelwerts der Grauwerthäufigkeit mit Berücksichtigung der Standardabweichung oder die Summe der Grauwerthäufigkeit und das bezogen entweder auf die ganze oder nur auf bestimmte Bereiche der Grauwertskala.For the comparison of the histograms with each other z. For example, the frequency the individual gray values or the gray scale frequency of certain highly likely gray values are used. It can Various methods are used here z. Eg the determination the mean value of the gray scale frequency with consideration the standard deviation or the sum of the gray scale frequency and that either in the whole or only in certain areas the gray scale.
Für einen besseren Vergleich der Histogramme sollen die segmentierten Bildbereiche auf eine Einheitsgröße skaliert werden oder sollen die Histogramme relativ und nicht absolut berechnet werden, d. h. die relative Grauwerthäufigkeit eines Grauwertes ist die absolute Grauwerthäufigkeit des Jeweiligen Grauwertes bezogen auf die Grauwerthäufigkeit der gesamten Grauwerte (bei 8 Bit-Grauwertbildern sind 255 Grauwerte) und damit wird die Summe der einzelnen relativen Grauwerthäufigkeit 100%.For a better comparison of the histograms should be the segmented Image areas are scaled to a single size or should the histograms be calculated relative and not absolute be, d. H. the relative gray scale frequency of a gray value the absolute gray scale frequency of the respective gray value is related on the gray scale frequency of the total gray values (at 8-bit gray value images are 255 gray values) and thus the sum the individual relative gray scale frequency 100%.
Für die Klassifikation sollen neben den momentanen Histogrammen der digitalen Bilder der inneren Sensorelemente noch die während der Fahrt gelernten Histogramme und Histogramme aus einer Datenbasis verwendet werden.For the classification should be next to the current histograms of the digital images of the inner sensor elements still during the the ride learned histograms and histograms from a database used become.
Die gelernten Histogramme werden bei der Anfahrt und während der Fahrt gelernt, z. B. bei einer Anfahrt wird der Bereich 1 als Fahrbahnoberfläche angenommen. Zur Erstellung der Datenbasis sollen möglichst viele digitale Bilder aufgezeichnet werden, die die unterschiedlichen Fahrbahnoberflächen, Fahrbahnränder, Fahrbahnmarkierungen mit Berücksichtigung vieler Einflüsse wie Belichtung, Witterungsbedingungen etc darstellen. Damit wird auch die Straßenzustände erkannt, ob die Fahrbahn glatt, mit Schnee bedeckt, etc.The learned histograms will be at the start and during learned the ride, z. B. when approaching the area 1 as Road surface assumed. To create the database as many digital images as possible should be recorded the different road surfaces, road edges, road markings considering many influences such as exposure, Weather conditions etc represent. This is also the road conditions Detects if the road surface is smooth, covered with snow, etc.
Es sollen auch Navigationssystem-Daten wie z. B. Fahrzeugposition, Autobahnausfahrt, Straßenerweiterung etc. berücksichtigt werden.It should also navigation system data such. B. vehicle position, Highway exit, road extension, etc. taken into account become.
Erfindungsgemäß werden unterschiedliche Vergleiche der Histogramme durchgeführt.According to the invention performed different comparisons of the histograms.
Als eine erste erfindungsgemäßer Vergleiche der Histogramme wird das ?H(gi)-Verfahren durchgeführt.As a first comparison of the histograms according to the invention, the H (g i ) method is carried out.
ΔH(gi)-Verfahren: das ist ein Verfahren zum Vergleich der Histogramme, z. B. die Histogramme der Bilder der inneren Sensorelemente und der Bereiche der Bilder der äußeren Sensorelemente einer rechten Seite, das die relative Abweichung der Grauwerthäufigkeit einzelner Grauwerte ΔH(gi) berücksichtigt.ΔH (g i ) method: that is a method of comparing the histograms, e.g. Example, the histograms of the images of the inner sensor elements and the areas of the images of the outer sensor elements of a right side, which takes into account the relative deviation of the gray value frequency of individual gray values ΔH (g i ).
Nach der Erstellung der Histogramme steht dann für Jeden Grauwert gi die Grauwerthäufigkeit H(gi).After the histograms have been created, the gray value frequency H i (g i ) is then available for each gray value g i .
Es
wird die relative Abweichung der Grauwerthäufigkeit jedes
Grauwertes ΔH(gi) berechnet, in
dem erst die Grauwerthäufigketen H(gi)
des Jeweiligen Grauwertes miteinander verglichen werden. Die Abweichung
wird wie folgt berechnet:
z. B. H(gi)
eines Grauwertes aus dem Histogramm des Bildes des inneren Sensorelementes
ist größer als H(gi) aus
dem Histogramm des Bereiches 1 des Bildes des äußeren
Sensorelementes und damit wird H(gi), dann wird
die Grauwerthäufigkeit dieses Grauwertes mit H(gi)max bezeichnet Wobei
0 ≤ ΔH(gi) ≤ 100%The relative deviation of the gray value frequency of each gray value ΔH (g i ) is calculated by first comparing the gray value frequencies H (g i ) of the respective gray value. The deviation is calculated as follows:
z. B. H (g i ) of a gray value from the histogram of the image of the inner sensor element is greater than H (g i ) from the histogram of the region 1 of the image of the outer sensor element and thus H (g i ), then the gray scale frequency this Gray value denoted H (g i ) max Where 0 ≦ ΔH (g i ) ≦ 100%
Bei
Grauwerten, die in beiden Histogrammen nicht vorkommen, dann
Aus dieser Formel kann die Abweichung der Grauwerthäufigkeit der einzelnen Grauwerte aus zwei Histogrammen über die Grauwerte in einem Diagramm dargestellt werden. Aus diesen Diagrammen wird festgestellt, wie und in welchen Grauwertbereichen sich die Histogramme ähneln und es wird festgestellt, ob sich der Verlauf der Histogramme ähnelt. Es ist erfindungsgemäß angedacht, da das erzeugt Diagramm für eine Klassifizierung weiter ausgewertet wird. Hierzu kann das Diagramm auch in verschieden Grauwertbereiche unterteilt werden.Out This formula can be the deviation of the gray scale frequency the individual gray values from two histograms over the Gray values are displayed in a diagram. From these diagrams it is determined how and in which gray value ranges the Histograms are similar and it is determined if the History of the histograms is similar. It is inventively contemplated as the generated graph continues for a classification is evaluated. For this, the diagram can also be in different gray scale ranges be divided.
Es ist auch abgedacht, einen Vergleich einzelner Grauwertbereiche zweier Histogramme durchzuführen. Dafür wird die relative Abweichung der Grauwerthäufigkeit einzelner Grauwerte ?H(gi) herangezogen.It is also forbidden to perform a comparison of individual gray value ranges of two histograms. For this, the relative deviation of the gray value frequency of individual gray values H (g i ) is used.
Bei
einem 8-Bit Graustufenbild können die 255 Grauwerte z.
B. gleichmäßig in 5 Grauwertbereichen (Bereich
1 bis 5) unterteilt werden und damit enthält jeder Bereich
51 Grauwerte. In jedem Bereich (z. B. Bereich 1, Grauwerte von 0
bis 51) werden alle dazu gehörigen Grauwerten in ihrer
relativen Abweichung zwischen den zwei Histogrammen zum einem Vergleich
in Bezug genommen, in dem eine Aussage über die Bildähnlichkeit
in dem jeweiligen Bereich getroffen wird. Hier können unterschiedliche Ähnlichkeitsschwellen (z.
B. 5%, 10%, ... 90%, 100%) gesetzt werden und in jeder Schwelle
wird die Häufigkeit der Grauwerte ausgedrückt,
z. B. Bereich 1, Grauwerte von 0 bis 51, 90% dieser Grauwerte liegen
bei einer relativen Abweichung der Grauwerthäufigkeit unter
5% (95% Ähnlichkeit) etc. Auf dieser Weise kann die Ähnlichkeit
einzelner Grauwertbereiche festgestellt werden. Um unterscheiden
zu können, ob ein Grauwertbereich zweier Bilder bzw. Bilderbereiche ähnlich
ist, müssen Ähnlichkeitsbedingungen gesetzt werden,
z. B. 90% der Grauwerte eines Grauwertbereiches liegen unter 5%
relative Abweichung:
Mittelwert-Verfahren:Average method:
Man kann ein zweites Verfahren zum Vergleich der Histogramme und damit die Klassifizierung der digitalen Bilder.you may be a second method for comparing the histograms and thus the classification of digital images.
Hier wird der Mittelwert der Grauwerthäufigkeit mit der Standardabweichung eines Histogramms berechnet. Es kann entweder ein Mittelwert für alle Grauwerte oder ein Mittelwert für jeden definierbaren Grauwertbereich berechnet werden. Der Mittelwert und die Standardabweichung der Grauwerthäufigkeit werden wie folgt berechnetHere becomes the mean of the gray scale frequency with the standard deviation of a histogram. It can either be an average for all gray values or a mean value for each definable Gray value range are calculated. The mean and standard deviation the gray scale frequency is calculated as follows
Mittelwert der Grauwerthäufigkeit bei 8 Bit-Grauwertbildern sind 255 Grauwerte und damit ist N = 255, und damit: Mean value of gray scale frequency with 8-bit greyscale images, there are 255 gray values and thus N = 255, and thus:
Die Standardabweichung bei 8 Bit-Grauwertbildern sind 255 Grauwerte und damit ist N = 255, und damit: The standard deviation with 8-bit greyscale images, there are 255 gray values and thus N = 255, and thus:
Nach der Berechnung der Mittelwert mit der Standardabweichung zweier Histogramme, können diese miteinander verglichen werden.To calculating the mean with the standard deviation of two Histograms, these can be compared with each other.
Vor der Klassifizierung der Bereiche der Bilder der äußeren Sensorelemente werden zunächst mit Hilfe eines Kantenoperators die Übergänge zwischen den flächigen Bereichen erkannt und als Kanten markiert. Als nächstes werden die Histogramme dieser erkannten Bereiche mit den Histogrammen der Bilder der inneren Sensorelemente mit unterschiedlichen Verfahren wie ΔH(gi)-Verfahren oder Mittelwert-Verfahren verglichen werden. Aufgrund dieser Vergleiche werden die flächigen Bereiche der digitalen Bildern der äußeren Sensorelemente zu den Hauptklassen „Fahrbahnoberfläche", „Fahrbahnmarkierung" und „Fahrbahnrand" zuordnet. Bei diesem Klassifikationsverfahren werden neben den momentanen Histogrammen der digitalen Bilder der inneren Sensorelemente noch die während der Fahrt gelernten Histogramme und Histogramme aus einer Datendasis verwendet werden.Before classifying the regions of the images of the outer sensor elements, the transitions between the two-dimensional regions are first recognized with the aid of an edge operator and marked as edges. Next, the histograms of these detected regions will be compared with the histograms of the images of the inner sensor elements using different methods such as ΔH (g i ) method or mean method. Based on these comparisons, the areal areas of the digital images of the external sensor elements are assigned to the main classes "road surface", "lane marking" and "lane edge." In this classification method, in addition to the current histograms of the digital images of the inner sensor elements, the histograms learned during the journey are also used and histograms are used from a data base.
Nach dem die Bereiche der Bilder der äußeren Sensorelemente klassifiziert sind, werden nun die Fläche oder die Anzahl der Bildpunkte einzelner Klassen berechnet. Die Flächen einzelner Klassen eines äußeren Sensorelementes werden je Fahrzeugseite (vorne linke mit hinten links und vorne rechts mit hinten rechts), und vor allem die Fahrzeugseite mit dem Fahrbahnrand, mit einander permanent verglichen.To the areas of the images of the outer sensor elements are now classified the area or number calculated the pixels of individual classes. The surfaces individual classes of an external sensor element are per vehicle side (front left with rear left and front right with rear right), and especially the vehicle side with the Roadside, permanently compared with each other.
Die Spurassistenzfunktion wird ab einer bestimmten Geschwindigkeit z. B. 70 km/h aktiviert und deaktiviert. Es kommt aber vor, dass Fahrer nach langer Fahrt auf Landstraßen auch bei einer niedrigeren Geschwindigkeit z. B. 40 km/h einen Sekundenschlaf bekommen und vor allem in frühen Morgenstunden. In diesem Fall verzögert sich das Fahrzeug von sich selbst, also ohne dass der Fahrer z. B. das Brems- oder Kupplungspedal betätigt. Damit das System auch hier helfen kann, soll die Spurassistenzfunktion bei einer Fahrzeugverzögerung von einer bestimmten Geschwindigkeit bis unter z. B. 70 km/h ohne Betätigung z. B. der Bremse oder des Kupplungspedals weiter hin bis z. B. 40 km/h verfügbar sein. Man kann dabei auch die Fahrzeit berücksichtigen.The Lane assistance function is z. B. 70 km / h activated and deactivated. It happens, though, that drivers after a long drive on country roads even at a lower Speed z. B. 40 km / h get a microsleep and especially in the early morning. In this case, delayed the vehicle of itself, so without the driver z. B. the brake or clutch pedal is pressed. So that the system can help here too, should the lane assist function in a Vehicle deceleration from a certain speed until under z. B. 70 km / h without operation z. B. the brake or the clutch pedal continues to z. B. 40 km / h available be. You can also take into account the travel time.
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- - DE 10125966 A1 [0005] - DE 10125966 A1 [0005]
- - DE 3028077 C2 [0006] DE 3028077 C2 [0006]
- - DE 19507957 C1 [0007] - DE 19507957 C1 [0007]
Claims (6)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102008020007A DE102008020007A1 (en) | 2007-04-20 | 2008-04-21 | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007019036 | 2007-04-20 | ||
| DE102007019036.2 | 2007-04-20 | ||
| DE102008020007A DE102008020007A1 (en) | 2007-04-20 | 2008-04-21 | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102008020007A1 true DE102008020007A1 (en) | 2008-10-23 |
Family
ID=39768180
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102008020007A Ceased DE102008020007A1 (en) | 2007-04-20 | 2008-04-21 | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102008020007A1 (en) |
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2082940A1 (en) * | 2008-01-24 | 2009-07-29 | Peugeot Citroën Automobiles S.A. | Device and method for detecting a particular status of a vehicle |
| RU2403616C1 (en) * | 2009-08-12 | 2010-11-10 | Евгений Александрович Самойлин | Method for noise-immune gradient detection of object contours on digital images |
| DE102011109569A1 (en) * | 2011-08-05 | 2013-02-07 | Conti Temic Microelectronic Gmbh | Lane detection method using a camera |
| DE102012002333A1 (en) | 2012-02-07 | 2013-08-08 | Daimler Ag | Method for controlling optical axis of beam of headlight distribution of vehicle, involves directing optical axis of beam as warning function to border lane boundary, when lane boundary is exceeded |
| US8699754B2 (en) | 2008-04-24 | 2014-04-15 | GM Global Technology Operations LLC | Clear path detection through road modeling |
| WO2014125248A1 (en) * | 2013-02-13 | 2014-08-21 | W.D.M. Limited | A road marking analyser and a method of analysis of road markings and an apparatus and method for detecting vehicle weave |
| DE112010005318B4 (en) * | 2010-04-15 | 2015-05-21 | Mitsubishi Electric Corporation | Driving assistance device |
| US9132837B2 (en) | 2013-04-26 | 2015-09-15 | Conti Temic Microelectronic Gmbh | Method and device for estimating the number of lanes and/or the lane width on a roadway |
| US9283958B2 (en) | 2012-10-01 | 2016-03-15 | Conti Temic Microelectronic Gmbh | Method and device for assisting in returning a vehicle after leaving a roadway |
| CN107867291A (en) * | 2016-09-23 | 2018-04-03 | 株式会社斯巴鲁 | The travel controlling system of vehicle |
| DE102018100292A1 (en) * | 2018-01-09 | 2019-07-11 | Connaught Electronics Ltd. | Detecting a lane marking by a lane keeping warning system of a vehicle |
| US10641892B2 (en) | 2015-02-04 | 2020-05-05 | Audi Ag | Method for acquiring transverse-position information of a motor vehicle on a carriageway and motor vehicle |
| DE102020210470B3 (en) | 2020-08-18 | 2022-02-17 | Zf Friedrichshafen Ag | System, computer-implemented method and computer program for detecting a lane for the regulation and/or control of an automated driving system, automated driving system and method for safeguarding a lateral guidance of such a driving system |
| CN114801991A (en) * | 2022-04-28 | 2022-07-29 | 东风汽车集团股份有限公司 | Roadside vehicle falling prevention method and system |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE3028077C2 (en) | 1979-07-24 | 1987-06-11 | Honda Giken Kogyo K.K., Tokio/Tokyo, Jp | |
| DE19507957C1 (en) | 1995-03-07 | 1996-09-12 | Daimler Benz Ag | Vehicle with optical scanning device for a side lane area |
| DE10125966A1 (en) | 2000-09-16 | 2002-05-02 | Daimler Chrysler Ag | Curve warning system for drivers of long vehicles, such as buses or goods vehicles, has a rear facing sensor arrangement and a control computer for calculating if an impact will occur and warning the driver accordingly |
-
2008
- 2008-04-21 DE DE102008020007A patent/DE102008020007A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE3028077C2 (en) | 1979-07-24 | 1987-06-11 | Honda Giken Kogyo K.K., Tokio/Tokyo, Jp | |
| DE19507957C1 (en) | 1995-03-07 | 1996-09-12 | Daimler Benz Ag | Vehicle with optical scanning device for a side lane area |
| DE10125966A1 (en) | 2000-09-16 | 2002-05-02 | Daimler Chrysler Ag | Curve warning system for drivers of long vehicles, such as buses or goods vehicles, has a rear facing sensor arrangement and a control computer for calculating if an impact will occur and warning the driver accordingly |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2082940A1 (en) * | 2008-01-24 | 2009-07-29 | Peugeot Citroën Automobiles S.A. | Device and method for detecting a particular status of a vehicle |
| US8699754B2 (en) | 2008-04-24 | 2014-04-15 | GM Global Technology Operations LLC | Clear path detection through road modeling |
| RU2403616C1 (en) * | 2009-08-12 | 2010-11-10 | Евгений Александрович Самойлин | Method for noise-immune gradient detection of object contours on digital images |
| DE112010005318B4 (en) * | 2010-04-15 | 2015-05-21 | Mitsubishi Electric Corporation | Driving assistance device |
| DE102011109569A1 (en) * | 2011-08-05 | 2013-02-07 | Conti Temic Microelectronic Gmbh | Lane detection method using a camera |
| US9257045B2 (en) | 2011-08-05 | 2016-02-09 | Conti Temic Microelectronic Gmbh | Method for detecting a traffic lane by means of a camera |
| DE102012002333A1 (en) | 2012-02-07 | 2013-08-08 | Daimler Ag | Method for controlling optical axis of beam of headlight distribution of vehicle, involves directing optical axis of beam as warning function to border lane boundary, when lane boundary is exceeded |
| US9283958B2 (en) | 2012-10-01 | 2016-03-15 | Conti Temic Microelectronic Gmbh | Method and device for assisting in returning a vehicle after leaving a roadway |
| US20150371094A1 (en) * | 2013-02-13 | 2015-12-24 | W.D.M. Limited | A road marking analyser and a method of analysis of road markings and an apparatus and method for detecting vehicle weave |
| WO2014125248A1 (en) * | 2013-02-13 | 2014-08-21 | W.D.M. Limited | A road marking analyser and a method of analysis of road markings and an apparatus and method for detecting vehicle weave |
| US9132837B2 (en) | 2013-04-26 | 2015-09-15 | Conti Temic Microelectronic Gmbh | Method and device for estimating the number of lanes and/or the lane width on a roadway |
| US10641892B2 (en) | 2015-02-04 | 2020-05-05 | Audi Ag | Method for acquiring transverse-position information of a motor vehicle on a carriageway and motor vehicle |
| CN107867291A (en) * | 2016-09-23 | 2018-04-03 | 株式会社斯巴鲁 | The travel controlling system of vehicle |
| CN107867291B (en) * | 2016-09-23 | 2019-05-10 | 株式会社斯巴鲁 | The travel controlling system of vehicle |
| DE102018100292A1 (en) * | 2018-01-09 | 2019-07-11 | Connaught Electronics Ltd. | Detecting a lane marking by a lane keeping warning system of a vehicle |
| DE102020210470B3 (en) | 2020-08-18 | 2022-02-17 | Zf Friedrichshafen Ag | System, computer-implemented method and computer program for detecting a lane for the regulation and/or control of an automated driving system, automated driving system and method for safeguarding a lateral guidance of such a driving system |
| CN114801991A (en) * | 2022-04-28 | 2022-07-29 | 东风汽车集团股份有限公司 | Roadside vehicle falling prevention method and system |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102008020007A1 (en) | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients | |
| DE102009012917B4 (en) | Obstacle detection device for vehicles | |
| DE102011088130B4 (en) | Method and device for detecting a braking situation | |
| DE102013101639A1 (en) | Method and device for determining a road condition | |
| WO2019174682A1 (en) | Method and device for detecting and evaluating roadway conditions and weather-related environmental influences | |
| EP2788968B1 (en) | Method and vehicle assistance system for active warning and/or for navigation aid for preventing a collision of a vehicle body part and/or a vehicle wheel with an object | |
| DE10336638A1 (en) | Apparatus for classifying at least one object in a vehicle environment | |
| DE102012112724A1 (en) | Method for determining a road condition from environmental sensor data | |
| EP2904599B1 (en) | Method and device for supporting the return of a vehicle after leaving a lane | |
| DE102011056671A1 (en) | Determining a height profile of a vehicle environment using a 3D camera | |
| WO2016177372A1 (en) | Method and device for detecting and evaluating environmental influences and road condition information in the vehicle surroundings | |
| DE102005054972A1 (en) | Motor vehicle`s dead angle monitoring method, involves accomplishing checking of whether lanes change is accomplished based on infrastructure of traffic before warning, where driver warning is omitted if result of checking is not possible | |
| EP3655299B1 (en) | Method and device for determining an optical flow on the basis of an image sequence captured by a camera of a vehicle | |
| EP1652161B1 (en) | Device for classifying at least one object in the vicinity of a vehicle | |
| DE102013022076A1 (en) | Method for determining a width of a target vehicle by means of a camera system of a motor vehicle, camera system and motor vehicle | |
| DE102006036921A1 (en) | Method for stabilizing a motor vehicle and vehicle dynamics control system | |
| DE102023003826A1 (en) | Method for displaying hidden road users and vehicles | |
| DE102008025773A1 (en) | Local and movement conditions estimating method for observed object i.e. vehicle, involves determining distance, detecting shifting of portion of object, and estimating parameter of local and movement condition | |
| WO2007051835A1 (en) | Method for assistance to a driver while driving a vehicle | |
| DE102017223439B4 (en) | Warning device against dangerous situations for a motor vehicle | |
| DE102011055441A1 (en) | Method for determining spacing between preceding and forthcoming motor cars by using mono camera in e.g. adaptive cruise control system, involves determining spacing between cars based on information about license plate number | |
| DE102009013326A1 (en) | Vehicle controlling method, involves producing image of object, determining object data and surrounding data from image of object, and classifying object using object data and surrounding data | |
| EP4320593A1 (en) | Method and optical output system for a vehicle for optically outputting a characteristic of a vehicle to be sensed which is located in a vehicle environment | |
| DE102019000434A1 (en) | Obstacle detection device for a vehicle and method for avoiding an obstacle for a vehicle | |
| DE102020101375A1 (en) | Method for warning of cross traffic for a vehicle with detection of lanes, computing device and driver assistance system |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
| R012 | Request for examination validly filed | ||
| R012 | Request for examination validly filed |
Effective date: 20150327 |
|
| R084 | Declaration of willingness to licence | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
| R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE |
|
| R002 | Refusal decision in examination/registration proceedings | ||
| R003 | Refusal decision now final |