HINTERGRUNDBACKGROUND
(Technisches Gebiet)(Technical field)
Die vorliegende Erfindung betrifft Verfahren zum Erfassen eines Fußgängers in einem Bild, das durch eine Fahrzeugkamera aufgenommen wird.The present invention relates to methods of detecting a pedestrian in an image captured by a vehicle camera.
(Stand der Technik)(State of the art)
Um eine Kollision mit einem Objekt zu vermeiden, das mit einer Fahrt eines Fahrzeugs interferiert, wurden Verfahren zum Erfassen eines Fußgängers in einem Bild vorgeschlagen, das durch eine Fahrzeugkamera aufgenommen wird. Die Verfahren beinhalten ein Verfahren zum Erfassen eines Fußgängers in einem aufgenommenen Bild, indem ein Objektdiskriminierungsverfahren, das auf neuralen Netzwerken basiert, unter Verwendung eines Fußgängerumrissmusters auf ein Objekt angewandt wird, das in dem Bild erfasst wird.In order to avoid a collision with an object interfering with a running of a vehicle, methods for detecting a pedestrian in an image taken by a vehicle camera have been proposed. The methods include a method of detecting a pedestrian in a captured image by applying an object discrimination method based on neural networks using an pedestrian outline pattern to an object captured in the image.
Jedoch kann bei einem derartigen Diskriminierungsverfahren ein Objekt, das ein dem Fußgängerumrissmuster ähnliches Umrissmuster aufweist, wie beispielsweise ein Baum oder dergleichen, inkorrekt als ein Fußgänger erfasst werden, was zu einer geringeren Genauigkeit beim Erfassen eines Fußgängers führen kann.However, in such a discrimination method, an object having an outline pattern similar to the pedestrian outline, such as a tree or the like, may be incorrectly detected as a pedestrian, which may result in lower accuracy in detecting a pedestrian.
Um einen derartigen Nachteil zu überwinden, führt ein bekanntes Verfahren, wie es in der japanischen Patentanmeldungsoffenlegung mit der Veröffentlichungsnummer 2008-21034 offenbart ist, einen Musterabgleich für jeden von spezifischen Teilen durch, die einen Fußgänger bilden, um einen Ähnlichkeitsgrad auszugeben, und bestimmt, ob oder nicht eine Summe von Ausgabewerten für die entsprechenden spezifischen Teile größer ist als ein vorbestimmter Grenzwert ist, um dadurch einen Fußgänger zu erfassen. Die spezifischen Teile des Fußgängers können einen Kopf, einen Körper, Arme und Beine beinhalten, sind jedoch nicht darauf beschränkt.To overcome such a disadvantage, a known method, as described in the Japanese Patent Application Laid-Open Publication No. 2008-21034 discloses pattern matching for each of specific parts constituting a pedestrian to output a degree of similarity, and determines whether or not a sum of output values for the respective specific parts is greater than a predetermined limit, thereby to make a pedestrian to capture. The specific parts of the pedestrian may include, but are not limited to, a head, a body, arms and legs.
Jedoch besteht der Nachteil des Verfahrens, das in der japanischen Patentanmeldungsoffenlegung mit der Veröffentlichungsnummer 2008-21034 offenbart ist, darin, dass ein Fußgänger hinter einem weiteren Fußgänger oder ein Fußgänger hinter einem Objekt (außer einem Fußgänger) möglicherweise nicht genau erfasst wird. In anderen Worten, wenn einige der spezifischen Teile wie beispielsweise ein Kopf, ein Körper, Hände, Beine oder dergleichen des Fußgängers in einem aufgenommenen Bild unsichtbar sind, nehmen Ausgabewerte für die unsichtbaren Teile ab, was zu einer Abnahme einer Summe von Ausgabewerten für die spezifischen Teile resultiert. Demzufolge kann eine Erfassung eines Fußgängers oder von Fußgängern basierend auf der Summe von Ausgabewerten für die spezifischen Teile fehlschlagen. Eine ähnliche Situation kann ebenso beim Erfassen eines Objekts (außer einem Fußgänger) in einem aufgenommenen Bild auftreten.However, there is the disadvantage of the method used in the Japanese Patent Application Laid-Open Publication No. 2008-21034 is disclosed in that a pedestrian behind another pedestrian or a pedestrian behind an object (other than a pedestrian) may not be detected accurately. In other words, when some of the specific parts such as a head, a body, hands, legs or the like of the pedestrian are invisible in a captured image, output values for the invisible parts decrease, resulting in a decrease in a sum of output values for the specific ones Parts results. As a result, detection of a pedestrian or pedestrians may fail based on the sum of output values for the specific parts. A similar situation may also occur when capturing an object (other than a pedestrian) in a captured image.
Hinsichtlich des Vorstehenden wäre es deshalb wünschenswert, eine Bildverarbeitungsvorrichtung und ein Fahrzeugsteuersystem, das dieselbe verwendet, zu haben, die ein Objekt verlässlich erfassen kann.In view of the foregoing, therefore, it would be desirable to have an image processing apparatus and vehicle control system using the same which can reliably detect an object.
ÜBERBLICK ÜBER DIE ERFINDUNGOVERVIEW OF THE INVENTION
Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Bildverarbeitungsvorrichtung zum Erfassen eines Objekts auf der Basis eines Bildes bereitgestellt, das durch eine Bildaufnahmeeinheit aufgenommen wird, die in einem Fahrzeug angebracht ist.According to an embodiment of the present invention, there is provided an image processing apparatus for detecting an object on the basis of an image captured by an image pickup unit mounted in a vehicle.
In der Vorrichtung weist ein Teilmodellspeichermittel mehrere Teilmodelle auf, die darin gespeichert sind und jeweils Teilen des Objekts entsprechen. Ist das Objekt ein Fußgänger, beinhalten die Teilmodelle ein Kopfteilmodell für einen Kopf, ein Armteilmodell für einen rechten/linken Arm, ein Hüftenteilmodell für eine Hüfte und ein Beinteilmodell für ein rechtes/linkes Bein, sind jedoch nicht darauf beschränkt. Ist das Objekt ein Fahrzeug, beinhalten die Teilmodelle ein Reifenteilmodell für einen Reifen, ein Rücklichtteilmodell für ein Rücklicht und ein Fensterteilmodell für ein Fenster, sind jedoch nicht darauf beschränkt.In the apparatus, a sub-model storing means has a plurality of sub-models stored therein and corresponding to parts of the object, respectively. If the object is a pedestrian, the submodels include, but are not limited to, a head head model, a left / right arm model, a hip hip model, and a right / left leg model. If the object is a vehicle, the submodels include, but are not limited to, a tire part model for a tire, a tail lamp sub model for a tail light, and a window sub model for a window.
Ein Teilregionextrahierungsmittel extrahiert Teilregionen für die entsprechenden Teile des Objekts aus dem Bild unter Verwendung der jeweils entsprechenden Teilmodelle, die in dem Teilspeichermittel gespeichert sind. Darüber hinaus schätzt ein Objektregionschätzmittel eine Objektregion, in dem das Objekt vorliegt, auf der Basis der Teilregionen, die durch das Teilregionextrahierungsmittel extrahiert werden.A partial region extracting means extracts partial regions for the corresponding parts of the object from the image using the respective respective partial models stored in the partial storage means. Moreover, an object region estimating means estimates an object region in which the object exists on the basis of the partial regions extracted by the partial region extracting means.
Mit dieser Konfiguration werden für jeden der Teile des Objekts die Teilregionen aus dem Bild unter Verwendung des entsprechenden Teilmodells extrahiert und die Objektregion wird auf der Basis der extrahierten Teilregionen geschätzt. Beispielsweise wird sogar, wenn nur die Teilregion für das rechte/linke Bein des Fußgängers von dem Bild unter Verwendung des Beinteilmodells extrahiert wird, die Fußgängerregion auf der Basis der Teilregion für das rechte/linke Bein geschätzt. Dies führt zu einer richtigen Erfassung des Objekts in dem Bild.With this configuration, for each of the parts of the object, the partial regions are extracted from the image using the corresponding partial model, and the object region is estimated on the basis of the extracted partial regions. For example, even if only the pedestrian right / left leg partial region is extracted from the image using the leg part model, the pedestrian region is estimated based on the right / left leg partial region. This leads to a correct capture of the object in the image.
KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS
Es zeigen:Show it:
1 ein schematisches Blockdiagramm eines Fahrzeugsteuersystems gemäß einer Ausführungsform der vorliegenden Erfindung; 1 a schematic block diagram of a vehicle control system according to an embodiment of the present invention;
2 ein Ablaufdiagramm einer Fußgängererfassungsverarbeitung; 2 a flowchart of a pedestrian detection processing;
3A ein Beispiel zum Extrahieren von hochbewerteten Bereichen durch Verwenden eines Teilmodells; 3A an example of extracting high-valued regions by using a partial model;
3B ein Beispiel zum Extrahieren von hochbewerteten Bereichen unter Verwendung eines Teilmodells mit reduzierter Größe; 3B an example of extracting high-valued regions using a reduced-size submodel;
3C hochbewertete Bereiche unterschiedlicher Größen; 3C highly valued areas of different sizes;
4A relative Positionen spezifischer Teile mehrerer Personen; 4A relative positions of specific parts of several persons;
4B ein Beispiel zum Festlegen eines Grenzwerts für Bewertungen in einer Bewertungsaufzeichnung für jeden von spezifischen Teilen eines Fußgängers; 4B an example for setting a threshold for ratings in a rating record for each of specific parts of a pedestrian;
5A ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände dazwischen und Größen davon; 5A an example of grouping high score areas into subgroup regions by distances therebetween and sizes thereof;
5B ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände zwischen denselben; 5B an example of grouping high scoring areas in subgroup regions by distances between them;
5C ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände zwischen denselben und Berechnen einer Dichte von hochbewerteten Bereichen von jeder Teilgruppenregion; 5C an example of grouping high score areas into subgroup regions by distances between them and calculating a density of high score areas of each subgroup region;
6 ein Beispiel zum Extrahieren einer Teilregion auf der Basis von Teilgruppenregionen und zum Berechnen einer Bewertung der Teilregion; 6 an example of extracting a sub-region based on sub-group regions and calculating an evaluation of the sub-region;
7A ein Beispiel zum Extrahieren einer Fußgängerregion auf der Basis einer Teilregion; 7A an example of extracting a pedestrian region based on a partial region;
7B ein Beispiel zum Verknüpfen unterschiedlicher Teilregionen miteinander; und 7B an example for linking different subregions together; and
7C ein Beispiel zum Schätzen einer Fußgängerregion auf der Basis von Teilregionen, die miteinander verknüpft sind. 7C an example of estimating a pedestrian region based on subregions that are linked together.
BESCHREIBUNG SPEZIFISCHER AUSFÜHRUNGSFORMENDESCRIPTION OF SPECIFIC EMBODIMENTS
Die vorliegenden Erfindungen werden nachfolgend vollständiger mit Bezug auf die Zeichnungen erläutert. Gleiche Bezugszeichen beziehen sich auf gleiche Elemente.The present inventions will be explained more fully hereinafter with reference to the drawings. Like reference numerals refer to like elements.
Ein Fahrzeugsteuersystem 1 der vorliegenden Ausführungsform ist mit einer Bildverarbeitungsvorrichtung 10 und einer Fahrzeugsteuervorrichtung 20 konfiguriert. Die Bildverarbeitungsvorrichtung 10 ist mit einer Entfernungsmessungseinheit 31 und einer Bildaufnahmeeinheit 32 verbunden. Die Fahrzeugsteuervorrichtung 20 ist mit einem Lautsprecher 41, einer Bremse 42 und einer Lenkung 43 verbunden.A vehicle control system 1 The present embodiment is provided with an image processing apparatus 10 and a vehicle control device 20 configured. The image processing device 10 is with a distance measuring unit 31 and an image capture unit 32 connected. The vehicle control device 20 is with a speaker 41 , a brake 42 and a steering 43 connected.
Die Bildverarbeitungsvorrichtung 10 und die Fahrzeugsteuervorrichtung 20 sind jeweils als ein Mikrocomputer konfiguriert. Die Bildverarbeitungsvorrichtung 10 erfasst einen Fußgänger in einem Bild, das von der Bildaufnahmeeinheit 3 empfangen wird, und bestimmt ein Kollisionsrisiko auf der Basis einer Abstandsinformation, die von der Entfernungsmessungseinheit 31 empfangen wird. Eine Fahrzeugsteuervorrichtung 20 stellt mittels des Lautsprechers 41 in Antwort auf das Kollisionsrisiko, das von der Bildverarbeitungsvorrichtung 10 empfangen wird, eine Unterrichtung bereit und/oder bewirkt in der Anwesenheit eines großen Dringlichkeitsgrads eine Vermeidungs- bzw. Ausweichsteuerung unter Verwendung der Bremse 42 und der Lenkung 43.The image processing device 10 and the vehicle control device 20 are each configured as a microcomputer. The image processing device 10 captures a pedestrian in an image taken by the image capture unit 3 is received, and determines a collision risk based on distance information provided by the ranging unit 31 Will be received. A vehicle control device 20 represents by means of the loudspeaker 41 in response to the risk of collision, that of the image processing device 10 a notification is provided and / or causes in the presence of a large degree of urgency, an avoidance control using the brake 42 and the steering 43 ,
Die Entfernungsmesseinheit 31 kann durch eine Laserradareinheit, eine Millimeterwellenradareinheit oder dergleichen ausgebildet sein. Die Entfernungsmesseinheit 31 erfasst eine Distanz zwischen einem Fahrzeug, in dem das Fahrzeugsteuersystem 1 angebracht ist (nachfolgend als das Eigenfahrzeug bezeichnet), und einem Objekt vor dem Eigenfahrzeug.The distance measuring unit 31 may be formed by a laser radar unit, a millimeter-wave radar unit or the like. The distance measuring unit 31 detects a distance between a vehicle in which the vehicle control system 1 is mounted (hereinafter referred to as the own vehicle), and an object in front of the own vehicle.
Die Bildaufnahmeeinheit 32 kann durch eine molekulare Kamera oder dergleichen ausgebildet sein. Die Bildaufnahmeeinheit 32 nimmt ein Bild vor dem Eigenfahrzeug auf. Die Bildverarbeitungsvorrichtung 10 erfasst einen Fußgänger in dem aufgenommenen Bild.The image capture unit 32 may be formed by a molecular camera or the like. The image capture unit 32 takes a picture in front of the own vehicle. The image processing device 10 captures a pedestrian in the captured image.
Der Lautsprecher 41 gibt eine Audiowarnnachricht wie beispielsweise „Fußgänger vor dem Fahrzeug” oder „Achtung!” oder dergleichen aus, wenn ein Risiko einer Kollision mit einem Fußgänger erhöht ist.The speaker 41 issues an audio warning message such as "pedestrian in front of the vehicle" or "attention!" or the like when a risk of collision with a pedestrian is increased.
Die Bremse 42 beinhaltet einen Bremstreiber zum Verzögern des Eigenfahrzeugs in Antwort auf ein Signal von der Fahrzeugsteuervorrichtung 20. Die Lenkung 43 bietet eine Servolenk(Elektronic Power Steering, EPS)-System zum Unterstützen eines Fahrers beim Lenken in Antwort auf ein Signal von der Fahrzeugsteuervorrichtung 20. Die Fahrzeugsteuerung unter Verwendung der Bremse 42 und der Lenkung 43 wird beeinträchtigt, wenn das Risiko einer Kollision mit dem Fußgänger weiter erhöht ist, das heißt, bei der Anwesenheit eines hohen Dringlichkeitsgrads.The brake 42 includes a brake driver for decelerating the own vehicle in response to a signal from the vehicle control device 20 , The steering 43 provides an electric power steering (EPS) system for assisting a driver in steering in response to a signal from the vehicle control device 20 , The vehicle control using the brake 42 and the steering 43 is impaired when the risk of a Collision with the pedestrian is further increased, that is, in the presence of a high degree of urgency.
Die Bildverarbeitungsvorrichtung 10 beinhaltet einen Controller 50 und einen Speicher 60. Der Controller 50 kann durch einen Mikrocomputer ausgebildet sein. Der Controller 50 beinhaltet als funktionale Blöcke einen Fußgängererfassungsabschnitt 51 und einen Kollisionsrisikobestimmungsabschnitt 52 (Fußgängerregionschätzmittel). Der Speicher 60 kann durch einen Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), einen Flash-Speicher, ein Festplattenlaufwerk (Hard Disk Drive, HDD) oder dergleichen ausgebildet sein. Der Speicher 60 beinhaltet einen Teilmodellspeicherabschnitt 61 (Teilmodellspeichermittel) und einen Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62.The image processing device 10 includes a controller 50 and a memory 60 , The controller 50 may be formed by a microcomputer. The controller 50 includes as functional blocks a pedestrian detection section 51 and a collision risk determination section 52 (Pedestrian region estimating means). The memory 60 may be formed by a random access memory (RAM), a flash memory, a hard disk drive (HDD), or the like. The memory 60 includes a partial model storage section 61 (Partial model storage means) and a collision risk decision table storage section 62 ,
Der Fußgängererfassungsabschnitt 51 (Teilregionextrahierungsmittel und Objektregion schätzmittel) erfasst einen Fußgänger in einem Bild, das von der Bildaufnahmeeinheit 32 empfangen wird. Wie an einer nachfolgenden Stelle detaillierter erläutert wird, erfasst der Fußgängererfassungsabschnitt 51 spezifische Teile eines Fußgängers durch Abtasten des Bildes und schätzt die Anwesenheit des Fußgängers und seine Position.The pedestrian detection section 51 (Partial region extracting means and object region estimating means) detects a pedestrian in an image taken by the image pickup unit 32 Will be received. As explained in more detail below, the pedestrian detection section detects 51 specific parts of a pedestrian by scanning the image and appreciates the presence of the pedestrian and his position.
Der Kollisionsrisikobestimmungsabschnitt 52 bestimmt ein Kollisionsrisiko als eine Funktion eines Abstands zwischen dem Eigenfahrzeug und dem Fußgänger, der durch den Fußgängererfassungsabschnitt 51 erfasst wird. Der Abstand zwischen dem Eigenfahrzeug und dem Fußgänger wird durch die Entfernungsmesseinheit 31 gemessen.The collision risk determination section 52 determines a collision risk as a function of a distance between the subject vehicle and the pedestrian by the pedestrian detection section 51 is detected. The distance between the own vehicle and the pedestrian is determined by the distance measuring unit 31 measured.
Der Teilmodellspeicherabschnitt 61 speichert Teilmodelle, von denen jedes einen entsprechenden der spezifischen Teile des Fußgängers speichert. Jedes Teilmodell wird verwendet, um eine Verteilung des entsprechenden Teils des Fußgängers in dem Bild zu erfassen. In der vorliegenden Ausführungsform beinhalten die spezifischen Teile des Fußgängers einen Kopf, einen rechten Arm und einen linken Arm, eine Hüfte und ein rechtes und ein linkes Bein, sind jedoch nicht darauf beschränkt. Ein Teilmodell, das den Kopf modelliert, wird nachfolgend als „Kopfteilmodell” bezeichnet, ein Teilmodell, das den rechten/linken Arm modelliert, wird nachfolgend als ein „Armteilmodell” bezeichnet, ein Teilmodell, das die Hüfte modelliert, wird nachfolgend als ein „Hüftenteilmodell” bezeichnet und ein Teilmodell, das das rechte/linke Bein modelliert, wird nachfolgend als ein „Beinteilmodell” bezeichnet. In einem derartigen Teilmodellansatz zum Erfassen eines Fußgängers repräsentiert beispielsweise ein Merkmalsvektor Merkmale (Umrissinformationen) für die entsprechenden spezifischen Teile des Fußgängers.The submodule storage section 61 stores submodels, each of which stores a corresponding one of the specific parts of the pedestrian. Each submodel is used to detect a distribution of the corresponding part of the pedestrian in the image. In the present embodiment, the specific parts of the pedestrian include, but are not limited to, a head, a right arm and a left arm, a hip, and right and left legs. A partial model modeling the head is hereinafter referred to as a "head part model", a partial model modeling the right / left arm is hereinafter referred to as an "arm part model", a partial model modeling the hip is hereinafter referred to as a "hip part model And a sub model modeling the right / left leg is hereinafter referred to as a "leg part model". In such a partial model approach for detecting a pedestrian, for example, a feature vector represents features (outline information) for the corresponding specific parts of the pedestrian.
Der Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62 speichert eine Kollisionsrisikoentscheidungstabelle, die eine Tabelle ist, die eine Korrespondenzbeziehung zwischen einem Abstand zwischen dem Eigenfahrzeug und dem erfassten Fußgänger und einem Kollisionsrisiko definiert. Der Kollisionsrisikobestimmungsabschnitt 52 bestimmt ein Kollisionsrisiko bezüglich der Kollisionsrisikoentscheidungstabelle, die in dem Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62 gespeichert ist.The collision risk decision table storage section 62 stores a collision risk decision table, which is a table defining a correspondence relationship between a distance between the own vehicle and the detected pedestrian and a collision risk. The collision risk determination section 52 determines a collision risk with respect to the collision risk decision table included in the collision risk decision table storage section 62 is stored.
Die Fahrzeugsteuervorrichtung 20 beinhaltet einen Unterrichtungscontroller 70 und einen Fahrzeugcontroller 80, von denen jeder durch einen Mikrocomputer ausgebildet sein kann. Der Unterrichtungscontroller 70 stellt eine Unterrichtung mittels des Lautsprechers 41 bereit, wenn das Kollisionsrisiko ansteigt. Der Fahrzeugcontroller 80 bewirkt die Kollisionsausweichsteuerung beziehungsweise Kollisionsvermeidungssteuerung unter Verwendung der Bremse 42 und der Lenkung 43, wenn das Kollisionsrisiko weiter ansteigt.The vehicle control device 20 includes a lesson controller 70 and a vehicle controller 80 each of which may be formed by a microcomputer. The information controller 70 provides a notification by means of the loudspeaker 41 ready when the risk of collision increases. The vehicle controller 80 causes collision avoidance control or collision avoidance control using the brake 42 and the steering 43 if the risk of collision continues to rise.
Nachfolgend wird eine Fußgängererfassungsverarbeitung, die in dem Fußgängererfassungsabschnitt 51 ausgeführt wird, im Detail erläutert. Die Fußgängererfassungsverarbeitung wird wiederholt bei jedem vorbestimmten Zeitintervall ausgeführt.Hereinafter, a pedestrian detection processing performed in the pedestrian detection section 51 is executed, explained in detail. The pedestrian detection processing is repeatedly executed every predetermined time interval.
Wie in 2 dargestellt ist, wird bei Schritt S110 ein aufgenommenes Bild von der Bildaufnahmeeinheit 32 empfangen.As in 2 is shown, a captured image from the image pickup unit at step S110 32 receive.
Anschließend wird bei Schritt S120 eine Bewertungsaufzeichnung erzeugt und hochbewertete Bereiche werden von dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert. Wie vorstehend beschrieben ist, werden die Teilmodelle, die die entsprechenden spezifischen Teile des Fußgängers modellieren, in dem Teilmodellspeicherabschnitt 61 gespeichert. Die Bewertungsaufzeichnung wird durch Abtasten des aufgenommenen Bilds des Teilmodells erzeugt. Für jedes der Teilmodelle werden Bereiche mit einer Bewertung, die größer als ein vorbestimmter Grenzwert (hochbewertete Bereiche) ist, aus dem Bild extrahiert.Subsequently, at step S120, an evaluation record is generated, and high-ranking areas are extracted from the image with respect to the evaluation record. As described above, the submodels that model the corresponding specific parts of the pedestrian are in the sub-model storage section 61 saved. The evaluation record is generated by scanning the captured image of the submodel. For each of the submodels, regions having a rating greater than a predetermined threshold (high score regions) are extracted from the image.
Insbesondere wie in 3A dargestellt wird das Kopfteilmodell TP1 aufeinanderfolgend mit vorbestimmten Intervallen entlang einer rechten Richtung von einer oberen linken Ecke zu einer oberen rechten Ecke des Bildes verschoben (oder bewegt). Erreicht das Kopfteilmodell TP1 die obere rechte Ecke des Bildes, wird das Kopfteilmodell TP1 zur oberen linken Ecke des Bildes zurückgebracht und dann nach unten um eine vorbestimmte Distanz verschoben. Das Kopfteilmodell TP1 wird erneut aufeinanderfolgend mit vorbestimmten Intervallen entlang der rechten Richtung ausgehend von der linken Kante zur rechten Kante des Bildes verschoben. Erreicht das Kopfteilmodell TP1 die rechte Kante des Bildes, wird das Kopfteilmodell TP1 erneut zur linken Kante des Bildes zurückgebracht und dann nach unten um die vorbestimmte Distanz verschoben. Derartige aufeinanderfolgende Verschiebungen werden fortgeführt, bis das Kopfteilmodell TP1 eine untere rechte Ecke des Bildes erreicht. Ein Ähnlichkeitsgrad eines Bereichs, der das Kopfteilmodell TP1 an einer Position nach jeder Verschiebung überlappt, wird als eine Bewertung des Bereichs gespeichert, was zu einer Bewertungsaufzeichnung (nicht dargestellt) für das Kopfteilmodell TP1 führt.In particular as in 3A That is, the header model TP1 is successively shifted (or moved) at predetermined intervals along a right direction from an upper left corner to an upper right corner of the image. When the header model TP1 reaches the upper right corner of the image, the header model TP1 is returned to the upper left corner of the image and then shifted downward by a predetermined distance. The header model TP1 is again successively at predetermined intervals along the right direction from the left edge to the right edge of the image. When the header model TP1 reaches the right edge of the image, the header model TP1 is returned to the left edge of the image again and then shifted downward by the predetermined distance. Such successive shifts are continued until the header model TP1 reaches a lower right corner of the image. A similarity degree of an area overlapping the header model TP1 at a position after each shift is stored as an evaluation of the area, resulting in an evaluation record (not shown) for the header model TP1.
Im Allgemeinen erscheint ein Fußgänger an einer relativ beabstandeten Distanz relativ klein in dem Bild. Um einen derartigen Fußgänger zu erfassen, der in dem Bild relativ klein erscheint, wie in 3B dargestellt ist, wird das Bild ferner unter Verwendung eines Kopfteilmodells TP2 mit reduzierter Größe auf ähnliche Weise wie vorstehend beschrieben abgetastet, wobei ein Ähnlichkeitsgrad eines Bereichs, der das Kopfteilmodell TP2 einer Position nach jeder Verschiebung überlappt, als eine Bewertung des Bereichs gespeichert wird, was zu einer Bewertungsaufzeichnung (nicht dargestellt) für das Kopfteilmodell TP2 führt.In general, a pedestrian appears relatively small in the image at a relatively spaced distance. To detect such a pedestrian, which appears relatively small in the image, as in 3B Further, the image is scanned using a reduced-size header model TP2 in a similar manner as described above, wherein a similarity degree of a region overlapping the header model TP2 of a position after each shift is stored as an evaluation of the region an evaluation record (not shown) for the header model TP2 leads.
In der vorliegenden Ausführungsform wird das Bild der Zweistufenbildabtastung unterworfen, wobei in der ersten Stufe das Bild unter Verwendung des Kopfteilmodells TP1 zum Erfassen eines Fußgängers bei einer relativ nahen Distanz zum Eigenfahrzeug abgetastet wird, und in der zweiten Stufe das Bild unter Verwendung des Kopfteilmodells TP2, das kleiner als das Kopfteilmodell TP1 ist, abgetastet wird, um einen Fußgänger bei einem relativ großen Abstand zum Eigenfahrzeug zu erfassen. In der Praxis können Bildabtastungen mit drei oder mehr Stufen eingesetzt werden, um Fußgänger bei unterschiedlichen Distanzen zum Eigenfahrzeug zu erfassen. Darüber hinaus ist es in einer derartigen mehrstufigen Bildabtastung möglich, nur Detailmodelle in ihrer Größe zu verändern, während die Größe des Bilds unverändert bleib, oder nur das Bild kann in seiner Größe zu verändern, während die Größe des Teilmodells unverändert bleibt.In the present embodiment, the image is subjected to the two-level image scanning, wherein in the first stage the image is scanned using the headboard model TP1 for detecting a pedestrian at a relatively close distance to the own vehicle, and in the second stage the image is scanned using the headboard model TP2, which is smaller than the header model TP1 is scanned to detect a pedestrian at a relatively large distance to the own vehicle. In practice, image scans with three or more levels can be used to detect pedestrians at different distances to the subject vehicle. Moreover, in such a multi-level image scan, it is possible to resize only detail models while keeping the size of the image unchanged, or only to resize the image while leaving the size of the submodel unchanged.
Nach Erzeugen einer derartigen Bewertungsaufzeichnung werden hochbewertete Bereiche mit einer Bewertung, die größer als ein vorbestimmter Grenzwert ist, aus dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert. Beispielsweise, wie in 3C dargestellt ist, werden die hochbewerteten Bereiche TC und die hochbewerteten Bereiche TT aus dem Bild extrahiert, wobei jeder hochbewertete Bereich TC ein hochbewerteter Bereich ist, der durch Abtasten des Bildes mit dem Kopfteilmodell TP1 extrahiert wird, und jeder hochbewertete Bereich TT ein hochbewerteter Bereich ist, der durch Abtasten des Bildes mit dem Kopfteilmodell TP2 extrahiert wird.After generating such an evaluation record, high-valued regions having a rating greater than a predetermined threshold are extracted from the image with respect to the evaluation record. For example, as in 3C is shown, the high-valued regions TC and the high-valued regions TT are extracted from the image, each high-valued region TC is a high-valued region extracted by scanning the image with the header model TP1, and each high-valued region TT is a high-valued region, which is extracted by scanning the image with the header model TP2.
In der vorliegenden Ausführungsform wird das Bild ferner unter Verwendung der anderen Teilmodelle abgetastet, das heißt, des Armteilmodells, des Hüftenteilmodells und des Beinteilmodells. Hochbewertete Bereiche für jedes dieser Teilmodelle werden auf ähnliche Weise wie in 3C dargestellt ebenso aus dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert.In the present embodiment, the image is further scanned using the other part models, that is, the arm part model, the hip part model, and the leg part model. Highly valued ranges for each of these submodels are used in a similar way as in 3C also extracted from the image with respect to the evaluation record.
Jetzt wird ein Beispiel zum Festlegen der Grenzwerte zum Extrahieren der hochbewerteten Bereiche für die Teilmodelle erläutert. Wie in 4A dargestellt ist, tauchen zwei Menschen J1 und J2 in dem Bild auf, wobei jeweils einer der Arme und eines der Beine der Hintergrundperson J1 teilweise hinter einem der Arme und einem der Beine der Vordergrundperson J2 verdeck ist. Im Licht der Tatsache, dass in der vorliegenden Ausführungsform einige der spezifischen Teile weniger sichtbar als die anderen Teile sind, wie in 4B dargestellt ist, werden vorbestimmte Grenzwerte zum Extrahieren weniger sichtbarer Teile wie der Arme L1 und L2 und der Beine N1 und N2 kleiner festgelegt als vorbestimmte Grenzwerte zum Extrahieren besser sichtbarer Teile wie beispielsweise des Kopfs K und der Hüfte M.Now, an example of setting the limits for extracting the high-valued ranges for the sub-models will be explained. As in 4A 2, two people J1 and J2 appear in the image, with one of the arms and one of the legs of the background person J1 partially hidden behind one of the arms and one of the legs of the foreground person J2. In the light of the fact that in the present embodiment, some of the specific parts are less visible than the other parts, as in FIG 4B 3, predetermined limits for extracting less visible portions such as arms L1 and L2 and legs N1 and N2 are set smaller than predetermined limits for extracting more visible portions such as the head K and the hip M.
Gemäß 2 werden bei Schritt S130 Teilgruppenregionen von dem Bild extrahiert, wobei die hochbewerteten Bereiche, die bei Schritt S120 extrahiert werden, in die Teilgruppenregionen gruppiert werden.According to 2 At step S130, partial group regions are extracted from the image, and the high-valued regions extracted at step S120 are grouped into the divided-group regions.
Insbesondere, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT durch Abstände zwischen den hochbewerteten Bereichen TC und TT und Größen der hochbewerteten Bereiche TC und TT in die Teilgruppenregionen gruppiert. Ein entfernterer Fußgänger (kleinere Distanz) und ein näherer Fußgänger (größere Distanz) können eindeutig aus dem Bild unter Verwendung der Größen der hochbewerteten Bereiche TT und TC extrahiert werden, was zur verbesserter Extrahierungsgenauigkeit führt. 5A zeigt eine Teilgruppenregion G1, die die hochbewerteten Bereiche TC zusammen gruppiert und eine Teilgruppenregion G2, die die hochbewerteten Bereiche TT zusammen gruppiert. Der Ausdruck „Distanz” bzw. „Abstand”, bezieht sich auf eine zweidimensionale (2D) Distanz in dem Bild oder eine dreidimensionale (3D) Distanz in einem wirklichen Raum.In particular, as in 5A is shown, the high-scoring areas TC and TT are grouped into the sub-group regions by distances between the high-scoring areas TC and TT and sizes of the high-scoring areas TC and TT. A more distant pedestrian (smaller distance) and a closer pedestrian (larger distance) can be uniquely extracted from the image using the sizes of the high-valued areas TT and TC, resulting in the improved extraction accuracy. 5A Fig. 15 shows a subgroup region G1 grouping together the high-ranking regions TC and a subgroup region G2 grouping the high-valued regions TT together. The term "distance" refers to a two-dimensional (2D) distance in the image or a three-dimensional (3D) distance in a real space.
Wie in 5B dargestellt ist, können die Teilgruppenregionen basierend nur auf Distanzen zwischen den hochbewerteten Bereichen TC und TT extrahiert werden, was vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann. Alternativ können die Teilgruppenregionen basierend nur auf Größen der hochbewerteten Bereiche TC und TT extrahiert werden, was ebenso vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann.As in 5B 1, the subgroup regions may be extracted based only on distances between the high-valued regions TC and TT, which may advantageously result in relatively simpler extraction processing. Alternatively, the subgroup regions may be based are only extracted to sizes of the high-valued regions TC and TT, which can also advantageously lead to a relatively simpler extraction processing.
Darüber hinaus können die Teilgruppenregionen aus dem Bild auf der Basis ihrer Dichten von hochbewerteten Bereichen extrahiert werden. Dies kann dazu führen, dass eine Teilgruppenregion, die eine relativ niedrige Dichte aufweist, fehlerhaft erfasst wird. Insbesondere, wie in 5C dargestellt ist, werden die hochbewerteten Bereiche TC, die im Schritt S120 extrahiert werden, in zwei Teilgruppenregionen G4 und G5 durch Distanzen zwischen den hochbewerteten Bereichen TT gruppiert. Für jede der Teilgruppenregionen G4 und G5 wird eine Dichte von hochbewerteten Bereichen der Teilgruppenregion durch Teilen der Anzahl von beinhalteten hochbewerteten Bereichen TT durch einen Bereich bzw. eine Fläche der Teilgruppenregion berechnet. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion größer als ein vorbestimmter Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion qualifiziert. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert.In addition, the subgroup regions can be extracted from the image based on their densities from highly valued regions. This can cause a subgroup region that has a relatively low density to be detected incorrectly. In particular, as in 5C is shown, the high-valued areas TC extracted in step S120 are grouped into two subgroup regions G4 and G5 by distances between the high-valued areas TT. For each of the sub-group regions G4 and G5, a density of high-valued regions of the sub-group region is calculated by dividing the number of included high-valued regions TT by an area of the sub-group region. When the density of high-scoring regions of the subgroup region is greater than a predetermined threshold, the subgroup region is qualified as a subgroup region. When the density of high-scoring regions of the subgroup region is equal to or smaller than the predetermined threshold, the subgroup region is disqualified as a subgroup region.
Die Teilgruppenregionen können aus dem Bild auf der Basis ihrer Gesamtbewertungen zusätzlich oder anstatt der Dichten von hochbewerteten Bereichen der Teilgruppenregionen extrahiert werden. Dies kann vermeiden, dass eine Teilgruppenregion mit einer relativ niedrigen Gesamtbewertung fehlerhaft erfasst wird. Insbesondere, wie in 5C dargestellt ist, werden die hochbewerteten Bereiche TT, die in Schritt S120 extrahiert werden, in die Teilgruppenregionen G4 und G5 durch Distanzen zwischen den hochbewerteten Bereichen TT gruppiert. Für jede der Teilgruppenregionen G4 und G5 wird eine Gesamtbewertung der Teilgruppenregion durch Aufsummieren der Bewertungen der darin jeweils beinhalteten hochbewerteten Bereiche TT berechnet. Wenn die Gesamtbewertung der Teilgruppenregion größer als ein vorbestimmter Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion qualifiziert. Wenn die Gesamtbewertung der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert.The subgroup regions may be extracted from the image based on their overall scores, in addition to or instead of the densities of high scoring regions of the subgroup regions. This can prevent a subgroup region with a relatively low overall score from being detected incorrectly. In particular, as in 5C is shown, the high-valued areas TT extracted in step S120 are grouped into the subgroup regions G4 and G5 by distances between the high-valued areas TT. For each of the subgroup regions G4 and G5, an overall score of the subgroup region is calculated by summing up the scores of the high scoring areas TT included therein. If the overall score of the subgroup region is greater than a predetermined threshold, the subgroup region is qualified as a subgroup region. If the overall score of the subset region is equal to or less than the predetermined limit, the subset region is disqualified as a subset region.
Gemäß 2 werden bei Schritt S140 Teilgruppenregionen aus dem Bild extrahiert, wobei jede Teilgruppenregion in der vorliegenden Ausführungsform eine rechteckig umschriebene Region ist, die die Teilgruppenregionen, die in Schritt S130 extrahiert werden, die nahe zueinander sind, beinhalten. Eine Distanz zwischen einem Paar aus Teilgruppenregionen kann eine minimale Distanz zwischen Grenzen der jeweiligen Teilgruppenregionen sein, eine Distanz zwischen Mittelpunkten der jeweiligen Teilgruppenregionen oder eine Distanz zwischen Bewertungsmittelpunkten der jeweiligen Teilgruppenregionen. Ein Paar aus Teilgruppenregionen kann als nahe zueinander bestimmt werden, wenn die Distanz zwischen diesen unterhalb eines vorbestimmten Grenzwerts ist. 6 zeigt ein Beispiel einer Extrahierung einer Teilregion P, die zwei Teilgruppenregionen G6 und G7 beinhaltet.According to 2 In step S140, subgroup regions are extracted from the image, wherein each subgroup region in the present embodiment is a rectangular circumscribed region that includes the subgroup regions extracted in step S130 that are close to each other. A distance between a pair of sub-group regions may be a minimum distance between boundaries of the respective sub-group regions, a distance between centers of the respective sub-group regions, or a distance between evaluation centers of the respective sub-group regions. A pair of subgroup regions may be determined to be close to each other if the distance between them is below a predetermined threshold. 6 shows an example of an extraction of a partial region P, which includes two subgroup regions G6 and G7.
Anschließend wird bei Schritt S150 eine Bewertung jeder Teilregion, die in Schritt S140 extrahiert werden, berechnet. Insbesondere wird eine Bewertung jeder Teilregion durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen, die in der Teilregion beinhaltet sind, berechnet, wobei eine Bewertung jeder Teilgruppenregionen durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, berechnet wird. Beispielhaft wird in 6 eine Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in jeder der Teilgruppenregionen G1 und G2 beinhaltet sind, berechnet und dann wird eine Summe von Bewertungen der jeweiligen Teilgruppenregionen G1 und G2 berechnet, was in einer Bewertung der Teilregion P resultiert. Die Bewertung der Teilregion P kann somit auf eine derart relativ einfache Weise berechnet werden.Subsequently, at step S150, a score of each partial region extracted in step S140 is calculated. Specifically, a score of each subregion is calculated by summing up scores of the respective subgroup regions included in the subregion, wherein an score of each subgroup regions is calculated by summing up scores of the respective high scoring ranges included in the subgroup region. Example becomes in 6 A sum of scores of the respective high-scoring regions included in each of the sub-group regions G1 and G2 is calculated, and then a sum of scores of the respective sub-group regions G1 and G2 is calculated, resulting in an evaluation of the sub-region P. The evaluation of the subregion P can thus be calculated in such a relatively simple manner.
Für jede Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der entsprechenden hochbewerteten Bereiche berechnet werden, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis einer räumlichen Nähe (die Lage betreffende Nähe) zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die räumliche Nähe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch eine Inverse einer Summe absoluter Positionsunterschiede zwischen den hochbewerteten Bereichen berechnet werden, wobei die Position jedes hochbewerteten Bereichs eine Mitte oder eine obere linke Position davon sein kann. Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein.For each of the subgroup regions G1 and G2, the score of the subgroup region may be calculated not only based on the scores of the corresponding high scoring areas included in the subgroup region, but also on the proximity (proximity) between the high scoring areas that are included in the subgroup region. In particular, as in a lower part of 6 3, the spatial proximity between the high-scoring regions of each subgroup region may be calculated by an inverse of a sum of absolute positional differences between the high scoring regions, where the position of each high scoring region may be a middle or upper left position thereof. The score of each of the subgroup regions G1 and G2 may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region.
Für jede der Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche berechnet werden, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis auf einer Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, zusätzlich oder anstatt der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch eine Inverse einer Summe absoluter Differenzen der Größen zwischen den hochbewerteten Bereichen definiert werden, wobei die Größe S jedes hochbewerteten Bereichs eine Länge oder eine Breite davon sein kann (angenommen, dass jeder hochbewertete Bereich rechtwinkelig oder quadratisch ist). Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe aus Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein (und in einigen Ausführungsformen der räumlichen Nähe zwischen den hochbewerteten Bereichen und der Teilgruppenregion).For each of the subgroup regions G1 and G2, the score of the subgroup region may be calculated not only based on the scores of the respective high scoring regions included in the subgroup region, but also based on a similarity in size between the high scoring scopes described in of the Subgroup region is included, in addition to or instead of the spatial proximity between the high-valued areas that are included in the subgroup region. In particular, as in a lower part of 6 2, the similarity in size between the high-valued regions of each subgroup region may be defined by an inverse of a sum of absolute differences in sizes between the high-valued regions, where the size S of each high-valued region may be a length or a width thereof (assuming that each highly valued area is rectangular or square). The score of each of the subgroup regions G1 and G2 may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the similarity in size between the high scoring areas in the subgroup region (and in some embodiments the spatial proximity between the highly valued areas and the subgroup region).
Für jede der Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, sondern ebenso basierend auf der Dichte von hochbewerteten Bereichen der Teilgruppenregion, wie vorstehend beschrieben ist, zusätzlich oder anstatt der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, und/oder der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, berechnet werden. Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Dichte von hochbewerteten Bereichen (und in manchen Ausführungsformen der räumlichen Nähe zwischen den hochbewerteten Bereichen der Teilgruppenregion und/oder der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion) gegeben sein.For each of the subgroup regions G1 and G2, the evaluation of the subgroup region may be based not only on the scores of the respective high scoring regions included in the subgroup region, but also based on the density of high scoring regions of the subgroup region as described above instead of the similarity in size between the high-valued regions included in the subgroup region and / or the spatial proximity between the high-valued regions included in the subgroup region, are calculated. The score of each of the subgroup regions G1 and G2 may be represented by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the density of high scoring areas (and in some embodiments, the spatial proximity between the high scoring areas of the subgroup region and / or the Similarity in size between the highly valued areas in the subgroup region).
Anschließend werden bei S160 Fußgänger durch Extrahieren von Fußgängerregionen, von denen in jeder mindestens ein Fußgänger anwesend ist, auf der Basis der Teilregionen, die bei S140 extrahiert werden, erfasst. Wissen über Typen von Teilmodellen, die verwendet werden, um die Teilregionen zu extrahieren, und Größen der hochbewerteten Bereiche, die in jeder Teilregion beinhaltet sind, ermöglicht, dass die Fußgängerregionen aus dem Bild extrahiert werden.Subsequently, at S160, pedestrians are detected by extracting pedestrian regions each of which has at least one pedestrian present based on the partial regions extracted at S140. Knowledge of types of submodels used to extract the subregions and sizes of the high scoring areas included in each subregion allows the pedestrian regions to be extracted from the image.
Insbesondere kann gemäß 7A davon ausgegangen werden, dass ein Fußgängerkörperabschnitt unterhalb einer Teilregion P existiert, die in Schritt S140 extrahiert wird. Eine Größe des Fußgängerkörperabschnitts kann aus den Größen der jeweiligen hochbewerteten Bereiche geschätzt werden, die in der Teilregion P beinhaltet sind, was ermöglicht, dass die Fußgängerregion S geschätzt wird. Wenn die Bewertung der Teilregion P gleich oder kleiner als ein vorbestimmter Grenzwert ist, wird die Fußgängerregion S als eine Fußgängerregion disqualifiziert.In particular, according to 7A It can be assumed that a pedestrian body section exists below a partial region P which is extracted in step S140. A size of the pedestrian body portion can be estimated from the sizes of the respective high-valued areas included in the partial region P, allowing the pedestrian region S to be estimated. When the score of the partial region P is equal to or smaller than a predetermined threshold, the pedestrian region S is disqualified as a pedestrian region.
Insbesondere, wie in 7B dargestellt ist, werden die Fußgängerregionen auf der Basis relativer Positionen von zwei Teilregionen P1 und P3, die unter Verwendung des Kopfteilmodells extrahiert werden, und einer Teilregion P2 erfasst, die unter Verwendung des Beinteilmodells extrahiert wird. Beispielsweise, wenn die hochbewerteten Bereiche, die in der Teilregion P1 beinhaltet sind, und die hochbewerteten Bereiche, die in der Teilregion P2 beinhaltet sind, dieselbe Größe aufweisen, wird bestimmt, dass die Teilregionen P1 und P2 miteinander in Beziehung stehen. Das heißt, es wird davon ausgegangen, dass die Summen P1 und P2 entsprechend Köpfe und Beine von Fußgängern beinhalten, die zur selben Fußgängergruppe gehören. Die hochbewerteten Bereiche, die in der Teilregion P3 beinhaltet sind, unterscheiden sich jedoch bezüglich ihrer Größe von den hochbewerteten Bereichen in den Teilregionen P1 und P2. In der Abwesenheit einer Teilregion, die mit der Teilregion P3 verknüpft ist, kann bestimmt werden, dass die Teilregion P3 fehlerhaft erfasst wird.In particular, as in 7B 12, the pedestrian regions are detected on the basis of relative positions of two partial regions P1 and P3 extracted using the header model and a partial region P2 extracted using the leg partial model. For example, when the high-valued regions included in the partial region P1 and the high-valued regions included in the partial region P2 have the same size, it is determined that the partial regions P1 and P2 are related to each other. That is, it is assumed that the sums P1 and P2 respectively include heads and legs of pedestrians belonging to the same pedestrian group. However, the high-valued regions included in the partial region P3 differ in size from the high-valued regions in the partial regions P1 and P2. In the absence of a partial region associated with the partial region P3, it can be determined that the partial region P3 is erroneously detected.
Wie in 7C dargestellt ist, wird davon ausgegangen, dass die zwei Teilregionen P1 und P2 miteinander verknüpft sind. Eine rechtwinkelig umschriebene Region einschließlich zwei Fußgängerregionen S1 und S2, die aus den Teilregionen P1 beziehungsweise P2 geschätzt werden, wird als eine Fußgängerregion S3 geschätzt. Wenn eine Summe von Bewertungen der jeweiligen Teilregionen P1 und P2 oberhalb eines vorbestimmten Grenzwerts ist, wird die Fußgängerregion S3 als eine Fußgängerregion qualifiziert. Wenn die Summe von Bewertungen der entsprechenden Teilregionen P1 und P2 gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als Fußgängerregion disqualifiziert.As in 7C is illustrated, it is assumed that the two subregions P1 and P2 are linked together. A rectangular circumscribed region including two pedestrian regions S1 and S2 estimated from the partial regions P1 and P2, respectively, is estimated as a pedestrian region S3. When a sum of scores of the respective partial regions P1 and P2 is above a predetermined threshold, the pedestrian region S3 is qualified as a pedestrian region. When the sum of ratings of the respective partial regions P1 and P2 is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region.
Wie vorstehend beschrieben ist, weist der Teilmodellspeicherabschnitt (als Teilmodellspeichermittel) der Bildverarbeitungsvorrichtung 10 mehrere Teilmodelle auf, die in diesem gespeichert sind und von denen jedes ein entsprechendes der spezifischen Teile (Merkmale) des Fußgängers modelliert. Die spezifischen Teile in der vorliegenden Ausführungsform beinhalten einen Kopf K, eine Hüfte M, einen rechten und linken Arm L1 beziehungsweise L2 und ein rechtes und linkes Bein N1 beziehungsweise N2, wie in 4B dargestellt ist. Der Fußgängererfassungsabschnitt 51 (als Teilregionextrahierungsmittel und Objektregionschätzmittel) des Controllers 50 empfängt ein aufgenommenes Bild von der Bildaufnahmeeinheit 32 (in Schritt S110 von 2). Nachfolgend erzeugt der Fußgängererfassungsabschnitt 51 eine Bewertungsaufzeichnung unter Verwendung der Teilmodelle, die in dem Speicherabschnitt 61 gespeichert sind, und extrahiert für jedes Teilmodell die hochbewerteten Bereiche aus dem Bild mit Bezug auf die Bewertungsaufzeichnung (in Schritt S120). Danach extrahiert der Fußgängererfassungsabschnitt 51 die Teilgruppenregionen (in Schritt S130) und extrahiert die Teilregionen auf der Basis der Teilgruppenregionen (bei Schritt S140). Der Fußgängererfassungsabschnitt berechnet die Bewertungen der Teilregionen (bei Schritt S150) und schätzt die Fußgängerregionen, von denen in jeder mindestens ein Fußgänger (Fußgängergruppe) anwesend ist (bei Schritt S160).As described above, the partial model storage section (as partial model storage means) of the image processing apparatus 10 several sub-models stored therein and each of which models a corresponding one of the specific parts (features) of the pedestrian. The specific parts in the present embodiment include a head K, a hip M, right and left arms L1 and L2, and left and right legs N1 and N2, respectively, as shown in FIG 4B is shown. The pedestrian detection section 51 (when Partial region extracting means and object region estimating means) of the controller 50 receives a captured image from the image capture unit 32 (in step S110 of FIG 2 ). Subsequently, the pedestrian detection section generates 51 an evaluation record using the partial models stored in the memory section 61 are stored, and for each partial model, extract the high-valued regions from the image with respect to the evaluation record (in step S120). Afterwards, the pedestrian detection section extracts 51 the subgroup regions (in step S130) and extracts the subregions on the basis of the subgroup regions (in step S140). The pedestrian detecting section calculates the scores of the partial regions (at step S150), and estimates the pedestrian regions of which at least one pedestrian (pedestrian group) is present in each one (at step S160).
Der Fußgängererfassungsabschnitt 51 extrahiert die Teilregionen unter Verwendung der Teilmodelle für die jeweiligen Teile des Fußgängers und schätzt die Fußgängerregionen auf der Basis der Teilregionen. Beispielsweise, wenn nur eine Teilregion für Beine des Fußgängers vorliegt, wird eine Fußgängerregion aus der Teilregion für Beine geschätzt. Dies erlaubt, dass ein Fußgänger richtig in dem Bild erfasst wird.The pedestrian detection section 51 extracts the subregions using the submodels for the respective parts of the pedestrian and estimates the pedestrian regions based on the subregions. For example, if there is only a partial region for legs of the pedestrian, a pedestrian region from the leg partial region is estimated. This allows a pedestrian to be properly captured in the image.
In der vorliegenden Ausführungsform, wie in 3A dargestellt ist, verschiebt der Fußgängererfassungsabschnitt 51 das Kopfteilmodell TP1 aufeinanderfolgend mit vorbestimmten Intervallen in dem Bild und berechnet einen Ähnlichkeitsgrad (als eine Bewertung) eines Bereichs, der nach jeder Umwandlung das Kopfteilmodel TP1 überlappt, was zu einer Wertungsaufzeichnung (nicht dargestellt) führt das Kopfteilmodell TP1 führt. Der Fußgängererfassungsabschnitt 51 extrahiert die hochbewerteten Bereiche, die eine größere Bewertung als der vorbestimmte Grenzwert aufweisen (in Schritt S120). Anschließend extrahiert der Fußgängererfassungsabschnitt 51 die Teilregionen auf der Basis der hochbewerteten Bereiche.In the present embodiment, as in 3A is shown, moves the pedestrian detection section 51 the header model TP1 successively at predetermined intervals in the image and calculates a degree of similarity (as a rating) of an area overlapping the header model TP1 after each conversion resulting in a score record (not shown) resulting in the header model TP1. The pedestrian detection section 51 extracts the high-scoring areas having a rating greater than the predetermined threshold (in step S120). Subsequently, the pedestrian detection section extracts 51 the sub-regions based on the highly valued areas.
Im Lichte der Tatsache, dass in der vorliegenden Ausführungsform, wie in 4B dargestellt ist, einige der spezifischen Teile weniger sichtbar als die anderen Teile sind, werden die vorbestimmten Grenzwerte zum Extrahieren der Arme L1 und L2 und der Beine N1 und N2, die weniger sichtbare Teile sind, niedriger festgelegt als die vorbestimmten Grenzwerte zum Extrahieren des Kopfs und der Hüfte M, die sichtbarere Teile sind. Dies ermöglicht, dass jeder Teil richtig erfasst wird.In light of the fact that in the present embodiment, as in 4B 1, some of the specific parts are less visible than the other parts, the predetermined limits for extracting the arms L1 and L2 and the legs N1 and N2, which are less visible parts, are set lower than the predetermined limits for extracting the head and hip M, which are more visible parts. This allows each part to be detected correctly.
In der vorliegenden Ausführungsform werden die hochbewerteten Bereiche in die Teilgruppenregionen (bei Schritt S130 von 2) gruppiert und die Teilgruppenregionen werden aus dem Bild auf der Basis der Teilgruppenregionen extrahiert (bei Schritt S140). Dies erlaubt, dass jeder Teil verlässlich erfasst wird.In the present embodiment, the high-valued regions are divided into the divided-group regions (at step S130 of FIG 2 ) and the subgroup regions are extracted from the image based on the subgroup regions (at step S140). This allows each part to be reliably recorded.
Insbesondere, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT in die zwei Teilgruppenregionen durch Abstände zwischen den hochbewerteten Bereichen TC und TT und Größen der hochbewerteten Bereiche TC und TT gruppiert. Die Teilgruppenregionen werden aus dem Bild derart extrahiert, dass jede Teilgruppenregion die hochbewerteten Bereiche mit Abständen zwischen denselben beinhaltet, die gleich oder kleiner als der vorbestimmte Grenzwert sind, und die ähnliche Größen aufweisen. Dies ermöglich, dass ein Fußgänger, der weiter entfernt ist, und ein Fußgänger, der näher ist, eindeutig aus dem Bild extrahiert werden können, indem die Größen der hochbewerteten Bereiche TT und TC verwendet werden, was zu einer verbesserten Extrahierungsgenauigkeit führt.In particular, as in 5A is shown, the high-scoring regions TC and TT are grouped into the two sub-group regions by distances between the high-scoring regions TC and TT and sizes of the high-scoring regions TC and TT. The subgroup regions are extracted from the image such that each subgroup region includes the high-valued regions with distances therebetween equal to or smaller than the predetermined threshold and having similar magnitudes. This allows a pedestrian who is farther away and a pedestrian closer to be clearly extracted from the image by using the sizes of the high-valued areas TT and TC, resulting in improved extraction accuracy.
Ferner werden in der vorliegenden Ausführungsform Teilregionen, jede in der Form einer rechtwinkelig umschriebenen Region, die mindestens Teilgruppenregionen beinhaltet, aus dem Bild extrahiert (bei Schritt S140 von 2), was vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann.Further, in the present embodiment, partial regions, each in the form of a rectangular circumscribed region including at least partial-group regions, are extracted from the image (at step S140 of FIG 2 ), which can advantageously lead to relatively simpler extraction processing.
Jede Teilregion in der vorliegenden Ausführungsform ist eine rechtwinkelig umschriebene Region, die eine oder mehr Teilgruppenregionen beinhaltet, die nahe zueinander sind. 6 zeigt ein Beispiel einer Extrahierung einer Teilregion P, die zwei Teilgruppenregionen G6 und G7 beinhaltet. Die Teilregion P, die eine rechtwinkelig umschriebene Region ist, die zwei Teilgruppenregionen mit einem Abstand zwischen denselben, der gleich oder kleiner als der vorbestimmte Grenzwert ist, beinhaltet, wird extrahiert. Dies ermöglicht, dass die Teilgruppenregionen, von denen in jeder eine Fußgängergruppe anwesend ist, verlässlich extrahiert werden.Each sub-region in the present embodiment is a rectangular circumscribed region that includes one or more subgroup regions that are close to each other. 6 shows an example of an extraction of a partial region P, which includes two subgroup regions G6 and G7. The partial region P, which is a rectangular circumscribed region including two subgroup regions having a distance between them equal to or smaller than the predetermined threshold, is extracted. This allows the subgroup regions, of which there is a pedestrian group in each, to be reliably extracted.
In der vorliegenden Ausführungsform wird eine Bewertung jeder Teilregion durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen berechnet, die in der Teilregion beinhaltet sind (in Schritt S150 von 2), wobei eine Bewertung jeder Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche berechnet wird, die in der Teilgruppenregion beinhaltet sind. Beispielsweise wird in 6 eine Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in jeder der Teilgruppenregionen G1, G2 beinhaltet sind, berechnet und dann wird eine Summe von Bewertungen der jeweiligen Teilgruppenregionen G1 und G2 berechnet, was zu einer Bewertung der Teilgruppenregion P führt. Dies ermöglicht, dass eine Bewertung jeder Teilgruppenregion auf relativ einfache Weise berechnet werden kann.In the present embodiment, a score of each sub-region is calculated by summing up scores of the respective sub-group regions included in the sub-region (in step S150 of FIG 2 ), wherein a score of each subgroup region is calculated by summing up scores of the respective high scoring areas included in the subgroup region. For example, in 6 A sum of scores of the respective high-scoring regions included in each of the sub-group regions G1, G2 is calculated, and then a sum of scores of the respective sub-group regions G1 and G2 is calculated, resulting in an evaluation of the sub-group region P. This allows a score of each subgroup region to be calculated in a relatively simple manner.
Ferner kann in der vorliegenden Ausführungsform, wie in 7A dargestellt ist, davon ausgegangen werden, dass ein Fußgängerkörperabschnitt unterhalb einer Teilregion P existiert, die unter Verwendung des Kopfteilmodells extrahiert wird. Eine Größe des Fußgängerkörperabschnitts kann aus den Größen der jeweiligen hochbewerteten Bereiche geschätzt werden, die in der Teilregion P beinhaltet sind, was ermöglicht, dass die Fußgängerregion S geschätzt wird. Wenn die Bewertung der Teilregion P gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion S als eine Fußgängerregion disqualifiziert. Further, in the present embodiment, as in FIG 7A 4, assume that a pedestrian body portion exists below a partial region P extracted using the header model. A size of the pedestrian body portion can be estimated from the sizes of the respective high-valued areas included in the partial region P, allowing the pedestrian region S to be estimated. When the score of the partial region P is equal to or smaller than the predetermined threshold, the pedestrian region S is disqualified as a pedestrian region.
Wie in 7B dargestellt ist, werden Fußgängerregionen auf der Basis relativer Positionen von zwei Teilregionen P1 und P3, die unter Verwendung des Kopfteilmodells extrahiert werden, und einer Teilregion P2 erfasst, die unter Verwendung des Beinteilmodells extrahiert wird. Beispielsweise, wenn die hochbewerteten Bereiche, die in der Teilregion P1 beinhaltet sind, und die hochbewerteten Bereiche, die in der Teilregion P2 beinhaltet sind, dieselbe Größe aufweisen, wird bestimmt, dass die Teilregionen P1 und P2 miteinander verknüpft sind. Das heißt, es wird davon ausgegangen, dass die Teilregionen P1 und P2 Köpfe beziehungsweise Beine von Fußgängern beinhalten, die zur selben Fußgängergruppe gehören. Die hochbewerteten Bereiche, die in der Teilregion P3 beinhaltet sind, unterscheiden sich jedoch in ihrer Größe von den hochbewerteten Bereichen in den Teilregionen P1 und P2. Da keine Teilregion existiert, die mit der Teilregion P3 verknüpft ist, wird bestimmt, dass die Teilregion P3 fehlerhaft erfasst wurde.As in 7B 4, pedestrian regions are detected on the basis of relative positions of two partial regions P1 and P3 extracted using the header model and a partial region P2 extracted using the leg partial model. For example, when the high-valued regions included in the partial region P1 and the high-valued regions included in the partial region P2 have the same size, it is determined that the partial regions P1 and P2 are linked with each other. That is, it is assumed that the partial regions P1 and P2 include heads or legs of pedestrians belonging to the same pedestrian group. However, the high-valued regions included in the partial region P3 differ in size from the high-valued regions in the partial regions P1 and P2. Since there is no subregion associated with the subregion P3, it is determined that the subregion P3 was detected erroneously.
Gemäß 7C wird in der vorliegenden Ausführungsform davon ausgegangen, dass die zwei Teilregionen P1 und P2 miteinander verknüpft sind. Eine Fußgängerregion S3 in der Form einer rechtwinkelig umschriebenen Region einschließlich Fußgängerregionen S1 und S2, die aus den Teilregionen P1 beziehungsweise P2 geschätzt werden, wird geschätzt. Die Fußgängerregion in der Form einer rechtwinkelig umschriebenen Region einschließlich der Teilregionen, die miteinander verknüpft sind, erlaubt, dass die Fußgängerregion richtig geschätzt wird.According to 7C In the present embodiment, it is assumed that the two partial regions P1 and P2 are linked together. A pedestrian region S3 in the form of a rectangular circumscribed region including pedestrian regions S1 and S2 estimated from the partial regions P1 and P2, respectively, is estimated. The pedestrian area in the form of a rectangular region, including the subregions that are linked together, allows the pedestrian area to be properly appreciated.
Wenn eine Summe von Bewertungen der jeweiligen Teilregionen, die in der Fußgängerregion beinhaltet sind, gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert. Das heißt, die Bewertung der Fußgängerregion wird auf der Basis der Teilregionen darin berechnet, und wenn die Bewertung der Fußgängerregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert.When a sum of scores of the respective subregions included in the pedestrian region is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region. That is, the pedestrian region score is calculated based on the partial regions therein, and when the pedestrian region score is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region.
Ferner, wenn in der vorliegenden Ausführungsform die Fußgängerregion als eine Fußgängerregion geschätzt und qualifiziert wird, bestimmt der Kollisionsrisikobestimmungsabschnitt 22 ein Kollisionsrisiko auf der Basis einer Distanz zwischen dem Eigenfahrzeug und dem Fußgänger, die von der Entfernungsmesseinheit 31 empfangen wird. In Antwort auf das Kollisionsrisiko stellt der Unterrichtungscontroller 70 der Fahrzeugsteuervorrichtung 20 den Fahrer mittels des Lautsprechers 41 eine Unterrichtung bereit und der Fahrzeugcontroller bewirkt Kollisionsvermeidungssteuerung unter Verwendung der Bremse 42 und des Lenkrads 43, was sichere Fahrunterstützung bereitstellt.Further, in the present embodiment, when the pedestrian region is estimated and qualified as a pedestrian region, the collision risk determination section determines 22 a collision risk based on a distance between the own vehicle and the pedestrian, by the distance measuring unit 31 Will be received. In response to the risk of collision, the information controller provides 70 the vehicle control device 20 the driver by means of the loudspeaker 41 a notification ready and the vehicle controller causes collision avoidance control using the brake 42 and the steering wheel 43 , which provides safe driving support.
(Modifikationen)(Modifications)
Nachfolgend werden Modifikationen der vorstehend erläuterten Ausführungsform erläutert, die angewandt werden können, ohne den Geist und den Umfang der vorliegenden Erfindung zu verlassen.
- (i) In der vorstehend erläuterten Ausführungsform sind, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT in Teilgruppenregionen durch Distanzen dazwischen und Größen davon gruppiert.
- (i-1) Alternativ, wie in 5B dargestellt ist, können die hochbewerteten Bereiche TC, TT in Teilgruppenregionen durch Distanzen, zwischen diesen gruppiert werden. Das heißt, die Teilgruppenregionen können von dem Bild so extrahiert werden, dass sie die hochbewerteten Bereiche beinhalten, die Distanzen zwischen denselben aufweisen, die gleich oder kleiner als der vorbestimmte Grenzwert sind. Dies kann vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen.
- (i-2) Darüber hinaus, wie in 5C dargestellt ist, wird für jede der Teilgruppenregionen G4, G5 eine Dichte von hochbewerteten Bereichen der Teilgruppenregion durch Teilen der Anzahl der hochbewerteten Bereiche TT, die darin beinhaltet sind, durch den Bereich bzw. die Fläche der Teilgruppenregion berechnet. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion größer als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion qualifiziert werden. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion disqualifiziert werden. Dies kann ebenso ein Risiko fehlerhafter Erfassung reduzieren, was ermöglicht, dass die Teilgruppenregionen verlässlich erfasst werden.
- (i-3) Alternativ, wie in 5C dargestellt ist, wird für jede der Teilgruppenregionen G4, G5 eine Gesamtbewertung der Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche TT, die darin beinhaltet sind, berechnet. Wenn die Gesamtbewertung der Teilgruppenregion größer als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion qualifiziert werden. Wenn die Gesamtbewertung der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert sein kann, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert. Dies kann ebenso ein Risiko fehlerhafter Erfassung verringern, was ermöglicht, dass die Teilgruppenregionen verlässlich erfasst werden.
- (ii) In der vorstehend erläuterten Ausführungsform wird eine Bewertung jeder Teilregionen durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen berechnet, die in der Teilregion beinhaltet sind (in bzw. bei Schritt S150), wobei eine Bewertung jeder Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche berechnet wird, die in der Teilgruppenregion beinhaltet sind.
- (ii-1) Für jede Teilgruppenregion kann die Bewertung der Teilgruppenregion durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und die räumliche Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die räumliche Nähe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion als eine Inverse einer Summe von absoluten Differenzen der Position zwischen den hochbewerteten Bereichen sein, wobei die Position p jedes hochbewerteten Bereichs eine mittlere oder obere linke Position davon sein kann. Die Bewertung jeder Teilgruppenregion kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein.
- (ii-2) Für jede Teilgruppenregion kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis einer Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, zusätzlich oder anstatt der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, berechnet werden. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch ein Inverse einer Summe von absoluten Differenzen der Größe zwischen den hochbewerteten Bereichen definiert werden. Die Bewertung jeder Teilgruppenregion kann durch ein Produkt oder eine Summe der Summe der Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Nähe der Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion (und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion in einigen Ausführungsformen) gegeben sein.
- (iii) In der vorstehend beschriebenen Ausführungsform, wenn die Summe der Bewertungen der jeweiligen Teilregionen, die in der Fußgängerregion beinhaltet sind, gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert. Alternativ kann, vor dem Extrahieren der Fußgängerregion, wenn die Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilregion beinhaltet sind, gleich oder kleiner als ein vorbestimmter Grenzwert ist, die Teilregion als eine Teilregion disqualifiziert werden. Eine relativ unverlässliche Teilregion kann somit verworfen werden, was ermöglicht, dass die Fußgängerregion richtiger aus dem Bild extrahiert wird.
- (iv) In der vorstehend erläuterten Ausführungsform wird ein Kollisionsrisiko als eine Funktion einer Distanz zwischen dem Eigenfahrzeug und dem Fußgänger bestimmt, die von der Entfernungsmesseinheit 31 empfangen wird. Alternativ kann ein Kollisionsrisiko unter Verwendung einer Position und/oder einer Größe und/oder einer Bewertung der Fußgängerregion zusätzlich oder anstatt der Distanz zwischen dem Eigenfahrzeug und dem Fußgänger bestimmt werden.
- (v) In der vorstehend erläuterten Ausführungsform wird ein Abstand zwischen dem Eigenfahrzeug und dem Fußgänger durch die Entfernungsmesseinheit 31 gemessen. Alternativ kann die Distanz zwischen dem Eigenfahrzeug und dem Fußgänger auf der Basis der Bildinformation von der Bildaufnahmeeinheit 32 bestimmt werden, wobei die Entfernungsmesseinheit 31 entfernt werden kann. Die Entfernungsmesseinheit ermöglicht, dass die Distanz zwischen dem Eigenfahrzeug und dem Fußgänger genau gemessen wird.
Hereinafter, modifications of the above-explained embodiment which can be applied without departing from the spirit and scope of the present invention will be explained. - (i) In the embodiment explained above, as in FIG 5A is shown, the high-scoring areas TC and TT are grouped into subgroup regions by distances therebetween and sizes thereof.
- (i-1) Alternatively, as in 5B is shown, the high-valued areas TC, TT can be grouped into subgroup regions by distances between them. That is, the subgroup regions may be extracted from the image to include the high-valued regions having distances therebetween equal to or less than the predetermined threshold. This can advantageously lead to a relatively simpler extraction processing.
- (i-2) In addition, as in 5C is shown, for each of the sub-group regions G4, G5, a density of high-valued regions of the subgroup region is calculated by dividing the number of the high-valued regions TT included therein by the region of the subgroup region. If the density of high-scoring regions of the subgroup region is greater than the predetermined threshold, the subgroup region may be qualified as a subgroup region. When the density of high-scoring regions of the subgroup region is equal to or smaller than the predetermined threshold, the subgroup region may be disqualified as a subgroup region. This may also reduce a risk of erroneous capture, allowing the subgroup regions to be reliably captured.
- (i-3) Alternatively, as in 5C is shown, for each of the sub-group regions G4, G5, an overall score of the sub-group region is accumulated by adding up scores of the respective high-scoring areas TT included therein are calculated. If the overall score of the subgroup region is greater than the predetermined threshold, then the subgroup region may be qualified as a subgroup region. If the overall score of the subgroup region may be equal to or less than the predetermined threshold, the subgroup region is disqualified as a subgroup region. This can also reduce a risk of erroneous capture, allowing the subgroup regions to be reliably captured.
- (ii) In the embodiment explained above, an evaluation of each subregions is calculated by summing up scores of the respective subgroup regions included in the subregion (in step S150), evaluating each subgroup region by summing up scores of the respective high scoring regions is calculated, which are included in the subgroup region.
- (ii-1) For each subgroup region, the subgroup region score may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region. In particular, as in a lower part of 6 3, the spatial proximity between the high-scoring regions of each subgroup region may be an inverse of a sum of absolute differences of the position between the high scoring regions, where the position p of each high scoring region may be a middle or upper left position thereof. The score of each subgroup region may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region.
- (ii-2) For each subgroup region, the rating of the subgroup region may be based not only on the scores of the respective high scoring regions included in the subgroup region, but also on similarity in size between the high scoring regions included in the subgroup region are included, in addition to or instead of the spatial proximity between the high-scoring areas included in the subgroup region. In particular, as in a lower part of 6 2, the similarity in size between the high-valued regions of each subgroup region may be defined by an inverse of a sum of absolute differences in size between the high-valued regions. The score of each subgroup region may be a product or a sum of the sum of the scores of the respective high scoring areas in the subgroup region and the proximity of the size between the high scoring areas in the subgroup region (and the spatial proximity between the high scoring areas in the subgroup region in some embodiments). be given.
- (iii) In the above-described embodiment, when the sum of the scores of the respective subregions included in the pedestrian region is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region. Alternatively, before extracting the pedestrian region, if the sum of scores of the respective high-scoring regions included in the sub-region is equal to or smaller than a predetermined limit, the sub-region may be disqualified as a sub-region. A relatively unreliable subregion can thus be discarded, allowing the pedestrian region to be more properly extracted from the image.
- (iv) In the embodiment discussed above, a collision risk is determined as a function of a distance between the host vehicle and the pedestrian being traveled by the ranging unit 31 Will be received. Alternatively, a collision risk may be determined using a position and / or size and / or rating of the pedestrian region in addition to or instead of the distance between the subject vehicle and the pedestrian.
- (v) In the embodiment explained above, a distance between the own vehicle and the pedestrian by the distance measuring unit 31 measured. Alternatively, the distance between the own vehicle and the pedestrian may be determined based on the image information from the image pickup unit 32 be determined, wherein the distance measuring unit 31 can be removed. The distance measuring unit enables the distance between the own vehicle and the pedestrian to be accurately measured.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
-
JP 2008-21034 [0004, 0005] JP 2008-21034 [0004, 0005]