[go: up one dir, main page]

DE102013203300A1 - Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions - Google Patents

Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions Download PDF

Info

Publication number
DE102013203300A1
DE102013203300A1 DE201310203300 DE102013203300A DE102013203300A1 DE 102013203300 A1 DE102013203300 A1 DE 102013203300A1 DE 201310203300 DE201310203300 DE 201310203300 DE 102013203300 A DE102013203300 A DE 102013203300A DE 102013203300 A1 DE102013203300 A1 DE 102013203300A1
Authority
DE
Germany
Prior art keywords
region
regions
subgroup
sub
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE201310203300
Other languages
German (de)
Inventor
Utsushi Sakai
Takayuki Miyahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of DE102013203300A1 publication Critical patent/DE102013203300A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The apparatus (10) has a sub-model storing unit (61) for storing multiple models, each provided with corresponding parts of an object. A partial region extracting unit (51) extracts sub-regions for corresponding parts of an object from an image using corresponding sub-models, which are stored in the sub-model storing unit. An object region estimating unit estimates an object region in which the object is present on the basis of the partial regions extracted by the partial region extracting unit. An independent claim is also included for a vehicle control system.

Description

HINTERGRUNDBACKGROUND

(Technisches Gebiet)(Technical field)

Die vorliegende Erfindung betrifft Verfahren zum Erfassen eines Fußgängers in einem Bild, das durch eine Fahrzeugkamera aufgenommen wird.The present invention relates to methods of detecting a pedestrian in an image captured by a vehicle camera.

(Stand der Technik)(State of the art)

Um eine Kollision mit einem Objekt zu vermeiden, das mit einer Fahrt eines Fahrzeugs interferiert, wurden Verfahren zum Erfassen eines Fußgängers in einem Bild vorgeschlagen, das durch eine Fahrzeugkamera aufgenommen wird. Die Verfahren beinhalten ein Verfahren zum Erfassen eines Fußgängers in einem aufgenommenen Bild, indem ein Objektdiskriminierungsverfahren, das auf neuralen Netzwerken basiert, unter Verwendung eines Fußgängerumrissmusters auf ein Objekt angewandt wird, das in dem Bild erfasst wird.In order to avoid a collision with an object interfering with a running of a vehicle, methods for detecting a pedestrian in an image taken by a vehicle camera have been proposed. The methods include a method of detecting a pedestrian in a captured image by applying an object discrimination method based on neural networks using an pedestrian outline pattern to an object captured in the image.

Jedoch kann bei einem derartigen Diskriminierungsverfahren ein Objekt, das ein dem Fußgängerumrissmuster ähnliches Umrissmuster aufweist, wie beispielsweise ein Baum oder dergleichen, inkorrekt als ein Fußgänger erfasst werden, was zu einer geringeren Genauigkeit beim Erfassen eines Fußgängers führen kann.However, in such a discrimination method, an object having an outline pattern similar to the pedestrian outline, such as a tree or the like, may be incorrectly detected as a pedestrian, which may result in lower accuracy in detecting a pedestrian.

Um einen derartigen Nachteil zu überwinden, führt ein bekanntes Verfahren, wie es in der japanischen Patentanmeldungsoffenlegung mit der Veröffentlichungsnummer 2008-21034 offenbart ist, einen Musterabgleich für jeden von spezifischen Teilen durch, die einen Fußgänger bilden, um einen Ähnlichkeitsgrad auszugeben, und bestimmt, ob oder nicht eine Summe von Ausgabewerten für die entsprechenden spezifischen Teile größer ist als ein vorbestimmter Grenzwert ist, um dadurch einen Fußgänger zu erfassen. Die spezifischen Teile des Fußgängers können einen Kopf, einen Körper, Arme und Beine beinhalten, sind jedoch nicht darauf beschränkt.To overcome such a disadvantage, a known method, as described in the Japanese Patent Application Laid-Open Publication No. 2008-21034 discloses pattern matching for each of specific parts constituting a pedestrian to output a degree of similarity, and determines whether or not a sum of output values for the respective specific parts is greater than a predetermined limit, thereby to make a pedestrian to capture. The specific parts of the pedestrian may include, but are not limited to, a head, a body, arms and legs.

Jedoch besteht der Nachteil des Verfahrens, das in der japanischen Patentanmeldungsoffenlegung mit der Veröffentlichungsnummer 2008-21034 offenbart ist, darin, dass ein Fußgänger hinter einem weiteren Fußgänger oder ein Fußgänger hinter einem Objekt (außer einem Fußgänger) möglicherweise nicht genau erfasst wird. In anderen Worten, wenn einige der spezifischen Teile wie beispielsweise ein Kopf, ein Körper, Hände, Beine oder dergleichen des Fußgängers in einem aufgenommenen Bild unsichtbar sind, nehmen Ausgabewerte für die unsichtbaren Teile ab, was zu einer Abnahme einer Summe von Ausgabewerten für die spezifischen Teile resultiert. Demzufolge kann eine Erfassung eines Fußgängers oder von Fußgängern basierend auf der Summe von Ausgabewerten für die spezifischen Teile fehlschlagen. Eine ähnliche Situation kann ebenso beim Erfassen eines Objekts (außer einem Fußgänger) in einem aufgenommenen Bild auftreten.However, there is the disadvantage of the method used in the Japanese Patent Application Laid-Open Publication No. 2008-21034 is disclosed in that a pedestrian behind another pedestrian or a pedestrian behind an object (other than a pedestrian) may not be detected accurately. In other words, when some of the specific parts such as a head, a body, hands, legs or the like of the pedestrian are invisible in a captured image, output values for the invisible parts decrease, resulting in a decrease in a sum of output values for the specific ones Parts results. As a result, detection of a pedestrian or pedestrians may fail based on the sum of output values for the specific parts. A similar situation may also occur when capturing an object (other than a pedestrian) in a captured image.

Hinsichtlich des Vorstehenden wäre es deshalb wünschenswert, eine Bildverarbeitungsvorrichtung und ein Fahrzeugsteuersystem, das dieselbe verwendet, zu haben, die ein Objekt verlässlich erfassen kann.In view of the foregoing, therefore, it would be desirable to have an image processing apparatus and vehicle control system using the same which can reliably detect an object.

ÜBERBLICK ÜBER DIE ERFINDUNGOVERVIEW OF THE INVENTION

Gemäß einem Ausführungsbeispiel der vorliegenden Erfindung wird eine Bildverarbeitungsvorrichtung zum Erfassen eines Objekts auf der Basis eines Bildes bereitgestellt, das durch eine Bildaufnahmeeinheit aufgenommen wird, die in einem Fahrzeug angebracht ist.According to an embodiment of the present invention, there is provided an image processing apparatus for detecting an object on the basis of an image captured by an image pickup unit mounted in a vehicle.

In der Vorrichtung weist ein Teilmodellspeichermittel mehrere Teilmodelle auf, die darin gespeichert sind und jeweils Teilen des Objekts entsprechen. Ist das Objekt ein Fußgänger, beinhalten die Teilmodelle ein Kopfteilmodell für einen Kopf, ein Armteilmodell für einen rechten/linken Arm, ein Hüftenteilmodell für eine Hüfte und ein Beinteilmodell für ein rechtes/linkes Bein, sind jedoch nicht darauf beschränkt. Ist das Objekt ein Fahrzeug, beinhalten die Teilmodelle ein Reifenteilmodell für einen Reifen, ein Rücklichtteilmodell für ein Rücklicht und ein Fensterteilmodell für ein Fenster, sind jedoch nicht darauf beschränkt.In the apparatus, a sub-model storing means has a plurality of sub-models stored therein and corresponding to parts of the object, respectively. If the object is a pedestrian, the submodels include, but are not limited to, a head head model, a left / right arm model, a hip hip model, and a right / left leg model. If the object is a vehicle, the submodels include, but are not limited to, a tire part model for a tire, a tail lamp sub model for a tail light, and a window sub model for a window.

Ein Teilregionextrahierungsmittel extrahiert Teilregionen für die entsprechenden Teile des Objekts aus dem Bild unter Verwendung der jeweils entsprechenden Teilmodelle, die in dem Teilspeichermittel gespeichert sind. Darüber hinaus schätzt ein Objektregionschätzmittel eine Objektregion, in dem das Objekt vorliegt, auf der Basis der Teilregionen, die durch das Teilregionextrahierungsmittel extrahiert werden.A partial region extracting means extracts partial regions for the corresponding parts of the object from the image using the respective respective partial models stored in the partial storage means. Moreover, an object region estimating means estimates an object region in which the object exists on the basis of the partial regions extracted by the partial region extracting means.

Mit dieser Konfiguration werden für jeden der Teile des Objekts die Teilregionen aus dem Bild unter Verwendung des entsprechenden Teilmodells extrahiert und die Objektregion wird auf der Basis der extrahierten Teilregionen geschätzt. Beispielsweise wird sogar, wenn nur die Teilregion für das rechte/linke Bein des Fußgängers von dem Bild unter Verwendung des Beinteilmodells extrahiert wird, die Fußgängerregion auf der Basis der Teilregion für das rechte/linke Bein geschätzt. Dies führt zu einer richtigen Erfassung des Objekts in dem Bild.With this configuration, for each of the parts of the object, the partial regions are extracted from the image using the corresponding partial model, and the object region is estimated on the basis of the extracted partial regions. For example, even if only the pedestrian right / left leg partial region is extracted from the image using the leg part model, the pedestrian region is estimated based on the right / left leg partial region. This leads to a correct capture of the object in the image.

KURZBESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Es zeigen:Show it:

1 ein schematisches Blockdiagramm eines Fahrzeugsteuersystems gemäß einer Ausführungsform der vorliegenden Erfindung; 1 a schematic block diagram of a vehicle control system according to an embodiment of the present invention;

2 ein Ablaufdiagramm einer Fußgängererfassungsverarbeitung; 2 a flowchart of a pedestrian detection processing;

3A ein Beispiel zum Extrahieren von hochbewerteten Bereichen durch Verwenden eines Teilmodells; 3A an example of extracting high-valued regions by using a partial model;

3B ein Beispiel zum Extrahieren von hochbewerteten Bereichen unter Verwendung eines Teilmodells mit reduzierter Größe; 3B an example of extracting high-valued regions using a reduced-size submodel;

3C hochbewertete Bereiche unterschiedlicher Größen; 3C highly valued areas of different sizes;

4A relative Positionen spezifischer Teile mehrerer Personen; 4A relative positions of specific parts of several persons;

4B ein Beispiel zum Festlegen eines Grenzwerts für Bewertungen in einer Bewertungsaufzeichnung für jeden von spezifischen Teilen eines Fußgängers; 4B an example for setting a threshold for ratings in a rating record for each of specific parts of a pedestrian;

5A ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände dazwischen und Größen davon; 5A an example of grouping high score areas into subgroup regions by distances therebetween and sizes thereof;

5B ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände zwischen denselben; 5B an example of grouping high scoring areas in subgroup regions by distances between them;

5C ein Beispiel zum Gruppieren von hochbewerteten Bereichen in Teilgruppenregionen durch Abstände zwischen denselben und Berechnen einer Dichte von hochbewerteten Bereichen von jeder Teilgruppenregion; 5C an example of grouping high score areas into subgroup regions by distances between them and calculating a density of high score areas of each subgroup region;

6 ein Beispiel zum Extrahieren einer Teilregion auf der Basis von Teilgruppenregionen und zum Berechnen einer Bewertung der Teilregion; 6 an example of extracting a sub-region based on sub-group regions and calculating an evaluation of the sub-region;

7A ein Beispiel zum Extrahieren einer Fußgängerregion auf der Basis einer Teilregion; 7A an example of extracting a pedestrian region based on a partial region;

7B ein Beispiel zum Verknüpfen unterschiedlicher Teilregionen miteinander; und 7B an example for linking different subregions together; and

7C ein Beispiel zum Schätzen einer Fußgängerregion auf der Basis von Teilregionen, die miteinander verknüpft sind. 7C an example of estimating a pedestrian region based on subregions that are linked together.

BESCHREIBUNG SPEZIFISCHER AUSFÜHRUNGSFORMENDESCRIPTION OF SPECIFIC EMBODIMENTS

Die vorliegenden Erfindungen werden nachfolgend vollständiger mit Bezug auf die Zeichnungen erläutert. Gleiche Bezugszeichen beziehen sich auf gleiche Elemente.The present inventions will be explained more fully hereinafter with reference to the drawings. Like reference numerals refer to like elements.

Ein Fahrzeugsteuersystem 1 der vorliegenden Ausführungsform ist mit einer Bildverarbeitungsvorrichtung 10 und einer Fahrzeugsteuervorrichtung 20 konfiguriert. Die Bildverarbeitungsvorrichtung 10 ist mit einer Entfernungsmessungseinheit 31 und einer Bildaufnahmeeinheit 32 verbunden. Die Fahrzeugsteuervorrichtung 20 ist mit einem Lautsprecher 41, einer Bremse 42 und einer Lenkung 43 verbunden.A vehicle control system 1 The present embodiment is provided with an image processing apparatus 10 and a vehicle control device 20 configured. The image processing device 10 is with a distance measuring unit 31 and an image capture unit 32 connected. The vehicle control device 20 is with a speaker 41 , a brake 42 and a steering 43 connected.

Die Bildverarbeitungsvorrichtung 10 und die Fahrzeugsteuervorrichtung 20 sind jeweils als ein Mikrocomputer konfiguriert. Die Bildverarbeitungsvorrichtung 10 erfasst einen Fußgänger in einem Bild, das von der Bildaufnahmeeinheit 3 empfangen wird, und bestimmt ein Kollisionsrisiko auf der Basis einer Abstandsinformation, die von der Entfernungsmessungseinheit 31 empfangen wird. Eine Fahrzeugsteuervorrichtung 20 stellt mittels des Lautsprechers 41 in Antwort auf das Kollisionsrisiko, das von der Bildverarbeitungsvorrichtung 10 empfangen wird, eine Unterrichtung bereit und/oder bewirkt in der Anwesenheit eines großen Dringlichkeitsgrads eine Vermeidungs- bzw. Ausweichsteuerung unter Verwendung der Bremse 42 und der Lenkung 43.The image processing device 10 and the vehicle control device 20 are each configured as a microcomputer. The image processing device 10 captures a pedestrian in an image taken by the image capture unit 3 is received, and determines a collision risk based on distance information provided by the ranging unit 31 Will be received. A vehicle control device 20 represents by means of the loudspeaker 41 in response to the risk of collision, that of the image processing device 10 a notification is provided and / or causes in the presence of a large degree of urgency, an avoidance control using the brake 42 and the steering 43 ,

Die Entfernungsmesseinheit 31 kann durch eine Laserradareinheit, eine Millimeterwellenradareinheit oder dergleichen ausgebildet sein. Die Entfernungsmesseinheit 31 erfasst eine Distanz zwischen einem Fahrzeug, in dem das Fahrzeugsteuersystem 1 angebracht ist (nachfolgend als das Eigenfahrzeug bezeichnet), und einem Objekt vor dem Eigenfahrzeug.The distance measuring unit 31 may be formed by a laser radar unit, a millimeter-wave radar unit or the like. The distance measuring unit 31 detects a distance between a vehicle in which the vehicle control system 1 is mounted (hereinafter referred to as the own vehicle), and an object in front of the own vehicle.

Die Bildaufnahmeeinheit 32 kann durch eine molekulare Kamera oder dergleichen ausgebildet sein. Die Bildaufnahmeeinheit 32 nimmt ein Bild vor dem Eigenfahrzeug auf. Die Bildverarbeitungsvorrichtung 10 erfasst einen Fußgänger in dem aufgenommenen Bild.The image capture unit 32 may be formed by a molecular camera or the like. The image capture unit 32 takes a picture in front of the own vehicle. The image processing device 10 captures a pedestrian in the captured image.

Der Lautsprecher 41 gibt eine Audiowarnnachricht wie beispielsweise „Fußgänger vor dem Fahrzeug” oder „Achtung!” oder dergleichen aus, wenn ein Risiko einer Kollision mit einem Fußgänger erhöht ist.The speaker 41 issues an audio warning message such as "pedestrian in front of the vehicle" or "attention!" or the like when a risk of collision with a pedestrian is increased.

Die Bremse 42 beinhaltet einen Bremstreiber zum Verzögern des Eigenfahrzeugs in Antwort auf ein Signal von der Fahrzeugsteuervorrichtung 20. Die Lenkung 43 bietet eine Servolenk(Elektronic Power Steering, EPS)-System zum Unterstützen eines Fahrers beim Lenken in Antwort auf ein Signal von der Fahrzeugsteuervorrichtung 20. Die Fahrzeugsteuerung unter Verwendung der Bremse 42 und der Lenkung 43 wird beeinträchtigt, wenn das Risiko einer Kollision mit dem Fußgänger weiter erhöht ist, das heißt, bei der Anwesenheit eines hohen Dringlichkeitsgrads.The brake 42 includes a brake driver for decelerating the own vehicle in response to a signal from the vehicle control device 20 , The steering 43 provides an electric power steering (EPS) system for assisting a driver in steering in response to a signal from the vehicle control device 20 , The vehicle control using the brake 42 and the steering 43 is impaired when the risk of a Collision with the pedestrian is further increased, that is, in the presence of a high degree of urgency.

Die Bildverarbeitungsvorrichtung 10 beinhaltet einen Controller 50 und einen Speicher 60. Der Controller 50 kann durch einen Mikrocomputer ausgebildet sein. Der Controller 50 beinhaltet als funktionale Blöcke einen Fußgängererfassungsabschnitt 51 und einen Kollisionsrisikobestimmungsabschnitt 52 (Fußgängerregionschätzmittel). Der Speicher 60 kann durch einen Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), einen Flash-Speicher, ein Festplattenlaufwerk (Hard Disk Drive, HDD) oder dergleichen ausgebildet sein. Der Speicher 60 beinhaltet einen Teilmodellspeicherabschnitt 61 (Teilmodellspeichermittel) und einen Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62.The image processing device 10 includes a controller 50 and a memory 60 , The controller 50 may be formed by a microcomputer. The controller 50 includes as functional blocks a pedestrian detection section 51 and a collision risk determination section 52 (Pedestrian region estimating means). The memory 60 may be formed by a random access memory (RAM), a flash memory, a hard disk drive (HDD), or the like. The memory 60 includes a partial model storage section 61 (Partial model storage means) and a collision risk decision table storage section 62 ,

Der Fußgängererfassungsabschnitt 51 (Teilregionextrahierungsmittel und Objektregion schätzmittel) erfasst einen Fußgänger in einem Bild, das von der Bildaufnahmeeinheit 32 empfangen wird. Wie an einer nachfolgenden Stelle detaillierter erläutert wird, erfasst der Fußgängererfassungsabschnitt 51 spezifische Teile eines Fußgängers durch Abtasten des Bildes und schätzt die Anwesenheit des Fußgängers und seine Position.The pedestrian detection section 51 (Partial region extracting means and object region estimating means) detects a pedestrian in an image taken by the image pickup unit 32 Will be received. As explained in more detail below, the pedestrian detection section detects 51 specific parts of a pedestrian by scanning the image and appreciates the presence of the pedestrian and his position.

Der Kollisionsrisikobestimmungsabschnitt 52 bestimmt ein Kollisionsrisiko als eine Funktion eines Abstands zwischen dem Eigenfahrzeug und dem Fußgänger, der durch den Fußgängererfassungsabschnitt 51 erfasst wird. Der Abstand zwischen dem Eigenfahrzeug und dem Fußgänger wird durch die Entfernungsmesseinheit 31 gemessen.The collision risk determination section 52 determines a collision risk as a function of a distance between the subject vehicle and the pedestrian by the pedestrian detection section 51 is detected. The distance between the own vehicle and the pedestrian is determined by the distance measuring unit 31 measured.

Der Teilmodellspeicherabschnitt 61 speichert Teilmodelle, von denen jedes einen entsprechenden der spezifischen Teile des Fußgängers speichert. Jedes Teilmodell wird verwendet, um eine Verteilung des entsprechenden Teils des Fußgängers in dem Bild zu erfassen. In der vorliegenden Ausführungsform beinhalten die spezifischen Teile des Fußgängers einen Kopf, einen rechten Arm und einen linken Arm, eine Hüfte und ein rechtes und ein linkes Bein, sind jedoch nicht darauf beschränkt. Ein Teilmodell, das den Kopf modelliert, wird nachfolgend als „Kopfteilmodell” bezeichnet, ein Teilmodell, das den rechten/linken Arm modelliert, wird nachfolgend als ein „Armteilmodell” bezeichnet, ein Teilmodell, das die Hüfte modelliert, wird nachfolgend als ein „Hüftenteilmodell” bezeichnet und ein Teilmodell, das das rechte/linke Bein modelliert, wird nachfolgend als ein „Beinteilmodell” bezeichnet. In einem derartigen Teilmodellansatz zum Erfassen eines Fußgängers repräsentiert beispielsweise ein Merkmalsvektor Merkmale (Umrissinformationen) für die entsprechenden spezifischen Teile des Fußgängers.The submodule storage section 61 stores submodels, each of which stores a corresponding one of the specific parts of the pedestrian. Each submodel is used to detect a distribution of the corresponding part of the pedestrian in the image. In the present embodiment, the specific parts of the pedestrian include, but are not limited to, a head, a right arm and a left arm, a hip, and right and left legs. A partial model modeling the head is hereinafter referred to as a "head part model", a partial model modeling the right / left arm is hereinafter referred to as an "arm part model", a partial model modeling the hip is hereinafter referred to as a "hip part model And a sub model modeling the right / left leg is hereinafter referred to as a "leg part model". In such a partial model approach for detecting a pedestrian, for example, a feature vector represents features (outline information) for the corresponding specific parts of the pedestrian.

Der Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62 speichert eine Kollisionsrisikoentscheidungstabelle, die eine Tabelle ist, die eine Korrespondenzbeziehung zwischen einem Abstand zwischen dem Eigenfahrzeug und dem erfassten Fußgänger und einem Kollisionsrisiko definiert. Der Kollisionsrisikobestimmungsabschnitt 52 bestimmt ein Kollisionsrisiko bezüglich der Kollisionsrisikoentscheidungstabelle, die in dem Kollisionsrisikoentscheidungstabellenspeicherabschnitt 62 gespeichert ist.The collision risk decision table storage section 62 stores a collision risk decision table, which is a table defining a correspondence relationship between a distance between the own vehicle and the detected pedestrian and a collision risk. The collision risk determination section 52 determines a collision risk with respect to the collision risk decision table included in the collision risk decision table storage section 62 is stored.

Die Fahrzeugsteuervorrichtung 20 beinhaltet einen Unterrichtungscontroller 70 und einen Fahrzeugcontroller 80, von denen jeder durch einen Mikrocomputer ausgebildet sein kann. Der Unterrichtungscontroller 70 stellt eine Unterrichtung mittels des Lautsprechers 41 bereit, wenn das Kollisionsrisiko ansteigt. Der Fahrzeugcontroller 80 bewirkt die Kollisionsausweichsteuerung beziehungsweise Kollisionsvermeidungssteuerung unter Verwendung der Bremse 42 und der Lenkung 43, wenn das Kollisionsrisiko weiter ansteigt.The vehicle control device 20 includes a lesson controller 70 and a vehicle controller 80 each of which may be formed by a microcomputer. The information controller 70 provides a notification by means of the loudspeaker 41 ready when the risk of collision increases. The vehicle controller 80 causes collision avoidance control or collision avoidance control using the brake 42 and the steering 43 if the risk of collision continues to rise.

Nachfolgend wird eine Fußgängererfassungsverarbeitung, die in dem Fußgängererfassungsabschnitt 51 ausgeführt wird, im Detail erläutert. Die Fußgängererfassungsverarbeitung wird wiederholt bei jedem vorbestimmten Zeitintervall ausgeführt.Hereinafter, a pedestrian detection processing performed in the pedestrian detection section 51 is executed, explained in detail. The pedestrian detection processing is repeatedly executed every predetermined time interval.

Wie in 2 dargestellt ist, wird bei Schritt S110 ein aufgenommenes Bild von der Bildaufnahmeeinheit 32 empfangen.As in 2 is shown, a captured image from the image pickup unit at step S110 32 receive.

Anschließend wird bei Schritt S120 eine Bewertungsaufzeichnung erzeugt und hochbewertete Bereiche werden von dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert. Wie vorstehend beschrieben ist, werden die Teilmodelle, die die entsprechenden spezifischen Teile des Fußgängers modellieren, in dem Teilmodellspeicherabschnitt 61 gespeichert. Die Bewertungsaufzeichnung wird durch Abtasten des aufgenommenen Bilds des Teilmodells erzeugt. Für jedes der Teilmodelle werden Bereiche mit einer Bewertung, die größer als ein vorbestimmter Grenzwert (hochbewertete Bereiche) ist, aus dem Bild extrahiert.Subsequently, at step S120, an evaluation record is generated, and high-ranking areas are extracted from the image with respect to the evaluation record. As described above, the submodels that model the corresponding specific parts of the pedestrian are in the sub-model storage section 61 saved. The evaluation record is generated by scanning the captured image of the submodel. For each of the submodels, regions having a rating greater than a predetermined threshold (high score regions) are extracted from the image.

Insbesondere wie in 3A dargestellt wird das Kopfteilmodell TP1 aufeinanderfolgend mit vorbestimmten Intervallen entlang einer rechten Richtung von einer oberen linken Ecke zu einer oberen rechten Ecke des Bildes verschoben (oder bewegt). Erreicht das Kopfteilmodell TP1 die obere rechte Ecke des Bildes, wird das Kopfteilmodell TP1 zur oberen linken Ecke des Bildes zurückgebracht und dann nach unten um eine vorbestimmte Distanz verschoben. Das Kopfteilmodell TP1 wird erneut aufeinanderfolgend mit vorbestimmten Intervallen entlang der rechten Richtung ausgehend von der linken Kante zur rechten Kante des Bildes verschoben. Erreicht das Kopfteilmodell TP1 die rechte Kante des Bildes, wird das Kopfteilmodell TP1 erneut zur linken Kante des Bildes zurückgebracht und dann nach unten um die vorbestimmte Distanz verschoben. Derartige aufeinanderfolgende Verschiebungen werden fortgeführt, bis das Kopfteilmodell TP1 eine untere rechte Ecke des Bildes erreicht. Ein Ähnlichkeitsgrad eines Bereichs, der das Kopfteilmodell TP1 an einer Position nach jeder Verschiebung überlappt, wird als eine Bewertung des Bereichs gespeichert, was zu einer Bewertungsaufzeichnung (nicht dargestellt) für das Kopfteilmodell TP1 führt.In particular as in 3A That is, the header model TP1 is successively shifted (or moved) at predetermined intervals along a right direction from an upper left corner to an upper right corner of the image. When the header model TP1 reaches the upper right corner of the image, the header model TP1 is returned to the upper left corner of the image and then shifted downward by a predetermined distance. The header model TP1 is again successively at predetermined intervals along the right direction from the left edge to the right edge of the image. When the header model TP1 reaches the right edge of the image, the header model TP1 is returned to the left edge of the image again and then shifted downward by the predetermined distance. Such successive shifts are continued until the header model TP1 reaches a lower right corner of the image. A similarity degree of an area overlapping the header model TP1 at a position after each shift is stored as an evaluation of the area, resulting in an evaluation record (not shown) for the header model TP1.

Im Allgemeinen erscheint ein Fußgänger an einer relativ beabstandeten Distanz relativ klein in dem Bild. Um einen derartigen Fußgänger zu erfassen, der in dem Bild relativ klein erscheint, wie in 3B dargestellt ist, wird das Bild ferner unter Verwendung eines Kopfteilmodells TP2 mit reduzierter Größe auf ähnliche Weise wie vorstehend beschrieben abgetastet, wobei ein Ähnlichkeitsgrad eines Bereichs, der das Kopfteilmodell TP2 einer Position nach jeder Verschiebung überlappt, als eine Bewertung des Bereichs gespeichert wird, was zu einer Bewertungsaufzeichnung (nicht dargestellt) für das Kopfteilmodell TP2 führt.In general, a pedestrian appears relatively small in the image at a relatively spaced distance. To detect such a pedestrian, which appears relatively small in the image, as in 3B Further, the image is scanned using a reduced-size header model TP2 in a similar manner as described above, wherein a similarity degree of a region overlapping the header model TP2 of a position after each shift is stored as an evaluation of the region an evaluation record (not shown) for the header model TP2 leads.

In der vorliegenden Ausführungsform wird das Bild der Zweistufenbildabtastung unterworfen, wobei in der ersten Stufe das Bild unter Verwendung des Kopfteilmodells TP1 zum Erfassen eines Fußgängers bei einer relativ nahen Distanz zum Eigenfahrzeug abgetastet wird, und in der zweiten Stufe das Bild unter Verwendung des Kopfteilmodells TP2, das kleiner als das Kopfteilmodell TP1 ist, abgetastet wird, um einen Fußgänger bei einem relativ großen Abstand zum Eigenfahrzeug zu erfassen. In der Praxis können Bildabtastungen mit drei oder mehr Stufen eingesetzt werden, um Fußgänger bei unterschiedlichen Distanzen zum Eigenfahrzeug zu erfassen. Darüber hinaus ist es in einer derartigen mehrstufigen Bildabtastung möglich, nur Detailmodelle in ihrer Größe zu verändern, während die Größe des Bilds unverändert bleib, oder nur das Bild kann in seiner Größe zu verändern, während die Größe des Teilmodells unverändert bleibt.In the present embodiment, the image is subjected to the two-level image scanning, wherein in the first stage the image is scanned using the headboard model TP1 for detecting a pedestrian at a relatively close distance to the own vehicle, and in the second stage the image is scanned using the headboard model TP2, which is smaller than the header model TP1 is scanned to detect a pedestrian at a relatively large distance to the own vehicle. In practice, image scans with three or more levels can be used to detect pedestrians at different distances to the subject vehicle. Moreover, in such a multi-level image scan, it is possible to resize only detail models while keeping the size of the image unchanged, or only to resize the image while leaving the size of the submodel unchanged.

Nach Erzeugen einer derartigen Bewertungsaufzeichnung werden hochbewertete Bereiche mit einer Bewertung, die größer als ein vorbestimmter Grenzwert ist, aus dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert. Beispielsweise, wie in 3C dargestellt ist, werden die hochbewerteten Bereiche TC und die hochbewerteten Bereiche TT aus dem Bild extrahiert, wobei jeder hochbewertete Bereich TC ein hochbewerteter Bereich ist, der durch Abtasten des Bildes mit dem Kopfteilmodell TP1 extrahiert wird, und jeder hochbewertete Bereich TT ein hochbewerteter Bereich ist, der durch Abtasten des Bildes mit dem Kopfteilmodell TP2 extrahiert wird.After generating such an evaluation record, high-valued regions having a rating greater than a predetermined threshold are extracted from the image with respect to the evaluation record. For example, as in 3C is shown, the high-valued regions TC and the high-valued regions TT are extracted from the image, each high-valued region TC is a high-valued region extracted by scanning the image with the header model TP1, and each high-valued region TT is a high-valued region, which is extracted by scanning the image with the header model TP2.

In der vorliegenden Ausführungsform wird das Bild ferner unter Verwendung der anderen Teilmodelle abgetastet, das heißt, des Armteilmodells, des Hüftenteilmodells und des Beinteilmodells. Hochbewertete Bereiche für jedes dieser Teilmodelle werden auf ähnliche Weise wie in 3C dargestellt ebenso aus dem Bild mit Bezug auf die Bewertungsaufzeichnung extrahiert.In the present embodiment, the image is further scanned using the other part models, that is, the arm part model, the hip part model, and the leg part model. Highly valued ranges for each of these submodels are used in a similar way as in 3C also extracted from the image with respect to the evaluation record.

Jetzt wird ein Beispiel zum Festlegen der Grenzwerte zum Extrahieren der hochbewerteten Bereiche für die Teilmodelle erläutert. Wie in 4A dargestellt ist, tauchen zwei Menschen J1 und J2 in dem Bild auf, wobei jeweils einer der Arme und eines der Beine der Hintergrundperson J1 teilweise hinter einem der Arme und einem der Beine der Vordergrundperson J2 verdeck ist. Im Licht der Tatsache, dass in der vorliegenden Ausführungsform einige der spezifischen Teile weniger sichtbar als die anderen Teile sind, wie in 4B dargestellt ist, werden vorbestimmte Grenzwerte zum Extrahieren weniger sichtbarer Teile wie der Arme L1 und L2 und der Beine N1 und N2 kleiner festgelegt als vorbestimmte Grenzwerte zum Extrahieren besser sichtbarer Teile wie beispielsweise des Kopfs K und der Hüfte M.Now, an example of setting the limits for extracting the high-valued ranges for the sub-models will be explained. As in 4A 2, two people J1 and J2 appear in the image, with one of the arms and one of the legs of the background person J1 partially hidden behind one of the arms and one of the legs of the foreground person J2. In the light of the fact that in the present embodiment, some of the specific parts are less visible than the other parts, as in FIG 4B 3, predetermined limits for extracting less visible portions such as arms L1 and L2 and legs N1 and N2 are set smaller than predetermined limits for extracting more visible portions such as the head K and the hip M.

Gemäß 2 werden bei Schritt S130 Teilgruppenregionen von dem Bild extrahiert, wobei die hochbewerteten Bereiche, die bei Schritt S120 extrahiert werden, in die Teilgruppenregionen gruppiert werden.According to 2 At step S130, partial group regions are extracted from the image, and the high-valued regions extracted at step S120 are grouped into the divided-group regions.

Insbesondere, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT durch Abstände zwischen den hochbewerteten Bereichen TC und TT und Größen der hochbewerteten Bereiche TC und TT in die Teilgruppenregionen gruppiert. Ein entfernterer Fußgänger (kleinere Distanz) und ein näherer Fußgänger (größere Distanz) können eindeutig aus dem Bild unter Verwendung der Größen der hochbewerteten Bereiche TT und TC extrahiert werden, was zur verbesserter Extrahierungsgenauigkeit führt. 5A zeigt eine Teilgruppenregion G1, die die hochbewerteten Bereiche TC zusammen gruppiert und eine Teilgruppenregion G2, die die hochbewerteten Bereiche TT zusammen gruppiert. Der Ausdruck „Distanz” bzw. „Abstand”, bezieht sich auf eine zweidimensionale (2D) Distanz in dem Bild oder eine dreidimensionale (3D) Distanz in einem wirklichen Raum.In particular, as in 5A is shown, the high-scoring areas TC and TT are grouped into the sub-group regions by distances between the high-scoring areas TC and TT and sizes of the high-scoring areas TC and TT. A more distant pedestrian (smaller distance) and a closer pedestrian (larger distance) can be uniquely extracted from the image using the sizes of the high-valued areas TT and TC, resulting in the improved extraction accuracy. 5A Fig. 15 shows a subgroup region G1 grouping together the high-ranking regions TC and a subgroup region G2 grouping the high-valued regions TT together. The term "distance" refers to a two-dimensional (2D) distance in the image or a three-dimensional (3D) distance in a real space.

Wie in 5B dargestellt ist, können die Teilgruppenregionen basierend nur auf Distanzen zwischen den hochbewerteten Bereichen TC und TT extrahiert werden, was vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann. Alternativ können die Teilgruppenregionen basierend nur auf Größen der hochbewerteten Bereiche TC und TT extrahiert werden, was ebenso vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann.As in 5B 1, the subgroup regions may be extracted based only on distances between the high-valued regions TC and TT, which may advantageously result in relatively simpler extraction processing. Alternatively, the subgroup regions may be based are only extracted to sizes of the high-valued regions TC and TT, which can also advantageously lead to a relatively simpler extraction processing.

Darüber hinaus können die Teilgruppenregionen aus dem Bild auf der Basis ihrer Dichten von hochbewerteten Bereichen extrahiert werden. Dies kann dazu führen, dass eine Teilgruppenregion, die eine relativ niedrige Dichte aufweist, fehlerhaft erfasst wird. Insbesondere, wie in 5C dargestellt ist, werden die hochbewerteten Bereiche TC, die im Schritt S120 extrahiert werden, in zwei Teilgruppenregionen G4 und G5 durch Distanzen zwischen den hochbewerteten Bereichen TT gruppiert. Für jede der Teilgruppenregionen G4 und G5 wird eine Dichte von hochbewerteten Bereichen der Teilgruppenregion durch Teilen der Anzahl von beinhalteten hochbewerteten Bereichen TT durch einen Bereich bzw. eine Fläche der Teilgruppenregion berechnet. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion größer als ein vorbestimmter Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion qualifiziert. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert.In addition, the subgroup regions can be extracted from the image based on their densities from highly valued regions. This can cause a subgroup region that has a relatively low density to be detected incorrectly. In particular, as in 5C is shown, the high-valued areas TC extracted in step S120 are grouped into two subgroup regions G4 and G5 by distances between the high-valued areas TT. For each of the sub-group regions G4 and G5, a density of high-valued regions of the sub-group region is calculated by dividing the number of included high-valued regions TT by an area of the sub-group region. When the density of high-scoring regions of the subgroup region is greater than a predetermined threshold, the subgroup region is qualified as a subgroup region. When the density of high-scoring regions of the subgroup region is equal to or smaller than the predetermined threshold, the subgroup region is disqualified as a subgroup region.

Die Teilgruppenregionen können aus dem Bild auf der Basis ihrer Gesamtbewertungen zusätzlich oder anstatt der Dichten von hochbewerteten Bereichen der Teilgruppenregionen extrahiert werden. Dies kann vermeiden, dass eine Teilgruppenregion mit einer relativ niedrigen Gesamtbewertung fehlerhaft erfasst wird. Insbesondere, wie in 5C dargestellt ist, werden die hochbewerteten Bereiche TT, die in Schritt S120 extrahiert werden, in die Teilgruppenregionen G4 und G5 durch Distanzen zwischen den hochbewerteten Bereichen TT gruppiert. Für jede der Teilgruppenregionen G4 und G5 wird eine Gesamtbewertung der Teilgruppenregion durch Aufsummieren der Bewertungen der darin jeweils beinhalteten hochbewerteten Bereiche TT berechnet. Wenn die Gesamtbewertung der Teilgruppenregion größer als ein vorbestimmter Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion qualifiziert. Wenn die Gesamtbewertung der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert.The subgroup regions may be extracted from the image based on their overall scores, in addition to or instead of the densities of high scoring regions of the subgroup regions. This can prevent a subgroup region with a relatively low overall score from being detected incorrectly. In particular, as in 5C is shown, the high-valued areas TT extracted in step S120 are grouped into the subgroup regions G4 and G5 by distances between the high-valued areas TT. For each of the subgroup regions G4 and G5, an overall score of the subgroup region is calculated by summing up the scores of the high scoring areas TT included therein. If the overall score of the subgroup region is greater than a predetermined threshold, the subgroup region is qualified as a subgroup region. If the overall score of the subset region is equal to or less than the predetermined limit, the subset region is disqualified as a subset region.

Gemäß 2 werden bei Schritt S140 Teilgruppenregionen aus dem Bild extrahiert, wobei jede Teilgruppenregion in der vorliegenden Ausführungsform eine rechteckig umschriebene Region ist, die die Teilgruppenregionen, die in Schritt S130 extrahiert werden, die nahe zueinander sind, beinhalten. Eine Distanz zwischen einem Paar aus Teilgruppenregionen kann eine minimale Distanz zwischen Grenzen der jeweiligen Teilgruppenregionen sein, eine Distanz zwischen Mittelpunkten der jeweiligen Teilgruppenregionen oder eine Distanz zwischen Bewertungsmittelpunkten der jeweiligen Teilgruppenregionen. Ein Paar aus Teilgruppenregionen kann als nahe zueinander bestimmt werden, wenn die Distanz zwischen diesen unterhalb eines vorbestimmten Grenzwerts ist. 6 zeigt ein Beispiel einer Extrahierung einer Teilregion P, die zwei Teilgruppenregionen G6 und G7 beinhaltet.According to 2 In step S140, subgroup regions are extracted from the image, wherein each subgroup region in the present embodiment is a rectangular circumscribed region that includes the subgroup regions extracted in step S130 that are close to each other. A distance between a pair of sub-group regions may be a minimum distance between boundaries of the respective sub-group regions, a distance between centers of the respective sub-group regions, or a distance between evaluation centers of the respective sub-group regions. A pair of subgroup regions may be determined to be close to each other if the distance between them is below a predetermined threshold. 6 shows an example of an extraction of a partial region P, which includes two subgroup regions G6 and G7.

Anschließend wird bei Schritt S150 eine Bewertung jeder Teilregion, die in Schritt S140 extrahiert werden, berechnet. Insbesondere wird eine Bewertung jeder Teilregion durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen, die in der Teilregion beinhaltet sind, berechnet, wobei eine Bewertung jeder Teilgruppenregionen durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, berechnet wird. Beispielhaft wird in 6 eine Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in jeder der Teilgruppenregionen G1 und G2 beinhaltet sind, berechnet und dann wird eine Summe von Bewertungen der jeweiligen Teilgruppenregionen G1 und G2 berechnet, was in einer Bewertung der Teilregion P resultiert. Die Bewertung der Teilregion P kann somit auf eine derart relativ einfache Weise berechnet werden.Subsequently, at step S150, a score of each partial region extracted in step S140 is calculated. Specifically, a score of each subregion is calculated by summing up scores of the respective subgroup regions included in the subregion, wherein an score of each subgroup regions is calculated by summing up scores of the respective high scoring ranges included in the subgroup region. Example becomes in 6 A sum of scores of the respective high-scoring regions included in each of the sub-group regions G1 and G2 is calculated, and then a sum of scores of the respective sub-group regions G1 and G2 is calculated, resulting in an evaluation of the sub-region P. The evaluation of the subregion P can thus be calculated in such a relatively simple manner.

Für jede Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der entsprechenden hochbewerteten Bereiche berechnet werden, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis einer räumlichen Nähe (die Lage betreffende Nähe) zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die räumliche Nähe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch eine Inverse einer Summe absoluter Positionsunterschiede zwischen den hochbewerteten Bereichen berechnet werden, wobei die Position jedes hochbewerteten Bereichs eine Mitte oder eine obere linke Position davon sein kann. Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein.For each of the subgroup regions G1 and G2, the score of the subgroup region may be calculated not only based on the scores of the corresponding high scoring areas included in the subgroup region, but also on the proximity (proximity) between the high scoring areas that are included in the subgroup region. In particular, as in a lower part of 6 3, the spatial proximity between the high-scoring regions of each subgroup region may be calculated by an inverse of a sum of absolute positional differences between the high scoring regions, where the position of each high scoring region may be a middle or upper left position thereof. The score of each of the subgroup regions G1 and G2 may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region.

Für jede der Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche berechnet werden, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis auf einer Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, zusätzlich oder anstatt der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch eine Inverse einer Summe absoluter Differenzen der Größen zwischen den hochbewerteten Bereichen definiert werden, wobei die Größe S jedes hochbewerteten Bereichs eine Länge oder eine Breite davon sein kann (angenommen, dass jeder hochbewertete Bereich rechtwinkelig oder quadratisch ist). Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe aus Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein (und in einigen Ausführungsformen der räumlichen Nähe zwischen den hochbewerteten Bereichen und der Teilgruppenregion).For each of the subgroup regions G1 and G2, the score of the subgroup region may be calculated not only based on the scores of the respective high scoring regions included in the subgroup region, but also based on a similarity in size between the high scoring scopes described in of the Subgroup region is included, in addition to or instead of the spatial proximity between the high-valued areas that are included in the subgroup region. In particular, as in a lower part of 6 2, the similarity in size between the high-valued regions of each subgroup region may be defined by an inverse of a sum of absolute differences in sizes between the high-valued regions, where the size S of each high-valued region may be a length or a width thereof (assuming that each highly valued area is rectangular or square). The score of each of the subgroup regions G1 and G2 may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the similarity in size between the high scoring areas in the subgroup region (and in some embodiments the spatial proximity between the highly valued areas and the subgroup region).

Für jede der Teilgruppenregionen G1 und G2 kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, sondern ebenso basierend auf der Dichte von hochbewerteten Bereichen der Teilgruppenregion, wie vorstehend beschrieben ist, zusätzlich oder anstatt der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, und/oder der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, berechnet werden. Die Bewertung jeder der Teilgruppenregionen G1 und G2 kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Dichte von hochbewerteten Bereichen (und in manchen Ausführungsformen der räumlichen Nähe zwischen den hochbewerteten Bereichen der Teilgruppenregion und/oder der Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion) gegeben sein.For each of the subgroup regions G1 and G2, the evaluation of the subgroup region may be based not only on the scores of the respective high scoring regions included in the subgroup region, but also based on the density of high scoring regions of the subgroup region as described above instead of the similarity in size between the high-valued regions included in the subgroup region and / or the spatial proximity between the high-valued regions included in the subgroup region, are calculated. The score of each of the subgroup regions G1 and G2 may be represented by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the density of high scoring areas (and in some embodiments, the spatial proximity between the high scoring areas of the subgroup region and / or the Similarity in size between the highly valued areas in the subgroup region).

Anschließend werden bei S160 Fußgänger durch Extrahieren von Fußgängerregionen, von denen in jeder mindestens ein Fußgänger anwesend ist, auf der Basis der Teilregionen, die bei S140 extrahiert werden, erfasst. Wissen über Typen von Teilmodellen, die verwendet werden, um die Teilregionen zu extrahieren, und Größen der hochbewerteten Bereiche, die in jeder Teilregion beinhaltet sind, ermöglicht, dass die Fußgängerregionen aus dem Bild extrahiert werden.Subsequently, at S160, pedestrians are detected by extracting pedestrian regions each of which has at least one pedestrian present based on the partial regions extracted at S140. Knowledge of types of submodels used to extract the subregions and sizes of the high scoring areas included in each subregion allows the pedestrian regions to be extracted from the image.

Insbesondere kann gemäß 7A davon ausgegangen werden, dass ein Fußgängerkörperabschnitt unterhalb einer Teilregion P existiert, die in Schritt S140 extrahiert wird. Eine Größe des Fußgängerkörperabschnitts kann aus den Größen der jeweiligen hochbewerteten Bereiche geschätzt werden, die in der Teilregion P beinhaltet sind, was ermöglicht, dass die Fußgängerregion S geschätzt wird. Wenn die Bewertung der Teilregion P gleich oder kleiner als ein vorbestimmter Grenzwert ist, wird die Fußgängerregion S als eine Fußgängerregion disqualifiziert.In particular, according to 7A It can be assumed that a pedestrian body section exists below a partial region P which is extracted in step S140. A size of the pedestrian body portion can be estimated from the sizes of the respective high-valued areas included in the partial region P, allowing the pedestrian region S to be estimated. When the score of the partial region P is equal to or smaller than a predetermined threshold, the pedestrian region S is disqualified as a pedestrian region.

Insbesondere, wie in 7B dargestellt ist, werden die Fußgängerregionen auf der Basis relativer Positionen von zwei Teilregionen P1 und P3, die unter Verwendung des Kopfteilmodells extrahiert werden, und einer Teilregion P2 erfasst, die unter Verwendung des Beinteilmodells extrahiert wird. Beispielsweise, wenn die hochbewerteten Bereiche, die in der Teilregion P1 beinhaltet sind, und die hochbewerteten Bereiche, die in der Teilregion P2 beinhaltet sind, dieselbe Größe aufweisen, wird bestimmt, dass die Teilregionen P1 und P2 miteinander in Beziehung stehen. Das heißt, es wird davon ausgegangen, dass die Summen P1 und P2 entsprechend Köpfe und Beine von Fußgängern beinhalten, die zur selben Fußgängergruppe gehören. Die hochbewerteten Bereiche, die in der Teilregion P3 beinhaltet sind, unterscheiden sich jedoch bezüglich ihrer Größe von den hochbewerteten Bereichen in den Teilregionen P1 und P2. In der Abwesenheit einer Teilregion, die mit der Teilregion P3 verknüpft ist, kann bestimmt werden, dass die Teilregion P3 fehlerhaft erfasst wird.In particular, as in 7B 12, the pedestrian regions are detected on the basis of relative positions of two partial regions P1 and P3 extracted using the header model and a partial region P2 extracted using the leg partial model. For example, when the high-valued regions included in the partial region P1 and the high-valued regions included in the partial region P2 have the same size, it is determined that the partial regions P1 and P2 are related to each other. That is, it is assumed that the sums P1 and P2 respectively include heads and legs of pedestrians belonging to the same pedestrian group. However, the high-valued regions included in the partial region P3 differ in size from the high-valued regions in the partial regions P1 and P2. In the absence of a partial region associated with the partial region P3, it can be determined that the partial region P3 is erroneously detected.

Wie in 7C dargestellt ist, wird davon ausgegangen, dass die zwei Teilregionen P1 und P2 miteinander verknüpft sind. Eine rechtwinkelig umschriebene Region einschließlich zwei Fußgängerregionen S1 und S2, die aus den Teilregionen P1 beziehungsweise P2 geschätzt werden, wird als eine Fußgängerregion S3 geschätzt. Wenn eine Summe von Bewertungen der jeweiligen Teilregionen P1 und P2 oberhalb eines vorbestimmten Grenzwerts ist, wird die Fußgängerregion S3 als eine Fußgängerregion qualifiziert. Wenn die Summe von Bewertungen der entsprechenden Teilregionen P1 und P2 gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als Fußgängerregion disqualifiziert.As in 7C is illustrated, it is assumed that the two subregions P1 and P2 are linked together. A rectangular circumscribed region including two pedestrian regions S1 and S2 estimated from the partial regions P1 and P2, respectively, is estimated as a pedestrian region S3. When a sum of scores of the respective partial regions P1 and P2 is above a predetermined threshold, the pedestrian region S3 is qualified as a pedestrian region. When the sum of ratings of the respective partial regions P1 and P2 is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region.

Wie vorstehend beschrieben ist, weist der Teilmodellspeicherabschnitt (als Teilmodellspeichermittel) der Bildverarbeitungsvorrichtung 10 mehrere Teilmodelle auf, die in diesem gespeichert sind und von denen jedes ein entsprechendes der spezifischen Teile (Merkmale) des Fußgängers modelliert. Die spezifischen Teile in der vorliegenden Ausführungsform beinhalten einen Kopf K, eine Hüfte M, einen rechten und linken Arm L1 beziehungsweise L2 und ein rechtes und linkes Bein N1 beziehungsweise N2, wie in 4B dargestellt ist. Der Fußgängererfassungsabschnitt 51 (als Teilregionextrahierungsmittel und Objektregionschätzmittel) des Controllers 50 empfängt ein aufgenommenes Bild von der Bildaufnahmeeinheit 32 (in Schritt S110 von 2). Nachfolgend erzeugt der Fußgängererfassungsabschnitt 51 eine Bewertungsaufzeichnung unter Verwendung der Teilmodelle, die in dem Speicherabschnitt 61 gespeichert sind, und extrahiert für jedes Teilmodell die hochbewerteten Bereiche aus dem Bild mit Bezug auf die Bewertungsaufzeichnung (in Schritt S120). Danach extrahiert der Fußgängererfassungsabschnitt 51 die Teilgruppenregionen (in Schritt S130) und extrahiert die Teilregionen auf der Basis der Teilgruppenregionen (bei Schritt S140). Der Fußgängererfassungsabschnitt berechnet die Bewertungen der Teilregionen (bei Schritt S150) und schätzt die Fußgängerregionen, von denen in jeder mindestens ein Fußgänger (Fußgängergruppe) anwesend ist (bei Schritt S160).As described above, the partial model storage section (as partial model storage means) of the image processing apparatus 10 several sub-models stored therein and each of which models a corresponding one of the specific parts (features) of the pedestrian. The specific parts in the present embodiment include a head K, a hip M, right and left arms L1 and L2, and left and right legs N1 and N2, respectively, as shown in FIG 4B is shown. The pedestrian detection section 51 (when Partial region extracting means and object region estimating means) of the controller 50 receives a captured image from the image capture unit 32 (in step S110 of FIG 2 ). Subsequently, the pedestrian detection section generates 51 an evaluation record using the partial models stored in the memory section 61 are stored, and for each partial model, extract the high-valued regions from the image with respect to the evaluation record (in step S120). Afterwards, the pedestrian detection section extracts 51 the subgroup regions (in step S130) and extracts the subregions on the basis of the subgroup regions (in step S140). The pedestrian detecting section calculates the scores of the partial regions (at step S150), and estimates the pedestrian regions of which at least one pedestrian (pedestrian group) is present in each one (at step S160).

Der Fußgängererfassungsabschnitt 51 extrahiert die Teilregionen unter Verwendung der Teilmodelle für die jeweiligen Teile des Fußgängers und schätzt die Fußgängerregionen auf der Basis der Teilregionen. Beispielsweise, wenn nur eine Teilregion für Beine des Fußgängers vorliegt, wird eine Fußgängerregion aus der Teilregion für Beine geschätzt. Dies erlaubt, dass ein Fußgänger richtig in dem Bild erfasst wird.The pedestrian detection section 51 extracts the subregions using the submodels for the respective parts of the pedestrian and estimates the pedestrian regions based on the subregions. For example, if there is only a partial region for legs of the pedestrian, a pedestrian region from the leg partial region is estimated. This allows a pedestrian to be properly captured in the image.

In der vorliegenden Ausführungsform, wie in 3A dargestellt ist, verschiebt der Fußgängererfassungsabschnitt 51 das Kopfteilmodell TP1 aufeinanderfolgend mit vorbestimmten Intervallen in dem Bild und berechnet einen Ähnlichkeitsgrad (als eine Bewertung) eines Bereichs, der nach jeder Umwandlung das Kopfteilmodel TP1 überlappt, was zu einer Wertungsaufzeichnung (nicht dargestellt) führt das Kopfteilmodell TP1 führt. Der Fußgängererfassungsabschnitt 51 extrahiert die hochbewerteten Bereiche, die eine größere Bewertung als der vorbestimmte Grenzwert aufweisen (in Schritt S120). Anschließend extrahiert der Fußgängererfassungsabschnitt 51 die Teilregionen auf der Basis der hochbewerteten Bereiche.In the present embodiment, as in 3A is shown, moves the pedestrian detection section 51 the header model TP1 successively at predetermined intervals in the image and calculates a degree of similarity (as a rating) of an area overlapping the header model TP1 after each conversion resulting in a score record (not shown) resulting in the header model TP1. The pedestrian detection section 51 extracts the high-scoring areas having a rating greater than the predetermined threshold (in step S120). Subsequently, the pedestrian detection section extracts 51 the sub-regions based on the highly valued areas.

Im Lichte der Tatsache, dass in der vorliegenden Ausführungsform, wie in 4B dargestellt ist, einige der spezifischen Teile weniger sichtbar als die anderen Teile sind, werden die vorbestimmten Grenzwerte zum Extrahieren der Arme L1 und L2 und der Beine N1 und N2, die weniger sichtbare Teile sind, niedriger festgelegt als die vorbestimmten Grenzwerte zum Extrahieren des Kopfs und der Hüfte M, die sichtbarere Teile sind. Dies ermöglicht, dass jeder Teil richtig erfasst wird.In light of the fact that in the present embodiment, as in 4B 1, some of the specific parts are less visible than the other parts, the predetermined limits for extracting the arms L1 and L2 and the legs N1 and N2, which are less visible parts, are set lower than the predetermined limits for extracting the head and hip M, which are more visible parts. This allows each part to be detected correctly.

In der vorliegenden Ausführungsform werden die hochbewerteten Bereiche in die Teilgruppenregionen (bei Schritt S130 von 2) gruppiert und die Teilgruppenregionen werden aus dem Bild auf der Basis der Teilgruppenregionen extrahiert (bei Schritt S140). Dies erlaubt, dass jeder Teil verlässlich erfasst wird.In the present embodiment, the high-valued regions are divided into the divided-group regions (at step S130 of FIG 2 ) and the subgroup regions are extracted from the image based on the subgroup regions (at step S140). This allows each part to be reliably recorded.

Insbesondere, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT in die zwei Teilgruppenregionen durch Abstände zwischen den hochbewerteten Bereichen TC und TT und Größen der hochbewerteten Bereiche TC und TT gruppiert. Die Teilgruppenregionen werden aus dem Bild derart extrahiert, dass jede Teilgruppenregion die hochbewerteten Bereiche mit Abständen zwischen denselben beinhaltet, die gleich oder kleiner als der vorbestimmte Grenzwert sind, und die ähnliche Größen aufweisen. Dies ermöglich, dass ein Fußgänger, der weiter entfernt ist, und ein Fußgänger, der näher ist, eindeutig aus dem Bild extrahiert werden können, indem die Größen der hochbewerteten Bereiche TT und TC verwendet werden, was zu einer verbesserten Extrahierungsgenauigkeit führt.In particular, as in 5A is shown, the high-scoring regions TC and TT are grouped into the two sub-group regions by distances between the high-scoring regions TC and TT and sizes of the high-scoring regions TC and TT. The subgroup regions are extracted from the image such that each subgroup region includes the high-valued regions with distances therebetween equal to or smaller than the predetermined threshold and having similar magnitudes. This allows a pedestrian who is farther away and a pedestrian closer to be clearly extracted from the image by using the sizes of the high-valued areas TT and TC, resulting in improved extraction accuracy.

Ferner werden in der vorliegenden Ausführungsform Teilregionen, jede in der Form einer rechtwinkelig umschriebenen Region, die mindestens Teilgruppenregionen beinhaltet, aus dem Bild extrahiert (bei Schritt S140 von 2), was vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen kann.Further, in the present embodiment, partial regions, each in the form of a rectangular circumscribed region including at least partial-group regions, are extracted from the image (at step S140 of FIG 2 ), which can advantageously lead to relatively simpler extraction processing.

Jede Teilregion in der vorliegenden Ausführungsform ist eine rechtwinkelig umschriebene Region, die eine oder mehr Teilgruppenregionen beinhaltet, die nahe zueinander sind. 6 zeigt ein Beispiel einer Extrahierung einer Teilregion P, die zwei Teilgruppenregionen G6 und G7 beinhaltet. Die Teilregion P, die eine rechtwinkelig umschriebene Region ist, die zwei Teilgruppenregionen mit einem Abstand zwischen denselben, der gleich oder kleiner als der vorbestimmte Grenzwert ist, beinhaltet, wird extrahiert. Dies ermöglicht, dass die Teilgruppenregionen, von denen in jeder eine Fußgängergruppe anwesend ist, verlässlich extrahiert werden.Each sub-region in the present embodiment is a rectangular circumscribed region that includes one or more subgroup regions that are close to each other. 6 shows an example of an extraction of a partial region P, which includes two subgroup regions G6 and G7. The partial region P, which is a rectangular circumscribed region including two subgroup regions having a distance between them equal to or smaller than the predetermined threshold, is extracted. This allows the subgroup regions, of which there is a pedestrian group in each, to be reliably extracted.

In der vorliegenden Ausführungsform wird eine Bewertung jeder Teilregion durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen berechnet, die in der Teilregion beinhaltet sind (in Schritt S150 von 2), wobei eine Bewertung jeder Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche berechnet wird, die in der Teilgruppenregion beinhaltet sind. Beispielsweise wird in 6 eine Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in jeder der Teilgruppenregionen G1, G2 beinhaltet sind, berechnet und dann wird eine Summe von Bewertungen der jeweiligen Teilgruppenregionen G1 und G2 berechnet, was zu einer Bewertung der Teilgruppenregion P führt. Dies ermöglicht, dass eine Bewertung jeder Teilgruppenregion auf relativ einfache Weise berechnet werden kann.In the present embodiment, a score of each sub-region is calculated by summing up scores of the respective sub-group regions included in the sub-region (in step S150 of FIG 2 ), wherein a score of each subgroup region is calculated by summing up scores of the respective high scoring areas included in the subgroup region. For example, in 6 A sum of scores of the respective high-scoring regions included in each of the sub-group regions G1, G2 is calculated, and then a sum of scores of the respective sub-group regions G1 and G2 is calculated, resulting in an evaluation of the sub-group region P. This allows a score of each subgroup region to be calculated in a relatively simple manner.

Ferner kann in der vorliegenden Ausführungsform, wie in 7A dargestellt ist, davon ausgegangen werden, dass ein Fußgängerkörperabschnitt unterhalb einer Teilregion P existiert, die unter Verwendung des Kopfteilmodells extrahiert wird. Eine Größe des Fußgängerkörperabschnitts kann aus den Größen der jeweiligen hochbewerteten Bereiche geschätzt werden, die in der Teilregion P beinhaltet sind, was ermöglicht, dass die Fußgängerregion S geschätzt wird. Wenn die Bewertung der Teilregion P gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion S als eine Fußgängerregion disqualifiziert. Further, in the present embodiment, as in FIG 7A 4, assume that a pedestrian body portion exists below a partial region P extracted using the header model. A size of the pedestrian body portion can be estimated from the sizes of the respective high-valued areas included in the partial region P, allowing the pedestrian region S to be estimated. When the score of the partial region P is equal to or smaller than the predetermined threshold, the pedestrian region S is disqualified as a pedestrian region.

Wie in 7B dargestellt ist, werden Fußgängerregionen auf der Basis relativer Positionen von zwei Teilregionen P1 und P3, die unter Verwendung des Kopfteilmodells extrahiert werden, und einer Teilregion P2 erfasst, die unter Verwendung des Beinteilmodells extrahiert wird. Beispielsweise, wenn die hochbewerteten Bereiche, die in der Teilregion P1 beinhaltet sind, und die hochbewerteten Bereiche, die in der Teilregion P2 beinhaltet sind, dieselbe Größe aufweisen, wird bestimmt, dass die Teilregionen P1 und P2 miteinander verknüpft sind. Das heißt, es wird davon ausgegangen, dass die Teilregionen P1 und P2 Köpfe beziehungsweise Beine von Fußgängern beinhalten, die zur selben Fußgängergruppe gehören. Die hochbewerteten Bereiche, die in der Teilregion P3 beinhaltet sind, unterscheiden sich jedoch in ihrer Größe von den hochbewerteten Bereichen in den Teilregionen P1 und P2. Da keine Teilregion existiert, die mit der Teilregion P3 verknüpft ist, wird bestimmt, dass die Teilregion P3 fehlerhaft erfasst wurde.As in 7B 4, pedestrian regions are detected on the basis of relative positions of two partial regions P1 and P3 extracted using the header model and a partial region P2 extracted using the leg partial model. For example, when the high-valued regions included in the partial region P1 and the high-valued regions included in the partial region P2 have the same size, it is determined that the partial regions P1 and P2 are linked with each other. That is, it is assumed that the partial regions P1 and P2 include heads or legs of pedestrians belonging to the same pedestrian group. However, the high-valued regions included in the partial region P3 differ in size from the high-valued regions in the partial regions P1 and P2. Since there is no subregion associated with the subregion P3, it is determined that the subregion P3 was detected erroneously.

Gemäß 7C wird in der vorliegenden Ausführungsform davon ausgegangen, dass die zwei Teilregionen P1 und P2 miteinander verknüpft sind. Eine Fußgängerregion S3 in der Form einer rechtwinkelig umschriebenen Region einschließlich Fußgängerregionen S1 und S2, die aus den Teilregionen P1 beziehungsweise P2 geschätzt werden, wird geschätzt. Die Fußgängerregion in der Form einer rechtwinkelig umschriebenen Region einschließlich der Teilregionen, die miteinander verknüpft sind, erlaubt, dass die Fußgängerregion richtig geschätzt wird.According to 7C In the present embodiment, it is assumed that the two partial regions P1 and P2 are linked together. A pedestrian region S3 in the form of a rectangular circumscribed region including pedestrian regions S1 and S2 estimated from the partial regions P1 and P2, respectively, is estimated. The pedestrian area in the form of a rectangular region, including the subregions that are linked together, allows the pedestrian area to be properly appreciated.

Wenn eine Summe von Bewertungen der jeweiligen Teilregionen, die in der Fußgängerregion beinhaltet sind, gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert. Das heißt, die Bewertung der Fußgängerregion wird auf der Basis der Teilregionen darin berechnet, und wenn die Bewertung der Fußgängerregion gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert.When a sum of scores of the respective subregions included in the pedestrian region is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region. That is, the pedestrian region score is calculated based on the partial regions therein, and when the pedestrian region score is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region.

Ferner, wenn in der vorliegenden Ausführungsform die Fußgängerregion als eine Fußgängerregion geschätzt und qualifiziert wird, bestimmt der Kollisionsrisikobestimmungsabschnitt 22 ein Kollisionsrisiko auf der Basis einer Distanz zwischen dem Eigenfahrzeug und dem Fußgänger, die von der Entfernungsmesseinheit 31 empfangen wird. In Antwort auf das Kollisionsrisiko stellt der Unterrichtungscontroller 70 der Fahrzeugsteuervorrichtung 20 den Fahrer mittels des Lautsprechers 41 eine Unterrichtung bereit und der Fahrzeugcontroller bewirkt Kollisionsvermeidungssteuerung unter Verwendung der Bremse 42 und des Lenkrads 43, was sichere Fahrunterstützung bereitstellt.Further, in the present embodiment, when the pedestrian region is estimated and qualified as a pedestrian region, the collision risk determination section determines 22 a collision risk based on a distance between the own vehicle and the pedestrian, by the distance measuring unit 31 Will be received. In response to the risk of collision, the information controller provides 70 the vehicle control device 20 the driver by means of the loudspeaker 41 a notification ready and the vehicle controller causes collision avoidance control using the brake 42 and the steering wheel 43 , which provides safe driving support.

(Modifikationen)(Modifications)

Nachfolgend werden Modifikationen der vorstehend erläuterten Ausführungsform erläutert, die angewandt werden können, ohne den Geist und den Umfang der vorliegenden Erfindung zu verlassen.

  • (i) In der vorstehend erläuterten Ausführungsform sind, wie in 5A dargestellt ist, werden die hochbewerteten Bereiche TC und TT in Teilgruppenregionen durch Distanzen dazwischen und Größen davon gruppiert.
  • (i-1) Alternativ, wie in 5B dargestellt ist, können die hochbewerteten Bereiche TC, TT in Teilgruppenregionen durch Distanzen, zwischen diesen gruppiert werden. Das heißt, die Teilgruppenregionen können von dem Bild so extrahiert werden, dass sie die hochbewerteten Bereiche beinhalten, die Distanzen zwischen denselben aufweisen, die gleich oder kleiner als der vorbestimmte Grenzwert sind. Dies kann vorteilhaft zu einer relativ einfacheren Extrahierungsverarbeitung führen.
  • (i-2) Darüber hinaus, wie in 5C dargestellt ist, wird für jede der Teilgruppenregionen G4, G5 eine Dichte von hochbewerteten Bereichen der Teilgruppenregion durch Teilen der Anzahl der hochbewerteten Bereiche TT, die darin beinhaltet sind, durch den Bereich bzw. die Fläche der Teilgruppenregion berechnet. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion größer als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion qualifiziert werden. Wenn die Dichte von hochbewerteten Bereichen der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion disqualifiziert werden. Dies kann ebenso ein Risiko fehlerhafter Erfassung reduzieren, was ermöglicht, dass die Teilgruppenregionen verlässlich erfasst werden.
  • (i-3) Alternativ, wie in 5C dargestellt ist, wird für jede der Teilgruppenregionen G4, G5 eine Gesamtbewertung der Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche TT, die darin beinhaltet sind, berechnet. Wenn die Gesamtbewertung der Teilgruppenregion größer als der vorbestimmte Grenzwert ist, kann die Teilgruppenregion als eine Teilgruppenregion qualifiziert werden. Wenn die Gesamtbewertung der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert sein kann, wird die Teilgruppenregion als eine Teilgruppenregion disqualifiziert. Dies kann ebenso ein Risiko fehlerhafter Erfassung verringern, was ermöglicht, dass die Teilgruppenregionen verlässlich erfasst werden.
  • (ii) In der vorstehend erläuterten Ausführungsform wird eine Bewertung jeder Teilregionen durch Aufsummieren von Bewertungen der jeweiligen Teilgruppenregionen berechnet, die in der Teilregion beinhaltet sind (in bzw. bei Schritt S150), wobei eine Bewertung jeder Teilgruppenregion durch Aufsummieren von Bewertungen der jeweiligen hochbewerteten Bereiche berechnet wird, die in der Teilgruppenregion beinhaltet sind.
  • (ii-1) Für jede Teilgruppenregion kann die Bewertung der Teilgruppenregion durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und die räumliche Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die räumliche Nähe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion als eine Inverse einer Summe von absoluten Differenzen der Position zwischen den hochbewerteten Bereichen sein, wobei die Position p jedes hochbewerteten Bereichs eine mittlere oder obere linke Position davon sein kann. Die Bewertung jeder Teilgruppenregion kann durch ein Produkt oder eine Summe der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion gegeben sein.
  • (ii-2) Für jede Teilgruppenregion kann die Bewertung der Teilgruppenregion nicht nur auf der Basis der Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilgruppenregion beinhaltet sind, sondern ebenso auf der Basis einer Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, zusätzlich oder anstatt der räumlichen Nähe zwischen den hochbewerteten Bereichen, die in der Teilgruppenregion beinhaltet sind, berechnet werden. Insbesondere, wie in einem unteren Teil von 6 dargestellt ist, kann die Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion durch ein Inverse einer Summe von absoluten Differenzen der Größe zwischen den hochbewerteten Bereichen definiert werden. Die Bewertung jeder Teilgruppenregion kann durch ein Produkt oder eine Summe der Summe der Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion und der Nähe der Größe zwischen den hochbewerteten Bereichen in der Teilgruppenregion (und der räumlichen Nähe zwischen den hochbewerteten Bereichen in der Teilgruppenregion in einigen Ausführungsformen) gegeben sein.
  • (iii) In der vorstehend beschriebenen Ausführungsform, wenn die Summe der Bewertungen der jeweiligen Teilregionen, die in der Fußgängerregion beinhaltet sind, gleich oder kleiner als der vorbestimmte Grenzwert ist, wird die Fußgängerregion als eine Fußgängerregion disqualifiziert. Alternativ kann, vor dem Extrahieren der Fußgängerregion, wenn die Summe von Bewertungen der jeweiligen hochbewerteten Bereiche, die in der Teilregion beinhaltet sind, gleich oder kleiner als ein vorbestimmter Grenzwert ist, die Teilregion als eine Teilregion disqualifiziert werden. Eine relativ unverlässliche Teilregion kann somit verworfen werden, was ermöglicht, dass die Fußgängerregion richtiger aus dem Bild extrahiert wird.
  • (iv) In der vorstehend erläuterten Ausführungsform wird ein Kollisionsrisiko als eine Funktion einer Distanz zwischen dem Eigenfahrzeug und dem Fußgänger bestimmt, die von der Entfernungsmesseinheit 31 empfangen wird. Alternativ kann ein Kollisionsrisiko unter Verwendung einer Position und/oder einer Größe und/oder einer Bewertung der Fußgängerregion zusätzlich oder anstatt der Distanz zwischen dem Eigenfahrzeug und dem Fußgänger bestimmt werden.
  • (v) In der vorstehend erläuterten Ausführungsform wird ein Abstand zwischen dem Eigenfahrzeug und dem Fußgänger durch die Entfernungsmesseinheit 31 gemessen. Alternativ kann die Distanz zwischen dem Eigenfahrzeug und dem Fußgänger auf der Basis der Bildinformation von der Bildaufnahmeeinheit 32 bestimmt werden, wobei die Entfernungsmesseinheit 31 entfernt werden kann. Die Entfernungsmesseinheit ermöglicht, dass die Distanz zwischen dem Eigenfahrzeug und dem Fußgänger genau gemessen wird.
Hereinafter, modifications of the above-explained embodiment which can be applied without departing from the spirit and scope of the present invention will be explained.
  • (i) In the embodiment explained above, as in FIG 5A is shown, the high-scoring areas TC and TT are grouped into subgroup regions by distances therebetween and sizes thereof.
  • (i-1) Alternatively, as in 5B is shown, the high-valued areas TC, TT can be grouped into subgroup regions by distances between them. That is, the subgroup regions may be extracted from the image to include the high-valued regions having distances therebetween equal to or less than the predetermined threshold. This can advantageously lead to a relatively simpler extraction processing.
  • (i-2) In addition, as in 5C is shown, for each of the sub-group regions G4, G5, a density of high-valued regions of the subgroup region is calculated by dividing the number of the high-valued regions TT included therein by the region of the subgroup region. If the density of high-scoring regions of the subgroup region is greater than the predetermined threshold, the subgroup region may be qualified as a subgroup region. When the density of high-scoring regions of the subgroup region is equal to or smaller than the predetermined threshold, the subgroup region may be disqualified as a subgroup region. This may also reduce a risk of erroneous capture, allowing the subgroup regions to be reliably captured.
  • (i-3) Alternatively, as in 5C is shown, for each of the sub-group regions G4, G5, an overall score of the sub-group region is accumulated by adding up scores of the respective high-scoring areas TT included therein are calculated. If the overall score of the subgroup region is greater than the predetermined threshold, then the subgroup region may be qualified as a subgroup region. If the overall score of the subgroup region may be equal to or less than the predetermined threshold, the subgroup region is disqualified as a subgroup region. This can also reduce a risk of erroneous capture, allowing the subgroup regions to be reliably captured.
  • (ii) In the embodiment explained above, an evaluation of each subregions is calculated by summing up scores of the respective subgroup regions included in the subregion (in step S150), evaluating each subgroup region by summing up scores of the respective high scoring regions is calculated, which are included in the subgroup region.
  • (ii-1) For each subgroup region, the subgroup region score may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region. In particular, as in a lower part of 6 3, the spatial proximity between the high-scoring regions of each subgroup region may be an inverse of a sum of absolute differences of the position between the high scoring regions, where the position p of each high scoring region may be a middle or upper left position thereof. The score of each subgroup region may be given by a product or a sum of the sum of scores of the respective high scoring areas in the subgroup region and the spatial proximity between the high scoring areas in the subgroup region.
  • (ii-2) For each subgroup region, the rating of the subgroup region may be based not only on the scores of the respective high scoring regions included in the subgroup region, but also on similarity in size between the high scoring regions included in the subgroup region are included, in addition to or instead of the spatial proximity between the high-scoring areas included in the subgroup region. In particular, as in a lower part of 6 2, the similarity in size between the high-valued regions of each subgroup region may be defined by an inverse of a sum of absolute differences in size between the high-valued regions. The score of each subgroup region may be a product or a sum of the sum of the scores of the respective high scoring areas in the subgroup region and the proximity of the size between the high scoring areas in the subgroup region (and the spatial proximity between the high scoring areas in the subgroup region in some embodiments). be given.
  • (iii) In the above-described embodiment, when the sum of the scores of the respective subregions included in the pedestrian region is equal to or smaller than the predetermined threshold, the pedestrian region is disqualified as a pedestrian region. Alternatively, before extracting the pedestrian region, if the sum of scores of the respective high-scoring regions included in the sub-region is equal to or smaller than a predetermined limit, the sub-region may be disqualified as a sub-region. A relatively unreliable subregion can thus be discarded, allowing the pedestrian region to be more properly extracted from the image.
  • (iv) In the embodiment discussed above, a collision risk is determined as a function of a distance between the host vehicle and the pedestrian being traveled by the ranging unit 31 Will be received. Alternatively, a collision risk may be determined using a position and / or size and / or rating of the pedestrian region in addition to or instead of the distance between the subject vehicle and the pedestrian.
  • (v) In the embodiment explained above, a distance between the own vehicle and the pedestrian by the distance measuring unit 31 measured. Alternatively, the distance between the own vehicle and the pedestrian may be determined based on the image information from the image pickup unit 32 be determined, wherein the distance measuring unit 31 can be removed. The distance measuring unit enables the distance between the own vehicle and the pedestrian to be accurately measured.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 2008-21034 [0004, 0005] JP 2008-21034 [0004, 0005]

Claims (25)

Bildverarbeitungsvorrichtung (10) zum Erfassen eines Objekts in einem Bild, das durch eine Bildaufnahmeeinheit (32) aufgenommen wird, die in einem Fahrzeug angebracht ist, wobei die Vorrichtung (10) aufweist: ein Teilmodellspeichermittel (61) zum Speichern mehrerer Teilmodelle, die jeweils entsprechende Teile des Objekts modellieren; ein Teilregionextrahierungsmittel (51) zum Extrahieren von Teilregionen für die entsprechenden Teile des Objekts aus dem Bild unter Verwendung der jeweils entsprechenden Teilmodelle, die in dem Teilmodellspeichermittel (61) gespeichert sind; und ein Objektregionsschätzmittel (51) zum Schätzen einer Objektregion, in dem das Objekt vorliegt, auf der Basis der Teilregionen, die durch das Teilregionextrahierungsmittel (51) extrahiert werden.Image processing device ( 10 ) for capturing an object in an image that is captured by an image capture unit ( 32 ) mounted in a vehicle, said device ( 10 ) comprises: a partial model storage means ( 61 ) for storing a plurality of sub-models each modeling corresponding parts of the object; a partial region extracting agent ( 51 ) for extracting partial regions for the corresponding parts of the object from the image using the respectively corresponding partial models which are present in the partial model storage means ( 61 ) are stored; and an object region estimation means ( 51 ) for estimating an object region in which the object is present on the basis of the partial regions generated by the partial region extraction means ( 51 ) are extracted. Vorrichtung (10) gemäß Anspruch 1, dadurch gekennzeichnet, dass das Objekt ein Fußgänger ist.Contraption ( 10 ) according to claim 1, characterized in that the object is a pedestrian. Vorrichtung (10) gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, jedes Teilmodell aufeinanderfolgend mit vorbestimmten Intervallen in dem Bild zu verschieben, einen Ähnlichkeitsgrad eines Bereichs, der das Teilmodell an einer Position in dem Bild nach jeder Verschiebung überlappt, als eine Bewertung zu berechnen und die Teilregionen auf der Basis der hochbewerteten Bereiche zu extrahieren, die Bereiche sind, von denen jeder eine Bewertung hat, die größer als ein vorbestimmter Grenzwert ist.Contraption ( 10 ) according to claim 1 or 2, characterized in that the partial region extracting agent ( 51 ) is adapted to shift each sub-model successively at predetermined intervals in the image, to calculate a degree of similarity of an area which overlaps the sub-model at a position in the image after each shift as a score, and to allocate the sub-regions on the basis of the high-ranked areas which are areas each having a rating greater than a predetermined threshold. Vorrichtung (10) gemäß Anspruch 3, dadurch gekennzeichnet, dass der vorbestimmte Grenzwert für jeden der Teile des Objekts festgelegt ist.Contraption ( 10 ) according to claim 3, characterized in that the predetermined limit value is set for each of the parts of the object. Vorrichtung (10) gemäß Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, Teilgruppenregionen zu extrahieren, von denen jede hochbewertete Bereiche beinhaltet, die unter Verwendung eines entsprechenden Teilmodells extrahiert werden, und nachfolgend die Teilregionen auf der Basis der Teilgruppenregionen zu extrahieren.Contraption ( 10 ) according to claim 3 or 4, characterized in that the partial region extracting agent ( 51 ) is designed to extract subgroup regions, each of which includes high scoring regions extracted using a corresponding submodel, and subsequently to extract the subregions based on the subgroup regions. Vorrichtung (10) gemäß Anspruch 5, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, die Teilgruppenregionen zu extrahieren, von denen jede die hochbewerteten Bereiche mit Abständen dazwischen beinhaltet, die gleich oder kleiner als ein vorbestimmter Grenzwert sind.Contraption ( 10 ) according to claim 5, characterized in that the partial region extracting agent ( 51 ) is adapted to extract the sub-group regions each of which includes the high-valued regions with intervals therebetween equal to or smaller than a predetermined limit. Vorrichtung (10) gemäß Anspruch 6, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, die Teilgruppenregionen zu extrahieren, von denen jede die hochbewerteten Bereiche mit zueinander ähnlichen Größen aufweist.Contraption ( 10 ) according to claim 6, characterized in that the partial region extracting agent ( 51 ) is designed to extract the subgroup regions, each of which has the high score areas of similar sizes. Vorrichtung (10) gemäß Anspruch 6 oder 7, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede Teilgruppenregion zu bestimmen, ob oder nicht eine Dichte von hochbewerteten Bereiche der Teilgruppenregion gleich oder kleiner als ein vorbestimmter Grenzwert ist, und wenn bestimmt wird, dass die Dichte von hochbewerteten Bereichen der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, die Teilgruppenregion als eine Teilgruppenregion zu disqualifizieren.Contraption ( 10 ) according to claim 6 or 7, characterized in that the partial region extracting agent ( 51 ) is configured to determine, for each subgroup region, whether or not a density of high scoring regions of the subgroup region is equal to or less than a predetermined threshold, and if it is determined that the density of high scoring regions of the subgroup region is equal to or less than the predetermined threshold to disqualify the subgroup region as a subgroup region. Vorrichtung (10) gemäß einem der Ansprüche 6 bis 8, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede Teilgruppenregion zu bestimmen, ob oder nicht eine Gesamtbewertung der Teilgruppenregion, die eine Summe von Bewertungen der entsprechenden hochbewerteten Bereiche ist, die in der Teilgruppenregion beinhaltet sind, gleich oder kleiner als ein vorbestimmter Grenzwert ist, und wenn bestimmt wird, dass die Gesamtbewertung der Teilgruppenregion gleich oder kleiner als der vorbestimmte Grenzwert ist, die Teilgruppenregion als eine Teilgruppenregion zu disqualifizieren.Contraption ( 10 ) according to one of claims 6 to 8, characterized in that the partial region extracting agent ( 51 ) is configured to determine, for each subgroup region, whether or not an overall score of the subgroup region that is a sum of scores of the corresponding high scoring areas included in the subgroup region is equal to or smaller than a predetermined threshold, and if it is determined the overall score of the subgroup region is equal to or less than the predetermined threshold to disqualify the subgroup region as a subgroup region. Vorrichtung (10) gemäß einem der Ansprüche 5 bis 9, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, jede der Teilregionen in der Form einer rechtwinkelig umschriebenen Region einschließlich der Teilgruppenregionen zu extrahieren, die unter Verwendung eines entsprechenden Teilmodells extrahiert werden.Contraption ( 10 ) according to one of claims 5 to 9, characterized in that the partial region extracting agent ( 51 ) is adapted to extract each of the sub-regions in the form of a right-angle region including the sub-group regions extracted using a corresponding sub-model. Vorrichtung (10) gemäß Anspruch 10, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, jede der Teilregionen in der Form einer rechtwinkelig umschriebenen Region einschließlich der Teilgruppenregionen zu extrahieren, die unter Verwendung eines entsprechenden Teilmodells mit Abständen dazwischen gleich oder kleiner als ein vorbestimmter Grenzwert extrahiert werden.Contraption ( 10 ) according to claim 10, characterized in that the partial region extracting agent ( 51 ) is adapted to extract each of said sub-regions in the form of a right-angle region including sub-group regions extracted using a corresponding sub-model with intervals therebetween equal to or less than a predetermined limit. Vorrichtung (10) gemäß Anspruch 10 oder 11, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede der Teilregionen eine Bewertung von jeder der Teilgruppenregionen, die in der Teilregion beinhaltet sind, durch Aufsummieren von Bewertungen der entsprechenden hochbewerteten Bereiche zu berechnen, die in der Teilgruppenregion beinhaltet sind, und eine Bewertung der Teilregion durch Aufsummieren von Bewertungen der entsprechenden Teilgruppenregionen zu berechnen, die in der Teilregion beinhaltet sind.Contraption ( 10 ) according to claim 10 or 11, characterized in that the Partial region extracting agent ( 51 ) is configured to calculate, for each of the subregions, a score of each of the subgroup regions included in the subregion by summing up scores of the corresponding high scoring areas included in the subgroup region, and evaluating the subregion by summing ratings of the subregion corresponding subgroup regions included in the subregion. Vorrichtung (10) gemäß Anspruch 12, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede der Teilregionen die Bewertung von jeder der Teilgruppenregionen, die in der Teilregion beinhaltet sind, nicht nur auf der Basis der Summe aus Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion zu berechnen, sondern ebenso auf Basis einer räumlichen Nähe zwischen den hochbewerteten Bereichen der Teilgruppenregion.Contraption ( 10 ) according to claim 12, characterized in that the partial region extracting agent ( 51 ) is designed to compute the rating of each of the subgroup regions included in the subregion for each of the subregions not only based on the sum of scores of the respective high scoring regions in the subgroup region, but also based on spatial proximity between the subgroups highly valued areas of the subgroup region. Vorrichtung (10) gemäß Anspruch 13, dadurch gekennzeichnet, dass die räumliche Nähe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion eine Inverse einer Summe absoluter Positionsunterschiede zwischen den hochbewerteten Bereichen der Teilgruppenregion ist.Contraption ( 10 ) according to claim 13, characterized in that the spatial proximity between the highly scored areas of each subgroup region is an inverse of a sum of absolute positional differences between the high scoring areas of the subgroup region. Vorrichtung (10) gemäß einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede der Teilregionen die Bewertung von jeder der Teilgruppenregionen, die in der Teilregion beinhaltet sind, nicht nur auf der Basis der Summe aus Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion zu berechnen, sondern ebenso auf der Basis einer Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen der Teilgruppenregion zu berechnen.Contraption ( 10 ) according to one of claims 12 to 14, characterized in that the partial region extracting agent ( 51 ) is designed to calculate, for each of the sub-regions, the score of each of the sub-group regions included in the sub-region, based not only on the sum of scores of the respective high-scoring regions in the sub-group region, but also on a similarity in size between the highly valued areas of the subgroup region. Vorrichtung (10) gemäß Anspruch 15, dadurch gekennzeichnet, dass die Ähnlichkeit bezüglich Größe zwischen den hochbewerteten Bereichen jeder Teilgruppenregion eine Inverse einer Summe absoluter Größenunterschiede zwischen den hochbewerteten Bereichen der Teilgruppenregion ist.Contraption ( 10 ) according to claim 15, characterized in that the similarity in size between the high-valued regions of each subgroup region is an inverse of a sum of absolute size differences between the high-valued regions of the subgroup region. Vorrichtung (10) gemäß einem der Ansprüche 12 bis 16, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede der Teilregionen die Bewertung von jeder der Teilgruppenregionen, die in der Teilregion beinhaltet sind, nicht nur auf der Basis der Summe von Bewertungen der jeweiligen hochbewerteten Bereiche in der Teilgruppenregion zu berechnen, sondern ebenso auf Basis einer Dichte von hochbewerteten Bereichen der Teilgruppenregion.Contraption ( 10 ) according to one of claims 12 to 16, characterized in that the partial region extracting agent ( 51 ) is designed to calculate, for each of the sub-regions, the score of each of the sub-group regions included in the sub-region, based not only on the sum of scores of the respective high-scoring regions in the sub-group region but also on a density of high-scoring regions the subgroup region. Vorrichtung (10) gemäß einem der Ansprüche 12 bis 17, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede der Teilregionen zu bestimmen, ob oder nicht die Bewertung der Teilregion gleich oder kleiner als ein vorbestimmter Grenzwert ist, und wenn bestimmt wird, dass die Bewertung der Teilregion gleich oder kleiner als der vorbestimmte Grenzwert ist, die Teilregion als eine Teilregion zu disqualifizieren.Contraption ( 10 ) according to one of claims 12 to 17, characterized in that the partial region extracting agent ( 51 ) is arranged to determine, for each of the partial regions, whether or not the score of the partial region is equal to or smaller than a predetermined threshold, and if it is determined that the score of the partial region is equal to or smaller than the predetermined threshold, the partial region as one Disqualify subregion. Vorrichtung (10) gemäß einem der Ansprüche 3 bis 18, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, eine Objektregion, in der das Objekt vorliegt, auf der Basis von Größen der entsprechenden hochbewerteten Bereiche zu schätzen, die in der Teilregion beinhaltet sind.Contraption ( 10 ) according to one of claims 3 to 18, characterized in that the partial region extracting agent ( 51 ) is adapted to estimate an object region in which the object is present on the basis of magnitudes of the corresponding high-valued regions included in the sub-region. Vorrichtung (10) gemäß einem der Ansprüche 3 bis 19, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, eine Objektregion, in der das Objekt vorliegt, auf der Basis relativer Positionen der Teilregionen zu bestimmen.Contraption ( 10 ) according to one of claims 3 to 19, characterized in that the partial region extracting agent ( 51 ) is adapted to determine an object region in which the object exists on the basis of relative positions of the subregions. Vorrichtung (10) gemäß Anspruch 20, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, die Objektregion in der Form einer rechtwinkelig umschriebenen Region, die die Teilregionen beinhaltet, zu schätzen.Contraption ( 10 ) according to claim 20, characterized in that the partial region extracting agent ( 51 ) is designed to estimate the object region in the form of a rectangular circumscribed region that includes the subregions. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 21, dadurch gekennzeichnet, dass das Teilregionextrahierungsmittel (51) ausgelegt ist, für jede Objektregion eine Bewertung der Objektregion, die aus den Teilregionen geschätzt wird, zu berechnen, zu bestimmen, ob oder nicht die Bewertung der Objektregion größer als ein vorbestimmter Grenzwert ist, und wenn bestimmt wird, dass die Bewertung der Objektregion gleich oder kleiner als der vorbestimmte Grenzwert ist, die Objektregion als eine Objektregion zu disqualifizieren.Contraption ( 10 ) according to one of claims 1 to 21, characterized in that the partial region extracting agent ( 51 ) is configured to calculate for each object region a score of the object region estimated from the sub-regions, to determine whether or not the score of the object region is greater than a predetermined threshold, and to determine that the score of the object region is the same or less than the predetermined threshold is to disqualify the object region as an object region. Vorrichtung (10) gemäß einem der Ansprüche 1 bis 22, ferner gekennzeichnet durch ein Objektregionsschätzmittel (52) zum Bestimmen eines Kollisionsrisikos auf der Basis einer Position und/oder einer Größe und/oder einer Bewertung der Objektregion, die durch das Objektregionsschätzmittel (51) berechnet werden, und der Distanz von dem Eigenfahrzeug zum Objekt.Contraption ( 10 ) according to one of claims 1 to 22, further characterized by an object region estimation means ( 52 ) for determining a collision risk on the basis of a position and / or a size and / or an evaluation of the object region which is detected by the object region estimation means ( 51 ) and the distance from the subject vehicle to the object. Fahrzeugsteuersystem (1), aufweisend: Bildverarbeitungsvorrichtung gemäß Anspruch 23; und eine Fahrzeugsteuervorrichtung (20), die ein Unterrichtungssteuermittel (70) beinhaltet, um einem Fahrer eine Unterrichtung in Antwort auf das Kollisionsrisiko bereitzustellen, das durch das Kollisionsrisikobestimmungsmittel (52) bestimmt wird.Vehicle control system ( 1 ), comprising: image processing apparatus according to claim 23; and a vehicle control device ( 20 ), which is an information control 70 ) to provide a driver with information in response to the risk of collision caused by the collision risk determination means ( 52 ) is determined. Fahrzeugsteuersystem (1), aufweisend: Bildverarbeitungsvorrichtung gemäß Anspruch 23; und eine Fahrzeugsteuervorrichtung (20), die das Fahrzeugsteuermittel (80) beinhaltet, um Kollisionsvermeidungssteuerung in Antwort auf das Kollisionsrisiko zu bewirken, das durch das Kollisionsrisikobestimmungsmittel (52) bestimmt wird.Vehicle control system ( 1 ), comprising: image processing apparatus according to claim 23; and a vehicle control device ( 20 ), the vehicle control means ( 80 ) to effect collision avoidance control in response to the risk of collision caused by the collision risk determination means (10). 52 ) is determined.
DE201310203300 2012-02-27 2013-02-27 Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions Ceased DE102013203300A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-040516 2012-02-27
JP2012040516 2012-02-27

Publications (1)

Publication Number Publication Date
DE102013203300A1 true DE102013203300A1 (en) 2013-08-29

Family

ID=48951029

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310203300 Ceased DE102013203300A1 (en) 2012-02-27 2013-02-27 Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions

Country Status (2)

Country Link
JP (1) JP5780249B2 (en)
DE (1) DE102013203300A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107545232A (en) * 2016-06-24 2018-01-05 福特全球技术公司 Track detection system and method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6382525B2 (en) * 2014-02-10 2018-08-29 株式会社デンソー Object identification method and object identification device
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
JP6411942B2 (en) * 2015-04-23 2018-10-24 株式会社デンソー Object recognition device
JP2017097705A (en) * 2015-11-26 2017-06-01 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
KR102553730B1 (en) * 2018-03-08 2023-07-11 주식회사 에이치엘클레무브 Apparatus and method for controlling collision avoidance of vehicle

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021034A (en) 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3540494B2 (en) * 1996-03-15 2004-07-07 株式会社東芝 Cooperative work adjusting device and cooperative work adjusting method
KR100892022B1 (en) * 2005-08-12 2009-04-07 소니 컴퓨터 엔터테인먼트 인코포레이티드 Face image display, face image display method, and face image display program
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008021034A (en) 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, pedestrian recognition device and vehicle controller

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107545232A (en) * 2016-06-24 2018-01-05 福特全球技术公司 Track detection system and method

Also Published As

Publication number Publication date
JP5780249B2 (en) 2015-09-16
JP2013211005A (en) 2013-10-10

Similar Documents

Publication Publication Date Title
DE102014221510A1 (en) System and method for recognizing a user gesture for performing the operation of a vehicle
DE102013203300A1 (en) Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions
DE102015121339B4 (en) SYSTEMS AND METHODS FOR DETERMINING A CONDITION OF A ROAD
DE102015121387B4 (en) Obstacle detection device and obstacle detection method
DE102013113953A1 (en) Method and device for detecting moving objects
EP3292510B1 (en) Method and apparatus for detecting and assessing road reflections
DE112018005656T5 (en) Onboard environment detection device
DE102011055665A1 (en) Image processing device
DE102014209584A1 (en) Object detecting device
DE102017007942B4 (en) Device and method for detecting the physical condition of a driver
DE102014112797A1 (en) Vehicle exterior environment recognition device
DE102018203590A1 (en) Surroundview system with adapted projection surface
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102015205685A1 (en) ROAD MARKING DETECTION DEVICE
DE102017117593A1 (en) Vehicle driving assistance device
EP2901414B1 (en) Method and image processing system for determining parameters of a camera
EP2546778A2 (en) Method for evaluating an object detection device of a motor vehicle
DE102015214250A1 (en) Speech recognition system and speech recognition method
DE102011011931A1 (en) Method for evaluating a plurality of time-shifted images, device for evaluating images, monitoring system
DE102018110972A1 (en) Vehicle exterior environment recognition device
DE102014009139A1 (en) Lane detection method and lane detection system using a photographing unit
DE102009007412A1 (en) Method for tracing e.g. pedestrian in images captured by camera in car, involves determining subset based on parameters with respect to transformed image points and correspondence image points, and utilizing mapping rule to trace object
DE102014006546A1 (en) motor vehicle
DE102013012780A1 (en) Method for detecting a target object by clustering characteristic features of an image, camera system and motor vehicle
DE102020126954A1 (en) System and method for detecting a spatial orientation of a portable device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final