[go: up one dir, main page]

MX2014010245A - Dispositivo de deteccion de objetos tridimensionales. - Google Patents

Dispositivo de deteccion de objetos tridimensionales.

Info

Publication number
MX2014010245A
MX2014010245A MX2014010245A MX2014010245A MX2014010245A MX 2014010245 A MX2014010245 A MX 2014010245A MX 2014010245 A MX2014010245 A MX 2014010245A MX 2014010245 A MX2014010245 A MX 2014010245A MX 2014010245 A MX2014010245 A MX 2014010245A
Authority
MX
Mexico
Prior art keywords
adjacent
threshold value
dimensional object
certainty
detection
Prior art date
Application number
MX2014010245A
Other languages
English (en)
Other versions
MX350354B (es
Inventor
Yasuhisa Hayakawa
Osamu Fukata
Original Assignee
Nissan Motor
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor filed Critical Nissan Motor
Publication of MX2014010245A publication Critical patent/MX2014010245A/es
Publication of MX350354B publication Critical patent/MX350354B/es

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Geometry (AREA)

Abstract

La presente invención se provee con: un medio (32, 33) de detección de objeto tridimensional que genera información de la forma de onda de diferencia con base en el número de pixeles que tienen una diferencia igual a o mayor que un primer valor de umbral en una imagen de diferencia en la cual se alinean las imágenes de vista aérea tomadas en diferentes tiempos, y detecta un objeto tridimensional con base en la información de la forma de onda de diferencia cuando la información de la forma de onda de diferencia dentro de un marco de detección predeterminado es igual a o mayor que un segundo valor de umbral; un medio (35) de detección de fuente de iluminación que detecta una fuente de iluminación; un medio (34) de determinación de certeza que determina la certeza con la cual una fuente de iluminación es el faro delantero de otro vehículo que viaja en el carril siguiente al adyacente; y un medio (35) de control que, si la certeza es igual a o mayor que un valor predeterminado, establece el primer valor de umbral o el segundo valor de umbral tal que un objeto tridimensional sea más difícil de detectar en un área delantera más hacia adelante que una línea que conecta la fuente de iluminación y un medio (10) de formación de imágenes en el marco de detección, y, si la certeza es menor que el valor predeterminado, establece el primer valor de umbral o el segundo valor de umbral tal que un objeto tridimensional sea progresivamente más difícil de detectar hacia el extremo frontal o el extremo trasero desde el centro del marco de detección.

Description

DISPOSITIVO DE DETECCIÓN DE OBJETOS TRIDIMENSIONALES CAMPO TÉCNICO La presente invención se refiere a un dispositivo de detección de objetos tridimensionales.
Esta solicitud reclama el derecho de prioridad con base en la Solicitud de Patente Japonesa No. 2012-045356 presentada el 1 de Marzo de 2012, y en los estados designados que aceptan la incorporación de un documento por referencia, el contenido descrito en la solicitud anteriormente citada se incorpora aquí por referencia y se considera una parte de la descripción de la presente solicitud.
ANTECEDENTES DE LA TÉCNICA En una técnica convencionalmente conocida, dos imágenes capturadas, capturadas en diferentes tiempos se convierten a una imagen de vista a ojo de pájaro, y un obstáculo se detecta con base en las diferencias en las dos imágenes de vista a ojo de pájaro convertidas (véase el documento de patente 1) .
Documentos de la Técnica Anterior Documentos de Patente Documento de Patente 1: Solicitud de Patente Japonesa Abierta al Público No. 2008-227646.
DIVULGACIÓN DE LA INVENCIÓN Problemas a ser solucionados por la Invención Cuando otro vehículo que viaja en un carril adyacente, adyacente al carril en el cual viaja el vehículo principal debe ser detectado en la noche utilizando una imagen en la cual la parte trasera de un vehículo principal ha sido capturada, y cuando la luz de los faros delanteros de otro vehículo que viaja en un carril adyacente al carril adyacente (también referido a continuación como carril adyacente al adyacente) se radia en las áreas de detección, puede haber casos en los cuales una imagen de la luz de los faros delanteros es errantemente detectada como un vehículo adyacente que viaja en un carril adyacente. Consecuentemente, es posible considerar un método para eliminar el efecto de los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente incrementando una referencia de detección para detectar otro vehículo que viaja en un carril adyacente de conformidad con la posición de la fuente de iluminación cuando una fuente de iluminación ha sido detectada hacia atrás del vehículo principal. Sin embargo, cuando la fuente de iluminación detectada no son los faros delanteros de otro vehículo que viaja en el carril adyacente al adyacente, inversamente hay casos en los cuales otro vehículo que viaja en un carril adyacente no puede ser adecuadamente detectado cuando la referencia de detección es modificada a fin de eliminar el efecto de los faros delanteros de un vehículo que viaja en un carril adyacente al adyacente.
El problema a ser solucionado por la presente invención es eliminar el efecto de la luz radiada a partir de los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente cuando se detecta otro vehículo que viaja en un carril adyacente, adyacente al carril en el cual viaja el vehículo principal, y detectar de manera precisa otro vehículo que viaja en un carril adyacente. Medios utilizados para solucionar los problemas anteriormente mencionados La presente invención soluciona el problema detectando una fuente de iluminación presente hacia atrás del vehículo principal, calculando un grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de otro vehículo que viaja en el carril adyacente al adyacente, adyacente al carril adyacente, estableciendo la referencia de detección para detectar un vehículo adyacente con base en la relación posicional entre el medio de captura de imagen y la fuente de iluminación cuando el grado de certeza calculado está en un valor predeterminado o mayor, y estableciendo el valor de umbral para detectar un vehículo adyacente de conformidad con la distancia hacia atrás desde el medio de captura de imagen cuando el grado de certeza es menor que el valor de umbral.
Efecto de la Invención De conformidad con la presente invención, un valor de umbral para detectar un objeto tridimensional se establece con base en un grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente, posibilitando por consiguiente eliminar adecuadamente el efecto de la luz de los faros delanteros incluso cuando la fuente de iluminación detectada son los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente, y detectar adecuadamente otro vehículo que viaja en un carril adyacente cuando la fuente de iluminación detectada son los faros delanteros de otro vehículo que viaja en un carril adyacente .
BREVE DESCRIPCIÓN DE LOS DIBUJOS [FIGURA 1] Diagrama estructural esquemático de un vehículo en el cual se ha montado un dispositivo de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 2] Vista en planta que ilustra el estado de viaje del vehículo en la FIGURA 1.
[FIGURA 3] Vista de bloques que ilustra los detalles de la computadora de acuerdo con la primera modalidad.
[FIGURAS 4(a) y 4(b)] Vistas para describir la visión general del procesamiento de la unidad de alineación de acuerdo con la primera modalidad; la FIGURA 4(a) es una vista en planta que ilustra el estado de movimiento del vehículo, y la FIGURA 4 (b) es una imagen que ilustra una visión general de la alineación.
[FIGURA 5] Vista esquemática que ilustra la manera en la cual la forma de onda de diferencia se genera por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad .
[FIGURA 6] Vista para describir el método para detectar un vehículo adyacente de conformidad con la primera modalidad.
[FIGURA 7] Gráfica para ilustrar un ejemplo de la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el primer valor <¾ de umbral.
[FIGURA 8] Vista para describir la relación entre la distancia hacia atrás desde la cámara y el primer valor <¾ de umbral .
[FIGURA 9A] Vista para ilustrar una situación en la cual la luz de los faros delanteros de un vehículo adyacente al adyacente se radia en el área R2 en las áreas Al, A2 de detección .
[FIGURA 9B] Vista para ilustrar una situación en la cual la luz de los faros delanteros de un vehículo adyacente al adyacente se radia en el área Rl en las áreas Al, A2 de detección.
[FIGURA 9C] Vista para ilustrar una situación en la cual la luz de los faros delanteros de un vehículo adyacente al adyacente se radia en el área R3 en las áreas Al, A2 de detección .
[FIGURA 10] Gráfica para ilustrar un ejemplo de un primer mapa de valores de umbral que ilustra la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el valor <¾>' de umbral.
[FIGURA 11] Gráfica para ilustrar un ejemplo de un segundo mapa de valores de umbral que ilustra la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el valor a2' ' de umbral.
[FIGURA 12] Vista para ilustrar un ejemplo de un mapa de control que especifica la ponderación wt del valor <¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral .
[FIGURAS 13(A) y 13(B)] Vistas para describir el método para ajustar el mapa de control según se ilustra en la FIGURA 12.
[FIGURA 14] Vista para ilustrar las pequeñas áreas divididas por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 15] Vista que ilustra un ejemplo del histograma obtenido por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 16] Vista que ilustra la ponderación utilizada por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 17] Vista que ilustra otro ejemplo del histograma obtenido por la unidad de detección de objeto tridimensional de acuerdo con la primera modalidad.
[FIGURA 18] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la primera modalidad.
[FIGURA 19] Diagrama de flujo que ilustra el proceso para establecer el valor de umbral en la etapa S105.
[FIGURA 20] Vista de bloques que ilustra los detalles de la computadora de acuerdo con la segunda modalidad.
[FIGURAS 21(a) y 21(b)] Vistas que ilustran el estado de viaje del vehículo; la FIGURA 21(a) es una vista en planta que ilustra la relación posicional entre el área de detección y similares, y la FIGURA 21(b) es una vista en perspectiva que ilustra la relación posicional entre el área de detección y similares en el espacio real.
[FIGURAS 22(a) y 22(b)] Vistas para describir la operación de la unidad de cálculo de diferencia de luminancia de acuerdo con la segunda modalidad; la FIGURA 22 (a) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en una imagen de vista a ojo de pájaro, y la FIGURA 22 (b) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en el espacio real .
[FIGURAS 23(a) y 23(b)] Vistas para describir la operación detallada de la unidad de cálculo de diferencia de luminancia de acuerdo con la segunda modalidad; la FIGURA 23 (a) es una vista que ilustra las áreas de detección en la imagen de vista a ojo de pájaro, y la FIGURA 23(b) es una vista que ilustra la relación posicional entre la línea de atención, la línea de referencia, el punto de atención, y el punto de referencia en la imagen de vista a ojo de pájaro.
[FIGURA 24] Vista que ilustra un ejemplo de imagen para describir la operación de detección de borde.
[FIGURA 25] Gráfica para ilustrar un ejemplo de la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el tercer valor ¾. de umbral.
[FIGURA 26] Vista para describir la relación entre la distancia hacia atrás desde la cámara y el tercer valor /3i de umbral.
[FIGURA 27] Gráfica para ilustrar un ejemplo de un tercer mapa de valores de umbral que ilustra la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el valor ß2' de umbral.
[FIGURA 28] Gráfica para ilustrar un ejemplo de un cuarto mapa de valores de umbral que ilustra la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el valor ß2' ' de umbral.
[FIGURA 29] Vista para ilustrar un ejemplo de un mapa de control que especifica la ponderación wt del valor ß2' ' de umbral obtenido a partir del cuarto mapa de valores de umbral.
[FIGURAS 30(a) y 30(b)] Vistas que ilustran la línea de borde y la distribución de luminancia en la línea de borde; la FIGURA 30 (a) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional (vehículo adyacente) está presente en el área de detección, y la FIGURA 30 (b) es una vista que ilustra la distribución de luminancia cuando un objeto tridimensional no está presente en el área de detección .
[FIGURA 31] Diagrama de flujo que ilustra el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad .
[FIGURA 32] Vista para ilustrar el mapa de control de acuerdo con otra modalidad.
MODALIDADES PREFERIDAS DE LA INVENCIÓN Modalidad 1 La FIGURA 1 es un diagrama estructural esquemático de un vehículo en el cual se ha montado un dispositivo de detección de objeto tridimensional de acuerdo con la primera modalidad. Un objeto del dispositivo 1 de detección de objeto tridimensional de acuerdo con la presente modalidad es detectar un vehículo (en lo siguiente se puede referir como vehículo V2 adyacente) presente en un carril adyacente donde es posible el contacto si un vehículo VI principal cambia de carril. El dispositivo 1 de detección de objeto tridimensional de acuerdo con la presente modalidad se provee con una cámara 10, un detector 20 de velocidad, y una computadora 30, según se ilustra en la FIGURA 1.
La cámara 10 se une al vehículo VI principal de modo que el eje óptico sea un ángulo T hacia abajo desde la horizontal en una ubicación en una altura h en la parte trasera del vehículo VI principal, según se ilustra en la FIGURA 1. Desde esta posición, la cámara 10 captura un área predeterminada del ambiente circundante del vehículo VI principal. El detector 20 de velocidad detecta la velocidad de viaje del vehículo VI principal y calcula la velocidad del vehículo a partir de una velocidad de rueda detectada mediante, por ejemplo, un detector de velocidad de rueda para detectar la velocidad rotacional de una rueda. La computadora 30 detecta un vehículo adyacente presente en un carril adyacente hacia atrás del vehículo principal.
La FIGURA 2 es una vista en planta que ilustra el estado de viaje del vehículo VI principal en la FIGURA 1. Según se ilustra en el dibujo, la cámara 10 captura el lado trasero del vehículo en un ángulo a de vista predeterminado. En este momento, el ángulo a de vista de la cámara 10 se establece a un ángulo de vista que permite que los carriles izquierdo y derecho (carriles adyacentes) sean capturados además del carril en el cual viaja el vehículo VI principal.
La FIGURA 3 es una vista de bloques que ilustra los detalles de la computadora 30 en la FIGURA 1. La cámara 10 y el detector 20 de velocidad también se ilustran en la FIGURA 3 para indicar claramente las relaciones de conexión.
Según se ilustra en la FIGURA 3, la computadora 30 se provee con una unidad 31 de conversión de perspectiva, una unidad 32 de alineación, una unidad 33 de detección de objeto tridimensional, una unidad 34 de evaluación de grado de certeza, y una unidad 35 de establecimiento de referencia de detección. La configuración de estas unidades se describe a continuación .
Los datos de la imagen capturada del área predeterminada obtenidos mediante la captura llevada a cabo por la cámara 10 se ingresan a la unidad 31 de conversión de perspectiva, y los datos de la imagen capturada asi ingresados se convierten a datos de imagen de vista a ojo de pájaro, que es un estado de vista a ojo de pájaro. Un estado de vista a ojo de pájaro es un estado de visuali zación desde una perspectiva de una cámara imaginaria que mira hacia abajo desde arriba, por ejemplo, verticalmente hacia abajo. La conversión de perspectiva se puede llevar a cabo en la manera descrita en, por ejemplo, la Solicitud de Patente Japonesa Abierta al Público No. 2008-219063. La razón por la que los datos de la imagen capturada se convierten a datos de imagen de vista a ojo de pájaro se basa en el principio de que los bordes perpendiculares únicos para un objeto tridimensional se convierten a un grupo de lineas rectas que pasa a través de un punto fijo especifico mediante la conversión de perspectiva a datos de imagen de vista a ojo de pájaro, y utilizando este principio se permite que un objeto plano y un objeto tridimensional sean diferenciados .
Los datos de imagen de vista a ojo de pájaro obtenidos mediante la conversión de perspectiva llevada a cabo por la unidad 31 de conversión de perspectiva se ingresan secuencialmente a la unidad 32 de alineación, y se alinean las posiciones ingresadas de los datos de imagen de vista a ojo de pájaro en diferentes tiempos. Las FIGURAS 4(a) y 4(b) son unas vistas para describir la visión general del procesamiento de la unidad 32 de alineación, la FIGURA 4 (a) es una vista en planta que ilustra el estado de movimiento del vehículo VI principal, y la FIGURA 4(b) es una imagen que ilustra una visión general de la alineación.
Según se ilustra en la FIGURA (a) , el vehículo VI principal en el momento actual se posiciona en Pi, y el vehículo VI principal en un solo momento previo se posiciona en ??' . Se asume que un vehículo V2 adyacente se posiciona en la dirección del lado trasero del vehículo VI principal y viaja paralelamente al vehículo VI principal, y que el vehículo V2 adyacente en el momento actual se posiciona en P2, y el vehículo V2 adyacente en un solo momento previo se posiciona en P2' . También, se asume que el vehículo VI principal se ha movido una distancia d en un solo momento. La frase "en un solo momento previo" puede ser un momento en el pasado por un tiempo establecido de antemano (por ejemplo, un solo ciclo de control) desde el momento actual, o puede ser un momento en el pasado por un tiempo arbitrario.
En tal estado, una imagen PBt de vista a ojo de pájaro en el momento actual se ilustra en la FIGURA 4 (b) . Las lineas blancas dibujadas sobre la superficie de la carretera son rectangulares en esta imagen PBt de vista a ojo de pájaro y son relativamente precisas en una vista plana, pero el vehículo V2 adyacente (posición P2) está colapsado. Lo mismo aplica a la imagen PBt-i de vista a ojo de pájaro en un solo momento previo; las líneas blancas dibujadas sobre la superficie de la carretera son rectangulares y son relativamente precisas en una vista plana, pero el vehículo V2 adyacente (posición P2' ) está colapsado. Según se describe previamente, los bordes perpendiculares de un objeto tridimensional (los bordes que están erguidos en el espacio tridimensional desde la superficie de la carretera también se incluyen en un significado estricto de borde perpendicular) aparecen como un grupo de líneas rectas a lo largo de una dirección de colapso debido al proceso para convertir la perspectiva a datos de imagen de vista a ojo de pájaro, pero debido a que una imagen plana sobre la superficie de la carretera no incluye bordes perpendiculares, tal colapso no ocurre incluso cuando la perspectiva ha sido convertida.
La unidad 32 de alinGBcion aliñes las imacjGnes PBt y PBt-i de vista a ojo de pájaro, tales como aquellas anteriormente descritas, en términos de datos. Cuando se lleva a cabo esto, la unidad 32 de alineación desplaza la imagen PBt-i de vista a ojo de pájaro en un solo momento previo, y aparea la posición con la imagen PBt de vista a ojo de pájaro en el momento actual. La imagen del lado izquierdo y la imagen central en la FIGURA 4 (b) ilustran el estado de desplazamiento por una distancia d' de movimiento. La cantidad d' de desplazamiento es la cantidad de movimiento en los datos de imagen de vista a ojo de pájaro que corresponde a la distancia d de movimiento real del vehículo VI principal que se ilustra en la FIGURA 4(a), y se decide con base en una señal del detector 20 de velocidad y el tiempo desde un solo momento previo hasta el momento actual.
Después de la alineación, la unidad 32 de alineación obtiene la diferencia entre las imágenes PBt y PBt-i de vista a ojo de pájaro, y genera datos de imagen PDt de diferencia. En la presente modalidad, la unidad 32 de alineación toma el valor absoluto de la diferencia en los valores de pixel de las imágenes PBt y PBt-i de vista a ojo de pájaro a fin de corresponder a la variación en el ambiente de iluminación, y cuando el valor absoluto es igual a o mayor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "1", y cuando el valor absoluto es menor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "O", lo que permite que los datos de imagen PDt de diferencia tales como aquellos ilustrados en el lado derecho de la FIGURA 4 (b) sean generados.
Regresando a la FIGURA 3, la unidad 33 de detección de objeto tridimensional detecta un objeto tridimensional con base en los datos de imagen PDt de diferencia ilustrados en la FIGURA 4(b) . En este caso, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional en el espacio real. La unidad 33 de detección de objeto tridimensional primero genera una forma de onda de diferencia cuando el objeto tridimensional es detectado y la distancia de movimiento debe ser calculada.
En la generación de la forma de onda D t de diferencia, la unidad 33 de detección de objeto tridimensional establece un área de detección en la imagen PDt de diferencia. Un objeto del dispositivo 1 de detección de objeto tridimensional del presente ejemplo es calcular la distancia de movimiento para el vehículo adyacente con el cual hay una posibilidad de contacto si el vehículo VI principal cambia de carril. Consecuentemente, en el presente ejemplo, las áreas Al, A2 de detección rectangulares se establecen detrás del vehículo VI principal, según se ilustra en la FIGURA 2. Tales áreas Al, A2 de detección se pueden establecer desde una posición relativa hasta el vehículo VI principal, o se pueden establecer con base en la posición de las lineas blancas. Cuando se establecen con base en la posición de las lineas blancas, el dispositivo 1 de detección de objeto tridimensional puede utilizar, por ejemplo, las técnicas de reconocimiento de lineas blancas conocidas.
La unidad 33 de detección de objeto tridimensional reconoce como lineas Ll, L2 de suelo los bordes de las áreas Al, A2 de detección asi establecidas, en el lado del vehículo VI principal (lado a lo largo de la dirección de viaje), según se ilustra en la FIGURA 2. Generalmente, una linea de suelo se refiere a una linea en la cual un objeto tridimensional está en contacto con el suelo, pero en la presente modalidad, una linea de suelo no es una linea en contacto con el suelo, sino más bien se establece en la manera anteriormente descrita. Incluso en tal caso, la diferencia entre la linea de suelo de acuerdo con la presente modalidad y la linea de suelo normal determinada a partir de la posición del vehículo V2 adyacente no es extremadamente grande según se determina por experiencia, y no hay problema en realidad.
La FIGURA 5 es una vista esquemática que ilustra la manera en la cual la forma de onda de diferencia se genera por la unidad 33 de detección de objeto tridimensional. Según se ilustra en la FIGURA 5, la unidad 33 de detección de objeto tridimensional genera una forma de onda DWt de diferencia a partir de la porción que corresponde a las áreas Al, A2 de detección en la imagen PDt de diferencia (dibujo a la derecha en la FIGURA 4 (b) ) calculada por la unidad 32 de alineación. En este caso, la unidad 33 de detección de objeto tridimensional genera una forma de onda DWt de diferencia a lo largo de la dirección de colapso del objeto tridimensional mediante la conversión de perspectiva. En el ejemplo ilustrado en la FIGURA 5, sólo se describirá el área Al de detección por el bien de la conveniencia, pero la forma de onda DWt de diferencia se genera también para el área A2 de detección utilizando el mismo procedimiento.
Más específicamente, primero, la unidad 33 de detección de objeto tridimensional define una línea La en la dirección en la cual el objeto tridimensional colapsa en los datos de imagen PDt de diferencia. La unidad 33 de detección de objeto tridimensional cuenta entonces el número de pixeles DP de diferencia que indican una diferencia predeterminada en la línea La. En la presente modalidad, los pixeles DP de diferencia que indican una diferencia predeterminada tienen valores de pixel en la imagen PDt de diferencia que se representan por "0" y "1", y los pixeles indicados por "1" se cuentan como pixeles DP de diferencia.
La unidad 33 de detección de objeto tridimensional cuenta el número de pixeles DP de diferencia, y posteriormente determina el punto de cruce CP de la línea La y la línea Ll de suelo. La unidad 33 de detección de objeto tridimensional correlaciona entonces el punto de cruce CP y el número del conteo, decide la posición del eje horizontal, es decir, la posición sobre el eje en la dirección vertical en el dibujo a la derecha en la FIGURA 5, con base en la posición del punto de cruce CP, decide la posición del eje vertical, es decir, la posición sobre el eje en la dirección lateral en el dibujo a la derecha en la FIGURA 5, a partir del número del conteo, y gráfica las posiciones como el número del conteo en el punto de cruce CP.
De modo semejante, la unidad 33 de detección de objeto tridimensional define las lineas Lb, Le, ... en la dirección en la cual el objeto tridimensional colapsa, cuenta el número de pixeles DP de diferencia, decide la posición del eje horizontal con base en la posición de cada punto de cruce CP, decide la posición del eje vertical a partir del número del conteo (el número de pixeles DP de diferencia), y gráfica las posiciones. La unidad 33 de detección de objeto tridimensional repite lo anterior en secuencia para formar una distribución de frecuencias y generar por consiguiente una primera forma de onda DWt de diferencia según se ilustra en el dibujo a la derecha en la FIGURA 5.
Aqui, los pixeles PD de diferencia en los datos de imagen PDt de diferencia son pixeles que han cambiado en la imagen en diferentes momentos, en otras palabras, ubicaciones que pueden interpretarse como donde un objeto tridimensional estuvo presente. Consecuentemente, en las ubicaciones donde un objeto tridimensional estuvo presente, el número de pixeles se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa para formar una distribución de frecuencias y generar por consiguiente una forma de onda DWt de diferencia. En particular, el número de pixeles se cuenta a lo largo de la dirección en la cual el objeto tridimensional colapsa, y una forma de onda DWt de diferencia se genera por consiguiente a partir de la información acerca de la dirección de altura en relación al objeto tridimensional.
Las lineas La y Lb en la dirección en la cual el objeto tridimensional colapsa tienen diferentes distancias que traslapan el área Al de detección, según se ilustra en el dibujo a la izquierda en la FIGURA 5. Consecuentemente, el número de pixeles DP de diferencia es mayor en la linea La que en la linea Lb cuando se asume que el área Al de detección se llena con los pixeles DP de diferencia. Por esta razón, la unidad 33 de detección de objeto tridimensional realiza la normalización con base en la distancia que las lineas La, Lb en la dirección en la cual el objeto tridimensional colapsa y el área Al de detección traslapan cuando la posición del eje vertical se decide a partir del número del conteo de los pixeles DP de diferencia. En un ejemplo especifico, hay seis pixeles DP de diferencia en la linea La y hay cinco pixeles DP de diferencia en la linea Lb en el dibujo a la izquierda en la FIGURA 5. Consecuentemente, cuando la posición del eje vertical se decide a partir del número del conteo en la FIGURA 5, la unidad 33 de detección de objeto tridimensional divide el número del conteo por la distancia de traslape o realiza la normalización de otra manera. Los valores de la forma de onda DWt de diferencia que corresponden a las lineas La, Lb en la dirección en la cual el objeto tridimensional colapsa se hacen por consiguiente sustancialmente iguales.
Después de que se ha generado la forma de onda DWt de diferencia, la unidad 33 de detección de objeto tridimensional detecta un vehículo adyacente presente en el carril adyacente con base en la forma de onda D t de diferencia generada. Aquí, la FIGURA 6 es una vista que describe el método para detectar un vehículo adyacente llevado a cabo por la unidad 33 de detección de objeto tridimensional, e ilustra un ejemplo de la forma de onda DWt de diferencia y el valor de umbral para detectar un vehículo adyacente. La unidad 33 de detección de objeto tridimensional determina si el máximo de la forma de onda DWt de diferencia generada es igual a o mayor que el valor a de umbral correspondiente a la posición del máximo de la forma de onda DWt de diferencia, según se ilustra en la FIGURA 6. La unidad 33 de detección de objeto tridimensional determina entonces que un vehículo adyacente no está presente en las áreas Al, A2 de detección cuando el máximo de la forma de onda DWt de diferencia es menor que el valor a de umbral predeterminado, e inversamente determina que un vehículo adyacente está presente en las áreas Al, A2 de detección cuando el máximo de la forma de onda D t de diferencia está en el valor de umbral predeterminado o mayor para detectar por consiguiente un vehículo adyacente presente en un carril adyacente .
De esta manera, la forma de onda D t de diferencia es un modo de información distribuida de pixeles que indican una diferencia predeterminada en la luminancia, y la "información distribuida de pixeles" en la presente modalidad se puede posicionar con la información que indica el estado de distribución de los "pixeles que tienen una diferencia en la luminancia que es igual a o mayor que un valor de umbral predeterminado" detectados a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva para crear una imagen de vista a ojo de pájaro. En otras palabras, la unidad 33 de detección de objeto tridimensional detecta, en la imagen de vista a ojo de pájaro obtenida por la unidad 31 de conversión de perspectiva, la información distribuida de pixeles en que la diferencia de luminancia es un valor th de umbral predeterminado o mayor como la forma de onda DWt de diferencia en la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva para crear una imagen de vista a ojo de pájaro, y además detecta un objeto tridimensional con base en la forma de onda DWt de diferencia cuando el grado de distribución de los pixeles (el número del conteo de los pixeles DP de diferencia en la forma de onda D t de diferencia) en la dirección en la cual el objeto tridimensional colapsa está en un valor de umbral o mayor .
A continuación se describe el método para establecer el valor a de umbral para detectar un vehículo adyacente.
El valor a de umbral se establece por la unidad 35 de establecimiento de referencia de detección ilustrada en la FIGURA 3. Según se describe a continuación, en la presente modalidad, la unidad 35 de establecimiento de referencia de detección establece, con base en un grado de certeza detectado por la unidad 34 de evaluación de grado de certeza, el valor a¾ de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10 o el valor a¾ de umbral establecido de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación como el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia ilustrada en la FIGURA 3.
Cuando una fuente de iluminación se detecta en la dirección hacia atrás del vehículo principal, la unidad 34 de evaluación de grado de certeza hace una evaluación utilizando como el grado de certeza la probabilidad de que la fuente de iluminación detectada sean los faros delanteros de otro vehículo (en lo siguiente referido como el vehículo adyacente al adyacente) que viaja en un carril adyacente al adyacente (el carril dos carriles adyacentes al carril del vehículo principal) en la dirección hacia atrás del vehículo principal. A continuación se describe el método para evaluar el grado de certeza llevado a cabo por la unidad 34 de evaluación de grado de certeza. En la presente modalidad, la detección de una fuente de iluminación se lleva a cabo por la unidad 35 de establecimiento de referencia de detección, según se describe a continuación.
En la presente modalidad, la unidad 34 de evaluación de grado de certeza evalúa el grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en el número de fuentes de iluminación detectadas, la posición de una fuente de iluminación, y el cambio en el tiempo en el estado de una fuente de iluminación.
Por ejemplo, la unidad 34 de evaluación de grado de certeza determina que una fuente de iluminación detectada es, por ejemplo, una luz de alumbrado público, una señal iluminada, o similares y que la posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente es baja, cuando el número de fuentes de iluminación detectadas en las áreas Al, A2 de detección es alto, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente como bajo.
La unidad 34 de evaluación de grado de certeza evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en la posición de la fuente de iluminación, es decir, la altura de la fuente de iluminación (la posición de la fuente de iluminación en la dirección perpendicular) , la posición y la anchura del vehículo de la fuente de iluminación, y la posición de la fuente de iluminación en la dirección de progreso del vehículo principal. Por ejemplo, cuando la ubicación de la fuente de iluminación es alta, la unidad 34 de evaluación de grado de certeza determina que hay una alta posibilidad de que la fuente de iluminación detectada sea de una luz de alumbrado público, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente como bajo. Además, la unidad 34 de evaluación de grado de certeza determina que mientras más lejana esté la posición de la fuente de iluminación en la dirección de anchura del vehículo a partir del vehículo principal, mayor es la posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente presente en un carril adyacente al adyacente, que está más lejos del vehículo principal que lo que lo está el carril adyacente, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros del vehículo adyacente al adyacente como alto. Además, la unidad 34 de evaluación de grado de certeza determina que mientras más lejana esté la posición de la fuente de iluminación en la dirección de progreso del vehículo principal, menor es la posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros del vehículo adyacente al adyacente como bajo.
La unidad 34 de evaluación 'de grado de certeza evalúa adicionalmente el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en el cambio en el tiempo del estado de la fuente de iluminación. Por ejemplo, cuando el cambio en el tiempo del tamaño de la fuente de iluminación detectada es pequeño, la unidad 34 de evaluación de grado de certeza determina que hay una alta posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente que viaja en el carril adyacente al adyacente más lejos del vehículo principal que el carril adyacente, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente como alto. En otro ejemplo, cuando el cambio en el tiempo en la posición de la fuente de iluminación detectada es pequeño, o cuando el cambio en el tiempo en la luminancia de la fuente de iluminación detectada es pequeño, la unidad 34 de evaluación de grado de certeza determina que hay una alta posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente que viaja en el carril adyacente al adyacente más lejos del vehículo principal que el carril adyacente, y evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente como alto.
La unidad 34 de evaluación de grado de certeza evalúa entonces exhaustivamente el grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en el número de fuentes de iluminación, la posición de una fuente de iluminación, y el cambio en el tiempo en el estado de una fuente de iluminación. Determinar exhaustivamente el número de fuentes de iluminación, la posición de una fuente de iluminación, y el cambio en el tiempo en el estado de una fuente de iluminación de esta manera, posibilita determinar adecuadamente si una fuente de iluminación detectada es de los faros delanteros de un vehículo adyacente al adyacente. La unidad 34 de evaluación de grado de certeza se puede configurar para dar consideración al tamaño de la fuente de iluminación detectada cuando se evalúa el grado de certeza. Por ejemplo, la unidad 34 de evaluación de grado de certeza se puede configurar para evaluar el grado de certeza como bajo cuando el tamaño de la fuente de iluminación detectada es considerablemente mayor que el tamaño de los faros delanteros comunes de un vehículo adyacente al adyacente.
La unidad 35 de establecimiento de referencia de detección determina entonces si el grado de certeza evaluado por la unidad 34 de evaluación de grado de certeza está en un valor predeterminado o mayor; cuando el grado de certeza es menor que un valor predeterminado, establece el primer valor ai de umbral, que se estableció de conformidad con la distancia hacia atrás desde una cámara 10 más adelante descrita, como un valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia; e inversamente, cuando el grado de certeza está en el valor predeterminado o mayor, establece el segundo valor a2 de umbral, que se estableció de conformidad con la relación posicional entre la cámara 10 más adelante descrita y la fuente de iluminación, como un valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia. El método para establecer el primer valor ?? de umbral que corresponde a la distancia hacia atrás desde la cámara 10 se describirá primero aquí.
La unidad 35 de establecimiento de referencia de detección establece el primer valor a¾ de umbral de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección (por ejemplo, la luminancia promedio de los pixeles DP de diferencia en las lineas La, Lb, Le en la dirección en la cual el objeto tridimensional colapsa ilustrada en el dibujo a la izquierda en la FIGURA 5) y la distancia hacia atrás desde la cámara 10 para cada posición en las áreas Al, A2 de detección (en lo siguiente referidas como posiciones de detección en las áreas Al, A2 de detección) correspondientes a las lineas La, Lb, Le en la dirección en la cual el objeto tridimensional colapsa ilustrada en el dibujo a la izquierda en la FIGURA 5. Aquí, la FIGURA 7 es una gráfica que ilustra un ejemplo de la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y el primer valor a¾ de umbral. La FIGURA 8 es una vista que describe la relación entre la distancia hacia atrás desde la cámara 10 y el primer valor a¾ de umbral.
Específicamente, la unidad 35 de establecimiento de referencia de detección establece el primer valor i de umbral correspondiente a las posiciones de detección de las áreas Al, A2 de detección a un valor más alto de manera proporcionada a la más alta luminancia en las posiciones de detección en las áreas Al, A2 de detección, según se ilustra en la FIGURA 7. El máximo de la forma de onda DWt de diferencia con base en la luz de los faros delanteros de un vehículo adyacente al adyacente es menor que el primer valor a¾ de umbral y el efecto de la luz de los faros delanteros del vehículo adyacente al adyacente se puede eliminar incluso cuando, por ejemplo, la luz de los faros delanteros del vehículo adyacente al adyacente (el vehículo presente en el carril adyacente al adyacente a dos carriles de distancia del carril del vehículo principal) que tiene alta luminancia se radia en el carril adyacente. Por consiguiente, es posible prevenir efectivamente que una imagen de la luz de los faros delanteros del vehículo adyacente al adyacente sea errantemente detectada como un vehículo adyacente.
La unidad 35 de establecimiento de referencia de detección adicionalmente modifica el primer valor ai de umbral establecido de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección con base en la ganancia en el primer valor <¾ de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10. Por ejemplo, divide las áreas Al, A2 de detección en tres áreas de conformidad con la distancia hacia atrás desde la cámara 10, según se ilustra en el dibujo a la izquierda en la FIGURA 8. En el ejemplo ilustrado en el dibujo a la izquierda en la FIGURA 8, la unidad 35 de establecimiento de referencia de detección divide las áreas Al, A2 de detección en un área Rl en la cual la distancia hacia atrás desde la cámara 10 es menor que una distancia DI, un área R2 en la cual la distancia hacia atrás desde la cámara 10 es la distancia DI o mayor y menor que una distancia D2, y un área R3 en la cual la distancia hacia atrás desde la cámara 10 es la distancia D2 o mayor y menor que una distancia D3. En la FIGURA 8, sólo se muestra y describe el área Al de detección, pero la ganancia en el primer valor a\ de umbral se establece de la misma manera para el área A2 de detección.
Según se ilustra en el dibujo a la derecha en la FIGURA 8, la ganancia en el primer valor a¾ de umbral se establece de conformidad con la distancia hacia atrás desde la cámara 10. Por ejemplo, en el área R2 del área Al de detección donde la distancia hacia atrás desde la cámara 10 es la distancia Di o mayor y menor que la distancia D2 , la ganancia en el primer valor ai de umbral se establece a un valor fijo. En contraste, en el área Rl del área Al de detección donde la distancia hacia atrás desde la cámara 10 es menor que la distancia DI, la ganancia es mayor que el primer valor ai de umbral establecido en el área R2, y mientras mayor es la ganancia en el primer valor ai de umbral, más corta es la distancia hacia atrás desde la cámara 10 (más cerca está al vehículo principal) . Además, en el área R3 también del área Al de detección donde la distancia hacia atrás desde la cámara 10 es la distancia D2 o mayor, la ganancia es mayor que el primer valor ai de umbral establecido en el área R2, y mientras mayor es distancia hacia atrás desde la cámara 10 (mientras más lejos está del vehículo principal), mayor es la ganancia en el primer valor a¾ de umbral.
Aquí, la FIGURA 9A ilustra una situación en la cual los faros delanteros de un vehículo V3 adyacente al adyacente se detectan en el área R2 en las áreas A2 de detección. Según se ilustra en la FIGURA 9A, la luz de los faros delanteros de un vehículo adyacente al adyacente se radia directamente hacia la cámara 10 desde un carril adyacente al adyacente en el área R2 del área A2 de detección, y la cantidad de luz de los faros delanteros incidente sobre la cámara 10 es alta. Por consiguiente, la luminancia en el área R2 es mayor que en las otras áreas Rl, R2 del área A2 de detección. Consecuentemente, según se ilustra en el dibujo a la derecha en la FIGURA 8, la unidad 35 de establecimiento de referencia de detección puede establecer el valor a de umbral más alto de conformidad con la más alta luminancia en el área R2 , según se ilustra en la FIGURA 7, incluso cuando la ganancia del primer valor a¾ de umbral se ha establecido a un valor más bajo en el área R2 de las áreas Al, A2 de detección que en las otras áreas Rl, R3 en las áreas Al, A2 de detección, y por consiguiente es posible prevenir efectivamente que la luz de los faros delanteros del vehículo V3 adyacente al adyacente sea errantemente detectada como un vehículo adyacente. En la FIGURA 9A, sólo se muestra y describe el área A2 de detección, pero lo mismo aplica al área Al de detección (y lo mismo aplica a la FIGURA 9B y a la FIGURA 9C más adelante descritas) .
La FIGURA 9B ilustra una situación en la cual los faros delanteros de un vehículo V3 adyacente al adyacente se detectan en el área Rl en las áreas A2 de detección. Según se ilustra en la FIGURA 9B, de la luz de los faros delanteros radiada a partir del vehículo V3 adyacente al adyacente, sólo una porción de la luz radiada en la dirección en la cual está presente el vehículo VI principal entra a la cámara 10 cuando los faros delanteros del vehículo V3 adyacente al adyacente se detectan en el área Rl cerca del vehículo principal. Consecuentemente, la cantidad de luz de los faros delanteros incidente sobre la cámara 10 es ordinariamente más baja en el área Rl de las áreas Al, A2 de detección cerca del vehículo principal que en el área R2 de las áreas Al, A2 de detección, y la luminancia del área Rl es baja. Consecuentemente, meramente modificar el primer valor a de umbral de conformidad con la luminancia da como resultado casos en los cuales la luz de los faros delanteros del vehículo V3 adyacente al adyacente radiada en el área Rl es errantemente detectada como un vehículo adyacente, según se ilustra en la FIGURA 7. En particular, mientras más corta es la distancia hacia atrás desde la cámara 10 en el área Rl (entre más cerca está al vehículo principal), más débil será la luz de los faros delanteros radiada a partir del vehículo V3 adyacente al adyacente. En contraste, en la presente modalidad, la ganancia del primer valor i de umbral se establece para ser más alta en el área Rl que en el área R2, y la ganancia del primer valor a¾ de umbral se establece para ser más alta de manera proporcionada a una más corta distancia hacia atrás desde la cámara 10 (más cerca al vehículo principal), según se ilustra en el dibujo a la derecha en la FIGURA 8. Consecuentemente, en la presente modalidad, la unidad 35 de establecimiento de referencia de detección puede modificar el valor a de umbral a un valor alto, incluso cuando la luminancia de los faros delanteros del vehículo V3 adyacente al adyacente detectada en el área Rl es baja, y por consiguiente es posible prevenir efectivamente que la luz de los faros delanteros de un vehículo V3 adyacente al adyacente sea errantemente detectada como un vehículo V2 adyacente, incluso cuando la luminancia de los faros delanteros del vehículo V3 adyacente al adyacente detectada en el área Rl es baja.
La FIGURA 9C ilustra una situación en la cual los faros delanteros de un vehículo V3 adyacente al adyacente se detectan en el área R3 en las áreas A2 de detección. Según se ilustra en la FIGURA 9C, luces que tienen diversas luminancias se radian a partir de una pluralidad de vehículos posicionados hacia atrás desde las áreas Al, A2 de detección (por ejemplo, un vehículo V3 adyacente al adyacente y los vehículos o similares presentes incluso más hacia atrás que el vehículo V3 adyacente al adyacente mostrado en la FIGURA 9C) hacia el área R3 lejos del vehículo principal. En otras palabras, la luz de los faros delanteros del vehículo V3 adyacente al adyacente detectada en el área R3 puede tener menor luminancia que en el área R2 , y en tal caso, meramente modificar el primer valor a¾ de umbral de conformidad con la luminancia da como resultado casos en los cuales la luz de los faros delanteros del vehículo V3 adyacente al adyacente radiada hacia el área R3 es errantemente detectada como un vehículo adyacente, según se ilustra en la FIGURA 7. En particular, en el área R3, mientras mayor es la distancia hacia atrás desde la cámara 10 (mientras más lejos está del vehículo principal), mayor es la tendencia para que varíe la luminancia de la luz de los faros delanteros radiada. En contraste, en la presente modalidad, la ganancia del primer valor ai de umbral se establece para ser más alta en el área R3 de la misma manera que el área Rl que en el área R2, y la ganancia del primer valor a¾ de umbral se establece para ser más alta de manera proporcionada a la mayor distancia hacia atrás desde la cámara 10 (más lejos del vehículo principal), según se ilustra en el dibujo a la derecha en la FIGURA 8. Consecuentemente, en la presente modalidad, la unidad 35 de establecimiento de referencia de detección puede modificar el primer valor ai de umbral a un valor alto, incluso cuando la luminancia de los faros delanteros del vehículo V3 adyacente al adyacente detectada en el área R3 es baja, y por consiguiente es posible prevenir efectivamente que la luz de los faros delanteros de un vehículo V3 adyacente al adyacente sea errantemente detectada como un vehículo V2 adyacente, incluso cuando la luminancia de los faros delanteros del vehículo V3 adyacente al adyacente detectada en el área Rl es baja.
De esta manera, la unidad 35 de establecimiento de referencia de detección establece el primer valor <¾ de umbral de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección, según se ilustra en la FIGURA 7, y modifica la ganancia del primer valor a de umbral establecido, de conformidad con la distancia hacia atrás desde la cámara 10, según se ilustra en la FIGURA 8, para establecer por consiguiente un primer valor a¾ de umbral que corresponde a las posiciones de detección en las áreas Al, A2 de detección, según se ilustra en la FIGURA 6. Por ejemplo, la unidad 35 de establecimiento de referencia de detección se refiere a la FIGURA 7 y establece el primer valor a± de umbral de conformidad con la luminancia de los pixeles DP de diferencia en la línea La ilustrada en el dibujo a la izquierda en la FIGURA 5, y adicionalmente modifica el primer valor a de umbral establecido, utilizando la ganancia del primer valor ai de umbral en la posición del punto de cruce CP de la línea La entre la ganancia del primer valor ai de umbral que se ilustra en el dibujo a la derecha en la FIGURA 8 para calcular por consiguiente el primer valor i de umbral de la posición correspondiente a la linea La. De modo semejante, la unidad 35 de establecimiento de referencia de detección calcula el primer valor ?? de umbral de la posición correspondiente a las lineas Lb, Le, ... para establecer por consiguiente un primer valor ai de umbral que corresponde a las posiciones de detección en las áreas Al, ?2 de detección, según se ilustra en la FIGURA 6.
La unidad 35 de establecimiento de referencia de detección también establece el valor a de umbral de modo que se pueda prevenir que una imagen de la luz de los faros delanteros del vehículo V3 adyacente al adyacente radiada hacia el carril adyacente sea errantemente detectada como un vehículo adyacente. Consecuentemente, en la presente modalidad, el procesamiento para modificar el primer valor ?? de umbral de conformidad con la distancia hacia atrás desde la cámara 10 se puede configurar a fin de ser llevado a cabo sólo bajo una condición (por ejemplo, en la noche) en que los faros delanteros del vehículo V3 adyacente al adyacente están encendidos. La unidad 35 de establecimiento de referencia de detección puede, por ejemplo, determinar que la condición (por ejemplo, la noche) en que los faros delanteros del vehículo V3 adyacente al adyacente están encendidos es cuando la luminancia de la imagen capturada por la cámara 10 está en un valor predeterminado o menor.
A continuación se describe el método para establecer el segundo valor -¿ de umbral que corresponde a la relación posicional entre la cámara 10 y la fuente de iluminación. En la presente modalidad, la unidad 35 de establecimiento de referencia de detección se provee con: un primer mapa de valores de umbral que indica la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y un valor a¾' de umbral predeterminado, según se ilustra en la FIGURA 10; y un segundo mapa de valores de umbral que indica la relación entre la luminancia en las posiciones de detección en las áreas Al, A2 de detección y un valor <¾' ' de—umbral predeterminado, según se ilustra en la FIGURA 11. El primer mapa de valores de umbral ilustrado en la FIGURA 10 se configura de modo que el valor <¾' de umbral sea un valor relativamente bajo cuando la luminancia es relativamente baja, de modo que la llanta/rueda, que es una porción característica de un vehículo adyacente, sea fácilmente detectada. Por otra parte, el segundo mapa de valores de umbral ilustrado en la FIGURA 11 se configura de modo que el valor ' de umbral sea un valor relativamente alto incluso cuando la luminancia es relativamente baja de modo que un vehículo adyacente no sea errantemente detectado en la vecindad de los faros delanteros detectados, por ejemplo, incluso cuando la luz de los faros delanteros de un vehículo adyacente al adyacente (un vehículo presente en un carril adyacente al adyacente dos carriles adyacentes al carril del vehículo principal) ha sido detectada en las áreas Al, A2 de detección. Específicamente, el valor a2' ' de umbral especificado en el segundo mapa de valores de umbral ilustrado en la FIGURA 11 se establece a fin de no ser menor que un valor St predeterminado, incluso cuando la luminancia es baja, en comparación con el valor <¾' de umbral especificado en el primer mapa de valores de umbral ilustrado en la FIGURA 10.
La unidad 35 , de establecimiento de referencia de detección calcula entonces el segundo valor a¾ de umbral para detectar un vehículo adyacente en las posiciones de detección en las áreas Al, A2 de detección de conformidad con la fórmula 1 indicada a continuación utilizando: el valor at2' de umbral obtenido a partir del primer mapa de valores de umbral ilustrado en la FIGURA 10 de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección; y el valor ot2' ' de umbral obtenido a partir del segundo mapa de valores de umbral ilustrado en la FIGURA 11 de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección.
Fórmula 1 Segundo valor a2 de umbral = { (1 - wt) · (valor a2' de umbral obtenido a partir del primer mapa de valores de umbral) + (wt • valor a¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral) } En la fórmula 1, wt es la ponderación del valor a¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral (un mapa que pone énfasis en la prevención de la detección errante en la vecindad de los faros delanteros), y la ponderación wt se decide con base en un mapa de control ilustrado en la FIGURA 12.
Aquí, la FIGURA 12 es un ejemplo del mapa de control en el cual se ha especificado la ponderación wt del valor 2' ' de umbral obtenido a partir del segundo mapa de valores de umbral. En el mapa de control ilustrado en la FIGURA 12, el eje vertical indica la ponderación wt del valor <¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral, y el eje horizontal indica la posición de las posiciones de detección en la dirección de progreso del vehículo principal. En el mapa de control ilustrado en la FIGURA 12, la ponderación wt es un máximo de "1" en una posición P0 de referencia más adelante descrita. Consecuentemente, cuando el segundo valor a2 de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, el segundo valor a2 de umbral en la posición P0 de referencia es igual al valor a2' ' de umbral obtenido a partir del segundo mapa de valores de umbral en el cual se pone énfasis en la prevención de la detección errante en la vecindad de los faros delanteros. Además, en el mapa de control ilustrado en la FIGURA 12, la ponderación wt es un valor cercano a "1" cerca de la posición P0 de referencia. Consecuentemente, cuando el segundo valor a2 de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, el segundo valor a2 de umbral en la posición P0 de referencia que es igual al segundo valor a2 de umbral cerca de la posición P0 de referencia es un valor cerca del valor 2' ' de umbral obtenido a partir del segundo mapa de valores de umbral.
En el mapa de control ilustrado en la FIGURA 12, la ponderación wt es "0" en posiciones ligeramente establecidas a una distancia de la posición P0 de referencia hacia atrás de la posición P0 de referencia en comparación con hacia adelante de la posición P0 de referencia. Consecuentemente, cuando el segundo valor a2 de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, el segundo valor a2 de umbral hacia atrás de la posición P0 de referencia es igual al valor a2' de umbral obtenido a partir del primer mapa de valores de umbral, en que la llanta/rueda del vehículo adyacente es fácilmente detectada. Inversamente, la ponderación wt del valor 2 de umbral obtenido a partir de segundo mapa de valores de umbral cambia a un valor alto hacia adelante de la posición P0 de referencia. Consecuentemente, cuando el segundo valor a2 de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, se calcula el valor a2' ' de umbral que pone énfasis en la prevención de la detección errante en la vecindad de los faros delanteros hacia adelante de la posición P0 de referencia en comparación con hacia atrás de la posición P0 de referencia.
Además, en la presente modalidad, la unidad 35 de establecimiento de referencia de detección ajusta el mapa de control ilustrado en la FIGURA 12 de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación antes de calcular el segundo valor ar2 de umbral para detectar un vehículo adyacente utilizando el mapa de control ilustrado en la FIGURA 12. A continuación se describe el método para ajustar el mapa de control ilustrado en la FIGURA 12 con referencia a las FIGURAS 13(A) y 13(B). Aquí, las FIGURAS 13(A) y 13(B) son unas vistas para describir el método para ajustar el mapa de control ilustrado en la FIGURA 12.
En otras palabras, la unidad 35 de establecimiento de referencia de detección detecta los faros delanteros de un vehículo V3 adyacente al adyacente u otras fuentes de iluminación a partir de una imagen capturada, capturada por la cámara 10, según se ilustra en el dibujo a la derecha en la FIGURA 13 (A) . La unidad 35 de establecimiento de referencia de detección detecta entonces la posición del centroide de la fuente de iluminación detectada, y establece una línea Le que pasa a través de la posición del centroide de la fuente de iluminación y la posición central de la cámara 10. Además, la unidad 35 de establecimiento de referencia de detección calcula el punto de cruce O entre la línea Le y el lado (el lado a lo largo de la dirección de viaje) L2' del lado del carril adyacente al adyacente del área A2 de detección. El método para detectar una fuente de iluminación, llevado a cabo por la unidad 35 de establecimiento de referencia de detección se describe más adelante.
La unidad 35 de establecimiento de referencia de detección ajusta el mapa de control ilustrado en la FIGURA 12 de modo que el punto de cruce O y la posición P0 de referencia del mapa de control ilustrado en la FIGURA 12 coincidan entre si, como se muestra a la izquierda de la FIGURA 13(A) . Aquí, la FIGURA 13(B) proporciona un ejemplo de una situación en la cual el vehículo V3 adyacente al adyacente se ha acercado al vehículo VI principal desde la situación ilustrada en la FIGURA 13(A) . En la situación ilustrada en la FIGURA 13(B), el vehículo V3 adyacente al adyacente se ha acercado al vehículo VI principal, y el punto de cruce 0 entre la línea Le, y la línea L2' en el área A2 de detección se ha movido por consiguiente más hacia adelante (dirección negativa del eje Y) del punto de cruce O ilustrado en la FIGURA 13 (A) . Consecuentemente, el mapa de control ilustrado en la FIGURA 12 se ajusta por la unidad 35 de establecimiento de referencia de detección de modo que la posición del punto de cruce O ilustrado en el dibujo a la derecha en la FIGURA 13(B) coincida con la posición P0 de referencia del mapa de control ilustrado en la FIGURA 12, según se ilustra en el dibujo a la izquierda en la FIGURA 13(B), por lo que el mapa de control ilustrado en la FIGURA 12 se desplaza hacia adelante (dirección negativa del eje Y) en general, según se ilustra en el dibujo a la derecha en la FIGURA 13(B), en comparación con el mapa de control ilustrado en el dibujo a la izquierda en la FIGURA 13 (A) , y la posición de la fuente de iluminación y la posición P0 de referencia del mapa de control según se ilustra en la FIGURA 12 corresponden por consiguiente.
De esta manera, la posición de la fuente de iluminación y la posición P0 de referencia del mapa de control según se ilustra en la FIGURA 12 se hacen corresponder, por lo que la ponderación wt del segundo valor c¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral se puede incrementar en el área Rf más hacia adelante de la fuente de iluminación (es decir, el área en la cual Y < kX, donde 0 es la posición de la cámara 10 en la dirección de Y, Y > 0 es hacia atrás de la cámara 10, y Y = kX es la linea Le) . Consecuentemente, cuando el segundo valor a¾ de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, el segundo valor a¾ de umbral, en el cual se pone énfasis en la prevención de la detección errante en la vecindad de los faros delanteros, se obtiene en el área más hacia adelante de la fuente de iluminación.
Por otra parte, causar que la posición de la fuente de iluminación y la posición P0 de referencia del mapa de control según se ilustra en la FIGURA 12 correspondan permite que la ponderación wt del segundo valor a¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral sea incrementada en el área Rr más hacia atrás de la fuente de iluminación (es decir, el área en la cual Y = kX, donde la dirección de Y es la dirección de progreso del vehículo principal y la dirección de X es la dirección de anchura del vehículo en un plano XY, 0 es la posición de la cámara 10 en la dirección de Y, Y > 0 es hacia atrás de la cámara 10, y Y = kX es la línea Le) . Consecuentemente, cuando el segundo valor o¾ de umbral se ha calculado de conformidad con la fórmula 1 indicada anteriormente, el segundo valor <¾ de umbral, en que la llanta/rueda de un vehículo adyacente es fácilmente detectada, se obtiene en el área más hacia atrás de la fuente de iluminación.
La unidad 35 de establecimiento de referencia de detección modifica el segundo valor a¾ de umbral a fin de prevenir efectivamente que la luz de los faros delanteros de un vehículo adyacente al adyacente radiada hacia el carril adyacente sea errantemente detectada como un vehículo adyacente. Consecuentemente, en la presente modalidad, es posible utilizar una configuración en la cual la modificación del segundo valor a? de umbral por la unidad 35 de establecimiento de referencia de detección se lleva a cabo sólo en la noche cuando los faros delanteros de un vehículo adyacente al adyacente están encendidos. La unidad 35 de establecimiento de referencia de detección puede determinar que es la noche cuando, por ejemplo, la luminancia de una imagen capturada por la cámara 10 está en un valor predeterminado o menor.
De esta manera, la unidad 35 de establecimiento de referencia de detección es capaz de establecer el primer valor ai de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10 y el segundo valor a2 de umbral establecido de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación. La unidad 35 de establecimiento de referencia de detección determina si el grado de certeza evaluado por la unidad 34 de evaluación de grado de certeza está en un valor predeterminado o mayor, y cuando el grado de certeza es menor que el valor predeterminado, el primer valor ai de umbral se establece como el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia, y por otra parte, cuando el grado de certeza está en el valor predeterminado o mayor, el segundo valor a¾ de umbral se establece como el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia.
A continuación se continuará una descripción de la unidad 33 de detección de objeto tridimensional. Después de que se ha detectado un objeto tridimensional presente en un carril adyacente, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional presente en el carril adyacente comparando la forma de onda D t de diferencia en el momento actual y la forma de onda DWt-i de diferencia en un solo momento previo. En otras palabras, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento a partir del cambio en el tiempo de las formas de onda D t, DWt-i de diferencia.
Más específicamente, la unidad 33 de detección de objeto tridimensional divide la forma de onda DWt de diferencia en una pluralidad de pequeñas áreas DWti a DWtn (donde n es un número entero arbitrario de 2 o mayor) , según se ilustra en la FIGURA 14. La FIGURA 14 es una vista que ilustra las pequeñas áreas DWti a DWtn divididas por la unidad 33 de detección de objeto tridimensional. Las pequeñas áreas DWtl a DWtn se dividen a fin de estar mutuamente traslapadas, según se ilustra en, por ejemplo, la FIGURA 14. Por ejemplo, la pequeña área DWti y la pequeña área DWt2 traslapan entre sí, y la pequeña área DWt2 y la pequeña área D t3 traslapan entre sí.
Posteriormente, la unidad 33 de detección de objeto tridimensional determina la cantidad de desplazamiento (la cantidad de movimiento en la dirección del eje horizontal (dirección vertical en la FIGURA 14) de la forma de onda de diferencia) para cada una de las pequeñas áreas D ti a DWtn-Aquí, la cantidad de desplazamiento se determina a partir de la diferencia (distancia en la dirección del eje horizontal) entre la forma de onda DWt-i de diferencia en un solo momento previo y la forma de onda DWt de diferencia en el momento actual. En este caso, la unidad 33 de detección de objeto tridimensional mueve la forma de onda D t-i de diferencia en un solo momento previo en la dirección del eje horizontal para cada una de las pequeñas áreas DWti a DWtn, y posteriormente evalúa la posición (la posición en la dirección del eje horizontal) en la cual el error de la forma de onda D t de diferencia en el momento actual está en un mínimo, y determina como la cantidad de desplazamiento la cantidad de movimiento en la dirección del eje horizontal en la posición en la cual el error de la posición original de la forma de onda DWt-i de diferencia está en un mínimo. La unidad 33 de detección de objeto tridimensional cuenta entonces la cantidad de desplazamiento determinada para cada una de las pequeñas áreas DWti a DWtn y forma un histograma.
La FIGURA 15 es una vista que ilustra un ejemplo del histograma obtenido por la unidad 33 de detección de objeto tridimensional. Según se ilustra en la FIGURA 15, ocurre cierta cantidad de variabilidad en la cantidad de desplazamiento, que es la distancia de movimiento en el cual el error entre las pequeñas áreas DWti a DWtn y la forma de onda DWt-i de diferencia en un solo momento previo está en un mínimo. Consecuentemente, la unidad 33 de detección de objeto tridimensional forma las cantidades de desplazamiento que incluyen la variabilidad en un histograma y calcula la distancia de movimiento a partir del histograma. En este punto, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento del objeto tridimensional a partir del valor máximo en el histograma. En otras palabras, en el ejemplo ilustrado en la FIGURA 15, la unidad 33 de detección de objeto tridimensional calcula la cantidad de desplazamiento que indica el valor máximo del histograma como la distancia r* de movimiento. De esta manera, en la presente modalidad, se puede calcular una distancia de movimiento más altamente precisa a partir del valor máximo, incluso cuando hay variabilidad en la cantidad de desplazamiento. La distancia r* de movimiento es la distancia de movimiento relativo del objeto tridimensional en relación al vehículo principal. Consecuentemente, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento absoluto con base en la distancia r* de movimiento así obtenida y el detector 20 de velocidad cuando la distancia de movimiento absoluto debe ser calculada.
De esta manera, en la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir de la cantidad de desplazamiento de la forma de onda DWt de diferencia cuando el error en la forma de onda D t de diferencia generada en diferentes momentos está en un mínimo, y esto permite que la distancia de movimiento sea calculada a partir de la cantidad de desplazamiento, que es la información sobre una dimensión en una forma de onda, y permite que el costo de computación se mantenga bajo cuando se calcula la distancia de movimiento. Además, dividir la forma de onda DWt de diferencia generada en diferentes momentos en una pluralidad de pequeñas áreas DWti a D tn permite que se obtenga una pluralidad de formas de onda que representan las ubicaciones del objeto tridimensional, permitiendo por consiguiente que la cantidad de desplazamiento en cada ubicación del objeto tridimensional sea determinada y que la distancia de movimiento se determine a partir de una pluralidad de cantidades de desplazamiento. Por consiguiente, se puede mejorar la precisión del cálculo de la distancia de movimiento. En la presente modalidad, la distancia de movimiento del objeto tridimensional se calcula a partir del cambio en el tiempo de la forma de onda D t de diferencia, que incluye la información de la dirección de altura. Consecuentemente, en contraste al enfoque que está solamente sobre el movimiento de un solo punto, la ubicación de detección antes del cambio en el tiempo y la ubicación de detección después del cambio en el tiempo se especifican con la información de la dirección de altura incluida y consecuentemente fácilmente terminan siendo la misma ubicación; la distancia de movimiento se calcula a partir del cambio en el tiempo en la misma ubicación; y se puede mejorar la precisión para calcular la distancia de movimiento.
Cuando se debe formar un histograma, la unidad 33 de detección de objeto tridimensional puede impartir una ponderación a la pluralidad de pequeñas áreas DWti a T)Ñtn, y contar las cantidades de desplazamiento determinadas para cada una de las pequeñas áreas D ti a D tn de conformidad con la ponderación para formar un histograma. La FIGURA 16 es una vista que ilustra la ponderación utilizada por la unidad 33 de detección de objeto tridimensional.
Según se ilustra en la FIGURA 16, una pequeña área DWm (donde m es un número entero 1 o mayor y n - 1 o menor) es plana. En otras palabras, en la pequeña área DWm, hay una pequeña diferencia entre los valores máximo y mínimo del conteo de número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objeto tridimensional reduce la ponderación de este tipo de pequeña área DWm. Esto es porque la pequeña área DWm plana carece de una característica y hay una alta posibilidad de que un error será magnificado cuando se calcule la cantidad de desplazamiento .
Por otra parte, una pequeña área DWm+k (donde k es un número entero n - m o menor) tiene abundante ondulación. En otras palabras, en la pequeña área D m, hay una diferencia considerable entre los valores máximo y mínimo del conteo de número de pixeles que indican una diferencia predeterminada. La unidad 33 de detección de objeto tridimensional incrementa la ponderación de este tipo de pequeña área DWm. Esto es porque una pequeña área DWm+k abundante en ondulación es característica y hay una alta posibilidad de que la cantidad de desplazamiento se calculará de manera exacta. La ponderación de las pequeñas áreas de esta manera posibilita mejorar la precisión para calcular la distancia de movimiento.
La forma de onda DWt de diferencia se divide en una pluralidad de pequeñas áreas DWti a DWtn en la presente modalidad a fin de mejorar la precisión para calcular la distancia de movimiento, pero la división en las pequeñas áreas DWti a D tn no es requerida cuando la precisión para calcular la distancia de movimiento no es tan necesaria. En este caso, la unidad 33 de detección de objeto tridimensional calcula la distancia de movimiento a partir de la cantidad de desplazamiento de la forma de onda D t de diferencia cuando el error entre la forma de onda DWt de diferencia y la forma de onda DWt-i de diferencia está en un mínimo. En otras palabras, el método para determinar la cantidad de desplazamiento entre la forma de onda DWt-i de diferencia en un solo momento previo y la forma de onda DWt de diferencia en el momento actual no está limitado a los detalles anteriormente descritos.
La unidad 33 de detección de objeto tridimensional en la presente modalidad determina la velocidad de movimiento del vehículo VI principal (cámara 10) y determina la cantidad de desplazamiento para un objeto estacionario a partir de la velocidad de movimiento determinada. Después de que se ha determinado la cantidad de desplazamiento del objeto estacionario, la unidad 33 de detección de objeto tridimensional ignora la cantidad de desplazamiento que corresponde al objeto estacionario dentro del valor máximo del histograma, y calcula la distancia de movimiento del objeto tridimensional .
La FIGURA 17 es una vista que ilustra otro ejemplo del histograma obtenido por la unidad 33 de detección de objeto tridimensional. Cuando un objeto estacionario aparte del objeto tridimensional está presente dentro del ángulo de vista de la cámara 10, dos valores máximos t?, t2 aparecen en el histograma resultante. En este caso, uno de los dos valores máximos rl, r2 es la cantidad de desplazamiento del objeto estacionario. Consecuentemente, la unidad 33 de detección de objeto tridimensional determina la cantidad de desplazamiento para el objeto estacionario a partir de la velocidad de movimiento, ignora el valor máximo que corresponde a la cantidad de desplazamiento, y calcula la distancia de movimiento del objeto tridimensional utilizando el valor máximo restante. Por consiguiente, es posible prevenir una situación en la cual la precisión para calcular la distancia de movimiento del objeto tridimensional se reduce por el objeto estacionario.
Incluso cuando se ignora la cantidad de desplazamiento correspondiente al objeto estacionario, puede haber una pluralidad de objetos tridimensionales presentes dentro del ángulo de vista de la cámara 10 cuando hay una pluralidad de valores máximos. Sin embargo, una pluralidad de objetos tridimensionales presentes dentro de las áreas Al, A2 de detección ocurre muy raras veces. Consecuentemente, la unidad 33 de detección de objeto tridimensional deja de calcular la distancia de movimiento. En la presente modalidad, es posible por consiguiente prevenir una situación en la cual se calcula una distancia de movimiento errante, tal como cuando hay una pluralidad de valores máximos.
A continuación se describe el proceso para detectar un vehículo adyacente de conformidad con la presente modalidad. La FIGURA 18 es un diagrama de flujo que ilustra los procesos para detectar un vehículo adyacente de acuerdo con la presente modalidad. Primero, los datos de una imagen P capturada se adquieren por la computadora 30 a partir de la cámara 10 (etapa S101), y los datos de una imagen PBt de vista a ojo de pájaro se generan (etapa S102) por la unidad 31 de conversión de perspectiva con base en los datos de la imagen P capturada así adquiridos, según se ilustra en la FIGURA 18.
La unidad 32 de alineación alinea los datos de imagen PBt de vista a ojo de pájaro y los datos de imagen PBt-i de vista a ojo de pájaro en un solo momento previo, y genera los datos de imagen PDt de diferencia (etapa S103) . La unidad 33 de detección de objeto tridimensional cuenta entonces el número de pixeles DP de diferencia que tienen un valor de pixel de "1" para generar por consiguiente una primera forma de onda DWt de diferencia a partir de los datos de imagen PDt de diferencia (etapa S104) .
La unidad 35 de establecimiento de referencia de detección establece el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda D t de diferencia (etapa S105) . Aquí, la FIGURA 19 es un diagrama de flujo que ilustra el proceso para establecer el valor a de umbral de la etapa S105. La unidad 35 de establecimiento de referencia de detección primero detecta los faros delanteros de un vehículo adyacente al adyacente u otra fuente de iluminación a partir de la imagen capturada, capturada por la cámara 10 (etapa S201), según se ilustra en la FIGURA 19.
Aquí, la unidad 35 de establecimiento de referencia de detección detecta un área de imagen de la imagen capturada que tiene un tamaño de un valor Si predeterminado o mayor y en la cual la diferencia en la claridad con los alrededores está en un valor Sd predeterminado o mayor a fin de eliminar el efecto de ruido y detectar adecuadamente los faros delanteros de otro vehículo como una fuente de iluminación.
Consecuentemente, la unidad 35 de establecimiento de referencia de detección primero somete la imagen capturada al procesamiento del borde y detecta áreas en las cuales la diferencia en la claridad de los alrededores está en el valor sd predeterminado o mayor, estas áreas siendo candidatos de fuente de iluminación. En la presente modalidad, la unidad 35 de establecimiento de referencia de detección no se limita al valor sd predeterminado como un valor fijo, y es capaz de modificar el valor sd predeterminado con base en, por ejemplo, la distancia hacia atrás desde la cámara 10 hasta el candidato de fuente de iluminación, o la luminancia del área en la cual está presente el candidato de fuente de iluminación, a fin de detectar adecuadamente una fuente de iluminación. Por ejemplo, la unidad 35 de establecimiento de referencia de detección puede tener un mapa de valores de umbral en el cual el valor sd predeterminado se establece de conformidad con la luminancia y un mapa de valores de umbral en el cual el valor Sd predeterminado se establece de conformidad con la distancia hacia atrás desde la cámara 10 hasta el candidato de fuente de iluminación, comparar los dos mapas de valores de umbral, y seleccionar el valor sd predeterminado más alto entre el valor sd predeterminado obtenido a partir de estos mapas de valores de umbral como el valor sd predeterminado para detectar el candidato de fuente de iluminación.
La unidad 35 de establecimiento de referencia de detección detecta entonces como el área correspondiente a la fuente de iluminación el área de imagen que tiene un tamaño de un valor si predeterminado o mayor entre los candidatos de fuente de iluminación detectada. El valor si predeterminado tampoco está limitado a ser un valor fijo, y la unidad 35 de establecimiento de referencia de detección puede modificar el valor Si predeterminado de conformidad con, por ejemplo, la distancia hacia atrás desde la cámara 10 hasta el candidato de fuente de iluminación. Por ejemplo, cuando la longitud de las áreas Al, A2 de detección en la dirección de progreso del vehículo principal es 10 m, la unidad 35 de establecimiento de referencia de detección divide las áreas Al, A2 de detección en tres áreas, comenzando desde la posición en las áreas Al, A2 de detección más cercana a la cámara 10: un área Rl, la cual es 0 a 1.5 m en la dirección de progreso del vehículo principal; un área R2, la cual es 1.5 a 6 m; y un área R3, la cual es 6 m a 10 m. La unidad 35 de establecimiento de referencia de detección detecta un área de imagen en la cual la longitud y la anchura es, por ejemplo, 5 x 5 pixeles o mayor como el área correspondiente a la fuente de iluminación en el área Rl más cercana al vehículo principal y el área R3 más lejana del vehículo principal en las áreas Al, A2 de detección, y detecta un área de imagen en la cual la longitud y la anchura es, por ejemplo, 7 7 pixeles o mayor como el área correspondiente a la fuente de iluminación en el área R2 en el centro de las áreas Al, A2 de detección.
Cuando una fuente de iluminación no pudo ser detectada en la etapa S201, la unidad 35 de establecimiento de referencia de detección establece el valor a de umbral para ser, por ejemplo, un valor de umbral establecido de antemano, y termina el proceso para establecer el valor a de umbral de la etapa S105.
Posteriormente, el grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente hacia la parte trasera y el lado del vehículo principal (etapa S202), se evalúa por la unidad 34 de evaluación de grado de certeza. Según se describe anteriormente, la unidad 34 de evaluación de grado de certeza evalúa exhaustivamente el grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en el número de fuentes de iluminación, la posición de una fuente de iluminación, el cambio en el tiempo en el estado de una fuente de iluminación, y el tamaño de la fuente de iluminación. La unidad 35 de establecimiento de referencia de detección determina si el grado de certeza está en un valor predeterminado o mayor con base en los resultados de la evaluación del grado de certeza en la etapa S202, y cuando el grado de certeza está en el valor predeterminado o mayor, el proceso avanza a la etapa S204 a fin de establecer el valor ce de umbral de conformidad con la distancia hacia atrás desde la cámara 10, y cuando el grado de certeza es menor que el valor predeterminado, el proceso avanza a la etapa S208 a fin de establecer el valor a de umbral con base en la relación posicional entre la cámara 10 y la fuente de iluminación.
En la etapa S204, el primer valor ot de umbral en las posiciones de detección se adquiere de conformidad con la luminancia de las posiciones de detección, según se ilustra en la FIGURA 7. La unidad 35 de establecimiento de referencia de detección modifica el primer valor \ de umbral adquirido en la etapa S204, con base en la ganancia del primer valor i de umbral que se especifica de conformidad con la distancia hacia atrás desde la cámara 10 (etapa S205) . La unidad 35 de establecimiento de referencia de detección calcula entonces el primer valor <¾ de umbral para todas las posiciones de detección en las áreas Al, A2 de detección, y, cuando el primer valor ai de umbral se ha calculado para todas las posiciones de detección en las áreas Al, A2 de detección (etapa S206 = Si), establece el primer valor al de umbral calculado como el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia, según se ilustra en la FIGURA 6.
Por otra parte, en la etapa S203, el proceso avanza a la etapa S208 cuando se ha determinado que el grado de certeza es menor que el valor predeterminado. En la etapa S208, la unidad 35 de establecimiento de referencia de detección establece la línea Le que pasa a través de la posición del centroide de la fuente de iluminación detectada y el punto central de la cámara 10, según se ilustra en el dibujo a la derecha en la FIGURA 13 (A) , y la unidad 35 de establecimiento de referencia de detección adicionalmente calcula el punto de cruce O entre la línea Le así establecida y un lado L2' en el lado del vehículo adyacente al adyacente del área A2 de detección (etapa S209) . La unidad 35 de establecimiento de referencia de detección ajusta el mapa de control ilustrado en la FIGURA 12 de modo que el punto de cruce O calculado en la etapa S209 y la posición P0 de referencia del mapa de control ilustrado en la FIGURA 12 coincidan, según se ilustra en el dibujo a la izquierda en la FIGURA 13(B) (etapa S210).
La unidad 35 de establecimiento de referencia de detección calcula (etapa S211) el segundo valor a2 de umbral de conformidad con la fórmula 1 indicada anteriormente utilizando: el primer mapa de valores de umbral (véase la FIGURA 7) en el cual el valor a?f de umbral se establece de modo que la llanta/rueda de un vehículo adyacente sea fácilmente detectada; el segundo mapa de valores de umbral (véase la FIGURA 8) en el cual el valor <¾' ' de umbral se establece con énfasis en la prevención de la detección errante en la vecindad de los faros delanteros; y el mapa de control ajustado en la etapa S210. La unidad 35 de establecimiento de referencia de detección calcula entonces el segundo valor a2 de umbral para todas las posiciones de detección en las áreas Al, A2 de detección, y cuando el segundo valor a2 de umbral se ha calculado para todas las posiciones de detección en las áreas Al, A2 de detección (etapa S212 = Si), el segundo valor OÍ2 de umbral calculado se establece como el valor a de umbral para detectar un vehículo adyacente con base en la forma de onda DWt de diferencia, según se ilustra en la FIGURA 6 (etapa S213) .
Regresando a la FIGURA 18, la unidad 33 de detección de objeto tridimensional determina si el máximo de la forma de onda DWt de diferencia generada en la etapa S104 es igual a o mayor que el valor a de umbral generado en la etapa S105 (etapa S106) . Cuando el máximo de la forma de onda D t de diferencia no está en el valor a de umbral o mayor, es decir, cuando esencialmente no hay diferencia, es posible considerar que un objeto tridimensional no está presente en la imagen P capturada. Consecuentemente, cuando se ha determinado que el máximo de la forma de onda DWt de diferencia no está en el valor a de umbral o mayor (etapa S106 = No) , la unidad 33 de detección de objeto tridimensional determina que otro vehículo no está presente en el carril adyacente (etapa S115) y termina el proceso ilustrado en la FIGURA 18.
Por otra parte, cuando se determina que el máximo en la forma de onda DWt de diferencia está en un valor a de umbral o mayor (etapa S106 = Sí), la unidad 33 de detección de objeto tridimenaional determina que un objeto tridimensional está presente en el carril adyacente y avanza a la etapa S107, y la forma de onda DWt de diferencia se divide en una pluralidad de pequeñas áreas DWti a DWtn por la unidad 33 de detección de objeto tridimensional. La unidad 33 de detección de objeto tridimensional posteriormente imparte una ponderación a cada una de las pequeñas áreas D ti a DWtn (etapa S108), calcula la cantidad de desplazamiento para cada una de las pequeñas áreas DWti a D tn (etapa S109), y genera un histograma teniendo en consideración las ponderaciones (etapa S110).
La unidad 33 de detección de objeto tridimensional calcula entonces la distancia de movimiento relativo, que es la distancia de movimiento del vehículo adyacente en relación al vehículo principal, con base en el histograma (etapa Slll). La unidad 33 de detección de objeto tridimensional adicionalmente calcula la velocidad de movimiento relativo del vehículo adyacente a partir de la distancia de movimiento relativo (etapa S112) . En este punto, la unidad 33 de detección de objeto tridimensional diferencia en tiempo la distancia de movimiento relativo para calcular la velocidad de movimiento relativo, y suma la velocidad del vehículo principal detectada por el detector 20 de velocidad para calcular la velocidad de movimiento absoluto del vehículo adyacente .
La unidad 33 de detección de objeto tridimensional posteriormente determina si la velocidad de movimiento absoluto del vehículo adyacente es 10 km/h o más y si la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es +60 km/h o menos (etapa S113) . Cuando se satisfacen ambas condiciones (etapa S113 = Sí), la unidad 33 de detección de objeto tridimensional determina que un vehículo adyacente está presente en el carril adyacente (etapa S114) . El proceso ilustrado en la FIGURA 18 se termina entonces. Por otra parte, cuando no se satisface cualquiera de las condiciones (etapa S113 = No) , la unidad 33 de detección de objeto tridimensional determina que un vehículo adyacente no está presente en el carril adyacente (etapa S115) . El proceso ilustrado en la FIGURA 18 se termina entonces .
En la presente modalidad, las áreas Al, A2 de detección son las direcciones del lado trasero del vehículo principal, y se establece un enfoque sobre si el vehículo principal puede posiblemente hacer contacto con un vehículo adyacente si se hace un cambio de carril. Consecuentemente, se ejecuta el proceso de la etapa S113. En otras palabras, asumiendo que el sistema en la presente modalidad se acciona en una autopista, cuando la velocidad de un vehículo adyacente es menor que 10 km/h, rara vez sería un problema incluso si un vehículo adyacente estuviera presente debido a que el vehículo adyacente estaría posicionado muy por detrás del vehículo principal cuando se hiciese un cambio de carril. De modo semejante, cuando la velocidad de movimiento relativo de un vehículo adyacente excede +60 km/h en relación al vehículo principal (es decir, cuando el vehículo adyacente se mueve a una velocidad 60 km/h mayor que la velocidad del vehículo principal), rara vez sería un problema debido a que el vehículo adyacente se habría adelantado al vehículo principal cuando se hiciese un cambio de carril. Consecuentemente, se puede interpretar que la etapa S113 determina un vehículo adyacente que podría ser un problema si se hace un cambio de carril En la etapa S113, se determina si la velocidad de movimiento absoluto del vehículo adyacente es 10 km/h o mayor, y si la velocidad de movimiento relativo del vehículo adyacente en relación al vehículo principal es +60 km/h o menos, obteniendo por consiguiente el siguiente efecto. Por ejemplo, un posible caso es que la velocidad de movimiento absoluto de un objeto estacionario se detecte como varios kilómetros por hora dependiendo del error de unión de la cámara 10. Consecuentemente, la determinación de si la velocidad es 10 km/h o mayor posibilita reducir la posibilidad de que el objeto estacionario se determinará como un vehículo adyacente. Además, es posible que la velocidad relativa de un vehículo adyacente en relación al vehículo principal se detectará como en exceso de +60 km/h debido al ruido.
Consecuentemente, la determinación de si la velocidad relativa es +60 km/h o menos posibilita reducir la posibilidad de una detección errante debido al ruido.
En lugar del procesamiento en la etapa S113, se puede determinar que la velocidad de movimiento absoluto del vehículo adyacente no es un valor negativo, o no es 0 km/h. Además, en la presente modalidad, debido a que se establece un enfoque sobre si hay una posibilidad de que se haga contacto si el vehículo principal hace un cambio de carril, se puede emitir un sonido de alerta para el conductor del vehículo principal, o se puede proporcionar un despliegue correspondiente a una alerta mediante un dispositivo de despliegue predeterminado cuando un vehículo adyacente ha sido detectado en la etapa S114.
De esta manera, en la primera modalidad, las áreas Al, A2 de detección hacia atrás del vehículo principal se capturan en diferentes momentos, las imágenes capturadas así capturadas se convierten a imágenes de vista a ojo de pájaro, y se genera una imagen PDt de diferencia con base en la diferencia entre las imágenes de vista a ojo de pájaro en diferentes momentos. El número de pixeles que indican una diferencia predeterminada se cuentan a lo largo de la dirección en la cual el objeto tridimensional colapsa debido a la conversión de perspectiva y se forma una distribución de frecuencias para generar por consiguiente una forma de onda D t de diferencia a partir de los datos de imagen PDt de diferencia. Posteriormente se determina si el máximo en la forma de onda DWt de diferencia generada está en un valor a de umbral o mayor establecido de conformidad con la distancia hacia atrás desde la cámara 10 o la relación posicional entre la cámara 10 y la fuente de iluminación, y cuando el máximo en la forma de onda D t de diferencia está en el valor de umbral o mayor, se determina que un vehículo adyacente está presente en el carril adyacente, y el vehículo adyacente presente en el carril adyacente puede por consiguiente ser adecuadamente detectado.
En otras palabras, en la presente modalidad, las fuentes de iluminación hacia el lado y la parte trasera del vehículo principal se detectan cuando se debe detectar un vehículo adyacente con base en la forma de onda DWt de diferencia, y el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente se evalúa con base en el número de fuentes de iluminación, la posición de la fuente de iluminación, el tamaño de la fuente de iluminación, y el cambio en el tiempo en el estado de la fuente de iluminación. Cuando el grado de certeza está en un valor predeterminado o mayor, el segundo valor ¾ de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor a de umbral. En otras palabras, cuando hay una alta posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente, el valor a de umbral se establece más hacia adelante de la fuente de iluminación a fin de prevenir la detección errante en la vecindad de los faros delanteros, según se ilustra en la FIGURA 10, y el valor a de umbral se establece más hacia atrás de la fuente de iluminación de modo que la llanta/rueda del vehículo adyacente sea fácilmente detectada. Debido a que el valor a de umbral se establece alto a fin de prevenir la detección errante en la vecindad de los faros delanteros más hacia adelante de los faros delanteros (fuente de iluminación) en que no está presente una llanta/rueda, es posible prevenir efectivamente la detección errante de un vehículo adyacente debido a los faros delanteros de un vehículo adyacente al adyacente incluso cuando, por ejemplo, la luminancia en la vecindad de los faros delanteros (fuente de iluminación) es alta debido a tierra en la lente de la cámara 10, y la llanta/rueda del vehículo adyacente es difícil de detectar, la llanta/rueda siendo una porción característica presente hacia atrás de los faros delanteros (fuente de iluminación) . Además, debido a que el valor a de umbral se establece de modo que la llanta/rueda de un vehículo adyacente sea fácilmente detectada más hacia atrás de los faros delanteros (fuente de iluminación), la llanta/rueda de un vehículo adyacente presente más hacia atrás de los faros delanteros (fuente de iluminación) puede ser adecuadamente detectada .
Por otra parte, cuando el grado de certeza es menor que un valor predeterminado, el primer valor ?? de umbral obtenido con base en la distancia hacia atrás desde la cámara 10 se establece como el valor a de umbral. En otras palabras, cuando la posibilidad de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente es baja, la ganancia del valor cu de umbral se establece más alta en el área Rl cerca del vehículo VI principal y el área R3 lejos del vehículo principal que en el área R2 central en las áreas Al, A2 de detección, según se ilustra en la FIGURA 8. Por consiguiente, el valor a de umbral se puede establecer alto en las áreas Rl, R3 incluso cuando la luminancia de la luz de los faros delanteros radiada desde los faros delanteros de un vehículo adyacente al adyacente es baja, y se puede prevenir efectivamente que una imagen de la luz de los faros delanteros del vehículo V3 adyacente al adyacente radiada hacia las áreas Rl, R3 sea detectada como un vehículo adyacente .
Además, en la presente modalidad, el primer valor a¾ de umbral obtenido con base en la distancia hacia atrás desde la cámara 10 se establece como el valor a de umbral cuando el grado de certeza es menor que un valor predeterminado, y el segundo valor a? de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor a de umbral cuando el grado de certeza está en un valor predeterminado o mayor. En este caso, cuando el grado de certeza está en un valor predeterminado o mayor, es decir, cuando la posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente es alta, el segundo valor a? de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor a de umbral, y por consiguiente es posible eliminar el efecto de los faros delanteros de un vehículo adyacente al adyacente y mejorar adicionalmente el efecto de detectar adecuadamente un vehículo adyacente en comparación con cuando el primer valor ?? de umbral obtenido con base en la distancia hacia atrás desde la cámara 10 se establece como el valor a de umbral cuando la posibilidad de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente es alta.
Además, cuando el grado de certeza es menor que un valor predeterminado, es decir, cuando la posibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente es baja, puede haber casos en los cuales el segundo valor a2 de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor de umbral, por ejemplo, el valor a de umbral se establece excesivamente alto hacia adelante de los faros delanteros, y ocurre una detección errante en la cual un vehículo adyacente no puede ser adecuadamente detectado cuando un vehículo adyacente en realidad está presente. Consecuentemente, en la presente modalidad, establecer el primer valor <¾ de umbral obtenido con base en la distancia hacia atrás desde la cámara 10 cuando el grado de certeza es menor que un valor predeterminado posibilita prevenir más efectivamente la detección errante de un vehículo adyacente debido a luz de los faros delanteros del vehículo adyacente al adyacente y detectar más adecuadamente un vehículo adyacente en comparación con cuando el segundo valor a2 de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor a de umbral cuando el grado de certeza es menor que un valor predeterminado.
Modalidad 2 A continuación se describe un dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad. El dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad es el mismo que la primera modalidad, excepto que se proporciona una computadora 30a en lugar de la computadora 30 de la primera modalidad, según se ilustra en la FIGURA 20, y la operación es como se describe a continuación. Aquí, la FIGURA 20 es una vista de bloques que ilustra los detalles de la computadora 30a de acuerdo con la segunda modalidad.
El dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad se provee con una cámara 10 y una computadora 30a, según se ilustra en la FIGURA 20. La computadora 30a se provee con una unidad 31 de conversión de perspectiva, una unidad 36 de cálculo de diferencia de luminancia, una unidad 37 de detección de líneas de borde, una unidad 33a de detección de objeto tridimensional, una unidad 34 de evaluación de grado de certeza, y una unidad 35a de establecimiento de referencia de detección. La configuración del dispositivo la de detección de objeto tridimensional de acuerdo con la segunda modalidad se describe a continuación.
Las FIGURAS 21(a) y 21(b) son unas vistas que ilustran el rango de imagen de la cámara 10 en la FIGURA 20, la FIGURA 21(a) es una vista en planta, y la FIGURA 21(b) es una vista en perspectiva en el espacio real hacia atrás del vehículo VI principal. La cámara 10 se establece a un ángulo a de vista predeterminado, y se captura el lado trasero del vehículo VI principal incluido en el ángulo a de vista predeterminado, según se ilustra en la FIGURA 21(a). El ángulo a de vista de la cámara 10 se establece de modo que los carriles adyacentes se incluyan en el rango de captura de la cámara 10 además del carril en el cual viaja el vehículo VI principal, de la misma manera según se ilustra en la FIGURA 2.
Las áreas Al, A2 de detección en el presente ejemplo son trapezoidales en una vista en planta (estado de vista a ojo de pájaro), y la posición, el tamaño, y la forma de las áreas Al, A2 de detección se deciden con base en las distancias di a d4. Las áreas Al, A2 de detección del ejemplo ilustrado en el dibujo no se limitan a ser trapezoidales, y también pueden ser rectangulares u otra forma en un estado de vista a ojo de pájaro, según se ilustra en la FIGURA 2.
Aquí, la distancia di es la distancia desde el vehículo VI principal hasta las líneas Ll, L2 de suelo. Las líneas Ll, L2 de suelo se refieren a una línea en la cual un objeto tridimensional, que está presente en un carril adyacente al carril en cual viaja el vehículo VI principal, está en contacto con el suelo. En la presente modalidad, un objeto es detectar un vehículo V2 adyacente o similar (incluyendo vehículos de dos ruedas o similares) que viaja en el carril izquierdo o derecho detrás del vehículo VI principal y adyacente al carril del vehículo VI principal. Consecuentemente, la distancia di, que es la posición de las líneas Ll, L2 de suelo del vehículo V2 adyacente, se puede decidir a fin de ser sustancialmente fija desde la distancia dll desde el vehículo VI principal hasta una línea blanca W y la distancia dl2 desde la línea blanca W hasta la posición en la cual se predice que el vehículo V2 adyacente viaja.
La distancia di no se limita a ser decidida de manera fija, y puede ser variable. En este caso, la computadora 30a reconoce la posición de la linea blanca W en relación al vehículo VI principal utilizando reconocimiento de líneas blancas u otra técnica, y la distancia dll se decide con base en la posición de la línea blanca W reconocida. La distancia di se establece por consiguiente variablemente utilizando la distancia dll decidida. En la presente modalidad descrita debajo, la posición en la cual viaja el vehículo V2 adyacente (la distancia dl2 desde la línea blanca ) y la posición en la cual viaja el vehículo VI principal (la distancia dll desde la línea blanca W) son en su mayoría predecibles, y la distancia di se decide de manera fija.
Una distancia d2 es la distancia que se extiende desde la parte extrema trasera del vehículo VI principal en la dirección de progreso del vehículo. La distancia d2 se decide de modo que las áreas Al, A2 de detección se acomodan dentro de al menos el ángulo a de vista de la cámara 10. En la presente modalidad en particular, la distancia d2 se establece a fin de estar en contacto con un rango particionado dentro del ángulo a de vista. La distancia d3 indica la longitud de las áreas Al, A2 de detección en la dirección de progresión del vehículo. La distancia d3 se decide con base en el tamaño del objeto tridimensional a ser detectado. En la presente modalidad, el objeto a ser detectado es un vehículo V2 adyacente o similar, y por consiguiente la distancia d3 se establece a una longitud que incluye el vehículo V2 adyacente.
La distancia d4 indica la altura, que se ha establecido de modo que las llantas del vehículo V2 adyacente o similar se incluyan en el espacio real, según se ilustra en la FIGURA 21(b) . En una imagen de vista a ojo de pájaro, la distancia d4 es la longitud ilustrada en la FIGURA 21(a) . La distancia d4 también puede ser una longitud que no incluye carriles adicionales adyacentes a los carriles adyacentes izquierdo y derecho en la imagen de vista a ojo de pájaro (es decir, carriles adyacentes al adyacente a dos carriles de distancia) . Esto es porque cuando se incluyen los carriles a dos carriles de distancia del carril del vehículo VI principal, ya no es posible distinguir si un vehículo V2 adyacente está presente en los carriles adyacentes a la izquierda y derecha del carril en el cual viaja el vehículo VI principal, o si un vehículo adyacente al adyacente está presente en un carril adyacente al adyacente a dos carriles de distancia.
Según se describe anteriormente, se deciden las distancias di a d4, y se deciden por consiguiente la posición, el tamaño, y la forma de las áreas Al, A2 de detección. Más específicamente, la posición del lado bl superior de las áreas Al, A2 de detección que forman un trapecio se decide por la distancia di. La posición Cl de inicio del lado bl superior se decide por la distancia d2. La posición C2 extrema del lado bl superior se decide por la distancia d3. El lado b2 lateral de las áreas Al, A2 de detección que forman un trapecio se decide por una linea L3 recta que se extiende desde la cámara 10 hacia la posición Cl de inicio. De modo semejante, el lado b3 lateral de las áreas Al, A2 de detección que forman un trapecio se decide por una linea L4 recta que se extiende desde la cámara 10 hacia la posición C2 extrema. La posición del lado b4 inferior de las áreas Al, A2 de detección que forman un trapecio se decide por la distancia d4. De esta manera, las áreas rodeadas por los lados bl a b4 son las áreas Al, A2 de detección. Las áreas Al, A2 de detección son cuadrados regulares (rectángulos) en el espacio real hacia atrás del vehículo VI principal, según se ilustra en la FIGURA 21 (b) .
Regresando a la FIGURA 20, la unidad 31 de conversión de perspectiva acepta el ingreso de los datos de la imagen capturada de un área predeterminada capturada por la cámara 10. La unidad 31 de conversión de perspectiva convierte la perspectiva de los datos de imagen capturada ingresados en datos de imagen de vista a ojo de pájaro, que es un estado de vista a ojo de pájaro. Un estado de vista a ojo de pájaro es un estado de visuali zación desde la perspectiva de una cámara imaginaria que mira hacia abajo desde arriba, por ejemplo, verticalmente hacia abajo (o ligeramente inclinado hacia abajo) . La conversión de perspectiva se puede llevar a cabo utilizando la técnica descrita en, por ejemplo, la Solicitud de Patente Japonesa Abierta al Público No. 2008-219063.
La unidad 36 de cálculo de diferencia de luminancia calcula las diferencias de luminancia en los datos de imagen de vista a ojo de pájaro, que han experimentado una conversión de perspectiva por la unidad 31 de conversión de perspectiva, a fin de detectar los bordes de un objeto tridimensional incluido en la imagen de vista a ojo de pájaro. La unidad 36 de cálculo de diferencia de luminancia calcula, para cada una de una pluralidad de posiciones a lo largo de una linea imaginaria perpendicular que se extiende a lo largo de la dirección perpendicular en el espacio real, la diferencia de luminancia entre dos pixeles cerca de cada posición. La unidad 36 de cálculo de diferencia de luminancia es capaz de calcular la diferencia de luminancia mediante un método para establecer una sola linea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real, o un método para establecer dos lineas imaginarias perpendiculares.
A continuación se describe el método especifico para establecer dos lineas imaginarias perpendiculares. La unidad 36 de cálculo de diferencia de luminancia establece una primera linea imaginaria perpendicular que corresponde a un segmento de linea que se extiende en la dirección perpendicular en el espacio real, y una segunda línea imaginaria perpendicular que es diferente de la primera línea imaginaria perpendicular y que corresponde al segmento de línea que se extiende en la dirección perpendicular en el espacio real. La unidad 36 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre un punto sobre la primera linea imaginaria perpendicular y un punto sobre la segunda linea imaginaria perpendicular de manera continua a lo largo de la primera linea imaginaria perpendicular y la segunda linea imaginaria perpendicular. La operación de la unidad 36 de cálculo de diferencia de luminancia se describe en detalle a continuación.
La unidad 36 de cálculo de diferencia de luminancia establece una primera linea La imaginaria perpendicular (en lo siguiente referida como linea La de atención) que corresponde a un segmento de linea que se extiende en la dirección perpendicular en el espacio real y que pasa a través del área Al de detección, según se ilustra en la FIGURA 22 (a) . La unidad 36 de cálculo de diferencia de luminancia establece una segunda linea Lr imaginaria perpendicular (en lo siguiente referida como linea Lr de referencia) que es diferente de la linea La de atención, corresponde al segmento de linea que se extiende en la dirección perpendicular en el espacio real, y pasa a través del área Al de detección. Aquí, la linea Lr de referencia se establece a una posición en una distancia desde la linea La de atención por una distancia predeterminada en el espacio real. Las lineas que corresponden a los segmentos de linea que se extienden en la dirección perpendicular en el espacio real son lineas que se extienden en la dirección radial desde la posición Ps de la cámara 10 en una imagen de vista a ojo de pájaro. Estas lineas que se extienden en la dirección radial son lineas que siguen la dirección de colapso del objeto tridimensional al convertirse a una vista a ojo de pájaro.
La unidad 36 de cálculo de diferencia de luminancia establece un punto Pa de atención sobre la linea La de atención (un punto sobre la primera linea imaginaria perpendicular) . La unidad 36 de cálculo de diferencia de luminancia establece un punto Pr de referencia sobre la linea Lr de referencia (un punto sobre la segunda linea imaginaria perpendicular) . La linea La de atención, el punto Pa de atención, la linea Lr de referencia, y el punto Pr de referencia tienen la relación en el espacio real ilustrada en la FIGURA 22(b) . Es evidente a partir de la FIGURA 22(b) que la linea La de atención y la linea Lr de referencia son lineas que se extienden en la dirección perpendicular en el espacio real, y que el punto Pa de atención y el punto Pr de referencia son puntos establecidos a sustancialmente la misma altura en el espacio real. No se requiere necesariamente que el punto Pa de atención y el punto Pr de referencia se mantengan rigurosamente a la misma altura, y se permite una cierta cantidad de error que permite que el punto Pa de atención y el punto Pr de referencia se consideren como que están a la misma altura.
La unidad 36 de cálculo de diferencia de luminancia determina la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia. Si la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia es grande, es posible que un borde esté presente entre el punto Pa de atención y el punto Pr de referencia. En la segunda modalidad en particular, una línea imaginaria perpendicular se establece como un segmento de línea que se extiende en la dirección perpendicular en el espacio real en relación a la imagen de vista a ojo de pájaro, a fin de detectar un objeto tridimensional presente en las áreas Al, A2 de detección. Por consiguiente, hay una alta posibilidad de que haya un borde de un objeto tridimensional en la ubicación donde la línea La de atención ha sido establecida cuando la diferencia de luminancia entre la línea La de atención y la línea Lr de referencia es alta. Consecuentemente, la unidad 37 de detección de líneas de borde ilustrada en la FIGURA 20 detecta una línea de borde con base en la diferencia de luminancia entre el punto Pa de atención y el punto Pr de referencia.
Este punto se describirá en mayor detalle. Las FIGURAS 23 (a) y 23 (b) son unas vistas para describir la operación detallada de la unidad 36 de cálculo de diferencia de luminancia. La FIGURA 23(a) ilustra una imagen de vista a ojo de pájaro del estado de vista a ojo de pájaro, y la FIGURA 23 (b) es una vista agrandada de una porción Bl de la imagen de vista a ojo de pájaro ilustrada en la FIGURA 23(a). En las FIGURAS 23 (a) y 23 (b) , sólo se ilustra y describe el área Al de detección, pero la diferencia de luminancia se calcula utilizando el mismo procedimiento para el área A2 de detección.
Cuando el vehículo V2 adyacente está siendo desplegado en la imagen capturada, capturada por la cámara 10, el vehículo V2 adyacente aparece en el área Al de detección en la imagen de vista a ojo de pájaro, según se ilustra en la FIGURA 23(a). La línea La de atención se establece sobre una porción de caucho de una llanta del vehículo V2 adyacente en la imagen de vista a ojo de pájaro en la FIGURA 23(b), según se ilustra en la vista agrandada del área Bl en la FIGURA 23 (a) . En este estado, primero, la unidad 36 de cálculo de diferencia de luminancia establece la línea Lr de referencia. La línea Lr de referencia se establece a lo largo de la dirección perpendicular en una posición establecida en una distancia predeterminada en el espacio real desde la línea La de atención. Específicamente, en el dispositivo la de detección de objeto tridimensional de acuerdo con la presente modalidad, la línea Lr de referencia se establece en una posición en una distancia de 10 cm lejos en el espacio real de la línea La de atención. La línea Lr de referencia se establece por consiguiente sobre la rueda de la llanta del vehículo V2 adyacente establecida, por ejemplo, en una distancia que corresponde a 10 cm desde el caucho de la llanta del vehículo V2 adyacente en la imagen de vista a ojo de pájaro.
Posteriormente, la unidad 36 de cálculo de diferencia de luminancia establece una pluralidad de puntos Pal a PaN de atención sobre la línea La de atención. En la FIGURA 23(b), se establecen seis puntos Pal a Pa6 de atención (en lo siguiente referido como punto Pai de atención al indicar un punto arbitrario) por conveniencia de la descripción. Un número arbitrario de puntos Pa de atención se puede establecer sobre la línea La de atención. En la descripción de abajo, se establecen N puntos Pa de atención sobre la línea La de atención .
La unidad 36 de cálculo de diferencia de luminancia establece subsiguientemente los puntos Prl a PrN de referencia a fin de tener la misma altura que los puntos Pal a PaN de atención en el espacio real. La unidad 36 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre los pares de punto Pa de atención y punto Pr de referencia a la misma altura. La unidad 36 de cálculo de diferencia de luminancia calcula por consiguiente la diferencia de luminancia entre dos pixeles para cada una de la pluralidad de posiciones (1 - N) a lo largo de la línea imaginaria perpendicular que se extiende en la dirección perpendicular en el espacio real. La unidad 36 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre, por ejemplo, un primer punto Pal de atención y un primer punto Prl de referencia, y calcula la diferencia de luminancia entre un segundo punto Pa2 de atención y un segundo punto Pr2 de referencia. La unidad 36 de cálculo de diferencia de luminancia determina por consiguiente la diferencia de luminancia de manera continua a lo largo de la linea La de atención y la linea Lr de referencia. En otras palabras, la unidad 36 de cálculo de diferencia de luminancia determina secuencialmente la diferencia de luminancia entre los tercer a enésimo puntos Pa3 a PaN de atención y los tercer a enésimo puntos Pr3 a PrN de referencia.
La unidad 36 de cálculo de diferencia de luminancia repite el proceso de establecer la linea Lr de referencia anteriormente descrita, establecer el punto Pa de atención, establecer el punto Pr de referencia, y calcular la diferencia de luminancia mientras se cambia la linea La de atención dentro del área Al de detección. En otras palabras, la unidad 36 de cálculo de diferencia de luminancia ejecuta repetidamente el proceso anteriormente descrito mientras cambia las posiciones de la linea La de atención y la linea Lr de referencia por la misma distancia en el espacio real a lo largo de la dirección en la cual se extiende la linea Ll de suelo. La unidad 36 de cálculo de diferencia de luminancia, por ejemplo, establece la linea que era la linea Lr de referencia en el proceso previo para ser la linea La de atención, establece la linea Lr de referencia en relación a la linea La de atención, y determina secuencialmente la diferencia de luminancia.
De esta manera, en la segunda modalidad, determinar la diferencia de luminancia a partir del punto Pa de atención sobre la linea La de atención y el punto Pr de referencia sobre la linea Lr de referencia, que están en sustancialmente la misma altura en el espacio real, permite que la diferencia de luminancia sea detectada claramente cuando está presente un borde que se extiende en la dirección perpendicular. La precisión para detectar un objeto tridimensional se puede mejorar sin que se afecte el proceso para detectar el objeto tridimensional, incluso cuando el objeto tridimensional se agranda de conformidad con la altura desde la superficie de la carretera por la conversión a una imagen de vista a ojo de pájaro a fin de comparar la luminancia entre las lineas imaginarias perpendiculares que se extienden en la dirección perpendicular en el espacio real.
Regresando a la FIGURA 20, la unidad 37 de detección de lineas de borde detecta la linea de borde a partir de la diferencia de luminancia continua calculada por la unidad 36 de cálculo de diferencia de luminancia. Por ejemplo, en el caso ilustrado en la FIGURA 23(b), el primer punto Pal de atención y el primer punto Prl de referencia se posicionan en la misma porción de la llanta, y por consiguiente la diferencia de luminancia es pequeña. Por otra parte, los segundo a sexto puntos Pa2 a Pa6 de atención se posicionan en las porciones de caucho de la llanta, y los segundo a sexto puntos Pr2 a Pr6 de referencia se posicionan en la porción de rueda de la llanta. Por consiguiente, la diferencia de luminancia entre los segundo a sexto puntos Pa2 a Pa6 de atención y los segundo a sexto puntos Pr2 a Pr6 de referencia es grande. Consecuentemente, la unidad 37 de detección de lineas de borde es capaz de detectar que un borde está presente entre los segundo a sexto puntos Pa2 a Pa6 de atención y los segundo a sexto puntos Pr2 a Pr6 de referencia donde la diferencia de luminancia es alta.
Específicamente, cuando se debe detectar una línea de borde, la unidad 37 de detección de líneas de borde primero asigna un atributo al iésimo punto Pai de atención a partir de la diferencia de luminancia entre el iésimo punto Pai de atención (coordenadas (xi, yi)) al iésimo punto Pri de referencia (coordenadas (xi' , yi' ) ) de conformidad con la fórmula 2 mostrada a continuación.
Fórmula 2 s(xi, yi) = 1 cuando I (xi, yi) > I(xi', yi' ) + t s(xi, yi) = -1 cuando I(xi, yi) < I (xi' , yi' ) - t s ( xi , yi ) = 0 cuando lo anterior no conserva su validez.
En la fórmula 2 anterior, t representa un valor de umbral predeterminado, I (xi, yi) representa el valor de luminancia del iésimo punto Pai de atención, y I (xi' , yi' ) representa el valor de luminancia del iésimo punto Pri de referencia. De conformidad con la fórmula 2, el atributo s (xi, yi) del punto Pai de atención es ? 1' cuando el valor de luminancia del punto Pai de atención es mayor que el valor de luminancia obtenido sumando el valor t de umbral al punto Pri de referencia. Por otra parte, el atributo s(xi, yi) del punto Pai de atención es ?-1' cuando el valor de luminancia del punto Pai de atención es menor que el valor de luminancia obtenido sustrayendo el valor t de umbral a partir del punto Pri de referencia. El atributo s(xi, yi) del punto Pai de atención es 0' cuando el valor de luminancia del punto Pai de atención y el valor de luminancia del punto Pri de referencia están en una relación diferente de aquella indicada anteriormente.
Posteriormente, la unidad 37 de detección de lineas de borde evalúa si la linea La de atención es una linea de borde a partir de la continuidad c (xi, yi) del atributo s a lo largo de la linea La de atención con base en la siguiente fórmula 3. Fórmula 3 c(xi, yi) = 1 cuando s(xi, yi) = s (xi + 1, yi + 1) (excepto cuando 0 = 0) c (xi, yi ) = 0 cuando lo anterior no conserva su validez.
La continuidad c(xi, yi) es ?1' cuando el atributo s(xi, yi) del punto Pai de atención y el atributo s (xi + 1, yi + 1) del punto Pai + 1 de atención adyacente son iguales. La continuidad c(xi, yi) es ?0' cuando el atributo s(xi, yi) del punto Pai de atención y el atributo s (xi + 1, yi + 1) del punto Pai + 1 de atención adyacente no son iguales.
Posteriormente, la unidad 37 de detección de lineas de borde determina la suma de las continuidades c de todos los puntos Pa de atención sobre la linea La de atención. La unidad 37 de detección de lineas de borde divide la suma de las continuidades c asi determinada por el número N de puntos Pa de atención para normalizar por consiguiente la continuidad c. La unidad 37 de detección de lineas de borde determina la linea La de atención para ser una linea de borde cuando el valor normalizado ha excedido un valor T de umbral. El valor T de umbral se establece de antemano mediante experimentación o de otra manera.
En otras palabras, la unidad 37 de detección de lineas de borde determina si la linea La de atención es una linea de borde con base en la fórmula 4 mostrada a continuación. La unidad 37 de detección de lineas de borde determina entonces si todas las lineas La de atención dibujadas en el área Al de detección son lineas de borde.
Fórmula 4 ?c(xi, yi) N > T De esta manera, en la segunda modalidad, un atributo se asigna al punto Pa de atención con base en la diferencia de luminancia entre el punto Pa de atención sobre la linea La de atención y el punto Pr de referencia sobre la linea Lr de referencia, y se determina si la linea La de atención es una linea de borde con base en la continuidad c de los atributos a lo largo de la linea La de atención. Por consiguiente, los limites entre las áreas que tienen alta luminancia y las áreas que tienen baja luminancia se detectan como lineas de borde, y los bordes se pueden detectar de conformidad con los sentidos naturales de un humano. Los resultados de lo anterior serán descritos. La FIGURA 24 es una vista que ilustra un ejemplo de imagen para describir el procesamiento de la unidad 37 de detección de lineas de borde. Este ejemplo de imagen es una imagen en la cual un primer patrón 101 de franjas y un segundo patrón 102 de franjas son adyacentes entre si, el primer patrón 101 de franjas que indica un patrón de franjas en el cual se repiten las áreas de alta luminancia y las áreas de baja luminancia, y el segundo patrón 102 de franjas que indica un patrón de franjas en el cual se repiten las áreas de baja luminancia y las áreas de alta luminancia. Además, en este ejemplo de imagen, las áreas del primer patrón 101 de franjas en el cual la luminancia es alta, y las áreas del segundo patrón 102 de franjas en el cual la luminancia es baja son adyacentes entre si, y las áreas del primer patrón 101 de franjas en el cual la luminancia es baja, y las áreas del segundo patrón 102 de franjas en el cual la luminancia es alta son adyacentes entre si. La ubicación 103 posicionada en el limite entre el primer patrón 101 de franjas y el segundo patrón 102 de franjas tiende a no ser percibida como un borde por los sentidos del humano.
En contraste, debido a que las áreas de baja luminancia y las áreas de alta luminancia son adyacentes entre si, la ubicación 103 se reconoce como un borde cuando un borde se detecta sólo por la diferencia de luminancia. Sin embargo, la unidad 37 de detección de lineas de borde evalúa la ubicación 103 como una linea de borde sólo cuando hay continuidad en los atributos de la diferencia de luminancia. Por consiguiente, la unidad 37 de detección de lineas de borde es capaz de suprimir la evaluación errante en la cual la ubicación 103, que no se reconoce como una linea de borde por los sentidos del humano, se reconoce como una linea de borde, y los bordes se pueden detectar de conformidad con los sentidos del humano.
Regresando a la FIGURA 20, la unidad 33a de detección de objeto tridimensional detecta un objeto tridimensional con base en la cantidad de lineas de borde detectadas por la unidad 37 de detección de lineas de borde. Según se describe anteriormente, el dispositivo la de detección de objeto tridimensional de acuerdo con la presente modalidad detecta una linea de borde que se extiende en la dirección perpendicular en el espacio real. La detección de muchas lineas de borde que se extienden en la dirección perpendicular indica que hay una alta posibilidad de que un objeto tridimensional esté presente en las áreas Al, A2 de detección. Consecuentemente, la unidad 33a de detección de objeto tridimensional detecta un objeto tridimensional con base en la cantidad de lineas de borde detectadas por la unidad 37 de detección de lineas de borde. Específicamente, la unidad 33a de detección de objeto tridimensional determina si la cantidad de líneas de borde detectadas por la unidad 37 de detección de líneas de borde es un valor ß de umbral predeterminado o mayor, y cuando la cantidad de líneas de borde es un valor ß de umbral predeterminado o mayor, se determina que las líneas de borde detectadas por la unidad 37 de detección de líneas de borde son las líneas de borde de un objeto tridimensional, y se detecta por consiguiente un objeto tridimensional con base en las líneas de borde como un vehículo V2 adyacente.
De esta manera, la forma de onda del borde es un modo de información de la distribución de los pixeles que indica una diferencia de luminancia predeterminada, y la "información de la distribución de los pixeles" en la presente modalidad se puede posicionar con información que indica el estado de la distribución de los "pixeles que tienen una diferencia de luminancia en un valor de umbral predeterminado o mayor" según se detecta a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando la imagen capturada se convierte en perspectiva a una imagen de vista a ojo de pájaro. En otras palabras, la unidad 33a de detección de objeto tridimensional detecta, en la imagen de vista a ojo de pájaro obtenida por la unidad 31 de conversión de perspectiva, la información de la distribución de los pixeles en que la diferencia de luminancia es un valor t de umbral o mayor a lo largo de la dirección en la cual el objeto tridimensional colapsa cuando se hace la conversión en perspectiva a una imagen de vista a ojo de pájaro, y detecta un objeto tridimensional con base en la información de la distribución de los pixeles (lineas de borde) cuando el grado de distribución de los pixeles (cantidad de lineas de borde) en la dirección en la cual el objeto tridimensional colapsa está en un valor ß de umbral predeterminado o mayor.
En la segunda modalidad, el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde se establece por la unidad 35a de establecimiento de referencia de detección. De la misma manera que la primera modalidad, en la segunda modalidad, la unidad 35a de establecimiento de referencia de detección establece, con base en el grado de certeza detectado por la unidad 34 de evaluación de grado de certeza ilustrada en la FIGURA 20, el tercer valor ß de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10 o el cuarto valor ß de umbral establecido de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde.
En otras palabras, la unidad 35a de establecimiento de referencia de detección determina si el grado de certeza evaluado por la unidad 34 de evaluación de grado de certeza está en un valor predeterminado o mayor, y cuando el grado de certeza es menor que el valor predeterminado, el tercer valor ß? de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10 se establece como el valor ß de umbral para detectar el vehículo adyacente con base en las líneas de borde. Por otra parte, cuando el grado de certeza está en un valor predeterminado o mayor, el cuarto valor ß2 de umbral establecido de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde.
En la segunda modalidad, la unidad 34 de evaluación de grado de certeza evalúa exhaustivamente el grado de certeza de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente con base en el número de fuentes de iluminación, la posición de una fuente de iluminación, y el cambio en el tiempo en el estado de una fuente de iluminación, de la misma manera que la primera modalidad. Determinar exhaustivamente el número de fuentes de iluminación, la posición de una fuente de iluminación, y el cambio en el tiempo en el estado de una fuente de iluminación de esta manera posibilita determinar adecuadamente si una fuente de iluminación detectada es de los faros delanteros de un vehículo adyacente al adyacente. La unidad 34 de evaluación de grado de certeza se puede configurar para dar consideración al tamaño de la fuente de iluminación detectada de la misma manera que la primera modalidad cuando se evalúa el grado de certeza .
Aquí, en la segunda modalidad, la unidad 35a de establecimiento de referencia de detección establece el tercer valor ß? de umbral de la siguiente manera. En otras palabras, la unidad 35a de establecimiento de referencia de detección establece el tercer valor ß1 de umbral a un valor más alto de manera proporcionada a la más alta luminancia en las posiciones de detección en las áreas Al, A2 de detección (por ejemplo, la posición correspondiente a la línea La de atención en las áreas Al, A2 de detección) , según se ilustra en la FIGURA 25, de la misma manera que la primera modalidad. La unidad 35a de establecimiento de referencia de detección incrementa la ganancia del tercer valor 3i de umbral en el área Rl de las áreas Al, A2 de detección más que en el área R2 para modificar por consiguiente el tercer valor ß? de umbral establecido de conformidad con la luminancia para ser un valor más alto en el área Rl en las áreas Al, A2 de detección en comparación con el área R2 en las áreas Al, A2 de detección, según se ilustra en la FIGURA 26. Además, la unidad 35a de establecimiento de referencia de detección incrementa la ganancia del tercer valor ß? de umbral de manera proporcionada a una más corta distancia hacia atrás desde la cámara 10 (más cerca al vehículo principal) en el área Rl en las áreas Al, A2 de detección para modificar por consiguiente el tercer valor /3i de umbral establecido de conformidad con la luminancia a un valor más alto de manera proporcionada a la proximidad al vehículo principal .
De modo semejante, la unidad 35a de establecimiento de referencia de detección incrementa la ganancia del tercer valor /3i de umbral en el área R3 también de las áreas Al, A2 de detección más que en el área R2 en las áreas Al, A2 de detección para modificar por consiguiente el tercer valor /3i de umbral establecido de conformidad con la luminancia para ser un valor más alto en el área R3 en las áreas Al, A2 de detección en comparación con el área R2 en las áreas Al, A2 de detección, según se ilustra en las FIGURAS 22 (a) y 22 (b) . Además, la unidad 35a de establecimiento de referencia de detección incrementa la ganancia del tercer valor ? de umbral de manera proporcionada a una mayor distancia hacia atrás desde la cámara 10 (más lejos del vehículo principal) en el área R3 en las áreas Al, A2 de detección para modificar por consiguiente el tercer valor ß de umbral establecido de conformidad con la luminancia a un valor más alto de manera proporcionada a la distancia a partir del vehículo principal.
En la segunda modalidad también, es posible por consiguiente prevenir efectivamente que una imagen de la luz de los faros delanteros sea errantemente detectada como un vehículo adyacente de la misma manera que la primera modalidad, incluso en el área R2 donde la luminancia de la luz de los faros delanteros radiada desde el vehículo V3 adyacente al adyacente es alta, o en las áreas Rl, R3 donde la luminancia de la luz de los faros delanteros radiada desde el vehículo V3 adyacente al adyacente es baja en una situación en la cual la luz de los faros delanteros de un vehículo V3 adyacente al adyacente se radia hacia el carril adyacente, por ejemplo, en la noche.
En la segunda modalidad, la unidad 35a de establecimiento de referencia de detección establece el cuarto valor ß2 de umbral de la siguiente manera. En otras palabras, la unidad 35a de establecimiento de referencia de detección tiene, de la misma manera que la primera modalidad, un tercer mapa de valores de umbral en el cual el valor ß2' de umbral predeterminado se establece de conformidad con la luminancia en la posición de detección en las áreas Al, A2 de detección de modo que la llanta/rueda, que es una porción característica de un vehículo adyacente, se detecte fácilmente, según se ilustra en la FIGURA 27, y un cuarto mapa de valores de umbral en el cual un valor ß?' ' de umbral predeterminado se establece de conformidad con la luminancia en las posiciones de detección en las áreas Al, A2 de detección de modo que no ocurra la detección errante de un vehículo adyacente en la vecindad de los faros delanteros, según se ilustra en la FIGURA 28. Además, de la misma manera que la primera modalidad, la unidad 35a de establecimiento de referencia de detección se provee con un mapa de control en el cual se especifica la ponderación wt del valor 2' ' de umbral obtenido a partir del cuarto mapa de valores de umbral, según se ilustra en la FIGURA 29.
La unidad 35a de establecimiento de referencia de detección imparte entonces la ponderación wt del segundo valor ^2' ' de umbral especificado en el mapa de control ilustrado en la FIGURA 29 de conformidad con la posición de la fuente de iluminación al valor de umbral obtenido a partir del tercer mapa de valores de umbral y al valor ß2' ' de umbral obtenido a partir del cuarto mapa de valores de umbral de conformidad con la fórmula 5 mostrada a continuación de la misma manera que en la primera modalidad, y calcula por consiguiente el cuarto valor $2 de umbral para detectar un vehículo adyacente con base en la información de borde. En la segunda modalidad, la posición de la fuente de iluminación detectada y la posición P0 de referencia del mapa de control ilustrado en la FIGURA 29 se hacen coincidir entre si y el mapa de control ilustrado en la FIGURA 29 se ajusta de manera similar a la primera modalidad.
Fórmula 5 Cuarto valor ß2 de umbral = { (1 - wt) · valor ß2' de umbral obtenido a partir del tercer mapa de valores de umbral} + (wt · valor ß2' ' de umbral obtenido a partir del cuarto mapa de valores de umbral) De esta manera, la unidad 35a de establecimiento de referencia de detección es capaz de establecer el tercer valor ß? de umbral establecido de conformidad con la distancia hacia atrás desde la cámara 10 y el cuarto valor ß2 de umbral establecido de conformidad con la relación posicional entre la cámara 10 y la fuente de iluminación. La unidad 35a de establecimiento de referencia de detección determina entonces si el grado de certeza evaluado por la unidad 34 de evaluación de grado de certeza está en un valor predeterminado o mayor; cuando el grado de certeza es menor que el valor predeterminado, el tercer valor ß de umbral se establece como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde; y por otra parte, cuando el grado de certeza está en el valor predeterminado o mayor, el cuarto valor ß2 de umbral se establece como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde .
Además, antes de detectar el objeto tridimensional, la unidad 33a de detección de objeto tridimensional evalúa si las líneas de borde detectadas por la unidad 37 de detección de líneas de borde son correctas. La unidad 33a de detección de objeto tridimensional evalúa si un cambio en la luminancia en las líneas de borde es un valor tb de umbral predeterminado o mayor a lo largo de las lineas de borde de la imagen de vista a ojo de pájaro. Cuando el cambio en la luminancia en las líneas de borde en la imagen de vista a ojo de pájaro es un valor tb de umbral predeterminado o mayor, se determina que las líneas de borde han sido detectadas mediante una evaluación errante. Por otra parte, cuando el cambio en la luminancia en las líneas de borde en la imagen de vista a ojo de pájaro es menor que un valor tb de umbral predeterminado, se evalúa que las líneas de borde son correctas. El valor tb de umbral se establece de antemano mediante experimentación o de otra manera.
Las FIGURAS 30(a) y 30(b) son unas vistas que ilustran la distribución de luminancia de la línea de borde, la FIGURA 30(a) ilustra la línea de borde y la distribución de luminancia cuando un vehículo V2 adyacente como un objeto tridimensional está presente en el área Al de detección, y la FIGURA 30(b) ilustra la línea de borde y la distribución de luminancia cuando un objeto tridimensional no está presente en el área Al de detección .
Según se ilustra en la FIGURA 30 (a) , se asume que se ha determinado que la línea La de atención establecida en la porción de caucho de la llanta del vehículo V2 adyacente está en una línea de borde en la imagen de vista a ojo de pájaro. En este caso, el cambio en la luminancia en la línea La de atención en la imagen de vista a ojo de pájaro es gradual. Esto se debe a la imagen capturada por la cámara 10 que se convierte en perspectiva a una imagen de vista a ojo de pájaro, por lo que la llanta del vehículo adyacente se agranda dentro de la imagen de vista a ojo de pájaro. Por otra parte, se asume que la línea La de atención establecida en la porción del carácter blanco "50" dibujado sobre la superficie de la carretera en la imagen de vista a ojo de pájaro ha sido errantemente evaluada como una línea de borde, según se ilustra en la FIGURA 30 (b) . En este caso, el cambio en la luminancia en la línea La de atención en la imagen de vista a ojo de pájaro tiene ondulaciones considerables. Esto es porque la carretera y otras porciones de baja luminancia se mezclan con las porciones de alta luminancia en los caracteres blancos en la línea de borde.
La unidad 33a de detección de objeto tridimensional evalúa si una línea de borde ha sido detectada por una evaluación errante con base en las diferencias en la distribución de luminancia en la linea La de atención según se describe anteriormente. La unidad 33a de detección de objeto tridimensional determina que la linea de borde ha sido detectada por una evaluación errante cuando el cambio en la luminancia a lo largo de la linea de borde está en un valor tb de umbral predeterminado o mayor, y determina que la linea de borde no es causada por un objeto tridimensional. Una reducción en la precisión para la detección del objeto tridimensional se suprime por consiguiente cuando los caracteres blancos tales como "50" en la superficie de la carretera, la vegetación al lado de la carretera, y similares se evalúan como lineas de borde. Por otra parte, la unidad 33a de detección de objeto tridimensional determina que una línea de borde es la línea de borde de un objeto tridimensional y determina que un objeto tridimensional está presente cuando los cambios en la luminancia a lo largo de la línea de borde son menores que un valor tb de umbral predeterminado.
Específicamente, la unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia de la línea de borde utilizando la fórmula 6 o 7 mostradas debajo. El cambio en la luminancia de la línea de borde corresponde al valor de evaluación en el espacio real en la dirección perpendicular. La fórmula 6 evalúa la distribución de luminancia utilizando el valor total del cuadrado de la diferencia entre el iésimo valor de luminancia I (xi, yi) y el iésimo + 1 valor de luminancia adyacente I (xi + 1, yi + 1} en la linea La de atención. La fórmula 7 evalúa la distribución de luminancia utilizando el valor total del valor absoluto de la diferencia entre el iésimo valor de luminancia I (xi, yi) y el iésimo + 1 valor de luminancia adyacente I (xi + 1, yi + 1) en la linea La de atención.
Fórmula 6 Valor de evaluación en la dirección equivalente perpendicular = ?[{I(xi, yi) - I (xi + 1, yi + l)}2] Fórmula 7 Valor de evaluación en la dirección equivalente perpendicular = ?|I(xi, yi) - I(xi + 1, yi + 1) I No se impone limitación alguna en el uso de la fórmula 7, y también es posible binarizar un atributo b de un valor de luminancia adyacente utilizando un valor t2 de umbral, y posteriormente sumar el atributo b binarizado para todos los puntos Pa de atención, como en la fórmula 8 mostrada debajo. Fórmula 8 Valor de evaluación en la dirección equivalente perpendicular = ?b(xi, yi) donde b(xi, yi ) = 1 cuando |I(xi, yi) - I (xi + 1, yi + 1 ) | > t2 y b (xi , yi ) = 0 cuando lo anterior no conserva su validez.
El atributo b(xi, yi) del punto Pa(xi, yi) de atención es l' cuando el valor absoluto de la diferencia de luminancia entre el valor de luminancia del punto Pai de atención y el valor de luminancia del punto Pri de referencia es mayor que un valor t2 de umbral. Cuando la relación anterior no conserva su validez, el atributo b(xi, yi) del punto Pai de atención es x0' . El valor t2 de umbral se establece de antemano mediante experimentación o de otra manera de modo que la linea La de atención no se evalúe para estar en el mismo objeto tridimensional. La unidad 33a de detección de objeto tridimensional suma entonces el atributo b para todos los puntos Pa de atención sobre la linea La de atención y determina el valor de evaluación en la dirección equivalente perpendicular para evaluar por consiguiente si una linea de borde es causada por un objeto tridimensional y que un objeto tridimensional está presente.
A continuación, se describirá el método para detectar un vehículo adyacente de acuerdo con la segunda modalidad. La FIGURA 31 es un diagrama de flujo que ilustra los detalles del método para detectar un vehículo adyacente de acuerdo con la presente modalidad. En la FIGURA 31, el proceso involucrado con el área Al de detección se describirá por el bien de la conveniencia, pero el mismo proceso se ejecuta también para el área A2 de detección.
Primero, en la etapa S301, un área predeterminada especificada por el ángulo a de vista y la posición de unión se captura por la cámara 10, y los datos de imagen de la imagen P capturada, capturada por la cámara 10 se adquieren por la computadora 30a. Posteriormente, la unidad 31 de conversión de perspectiva convierte la perspectiva de los datos de imagen adquiridos y genera datos de imagen de vista a ojo de pájaro en la etapa S302.
Posteriormente, en la etapa S303, la unidad 36 de cálculo de diferencia de luminancia establece la linea La de atención en el área Al de detección. En este momento, la unidad 36 de cálculo de diferencia de luminancia establece una linea correspondiente a una linea que se extiende en la dirección perpendicular en el espacio real como la linea La de atención. En la etapa S304, la unidad 36 de cálculo de diferencia de luminancia establece subsiguientemente la linea Lr de referencia en el área Al de detección. En este punto, la unidad 36 de cálculo de diferencia de luminancia establece, como la linea Lr de referencia, una linea que corresponde a una linea que se extiende en la dirección perpendicular en el espacio real, la linea estando también separada por una distancia predeterminada en el espacio real de la linea La de atención .
Posteriormente, en la etapa S305, la unidad 36 de cálculo de diferencia de luminancia establece una pluralidad de puntos de atención en la linea La de atención. Además, en este momento, la unidad 36 de cálculo de diferencia de luminancia establece un cierto número de puntos Pa de atención que no serán problemáticos durante la detección de borde por la unidad 37 de detección de lineas de borde. Además, en la etapa S306 la unidad 36 de cálculo de diferencia de luminancia establece- puntos Pr de referencia de modo que los puntos Pa de atención y los puntos Pr de referencia estén sustancialmente a la misma altura en el espacio real. Los puntos Pa de atención y los puntos Pr de referencia se alinean por consiguiente en sustancialmente la dirección horizontal, y la linea de borde que se extiende en la dirección perpendicular en el espacio real es más fácilmente detectada.
Posteriormente, en la etapa S307, la unidad 36 de cálculo de diferencia de luminancia calcula la diferencia de luminancia entre los puntos Pa de atención y los puntos Pr de referencia a la misma altura en el espacio real. La unidad 37 de detección de lineas de borde calcula entonces el atributo s de los puntos Pa de atención de conformidad con la fórmula 2 anteriormente descrita. En la etapa S308, la unidad 37 de detección de lineas de borde calcula entonces la continuidad c del atributo s de los puntos Pa de atención de conformidad con la fórmula 3 indicada anteriormente. En la etapa S309, la unidad 37 de detección de lineas de borde evalúa adicionalmente si un valor obtenido normalizando la suma de la continuidad c es mayor que un valor T de umbral de conformidad con la fórmula 4. Cuando se ha determinado que el valor normalizado es mayor que el valor T de umbral (etapa S309 = Sí) , la unidad 37 de detección de líneas de borde detecta la línea La de atención como la línea de borde en la etapa S310. El proceso avanza entonces a la etapa S311. Cuando se ha determinado que el valor normalizado no es mayor que el valor T de umbral (etapa S309 = No) , la unidad 37 de detección de líneas de borde no detecta que la línea La de atención es una línea de borde, y el proceso avanza a la etapa S311.
En la etapa S311, la computadora 30a determina si los procesos de las etapas S303 a S310 se han ejecutado para todas las líneas La de atención que se pueden establecer en el área Al de detección. Cuando se ha determinado que los procesos anteriores no se han llevado a cabo para todas las líneas La de atención (etapa S311 = No) , el proceso regresa a la etapa S303, establece una nueva línea La de atención, y repite el proceso hasta la etapa S311. Por otra parte, cuando se ha determinado que los procesos se han llevado a cabo para todas las líneas La de atención (etapa S311 = Sí), el proceso avanza a la etapa S312.
En la etapa S312, la unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia a lo largo de la línea de borde para cada línea de borde detectada en la etapa S310. La unidad 33a de detección de objeto tridimensional calcula el cambio en la luminancia de las líneas de borde de conformidad con cualquiera de las fórmulas 6, 7, y 8. Posteriormente, en la etapa S313, la unidad 33a de detección de objeto tridimensional excluye, de entre las líneas de borde, las líneas de borde en las cuales el cambio en la luminancia está en un valor tb de umbral predeterminado o mayor. En otras palabras, cuando una línea de borde que tiene un cambio grande en la luminancia no se evalúa como una línea de borde correcta, la línea de borde no se utiliza para detectar un objeto tridimensional. Según se describe anteriormente, esto se hace a fin de suprimir la detección de los caracteres en la superficie de la carretera, la vegetación al lado de la carretera, y similares incluidos en el área Al de detección como líneas de borde. Por consiguiente, el valor tb de umbral predeterminado se determina mediante expe imentación o de otra manera de antemano, y se establece con base en el cambio en la luminancia que ocurre debido a los caracteres en la superficie de la carretera, la vegetación al lado de la carretera, y similares. Por otra parte, la unidad 33a de detección de objeto tridimensional determina una línea de borde que tiene un cambio en la luminancia que es menor que un valor tb de umbral predeterminado como una línea de borde de un objeto tridimensional, y detecta por consiguiente el objeto tridimensional presente en un carril adyacente.
Posteriormente, en la etapa S314, la unidad 35a de establecimiento de referencia de detección establece el valor ß de umbral para evaluar si el objeto tridimensional detectado en la etapa S313 es un vehículo adyacente. Específicamente, la unidad 35a de establecimiento de referencia de detección detecta una fuente de iluminación hacia la parte trasera y el lado del vehículo principal y evalúa el grado de certeza que indica la plausibilidad de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente hacia la parte trasera y el lado del vehículo principal, de la misma manera que la etapa S105 en la primera modalidad. Cuando el grado de certeza está en un valor predeterminado o mayor, la unidad 35a de establecimiento de referencia de detección establece un tercer valor ß? de umbral como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde, y, por otra parte, establece un cuarto valor ß2 de umbral como el valor ß de umbral para detectar un vehículo adyacente con base en las líneas de borde cuando el grado de certeza es menor que el valor predeterminado .
Posteriormente, en la etapa S315, se determina por la unidad 33a de detección de objeto tridimensional si la cantidad de líneas de borde es un valor ß de umbral o mayor según se establece en la etapa S314. Cuando se ha evaluado que la cantidad de líneas de borde está en un valor ß de umbral o mayor (etapa S315 = Sí), la unidad 33a de detección de objeto tridimensional evalúa en la etapa S316 que un vehículo adyacente está presente en el área Al de detección. Por otra parte, cuando la cantidad de lineas de borde evaluadas no está en el valor ß de umbral o mayor (etapa S315 = No) , la unidad 33a de detección de objeto tridimensional evalúa que un vehículo adyacente no está presente en el área Al de detección en la etapa S317. El proceso ilustrado en la FIGURA 31 termina entonces .
Según se describe anteriormente, en la segunda modalidad, se detecta la información de borde del objeto tridimensional, y un vehículo adyacente se detecta con base en la información de borde detectada. Específicamente, se determina si la cantidad de líneas de borde detectadas en la imagen de vista a ojo de pájaro está en un valor ß de umbral predeterminado o mayor establecido de conformidad con la distancia hacia atrás desde la cámara 10 o la relación posicional entre la cámara 10 y la fuente de iluminación, y cuando la cantidad de líneas de borde está en el valor ß de umbral o mayor, se determina que un objeto tridimensional que tiene las líneas de borde está presente en el carril adyacente, por lo que un objeto tridimensional presente en el carril adyacente puede ser adecuadamente detectado. Además, en la segunda modalidad, cuando un vehículo adyacente debe ser detectado con base en la información de borde, se detecta la fuente de iluminación hacia atrás del vehículo principal, y se evalúa el grado de certeza de que la fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente. Cuando el grado de certeza es menor que un valor predeterminado, el tercer valor ß? de umbral obtenido con base en la distancia hacia atrás desde la cámara 10 se establece como el valor ß de umbral, y por otra parte, cuando el grado de certeza está en el valor predeterminado o mayor, el cuarto valor ß2 de umbral obtenido con base en la relación posicional entre la cámara 10 y la fuente de iluminación se establece como el valor ß de umbral. Además de los efectos de la primera modalidad, en la segunda modalidad, cuando la fuente de iluminación detectada son los faros delanteros de un vehículo adyacente durante la detección de un vehículo adyacente con base en las líneas de borde, es posible detectar adecuadamente una llanta/rueda, que es una porción característica de un vehículo adyacente que está presente hacia atrás de los faros delanteros (fuente de iluminación) , incluso cuando la luminancia en la vecindad de los faros delanteros (fuente de iluminación) es alta debido a la tierra en la lente de la cámara; y es posible prevenir efectivamente la detección errante de un vehículo adyacente debido a la luz reflejada o similar en que la luz de los faros delanteros de un vehículo adyacente al adyacente se ha reflejado desde la superficie de la carretera hacia adelante de los faros delanteros (fuente de iluminación), y un vehículo adyacente puede ser adecuadamente detectado incluso cuando la luz no es de los faros delanteros de un vehículo adyacente al adyacente .
Las modalidades anteriormente descritas se describen a fin de facilitar la comprensión de la presente invención, y no se describen a fin de limitar la presente invención. Por consiguiente, los elementos divulgados en las modalidades anteriores pretenden incluir todas las modificaciones de diseño y los equivalentes de los mismos que yacen dentro del alcance técnico de la presente invención.
Se proporcionó un ejemplo en la primera modalidad anteriormente descrita en el cual el valor a2' de umbral obtenido a partir del primer mapa de valores de umbral ilustrado en la FIGURA 10 y el valor a¾' ' de umbral obtenido a partir del segundo mapa de valores de umbral ilustrado en la FIGURA 11 se ponderan con la ponderación wt especificada en el mapa de control ilustrado en la FIGURA 12, según se indica en la fórmula anteriormente indicada, para calcular el segundo valor a2 de umbral, pero no se impone limitación alguna en ese sentido, y también es posible, por ejemplo, impartir una ponderación wt especificada en el mapa de control ilustrado en la FIGURA 32 al valor a2' de umbral obtenido a partir del primer mapa de valores de umbral que ilustra la FIGURA 10, según se indica en la fórmula 9 mostrada a continuación, sin el uso del segundo mapa de valores de umbral mostrado en la FIGURA 11 para calcular el segundo valor <¾ de umbral.
Fórmula 9 Segundo valor <¾ de umbral = (wt · valor <¾' de umbral obtenido a partir del primer mapa de valores de umbral) En el mapa de control ilustrado en la FIGURA 32, la ponderación wt en la posición P0 de referencia se establece para ser x (x > 1), y hacia atrás de la posición P0 de referencia la ponderación wt se establece para ser 1. Además, en el mapa de control ilustrado en la FIGURA 32, la ponderación wt cambia a un valor más alto hacia adelante de la posición PQ de referencia que hacia atrás de la posición Po de referencia de la misma manera que el mapa de control ilustrado en la FIGURA 12. Consecuentemente, incluso en este caso, cuando la posición de la fuente de iluminación y la posición P0 de referencia se hacen corresponder, es posible detectar adecuadamente la llanta/rueda de un vehículo adyacente presente hacia atrás de los faros delanteros (fuente de iluminación) mientras que se previene efectivamente la detección errante de un vehículo adyacente en la vecindad de los faros delanteros. Como consecuencia, el vehículo adyacente que viaja en un carril adyacente puede ser adecuadamente detectado .
En la primera modalidad anteriormente descrita, se proporcionó un ejemplo en el cual se toma el valor absoluto de la diferencia en los valores de pixel de las imágenes PBt y PBt-i de vista a ojo de pájaro y cuando el valor absoluto es igual a o mayor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "1", y cuando el valor absoluto es menor que un valor th de umbral predeterminado, los valores de pixel de la imagen PDt de diferencia se establecen a "0", pero el valor th de umbral se puede modificar de conformidad con la distancia hacia atrás desde la cámara 10 o la relación posicional entre la cámara 10 y la fuente de iluminación.
Específicamente, también es posible utilizar una configuración en la cual, cuando el grado de certeza es menor que un valor predeterminado, la unidad 35 de establecimiento de referencia de detección incrementa la ganancia del valor th de umbral en el área Rl y el área R3 en las áreas Al, A2 de detección más que en el área R2 en las áreas Al, A2 de detección, según se ilustra en, por ejemplo, el dibujo a la izquierda en la FIGURA 8, y, por otra parte, cuando el grado de certeza está en un valor predeterminado o mayor, la ganancia del valor th de umbral se incrementa en el área Rf hacia adelante de la fuente de iluminación más que en el área Rr hacia atrás de la fuente de iluminación en las áreas Al, A2 de detección, según se ilustra en, por ejemplo, el dibujo a la derecha en la FIGURA 13 (A) . Por consiguiente, es posible prevenir efectivamente que la luz de los faros delanteros de un vehículo adyacente al adyacente sea errantemente detectada como un vehículo adyacente en que la luz de los faros delanteros de un vehículo adyacente al adyacente es más difícil de detectar en términos de la forma de onda DWt de diferencia cuando, por ejemplo, los faros delanteros de un vehículo adyacente al adyacente radian luz.
Además, se proporcionó un ejemplo de una configuración en la primera modalidad anteriormente descrita en el cual los valores de pixel de la imagen PDt de diferencia se detectan como ?0' y ?1' por la unidad 32 de alineación, y los pixeles que tienen un valor de pixel de '1' en la imagen PDt de diferencia se cuentan como pixeles DP de diferencia por la unidad 33 de detección de objeto tridimensional con base en la imagen PDt de diferencia, para detectar por consiguiente un objeto tridimensional, pero no se impone limitación alguna en ese sentido, y también es posible utilizar una configuración en la cual, por ejemplo, los valores de pixel de la imagen PDt de diferencia se detectan por la unidad 32 de alineación utilizando los valores absolutos de los valores de diferencia de las imágenes PBt, PBt_i de vista a ojo de pájaro, y los pixeles que exceden un valor de umbral de diferencia predeterminado se cuentan como los pixeles DP de diferencia por la unidad 33 de detección de objeto tridimensional.
Se proporcionó un ejemplo de una configuración en la primera modalidad anteriormente descrita en el cual una imagen capturada del momento actual y una imagen en un solo momento previo se convierten a vistas a ojo de pájaro, las vistas a ojo de pájaro convertidas se alinean, posteriormente se genera una imagen PDt de diferencia, y la imagen PDt de diferencia generada se evalúa a lo largo de la dirección de colapso (la direcciór. en la cual el objeto tridimensional colapsa cuando una imagen capturada se convierte a una vista a ojo de pájaro) para generar una forma de onda D t de diferencia, pero no se impone limitación alguna en ese sentido. Por ejemplo, también es posible utilizar una configuración en la cual sólo la imagen en un solo momento previo se convierte a una vista a ojo de pájaro, la vista a ojo de pájaro convertida se alinea, posteriormente se convierte nuevamente a una imagen capturada equivalente, se genera una imagen PDt de diferencia utilizando esta imagen y la imagen en el momento actual, y la imagen PDt de diferencia generada se evalúa a lo largo de la dirección correspondiente a la dirección de colapso (es decir, la dirección obtenida convirtiendo la dirección de colapso a una dirección en la imagen capturada) para generar por consiguiente la forma de onda DWt de diferencia. En otras palabras, no se requiere expresamente como una necesidad que una vista a ojo de pájaro sea generada en tanto se alineen la imagen en el momento actual y la imagen en un solo momento previo, se genere una imagen PDt de diferencia a partir de la diferencia entre las dos imágenes alineadas, y la imagen PDt de diferencia se pueda evaluar a lo largo de la dirección de colapso de un objeto tridimensional cuando la imagen PDt de diferencia se convierte a una vista a ojo de pájaro.
En la primera modalidad anteriormente descrita, la velocidad del vehículo VI principal se determina con base en una señal del detector 20 de velocidad, pero no se impone limitación alguna en ese sentido, y también es posible utilizar una configuración en la cual la velocidad se estima a partir de una pluralidad de imágenes en diferentes momentos. En este caso, el detector 20 de velocidad no es requerido y la configuración se puede simplificar.
Adicionalmente, se proporcionó un ejemplo de una configuración en la primera modalidad anteriormente descrita en el cual, cuando el grado de certeza está en un valor predeterminado o mayor, el valor a2' de umbral obtenido a partir, del primer mapa de valores de umbral y el valor <¾>' ' de umbral obtenido a partir del segundo mapa de valores de umbral se ponderan con la ponderación wt especificada en el mapa de control ilustrado en la FIGURA 12 para reducir por consiguiente el valor a de umbral hacia atrás de la posición de la fuente de iluminación a fin de detectar adecuadamente una llanta/rueda de un vehículo adyacente. Sin embargo, en adición a esta configuración, también es posible calcular una distancia L en la dirección de anchura del vehículo desde la posición central de la cámara 10 hasta la posición del centroide de la fuente de iluminación, y modificar el valor a de umbral hacia atrás de la posición PQ de referencia correspondiente a la fuente de iluminación de conformidad con la distancia L. Por ejemplo, es posible utilizar una configuración en la cual se determina que la posibilidad de que una fuente de iluminación detectada sean los faros delanteros de un vehículo adyacente al adyacente que viaja en un carril adyacente al adyacente lejos del vehículo principal es mayor de manera proporcionada a una mayor distancia L en la dirección de anchura del vehículo desde la posición central de la cámara 10 hasta el centroide de la fuente de iluminación, e incrementar el valor a de umbral hacia atrás de la fuente de iluminación. Esto posibilita prevenir efectivamente que un vehículo adyacente sea erróneamente detectado por la luz de los faros delanteros del vehículo adyacente al adyacente, incluso hacia atrás de los faros delanteros (fuente de iluminación) .
Se proporcionó un ejemplo de una configuración en la segunda modalidad anteriormente descrita en el cual el atributo s(xi, yi) del punto Pai de atención se establece a ?1' o '-?' cuando el valor de luminancia del punto Pai de atención y el punto Pri de referencia es un valor t de umbral o mayor, y una línea La de atención en la cual el atributo s(xi, yi) del punto Pai de atención y el atributo s (xi + 1, yi + 1) del punto Pai + 1 de atención adyacente son ?1' o '-l' de manera consecutiva para un valor T de umbral predeterminado o mayor se detecta como una línea de borde, pero en adición a esta configuración, también es posible modificar el valor t de umbral y el valor T de umbral de conformidad con la distancia hacia atrás desde la cámara 10 o, la relación posicional entre la cámara 10 y la fuente de iluminación.
Específicamente, es posible utilizar una configuración en la cual la unidad 35 de establecimiento de referencia de detección incrementa la ganancia del valor t de umbral y el valor T de umbral en el área Rl y el área R3 en las áreas Al, A2 de detección más que en el área R2 en las áreas Al, A2 de detección cuando el grado de certeza es menor que un valor predeterminado, según se ilustra en, por ejemplo, el dibujo a la izquierda en la FIGURA 8, y por otra parte, la unidad de establecimiento de referencia de detección incrementa la ganancia del valor t de umbral y el valor T de umbral en el área Rf hacia adelante de la fuente de iluminación más que en el área Rr hacia atrás de la fuente de iluminación en las áreas Al, A2 de detección cuando el grado de certeza está en el valor predeterminado o mayor, según se ilustra en, por ejemplo, el dibujo a la derecha en la FIGURA 13(A) . La luz de los faros delanteros de un vehículo adyacente al adyacente consecuentemente se vuelve difícil de detectar como líneas de borde cuando una fuente de iluminación detectada son los faros delanteros de un vehículo adyacente al adyacente, y es posible prevenir efectivamente que una imagen de la luz de los faros delanteros del vehículo adyacente al adyacente sea errantemente detectada como un vehículo adyacente.
Adicionalmente, se proporcionó un ejemplo de una configuración en la segunda modalidad anteriormente descrita en el cual el cambio en la luminancia de las lineas de borde se calcula de conformidad con cualquiera de las fórmulas 6, 7, y 8, y entre las lineas de borde, se excluyen las líneas de borde en las cuales el cambio en la luminancia está en un valor tb de umbral o mayor, pero en adición a esta configuración, el valor tb de umbral se puede modificar de conformidad con la posición de la fuente de iluminación detectada .
Específicamente, es posible utilizar una configuración en la cual la unidad 35 de establecimiento de referencia de detección incrementa la ganancia del valor tb de umbral en el área Rl y el área R3 en las áreas Al, A2 de detección más que en el área R2 en las áreas Al, A2 de detección cuando el grado de certeza es menor que un valor predeterminado, según se ilustra en, por ejemplo, el dibujo a la izquierda en la FIGURA 8, y por otra parte, la unidad de establecimiento de referencia de detección incrementa la ganancia del valor tb de umbral en el área Rf hacia adelante de la fuente de iluminación más que en el área Rr hacia atrás de la fuente de iluminación en las áreas Al, A2 de detección cuando el grado de certeza está en el valor predeterminado o mayor, según se ilustra en, por ejemplo, el dibujo a la derecha en la FIGURA 13 (A) . En este caso también, la luz de los faros delanteros de un vehículo adyacente al adyacente consecuentemente se vuelve difícil de detectar como líneas de borde cuando una fuente de iluminación detectada son los faros delanteros de un vehículo adyacente al adyacente, y es posible prevenir efectivamente que una imagen de la luz de los faros delanteros del vehículo adyacente al adyacente sea errantemente detectada como un vehículo adyacente.
La cámara 10 en las modalidades anteriormente descritas corresponde al medio de captura de imagen de la presente invención. La unidad 31 de conversión de perspectiva corresponde al medio de conversión de imagen de la presente invención, y la unidad 32 de alineación, la unidad 33, 33a de detección de objeto tridimensional, la unidad 36 de cálculo de diferencia de luminancia, y la unidad 37 de detección de líneas de borde corresponden al medio de detección de objeto tridimensional de la presente invención. La unidad 35, 35a de establecimiento de referencia de detección corresponde al medio de detección de fuente de iluminación y el medio de detección de objeto tridimensional de la presente invención. La unidad 34 de evaluación de grado de certeza corresponde al medio de evaluación de grado de certeza de la presente invención .
Lista de Símbolos de Referencia 1, la: dispositivo de detección de objeto tridimensional 10: cámara 20: detector de velocidad 30, 30a: computadora 31: unidad de conversión de perspectiva 32: unidad de alineación 33, 33a: unidad de detección de objeto tridimensional 34: unidad de evaluación de grado de certeza 35, 35a: unidad de establecimiento de referencia de detección 36: unidad de cálculo de diferencia de luminancia 37: unidad de detección de lineas de borde a: ángulo de vista Al, A2 : área de detección CP: punto de cruce DP: pixeles de diferencia D t, DWt' : forma de onda de diferencia DWti a DWm, D m+k a D tn pequeñas áreas Ll, L2 : linea de suelo La, Lb : linea en la dirección en la cual el objeto tridimensional colapsa P: imagen capturada PBt: imagen de vista a ojo de pájaro PDt: imagen de diferencia VI: vehículo principal V2 : vehículo adyacente V3 : vehículo adyacente al adyacente

Claims (13)

REIVINDICACIONES
1. Un dispositivo de detección de objeto tridimensional, caracterizado en que comprende: un medio de captura de imagen para capturar un área predeterminada en la cual un carril adyacente hacia atrás de un vehículo principal se utiliza como una referencia; un medio de conversión de imagen para convertir la perspectiva de una imagen obtenida por el medio de captura de imagen para crear una imagen de vista a ojo de pájaro; un medio de detección de objeto tridimensional para alinear, en una vista a ojo de pájaro, las posiciones de las imágenes de vista a ojo de pájaro obtenidas en diferentes tiempos por el medio de conversión de imagen, generar información de la forma de onda de diferencia contando un número de pixeles que indican una diferencia que tiene un primer valor de umbral predeterminado o mayor en una imagen de diferencia de las imágenes de vista a ojo de pájaro alineadas para formar una distribución de frecuencias, y detectar un objeto tridimensional presente en un carril adyacente con base en la información de la forma de onda de diferencia cuando la información de la forma de onda de diferencia está en un segundo valor de umbral predeterminado o mayor en un marco de detección establecido dentro del área predeterminada; un medio de detección de fuente de iluminación para detectar una fuente de iluminación presente hacia atrás del vehículo principal con base en la imagen capturada obtenida por el medio de captura de imagen; un medio de evaluación de grado de certeza para evaluar un grado de certeza de que la fuente de iluminación son los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente, con base en un modo de la fuente de iluminación detectada por el medio de detección de fuente de iluminación; y un medio de control para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea difícil de detectar en un área delantera más hacia adelante que una línea que conecta la fuente de iluminación y el medio de captura de imagen con respecto a un área trasera más hacia atrás que la línea que conecta la fuente de iluminación y el medio de captura de imagen en el marco de detección cuando el grado de certeza está en un valor predeterminado o mayor, y para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea más difícil de detectar en la progresión desde un lado central hacia uno de los extremos frontal o trasero del marco de detección cuando el grado de certeza es menor que un valor predeterminado.
2. El dispositivo de detección de objeto tridimensional de acuerdo con la reivindicación 1, caracterizado en que el medio de evaluación de grado de certeza especifica un número de las fuentes de iluminación detectadas por el medio de detección de fuente de iluminación como un modo de la fuente de iluminación, y evalúa el grado de certeza con base en un número especificado de las fuentes de iluminación.
3. El dispositivo de detección de objeto tridimensional de acuerdo con la reivindicación 1 o 2, caracterizado en que el medio de evaluación de grado de certeza especifica una posición de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como un modo de la fuente de iluminación, y evalúa el grado de certeza con base en una posición especificada de las fuentes de iluminación.
4. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las reivindicaciones 1 a 3, caracterizado en que el medio de evaluación de grado de certeza especifica un tamaño de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como el modo de la fuente de iluminación, y evalúa el grado de certeza con base en un tamaño especificado de la fuente de iluminación.
5. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las reivindicaciones 1 a 4, caracterizado en que el medio de evaluación de grado de certeza especifica un cambio en el tiempo de un estado de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como el modo de la fuente de iluminación, y evalúa el grado de certeza con base en un especificado cambio en el tiempo del estado de la fuente de iluminación.
6. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las rei indicaciones 1 a 5, caracterizado en que, cuando el grado de certeza es menor que un valor predeterminado, el medio de control especifica: una parte extrema frontal en la cual una distancia hacia atrás desde el medio de captura de imagen, incluyendo el extremo frontal del marco de detección, es menor que una primera distancia predeterminada; una parte extrema trasera en la cual una distancia hacia atrás desde el medio de captura de imagen, incluyendo el extremo trasero del marco de detección, es una segunda distancia o mayor, que es mayor que la primera distancia; y una parte central posicionada entre la parte extrema frontal y la parte extrema trasera y en la cual una distancia hacia atrás desde el medio de captura de imagen es igual a o mayor que la primera distancia y menor que la segunda distancia, y establece el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea más difícil de detectar en la parte extrema frontal y en la parte extrema trasera que en la parte central.
7. Un dispositivo de detección de objeto tridimensional, caracterizado en que comprende: un medio de captura de imagen para capturar un área predeterminada a ser detectada, que incluye un carril adyacente hacia atrás de un vehículo principal; un medio de conversión de imagen para convertir la perspectiva de una imagen obtenida por el medio de captura de imagen para crear una imagen de vista a ojo de pájaro; un medio de detección de objeto tridimensional para detectar la información de borde que tiene un primer valor de umbral predeterminado o mayor a partir de la imagen de vista a ojo de pájaro obtenida por el medio de conversión de imagen, y detectar un objeto tridimensional presente en un carril adyacente con base en la información de borde cuando la información de borde está en un segundo valor de umbral predeterminado o mayor en un marco de detección establecido dentro del área predeterminada; y un medio de detección de fuente de iluminación para detectar una fuente de iluminación presente hacia atrás del vehículo principal con base en la imagen obtenida por el medio de captura de imagen, un medio de evaluación de grado de certeza para evaluar un grado de certeza de que la fuente de iluminación son los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente, con base en un modo de la fuente de iluminación detectada por el medio de detección de fuente de iluminación; y un medio de control para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea difícil de detectar en un área delantera más hacia adelante que una línea que conecta la fuente de iluminación y el medio de captura de imagen con respecto al área trasera más hacia atrás que la línea que conecta la fuente de iluminación y el medio de captura de imagen en el marco de detección cuando el grado de certeza está en un valor predeterminado o mayor, y para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea más difícil de detectar en la progresión desde un lado central hacia uno de los extremos frontal o trasero del marco de detección cuando el grado de certeza es menor que un valor predeterminado.
8. El dispositivo de detección de objeto tridimensional de acuerdo con la reivindicación 7, caracterizado en que el medio de evaluación de grado de certeza especifica un número de las fuentes de iluminación detectadas por el medio de detección de fuente de iluminación como un modo de la fuente de iluminación, y evalúa el grado de certeza con base en un número especificado de las fuentes de iluminación.
9. El dispositivo de detección de objeto tridimensional de acuerdo con la reivindicación 7 u 8, caracterizado en que el medio de evaluación de grado de certeza especifica una posición de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como un modo de la fuente de iluminación, y evalúa el grado de certeza con base en una posición especificada de la fuente de iluminación.
10. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las reivindicaciones 7 a 9, caracterizado en que el medio de evaluación de grado de certeza especifica un tamaño de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como el modo de la fuente de iluminación, y evalúa el grado de certeza con base en un tamaño especificado de la fuente de iluminación.
11. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las reivindicaciones 7 a 10, caracterizado en que el medio de evaluación de grado de certeza especifica un cambio en el tiempo de un estado de la fuente de iluminación detectada por el medio de detección de fuente de iluminación como el modo de la fuente de iluminación, y evalúa el grado de certeza con base en un especificado cambio en el tiempo del estado de la fuente de iluminación.
12. El dispositivo de detección de objeto tridimensional de acuerdo con cualquiera de las reivindicaciones 7 a 11, caracterizado en que, cuando el grado de certeza es menor que un valor predeterminado, el medio de control especifica: una parte extrema frontal en la cual una distancia hacia atrás desde el medio de captura de imagen, incluyendo el extremo frontal del marco de detección, es menor que una primera distancia predeterminada; una parte extrema trasera en la cual una distancia hacia atrás desde el medio de captura de imagen, incluyendo el extremo trasero del marco de detección, es una segunda distancia o mayor, que es mayor que la primera distancia; y una parte central posicionada entre la parte extrema frontal y la parte extrema trasera y en la cual una distancia hacia atrás desde el medio de captura de imagen es igual a o mayor que la primera distancia y menor que la segunda distancia, y establece el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea más difícil de detectar en la parte extrema frontal y en la parte extrema trasera que en la parte central.
13. Un dispositivo de detección de objeto tridimensional, caracterizado en que comprende: un medio de captura de imagen para capturar un área predeterminada en la cual un carril adyacente hacia atrás de un vehículo principal se utiliza como una referencia; un medio de conversión de imagen para convertir la perspectiva de una imagen obtenida por el medio de captura de imagen para crear una imagen de vista a ojo de pájaro; un medio de detección de objeto tridimensional para detectar, en la imagen de vista a ojo de pájaro obtenida por el medie de conversión de imagen, la información de la distribución de los pixeles en que una diferencia de luminancia está en un valor de umbral predeterminado o mayor a lo largo de una dirección en la cual el objeto tridimensional colapsa cuando se convierte en perspectiva a la imagen de vista a ojo de pájaro, y detectar el objeto tridimensional con base en la información de la distribución de los pixeles cuando una cantidad de distribución de los pixeles en la dirección en la cual el objeto tridimensional colapsa está en un segundo valor de umbral predeterminado o mayor en el marco de detección establecido en el área predeterminada; un medio de detección de fuente de iluminación para detectar una fuente de iluminación presente hacia atrás del vehículo principal con base en la imagen obtenida por el medio de captura de imagen; un medio de evaluación de grado de certeza para evaluar un grado de certeza de que la fuente de iluminación son los faros delanteros de otro vehículo que viaja en un carril adyacente al adyacente, adyacente al carril adyacente, con base en un modo de la fuente de iluminación detectada por el medio de detección de fuente de iluminación; y un medio de control para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea difícil de detectar en un área delantera más hacia adelante que una línea que conecta la fuente de iluminación y el medio de captura de imagen con respecto a un área trasera más hacia atrás que la línea que conecta la fuente de iluminación y el medio de captura de imagen en el marco de detección cuando el grado de certeza está en un valor predeterminado o mayor, y para establecer el primer valor de umbral o el segundo valor de umbral de modo que el objeto tridimensional sea más difícil de detectar en la progresión desde un lado central hacia uno de los extremos frontal o trasero del marco de detección cuando el grado de certeza es menor que un valor predeterminado. RESUMEN DE LA INVENCIÓN La presente invención se provee con: un medio (32, 33) de detección de objeto tridimensional que genera información de la forma de onda de diferencia con base en el número de pixeles que tienen una diferencia igual a o mayor que un primer valor de umbral en una imagen de diferencia en la cual se alinean las imágenes de vista aérea tomadas en diferentes tiempos, y detecta un objeto tridimensional con base en la información de la forma de onda de diferencia cuando la información de la forma de onda de diferencia dentro de un marco de detección predeterminado es igual a o mayor que un segundo valor de umbral; un medio (35) de detección de fuente de iluminación que detecta una fuente de iluminación; un medio (34) de determinación de certeza que determina la certeza con la cual una fuente de iluminación es el faro delantero de otro vehículo que viaja en el carril siguiente al adyacente; y un medio (35) de control que, si la certeza es igual a o mayor que un valor predeterminado, establece el primer valor de umbral o el segundo valor de umbral tal que un objeto tridimensional sea más difícil de detectar en un área delantera más hacia adelante que una línea que conecta la fuente de iluminación y un medio (10) de formación de imágenes en el marco de detección, y, si la certeza es menor que el valor predeterminado, establece el primer valor de umbral o el segundo valor de umbral tal que un objeto tridimensional sea progresivamente más difícil de detectar hacia el extremo frontal o el extremo trasero desde el centro del marco de detección.
MX2014010245A 2012-03-01 2013-02-26 Dispositivo de deteccion de objetos tridimensionales. MX350354B (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012045356 2012-03-01
PCT/JP2013/054857 WO2013129356A1 (ja) 2012-03-01 2013-02-26 立体物検出装置

Publications (2)

Publication Number Publication Date
MX2014010245A true MX2014010245A (es) 2014-11-12
MX350354B MX350354B (es) 2017-09-04

Family

ID=49082553

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014010245A MX350354B (es) 2012-03-01 2013-02-26 Dispositivo de deteccion de objetos tridimensionales.

Country Status (8)

Country Link
US (1) US9135511B2 (es)
EP (1) EP2821958A4 (es)
JP (1) JP5804180B2 (es)
CN (1) CN104115188B (es)
BR (1) BR112014020404B1 (es)
MX (1) MX350354B (es)
RU (1) RU2616538C2 (es)
WO (1) WO2013129356A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103080976B (zh) * 2010-08-19 2015-08-05 日产自动车株式会社 三维物体检测装置和三维物体检测方法
JP6177632B2 (ja) * 2013-09-11 2017-08-09 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
JP6426455B2 (ja) * 2014-12-09 2018-11-21 クラリオン株式会社 接近車両検出装置
US20160205378A1 (en) * 2015-01-08 2016-07-14 Amir Nevet Multimode depth imaging
DE102015004330A1 (de) * 2015-04-09 2016-10-13 Eisenmann Se Lage- und Positionserkennung für eine Fördereinrichtung
CA3002639C (en) * 2015-10-22 2021-07-06 Nissan Motor Co., Ltd. Parking space line detection method and device
CA3021079A1 (en) * 2016-04-21 2017-10-26 Magic Leap, Inc. Visual aura around field of view
EP3479064A4 (en) * 2016-06-30 2020-07-29 Ariel Scientific Innovations Ltd. TRACK LEVEL ACCURACY VIA HIGH BEAM VISION AND PARTICULATE FILTER
FR3056807B1 (fr) * 2016-09-28 2020-08-28 Valeo Schalter & Sensoren Gmbh Dispositif d'aide a la conduite d'un vehicule
KR101906999B1 (ko) * 2016-10-25 2018-12-05 주식회사 와이즈오토모티브 차량과 인접 차로의 객체 간 거리 계산 장치 및 방법
US10288410B2 (en) * 2016-11-10 2019-05-14 The Boeing Company Method and system for identifying wire contact insertion holes of a connector
US11493914B2 (en) * 2020-06-26 2022-11-08 Intel Corporation Technology to handle ambiguity in automated control systems
DE102021003153B4 (de) * 2021-06-18 2024-10-02 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung
WO2023133282A1 (en) * 2022-01-07 2023-07-13 Ouster, Inc. Logic for controlling histogramming of measurements of lidar sensors

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08193831A (ja) * 1995-01-13 1996-07-30 Nissan Motor Co Ltd 接近車両検出装置
DE10253509A1 (de) * 2002-11-16 2004-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges
JP4402400B2 (ja) * 2003-08-28 2010-01-20 オリンパス株式会社 物体認識装置
US7576767B2 (en) * 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
JP4906437B2 (ja) * 2006-08-22 2012-03-28 アルパイン株式会社 周辺監視システム
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP5355209B2 (ja) * 2009-05-01 2013-11-27 アルパイン株式会社 ナビゲーション装置、自車の走行車線の判定方法および判定プログラム
JP5453048B2 (ja) * 2009-10-22 2014-03-26 富士重工業株式会社 車両の運転支援制御装置
RU2533645C2 (ru) * 2010-05-27 2014-11-20 Сергей Анатольевич Королев Интеллектуальная транспортная система и способ её использования
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
JP5809785B2 (ja) * 2010-07-30 2015-11-11 日立オートモティブシステムズ株式会社 車両用外界認識装置およびそれを用いた配光制御システム
US8888304B2 (en) * 2012-05-10 2014-11-18 Christopher V. Beckman Optical control techniques

Also Published As

Publication number Publication date
JPWO2013129356A1 (ja) 2015-07-30
JP5804180B2 (ja) 2015-11-04
US20140363050A1 (en) 2014-12-11
EP2821958A4 (en) 2015-06-03
MX350354B (es) 2017-09-04
WO2013129356A1 (ja) 2013-09-06
EP2821958A1 (en) 2015-01-07
BR112014020404B1 (pt) 2021-08-31
CN104115188A (zh) 2014-10-22
CN104115188B (zh) 2017-03-08
RU2616538C2 (ru) 2017-04-17
US9135511B2 (en) 2015-09-15
BR112014020404A2 (pt) 2021-05-25
RU2014139609A (ru) 2016-04-20

Similar Documents

Publication Publication Date Title
MX2014010245A (es) Dispositivo de deteccion de objetos tridimensionales.
EP2819090B1 (en) Three-dimensional object detection device
US9754172B2 (en) Three-dimenisional object detection device
US9558546B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
EP2821982B1 (en) Three-dimensional object detection device
US9783127B2 (en) Three-dimensional object detection device
US9830519B2 (en) Three-dimensional object detection device
US20150125031A1 (en) Three-dimensional object detection device
MX2014010405A (es) Dispositivo de deteccion de objetos tridimensionales.
JP5835459B2 (ja) 立体物検出装置
WO2014017602A1 (ja) 立体物検出装置および立体物検出方法
WO2013129359A1 (ja) 立体物検出装置

Legal Events

Date Code Title Description
FG Grant or registration